国产成人剧情av麻豆果冻,国产无遮挡又爽又黄的视频,天天躁夜夜躁狠狠躁婷婷,性色香蕉av久久久天天网,真人性生交免费视频

所在分類(lèi):  AI 所屬圈子: Amazon AI Deepseek

硬核!亞馬遜AI作圖方案,結(jié)合Deepseek和Gemini,效率翻倍

發(fā)帖14次 被置頂3次 被推薦2次 質(zhì)量分1星 回帖互動(dòng)169次 歷史交流熱度54.41% 歷史交流深度0%
經(jīng)過(guò)幾天的調(diào)試,亞馬遜AI作圖方案已經(jīng)完成,可以告一段落了。圖片分析的效果和文案效果都還行,個(gè)人感覺(jué)達(dá)到了70分左右。在這個(gè)基礎(chǔ)上,人工再修改,就會(huì)節(jié)省不少時(shí)間。

先上價(jià)值觀,我覺(jué)得這套流程的意義在于節(jié)省,運(yùn)營(yíng)對(duì)比競(jìng)品圖片的時(shí)間,同時(shí)把優(yōu)秀的圖片文字化,不用再花時(shí)間去想怎么表達(dá)。?

同時(shí),減少了溝通成本。經(jīng)常做圖的朋友應(yīng)該知道,和美工溝通是一件很痛苦的事情。他不懂你的品味,你不懂他的技術(shù)。

很多時(shí)候,運(yùn)營(yíng)只是覺(jué)得,這張圖的感覺(jué)很好,但是細(xì)說(shuō),又說(shuō)不出哪里好。你給美工說(shuō),你要做出這種感覺(jué),具體什么感覺(jué)呢,你自己體會(huì)。美工說(shuō)我謝謝你啊。

那至少這一套東西出來(lái)后,大家再溝通會(huì)有一個(gè)共識(shí),不會(huì)天馬行空了。

想法
言歸正傳,跑一次代碼要5-10分鐘,我用Claude做了一個(gè)流程圖,幫助理解。

1. 先把幾個(gè)競(jìng)品ASIN的圖片下載下來(lái)

2. 讓AI視覺(jué)模型去分析競(jìng)品圖片

3. 識(shí)別出內(nèi)容之后,用文本處理的方法提取特征。

4. 用Deepseek R1進(jìn)行推理

5. 讓Gemini綜合所有信息,寫(xiě)出文案。
https://assert.wearesellers.com/questions/20250318/773848bc1a62c14f353acc2d9f4ddc9d.png AI模型選擇

剛開(kāi)始,我是直接用視覺(jué)分析圖片,生成作圖方案。后來(lái)發(fā)現(xiàn),效果不太好。因?yàn)锳I大模型就和人一樣,有的模型擅長(zhǎng)視覺(jué)分析,有的模型擅長(zhǎng)思考,有的模型擅長(zhǎng)寫(xiě)作。

如果競(jìng)品分析內(nèi)容太多的話,只用一個(gè)大模型不太夠用。一是上下文長(zhǎng)度不夠,大模型不能識(shí)別所有的競(jìng)品圖片分析內(nèi)容。

二是視覺(jué)模型對(duì)于圖片分析比較擅長(zhǎng),但不擅長(zhǎng)寫(xiě)文字內(nèi)容。針對(duì)這種情況,視覺(jué)模型負(fù)責(zé)處理圖片識(shí)別,最后寫(xiě)產(chǎn)品的方案時(shí)候,用另外一個(gè)擅長(zhǎng)文字的大模型。

所以,測(cè)試了幾輪后,我確定了多模型組合的流程。

視覺(jué)模型:豆包模型,負(fù)責(zé)分析競(jìng)品圖片。免費(fèi)額度比較多,先用著吧。

推理模型:Deepseek R1,負(fù)責(zé)根據(jù)競(jìng)品圖片的分析和特征,進(jìn)行推理。成本低且效果上乘。

文案模型:Gemini pro,負(fù)責(zé)綜合競(jìng)品圖片分析、R1的推理,寫(xiě)出作圖方案。Gemini 2.0 pro 有200萬(wàn)上下文,是目前所有大模型中,上下文最長(zhǎng)的模型,非常適合輸出大量文本。
https://assert.wearesellers.com/questions/20250318/4192fb641f09bc2c8a7af2178b1bc1ba.png
?
流程

競(jìng)品圖片

用賣(mài)家精靈的主圖下載功能,把主圖下載,包括A+圖片。但是A+圖片太多,有的是大圖,有的是小圖,我沒(méi)有測(cè)試很多A+圖片。
https://assert.wearesellers.com/questions/20250318/132e4ea0d46331a8d188e7a0409f2d9f.png
?
階段1:視覺(jué)分析

用豆包視覺(jué)模型,分析一張圖片差不多10幾秒,一個(gè)ASIN的話,大概1分半。一開(kāi)始還好,后面分析多了話,還是有點(diǎn)費(fèi)時(shí)間的。

而且對(duì)于token的消耗也是很大,一張圖大概需要消耗6k以上的token。幾個(gè)ASIN下來(lái),大幾萬(wàn)的token就沒(méi)了。

一天下來(lái),幾十萬(wàn)token就沒(méi)了。好在現(xiàn)在有免費(fèi)活動(dòng),不然還是有點(diǎn)費(fèi)錢(qián)的。

由于太費(fèi)token了,所以后面在這里加了一個(gè)檢查機(jī)制。如果本地已經(jīng)存在了分析結(jié)果,就跳過(guò)分析過(guò)程,這對(duì)于后期調(diào)提示詞還是節(jié)省了不少時(shí)間。
https://assert.wearesellers.com/questions/20250318/4b2db334fae2dd93c04f3185d4547c7c.png
?
階段2:特征處理

這個(gè)階段需要把視覺(jué)分析的結(jié)果,提取特征,方便分析。不然一個(gè)ASIN的視覺(jué)分析結(jié)果,差不多有一千字,產(chǎn)品多的話,直接全給大模型的話,容易受到上下文限制。

特征處理中,我比較熟悉的是TF-IDF和Kmeans聚類(lèi),畢竟之前用過(guò)這一套處理關(guān)鍵詞。

我又讓AI多給了LDA的主題分析和詞頻統(tǒng)計(jì)。整體感覺(jué),特征處理的部分的效果一般。

因?yàn)镃ursor中也有上下文限制,全讓Claude改代碼的話,超過(guò)1000行就有點(diǎn)吃力了。目前這一整套代碼,差不多有2000行。

我還測(cè)試了AI embedding模型進(jìn)行向量化,但是讓模型Input視覺(jué)分析的結(jié)果總是出bug,所以就先不折騰了。
https://assert.wearesellers.com/questions/20250318/c84f066d376a551a507769679808b6a3.png
?
階段3:Deepseek R1推理

拿到視覺(jué)模型的分析結(jié)果,和特征提取后,把這些內(nèi)容都給R1去推理。

R1 模型強(qiáng)在推理,在寫(xiě)文案和上下文上,就很一般了。所以,這里只讓R1進(jìn)行推理。
https://assert.wearesellers.com/questions/20250318/2c30f0558e77186961a07da2e4fcad20.png
?
階段4:Gemini生成方案

Gemini的上下文很長(zhǎng),所以我把上面收集的所有內(nèi)容,全給gemini,包括視覺(jué)模型的分析界,特征處理,Deepseek R1的推理結(jié)果。

為了保證文案質(zhì)量,使用目前Google最強(qiáng)的Gemini 2.0 pro 生成文案。
?
https://assert.wearesellers.com/questions/20250318/5eaf98f1e962c7a897b0713392fb68db.png
?
效果

這是視覺(jué)分析的結(jié)果,默認(rèn)輸出json格式,再把它轉(zhuǎn)成csv格式,方便橫向?qū)Ρ雀?jìng)品圖。
https://assert.wearesellers.com/questions/20250318/a79e6e3ce3d95778bf9bbb4129ad48b7.png
?
這是特征詞分析,感覺(jué)一言難盡。。。
https://assert.wearesellers.com/questions/20250318/2aabd9793c62ea2d3c235b1874f6e081.png
?
這是Deepseek的推理報(bào)告。確實(shí)需要先用推理模型過(guò)一下,直接生成的話,分析不了這么全面。
https://assert.wearesellers.com/questions/20250318/5c778c4f9b88164d3f83864e09769334.png
?
這是Gemini最終生成的作圖方案。采用了總-分的結(jié)構(gòu),先寫(xiě)出了整體的設(shè)計(jì)策略,又細(xì)致的把每張圖的計(jì)劃寫(xiě)出來(lái)。
https://assert.wearesellers.com/questions/20250318/f3964474990b0878b9b06b526a559273.png
?
從效果來(lái)說(shuō),大大節(jié)省了運(yùn)營(yíng)分析圖片的時(shí)間。對(duì)于運(yùn)營(yíng)的話,是絕無(wú)可能分析的這么細(xì)致。就一個(gè)視覺(jué)分析,就節(jié)省了足夠多的人工時(shí)間,更不用說(shuō),還有和美工的溝通成本。

優(yōu)化

其實(shí)有很多細(xì)節(jié)都可以優(yōu)化,但是我覺(jué)得已經(jīng)是1+1<2,提升可能不會(huì)很大,因?yàn)橐呀?jīng)做到了70分,可以節(jié)省了足夠多的人工。

我覺(jué)得可以優(yōu)化的地方:

1.視覺(jué)模型可以用阿里千問(wèn)最新的模型,感覺(jué)會(huì)強(qiáng)一點(diǎn),缺點(diǎn)是免費(fèi)額度少。

2.特征處理可以再優(yōu)化,TF—IDF對(duì)語(yǔ)義識(shí)別沒(méi)有AI embedding模型強(qiáng)。

3.語(yǔ)言模型的提示詞可以再優(yōu)化。跑通邏輯,我就花了很多時(shí)間,所以在調(diào)提示詞上,時(shí)間就少了。
https://assert.wearesellers.com/questions/20250318/ad160166b8acfc55f293919f7a39113a.png
?
總結(jié)

再簡(jiǎn)單回顧下整個(gè)流程,先是下載多個(gè)競(jìng)品圖片,然后給視覺(jué)模型分析。再提取特征,給Deepseek推理。最后綜合所有內(nèi)容,讓Gemini寫(xiě)出方案。

沒(méi)有AI coding,沒(méi)有Cursor,我是不可能完成到這個(gè)程度的。使用過(guò)程中,Claude很強(qiáng),但Cursor在改超過(guò)1000行代碼的時(shí)候,經(jīng)常出bug卡頓。

AI在寫(xiě)代碼的時(shí)候,會(huì)寫(xiě)很多冗余。因?yàn)樗麜?huì)把所有情況考慮到,都做好備用方案。但是無(wú)形中,增加了代碼量,不好理解。

AI半自動(dòng)輔助工作,一定會(huì)存在很長(zhǎng)時(shí)間的。與其說(shuō)AGI,不如說(shuō)Agent AI。在相當(dāng)長(zhǎng)的時(shí)間內(nèi),這一定會(huì)是主旋律。

最后,代碼還是不會(huì)分享,因?yàn)檫@只會(huì)吸引更多的人來(lái)問(wèn)我怎么安裝。。。

對(duì)于本次測(cè)試的文件,還是放到飛書(shū)文檔,找我領(lǐng)取。

另外,感興趣的朋友,可以把圖片或ASIN發(fā)給我,我來(lái)幫你測(cè)試效果。
https://assert.wearesellers.com/questions/20250318/b93caf322ada01e6882c9b2e5e8d6008.png
已邀請(qǐng):
h很好很棒,不過(guò)還不如直接花點(diǎn)錢(qián)給外包,做不好還可以DIAO他們,做個(gè)霸道甲方,改到滿意為止,不用上面那么多流程,哈哈哈哈
要回復(fù)問(wèn)題請(qǐng)先登錄注冊(cè)

加入賣(mài)家社群
關(guān)注公眾號(hào)
加入線下社群
廣告 ×
10s