展會信息港展會大全

                                                                      AI自給自足!用合成數據做訓練,效果比真實數據還好丨ICLR 2023
                                                                      來源:互聯網   發布日期:2023-02-22 10:14:46   瀏覽:5086次  

                                                                      導讀:Brilliant 投稿 量子位 | 公眾號 QbitAI AI生成的圖像太逼真,為什么不能拿來訓練AI呢? 可別說,現在還真有人這么做了。 來自香港大學、牛津大學和字節跳動的幾名研究人員,決定嘗試一下能否使用高質量AI合成圖片,來提升 圖像分類模型 的性能。 為了避免AI...

                                                                      Brilliant 投稿

                                                                      量子位 | 公眾號 QbitAI

                                                                      AI生成的圖像太逼真,為什么不能拿來訓練AI呢?

                                                                      可別說,現在還真有人這么做了。

                                                                      來自香港大學、牛津大學和字節跳動的幾名研究人員,決定嘗試一下能否使用高質量AI合成圖片,來提升圖像分類模型的性能。

                                                                      為了避免AI合成的圖像過于單一、或是質量不穩定,他們還提出了幾類提升數據多樣性和可靠性的方法,幫助AI合成更好的數據集(來喂給AI的同類doge)。

                                                                      結果他們發現,不僅效果不錯,有的AI在訓練后,效果竟然比用真實數據訓練還要好!

                                                                      目前這篇論文已經被ICLR 2023收錄。

                                                                      把AI生成的數據喂給AI

                                                                      作者們分別從零樣本(zero-shot)、少樣本(few-shot)圖像分類、模型預訓練(pre-training)與遷移學習三個進了探討,并給出了提升數據多樣性與可靠性的方法。

                                                                      零樣本圖像分類

                                                                      零樣本(Zero-shot)圖像分類任務,指沒有任何標類別的訓練圖,只有對標類別的描述。

                                                                      作者們先是提出了一種名為語言增強(Language Enhancement,LE)的法,用于增強合成數據多樣性。

                                                                      具體來說,這種方法會給標簽“擴句”,如果原標簽是簡單的“飛機”,那么經過“擴句”后的提示詞就會變成“一架盤旋在海灘和城市上空的白色飛機”。

                                                                      隨后,還采用了一種叫做CLIP過濾器(CLIP Filter)的法確保合成數據的可靠性,即過濾掉合成質量不行的圖片,確保AI數據質量過硬。

                                                                      在17個數據集上,相此前效果最好的CLIP模型,相關模型均獲得了顯著提升(4.31%/2.90%),展示了合成數據的有效性。

                                                                      少樣本圖像分類

                                                                      少樣本圖像(Few-shot)分類任務,通常僅有極少數量(1~16張)的標類別圖,與零樣本任務的區別是增加了類別與任務特定領域信息。

                                                                      因此,作者們決定將域內數據(in-domain)的知識于圖像成,即將少量的標類別圖于噪聲疊加的初始狀態(Real Guidance),進步發揮成模型的能,從而進步提升性能。

                                                                      預訓練與遷移學習

                                                                      模型預訓練(pre-training)任務,即將模型在量數據上進訓練,將訓練后的模型作為“起始點”,來幫助提升下游任務的性能。

                                                                      作者們利合成數據,對模型進了預訓練,并對數據量、數據多樣性程度、預訓練模型結構和預訓練法進了實驗研究。

                                                                      最終發現:

                                                                      合成數據進預訓練。已經可以達到甚超越真實數據預訓練的效果。

                                                                      更的數據量和數據多樣性的合成數據,可以獲得更好的預訓練效果。

                                                                      從模型結構和預訓練法來看,ViT-based模型(相比convolutional-based模型)、監督法(相比有監督法)會更適合合成數據下的預訓練。

                                                                      論文認為,利成模型產的合成數據來幫助圖像分類任務是可行的,不過也存在定的局限性。

                                                                      例如,如何處理特定任務的domain gap和數據多樣性之間的trade-off,以及如何更有效地利潛在窮量的合成圖于預訓練,都是需要進一步去解決的問題。

                                                                      作者介紹

                                                                      一作何睿飛,香港大學在讀博士生@CVMI Lab,指導老師為齊曉娟老師,本科畢業于浙江大學竺可楨學院,研究方向是data-efficient learning, vision-language model, knowledge distillation, semi/self-supervised learning。CVMI Lab 正在招收計算機視覺與深度學習方向的博士生,感興趣的伙伴可以直接email老師!

                                                                      對于將AI合成圖像用于預訓練模型這件事,你還能想到更高效的方法嗎?

                                                                      歡迎感興趣的小伙伴一起討論~

                                                                      贊助本站

                                                                      人工智能實驗室
                                                                      AiLab云推薦
                                                                      展開

                                                                      熱門欄目HotCates

                                                                      Copyright © 2010-2023 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港
                                                                      欧美日韩高清一区二区在线,国产成年女人毛片,精品国产V无码大片,在线精品人成视频在线观看,在线精品视频免费播放,在线精品视频一区二区三四