撰文 | Skin
審校|阿嫻
Stable Diffusion是一個生成式AI模型,簡單點來說就是一個會畫畫的AI,當你輸入一個關鍵詞後,它就能創作出一個相關的影象。
比如,讓他畫一個騎在馬上的宇航員,它就能很快創作一張(看起來像是真的)相關照片。
畫得挺好。|wiki
AI 難道已經可以變成可以替代人類的畫家了嗎?然而,有一些Stable Diffusion XL(以下簡稱SD-XL)似乎得了病,變得不那麼“聰明”,還輸出了一些莫名其妙的東西。
當你要求SD-XL畫一隻狗,它:
而病得更重SD-XL則輸出了一隻貓。
怎麼回事啊!AI怎麼忽然指貓為狗了,而更奇怪的是,當你讓AI畫一輛車,它則輸出了一隻牛。
在下面這張圖片中,你可以看到,AI確實病得不輕,狗、車、帽子最後都變成了完全不相關的貓、牛、蛋糕。它似乎沒辦法再輸出一張像上文描述的“宇航員”一樣準確的以假亂真的圖片。
第1排是正常SD-XL生成的圖片,而第2、3、4排分別是由病的不同程度的SD-XL生成的圖片。|參考資料1
之所以會這樣,是因為人們開發了一款讓生成式AI“中毒”的軟體。
Nightshade由芝加哥大學的研究人員釋出,是一種能夠破壞生成式AI模型的工具。AI靠大量訓練資料來更新迭代,變得更加聰明,而Nightshade所做的,就是在訓練資料中加入一些肉眼難以看見的“毒素”,干擾AI的學習,從而讓AI模型以混亂且不可預測的方式崩潰。
而上面你所看到的,正是經過Nightshade干擾的AI,在沒有中毒前,AI的確能準確地輸出一張狗和車的照片,而在500次和1000次“有毒”訓練資料的訓練後,AI開始輸出亂七八糟的內容。
經過“毒害”後,AI沒辦法再按照指令作畫了。|參考資料1
要給AI“下毒”的原因,與我們在AI時代不得不面對的種種問題相關。自生成式AI變得越來越聰明以來,製造AI的科技巨頭們也面對著接連不斷的訴訟和爭議,藝術家們認為,他們的作品是受到版權和智慧財產權保護的,但OpenAI、Meta、Google 和 Stability AI卻直接拿作品來進行資料訓練,這是一種“竊取”行為。
2024雖然才過去1個月,但AI與知識版權相關的爭議已經鬧得沸沸揚揚。2023年12月27日,《紐約時報》對微軟和OpenAI提起訴訟,指控OpenAI侵犯其文章版權,進行大規模複製來訓練生成式AI。
紐約時報是第一家對 OpenAI 及其主要投資者微軟提起訴訟的主要媒體出版商。有人預測,未來可能會有更多相關訴訟。|giphy
1月25日,社交平臺X限制了平臺上對泰勒·斯威夫特的名字搜尋,原因是X上流傳著大量和她相關的假圖。這個令人震驚的事件更是一個警醒,它意味著,任何人的照片都可以被AI製成令人難以忍受的假圖,我們很可能因為這個而受到嚴重的傷害。
Nightshade便是一個具有攻擊性和操縱性的工具,需要的藝術家可以下載這個工具,對AI進行錯誤的訓練並導致其故障,用以保護自己的作品。而為了不讓AI“中毒”,開發AI科技巨頭們也將不得不正視並解決一個問題:如何尊重藝術家的作品版權。
在自今年1月18日釋出後的五天內,Nightshade的下載量就已經達到了25萬次。
事實上,在開發Nightshade之前,芝加哥大學的這個團隊還推出過另外一款保護藝術家的免費應用程式:Glaze。和Nightshade類似,Glaze也是給圖片施加一些微小的改變,讓AI難以辨認一副作品的風格。
第1、2列是藝術家的風格,第3列是沒有用Glaze時,AI的仿製品。
第4列是用了Glaze時,AI以為自己看到的。第5、6列則是AI在學習經Glaze處理過後的圖片後,生成的(風格完全不相關的)“仿製品”。|參考資料3
當一位藝術家用Glaze“改造”了自己的抽象風格作品(舉個例子),然後將其釋出到網上,被AI抓取學習後,AI可能會將其錯誤地理解為寫實風格。日後也會輸出一些毫不相關的東西。Glaze這個工具主要是保護藝術家,以免他們獨特的風格被AI學走。而Nightshade則主要是為了攻擊不顧版權的AI。
這些工具是如何給AI“投毒”的呢?此專案負責人Ben·Zhao在接受科技媒體採訪時解釋道:這是因為AI和我們人類感知世界的方式存在根本性的差距。
他說:“正是因為這兩個世界如此不同,我們就可以實現機器學習視角中,效果如此顯著的失真,而在人類視角中失真的程度最小。”
在人眼看來,經Glaze處理過的圖片(右)和原圖(左)差別很小。|參考資料3
而由於生成式AI的特性,這種“投毒”也會汙染到其他相關的詞,當它汙染了“狗”,也會相應地汙染“哈士奇”、“狼”等類似的詞。而且在截圖、拍照後,這種“毒素”依然存在。
還有一些工具,比如DeepMind團隊在2023年8月推出的SynthID,則是給AI生成的作品加上一個“看不見的”水印,這樣大家以後可能就知道哪些照片是AI偽造的。
除了圖片,SynthID還能給AI生成的音樂也加上“聽不見的”水印。
如今,建立Nightshade和Glaze團隊還提出要把這兩種軟體整合在一起。不過,工具也需要不斷更新,Glaze團隊自己也提到,這“並不是對抗 AI 模仿的永久解決方案,我們今天使用的技術總有可能被未來的演算法所挑戰。”
不過如今,有越來越多的人嘗試用這種工具來保護自己,證明它的有效性,在這個過程中,我們也許可以漸漸弄清我們與AI的關係到底意味著什麼。
參考資料:
[1]https://arxiv.org/abs/2310.13828
[2]https://nightshade.cs.uchicago.edu/whatis.html
[3]https://glaze.cs.uchicago.edu/media.html
[4]https://venturebeat.com/ai/ai-poisoning-tool-nightshade-received-250000-downloads-in-5-days-beyond-anything-we-imagined/
[5]https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
[6]https://theconversation.com/taylor-swift-deepfakes-a-legal-case-from-the-singer-could-help-other-victims-of-ai-pornography-222113#:~:text=X%20temporarily%20blocked%20searches%20of,the%20US%20against%20deepfake%20content.
[7]https://techcrunch.com/2023/03/17/glaze-generative-ai-art-style-mimicry-protection/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAMMZmSZrsX9vtCLov-KTHMYGo4U7Rvopyqyq9_jm95HoXkB0qBsz1JKrhoF0Ltp7cFPgDaCNb-_I5Zxnt5O8nCUpsmrQ28WbTo_2L2Tv0h2_5sKYOuS9_2_CP7ZxG7A7OhFE4HGiMWwSxjSFRaHtY1SHoSljJkFYeWlR6QO-yXSz
將“把科學帶回家”
不錯過每條有趣科學推文!
原創文章版權歸微信公眾號
“把科學帶回家”所有
轉載請聯絡:[email protected]
凡本公眾號轉載、引用的文章 、圖片、音訊、影片檔案等資料的版權歸版權所有人所有,因此產生相關後果,由版權所有人、原始釋出者和內容提供者承擔,如有侵權請聯絡刪除。
▲ 關注我們,點亮在看,分享一下