藝術家使用 Nightshade 工具對抗生成式 AI,保護其藝術作品

藝術家使用 Nightshade 工具對抗生成式 AI,保護其藝術作品

為了對抗用於訓練 AI 模型的數據,一個名為 Nightshade 的新工具被開發出來,這個工具允許用戶將其附加到他們的創意作品上,從而破壞或“毒化”使用該藝術作品的訓練數據。最終,這可能會破壞像 DALL-E、Stable Diffusion 和 Midjourney 這樣的 AI 藝術平台的未來模型,使其無法創建圖像。

Nightshade 會對數位藝術作品中的像素進行不可見的更改,當作品被模型用於訓練時,這種“毒藥”會利用一個安全漏洞來混淆模型,使其不再將汽車的圖像讀作汽車,而是將其讀作牛。

Nightshade 的創建者之一、芝加哥大學的教授 Ben Zhao 希望能夠改變目前的平衡,使其偏向於那些使用受版權保護的數據訓練模型的 AI 公司。Nightshade 的研究論文指出,用於文本到圖像的 AI 模型的訓練數據容易受到該工具釋放的攻擊類型的影響。

藝術家可以將他們的作品上傳到 Glaze,這是 Nightshade 創建者製作的一個工具,它可以遮蓋他們的藝術風格,例如,將通常的寫實畫變成立體派畫作。Nightshade 將被整合到 Glaze 中,讓用戶選擇他們是否想使用這種毒藥,使模型無法模仿他們的藝術風格。

版權問題仍然是一個灰色地帶,許多關於版權侵權的訴訟仍在法庭上進行,三位藝術家在今年1月起訴了 Stable Diffusion、Midjourney 和藝術網站 DeviantArt,稱其模型未經許可就使用了他們的藝術作品。同時,防止網路爬蟲未經許可取得資料的方法僅限於阻止爬蟲的存取。Adobe 等公司計劃使用標記來標記某些內容是否是人工智慧生成的,同時也顯示誰擁有該圖像。 

Leave a Reply

Your email address will not be published. Required fields are marked *