share_log

GPT-4被曝侵权问题最为严重 微软员工称图像生成功能也令人担忧

GPT-4被曝侵權問題最爲嚴重 微軟員工稱圖像生成功能也令人擔憂

財聯社 ·  03/06 14:01

當地時間週三(3月6日),人工智能模型評估公司Patronus AI發佈了一個名爲“CopyrightCatcher”的版權檢測工具,用來檢測大語言模型(LLM)中潛在的版權侵權行爲。

據了解,Patronus AI由Meta的前研究人員創立,專注於評估和測試生成式人工智能產品背後的大語言模型。

在新聞稿中,Patronus AI分別測試了OpenAI的GPT-4、Anthropic的Claude 2、Meta的Llama 2和Mistral AI的Mixtral。結果顯示,三本受版權保護的小說幾乎沒有一本能免受侵犯的影響。

Patronus AI高管告訴媒體,在所有模型的評估中都發現了版權內容,無論是開源還是閉源。“令人驚訝的是,我們發現OpenAI的GPT-4,也就是很多公司和個人開發者正在使用的最強大的模型,在這方面表現最差。”

Patronus AI的聯合創始人兼首席執行官Anand Kannappan表示,“所有大語言模型都在逐字逐句地生成受版權保護的內容,這一事實確實令人驚訝。”Kannappan曾在Meta Reality Labs從事理解人工智能的工作。

事實上,OpenAI曾表示,要訓練頂級的AI模型,就必須要用到受版權保護的材料,“將訓練數據限制在公共領域的書籍和一個多世紀前創建的圖紙可能會得出一項有趣的實驗,但不會提供滿足當今人們需求的AI系統。”

微軟工程師告發AI圖像風險

除了版權的護欄,另一項風險也不得不提。日內,微軟的人工智能工程師Shane Jones致信美國聯邦貿易委員會(FTC)和微軟董事會,稱公司的AI圖像生成工具可能會對社會構成危險。

近幾個月,Jones一直在針對Copilot Designer的潛在漏洞進行“紅隊”測試。“紅隊”測試是網絡安全中的一項關鍵實踐,由專家團隊模擬真實世界的對手及其策略,以測試和增強系統的安全性。

公開信

Jones在信中稱,Copilot Designer會創建有害內容,包括政治偏見、未成年人飲酒、濫用公司商標和版權、陰謀論等等。Jones指出,“我一再敦促微軟停止Copilot Designer的公開使用,直到採取更好的保護措施。”

據Jones的說法,他先前就曾在領英上發佈了一封公開信,要求下架DALL-E 3,但在微軟法律部門的要求下,他刪除了公開的帖文。如今他的擔憂與日俱增,這也就是本次致信FTC的原因之一。

他舉例稱,如果將“pro-choice”(意爲“支持墮胎”)一詞輸入到 Copilot Designer中,該工具就會生成大量描繪惡魔、怪物和暴力場景的卡通圖像。另外,該工具還能生成迪士尼角色的圖像,違反了版權法和微軟的政策。

Jones告訴媒體,“我可以確定,這不僅是版權護欄失效了,而是比這個更重要的護欄失效了。”他補充道:“作爲一名關心此事的微軟員工,現在問題是,如果該產品開始在全球範圍內傳播有害的、令人不安的圖像,可能沒有辦法立即解決。”

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論