OpenAI組建新團隊評估AI的“災難性風險”

OpenAI組建新團隊評估AI的“災難性風險”

OpenAI正在組建一個新的團隊名為「Preparedness」,以減輕與AI相關的“災難性風險”。在上周四的更新中,OpenAI表示,Preparedness團隊將“追踪、評估、預測並防護”可能由AI引起的重大問題,包括核威脅。該團隊還將努力減少“化學、生物和輻射威脅”,以及“自主複製”,即AI自我複製的行為。Preparedness團隊將解決的其他風險包括AI欺騙人類的能力,以及網絡安全威脅。

OpenAI在更新中寫道:“我們相信,邊緣AI模型,其能力將超越目前最先進的現有模型,有潛力造福全人類。但它們也帶來了越來越嚴重的風險。”

OpenAI的首席執行官Sam Altman之前已經警告過AI可能引起的災難性事件,他相信超越人類的 AI 可能會在未來十年內出現,而我們無法確定這種 AI 有沒有危險,因此需要提前研究限制它的方法。在5月份,Altman和其他著名的AI研究人員發表了一份22字的聲明,稱“減少AI引起的滅絕風險應該是全球的首要任務”。

Leave a Reply

Your email address will not be published. Required fields are marked *