兩家領先的人工智能公司的負責人再次警告說,先進的人工智能構成了生存威脅。DeepMind和OpenAI首席執(zhí)行官Demis Hassabis和Sam Altman承諾支持AI安全中心發(fā)布的一份簡短聲明,該聲明聲稱監(jiān)管機構和立法者應該更加認真地對待“嚴重風險”。
“減輕人工智能滅絕的風險應該與流行病和核戰(zhàn)爭等其他社會規(guī)模風險一起成為全球優(yōu)先事項,”聲明中寫道。
人工智能安全中心是一家總部位于舊金山的非營利組織,旨在“減少人工智能的社會規(guī)模風險”,聲稱在戰(zhàn)爭中使用人工智能可能“極其有害”,因為它可用于開發(fā)新的化學武器和加強空戰(zhàn)。
這份簡短聲明的簽署者沒有澄清他們認為可能滅絕的內(nèi)容,還包括該領域的商業(yè)和學術領袖。
其中包括被稱為“人工智能教父”的Geoffrey Hinton,以及ChatGPT開發(fā)商OpenAI的首席執(zhí)行官兼聯(lián)合創(chuàng)始人Ilya Sutskever。這份名單還包括谷歌等公司的數(shù)十名高級管理層,Skype的聯(lián)合創(chuàng)始人,以及人工智能公司Anthropic的創(chuàng)始人。
在幾家公司發(fā)布新工具后,人工智能現(xiàn)在已進入全球意識,允許用戶通過詢問他們想要的東西來生成文本、圖像甚至計算機代碼。專家表示,這項技術可能會取代人類的工作,但這一聲明警告了更深層次的擔憂。
ChatGPT和Dall-E等工具的出現(xiàn)再次引發(fā)了人們的擔憂,即如果人工智能通過人類智能,它有一天可能會消滅人類。
今年早些時候,技術領導者呼吁領先的人工智能公司暫停其系統(tǒng)的開發(fā)六個月,以研究降低風險的方法。
“具有人類競爭智能的人工智能系統(tǒng)可能對社會和人類構成深遠的風險,”生命未來研究所的公開信說?!叭斯ぶ悄苎芯亢烷_發(fā)應該重新專注于使當今強大、最先進的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。