Root Nation訊息資訊科技資訊技術專家要求停止人工智能實驗

技術專家要求停止人工智能實驗

-

技術領導者和著名的 AI 研究人員已經簽署 打開信封,呼籲人工智能實驗室和公司“立即暫停”他們的工作。

包括 Steve Wozniak 和 Elon Musk 在內的簽署人一致認為,風險需要至少六個月的技術生產中斷,超出範圍 GPT-4. 這是為了從現在存在的 AI 系統中獲得樂趣和滿足感,並讓人們適應它們並看到它們是有用的。

技術領袖和專家呼籲停止人工智能實驗

這封信補充說,需要謹慎和深思熟慮來確保人工智慧系統的安全,但它們卻被忽視了。 GPT-4 是一種新的 OpenAI 模型,可以用文字回應書面或視覺訊息,而此時各公司競相使用該技術來建立複雜的聊天系統。例子, Microsoft 最近確認其更新的 Bing 搜尋引擎已經在 GPT-4 模型上運行了 7 週多,谷歌最近正式推出 詩人 – 擁有基於 LaMDA 的生成人工智能係統。

對人工智能的擔憂由來已久,但採用最先進技術的競賽顯而易見 人工智能 第一個已經令人震驚。 “最近幾個月,人工智能實驗室捲入了一場不受控制的競賽,以開發和實施越來越強大的數字思維,沒有人——甚至連他們的作者——都無法理解、預測或可靠地控制,”信中寫道。

技術領袖和專家呼籲停止人工智能實驗

這封信由非營利組織未來生命研究所 (FLI) 發布,該組織致力於將全球災難性和生存風險以及新技術(尤其是人工智能)的濫用降至最低。 此前,馬斯克向 FLI 捐贈了 10 萬美元用於 AI 安全研究。 除了他和 Wozniak 之外,簽署人還包括 AI 領域的許多世界領導者,例如 AI 中心和數字政策主席 Mark Rothenberg、麻省理工學院物理學家和 FLI 主席 Max Tegmark,以及作家 Yuval Noah Harari。

上週,哈拉里還在紐約時報上與人合著了一篇專欄文章,警告與此相關的風險 人工智能,人道技術中心的創始人和公開信的其他簽署人 Tristan Harris 和 Aza Raskin 與他一起工作。

該呼籲是在去年對 700 多名機器學習研究人員進行的一項調查之後發出的,其中近一半的人表示,人工智能產生“極其糟糕的後果”的可能性約為 10%,包括人類滅絕。 當被問及 AI 研究的安全性時,68% 的受訪者表示需要做更多或更多的工作。

另請閱讀:

註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論