分類: 資訊科技資訊

技術專家要求停止人工智能實驗

技術領導者和著名的 AI 研究人員已經簽署 打開信封,呼籲人工智能實驗室和公司“立即暫停”他們的工作。

包括 Steve Wozniak 和 Elon Musk 在內的簽署人一致認為,風險需要至少六個月的技術生產中斷,超出範圍 GPT-4. 這是為了從現在存在的 AI 系統中獲得樂趣和滿足感,並讓人們適應它們並看到它們是有用的。

這封信補充說,需要謹慎和深思熟慮來確保人工智慧系統的安全,但它們卻被忽視了。 GPT-4 是一種新的 OpenAI 模型,可以用文字回應書面或視覺訊息,而此時各公司競相使用該技術來建立複雜的聊天系統。例子, Microsoft 最近確認其更新的 Bing 搜尋引擎已經在 GPT-4 模型上運行了 7 週多,谷歌最近正式推出 詩人 – 擁有基於 LaMDA 的生成人工智能係統。

對人工智能的擔憂由來已久,但採用最先進技術的競賽顯而易見 人工智能 第一個已經令人震驚。 “最近幾個月,人工智能實驗室捲入了一場不受控制的競賽,以開發和實施越來越強大的數字思維,沒有人——甚至連他們的作者——都無法理解、預測或可靠地控制,”信中寫道。

這封信由非營利組織未來生命研究所 (FLI) 發布,該組織致力於將全球災難性和生存風險以及新技術(尤其是人工智能)的濫用降至最低。 此前,馬斯克向 FLI 捐贈了 10 萬美元用於 AI 安全研究。 除了他和 Wozniak 之外,簽署人還包括 AI 領域的許多世界領導者,例如 AI 中心和數字政策主席 Mark Rothenberg、麻省理工學院物理學家和 FLI 主席 Max Tegmark,以及作家 Yuval Noah Harari。

上週,哈拉里還在紐約時報上與人合著了一篇專欄文章,警告與此相關的風險 人工智能,人道技術中心的創始人和公開信的其他簽署人 Tristan Harris 和 Aza Raskin 與他一起工作。

該呼籲是在去年對 700 多名機器學習研究人員進行的一項調查之後發出的,其中近一半的人表示,人工智能產生“極其糟糕的後果”的可能性約為 10%,包括人類滅絕。 當被問及 AI 研究的安全性時,68% 的受訪者表示需要做更多或更多的工作。

另請閱讀:

分享到
Svitlana Anisimova

辦公室狂,瘋狂的讀者,漫威電影宇宙的粉絲。 我有 80% 的罪惡感。

發表評論

您的電子郵件地址將不會被發表。 必填字段標*