Root Nation訊息資訊科技資訊管理一個超級智能的人工智能將是不可能的

管理一個超級智能的人工智能將是不可能的

-

人工智能推翻人類的想法已經爭論了幾十年,2021 年 月,科學家們對我們是否可以控制高級計算機超級智能做出了判斷。 回复? 幾乎可以肯定不是。

問題在於,要控制一個遠遠超出人類理解範圍的超級大腦,需要對我們可以分析的超級大腦進行模擬。 但如果我們無法理解它,就不可能創建這樣的模擬。

2021 年的一篇論文的作者認為,除非我們了解人工智能 (AI) 會提出什麼方案,否則無法建立諸如“不傷害人類”之類的規則。 一旦計算機系統的工作水平超出我們程序員的能力,我們將不再能夠設置限制。

人工智能

研究人員寫道:“與通常在‘機器人倫理’旗幟下研究的問題相比,超級智能是一個根本不同的問題。” “這是因為超級大腦是多方面的,因此可能能夠調動各種資源來實現人類可能無法理解的目標,更不用說可控了。”

團隊的部分推理來自 停工問題,由艾倫·圖靈於 1936 年提出。 挑戰在於弄清楚計算機程序是否會得出結論並回答(並停止),或者只是永遠徘徊試圖找到答案。

正如圖靈在幫助下證明的那樣 智能數學,雖然我們可能對某些特定的程序知道這一點,但從邏輯上講,要找到一種方法讓我們對可能編寫的每個潛在程序都知道這一點是不可能的。 這讓我們回到了人工智能,它在超級智能狀態下可以同時將所有可能的計算機程序存儲在它的內存中。

也很有趣:

例如,為阻止人工智能傷害人類和毀滅世界而編寫的任何程序可能會也可能不會得出結論(並停止)——在數學上不可能絕對確定任何一種方式,這意味著它不能被限制。 “它基本上使威懾算法無法使用,”德國馬克斯普朗克人類發展研究所的計算機科學家 Iyad Rahwan 在 月份表示。

研究人員說,除了教授人工智能倫理和禁止毀滅世界之外,沒有算法可以絕對確定的替代方法是限制超級大腦的能力。 例如,它可能與部分 Internet 或某些網絡斷開連接。

最近一項研究的作者也拒絕了這個想法,認為它會限制人工智能的範圍——他們說,如果我們不打算用它來解決人類能力之外的問題,那為什麼還要創造它呢?

人工智能

如果我們要推進人工智能,我們可能甚至不知道超級智能何時會出現,超出我們的控制範圍,它是如此深不可測。 這意味著我們需要開始就我們的前進方向提出嚴肅的問題。

“運行世界的超級智能機器聽起來像科幻小說,”馬克斯普朗克人類發展研究所的計算機科學家 Manuel Kebrian 說。 但是已經有機器可以獨立執行一些重要任務,而程序員並不完全理解他們是如何學習這些的。

因此,問題出現了,它是否會在某個時候變得對人類無法控制和危險……

另請閱讀:

註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論