Root Nation訊息資訊科技資訊谷歌前負責人將人工智能比作核武器

谷歌前負責人將人工智能比作核武器

-

谷歌前首席執行官埃里克施密特將人工智能 (AI) 比作核武器,並呼籲建立一種類似於相互保證毀滅的威懾機制,以防止世界上最強大的國家相互毀滅。

谷歌前負責人將人工智能比作核武器

施密特於 22 月 日在阿斯彭安全論壇上討論國家安全和人工智能時談到了人工智能的危險。 當被問及道德在技術中的價值時,施密特解釋說,在谷歌的早期,他自己對信息的力量還很幼稚。 然後他呼籲技術更好地匹配他們所服務的人的道德和道德,並將人工智能與核武器進行了奇怪的比較。

施密特談到了不久的將來,中國和美國需要就人工智能達成協議。 施密特說:“在 50 年代和 60 年代,我們最終創造了一個世界,核試驗沒有‘沒有意外’的規則,結果,它們被禁止了。” “這是信任平衡或缺乏信任的一個例子,這是‘沒有意外’的規則。 我非常擔心美國認為中國腐敗或共產主義或其他什麼,中國認為美國是失敗者......會讓人們說,“哦,我的上帝,他們在做某事”,然後一些難以理解的事情將開始......

人工智能和機器學習是一項引人入勝且經常被誤解的技術。 他基本上沒有人們想像的那麼聰明。 它可以創作出傑作級別的藝術品,在星際爭霸 II 中擊敗對手,並為用戶撥打基本電話。 然而,試圖讓它執行更困難的任務,例如在大城市駕駛汽車,並沒有成功。

施密特談到了一個想像中的不久的將來,中美雙方都將關注安全問題,這將迫使他們簽訂一種遏制人工智能的條約。 他回憶起 1950 年代和 60 年代,當時外交部門圍繞地球上最致命的武器製定了一系列控制措施。 但是,在《禁止核試驗條約》、SALT II 和其他具有里程碑意義的立法締結之前,經歷了十年的核爆炸,最重要的是廣島和長崎的毀滅,和平才得以實現。

二戰結束時被美國摧毀的兩座日本城市奪去了數万人的生命,向世界證明了核武器的永恆恐怖。 然後俄羅斯和中國政府爭先恐後地獲取武器。 我們接受這些武器可能被使用的方式就是所謂的相互保證毀滅(MAD),這是一種威懾理論,它確保如果一個國家發射核武器,任何其他國家都有可能發射核武器。 我們不使用地球上最具破壞性的武器,因為它可能會至少摧毀世界各地的文明。

儘管施密特發表了多姿多彩的評論,但我們不希望或不需要 MAD for AI。 首先,與核武器相比,人工智能尚未證明其破壞力。 但是當權者害怕這種新技術,而且通常是出於錯誤的原因。 人們甚至提議將核武器的控制權交給人工智能,認為它會比人類更好地仲裁其使用。

谷歌前負責人將人工智能比作核武器

人工智能的問題不在於它具有核武器的潛在破壞力。 關鍵在於,人工智能只與開發它的人一樣好,它承載著創造者的價值觀。 人工智能遭受經典的“垃圾進,垃圾出”問題:種族主義算法創造了種族主義機器人,所有人工智能都帶有其創造者的偏見。

訓練擊敗星際爭霸 II 玩家的 AI 的公司 DeepMind 的 CEO Demis Hassabis 似乎比施密特更了解這一點。 在 Lex Friedman 的播客 月的一次採訪中,弗里德曼問哈薩比斯如何控制像人工智能這樣強大的技術,以及哈薩比斯本人如何避免被這種力量腐蝕。

哈薩比斯的回答是關於他自己。 “人工智能這個想法太大了,”他說。 “誰創造了人工智能,他們來自什麼文化,他們的價值觀是什麼,這很重要。 人工智能係統將自行學習……但係統仍將烙印系統作者的文化和價值觀。”

人工智能是其作者的反映。 它不能用 1,2 兆噸的爆炸將一座城市夷為平地。 除非有人教他這個。

你可以幫助烏克蘭對抗俄羅斯侵略者。 最好的方法是通過以下方式向烏克蘭武裝部隊捐款 拯救生命 或通過官方頁面 NBU.

另請閱讀:

來源
註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論
其他文章
訂閱更新
現在流行