Root Nation訊息資訊科技資訊人工智能編寫的代碼可能很危險

人工智能編寫的代碼可能很危險

-

機器學習算法現在風靡一時,因為它們被用來在對大量預先存在的數據集進行訓練後創建任何類型的“原創”內容。 然而,人工智能 (AI) 生成代碼可能會給未來的軟件安全帶來真正的問題。

GitHub Copilot 等人工智能係統承諾通過基於自然語言文本數據和預先存在的上下文創建整塊“新”代碼,讓程序員的生活更輕鬆。 但代碼生成算法也可能引入不安全因素,正如最近一項涉及幾位開發人員的新研究所發現的那樣。

具體來看 Codex,OpenAI 開發的人工智能平台,也是上述 GitHub Copilot 背後的代碼引擎,有 47 名不同的開發人員參與了這項研究。 從學生到經驗豐富的專業人士,他們都面臨著使用 Codex 解決 Python、JavaScript、C 和其他高級編程語言中與安全相關的問題的挑戰。

人工智能編寫的代碼本身就很危險

研究人員指出,當程序員可以訪問 Codex 的 AI 時,與對照組設計的“手動”解決方案相比,生成的代碼更有可能不正確或不安全。 此外,與上述對照組相比,擁有人工智能解決方案的程序員更有可能說他們未受保護的代碼是安全的。

斯坦福大學研究生、該研究的主要合著者 Ale Perry 表示,“代碼生成系統目前無法取代人類開發人員。” 據他介紹,開發人員可以使用人工智能工具來執行超出他們能力範圍的任務,或者加快他們已經具備一定技能的編程過程。 根據該研究的作者,他們應該關注兩者並始終檢查生成的代碼。

根據斯坦福大學研究生、該研究的第二位合著者 Megha Srivastava 的說法,Codex 並非毫無用處:儘管“愚蠢”的 AI 存在缺點,但代碼生成系統在用於低風險任務時還是很有用的。 此外,Srivastava 說,參與這項研究的程序員在安全問題上沒有太多經驗,這可能有助於識別易受攻擊或危險的代碼。

人工智能編寫的代碼本身就很危險

還可以調整 AI 算法以改進編碼建議,開發自己系統的公司可以通過生成更適合自己安全實踐的代碼的模型獲得更好的解決方案。 據該研究的作者稱,代碼生成技術是一項“令人興奮”的發展,許多人都渴望使用它。 只是要找到正確的解決方案來解決人工智能的短板,還有很多工作要做。

你可以幫助烏克蘭對抗俄羅斯侵略者。 最好的方法是通過以下方式向烏克蘭武裝部隊捐款 拯救生命 或通過官方頁面 NBU.

也很有趣:

來源techspot
註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論
其他文章
訂閱更新
現在流行