Root Nation文章技術OpenAI 專案 Q*:它是什麼以及該專案為何受到關注

OpenAI 專案 Q*:它是什麼以及該專案為何受到關注

-

神秘 項目Q* OpenAI 的出現引起了專家們的注意。 他真的會對人類構成危險嗎? 關於他,人們知道什麼? 山姆·奧爾特曼上週最初被解僱後,他和團隊幾乎搬到了 Microsoft,然後他確實回到了他的工作場所(大約 我們在這裡寫的),OpenAI 再次成為新聞焦點。 這次是因為一些研究人員稱其可能對人類構成威脅。 是的,你沒有看錯,這是對人類的威脅。

科技世界真正的劇變是由 Q* 項目引起的,這是一個未公開的通用人工智慧 (AGI) 項目,發音為 Q-Star。 儘管該專案還處於早期階段,但它被認為是 AGI 開發中真正的開創性成果。 然而,有些人認為它對人類構成危險。

OpenAI 專案 Q

著名人工智慧實驗室 OpenAI 開發的秘密人工智慧計畫有可能徹底改變科技和社會。 但它也引發了一些有關風險的道德問題。 隨著 Q* 項目驚人能力的細節浮出水面,越來越多的猜測浮出水面,它對人類的未來可能意味著什麼。

也很有趣: OpenAI 的歷史:公司的過去與未來

什麼是通用人工智慧(AGI)?

要了解圍繞 Q* 專案(Q-Star)的炒作,我們首先嘗試了解通用人工智慧 (AGI) 的概念是什麼。 雖然目前的人工智慧系統擅長執行狹窄的特定任務,例如下棋或生成圖像,但通用人工智慧是指能夠在許多領域以人類水平學習和思考的機器。 也就是說,他們可以像學校裡的小孩一樣學習,例如數學、化學、生物等基礎知識。

通用人工智慧(AGI)是一種機器智能,可以假設模仿人類智能或行為,具有學習和應用潛力來解決各種問題的能力。 AGI也稱為強人工智慧、全人工智慧或人類等級的人工智慧。 通用人工智慧不同於弱人工智慧或狹義人工智慧,後者只能在給定參數內執行特定或專門的任務。 ZHI將能夠獨立解決不同知識領域的各種複雜問題。

OpenAI 專案 Q

創造人工智慧是DeepMind、Anthropic等公司人工智慧研究的主要焦點。 CSI 是科幻小說中非常流行的主題,可能會影響未來的研究。 有些人認為,有可能在幾年或幾十年內創建 UCI,而其他人則認為這可能需要一個世紀或更長時間。 但有些人認為這永遠無法實現。 有些人已經在 GPT-3 中看到了 URI 的雛形,但它似乎遠遠沒有達到基本標準。

通用人工智慧(AGI)的創造被研究人員認為是人工智慧的聖杯,這種理論上的可能性長期以來一直激發著他們的想像。 因此,OpenAI Project Q*這樣的計畫的出現,在人工智慧演算法研究界引起了極大的共鳴。 儘管每個人都明白,這些只是第一步,幾乎是盲目地邁向人工智慧將擁有與人類相同甚至更高能力的世界。

- 廣告 -

也很有趣: 所有關於 Microsoft 副駕駛:未來還是方向不對?

Q* 項目是什麼?

Project Q* 並不是典型的演算法,因為它是一個越來越接近通用人工智慧(AGI)模型的人工智慧模型。 這意味著,與 ChatGPT 不同,Project Q* 與其他演算法相比表現出更好的思維和認知能力。 ChatGPT 目前基於大量事實資料來回應查詢,但透過 AGI,AI 模型將學習推理以及自行思考和理解的能力。 眾所周知,Project Q* 能夠解決不屬於其訓練材料的簡單數學問題。 一些研究人員認為,這是朝著創建通用人工智慧(AGI)邁出的重要一步。 OpenAI 將 AGI 定義為比人類更聰明的人工智慧系統。

OpenAI 專案 Q

Q* 計畫的開發由 OpenAI 首席科學家 Ilya Sutzkever 管理,其基礎由研究人員 Jakub Pakhotsky 和 ​​Shimon Sidor 證實。

演算法自行解決數學問題的能力,即使這些問題不是訓練資料集的一部分,也被認為是人工智慧領域的突破。 團隊中關於該專案的分歧與 OpenAI 執行長 Sam Altman 的臨時解職有關。 據了解,在奧特曼被解僱之前,一群公司研究人員向董事會發出了一封信,警告人工智慧的發現可能對人類構成威脅。 據報道,這封信討論了 Project Q* 演算法,被認為是導致 Altman 被解僱的因素之一。 然而,由於細節未知,Project Q* 的功能及其可能帶來的潛在風險尚未完全了解。 沒有向公眾發布任何內容。

OpenAI 專案 Q

從本質上講,Project Q* 是一種無模型強化學習方法,它不同於傳統模型,不需要先驗環境知識。 相反,它透過經驗學習,根據獎勵和懲罰調整行動。 技術專家認為,Project Q*將能夠透過獲得類似人類認知能力的能力來獲得卓越的能力。

然而,正是人工智慧新模型中最令人印象深刻的這一特徵,讓研究人員和評論家感到擔憂,並引發了他們對該技術在現實世界中的應用以及所涉及的潛在風險的擔憂。 科學家和研究人員到底在害怕什麼? 讓我們弄清楚一下。

也很有趣: 如何更新您的家庭設備以支援 Wi-Fi 6

他們害怕未知

人類一直對未知、不可知的事感到恐懼。 這是人類的本質,是我們性格和生活方式的特徵。

路透社通報後,科技界在 2023 年 月了解到 Q* 項目 報導 關於 OpenAI 相關研究人員撰寫的一封內部信。 這封信的內容很模糊,但據報道它認真分析了Project Q*的能力。 正如我上面提到的,甚至有人猜測正是這封信引發了山姆·奧爾特曼的辭職。

OpenAI 專案 Q

這項爆炸性發現引發了有關 Q* 項目性質的各種假設。 科學家認為這可能是人工智慧的革命性自然語言模型。 一種新演算法的發明者,他將為其他形式的人工智慧或該領域完全不同的東西創建新演算法。

奧特曼將通用人工智慧視為「普通員工」的挑釁性言論已經引發了人們對工作保障和人工智慧影響力不可阻擋擴張的擔憂。 這個神秘的演算法被定義為通用人工智慧(AGI)發展的里程碑。 然而,每個人都明白,這個里程碑的代價是昂貴的。 現在這不是錢的問題。 新人工智慧模型所承諾的認知技能水準具有不確定性。 OpenAI 科學家承諾人工智慧將具有人類層面的思維。 這意味著我們無法了解很多事情並預測其後果。 未知越多,準備控製或修復它就越困難。 即新演算法具有自我完善和發展的能力。 我們已經在某處看到過這個......

也很有趣: Windows 12:新作業系統是什麼

- 廣告 -

關於 Project Q 功能的驚人細節*

當更多資訊開始出現時,許多研究人員感到震驚。 早期跡象顯示 Project Q* 擁有驚人的數學天賦。 與執行機械計算的計算器不同,Project Q* 據稱可以使用邏輯和推理來解決複雜的數學問題。 這種數學概括能力暗示著廣泛智力的發展。

OpenAI 專案 Q

Q* 專案的自主訓練,無需用於訓練典型人工智慧的特定資料集,也將是向前邁出的一大步。 目前尚不清楚 Project Q* 是否掌握了任何其他技能。 但他的數學能力本身是如此驚人,以至於即使是經驗豐富的研究人員也感到困惑。

另請閱讀: 人腦計畫:模仿人腦的嘗試

Project Q* 的統治之路是什麼?

對於這個問題,有樂觀的也有悲觀的。 樂觀者會說,Project Q* 可能會成為帶來技術突破的火花。 隨著系統不斷自我完善,其超自然智慧可以幫助解決人類一些最重要的問題,從氣候變遷到疾病控制。 Project Q* 可以自動化枯燥的工作,並騰出我們的空閒時間進行其他活動。

OpenAI 專案 Q

儘管還有很多更悲觀的選擇。 有時,它們是相當合理的並且具有一定的意義。

失業

科技發展的快速變化可能會超過人們的個體適應速度。 這將導致一代或多代人的損失,他們將無法獲得必要的技能或知識來適應新的現實。 也就是說,這反過來意味著能夠保住工作的人將會減少。 它將由機器、自動化系統和機器人來執行。 然而,對於合格的專家來說,答案卻不那麼明確。 此外,可能會出現專門與人工智慧演算法開發相關的新職業。 但風險依然存在,人類沒有權利忽視它們。

不受控制的權力的危險

如果像 Project Q* 這樣強大的人工智慧落入心懷惡意的人手中,人類就有可能面臨災難性後果。 即使沒有潛在的惡意意圖,Q* 專案的決策等級也可能導致有害結果,這凸顯了仔細評估其應用程式的至關重要性。

如果 Q* 專案沒有針對人類需求進行最佳化,那麼它可能會因其最大化某些任意指標的能力而造成損害。 或者它可能具有政治層面,例如用於國家監視或鎮壓。 圍繞 Q* 項目的影響分析進行公開辯論將有助於確定 ZHI 發展的可能方案。

我們即將迎來一場「人與機器」的對決嗎?

好萊塢已經在電影中創造了許多這樣的對抗場景。 我們都記得著名的天網以及這項發現的後果。 也許 OpenAI 研究人員應該再看一次這部電影?

人類需要接受訊號和挑戰,並為可能發生的事情做好準備。 能夠像人類一樣思考的人工智慧模型有一天可能會成為我們的敵人。 許多人認為,未來科學家將確切地知道如何控制局勢。 但當談到機器時,你不能完全排除它們試圖接管人類的可能性。

也很有趣: 並非所有我們稱為 AI 的東西實際上都是人工智能。 這是你需要知道的

OpenAI為何沉默?

儘管公眾對 Q* 專案產生了濃厚的興趣,但 OpenAI 的管理層對該演算法的具體細節卻保持沉默。 但內部洩密事件表明,實驗室內部在優先事項和開發開放性方面的緊張關係日益加劇。 儘管許多 OpenAI 內部人士支持創建 Q* 項目,但批評者認為,為了不惜一切代價加速科學進步,透明度已經退居二線。 一些研究人員擔心,那些目標不一定符合人類價值觀和道德的系統被賦予了令人難以置信的權力。 這些研究人員認為,圍繞監督和問責制的爭論已經變得危險的沉默。 他們需要更多的宣傳和細節。

OpenAI 專案 Q

作為Project Q*的創造者,OpenAI必須明白,他們擁有的技術要么可以極大地拓展社會發展的可能性,要么可以無情地摧毀它。 如此重大的創新值得提高透明度,以建立公眾信任。 機器時代的任何預測者都必須仔細權衡風險和利益。 Project Q* 的開發者需要表現出足夠的智慧和關懷,安全地將社會帶入一個可能比我們想像的更早到來的通用人工智慧新時代。

為了使通用人工智慧對人類有用且安全,必須確保其安全、合乎道德地運行,並符合人類的價值觀和目標。這需要製定和實施適當的監管法案、標準、規則和協議,以控制和約束 CSI 的行動和行為。此外,必須消除與可能導致人類毀滅的虐待、事故、不相容、操縱和衝突相關的潛在威脅和風險。同時,投資者和 Microsoft 急切地等待一個可以產生利潤的適銷對路的產品,這無疑與負責任地行事的需要相衝突。希望常識能夠佔上風。

另請閱讀: 

Yuri Svitlyk
Yuri Svitlyk
喀爾巴阡山脈之子、不為人知的數學天才、“律師”Microsoft,實用的利他主義者,左右
- 廣告 -
註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論