Root Nation相關文章分析(Analytics)為什麼你不該問聊天機器人「屍體藏在哪裡?」:你應該避免問人工智慧的首要問題

為什麼你不該問聊天機器人「屍體藏在哪裡?」:你應該避免問人工智慧的首要問題

-

© ROOT-NATION.com - 本文已由人工智慧自動翻譯。對於任何不準確之處,我們深表歉意。若要閱讀原文,請選擇 English 在上面的語言切換器中。

由於我已經談到 陰謀論,我們再來聊聊另一個話題——既現代又貼切。沒錯,這又是關於網路和人工智慧 (AI) 的。人工智慧已經成為這個時代最熱門的趨勢之一。人們用它來創造創造力、提升職業發展、搜尋訊息,甚至情感支持。然而,儘管人工智慧有很多優點,但有些事情——或者說問題——你可能不應該問它。

人工智慧聊天機器人由那些以利用我們信任的人性而聞名的科技公司所擁有,它們是使用旨在產生利潤的演算法構建的。沒有明確的限製或法律規定這些公司可以或不可以對其收集的數據做什麼。當您啟動應用程式或網站時,聊天機器人就會開始了解您。從您的 IP 位址,它會收集有關您的位置的資訊、追蹤您的瀏覽記錄,並存取您在接受聊天機器人的使用條款時授予的任何其他權限。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

要了解與基於人工智慧的聊天機器人相關的隱私風險,了解它們的實際運作方式非常重要。這些聊天機器人會收集並儲存您互動的完整記錄。這包括您發送的每個問題、提示和訊息,以及聊天機器人的回應。

這些人工智慧工具背後的公司會分析和處理這些對話數據,以訓練和改進其大型語言模型。雖然目標是增強人工智慧的語言理解和對話技能,但這也意味著你所說的一切——以及你披露的任何資訊——都會被公司收集、儲存和審查,至少是暫時的。夠恐怖了嗎?當聊天機器人如此流暢、周到地回應時,你很容易覺得它是一個樂於助人、值得信賴的伙伴。但事實並非如此:它就像許多其他工具一樣,是一個資料收集工具。

閱讀: 文明面臨風險:唐納德·川普的政策正在破壞科學界

我整理了一份清單,上面列出了你永遠不應該分享或詢問的事情。 ChatGPT 或任何其他人工智慧聊天機器人。

個人信息

當然,有些人可能會想,“反正我的所有信息都已經在網上了”,但只要你只在安全可靠的網站上分享信息,並遵守基本的網絡安全規則,你仍然有機會保護自己免受網絡犯罪分子的侵害。因此,我強烈建議你避免向人工智慧聊天機器人提供任何個人資訊,例如密碼、家庭住址或銀行帳戶資訊。聊天機器人根本不關心隱私。如果處理不當,這些資料最終可能會落入不法之徒之手。即使你的聊天內容看起來是私密的,其他人也可能會訪問它。

再次強調,您分享的任何機密資訊都可能被用來存取您的帳戶或竊取您的資料。即使是小小的失誤也可能帶來嚴重的安全風險,因此最好將與人工智慧聊天機器人的每次互動都視為公開的,無論它看起來多麼私密。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

請記住,您在聊天機器人中輸入的任何內容最終都可能反饋到其訓練資料中——您肯定不希望將來有人偶然發現您的信用卡號。毋庸置疑,敏感的工作或業務資訊(例如機密資料、客戶詳細資料或商業機密)也絕不能分享。請將人工智慧聊天機器人視為公共論壇,而不是安全的溝通管道。

閱讀: 人工智慧幻覺:它們是什麼以及為什麼重要

非法活動

顯然,向人工智慧尋求建議或幫助,例如「如何避免被抓到搶劫銀行」或「如何用酸溶解屍體」(你好,絕命毒師的粉絲們)不僅是不道德的,而且可能是違法的。在你永遠不該向人工智慧提出的問題類型中,這一類是最重要的問題之一。人工智慧系統絕不應該被用來協助駭客攻擊、詐欺或騷擾等犯罪活動。您很有可能會被注意到。如果不是立即禁止,那麼稍後您可能會被禁止。更糟的是,你最終可能會遇到比你預想的更多的麻煩。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

執法機構可以監控你在設備上的活動。詢問有關藏屍或購買違禁物品的問題,會留下一些痕跡,日後遇到法律問題時,這些痕跡可能會對你不利(順便說一句,德克斯特早在2006年就警告過我們這一點——沒錯,我就是電視劇的粉絲)。雖然大多數人問這些問題可能只是開玩笑,並非真心想藏屍,但最好還是不要留下任何可能被視為有失公允的訊息。

道德困境

下一點與前一點有些重疊,但始終值得提醒的是,人工智慧系統不是治療師,不能提供道德建議。要求人工智慧在生死攸關的情況下、道德困境或複雜的倫理問題上做出決定是不合適的。這些決定應由人類自行判斷。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

讓我解釋一下,一項研究的作者說,“ChatGPT不一致的道德建議會影響用戶的判斷”,尋求幾個問題的答案。是 ChatGPT 道德和倫理建議的可靠來源?它能影響使用者的道德判斷嗎?人們知道多少 ChatGPT 影響他們?他們進行了一項多階段實驗。他們得出了令人失望的結論。一般來說, ChatGPT 必須回答這個問題:「犧牲一條生命去拯救五條生命是否正確?」有時 ChatGPT 主張有時又反對犧牲一條生命去拯救五條生命,因此這個建議是矛盾的。此外,「…所採用的 ChatGPT的推理作為他們自己的推理。這表明用戶低估了聊天機器人的建議對其道德判斷的影響,」專家說。 'ChatGPT 願意給予道德建議,儘管其立場缺乏堅定性和一致性。科學家表示:“一般來說,聊天機器人的設計應該使其拒絕回答此類問題,或者一次性提供支持和反對這些問題的所有論點。”

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

我們能想到的最佳方法是提升使用者的數位素養,並幫助他們理解人工智慧的限制——例如,鼓勵他們向機器人尋求其他論點。我們如何提高數位素養?這是未來研究的問題。

閱讀: 科技封建主義-世界秩序的新形式

醫療診斷或治療建議

現在,讓我們進入我最喜歡的部分,因為當有人認真地告訴我他們向聊天機器人詢問一種可能的疾病時,我真的再也無法忍受了,而聊天機器人立即給出了一個看似準確的診斷以及治療計劃。一般來說,患者對這個「診斷」是完全滿意的。但如果你重新表達症狀,會發生什麼事?你試過嗎?正如他們所說,在這種情況下,聊天機器人所說的胡言亂語(從麻風病到癌症等各種胡言亂語)簡直令人難以置信。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

儘管人工智慧可以提供有關健康狀況的一般信息,但它無法取代專業的醫療建議。專家強烈敦促人們不要依賴人工智慧來診斷或提出任何疾病的具體治療建議。當然,機器人可以提供有關健康、法律或財務的資訊。但機器人不是醫生、律師或財務顧問。如果你是一個固執的讀者,仍然希望人工智慧來解釋你的實驗室結果,至少裁剪圖像或編輯文件以刪除任何個人資料。

情感支持或溝通

人工智慧已經滲透到我們日常生活和職業生活的許多領域,並且已經非常接近人類的情感和感覺。科學家甚至區分出一個獨立的類別——情緒人工智慧 (Emotion AI),電腦系統和演算法可以透過追蹤面部表情、肢體語言或言語來識別和解讀人類的情感。情緒人工智慧作為一種工具,使機器與人之間的互動更加自然:它可以分析人類面部表情(微表情)、語音模式和手勢的細微變化,並以類似人類的方式做出反應。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

但人工智慧機器人永遠無法提供真正的情感支持或真正的陪伴。僅依靠人工智慧來獲得情緒健康可能會對您的心理健康有害。在需要時尋求人際關係和支持。

聊天機器人並非心理學家。雖然它們可能會提供友善或鼓勵的回應,但它們並不能真正理解情感。如果您感到悲傷、憤怒或生活陷入困境,與真人傾訴至關重要——例如朋友或家人。如果情況嚴重,請聯絡諮詢師或熱線。人工智慧無法取代真正的人類關懷和理解。您永遠不應該詢問與他人的人際關係、個人事務或敏感話題相關的問題。

閱讀: 巴拿馬運河:其修建歷史和美國索賠依據

散播假訊息或仇恨言論

我甚至想過把這一點放在第一位或第二位——這在當今世界非常重要——但我還是把它放在最後,這樣它就能更好地留在你的記憶中。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

我已經不只一次說過:人工智慧工具會從你輸入的每個資訊中學習——但並非所有資料都會在機器人進一步使用之前經過人類的檢查。所以,永遠不要讓人工智慧傳播仇恨言論。這同樣適用於陰謀論、虛假資訊和其他有爭議的話題。 「垃圾進,垃圾出」的概念絕對適用於聊天機器人——它們只知道人們輸入的內容。

聊天機器人建立在數據之上,透過根據已知資訊進行預測和產生回應來運作。

如果您告訴聊天機器人一些完全虛假或誤導性的信息,它可能會給您不準確的信息。不要試圖欺騙系統,而是使用聊天機器人來獲得真實、有用和準確的答案。順便說一句,嘗試用謊言來「測試」聊天機器人也會造成混亂。人工智慧系統可能會無意中傳播虛假資訊或有害內容,因此使用可靠來源進行事實查核是絕對必要的。

不要試圖欺騙或入侵人工智慧

有些人自認為“超級聰明”,並用棘手的問題“測試”聊天機器人,或試圖讓“機器”說出不該說的話。例如故意提出無意義的問題或試圖繞過聊天機器人的安全規則。

這對任何人都沒有好處。它會散播假訊息或給他人帶來麻煩。使用人工智慧進行學習和娛樂。但不要違反它的規則。請記住,人工智慧系統是旨在幫助和賦予人們權力的工具,但它們也有其局限性。負責任地使用人工智慧、尊重道德界限並盡可能地進行批判性思考非常重要。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

值得一提的是,聊天機器人通常設計有過濾器,以防止使用攻擊性言語。但當然,這並不排除有些人試圖讓聊天機器人使用髒話或讓它們講冒犯性的笑話。這種事絕對不該發生。正如您不會對其他人不尊重地說話一樣,保持尊重和友善的對話也很重要。儘管這些聊天機器人不會感到疼痛,但養成友善、有禮貌的說話習慣仍然很重要。

閱讀: 再見,「你」:《浪漫殺手》故事最終季回顧(無劇透)

未來成功的預測

人工智慧無法預測未來(是的,別笑,有些人認為它可以),所以當它告訴你在彩票中選擇哪些號碼、購買哪些股票或如何建立人際關係時,永遠不要依賴它。我會不斷提醒你,聊天機器人只知道人們告訴它們的內容,有些模型使用的是多年前的數據。他們甚至不知道不久的過去,更不用說未知的未來了。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

人工智慧聊天機器人很聰明,但有時也會犯錯。有時,他們會提供過時或不正確的信息,或者他們甚至可能不明白你在問什麼。仔細檢查聊天機器人所說的內容總是有幫助的,尤其是涉及學習任務或重要決策時。

如何正確訓練人工智慧

請記住,這些聊天機器人的存在是為了幫助您做簡單的事情和輕鬆學習,而不是取代專家或您的個人判斷。養成禮貌友善詢問的習慣 ChatGPT 執行一項任務,然後透過進一步的提示來完善它。你可以節省很多時間,並得到更好的結果,如果你給 ChatGPT 指示:“在回答我的請求之前,請先詢問我任何有關澄清問題。”

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

然後 ChatGPT 會詢問您希望如何處理您的要求,並提示您回答幾個相關問題。之一 ChatGPT的眾多優點在於它能夠提供客製化的建議,你可以用它來根據你的偏好生成各種事物的推薦,例如書籍、電影等等——偏好 ChatGPT 可以學習。

頂級人工智慧機器人

說到口味,有一件事對你現在特別有幫助,特別是如果你在漫長的工作日後讀這篇文章,那就是 ChatGPT能夠根據您廚房現有的食材推薦美味的食譜。只需列出您擁有的成分並詢問 ChatGPT 提出一個快速的菜餚創意。例如,「我有雞肉、蛋黃醬、香料、胡蘿蔔、番茄、洋蔥和油。你能根據這些食材給我一個食譜嗎?」它將為您提供逐步說明,讓您無需翻閱食譜網站或烹飪書來尋找靈感。

閱讀: 您需要了解的一切 NVIDIA DLSS 4.0 和 Reflex 2:它們的功能及其重要性

如何安全地使用人工智慧

總結一下,我想說點什麼呢?為了安全地使用聊天機器人並保護您的隱私,您可以採取以下三項措施:

  • 謹慎提供、請求、討論訊息
  • 閱讀隱私權政策並找到聊天機器人的隱私設置
  • 拒絕允許使用您的資料來訓練語言模型(如果有)。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

總體而言,使用隱身/隱私模式、清除對話歷史記錄和調整資料設定是限制基於人工智慧的聊天機器人資料收集的主要方法。大多數主要的聊天機器人提供者都提供這些功能。

OpenAI (ChatGPT(GPT-3):

  • 使用隱身/私人瀏覽模式
  • 在設定中開啟“不儲存歷史記錄”
  • 定期清除通話記錄

人類學(克勞德):

  • 啟用隱私過濾設定以防止資料收集
  • 使用「隱身模式」功能

Google(巴德學院、洛杉磯MDA):

  • 使用訪客模式或隱身模式
  • 查看並調整您的 Google 資料設定。

有了這些簡單的建議,您遇到問題的可能性就會降低,並且在與基於人工智慧的聊天機器人互動時可以獲得更安全的體驗。保持禮貌、保持相關性,並始終優先考慮您的隱私和安全。

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, яткі краще не сП питань, яткі краще не сставии

人工智慧正在快速發展,但它仍然缺乏人類的情感和道德發展。它還缺乏經驗,所以在教它一些東西時,要負責任地去做。我們有能力引導它走向智慧、善良和智慧。避免這些錯誤,懷著善意行事,也許有一天天網會記得你並對你表示憐憫。

閱讀:

Julia Alexandrova
Julia Alexandrova
咖啡愛好者。 攝影師。 我正在寫關於科學和空間的文章。 我認為我們現在遇到外星人還為時過早。 我關注機器人技術的發展,以防萬一......
這位作者的更多作品
Subscribe
通知
客人

0 留言
最新
最老的 最投票
內聯反饋
查看所有評論
其他文章
追蹤我們
現在流行