分類: 資訊科技資訊

成千上萬的人在未經他們同意的情況下接受了人工智能的治療幫助

週五,Koko 聯合創始人 Rob Morris 在 Twitter據 The Verge 報導,他的公司進行了一項實驗,在沒有事先通知的情況下向 4 人提供人工智能編寫的心理健康建議。 批評者稱該實驗非常不道德,因為科科沒有獲得尋求建議的人的知情同意。 Koko 是一個非營利性心理健康平台,通過消息傳遞應用程序將需要心理健康護理的青少年和成年人與志願者聯繫起來,例如 Telegram 和不和諧。

在 Discord 上,用戶登錄到 Koko Cares 服務器並向 Koko 機器人發送直接消息,後者會詢問一系列多項選擇題(例如,“你對此有過最黑暗的想法嗎?”)。 然後匿名分享此人的關注,記錄為幾句話文本,與服務器上的其他人分享,他們可以用自己的短消息匿名回复。

Morris 說,在一項涉及約 30 條消息的人工智能 (AI) 實驗中,幫助他人的志願者可以選擇使用 OpenAI 的 GPT-3 大型語言模型自動生成的響應,而不是獨立編寫響應(GPT-3 是背後的技術最近流行的 ChatGPT 聊天機器人)。 莫里斯在他的推文中指出,人們一直稱讚人工智能生成的答案,直到他們知道這些答案是由人工智能編寫的,這表明至少在實驗的一個階段缺乏知情同意:

“由 AI 編寫(並由人類控制)的消息的評分明顯高於人類自己編寫的消息。 響應時間減少了 50%,不到一分鐘。 然而……我們很快就從我們的平台上刪除了這個功能。 為什麼? 一旦人們發現消息是機器生成的,它就停止工作了。 模擬的同情似乎很奇怪,空洞的。”

在服務器介紹中,管理員寫道:“Koko 將您與真正了解您的真實人聯繫起來。 不是治療師,不是輔導員,只是像你這樣的人。” 莫里斯發布消息後不久,他收到許多批評該實驗不道德的回复,理由是擔心缺乏知情同意,並質疑該實驗是否已獲得機構審查委員會 (IRB) 的批准。 在美國,未經具有法律效力的知情同意就對人類受試者進行研究是非法的,除非 IRB 確定可以放棄同意。

莫里斯在一條推文中回應稱,該實驗“免於”知情同意要求,因為他沒有公佈結果的計劃,這引發了眾怒。

使用 AI 作為治療師的想法並不新鮮,但 Koko 的實驗與典型的 AI 治療方法的不同之處在於,患者往往知道他們不是在與真人交談。 在 Koko 的案例中,該平台採用了一種混合方法,在這種方法中,人工中介可以在發送消息之前查看消息,而不是直接的聊天格式。 然而,在未經知情同意的情況下,批評者稱 Koko 違反了旨在保護弱勢群體免受有害或殘忍研究實踐影響的道德準則。

週一,Morris 發帖回應爭議並解釋 Koko 的 GPT-3 和 AI 之旅:“我以同理心和開放的態度接受對這項工作的批評、擔憂和質疑。 我們致力於確保對 AI 的任何使用都是敏感的,並深切關注隱私、透明度和風險緩解。 我們的臨床顧問委員會正在開會討論未來工作的指南,包括 IRB 批准。”

你可以幫助烏克蘭對抗俄羅斯侵略者。 最好的方法是通過以下方式向烏克蘭武裝部隊捐款 拯救生命 或通過官方頁面 NBU.

另請閱讀:

分享到
Julia Alexandrova

咖啡師。 攝影師。 我寫關於科學和空間的文章。 我認為我們現在遇到外星人還為時過早。 我關注機器人技術的發展,以防萬一......

發表評論

您的電子郵件地址將不會被發表。 必填字段標*