4,000人在不知情的情況下接受AI機器人心理治療
簡單來說
非營利性心理健康平台 Koko 將需要幫助的人與志願者聯繫起來。
用戶通過發送多項選擇題與 Koko 機器人進行交流。
4,000人接受了未經宣布的心理支持 OpenAI GPT-3.
該機器人在提供治療反應方面與人類一樣有效。
通過非營利心理健康平台 Telegram 和 Discord 等聊天服務 江潮 將需要心理健康護理的青少年和成人與志願者聯繫起來。 用戶登錄 Koko Care 的 Discord 服務器並通過向 Koko 機器人發送多項選擇題直接與它交流,例如“你對此有什麼最黑暗的想法?” 然後 bot 匿名將此人的擔憂傳達給服務器上的另一個用戶,然後該用戶可以匿名回复他們自己的簡短消息。
這種將需要心理健康援助的人與志願者聯繫起來的創新方式使 Koko 能夠彌合無法獲得所需幫助的人與願意提供幫助的人之間的差距。
然而,Koko 的聯合創始人羅布·莫里斯 (Rob Morris) 決定在人工智能機器人上而不是真人上測試心理治療志願者。 大約4,000人獲得了心理支持 OpenAI GPT-3,根據莫里斯的推文。 這項研究的結果表明,人工智慧機器人在提供治療反應方面與人類一樣有效。
人們似乎很欣賞心理支持和幫助 GPT-3 提供。 然而,在消息公佈後,莫里斯迅速將其從 Telegram 和 Discord 上撤下。 為什麼? 一旦人們意識到這些資訊是由機器產生的,這種療法就不再起作用。 假裝同理心可能會顯得奇怪和空洞。
然而,其他因素也可能在起作用。 Rob Morris 的實驗在社交媒體上招致批評,並被貼上不道德的標籤。 畢竟,參與者被欺騙了,無法給予知情同意; 相反,他們不願意參與這項研究。
在常規科學研究中,參與者會被告知研究將如何進行,並且他們可以在結果公佈之前隨時撤回同意。 在這裡,存在嚴重的信任背離:有心理健康問題的人委託該平台為他們提供另一個人的幫助,同時得到人工智能的幫助。 這並不意味著幫助本身質量很差。 然而,在任何治療環境中,信任都是影響未來結果的主要因素。 這種類型的欺騙可能會粉碎人們曾經對一個非常有前途的平台的信任。
Koko 的實驗凸顯了在社交媒體上欺騙人們是多麼容易,導致人們擔心該技術可能會被試圖傳播錯誤信息和假新聞的人惡意使用。 這一次是善意的,那下一次呢?
閱讀有關人工智能的更多信息:
免責聲明
在與線 信託專案指南,請注意,本頁提供的資訊無意且不應被解釋為法律、稅務、投資、財務或任何其他形式的建議。 重要的是,僅投資您可以承受損失的金額,並在有任何疑問時尋求獨立的財務建議。 如需了解更多信息,我們建議您參閱條款和條件以及發行人或廣告商提供的幫助和支援頁面。 MetaversePost 致力於提供準確、公正的報告,但市場狀況如有變更,恕不另行通知。
關於作者
Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。
更多文章Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。