4,000人在不知情的情况下接受AI机器人心理治疗
简单来说
非营利性心理健康平台 Koko 将需要帮助的人与志愿者联系起来。
用户通过发送多项选择题与 Koko 机器人进行交流。
4,000人接受了未经宣布的心理支持 OpenAI GPT-3.
该机器人在提供治疗反应方面与人类一样有效。
通过非营利心理健康平台 Telegram 和 Discord 等聊天服务 江潮 将需要心理健康护理的青少年和成人与志愿者联系起来。 用户登录 Koko Care 的 Discord 服务器并通过向 Koko 机器人发送多项选择题直接与它交流,例如“你对此有什么最黑暗的想法?” 然后 bot 匿名将此人的担忧传达给服务器上的另一个用户,然后该用户可以匿名回复他们自己的简短消息。
这种将需要心理健康援助的人与志愿者联系起来的创新方式使 Koko 能够弥合无法获得所需帮助的人与愿意提供帮助的人之间的差距。
然而,Koko 的联合创始人罗布·莫里斯 (Rob Morris) 决定在人工智能机器人上而不是真人上测试心理治疗志愿者。 大约4,000人获得了心理支持 OpenAI GPT-3,根据莫里斯的推文。 这项研究的结果表明,人工智能机器人在提供治疗反应方面与人类一样有效。
人们似乎很欣赏心理支持和帮助 GPT-3 提供。 然而,消息公布后,莫里斯迅速将其从 Telegram 和 Discord 上撤下。 为什么? 一旦人们意识到这些信息是由机器生成的,这种疗法就不再起作用。 假装同理心可能会显得奇怪和空洞。
然而,其他因素也可能在起作用。 Rob Morris 的实验在社交媒体上招致批评,并被贴上不道德的标签。 毕竟,参与者被欺骗了,无法给予知情同意; 相反,他们不愿意参与这项研究。
在常规科学研究中,参与者会被告知研究将如何进行,并且他们可以在结果公布之前随时撤回同意。 在这里,存在严重的信任背离:有心理健康问题的人委托该平台为他们提供另一个人的帮助,同时得到人工智能的帮助。 这并不意味着帮助本身质量很差。 然而,在任何治疗环境中,信任都是影响未来结果的主要因素。 这种类型的欺骗可能会粉碎人们曾经对一个非常有前途的平台的信任。
Koko 的实验凸显了在社交媒体上欺骗人们是多么容易,导致人们担心该技术可能会被试图传播错误信息和假新闻的人恶意使用。 这一次是善意的,那下一次呢?
阅读有关人工智能的更多信息:
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。
更多文章Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。