OpenAI 推出确保人工智能安全的最新方法
简单来说
OpenAI 在最近对安全和隐私以及调查的担忧之后,发布了一篇博客文章,概述了其改进的安全方法。
该公司承诺进行严格的测试,聘请外部专家提供反馈,并与政府合作确定最佳方案 人工智能监管方法.
在面临有关安全和隐私的担忧并关注之后 最近的研究 在一些欧洲国家, OpenAI 具有 发布 一篇概述公司改进的安全方法的博客文章。
OpenAI 承诺进行严格的测试,在发布任何新系统之前聘请外部专家征求反馈,并与政府合作确定人工智能监管的最佳方法。
此前,该公司花了六个多月的时间致力于其最新车型的安全性和调整, GPT-4,然后再公开发布。 为了确保其最新语言模型的安全, GPT-4, OpenAI 雇用 一个由 50 多名专家组成的团队:人工智能安全、伦理和政策专家,包括研究人员和工程师。
“至关重要的是,我们认为社会必须有时间更新和适应能力越来越强的人工智能,并且每个受到这项技术影响的人都应该对人工智能如何进一步发展有重要的发言权,”
OpenAI 中写道。
OpenAI关注儿童安全和隐私
意大利被禁 ChatGPT引用 OpenAI尽管是为 13 岁及以上的个人设计的,但未能验证用户的年龄是原因之一。 公司安全工作的一个关键焦点已转向通过实施年龄验证选项来保护儿童,这 OpenAI 目前正在探索,特别是因为人工智能工具适用于 18 岁或以上或经父母批准的 13 岁或以上的个人。
公司严格禁止生成仇恨、骚扰、暴力或成人内容,并且 GPT-4 与相比,响应禁止内容请求的可能性已经降低了 82% GPT-3.5。
OpenAI 建立了一个强大的系统来监控滥用行为,并希望使 GPT-4 随着时间的推移,可供更多人使用。 该公司与开发商(例如非营利性可汗学院)合作制定量身定制的安全缓解措施,并正在开发功能,以便为模型输出制定更严格的标准。
改善隐私是另一个安全方面 OpenAI 正在关注,尤其是在最近的 数据泄露. 这家人工智能公司的大型语言模型是在大量文本上进行训练的,这些文本包括公开内容、许可内容和人工审阅者生成的内容; 它使用数据使人工智能模型对人们更有帮助。
OpenAI 正在采取措施保护个人隐私,包括从训练数据中删除个人信息、微调模型以拒绝个人信息请求,以及根据请求从系统中删除个人信息。 这减少了人工智能模型生成包含个人信息的响应的机会。
OpenAI的做法 解决人工智能安全问题的关键在于研究有效的缓解措施 和对齐技术并测试它们在现实世界中的滥用情况。 它还承诺在创建和部署更强大的模型时更加谨慎,并加强安全预防措施。 人工智能开发和部署的有效治理对于确保安全至关重要,这需要技术和制度创新。
了解更多:
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Agne 是一名记者,负责报道虚拟宇宙、人工智能和人工智能领域的最新趋势和发展。 Web3 行业为 Metaverse Post。 她对讲故事的热情促使她对这些领域的专家进行了大量采访,总是试图发现令人兴奋和引人入胜的故事。 Agne 拥有文学学士学位,在旅行、艺术和文化等广泛主题的写作方面拥有丰富的背景。 她还志愿担任动物权利组织的编辑,帮助提高人们对动物福利问题的认识。 联系她 [电子邮件保护].
更多文章Agne 是一名记者,负责报道虚拟宇宙、人工智能和人工智能领域的最新趋势和发展。 Web3 行业为 Metaverse Post。 她对讲故事的热情促使她对这些领域的专家进行了大量采访,总是试图发现令人兴奋和引人入胜的故事。 Agne 拥有文学学士学位,在旅行、艺术和文化等广泛主题的写作方面拥有丰富的背景。 她还志愿担任动物权利组织的编辑,帮助提高人们对动物福利问题的认识。 联系她 [电子邮件保护].