OpenAI 对超级智能和人工智能在未来十年超越人类能力的潜力发出警报
简单来说
OpenAI 呼吁对超级智能进行监管,强调鉴于人工智能的快速发展进行治理的必要性。
人工智能系统预计将超越人类的专业知识 十年内企业生产力,据 OpenAI.
OpenAI 强调公共监督和民主控制对于强大的人工智能系统的重要性。
OpenAI,创造者 ChatGPT,发出了发人深省的呼吁 规 超级智能,与核能监管相似。 在最近的 博客文章, OpenAI 强调了人工智能快速发展的潜在影响,并强调在这一不断发展的格局中迫切需要治理。 该公司表示,人工智能系统将在十年内超越专家和最大的公司的生产力和技能。
“我们也必须减轻当今人工智能技术的风险,但超级智能需要特殊的处理和协调,”萨姆·奥尔特曼、格雷格·布罗克曼和伊利亚·苏茨克韦尔 OpenAI 强调。
超级智能描述了一个实体,它超过了人类的整体智能或智能的某些特定方面。 这组作者说,AI 超级智能将拥有无与伦比的力量,包括积极和消极方面。
不可避免的超级智能的发展与风险
OpenAI 确定了在超级智能的成功发展中发挥关键作用的三个重要想法。 其中包括协调主导开发工作、建立类似于国际原子能机构(IAEA)的国际机构以及发展安全技术能力。
而 OpenAI 承认人工智能系统存在风险,这些风险与其他互联网相关技术的风险相当。 Altman、Brockman 和 Sutskever 也表示相信社会当前管理这些风险的方法是合适的。 然而,主要的担忧是未来的系统将拥有前所未有的能力。
“相比之下,我们关注的系统将拥有超越任何已创造技术的力量,我们应该小心,不要通过将类似标准应用于远低于此标准的技术来淡化对它们的关注,”博客文章中写道。
作者认为强大的人工智能系统需要公共监督和民主控制。 他们还解释了为什么他们要在 OpenAI:创造一个更美好的世界并避免阻止它的风险。 人工智能在各个领域都有帮助,包括教育、创造力、生产力以及整体经济增长。
OpenAI 认为这很困难且有风险 停止超级智能 从被创造出来。 超级智能有相当大的好处,每年都变得更便宜,更多的人正在研究它,并且它是公司技术路径的一部分。
伊尔曼·沙扎耶夫, 人工智能技术企业家和联合创始人 法卡纳实验室, 分享了一些关于新闻的评论。 预测表明,如果管理不当,超级智能可能成为人类有史以来最具破坏性的发明之一。 然而,关于该技术部署的对话仍然存在分歧,因为它尚未开发。 基于对预测的恐惧而推动停止发展可能会剥夺人类可能拥有的新技术的机会。
“OpenAI去中心化的治理方式有助于维护其广泛的安全性。 如果有正确的规定,该计划可以在以下情况下被关闭: 构成威胁. 如果这些保障措施到位,那么超级智能可能是一项值得探索的创新,”Shazhaev 说。
通过公开讨论对人工智能超级智能的看法和拟议的监管措施, OpenAI 似乎可以促进知情讨论并邀请不同的观点。
山姆·奥特曼 坚信 向公众广泛提供人工智能。 他承认不可能提前预见所有问题,因此主张尽早解决问题。 然而,奥特曼也强调了对系统进行独立审计的重要性,例如 ChatGPT 释放前。 他进一步承认采取措施的可能性,例如限制新模型创建的步伐或成立一个委员会来 评估人工智能模型的安全性 在市场发布之前。 值得注意的是,奥特曼预测宇宙中的智慧数量每 18 个月就会增加一倍。
了解更多:
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Agne 是一名记者,负责报道虚拟宇宙、人工智能和人工智能领域的最新趋势和发展。 Web3 行业为 Metaverse Post。 她对讲故事的热情促使她对这些领域的专家进行了大量采访,总是试图发现令人兴奋和引人入胜的故事。 Agne 拥有文学学士学位,在旅行、艺术和文化等广泛主题的写作方面拥有丰富的背景。 她还志愿担任动物权利组织的编辑,帮助提高人们对动物福利问题的认识。 联系她 [电子邮件保护].
更多文章Agne 是一名记者,负责报道虚拟宇宙、人工智能和人工智能领域的最新趋势和发展。 Web3 行业为 Metaverse Post。 她对讲故事的热情促使她对这些领域的专家进行了大量采访,总是试图发现令人兴奋和引人入胜的故事。 Agne 拥有文学学士学位,在旅行、艺术和文化等广泛主题的写作方面拥有丰富的背景。 她还志愿担任动物权利组织的编辑,帮助提高人们对动物福利问题的认识。 联系她 [电子邮件保护].