人工智能公司应将30%的资金用于安全和道德研发
偏见和虚假信息造成的损害已经显而易见。 有迹象表明其他危险也可能浮现。 减轻当前风险并预见新出现的风险至关重要。
我们不知道如何确保先进的自主系统或通用人工智能的安全,也不知道如何测试它们(如果它们现在可用)。 此外,即使政府这样做了,也缺乏制止虐待和采取安全措施所必需的机构。 作者支持建立有效的政府监管并将研发工作转向安全和道德。
控制和诚实(更复杂的系统可以通过产生错误但令人信服的答案来智胜测试),稳健性(在分布转移或对抗性输入的新条件下),可解释性(理解工作),风险评估(出现难以预测的新能力),新挑战(前所未有的故障模式)的出现是一些研发挑战无法通过 开发更强大的人工智能系统.
作者建议,安全和道德应该获得至少三分之一的人工智能研发资金。
需要执行与国家机构和全球治理相关的标准。 人工智能缺乏这些,但制药、金融和核工业却有。 现在,国家和企业有动机以牺牲安全为代价来节省开支。 公司可以从人工智能的进步中获利,同时让社会承担后果,就像工业将废物倒入河流一样。
强大的技术知识和快速行动的能力是国家机构的要求。 在全球舞台上,伙伴关系和协议至关重要。 为了保护学术研究和低风险应用,必须避免对小型和可预测模型的官僚障碍。 前沿模型——一组在价值数十亿美元的超级计算机上训练的最强大的系统——应该受到最多的关注。
政府必须对事态发展更加开放,以使监管有效。 监管机构应该强制模型注册、保护内部线人、强制事件报告并密切关注模型的开发和超级计算机的使用。
监管机构还必须在这些系统投入生产之前访问这些系统,以便评估 潜在有害 病原体产生、自我复制和系统渗透等特征。
具有潜在危险的系统需要多种控制方法。 前沿模型 创作者还必须对其系统造成的任何本来可以避免的损害承担法律责任。 这应该会鼓励安全投资。 更多功能,例如政府许可、根据情况停止开发的能力 有潜在危险 对于功能极其强大的系统来说,可能需要不受国家级黑客影响的功能、访问控制和信息安全措施。
尽管没有规则,但企业应快速明确自己的“如果-那么”责任,概述在某些模型功能跨越红线时将采取的精确步骤。 这些措施需要得到彻底解释和独立确认。 确实如此。 独立 政策补充 编制论文摘要。
- XNUMX月前沿模型论坛 推出了超过 10 万美元的人工智能安全基金,旨在推动人工智能安全研究的进步。 该基金是前沿模型论坛和慈善合作伙伴之间的合作项目,将为世界各地附属于学术机构、研究组织和初创公司的独立研究人员提供支持。 该计划的主要贡献者包括 Anthropic、Google、Microsoft、 OpenAI以及帕特里克·J·麦戈文基金会、大卫和露西尔·帕卡德基金会、埃里克·施密特和贾恩·塔林等慈善组织。 人工智能安全基金主要致力于支持人工智能模型新评估技术和红队方法的开发,旨在发现潜在危险。 论坛计划在未来几个月内建立一个咨询委员会,并将在此后不久发出第一次提案征集并授予奖项。
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。
更多文章Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。