Anthropic, Google, Microsoft и OpenAI Назначить исполнительного директора Frontier Model Forum и открыть Фонд безопасности искусственного интеллекта стоимостью 10 миллионов долларов
Коротко
Anthropic, Google, Microsoft и OpenAI представили Криса Мезероля в качестве первого исполнительного директора Frontier Model Forum.
Одновременно они объявили о создании значительного Фонда безопасности искусственного интеллекта с финансированием более 10 миллионов долларов.
Anthropic, Google, Microsoft и OpenAI иметь назначенный Крис Мезероль в качестве первого исполнительного директора Frontier Model Forum. Отраслевой консорциум занимается продвижением безопасного и этического развития передовых моделей искусственного интеллекта во всем мире. Одновременно Форум учредил Фонд безопасности искусственного интеллекта в размере более 10 миллионов долларов. Цель фонда — способствовать прогрессу в исследованиях безопасности ИИ.
Исполнительный директор Крис Мезерол имеет обширный опыт в технологической политике и управлении новыми технологиями. До своего назначения он занимал должность директора Инициативы по искусственному интеллекту и новым технологиям в Брукингском институте. В своем новом качестве Мезероль будет возглавлять усилия по продвижению исследований в области безопасности ИИ, выявлять лучшие практики для безопасной разработки моделей ИИ, распространять знания среди заинтересованных сторон и поддерживать инициативы, которые используют ИИ для решения социальных проблем.
«Самые мощные модели ИИ имеют огромные перспективы для общества, но чтобы реализовать их потенциал, нам необходимо лучше понимать, как их безопасно разрабатывать и оценивать. Я очень рад принять этот вызов на Форуме моделей Frontier».
— сказал Мезероль.
Фонд безопасности ИИ возник в ответ на быстрое развитие возможностей ИИ за последний год, что потребовало дальнейших научных исследований в области безопасности ИИ. Этот фонд, созданный в результате сотрудничества Frontier Model Forum и благотворительных партнеров, будет оказывать поддержку независимым исследователям по всему миру, связанным с академическими учреждениями, исследовательскими организациями и стартапами.
Основными участниками этой инициативы являются Anthropic, Google, Microsoft и OpenAI, а также благотворительные организации, такие как Фонд Патрика Дж. Макговерна, Фонд Дэвида и Люсиль Паккард, Эрика Шмидта и Яана Таллинна. Их совокупные взносы превышают 10 миллионов долларов США с учетом дополнительных пожертвований от других партнеров.
Ранее в этом году члены Форума взяли на себя добровольные обязательства в Белом доме, в том числе разрешили третьим лицам обнаруживать и сообщать об уязвимостях в их системах искусственного интеллекта. Фонд безопасности ИИ соответствует этому обязательству, предлагая внешним сообществам финансирование для тщательного изучения передовых систем ИИ. Разнообразие мнений и точек зрения обогатит глобальный дискурс о безопасности ИИ и расширит общую базу знаний в области ИИ.
Повышение безопасности и сотрудничества в области искусственного интеллекта
Фонд безопасности ИИ в первую очередь концентрируется на поддержке разработки новых методов оценки и подходов «красной команды» для моделей ИИ с целью выявления потенциальных опасностей. Красная команда — это структурированный процесс тщательного изучения систем искусственного интеллекта с целью выявления вредоносных возможностей, результатов или инфраструктурных угроз. Увеличение финансирования в этой области может повысить стандарты безопасности и предоставить ценную информацию о смягчении проблем, создаваемых системами искусственного интеллекта.
Более того, в ближайшее время Фонд будет искать предложения по исследованиям и будет управляться Институтом Меридиан при участии консультативного комитета, в который входят независимые эксперты, специалисты в области искусственного интеллекта и эксперты по грантам.
В настоящее время осуществляется ответственный процесс раскрытия информации, который позволяет лабораториям Frontier AI обмениваться информацией об уязвимостях и опасных возможностях в моделях Frontier AI, а также об их решениях. Некоторые компании Форума уже выявили такие проблемы в контексте национальной безопасности, что послужило примером для других лабораторий при внедрении процедур ответственного раскрытия информации.
Заглядывая в будущее, Frontier Model Forum планирует в ближайшие месяцы создать Консультативный совет, которому будет поручено определять стратегические приоритеты и представлять различные экспертные знания и точки зрения. Форум будет регулярно выпускать обновления, включая добавление новых участников. Одновременно с этим Фонд безопасности ИИ объявит свой первый конкурс заявок, вскоре после этого будут выделены гранты. Кроме того, Форум продолжит публиковать технические выводы по мере их поступления.
Главной целью Форума является сотрудничество с Крисом Мезеролем и расширение взаимодействия с более широким исследовательским сообществом. Сюда входит партнерство с такими организациями, как Партнерство по искусственному интеллекту, MLCommons и другими ведущими НПО, государственными учреждениями и многонациональными организациями. Вместе они стремятся использовать потенциал ИИ, обеспечивая при этом его безопасную и этичную разработку и использование.
Отказ от ответственности
В соответствии с Руководство трастового проектаОбратите внимание, что информация, представленная на этой странице, не предназначена и не должна интерпретироваться как юридическая, налоговая, инвестиционная, финансовая или любая другая форма консультации. Важно инвестировать только то, что вы можете позволить себе потерять, и обращаться за независимой финансовой консультацией, если у вас есть какие-либо сомнения. Для получения дополнительной информации мы предлагаем обратиться к положениям и условиям, а также к страницам справки и поддержки, предоставленным эмитентом или рекламодателем. MetaversePost стремится предоставлять точную и объективную отчетность, однако рыночные условия могут быть изменены без предварительного уведомления.
Об авторе
Агне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].
Другие статьиАгне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].