Эксперты по искусственному интеллекту выступают за необходимость увеличения инвестиций в безопасность искусственного интеллекта со стороны правительств и бизнеса
Коротко
Группа исследователей искусственного интеллекта опубликовала совместное письмо, призывающее компании, занимающиеся искусственным интеллектом, и правительства выделять больше средств для уделения приоритетного внимания безопасному и этичному использованию систем искусственного интеллекта.
Эксперты выражают обеспокоенность по поводу быстрого развития технологий искусственного интеллекта и их способности усугублять социальную несправедливость, дестабилизировать общество и создавать угрозы глобальной безопасности.
Ведущие исследователи искусственного интеллекта, в том числе лауреаты премии Тьюринга и нобелевские лауреаты, призывают компании, занимающиеся искусственным интеллектом, и правительства выделять минимум одну треть своего финансирования на исследования и разработки в области искусственного интеллекта, чтобы обеспечить безопасное и этичное использование систем искусственного интеллекта.
В совместное письмо В опубликованном накануне международного саммита по безопасности ИИ в Лондоне эксперты изложили меры по устранению рисков, связанных с ИИ. Они также выступают за то, чтобы правительства по закону привлекали компании к ответственности за предсказуемый ущерб, причиненный их передовыми системами искусственного интеллекта.
«Системы искусственного интеллекта могут быстро превзойти людей в решении все большего числа задач… Они угрожают усилить социальную несправедливость, подорвать социальную стабильность и ослабить наше общее понимание реальности, которое является основополагающим для общества», — видные деятели в области искусственного интеллекта, такие как В письме написали Джеффри Хинтон, Эндрю Яо, Дэниел Канеман, Дон Сонг и Юваль Ной Харари.
«Они также могут способствовать крупномасштабной преступной или террористической деятельности. Особенно в руках нескольких влиятельных игроков ИИ может укрепить или усугубить глобальное неравенство или способствовать автоматизированной войне, индивидуальному массовому манипулированию и всепроникающей слежке».
Необходимы срочные действия для безопасной и этичной разработки ИИ
Актуальность этого призыва проистекает из убеждения, что нынешние правила не способны адекватно решить проблему быстрого прогресса технологий искусственного интеллекта.
В сфере разработки искусственного интеллекта эксперты признают острую необходимость решения сложных проблем. Они утверждают, что простое расширение возможностей ИИ не принесет желаемого результата. Эти проблемы включают в себя надзор и честность, при этом продвинутый ИИ может использовать уязвимости тестирования, а также проблемы, связанные с надежностью, интерпретируемостью, оценкой рисков и возникающими проблемами.
Будущие системы искусственного интеллекта могут проявлять непредвиденные режимы сбоев, подчеркивая важность того, чтобы крупные технологические компании и государственные спонсоры выделяли значительную часть своего бюджета на исследования и разработки в области искусственного интеллекта, чтобы уделять приоритетное внимание безопасности и этике наряду с расширением возможностей искусственного интеллекта.
Согласно письму, отсутствие управления ИИ может побудить компании и страны отдать приоритет возможностям над безопасностью или делегировать важные социальные функции системам ИИ с ограниченным контролем со стороны человека.
Для эффективного регулирования правительствам срочно необходимо комплексное понимание развития ИИ. Более того, для очень мощных систем искусственного интеллекта необходимы дополнительные меры, включая лицензирование их разработки, временные остановки в ответ на возникающие проблемы, контроль доступа и надежную информационную безопасность.
Несмотря на некоторую обеспокоенность компаний, занимающихся ИИ, относительно затрат на соблюдение требований и рисков ответственности, сторонники утверждают, что надежные правила необходимы для смягчения потенциальных рисков, связанных с бесконтрольной разработкой ИИ.
«ИИ может стать технологией, которая будет формировать это столетие. Хотя возможности искусственного интеллекта быстро развиваются, прогресс в области безопасности и управления отстает. Чтобы направить ИИ к положительным результатам и избежать катастрофы, нам необходимо переориентироваться. Есть ответственный путь, если у нас хватит мудрости пойти по нему», — заключалось в письме.
Прочитайте больше:
- Чего технологические лидеры ищут в искусственном интеллекте? Технические провидцы делятся своими мыслями
- OpenAI: ИИ потенциально может причинить много вреда людям, но пытаться остановить прогресс — не вариант
- По мнению Sequoia, ИИ переходит в сторону операционных систем
- Лауреат Нобелевской премии Пол Кругман говорит, что криптовалютный бум похож на пузырь на рынке недвижимости.
Отказ от ответственности
В соответствии с Руководство трастового проектаОбратите внимание, что информация, представленная на этой странице, не предназначена и не должна интерпретироваться как юридическая, налоговая, инвестиционная, финансовая или любая другая форма консультации. Важно инвестировать только то, что вы можете позволить себе потерять, и обращаться за независимой финансовой консультацией, если у вас есть какие-либо сомнения. Для получения дополнительной информации мы предлагаем обратиться к положениям и условиям, а также к страницам справки и поддержки, предоставленным эмитентом или рекламодателем. MetaversePost стремится предоставлять точную и объективную отчетность, однако рыночные условия могут быть изменены без предварительного уведомления.
Об авторе
Агне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].
Другие статьиАгне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].