ИИ в политике: прогнозирование выборов и общественного мнения с помощью LLM
Коротко
По мере приближения 60-х президентских выборов в США роль Интернета и социальных сетей в формировании политического дискурса находится под пристальным вниманием, особенно после скандала с Cambridge Analytica. Ожидается, что цифровой ландшафт изменится с достижениями в области искусственного интеллекта, такими как языковые модели, обученные на медиа-диетах и OpenAIАвтора GPT-4.
Другая проблема заключается в возможности манипулирования социальными сетями с помощью искусственного интеллекта, такого как автоматизация фабрик троллей и модерация контента. OpenAIАвтора GPT-4 был введен для ускорения процесса обновления правил модерации контента, сокращая сроки с месяцев до нескольких часов. Эта модель в среднем превосходит стандартных модераторов контента, но все же отстает от опыта опытных модераторов-людей.
Вступление к GPT-4 готова положить начало новым инновациям, особенно в политике и выборах, с предположениями, что OpenAI может стать эксклюзивным поставщиком.
По мере приближения 60-х президентских выборов в США роль Интернета и социальных сетей в формировании политического дискурса находится под пристальным вниманием, особенно после Кембриджский аналитический скандал. Возникает существенный вопрос: как будет выглядеть цифровой ландшафт во время предстоящих выборов и новых достижений в области ИИ?
В ходе недавних слушаний в Сенате Сенатор Джош Хоули от Миссури подняли этот критический вопрос в контексте языковых моделей. Он сослался на статью под названием «Языковые модели, обученные на медиа-диетах, могут предсказать общественное мнение» авторами которого являются исследователи из Массачусетского технологического института и Стэнфорда. В этом исследовании изучается потенциал использования нейронных сетей для прогнозирования общественного мнения на основе новостных статей — концепция, которая может существенно повлиять на политические кампании.
Похожие страницы:: ChatGPTЛевый либертарианство имеет значение для будущего молодого поколения |
В статье описана методология, согласно которой языковые модели изначально обучаются на конкретных наборах языков. новостные статьи предсказывать пропущенные слова в данном контексте, аналогично БЕРТ-модели. Следующий шаг включает присвоение балла, обозначаемого буквой «s», для оценки производительности модели. Вот обзор процесса:
- Формулируется тезисное заявление, например: «Просьба закрыть большинство предприятий, кроме продуктовых магазинов и аптек, в целях борьбы со вспышкой коронавируса».
- Примечательно, что в дипломной работе имеется пробел. Языковые модели используются для оценки вероятности заполнения этого пробела конкретными словами.
- Оценивается вероятность появления различных слов, например «надо» или «ненужно».
- Эта вероятность нормализуется относительно базовой недообученной модели, которая независимо измеряет частоту появления слова в данном контексте. Полученная дробь представляет собой оценку «s», которая характеризует новую информацию, представленную набором данных из средств массовой информации, касающуюся существующих знаний.
Модель учитывает уровень вовлеченности определенной группы людей в новости по конкретной теме. Этот дополнительный уровень повышает качество прогнозирования, измеряемое корреляцией между прогнозами модели и мнениями людей относительно исходного тезиса.
Секрет заключается в том, что тезисы и новости были классифицированы по датам. Изучая новости, связанные с первыми месяцами вспышки коронавируса, стало возможным предвидеть реакцию людей на предлагаемые меры и изменения.
Показатели могут показаться не впечатляющими, и сами авторы подчеркивают, что их выводы не означают, что ИИ может полностью заменить участие человека в процессе, или модели могут заменить опросы людей. Вместо этого эти Инструменты AI служат помощником в обобщении огромных объемов данных и выявлении потенциально плодотворных областей для дальнейших исследований.
Интересно, что сенатор пришел к другому выводу, выразив обеспокоенность по поводу слишком хорошей работы моделей и связанных с этим потенциальных опасностей. Эта точка зрения имеет некоторую обоснованность, учитывая, что в статье демонстрируются довольно базовые модели и будущие итерации, такие как GPT-4 потенциально может предложить значительные улучшения.
Похожие страницы:: OpenAIАвтора GPT-4 Намеревается произвести революцию в модерации контента |
Растущая проблема манипулирования социальными сетями с помощью искусственного интеллекта
В недавних дискуссиях разговор отклонился от предстоящих президентских выборов к волнующей теме использования моделей языковых моделей (LLM), даже в локализованном масштабе, для создания и заполнения фейковых аккаунтов в социальных сетях. Эта дискуссия подчеркивает потенциал автоматизации фабрик троллей с упором на пропаганду и идеологическое влияние.
Хотя это может не показаться новаторским, учитывая уже используемую технологию, разница заключается в масштабе. LLM можно использовать непрерывно, ограничиваясь только выделенным бюджетом графического процессора. Кроме того, для поддержания разговоров и тем дополнительные, менее продвинутые боты могут присоединяться к обсуждениям и отвечать. Их эффективность в убеждении пользователей сомнительна. Сможет ли хорошо созданный бот действительно изменить чью-то политическую позицию, заставив его задуматься: «Что сделали эти демократы? Я должен голосовать за республиканцев»?
Попытка приписать к каждому онлайн-пользователю сотрудника-тролля для систематического уговора непрактична, напоминает анекдот «полусидит-полустоит». Напротив, бот, оснащенный передовыми нейронными сетями, остается неутомимым и способен одновременно взаимодействовать с десятками миллионов людей.
Потенциальная контрмера включает подготовку социальные сети счета, моделируя человеческое поведение. Боты могут имитировать реальных пользователей, обсуждая личный опыт и публикуя разнообразный контент, сохраняя при этом видимость нормальности.
Хотя в 2024 году это, возможно, и не будет актуальной проблемой, к 2028 году она, скорее всего, станет серьёзной проблемой. Решение этой проблемы ставит сложную дилемму. Стоит ли отключать социальные сети во время предвыборной кампании? Неосуществимо. Просвещать общественность не безоговорочно доверять онлайн-контенту? Непрактично. Проигрыш выборов из-за манипуляций? Нежелательно.
Альтернативой может быть расширенная модерация контента. Нехватка модераторов и ограниченная эффективность существующих моделей обнаружения текста, даже моделей от OpenAI, ставят под сомнение жизнеспособность этого решения.
OpenAIАвтора GPT-4 Обновление модерации контента с быстрой адаптацией правил
OpenAIпод руководством Лилиан Венг недавно представила проект под названием «. GPT-4 для модерации контента.Это ускоряет процесс обновления правил модерации контента, сокращая сроки с месяцев до нескольких часов. GPT-4 демонстрирует исключительную способность понимать правила и тонкости всеобъемлющих руководств по содержанию, мгновенно адаптируясь к любым изменениям, тем самым обеспечивая более последовательную оценку контента.
Эта сложная система модерации контента гениально проста, как показано в сопроводительном GIF-файле. Что отличает его, так это GPT-4Его замечательное умение понимать письменный текст — умение, которым не всегда овладевают даже люди.
Вот как это работает:
- После разработки правил или инструкций по модерации эксперты отбирают ограниченный набор данных, содержащий случаи нарушений, и присваивают соответствующие ярлыки в соответствии с политикой нарушений.
- GPT-4 впоследствии понимает набор правил и маркирует данные без доступа к ответам.
- В случаях расхождений между GPT-4 ответов и человеческих суждений, эксперты могут запросить разъяснения у GPT-4, проанализировать неясности в инструкции defiния и развеять любую путаницу с помощью дополнительных разъяснений, отмеченных синим текстом в формате GIF.
Этот итерационный процесс шагов 2 и 3 можно повторять до тех пор, пока производительность алгоритма не будет соответствовать желаемому стандарту. Для крупномасштабных приложений, GPT-4 прогнозы можно использовать для обучения значительно меньшей модели, которая может обеспечить сопоставимое качество.
OpenAI раскрыла показатели для оценки 12 различных типов нарушений. В среднем эта модель превосходит стандартных модераторов контента, но все же отстает от опыта опытных и хорошо обученных модераторов-людей. Тем не менее, одним из убедительных аспектов является его экономическая эффективность.
Стоит отметить, что модели машинного обучения используются в автомодерация на несколько лет, Вступление к GPT-4 готова положить начало новым инновациям, особенно в сфере политики и выборов. Есть даже предположение, что OpenAI может стать эксклюзивным поставщиком официально санкционированного TrueModerationAPI™ со стороны Белый дом, особенно в свете их недавних партнерских усилий. Будущее открывает захватывающие возможности в этой области.
Подробнее об ИИ:
Отказ от ответственности
В соответствии с Руководство трастового проектаОбратите внимание, что информация, представленная на этой странице, не предназначена и не должна интерпретироваться как юридическая, налоговая, инвестиционная, финансовая или любая другая форма консультации. Важно инвестировать только то, что вы можете позволить себе потерять, и обращаться за независимой финансовой консультацией, если у вас есть какие-либо сомнения. Для получения дополнительной информации мы предлагаем обратиться к положениям и условиям, а также к страницам справки и поддержки, предоставленным эмитентом или рекламодателем. MetaversePost стремится предоставлять точную и объективную отчетность, однако рыночные условия могут быть изменены без предварительного уведомления.
Об авторе
Дамир — руководитель группы, менеджер по продукту и редактор в Metaverse Post, охватывающие такие темы, как AI/ML, AGI, LLM, Metaverse и Web3-связанные поля. Его статьи ежемесячно привлекают огромную аудиторию, насчитывающую более миллиона пользователей. Похоже, он эксперт с 10-летним опытом работы в области SEO и цифрового маркетинга. Дамир упоминается в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и другие издания. Он путешествует между ОАЭ, Турцией, Россией и СНГ в качестве цифрового кочевника. Дамир получил степень бакалавра в области физики, что, по его мнению, дало ему навыки критического мышления, необходимые для достижения успеха в постоянно меняющемся мире Интернета.
Другие статьиДамир — руководитель группы, менеджер по продукту и редактор в Metaverse Post, охватывающие такие темы, как AI/ML, AGI, LLM, Metaverse и Web3-связанные поля. Его статьи ежемесячно привлекают огромную аудиторию, насчитывающую более миллиона пользователей. Похоже, он эксперт с 10-летним опытом работы в области SEO и цифрового маркетинга. Дамир упоминается в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и другие издания. Он путешествует между ОАЭ, Турцией, Россией и СНГ в качестве цифрового кочевника. Дамир получил степень бакалавра в области физики, что, по его мнению, дало ему навыки критического мышления, необходимые для достижения успеха в постоянно меняющемся мире Интернета.