робот сидит за ноутбуком с руками на клавишах
Изображение на Сьюзан Чиприано 

От редактора:

Как подчеркивается в этой статье, разработка политических кампаний, управляемых ИИ, таких как гипотетическая машина под названием Clogger, может серьезно подорвать честность выборов. Используя автоматизацию, специализированный обмен сообщениями и обучение с подкреплением, эти машины могут манипулировать и изменять поведение избирателей в огромных масштабах.

В эпоху стремительного развития искусственного интеллекта (ИИ) мы должны сохранять бдительность в отношении потенциальных угроз, которые он представляет для наших демократических процессов. Появление кампаний, управляемых ИИ, бросает вызов самой сути демократии. Вместо того, чтобы выборы определялись силой идей, политических предложений и подлинным выбором избирателей, на них могли повлиять машины, ориентированные исключительно на победу. Контент, который преобладает, будет исходить из языковых моделей ИИ без учета правды или политических принципов. По сути, исход выборов будет продиктован искусственным интеллектом, подрывающим демократический процесс.

Чтобы предотвратить рост «клогократии» и лишение граждан прав и возможностей, крайне важно, чтобы мы приняли меры. Усиленная защита конфиденциальности и строгие законы о конфиденциальности данных могут помочь ограничить доступ машин ИИ к персональным данным, снизив их эффективность в нацеливании и манипулировании людьми. Избирательные комиссии также должны рассмотреть вопрос о запрете или строгом регулировании систем ИИ, предназначенных для влияния на избирателей. Реализация правил, требующих четких заявлений об отказе от ответственности, когда сообщения, созданные ИИ, используются в политических кампаниях. Это может обеспечить прозрачность и помочь избирателям принимать обоснованные решения.

Крайне важно, чтобы мы активно решали эти проблемы и обеспечивали ответственное использование возможностей ИИ для соблюдения принципов демократии. Оберегая честность выборов и защищая свободу выбора, мы можем справиться со сложностями ИИ и сохранить основы демократического управления.

Как ИИ может захватить выборы и подорвать демократию

Написано Архонт Фунг, профессор кафедры гражданства и самоуправления, Школа Гарварда Кеннеди и Лоуренс Лессиг, профессор права и лидерства, Гарвардский университет


графика подписки внутри себя


Могут ли организации использовать языковые модели искусственного интеллекта, такие как ChatGPT, чтобы побудить избирателей вести себя определенным образом?

Сенатор Джош Хоули задал этот вопрос генеральному директору OpenAI Сэму Альтману. 16 мая 2023 г., слушания в Сенате США. по искусственному интеллекту. Альтман ответил, что он действительно обеспокоен тем, что некоторые люди могут использовать языковые модели для манипулирования, убеждения и взаимодействия с избирателями один на один.

Альтман не стал уточнять, но он мог иметь в виду что-то вроде этого сценария. Представьте, что вскоре политтехнологи разработают машину под названием Clogger — политическую кампанию в черном ящике. Clogger неуклонно преследует только одну цель: максимально увеличить шансы на победу своего кандидата — кампании, которая покупает услуги Clogger Inc. — на выборах.

В то время как такие платформы, как Facebook, Twitter и YouTube, используют формы ИИ, чтобы пользователи проводи больше времени на их сайтах у ИИ Clogger была бы другая цель: изменить поведение людей при голосовании.

Как будет работать Клоггер

политолог и еще один ученый-юрист которые изучают пересечение технологий и демократии, мы считаем, что что-то вроде Clogger может использовать автоматизацию для значительного увеличения масштабов и, возможно, эффективности методы манипулирования поведением и микротаргетинга которые политические кампании использовали с начала 2000-х годов. Как только рекламодатели используют вашу историю просмотров и социальных сетей чтобы индивидуально настроить таргетинг на коммерческую и политическую рекламу, Clogger обратил бы внимание на вас — и на сотни миллионов других избирателей — индивидуально.

Он предлагает три преимущества по сравнению с современным алгоритмическим управлением поведением. Во-первых, его языковая модель будет генерировать сообщения — тексты, социальные сети и электронную почту, возможно, включая изображения и видео — специально для вас. В то время как рекламодатели стратегически размещают относительно небольшое количество объявлений, языковые модели, такие как ChatGPT, могут генерировать бесчисленное количество уникальных сообщений для вас лично — и миллионы для других — в ходе кампании.

Во-вторых, Клоггер будет использовать метод, называемый усиление обучения для создания последовательности сообщений, которые с большей вероятностью изменят ваш голос. Обучение с подкреплением — это машинное обучение методом проб и ошибок, при котором компьютер выполняет действия и получает обратную связь о том, какие из них работают лучше, чтобы узнать, как достичь цели. Машины, которые могут играть в го, шахматы и многие другие видеоигры лучше любого человека использовали обучение с подкреплением.

Как работает обучение с подкреплением.

 

В-третьих, в ходе кампании сообщения Clogger могут изменяться, чтобы учитывать ваши ответы на предыдущие сообщения машины и то, что она узнала об изменении мнения других. Клоггер сможет вести динамичные «беседы» с вами и миллионами других людей с течением времени. Сообщения Clogger будут похожи на реклама, которая следует за вами на разных сайтах и ​​в социальных сетях.

Природа ИИ

Стоит отметить еще три особенности — или ошибки.

Во-первых, сообщения, которые отправляет Clogger, могут быть политическими по своему содержанию. Единственная цель машины — максимизировать долю голосов, и, скорее всего, она разработает стратегии для достижения этой цели, о которых не подумал бы ни один человек-участник кампании.

Одна из возможностей — рассылать вероятным оппонентам-избирателям информацию о неполитических увлечениях, которые они испытывают в спорте или развлечениях, чтобы похоронить получаемые ими политические сообщения. Другой возможностью является рассылка неприятных сообщений, например, рекламы о недержании мочи, приуроченная к сообщениям оппонентов. А другой манипулирует группами друзей избирателей в социальных сетях, чтобы дать понять, что их социальные круги поддерживают его кандидата.

Во-вторых, Клоггер не уважает правду. Действительно, у него нет способа узнать, что истинно, а что ложно. Языковая модель «галлюцинации». не являются проблемой для этой машины, потому что ее цель состоит в том, чтобы изменить ваш голос, а не предоставить точную информацию.

В-третьих, потому что это черный ящик типа искусственного интеллекта, у людей не было бы возможности узнать, какие стратегии он использует.

Область объяснимого ИИ стремится открыть черный ящик многих моделей машинного обучения, чтобы люди могли понять, как они работают.

 

клогократия

Если бы республиканская президентская кампания задействовала Clogger в 2024 году, демократическая кампания, вероятно, была бы вынуждена ответить тем же, возможно, с помощью аналогичной машины. Назовите его Доггер. Если бы руководители кампании считали, что эти машины эффективны, состязание в президентских выборах вполне могло бы сводиться к противостоянию Клоггера и Доггера, и победителем стал бы клиент более эффективной машины.

Политологи и эксперты могли бы многое сказать о том, почему тот или иной ИИ преобладал, но, вероятно, никто не знал бы этого на самом деле. Президент будет избран не потому, что его или ее политические предложения или политические идеи убедили больше американцев, а потому, что у него или у нее был более эффективный ИИ. Контент, который выиграл день, исходил бы от ИИ, ориентированного исключительно на победу, без собственных политических идей, а не от кандидатов или партий.

В этом очень важном смысле на выборах победила бы машина, а не человек. Выборы больше не будут демократическими, даже если все обычные действия демократии - речи, объявления, сообщения, голосование и подсчет голосов - будут иметь место.

Избранный ИИ президент может пойти одним из двух путей. Он или она могли использовать предвыборную мантию для проведения политики Республиканской или Демократической партии. Но поскольку партийные идеи могли иметь мало общего с тем, почему люди проголосовали так, а не иначе — Клоггеру и Доггеру наплевать на политические взгляды, — действия президента не обязательно будут отражать волю избирателей. ИИ манипулировал бы избирателями вместо того, чтобы свободно выбирать своих политических лидеров и политику.

Другой путь для президента заключается в том, чтобы следовать сообщениям, поведению и политике, которые, по прогнозам машины, максимизируют шансы на переизбрание. На этом пути у президента не будет никакой конкретной платформы или повестки дня, кроме сохранения власти. Действия президента, которыми руководит Клоггер, скорее всего, будут направлены на манипулирование избирателями, а не на удовлетворение их подлинных интересов или даже собственной идеологии президента.

Как избежать клогократии

Было бы возможно избежать манипулирования выборами ИИ, если бы кандидаты, кампании и консультанты отказались от использования такого политического ИИ. Мы считаем, что это маловероятно. Если бы были разработаны политически эффективные черные ящики, искушение использовать их было бы почти непреодолимым. Действительно, политические консультанты вполне могут использовать эти инструменты в соответствии с их профессиональной ответственностью, чтобы помочь своим кандидатам победить. И как только один из кандидатов применит столь эффективный инструмент, вряд ли можно ожидать сопротивления противников путем разоружения в одностороннем порядке.

Улучшенная защита конфиденциальности помог бы. Clogger будет зависеть от доступа к огромному количеству личных данных, чтобы нацеливаться на людей, создавать сообщения, адаптированные для убеждения или манипулирования ими, а также отслеживать и перенаправлять их в ходе кампании. Каждый бит этой информации, которую компании или политики отрицают, сделает машину менее эффективной.

Строгие законы о конфиденциальности данных могут помочь удержать ИИ от манипуляций.

 

Другое решение лежит в избирательных комиссиях. Они могут попытаться запретить или строго регулировать эти машины. Есть ожесточенные дебаты о том, такие ли репликантская речь, даже если оно носит политический характер, его можно регулировать. Традиция крайней свободы слова в США приводит многих ведущих ученых к выводу, что он не может.

Но нет причин автоматически распространять защиту Первой поправки на продукцию этих машин. Нация вполне может решить дать машинам права, но это должно быть решение, основанное на вызовах сегодняшнего дня. не ошибочное предположение что взгляды Джеймса Мэдисона в 1789 году предназначались для применения к ИИ.

Регулирующие органы Европейского Союза движутся в этом направлении. Политики пересмотрели проект Закона об искусственном интеллекте Европейского парламента, чтобы обозначить «системы ИИ для влияния на избирателей в ходе кампаний». как «высокий риск» и подлежит проверке со стороны регулирующих органов.

Один конституционно более безопасный, хотя и меньший шаг, уже частично принятый Европейские интернет-регуляторы и в Калифорния, заключается в том, чтобы запретить ботам выдавать себя за людей. Например, регулирование может потребовать, чтобы сообщения кампании сопровождались заявлениями об отказе от ответственности, если контент, который они содержат, создается машинами, а не людьми.

Это было бы похоже на требования об отказе от ответственности за рекламу — «Оплачено комитетом Сэма Джонса для Конгресса» — но изменено, чтобы отразить его происхождение от ИИ: «Эта реклама, созданная ИИ, была оплачена комитетом Сэма Джонса для Конгресса». Более сильная версия может потребовать: «Это сгенерированное ИИ сообщение отправляется вам комитетом Сэма Джонса от имени Конгресса, потому что Клоггер предсказал, что это повысит ваши шансы проголосовать за Сэма Джонса на 0.0002%». По крайней мере, мы считаем, что избиратели заслуживают знать, когда с ними разговаривает бот, и они также должны знать почему.

Возможность такой системы, как Clogger, показывает, что путь к коллективное бессилие человека может не требовать каких-то сверхчеловеческих искусственный общий интеллект. Для этого могут потребоваться слишком энергичные активисты и консультанты, обладающие новыми мощными инструментами, которые могут эффективно нажимать на множество кнопок миллионов людей.

Об авторах

Архонт Фунг, профессор кафедры гражданства и самоуправления, Школа Гарварда Кеннеди и Лоуренс Лессиг, профессор права и лидерства, Гарвардский университет

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.


Дополнение редактора: возможность ИИ взять под контроль выборы и подорвать демократию является насущной проблемой, требующей нашего внимания. Как подчеркивается в этой статье, рост политических кампаний, таких как Clogger, может изменить результаты выборов, поскольку машины будут влиять на поведение избирателей в беспрецедентных масштабах. Последствия такого сдвига будут далеко идущими, поскольку выборы будут определяться не волей народа, а эффективностью манипуляций ИИ.

Чтобы предотвратить это лишение граждан прав и возможностей и защитить демократию, мы должны принять упреждающие меры. Надежная защита конфиденциальности и правила, ограничивающие влияние систем ИИ на выборы, имеют решающее значение. Обеспечивая прозрачность, применяя четкие заявления об отказе от ответственности в отношении контента, созданного ИИ, и способствуя ответственному использованию ИИ, мы можем поддерживать целостность демократических процессов и защищать основные ценности нашего общества.

Крайне важно, чтобы мы сохраняли бдительность и сообща работали над решением проблем, связанных с ИИ на выборах. Поступая так, мы сможем сохранить демократические идеалы, лежащие в основе нашего общества, и обеспечить будущее, в котором сила технологий будет соответствовать интересам и чаяниям людей.

перерыв

Похожие книги:

О тирании: двадцать уроков двадцатого века

Тимоти Снайдер

Эта книга предлагает уроки истории для сохранения и защиты демократии, включая важность институтов, роль отдельных граждан и опасности авторитаризма.

Нажмите для получения дополнительной информации или для заказа

Наше время пришло: сила, цель и борьба за справедливую Америку

Стейси Абрамс

Автор, политик и активист, делится своим видением более инклюзивной и справедливой демократии и предлагает практические стратегии политического участия и мобилизации избирателей.

Нажмите для получения дополнительной информации или для заказа

Как умирают демократии

Стивен Левицкий и Дэниел Зиблат

В этой книге рассматриваются тревожные признаки и причины краха демократии, на основе тематических исследований со всего мира предлагается понимание того, как защитить демократию.

Нажмите для получения дополнительной информации или для заказа

Народ, нет: краткая история антипопулизма

Томас Франк

Автор предлагает историю популистских движений в Соединенных Штатах и ​​критикует «антипопулистскую» идеологию, которая, как он утверждает, душила демократические реформы и прогресс.

Нажмите для получения дополнительной информации или для заказа

Демократия в одной книге или меньше: как это работает, почему это не работает и почему исправить это проще, чем вы думаете

Дэвид Литт

Эта книга предлагает обзор демократии, включая ее сильные и слабые стороны, и предлагает реформы, чтобы сделать систему более гибкой и подотчетной.

Нажмите для получения дополнительной информации или для заказа