опасность ай 7 11
ИИ вряд ли поработит человечество, но он может взять на себя многие аспекты нашей жизни. elenabs/iStock через Getty Images

Рост ChatGPT и подобных систем искусственного интеллекта сопровождался резким рост беспокойства по поводу ИИ. В течение последних нескольких месяцев руководители и исследователи безопасности ИИ предлагали прогнозы, получившие название «П (гибель)», о вероятности того, что ИИ вызовет масштабную катастрофу.

Пик беспокойства пришелся на май 2023 года, когда некоммерческая исследовательская и правозащитная организация Center for AI Safety опубликовала заявление в одном предложении: «Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». Заявление подписали многие ключевые игроки в этой области, включая лидеров OpenAI, Google и Anthropic, а также двух так называемых «крестных отцов» ИИ: Джеффри Хинтон и Йошуа Бенгио.

Вы можете спросить, как должны проявляться такие экзистенциальные страхи. Одним из известных сценариев является «скрепка максимизатормысленный эксперимент, сформулированный оксфордским философом Ник Бостром. Идея состоит в том, что система ИИ, которой поручено производить как можно больше скрепок, может пойти на все, чтобы найти сырье, например, уничтожить фабрики и вызвать автомобильные аварии.

A менее ресурсоемкий вариант имеет ИИ, которому поручено забронировать столик в популярном ресторане, отключив сотовые сети и светофоры, чтобы другие посетители не смогли занять столик.


графика подписки внутри себя


Канцтовары или ужин, основная идея та же: ИИ быстро становится инопланетным разумом, способным достигать целей, но опасным, потому что он не обязательно будет соответствовать моральным ценностям его создателей. И в самом крайнем варианте этот аргумент превращается в явное беспокойство по поводу ИИ. порабощение или уничтожение человечества.

ИИ, делающий скрепки, выходит из-под контроля — это один из вариантов сценария апокалипсиса ИИ.

 

Фактический вред

За последние несколько лет я и мои коллеги в Центр прикладной этики Университета Массачусетса в Бостоне изучали влияние взаимодействия с ИИ на понимание людьми самих себя, и я считаю, что эти катастрофические тревоги раздутый и неправильно направленный.

Да, способность ИИ создавать убедительные поддельные видео и аудио пугает, и ею могут злоупотреблять люди с плохими намерениями. На самом деле это уже происходит: российские оперативники, вероятно, пытались поставить в неловкое положение критика Кремля. Билл Браудер заманив его в ловушку разговора с аватаром бывшего президента Украины Петра Порошенко. Киберпреступники используют клонирование голоса ИИ для самых разных преступлений — от высокотехнологичные ограбления в обычные аферы.

Системы принятия решений на основе ИИ, которые предлагать одобрение кредита и рекомендации по найму несут риск алгоритмической предвзятости, поскольку обучающие данные и модели принятия решений, на которых они основаны, отражают давние социальные предрассудки.

Это большие проблемы, и они требуют внимания политиков. Но они существуют уже некоторое время, и вряд ли они являются катастрофическими.

Не в той же лиге

В заявлении Центра безопасности ИИ ИИ причислен к пандемиям и ядерному оружию как к серьезному риску для цивилизации. Есть проблемы с этим сравнением. COVID-19 привел почти 7 миллиона смертей во всем мире, принес на массивный и продолжающийся кризис психического здоровья и создал экономические проблемы, включая хронический дефицит цепочки поставок и безудержную инфляцию.

Ядерное оружие, вероятно, убило больше, чем людей 200,000 в Хиросиме и Нагасаки в 1945 году, в последующие годы унесло гораздо больше жизней от рака, вызвало десятилетия глубокой тревоги во время холодной войны и поставило мир на грань уничтожения во время Кубинского ракетного кризиса в 1962 году. изменил расчеты национальных лидеров о том, как реагировать на международную агрессию, как это происходит в настоящее время с вторжением России в Украину.

ИИ просто не способен наносить такой урон. Сценарий со скрепкой и ему подобные — научная фантастика. Существующие приложения ИИ выполняют конкретные задачи, а не выносят общие суждения. Технология далеко не в состоянии принять решение, а затем спланировать цели и второстепенные цели, необходимые для перекрытия движения, чтобы получить место в ресторане, или взорвать автомобильный завод, чтобы утолить жажду скрепок.

Мало того, что этой технологии не хватает сложных возможностей для многоуровневой оценки, которая задействована в этих сценариях, у нее также нет автономного доступа к достаточному количеству частей нашей критической инфраструктуры, чтобы начать причинять такой ущерб.

Что значит быть человеком

На самом деле существует экзистенциальная опасность, присущая использованию ИИ, но этот риск экзистенциальный в философском, а не в апокалиптическом смысле. ИИ в его нынешнем виде может изменить то, как люди воспринимают себя. Это может ухудшить способности и опыт, которые люди считают необходимыми для того, чтобы быть человеком.

Например, люди — существа, способные выносить суждения. Люди рационально взвешивают детали и делают ежедневные суждения на работе и в свободное время о том, кого нанять, кому взять кредит, что посмотреть и так далее. Но таких суждений становится все больше. автоматизированы и отданы на откуп алгоритмам. Когда это произойдет, конец света не наступит. Но люди постепенно утратят способность самостоятельно выносить такие суждения. Чем меньше их делают люди, тем хуже они, вероятно, станут их делать.

Или рассмотрим роль случая в жизни людей. Люди ценят случайные встречи: случайное знакомство с местом, человеком или занятием, вовлечение в них и ретроспективное оценивание роли, которую случайность сыграла в этих значимых находках. Но роль алгоритмических рекомендательных двигателей состоит в том, чтобы уменьшите эту прозорливость и замените его планированием и прогнозированием.

Наконец, рассмотрим возможности записи ChatGPT. Технология находится в процессе устранения роли написания заданий в высшем образовании. Если это произойдет, педагоги потеряют ключевой инструмент для обучения студентов. как мыслить критически.

Не умер, но уменьшился

Так что нет, ИИ не взорвет мир. Но все более некритическое отношение к нему в различных узких контекстах означает постепенное ослабление некоторых из наиболее важных навыков человека. Алгоритмы уже подрывают способность людей выносить суждения, получать удовольствие от случайных встреч и оттачивать критическое мышление.

Человеческий вид переживет такие потери. Но наш способ существования будет обеднен в процессе. Фантастические опасения по поводу грядущего катаклизма ИИ, сингулярности, Скайнета, или как бы вы об этом ни думали, скрывают эти более тонкие издержки. Вспомните знаменитые заключительные строки Т. С. Элиота «Полые мужчины»: «Так кончается мир, — писал он, — не взрывом, а всхлипом».Беседа

Об авторе

Нир Эйсиковиц, профессор философии и директор Центра прикладной этики, UMass Boston

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.