i091hbdc
НикоЭльНино / Shutterstock

Релиз продвинутого чат-бота ChatGPT в 2022 году все заговорили об искусственном интеллекте (ИИ). Его сложные возможности усилили опасения по поводу того, что ИИ станет настолько продвинутым, что вскоре мы не сможем его контролировать. Это даже побудило некоторых экспертов и лидеров отрасли предупредить, что технологии могут привести к вымиранию человечества.

Однако других комментаторов это не убедило. Ноам Хомский, профессор лингвистики, назвал ChatGPT «высокотехнологичный плагиат».

В течение многих лет я спокойно относился к перспективам влияния ИИ на человеческое существование и окружающую среду. Это потому, что я всегда думал об этом как о проводник или советчик для людей. Но перспектива того, что ИИ будет принимать решения — осуществлять исполнительный контроль — это другое дело. И это тот, который сейчас серьезно развлекается.

Одна из ключевых причин, по которой мы не должны позволять ИИ иметь исполнительную власть, заключается в том, что у него полностью отсутствуют эмоции, которые имеют решающее значение для принятия решений. Без эмоций, сочувствия и морального компаса вы создали идеальный психопат. Полученная система может быть очень разумной, но ей будет не хватать человеческого эмоционального ядра, позволяющего измерять потенциально разрушительные эмоциональные последствия рационального решения.

Когда ИИ берет на себя исполнительный контроль

Важно отметить, что мы не должны думать об ИИ только как о экзистенциальной угрозе, если мы поставить его во главе ядерных арсеналов. По сути, нет предела количеству позиций управления, с которых он может нанести невообразимый ущерб.


графика подписки внутри себя


Рассмотрим, например, как ИИ уже может идентифицировать и систематизировать информацию, необходимую для создания собственной оранжереи. Текущие версии технологии могут эффективно проведут вас через каждый шаг сборки и предотвратить многие ошибки новичка. Но в будущем ИИ может выступать в качестве менеджера проекта и координировать сборку, выбирая подрядчиков и оплачивая их прямо из вашего бюджета.

ИИ уже используется практически во всех областях обработки информации и анализа данных — от моделирование погодных условий в управление беспилотными транспортными средствами в помощь в постановке диагноза. Но вот тут-то и начинаются проблемы — когда мы позволяем системам ИИ сделать решающий шаг от роли советника к роли исполнительного менеджера.

Вместо того, чтобы просто предлагать средства счета компании, что, если бы ИИ был передан прямой контроль, с возможностью реализации процедур взыскания долгов, осуществления банковских переводов и максимизации прибыли — без каких-либо ограничений в том, как это сделать. Или представьте себе систему ИИ, которая не только обеспечивает диагностика на основании рентгена, но ему дается право напрямую назначать лечение или лекарства.

Вы можете начать чувствовать себя неловко из-за таких сценариев — я, конечно, буду. Причиной может быть ваша интуиция, что у этих машин на самом деле нет «души». Это просто программы, предназначенные для переваривать огромные объемы информации, чтобы упростить сложные данные в гораздо более простые модели, что позволяет людям принимать решения с большей уверенностью. У них нет и не может быть эмоций, тесно связанных с биологическими чувствами и инстинктами.

Эмоции и мораль

Эмоциональный интеллект это способность управлять своими эмоциями, преодолевать стресс, сопереживать и эффективно общаться. Это, возможно, имеет большее значение в контексте принятия решений, чем только интеллект, потому что лучшее решение не всегда является самым рациональным.

Вполне вероятно, что интеллект, способность рассуждать и действовать логически, может быть встроен в системы на базе ИИ, чтобы они могли принимать рациональные решения. Но представьте, что вы просите мощный ИИ с исполнительными способностями разрешить климатический кризис. Первое, на что его может вдохновить, — резко сократить человеческую популяцию.

Этот вывод не нуждается в особых пояснениях. Мы, люди, почти по определению являемся источником загрязнения во всех возможных формах. Топор человечества и изменение климата будет решен. Можно надеяться, что это не тот выбор, к которому придут люди, принимающие решения, но ИИ найдет свои собственные решения — непроницаемые и не обремененные человеческим отвращением к причинению вреда. И если бы у него была исполнительная власть, ничто не могло бы помешать ему действовать.

9dfujyxp
 Предоставление ИИ возможности принимать исполнительные решения в управлении воздушным движением может быть ошибкой. Городенков / Shutterstock

Сценарии саботажа

Как насчет саботажа датчики и мониторы, управляющие продовольственными фермами? Поначалу это может происходить постепенно, сдвигая контроль сразу после переломного момента, так что никто из людей не заметит, что посевы обречены. При определенных сценариях это может быстро привести к голоду.

В качестве альтернативы, как насчет того, чтобы отключить управление воздушным движением во всем мире или просто разбить все самолеты, летящие одновременно? Обычно в воздухе одновременно находится около 22,000 XNUMX самолетов, что может составить несколько миллионов погибших.

Если вы думаете, что мы далеки от такой ситуации, подумайте еще раз. ИИ уже водят автомобили и летать на военном самолете, автономно.

В качестве альтернативы, как насчет закрытия доступа к банковским счетам в обширных регионах мира, спровоцировать гражданские беспорядки везде сразу? Или выключение системы отопления с компьютерным управлением посреди зимы или системы кондиционирования воздуха в разгар летней жары?

Короче говоря, система ИИ не обязательно должна управлять ядерным оружием, чтобы представлять серьезную угрозу человечеству. Но пока мы обсуждаем эту тему, если бы система ИИ была достаточно мощной и умной, она могла бы найти способ сымитировать нападение на страну с применением ядерного оружия, спровоцировав ответный удар, инициированный человеком.

Может ли ИИ убить большое количество людей? Ответ должен быть да, в теории. Но это в значительной степени зависит от людей, решивших дать ему исполнительный контроль. Я не могу придумать ничего более ужасающего, чем ИИ, который может принимать решения и имеет право их реализовывать.Беседа

Об авторе

Гийом Тьерри, профессор когнитивной неврологии, Бангор университета

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.