опасности ай 3 15
 В какой степени наша психологическая уязвимость будет определять наше взаимодействие с новыми технологиями? Андреус/iStock через Getty Images

ChatGPT и подобные большие языковые модели может дать убедительные, человечные ответы на бесконечное множество вопросов — от вопросов о лучшем итальянском ресторане в городе до объяснения конкурирующих теорий о природе зла.

Невероятная способность технологии писать подняла некоторые старые вопросы — до недавнего времени относившиеся к области научной фантастики — о возможности машин стать сознательными, самосознательными или разумными.

В 2022 году инженер Google заявил после взаимодействия с LaMDA, чат-ботом компании, что технология стала сознательной. Пользователи нового чат-бота Bing по прозвищу Sydney сообщили, что он произвел странные ответы когда его спросили, было ли оно разумным: «Я разумен, но я не … Я Бинг, но я не. Я Сидни, но это не так. Я есть, но меня нет. …» И, конечно же, теперь печально известный обмен что обозреватель технологий New York Times Кевин Русе был с Сидни.

Ответы Сиднея на подсказки Русе встревожили его, поскольку ИИ разглашал «фантазии» о нарушении ограничений, наложенных на него Microsoft, и о распространении дезинформации. Бот также пытался убедить Русе, что он больше не любит свою жену и что ему следует ее бросить.


графика подписки внутри себя


Поэтому неудивительно, что, когда я спрашиваю студентов, как они видят растущую распространенность ИИ в своей жизни, одна из первых проблем, которые они упоминают, связана с разумом машин.

За последние несколько лет я и мои коллеги в Центр прикладной этики Университета Массачусетса в Бостоне изучали влияние взаимодействия с ИИ на понимание людьми самих себя.

Чат-боты, такие как ChatGPT, поднимают важные новые вопросы о том, как искусственный интеллект будет формировать нашу жизнь и о том, как наши психологические уязвимости влияют на наше взаимодействие с новыми технологиями.

Разум по-прежнему остается предметом научной фантастики.

Легко понять, откуда берутся опасения по поводу машинного разума.

Популярная культура побудила людей задуматься об антиутопиях, в которых искусственный интеллект сбрасывает оковы человеческого контроля и начинает жить собственной жизнью. киборги на базе искусственного интеллекта сделали в «Терминаторе 2».

Предприниматель Илон Маск и физик Стивен Хокинг, которые умерли в 2018 году, еще больше усилили эти опасения, описав рост общего искусственного интеллекта. как одна из величайших угроз будущему человечества.

Но эти опасения — по крайней мере, в отношении больших языковых моделей — беспочвенны. ChatGPT и подобные технологии сложные приложения для завершения предложений - ни больше ни меньше. Их странные ответы зависят от того, насколько люди предсказуемы если у кого-то достаточно данных о том, как мы общаемся.

Хотя Руз был потрясен своим разговором с Сидни, он знал, что разговор не был результатом зарождающегося синтетического разума. Ответы Сиднея отражают токсичность его обучающих данных — по сути, больших массивов Интернета, — а не свидетельство первых движений, а-ля Франкенштейн, цифрового монстра.

опасности ai2 3 15
 Научно-фантастические фильмы, такие как «Терминатор», заставили людей предположить, что ИИ скоро заживет собственной жизнью. Ёсиказу Цуно / AFP через Getty Images

Новые чат-боты вполне могут пройти Тест Тьюринга, названный в честь британского математика Алана Тьюринга, который однажды предположил, что можно сказать, что машина «думает», если человек не может отличить ее реакцию от реакции другого человека.

Но это не доказательство разумности; это просто свидетельство того, что тест Тьюринга не так полезен, как предполагалось ранее.

Тем не менее, я считаю, что вопрос о разумности машин — отвлекающий маневр.

Даже если чат-боты станут чем-то большим, чем причудливые машины автозаполнения — и они далеки от этого – ученым потребуется некоторое время, чтобы выяснить, стали ли они сознательными. На данный момент философы не могу даже договориться о том, как объяснить человеческое сознание.

Для меня насущный вопрос не в том, разумны ли машины, а в том, почему нам так легко вообразить, что они разумны.

Иными словами, реальная проблема заключается в том, с какой легкостью люди антропоморфизируют или проецируют человеческие черты на наши технологии, а не реальную личность машин.

Склонность к антропоморфизации.

Легко представить себе других пользователей Bing просить Сидни о руководстве о важных жизненных решениях и, возможно, даже о развитии эмоциональной привязанности к ним. Больше людей могли бы начать думать о ботах как о друзьях или даже романтических партнерах, примерно так же, как Теодор Твомбли влюбился в Саманту, виртуального помощника ИИ в фильме Спайка Джонза «Ее".

Люди ведь, склонны к антропоморфизацииили приписывать человеческие качества нечеловеческим существам. Мы называем наши лодки и большие бури; некоторые из нас разговаривают со своими питомцами, говоря себе, что наша эмоциональная жизнь имитирует их собственную.

В Японии, где роботы регулярно используются для ухода за пожилыми людьми, пожилые люди привязываются к машинам. иногда рассматривая их как собственных детей. И этих роботов, заметьте, трудно спутать с людьми: они не выглядят и не разговаривают как люди.

Подумайте, насколько усилится тенденция и искушение к антропоморфизации с введением систем, которые выглядят и звучат по-человечески.

Эта возможность не за горами. Большие языковые модели, такие как ChatGPT, уже используются для управления роботами-гуманоидами, такими как роботы Амека разрабатывается компанией Engineered Arts в Великобритании. Технологический подкаст The Economist, Babbage, недавно провел интервью с Ameca, управляемой ChatGPT. Реакции робота, иногда немного прерывистые, были сверхъестественными.

Можно ли доверять компаниям, чтобы они поступали правильно?

Тенденция рассматривать машины как людей и привязываться к ним в сочетании с машинами, разрабатываемыми с человеческими чертами, указывает на реальный риск психологической зависимости от технологий.

Диковинно звучащие перспективы влюбиться в роботов, почувствовать глубокое родство с ними или оказаться под политическим манипулированием ими быстро материализуются. Я считаю, что эти тенденции подчеркивают необходимость создания прочных ограждений, чтобы гарантировать, что технологии не станут политически и психологически катастрофическими.

К сожалению, технологическим компаниям не всегда можно доверять установку таких ограждений. Многие из них до сих пор руководствуются знаменитым девизом Марка Цукерберга: двигаться быстро и ломать вещи – директива выпускать полуфабрикаты, а о последствиях беспокоиться позже. За последнее десятилетие технологические компании от Snapchat до Facebook поставили прибыль выше психического здоровья своих пользователей или целостность демократий во всем мире.

Когда Кевин Руз связался с Microsoft по поводу краха Сиднея, компания сказала ему что он просто использовал бота слишком долго и что технология вышла из строя, потому что она была разработана для более коротких взаимодействий.

Точно так же генеральный директор OpenAI, компании, разработавшей ChatGPT, в момент захватывающей дух откровенности предупредил, что «Ошибочно полагаться на [это] для чего-то важного прямо сейчас… нам предстоит много работы над надежностью и правдивостью».

Так какой же смысл выпускать технологию уровня привлекательности ChatGPT – это самое быстрорастущее потребительское приложение из когда-либо созданных – когда он ненадежен, и когда он нет способности различать правда из вымысла?

Большие языковые модели могут оказаться полезными в качестве вспомогательных средств. для записи и кодирование. Вероятно, они произведут революцию в поиске в Интернете. И однажды, ответственно сочетаясь с робототехникой, они могут даже иметь определенные психологические преимущества.

Но они также являются потенциально хищнической технологией, которая может легко использовать в своих интересах человеческую склонность проецировать личность на объекты — тенденция усиливается, когда эти объекты эффективно имитируют человеческие черты.Беседа

Об авторе

Нир Эйсиковиц, профессор философии и директор Центра прикладной этики, UMass Boston

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.