По мере того как искусственный интеллект все глубже проникает в повседневную жизнь людей, растет и беспокойство по этому поводу. Наибольшую тревогу вызывают опасения по поводу ИИ. собираюсь мошенничать и уничтожение своих хозяев-людей.

Но за призывами к пауза в развитии ИИ представляет собой набор более ощутимых социальных недугов. Среди них риски, которые ИИ представляет для жизни людей. конфиденциальность и достоинство и неизбежный факт, что, поскольку алгоритмы под капотом ИИ программируются людьми, это точно так же пристрастный и дискриминационный как и многие из нас. Добавьте отсутствие прозрачности о том, как устроен ИИ, и кем, и легко понять, почему так много времени в наши дни уделяется обсуждая свои риски столько же, сколько его потенциал.

Но мои собственные исследования как психолог, который изучает, как люди принимают решения заставляет меня поверить, что все эти риски омрачены еще более коррумпирующей, хотя и в значительной степени невидимой угрозой. То есть, ИИ отделяет всего несколько нажатий клавиш от того, чтобы сделать людей еще менее дисциплинированными и квалифицированными, когда дело доходит до обдуманных решений.

Принятие обдуманных решений

Процесс принятия обдуманных решений включает в себя три шаги здравого смысла которые начинаются с того, что нужно время, чтобы понять задачу или проблему, с которой вы столкнулись. Спросите себя, что вам нужно знать и что вам нужно сделать, чтобы принять решение, которое вы сможете впоследствии надежно и уверенно защитить?

Ответы на эти вопросы зависят от активного поиска информации, которая одновременно заполняет пробелы в ваших знаниях и бросает вызов вашим прежним убеждениям и предположениям. На самом деле, это вот это контрфактическая информация – альтернативные возможности, которые появляются, когда люди освобождаются от бремени определенных предположений – что в конечном итоге дает вам возможность защищать свои решения, когда их критикуют.


графика подписки внутри себя


Обдуманные решения включают в себя рассмотрение ваших ценностей и взвешивание компромиссов.

Второй шаг — это поиск и рассмотрение более одного варианта одновременно. Хотите улучшить качество своей жизни? Независимо от того, за кого вы голосуете, какую работу принимаете или какие вещи покупаете, всегда есть несколько дорог, которые приведут вас туда. Затрачивая усилия на активное рассмотрение и оценку хотя бы нескольких вероятных вариантов и честно говоря о компромиссы, на которые вы готовы пойти всех плюсов и минусов, является признаком продуманного и оправданного выбора.

Третий шаг – желание задержка закрытия принять решение до тех пор, пока вы не сделаете все необходима тяжелая умственная работа. Ни для кого не секрет: завершение – это приятно, потому что это означает, что вы оставили позади трудное или важное решение. Но цена преждевременного продвижения вперед может оказаться намного выше, чем затраты времени на выполнение домашней работы. Если ты мне не веришь, просто подумай обо всех тех случаях, когда ты позволял своим чувствам руководить тобой только для того, чтобы испытать сожаление потому что у тебя не было времени подумать немного усерднее.

Опасности передачи решений ИИ

Ни один из этих трех шагов не является очень трудным. Но для большинства они не интуитивно понятен или. Принятие обдуманных и обоснованных решений требует практики и самодисциплины. И вот тут-то и проявляется скрытый вред, которому ИИ подвергает людей: ИИ большую часть своего «думания» делает за кулисами и предоставляет пользователям ответы, лишенные контекста и обдумывания. Хуже того, искусственный интеллект лишает людей возможности практиковать процесс принятия продуманных и оправданных решений самостоятельно.

Посмотрите, как люди сегодня подходят ко многим важным решениям. Люди хорошо известны тем, что склонен к широкому спектру предубеждений потому что мы склонны экономно расходовать умственную энергию. Эта бережливость заставляет людей любить то, что кажется хорошим или заслуживающим доверия. решения принимаются за них. И мы социальные животные которые склонны ценить безопасность и признание своих сообществ больше, чем свою собственную автономию.

Добавьте к этому ИИ, и в результате получится опасная петля обратной связи: данные, которые ИИ собирает для подпитки своих алгоритмов, состоит из предвзятых решений людей которые также отражают давление конформизма вместо мудрости критические рассуждения. Но поскольку людям нравится, когда за них принимают решения, они склонны принимать эти плохие решения и переходить к следующим. В конце концов, ни мы, ни ИИ не стали мудрее.

Быть внимательным в эпоху искусственного интеллекта

Было бы ошибочно утверждать, что ИИ не принесет никакой пользы обществу. Скорее всего, так и будет, особенно в таких областях, как информационной безопасности, здравоохранение и финансы, где сложные модели и огромные объемы данных необходимо анализировать регулярно и быстро. Однако большинство наших повседневных решений не требуют такого рода аналитических способностей.

Но независимо от того, просили мы об этом или нет, многие из нас уже получили советы от ИИ и работу, выполненную им, в различных условиях: развлечения и путешествовать в школьная работа, здравоохранение и финансы. И дизайнеры усердно работают над ИИ следующего поколения который сможет автоматизировать еще больше наших ежедневных решений. И это, на мой взгляд, опасно.

В мире, где то, что и как думают люди, уже находится под угрозой из-за алгоритмы социальных сетей, мы рискуем поставить себя в еще более опасное положение, если позволим ИИ достичь уровня сложности, на котором он сможет принимать всевозможные решения от нашего имени. Действительно, мы обязаны противостоять призыву сирены искусственного интеллекта и вернуть себе истинную привилегию – и ответственность – быть человеком: способность думать и выбирать самостоятельно. Если мы это сделаем, мы почувствуем себя лучше и, что немаловажно, станем лучше.Беседа

Джо Арвай, Дана и Дэвид Дорнсайф, профессор психологии и директор Института окружающей среды и устойчивого развития Ригли, USC Дорнсифский колледж литературы, искусства и науки

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.