Мы не проснулись однажды утром и не передали бразды правления машинам. Это произошло постепенно, шаг за шагом, с улучшением удобства. Ваша электронная почта сама собой наладилась. Ваш календарь научился предлагать время для встреч. Ваш банк уже выявил мошенничество до того, как вы заметили списание средств. Это ощущалось как полезные улучшения, а не как передача власти. Но что-то изменилось по пути, и большинство из нас этого не заметили.

В этой статье

  • Понимание того, что представляют собой агенты искусственного интеллекта и чем они отличаются от обычного программного обеспечения.
  • Ключевое различие между помощью и делегированием в автоматизированных системах.
  • Почему оптимизация без мудрости порождает предсказуемые проблемы
  • Примеры из реальной жизни, демонстрирующие как этичное использование, так и новые злоупотребления.
  • Практические шаги для сохранения вашей самостоятельности в автоматизированном мире.

Системы, которые сейчас сортируют, предлагают и иногда принимают решения за нас, начинались как простые помощники. Спам-фильтры спасали нас от бесконечного мусора. Системы рекомендаций указывали нам на книги, которые могли бы нам понравиться. Системные помощники по планированию находили время, подходящее для всех. Каждое нововведение решало реальную проблему. Каждое немного упрощало жизнь. И каждое приучало нас к мысли, что технологии будут принимать за нас всё более сложные решения.

Сейчас мы достигли точки, когда системы не просто помогают нам принимать решения — они сами принимают решения и действуют. Они не ждут одобрения. Они не всегда дают объяснения. И они работают в таких масштабах и с такой скоростью, что человеческий контроль кажется старомодным, даже невозможным. Это произошло не потому, что мы сделали один большой выбор — отказаться от контроля. Это произошло потому, что мы сделали десять тысяч маленьких выборов, приняв удобство, не задаваясь вопросом о последствиях.

Что на самом деле делают эти системы

Искусственный интеллект отличается от программного обеспечения, с которым вы выросли. Традиционные программы следуют инструкциям. Они ждут ввода, обрабатывают его в соответствии с заданными правилами и останавливаются. Калькулятор не продолжает вычисления после того, как вы отошли. Текстовый процессор не начинает писать самостоятельно. Эти инструменты инертны, пока не будут активированы. Они — слуги, а не исполнители.

Искусственный интеллект работает иначе. Он постоянно наблюдает за окружающей средой. Он принимает решения, основываясь на том, что воспринимает. Он предпринимает действия для достижения целей. И он повторяет этот цикл без постоянного вмешательства человека. Отличительной чертой является не интеллект в человеческом понимании, а инициатива. Агент не просто реагирует по команде. Он действует.


графика подписки внутри себя


Представьте себе термостат. Старые модели требовали ручной регулировки температуры. Умный термостат отслеживает закономерности, изучает ваши предпочтения, прогнозирует ваше расписание и самостоятельно регулирует отопление и охлаждение. Он принимает решения. Небольшие, но всё же решения. Теперь представьте, что это системы, которые торгуют акциями, фильтруют заявки на работу, модерируют контент и управляют цепочками поставок. Принцип тот же. Последствия — нет.

Разница между помощью и заменой

В автоматизации есть важный моральный аспект, который большинство дискуссий обходят стороной. Это разница между использованием ИИ для принятия решений и предоставлением ИИ возможности заменить ваши решения. В первом случае вы будете нести ответственность, во втором — избежите ответственности.

Когда врач использует систему искусственного интеллекта для анализа медицинских изображений, но при этом сам проверяет результаты и ставит диагноз, это называется аугментацией. Инструмент выявляет закономерности, которые человек может пропустить. Человек интегрирует эти данные с историей болезни пациента, симптомами и клиническим опытом. Ответственность остается очевидной. Но когда страховая компания использует алгоритм для одобрения или отклонения заявок, а эксперты-люди превращаются в безликих «штамповщиков», которые редко отменяют рекомендации системы, происходит важное изменение. Видимость человеческого контроля маскирует то, что на самом деле является алгоритмической властью.

Делегирование кажется эффективным. Оно кажется нейтральным. Оно кажется прогрессом. В конце концов, зачем людям тратить время на решения, которые машины могут принимать быстрее и последовательнее? Ответ в том, что последовательность — это не то же самое, что правильность, а эффективность — это не то же самое, что справедливость. Машины не заинтересованы в результате. Они не беспокоятся о своих ошибках. Когда мы делегируем принятие решений системам, которые сами не обладают способностью к суждению, мы создаём вакуум ответственности. И этот вакуум заполняется оправданиями. Алгоритм это сделал. Система это отметила. Эти фразы стали щитами от ответственности.

Почему неустанная оптимизация нас подводит

Искусственный интеллект — это оптимизаторы. Им ставят цели, и они неустанно стремятся к их достижению, зачастую гораздо эффективнее, чем это могли бы сделать люди. Это звучит как преимущество, пока вы не посмотрите, что именно оптимизируется. Алгоритмы социальных сетей оптимизируют вовлеченность, что на практике означает усиление возмущения и споров, поскольку они заставляют людей продолжать листать ленту. Алгоритмы найма оптимизируют результаты на основе успешных наймов в прошлом, что означает, что они воспроизводят исторические предубеждения. Алгоритмы ценообразования оптимизируют выручку, что может означать, что разные люди платят разные цены за один и тот же продукт в зависимости от того, насколько, по мнению системы, они готовы терпеть.

Проблема не в том, что эти системы неисправны. Проблема в том, что они работают именно так, как задумано. Они делают то, что им было поручено. Но поставленные перед ними цели неполны. Они не учитывают правду, справедливость, достоинство или долгосрочное благополучие, потому что эти вещи трудно измерить и еще труднее закодировать. Поэтому системы максимизируют то, что можно измерить — клики, конверсии, эффективность, прибыль, — а самые важные вещи рассматриваются как внешние эффекты.

Предполагается, что именно люди взвешивают контекст и ценности. Мы должны замечать, когда оптимизация приносит вред. Но когда системы работают в больших масштабах и с высокой скоростью, человеческое суждение становится непрактичным. К тому моменту, когда мы замечаем, что что-то не так, алгоритм уже принял десять тысяч решений. То, что можно оптимизировать, не всегда следует максимизировать. Это истина, которую машины не могут постичь, а люди постоянно забывают.

Как эти системы используются не по назначению.

Большая часть вреда от агентов ИИ исходит не от злого умысла. Она возникает из-за бесконтрольных систем, которые делают именно то, что запрограммировали, в масштабах и с такой скоростью, что каждая ошибка многократно усиливается. Один человек, действующий неэтично, — это проблема. Одна система, позволяющая одному субъекту действовать так, как будто их тысячи, — это кризис.

Масштабирование без ответственности встречается повсюду. Боты, манипулирующие обсуждениями в социальных сетях, фальшивые системы отзывов, автоматизированный спам, который адаптируется быстрее, чем фильтры успевают его обнаружить. Когда наступают последствия, защита всегда одна и та же: это сделала система. Я просто установил параметры. Эти оправдания работают, потому что ответственность намеренно замалчивается.

Делегирование вреда особенно коварно, поскольку позволяет учреждениям избегать ответственности, сохраняя при этом власть. Алгоритм отклоняет вашу заявку на кредит. Автоматизированная система помечает вашу вакансию как нарушающую стандарты сообщества. Инструмент для найма отсеивает вас еще до того, как человек увидит ваше резюме. Когда вы подаете апелляцию, вам часто говорят, что решение остается в силе, потому что система справедлива и объективна. Но справедливость — это не то же самое, что последовательность, а объективность — это миф, когда система была обучена на предвзятых данных или разработана для оптимизации неправильных целей.

Наибольший риск

Реальная опасность заключается не в том, что машины возьмут управление в свои руки. Опасность в том, что мы перестанем пытаться это сделать. Люди адаптируются к окружающим их системам. Когда решения кажутся автоматизированными и неизбежными, сомнения исчезают. Когда результаты достигаются без видимого участия человека, ответственность, кажется, испаряется. Мы приучаем себя принимать то, что нам дано, вместо того, чтобы требовать того, что правильно.

Эта закономерность хорошо известна. Бюрократия учит людей, что правила неизменны и исключений не существует. Платформенные монополии учат людей, что условия предоставления услуг не подлежат обсуждению. Финансовая автоматизация учит людей, что рынки неподвластны влиянию человека. Каждая система подрывает понимание того, что индивидуальный выбор имеет значение. А агенты искусственного интеллекта, поскольку они работают быстрее и непрозрачнее, чем все предыдущие системы, ускоряют этот процесс.

Самостоятельность — это не состояние по умолчанию. Это то, чему нужно учиться или что можно потерять. Чем чаще вы подчиняетесь системам, тем менее способными вы становитесь отстаивать собственное суждение. Чем чаще вы безоговорочно принимаете результаты алгоритмов, тем сложнее вам представить, что всё могло бы быть иначе. В этом и заключается наибольшая опасность. Не в контроле со стороны машин, а в привыкании к неспособности принимать решения.

Что вы на самом деле можете сделать

Противодействие ослаблению свободы воли не требует грандиозных жестов. Оно требует повседневной практики. Начните с того, чтобы подвергать сомнению невидимую автоматизацию. Когда система принимает решение, которое влияет на вас, спросите, как она работает и кто за это отвечает. Прежде чем доверять автоматизированным результатам, спросите, имеет ли этот результат смысл и не упускает ли система чего-то важного. Отдавайте предпочтение системам, которые объясняют себя, а не «черным ящикам», требующим доверия.

Оставайтесь вовлеченными там, где это действительно важно. Не делегируйте принятие решений просто потому, что можете. Если инструмент предлагает написать ваши электронные письма, отредактировать вашу работу или дать рекомендации от вашего имени, подумайте, стоит ли удобство того расстояния, которое это создает между вами и задачей. А когда вы сталкиваетесь с системами, работающими без подотчетности, требуйте лучшего. Противодействуйте алгоритмическим решениям. Требуйте проверки человеком. Откажитесь принимать ответ системы как окончательный только потому, что он автоматизирован.

Самостоятельность — это практика, а не настройка по умолчанию. Каждый раз, когда вы ставите под сомнение автоматизированный результат, вы используете способность, которая атрофируется от бездействия. Каждый раз, когда вы настаиваете на человеческой ответственности, вы противодействуете нормализации алгоритмической власти. Эти небольшие акты осознанного выбора имеют значение, потому что они формируют среду, в которой находятся все остальные.

Инструменты, которые мы создаём, или силы, которые формируют нас

Искусственный интеллект — это инструменты, которые мы создаём. Это первая истина. Но после внедрения они меняют поведение и власть. Это вторая истина. Обе истины реальны, и притворяться, что это не так, опасно. Вопрос не в том, будут ли эти системы продолжать действовать. Будут. Вопрос в том, будут ли люди нести ответственность за действия, совершаемые от их имени.

Будущее строится прямо сейчас посредством миллионов мелких решений о том, где автоматизировать процессы, а где настаивать на человеческом суждении. Эти решения не просто технические. Они моральные. Они касаются того, в каком мире мы готовы жить и какую свободу воли мы готовы сохранить. Путь по умолчанию ясен. Больше автоматизации, меньше контроля, больше удобства, меньше ответственности. Этот путь прост, потому что он выгоден и эффективен и кажется неизбежным.

Но неизбежность — это история, которую мы рассказываем себе, чтобы избежать дискомфорта, связанного с выбором. В действительности же каждое использование ИИ-агента — это выбор. Каждое признание алгоритмической власти — это выбор. Каждый раз, когда мы пожимаем плечами и говорим, что система приняла решение, — это выбор. И каждый выбор определяет то, что будет дальше. Поэтому вопрос не в том, что сделает ИИ. Вопрос в том, какие решения вы по-прежнему готовы принимать самостоятельно. Ответ на этот вопрос важнее любого алгоритма.

Об авторе

Алекс Джордан — штатный автор InnerSelf.com

Рекомендуемые книги

Проблема согласования: машинное обучение и человеческие ценности

Глубоко исследованный вопрос о том, как системы искусственного интеллекта усваивают ценности и почему согласование этих ценностей с благополучием человека гораздо сложнее, чем кажется большинству людей.

Покупка на Амазонке

Оружие математического уничтожения: как большие данные усиливают неравенство и угрожают демократии

Доступное исследование того, как алгоритмы закрепляют неравенство и действуют без какой-либо ответственности, написанное математиком, работавшей внутри систем, которые она критикует.

Покупка на Амазонке

Автоматизация неравенства: как высокотехнологичные инструменты формируют профили, контролируют и наказывают бедных.

Глубокое исследование того, как автоматизированные системы нацелены на бедных и наказывают их, раскрывая человеческие издержки алгоритмического принятия решений в государственных службах.

Покупка на Амазонке

Резюме статьи

Искусственный интеллект представляет собой переход от инструментов, помогающих человеку принимать решения, к системам, которые его заменяют, работающим с инициативой и автономностью со скоростью, которая затрудняет контроль. Реальный риск заключается не в машинном интеллекте, а в постепенном ослаблении человеческой свободы воли по мере того, как мы адаптируемся к автоматизированному принятию решений без подотчетности. Этичное использование требует привлечения людей к ответственности за важные решения, поддержания прозрачности и признания того, что оптимизация без мудрости приводит к предсказуемому вреду.

#АгентыИИ #автоматизация #человеческаявласть #алгоритмическаяподотчетность #этичныйИИ #цифроваяавтономия #технологиииэтика