Почему нельзя позволить искусственному интеллекту заменять несовершенство человеческого сочувствия

В основе разработки искусственного интеллекта лежит поиск совершенства. И он может быть столь же опасен для человечества, как и идея, которая возникла из философских и псевдонаучных идей XIX и начала XX веков и привела к ужасам колониализма, мировой войне и Холокосту. Вместо господствующей человеческой «расы господ» мы могли бы получить машинную.

Если это кажется чрезмерным, подумайте об античеловеческом перфекционизме, который уже занимает центральное место на рынке труда. Здесь технология искусственного интеллекта - это следующий шаг к достижению максимальной производительности, который заменил индивидуальное мастерство заводской производственной линией. Эти масштабные изменения в производительности и в том, как мы работаем, создали возможности и угрозы, которые теперь должны усугубляться «четвертая промышленная революция», В котором ИИ заменяет рабочих.

Несколько недавние исследовательские работы предсказывают, что через десять лет автоматизация заменит половину текущих рабочих мест. Так что, по крайней мере, при переходе к новой цифровой экономике многие люди потеряют средства к существованию. Даже если мы предположим, что эта новая промышленная революция породит новую рабочую силу, которая сможет ориентироваться и управлять этим миром, в котором доминируют данные, нам все равно придется столкнуться с серьезными социально-экономическими проблемами. Нарушения будут огромными, и их необходимо тщательно изучить.

Конечная цель ИИ, даже узкого ИИ, который решает очень специфические задачи, - превзойти и усовершенствовать каждую когнитивную функцию человека. В конце концов, системы машинного обучения вполне могут быть запрограммированы так, чтобы быть лучше людей во всем.

Однако то, что они могут никогда не развить, так это человеческое прикосновение - сочувствие, любовь, ненависть или любые другие самосознательные эмоции, которые делают нас людьми. Это если мы не приписываем им эти настроения, а именно некоторые из нас уже делают с нашими «Алексасом» и «Сирисом».


графика подписки внутри себя


Производительность против человеческого прикосновения

Одержимость совершенством и «сверхэффективностью» оказала глубокое влияние на человеческие отношения, даже на человеческое воспроизводство, поскольку люди живут своей жизнью в замкнутых виртуальных реальностях, созданных ими самими. Например, несколько компаний из США и Китая создали куклы-роботы, которые быстро продаются в качестве альтернативных партнеров.

Один человек в Китае даже женился на своей кибер-кукле, В то время женщина во Франции «Вышла замуж» за «робо-человека», рекламируя ее историю любви как форму «робо-сексуальности» и проводя кампанию по легализации своего брака. «Я действительно и полностью счастлива», - сказала она. «Наши отношения будут становиться все лучше и лучше по мере развития технологий». Там представляется высокий спрос на жен и мужей-роботов во всем мире.

В идеально продуктивном мире люди будут считаться бесполезными, конечно, с точки зрения производительности, но также и с точки зрения нашей слабости. Если мы не откажемся от перфекционистского отношения к жизни, которое ставит продуктивность и «материальный рост» выше устойчивости и личного счастья, исследования ИИ могут стать еще одной цепочкой в ​​истории провальных человеческих изобретений.

Мы уже наблюдаем дискриминацию в алгоритмических вычислениях. В последнее время популярный Южнокорейский чат-бот по имени Ли Люда отключен от сети. «Она» была создана по образу 20-летней студентки университета и была удалена из мессенджера Facebook после использования языка вражды по отношению к ЛГБТ.

Между тем, автоматическое оружие, запрограммированное на убийство, несет в себе такие принципы, как «производительность» и «эффективность». В результате война стала более устойчивой. Распространение беспилотных боевых действий - очень яркий пример этих новых форм конфликта. Они создают виртуальную реальность, которая почти недоступна нам.

Но было бы комично изобразить ИИ как неизбежный оруэлловский кошмар армии сверхразумных «Терминаторов», чья миссия - стереть человечество. Такие антиутопические предсказания слишком грубы, чтобы охватить мельчайшие детали искусственного интеллекта и его влияние на нашу повседневную жизнь.

Общества могут извлечь выгоду из ИИ, если он разрабатывается с учетом устойчивого экономического развития и безопасности человека. Слияние власти и ИИ, преследующее, например, системы контроля и наблюдения, не должны заменять обещание гуманизированного ИИ, который ставит технологии машинного обучения на службу людям, а не наоборот.

С этой целью интерфейсы ИИ и человека, которые быстро открываются в тюрьмах, здравоохранении, правительстве, социальном обеспечении и пограничном контроле, например, должны регулироваться таким образом, чтобы этика и безопасность человека были выше институциональной эффективности. Социальные и гуманитарные науки имеют много сказать о таких вопросах.

Одна вещь, о которой следует быть радушной, - это вероятность того, что ИИ никогда не заменит человеческую философию и интеллектуальность. В конце концов, чтобы быть философом, требуется сочувствие, понимание человечности и наших врожденных эмоций и мотивов. Если мы сможем запрограммировать наши машины на понимание таких этических стандартов, тогда исследования ИИ смогут улучшить нашу жизнь, что должно быть конечной целью любого технологического прогресса.

Но если исследования ИИ приведут к новой идеологии, основанной на идеях перфекционизма и максимальной производительности, тогда это будет разрушительная сила, которая приведет к новым войнам, большему количеству голода и большим социальным и экономическим бедствиям, особенно для бедных. На данном этапе мировой истории этот выбор по-прежнему за нами.Беседа

Об авторе

Аршин Адиб-Могхаддам, профессор глобальной мысли и сравнительной философии, SOAS, Лондонский университет

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.