Будет ли искусственный интеллект когда-либо понимать человеческие эмоции?

Как вы относитесь к тому, чтобы получить терапию от робота? Эмоционально интеллектуальные машины могут быть не такими далекими, как кажется. За последние несколько десятилетий искусственный интеллект (ИИ) стал все более полезным при чтении эмоциональных реакций у людей.

Но чтение - это не то же самое, что понимание. Если ИИ не может испытывать эмоции, могут ли они когда-либо по-настоящему понять нас? И, если нет, существует ли риск того, что мы приписываем свойства роботов, которых у них нет?

Новое поколение ИИ появилось благодаря увеличению данных, доступных для компьютеров, на которых можно учиться, а также их улучшенной вычислительной мощности. Эти машины становятся все более конкурентоспособными в задачах, которые всегда воспринимаются как люди.

Теперь AI может, среди прочего, распознавать лица, превратить эскизы лица в фотографии, признать речь и играть в Go.

Идентификация преступников

Недавно исследователи разработали ИИ, который способен рассказать, является ли человек преступником, просто глядя на их черты лица. Система оценивалась с использованием базы данных китайских идентификационных фотографий и Результаты падают челюсти. AI ошибочно классифицировал невинных людей как преступников только вокруг 6% случаев, в то время как он смог успешно идентифицировать около 83% преступников. Это приводит к ошеломляющей общей точности почти 90%.

Система основана на подходе под названием «глубокое обучение», который успешно справляется с такими перцептивными задачами, как распознавание лиц. Здесь глубокое обучение в сочетании с «моделью поворота лица» позволяет ИИ проверять, являются ли две фотографии лица одной и той же личностью, даже если освещение или угол изменяются между фотографиями.


графика подписки внутри себя


Глубокое обучение строит «нейронную сеть», слабо смоделированную на человеческом мозге. Это состоит из сотен тысяч нейронов, организованных в разных слоях. Каждый слой преобразует вход, например изображение лица, в более высокий уровень абстракции, такой как набор ребер в определенных ориентациях и местах. Это автоматически подчеркивает функции, которые наиболее важны для выполнения заданной задачи.

Учитывая успех глубокого обучения, неудивительно, что искусственные нейронные сети могут отличать преступников от не-преступников - если действительно существуют черты лица, которые могут различать их. Исследования показывают, что их три. Один из них - угол между кончиком носа и углами рта, который был в среднем на 19.6 меньше для преступников. Кривизна верхней губы была также в среднем на 23.4% больше для преступников, тогда как расстояние между внутренними углами глаз было в среднем 5.6% более узким.

На первый взгляд, этот анализ, по-видимому, предполагает, что устаревшие виды что преступники могут быть идентифицированы по физическим атрибутам, не совсем ошибочны. Однако, возможно, это не полная история. Интересно, что две из наиболее важных особенностей связаны с губами, которые являются нашими самыми выразительными чертами лица. Идентификационные фотографии, такие как те, которые использовались в исследовании, должны иметь нейтральное выражение лица, но могло бы быть, что ИИ удалось найти скрытые эмоции на этих фотографиях. Они могут быть настолько незначительными, что люди, возможно, пытались их заметить.

Трудно устоять перед соблазном взглянуть на образцы фотографий, отображаемые в документе, которые пока не проверяются экспертами. Действительно, внимательный взгляд показывает небольшую улыбку на фотографиях некриминаторов - посмотреть на себя, Но доступно только несколько образцов фотографий, поэтому мы не можем обобщать наши выводы во всей базе данных.

Сила аффективных вычислений

Это был не первый случай, когда компьютер смог распознать человеческие эмоции. Так называемая область "аффективные вычисления«Существует уже несколько лет. Утверждается, что если мы хотим комфортно жить и взаимодействовать с роботами, эти машины должны быть способны понимать и адекватно реагировать на человеческие эмоции. В этом районе много работы, и возможности огромны.

Например, исследователи использовали анализ лица для спонтанные студенты в компьютерных сеансах обучения. ИИ был обучен распознавать различные уровни участия и разочарования, чтобы система могла знать, когда ученики находили работу слишком легко или слишком сложно. Эта технология может быть полезна для улучшения учебного опыта в онлайн-платформах.

ИИ также используется для обнаруживать эмоции на основе звука нашего голоса компания под названием BeyondVerbal, Они выпустили программное обеспечение, которое анализирует модуляцию голоса и ищет конкретные шаблоны в том, как люди говорят. Компания утверждает, что может правильно идентифицировать эмоции с точностью 80%. В будущем такой тип технологий может, например, помочь аутичным людям идентифицировать эмоции.

Sony даже пытается разработать робот способный формировать эмоциональные связи с людьми. Существует не так много информации о том, как они намереваются достичь этого, или о том, что именно сделает робот. Однако они упоминают, что они стремятся "интегрировать аппаратное обеспечение и услуги, чтобы обеспечить эмоционально привлекательный опыт».

У эмоционально интеллектуального ИИ есть несколько потенциальных преимуществ, будь то предоставление кому-то компаньона или помощь в выполнении определенных задач - от криминального допроса до говорящей терапии.

Но есть и этические проблемы и риски. Правильно ли позволить пациенту с деменцией полагаться на спутника искусственного интеллекта и полагать, что у него есть эмоциональная жизнь, когда этого не происходит? И можете ли вы осудить человека на основе ИИ, который классифицирует их как виновных? Совершенно очевидно. Вместо этого, как только система, подобная этой, будет дополнительно улучшена и полностью оценена, менее опасным и потенциально полезным может быть запуск дополнительных проверок для лиц, которые считают «подозрительными» ИИ.

Итак, чего мы ожидаем от ИИ в будущем? Субъективные темы, такие как эмоции и чувства, по-прежнему трудно изучать ИИ, отчасти потому, что ИИ может не иметь доступа к достаточно хорошим данным для их объективного анализа. Например, мог ли AI когда-либо понимать сарказм? Данное предложение может быть саркастичным, если говорить в одном контексте, но не в другом.

Тем не менее объем данных и мощность обработки продолжают расти. Таким образом, за некоторыми исключениями, ИИ может быть в состоянии сопоставить людей в распознавании различных типов эмоций в течение следующих нескольких десятилетий. Но может ли ИИ испытать эмоции? спорный вопрос, Даже если бы они могли, могут быть эмоции, которые они никогда не испытали, что затрудняет их подлинное понимание.

Беседа

Об авторе

Леандро Минку, преподаватель информатики, Университет Лестера

Эта статья изначально была опубликована в Беседа, Прочтите оригинал статьи.

Похожие книги:

at Внутренний рынок самовыражения и Amazon