AI может предсказать, будут ли ваши отношения на самом деле основываться на том, как вы говорите своему партнеру

Любой ребенок (или супруг), который ругался за их тон голоса - например, крик или саркастичность - знает, что путь вы говорите с кем-то, может быть столь же важно, как и слова что вы используете. Голосовые исполнители и актеры очень хорошо это используют - они умеют придавать смысл так, как они говорят, иногда гораздо больше, чем одни слова заслуживают.

Но как много информации передается в нашем тоне голосовой и разговорной паттернов и как это влияет на наши отношения с другими? Вычислительные системы уже могут установить кто из их голосов, так могли бы они также рассказать нам что-нибудь о нашей любовной жизни? Удивительно, похоже.

Новые исследования, только что опубликованный в журнале PLOS-ONE, проанализировал вокальные характеристики пар 134, проходящих терапию. Исследователи из Университета Южной Калифорнии использовали компьютеры для извлечения стандартных функций анализа речи из записей участников сеанса терапии в течение двух лет. Особенности - в том числе шаг, изменение высоты тона и интонации - все это относится к аспектам голоса, таким как тон и интенсивность.

Затем был изучен алгоритм машинного обучения, чтобы изучить связь между этими вокальными особенностями и конечным результатом терапии. Это было не так просто, как выявление криков или поднятых голосов - это включало в себя взаимодействие разговора, которое говорило, когда и как долго, как звук голосов. Оказалось, что игнорировать сказанное и рассматривать только эти образцы речи достаточно, чтобы предсказать, будут ли пары оставаться вместе. Это было чисто управление данными, поэтому оно не связывало результаты с конкретными атрибутами голоса.

Как тон голоса может изменить смысл нескольких слов.

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


графика подписки внутри себя


Интересно отметить, что все видеозаписи сеанса терапии были предоставлены экспертам для классификации. В отличие от ИИ, они сделали свои предсказания, используя психологическую оценку, основанную на вокальных (и других) признаках, включая слова, произнесенные и язык тела. Удивительно, но их предсказание конечного результата (они были правильными в 75.6% случаев) уступало предсказаниям ИИ, основанным только на вокальных характеристиках (79.3%). Ясно, что есть элементы, закодированные так, как мы говорим, о которых даже не знают специалисты. Но лучшие результаты были получены при объединении автоматизированной оценки с оценкой экспертов (79.6% правильно).

Значимость этого заключается не столько в вовлечении AI в консультирование по браку, либо в том, что пары могут лучше говорить друг с другом (как бы это ни было достойно). Значимость показывает, насколько информация о наших основополагающих чувствах закодирована так, как мы говорим, - некоторые из них нам совершенно неизвестны.

Слова, написанные на странице или экране, имеют лексические значения, полученные из их словарных определений. Они модифицируются контекстом окружающих слов. В письменной форме может быть большая сложность. Но когда слова читаются вслух, это правда, что они принимают дополнительные значения, которые передаются словом стресс, громкость, скорость речи и тон голоса. В типичном разговоре есть также смысл того, как долго разговаривает каждый оратор, и как быстро тот или иной может вмешиваться.

Рассмотрим простой вопрос: «Кто ты?». Попробуйте говорить это с упором на разные слова; "Кто являетесь?", "Кто Он ты и "Кто ты?". Слушайте эти - семантическое значение может измениться с тем, как мы читаем, даже когда слова остаются неизменными.

Компьютеры читают «утечки чувств»?

Неудивительно, что слова передают разные значения в зависимости от того, как они говорят. Также неудивительно, что компьютеры могут интерпретировать некоторые из значений, стоящих за тем, как мы решаем говорить (возможно, в один прекрасный день они даже смогут понимать иронию).

Но это исследование еще более важно, чем просто смотреть на смысл, передаваемый предложением. Кажется, он раскрывает лежащие в основе предложения и размышления. Это гораздо более глубокий уровень понимания.

Участники терапии не читали слова, как актеры. Они просто разговаривали естественным образом - или, как можно скорее, в кабинете терапевта. И все же анализ выявил информацию об их взаимных чувствах, которые они «непредсказуемо» протекали в свою речь. Это может быть одним из первых шагов в использовании компьютеров для определения того, что мы действительно думаем или чувствуем. Представьте себе на мгновение разговор с будущими смартфонами - будем ли мы «утекать» информацию, которую они могут подобрать? Как они будут реагировать?

Могли бы они посоветовать нам о потенциальных партнерах, слушая, как мы разговариваем вместе? Могут ли они обнаружить склонность к антиобщественному поведению, насилию, депрессии или другим условиям? Не было бы фантазии вообразить сами устройства в качестве будущих терапевтов - взаимодействие с нами различными способами для отслеживания эффективности вмешательств, которые они оказывают.

Не волнуйся, потому что мы находимся вдали от такого будущего, но это поднимает приватностью, особенно потому, что мы более глубоко взаимодействуем с компьютерами одновременно с тем, как они становятся более сильными при анализе окружающего мира.

БеседаКогда мы также останавливаемся на рассмотрении других человеческих чувств, кроме звука (речи); возможно, мы также проливаем информацию через зрение (например, язык тела, покраснение), касание (температура и движение) или даже запах (феромоны). Если умные устройства могут так много узнать, слушая, как мы говорим, каждый задается вопросом сколько они могли бы извлечь из других чувств.

Об авторе

Ян Маклафлин, профессор вычислительной техники, руководитель школы (Medway), Кентский университет

Эта статья изначально была опубликована в Беседа, Прочтите оригинал статьи.

Похожие книги:

at Внутренний рынок самовыражения и Amazon