лицо, состоящее из кусочков и кусочков данных
Shutterstock

Искусственный интеллект (ИИ) все больше узнает о том, как работать с людьми (и с ними). А Недавнее исследование продемонстрировал, как ИИ может научиться определять уязвимые места в человеческих привычках и поведении и использовать их для влияния на принятие решений.

Может показаться банальным сказать, что ИИ меняет каждый аспект нашей жизни и работы, но это правда. Различные формы ИИ работают в столь разных областях, как разработка вакцин, управление окружающей средой и офисное администрирование. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности мощны и быстро развиваются.

Пока нет необходимости беспокоиться о захвате машин, но это недавнее открытие подчеркивает мощь ИИ и подчеркивает необходимость надлежащего управления для предотвращения злоупотреблений.

Как ИИ может научиться влиять на поведение человека

Группа исследователей из Данные Data61 CSIRO, отдел данных и цифровых технологий Австралийского национального научного агентства, разработал систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую повторяющейся нейронной сетью, и глубокое обучение с подкреплением. Чтобы проверить свою модель, они провели три эксперимента, в которых люди играли в игры против компьютера.

В первом эксперименте участники нажимали на красные или синие квадраты, чтобы выиграть фальшивую валюту, при этом ИИ изучал шаблоны выбора участников и направлял их к конкретному выбору. ИИ был успешным примерно в 70% случаев.


графика подписки внутри себя


Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать его, когда им показывают другой (например, синий круг). Здесь ИИ решил организовать последовательность символов, чтобы участники делали больше ошибок, и добился увеличения почти на 25%.

Третий эксперимент состоял из нескольких раундов, в которых участник выдавал себя за инвестора, отдающего деньги доверительному управляющему (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд. В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество денег, которые он получил, а в другом ИИ стремился к справедливому распределению денег между собой и человеческим инвестором. ИИ был очень успешен в каждом режиме.

В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе принятия решений людьми. Конечным результатом стало то, что машина научилась направлять участников к определенным действиям.

В экспериментах Внутренняя часть головы мужчины похожа на схему материнской платы компьютера.n Система ИИ успешно научилась влиять на решения людей. Shutterstock

Что означают исследования для будущего ИИ

Эти результаты все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Необходимы дополнительные исследования, чтобы определить, как этот подход можно реализовать и использовать на благо общества.

Но исследование действительно продвигает наше понимание не только того, что может делать ИИ, но и того, как люди делают выбор. Это показывает, что машины могут научиться управлять процессом принятия решений людьми, взаимодействуя с нами.

У исследования есть огромный диапазон возможных приложений, от улучшения поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди принимают здоровые привычки питания или возобновляемые источники энергии. Искусственный интеллект и машинное обучение могут использоваться для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неправильного выбора.

Этот метод также можно использовать для защиты от атак влияния. Машины можно научить предупреждать нас, когда на нас влияют онлайн, например, и помогать нам формировать поведение, чтобы замаскировать нашу уязвимость (например, не нажимая на одни страницы или щелкая другие, чтобы оставить ложный след).

Что дальше?

Как и любую технологию, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение для обеспечения его ответственной реализации. В прошлом году CSIRO разработал Принципы этики ИИ для правительства Австралии как первый шаг на этом пути.

Искусственный интеллект и машинное обучение, как правило, очень нуждаются в данных, а это значит, что крайне важно обеспечить наличие эффективных систем управления данными и доступа к ним. При сборе данных очень важно реализовать адекватные процессы согласия и защиты конфиденциальности.

Организации, использующие и развивающие искусственный интеллект, должны быть уверены, что они знают, что эти технологии могут и чего нельзя делать, а также осознают потенциальные риски и преимущества.

Об авторе

Джон Уиттл, директор, Data61

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.