Искусственный интеллект теперь может эмулировать поведение человека, и вскоре он будет опасно хорошЯвляется ли это лицо просто сборкой компьютерных битов? ФОТОКРЕО Михал Беднарек / Shutterstock.com

Когда системы искусственного интеллекта начинают становиться творческими, они могут создавать великие вещи - и страшные. Возьмите, например, программу ИИ, которая позволяет пользователи сети сочиняют музыку вместе с виртуальный Иоганн Себастьян Бах вводя заметки в программу, которая генерирует гармонии, похожие на Баха, чтобы соответствовать им.

Запущено Google, приложение Дрю большой хвалить для того, чтобы быть новаторским и весело играть. Это также привлекло критикаи выразил обеспокоенность по поводу опасностей ИИ.

Мое изучение того, как новые технологии влияют на жизнь людей научил меня, что проблемы выходят за рамки общепризнанно большого беспокойства о есть ли алгоритмы может действительно создавать музыку или искусство в целом. Некоторые жалобы казались небольшими, но на самом деле это не так, как наблюдения о том, что ИИ Google был нарушая основные правила музыкальной композиции.

Фактически, попытки заставить компьютеры имитировать поведение реальных людей могут быть запутанными и потенциально вредными.


графика подписки внутри себя


Технологии олицетворения

Программа Google проанализировала ноты в 306 музыкальных произведений Баха, обнаружив связи между мелодией и нотами, обеспечивающими гармонию. Поскольку Бах следовал строгим правилам композиции, программа эффективно изучала эти правила, поэтому она могла применять их, когда пользователи предоставляли свои собственные заметки.

 Команда Google Doodle объясняет программу Баха.

{youtube}XBfYPp6KF2g{/youtube}

Само приложение Bach является новым, но основная технология - нет. Алгоритмы обучены распознавать шаблоны и сделать вероятностные решения существовали в течение длительного времени. Некоторые из этих алгоритмов настолько сложны, что люди не всегда понимаю как они принимают решения или дают определенный результат.

Системы ИИ не идеальны - многие из них полагаются на данные, которые не являются репрезентативными всего населения, или это под влиянием предвзятости человека, Не совсем понятно кто может нести юридическую ответственность когда система ИИ делает ошибку или вызывает проблему.

Теперь, однако, технологии искусственного интеллекта становятся достаточно продвинутыми, чтобы иметь возможность приблизиться к индивидуальному стилю письма или речи и даже выражению лица. Это не всегда плохо: довольно простой ИИ дал Стивену Хокингу умение общаться более эффективно с другими, предсказывая слова, которые он будет использовать больше всего.

Более сложные программы, которые имитируют человеческие голоса помогать людям с ограниченными возможностями - но может также использоваться, чтобы обмануть слушателей. Например, создатели лирохвост, программа для имитации голоса, выпустила смоделированный разговор между Бараком Обамой, Дональдом Трампом и Хиллари Клинтон. Это может звучать реально, но такого обмена никогда не было.

От хорошего к плохому

В феврале 2019, некоммерческая компания OpenAI создала программу, которая генерирует текст, который практически неотличим от текста написано людьми. Можно «написать» речь в стиле Джона Ф. КеннедиJRR Tolkien в «The Lord of the RingsИли студент, пишущий школьное задание о гражданской войне в США.

Текст, сгенерированный программным обеспечением OpenAI, настолько правдоподобен, что компания выбрала не выпускать Сама программа.

Подобные технологии могут симулировать фото и видео. Например, в начале 2018 актер и режиссер Джордан Пил создал видео, в котором, как казалось, показывался бывший президент США Барак Обама. вещи, которые Обама никогда не говорил предупредить общественность об опасностях, связанных с этими технологиями.

Будьте осторожны, какие видео вы верите.

{youtube}cQ54GDm1eL0{/youtube}

В начале 2019, поддельное обнаженное фото Американская Республика Александрия Окасио-Кортез распространяется онлайн. Изготовленные видеочасто называют «deepfakes, Как ожидается, будет все больше и больше используемый в избирательных кампаниях.

Члены Конгресса начали изучать эту проблему перед выборами 2020, Министерство обороны США обучает общественность как определить видео ролики и аудио. Новостные организации, такие как Reuters начинают готовить журналистов для выявления подделок.

Но, на мой взгляд, остается еще большая проблема: пользователи могут быть не в состоянии учиться достаточно быстро, чтобы различать фальшивый контент, поскольку технология ИИ становится все более сложной. Например, когда публика начинает осознавать, что искусственные мошенники уже используются, ИИ уже используется для еще более сложных обманов. Теперь есть программы, которые могут генерировать поддельные лица до поддельные цифровые отпечатки пальцевэффективно создавая информацию, необходимую для фабрикации целого человека - по крайней мере, в корпоративных или государственных документах.

Машины продолжают учиться

На данный момент в этих технологиях достаточно потенциальных ошибок, чтобы дать людям возможность обнаружить цифровые фабрикации. Google Бах композитор сделал несколько ошибок эксперт может обнаружить. Например, когда я попробовал это, программа позволила мне войти параллельные пятыемузыкальный интервал, который Бах старательно избегать, Приложение также нарушил музыкальные правила контрапункта путем гармонизации мелодий в неправильном ключе. Аналогичным образом, программа для генерации текста в OpenAI иногда пишет фразы типа «пожары, происходящие под водой», Что не имело смысла в их контексте.

По мере того, как разработчики работают над своими творениями, эти ошибки станут реже. По сути, технологии ИИ будут развиваться и учиться. Повышение эффективности может принести много социальных преимуществ, в том числе улучшение здравоохранения, так как программы AI помогают демократизировать практику медицины.

Предоставление исследователям и компаниям свободы исследовать, чтобы получить эти позитивные достижения от систем искусственного интеллекта, означает открывать риск разработки более совершенных способов обмана и других социальных проблем. Сильно ограничивающие исследования ИИ могут обуздать этот прогресс, Но давая полезные технологии комната для роста это обходится совсем не дорого - и вероятность неправильного использования, будь то создание неточной «баховской» музыки или обманывание миллионов, скорее всего, будет расти такими способами, которых люди пока не могут предвидеть.Беседа

Об авторе

Ана Сантос Рутшман, доцент кафедры права, Saint Louis University

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.

Книги по этой теме

at Внутренний рынок самовыражения и Amazon