Как понять, что животные могут помочь нам сделать большую часть искусственного интеллектаАвтономные машины не умнее этого. X posid

Каждый день бесчисленные заголовки появляются из множества источников по всему миру, оба предупреждение о тяжелых последствиях и перспективные утопические фьючерсы - все благодаря искусственному интеллекту. AI "преобразует рабочее место", пишет Wall Street Journal, В то время Fortune журнал говорит нам, что мы сталкиваемся с «революцией ИИ», которая «изменит нашу жизнь». Но мы не понимаем, как будет взаимодействовать с ИИ - или как это должно быть. Беседа

Оказывается, однако, что у нас уже есть концепция, которую мы можем использовать, когда думаем об ИИ: так мы думаем о животных. Будучи бывшим тренером по животным (хотя и ненадолго), который теперь изучает, как люди используют ИИ, я знаю, что подготовка животных и животных может очень многому научить нас тому, как мы должны думать, подходить и взаимодействовать с искусственным интеллектом, как сейчас, так и в будущее.

Использование аналогов животных может помочь обычным людям понять многие из сложных аспектов искусственного интеллекта. Это также может помочь нам подумать о том, как лучше всего научить эти системы новым навыкам и, возможно, самое главное, как мы можем правильно понимать их ограничения, даже когда мы отмечаем новые возможности ИИ.

Глядя на ограничения

Как эксперт по искусству Мэгги Боден объясняет,, «Искусственный интеллект стремится заставить компьютеры делать то, что может сделать ум». Исследователи ИИ работают над обучением компьютеров, чтобы рассуждать, воспринимать, планировать, перемещать и создавать ассоциации. AI может видеть шаблоны в больших наборах данных, прогнозировать вероятность возникновения события, планировать маршрут, управлять графиком встреч человека и даже играть в военные игры.

Многие из этих возможностей сами по себе неудивительны: конечно, робот может катиться вокруг пространства и не сталкиваться ни с чем. Но почему-то AI кажется более волшебным, когда компьютер начинает собирать эти навыки для выполнения задач.


графика подписки внутри себя


Возьмем, например, автономные машины. Истоки автомобиля без водителя находятся в проекте Агентства по продвижению перспективных исследований обороны 1980s под названием « Автономное сухопутное транспортное средство, Целью проекта было поощрение исследований в области компьютерного зрения, восприятия, планирования и управления роботами. В 2004 усилие ALV стало первым Большой вызов для самостоятельных автомобилей. Теперь, больше, чем через 30 лет с тех пор, как начались усилия, мы находимся на обрыве автономных или самоходных автомобилей на гражданском рынке. В первые годы мало кто думал, что такой подвиг был невозможным: компьютеры не могли ездить!

DARPA Grand Challenge продвинул развитие автономных автомобилей.

{youtube}M2AcMnfzpNg{/youtube}

Однако, как мы видели, они могут, Возможности автономных автомобилей относительно легко понять. Но мы изо всех сил пытаемся понять их ограничения. После 2015 фатальный Tesla crash, где функция автопилота автомобиля не смогла понять, что трактор-трейлер пересекает его полосу, мало кто все еще, похоже, понимает серьезность того, насколько на самом деле ограничен автопилот Теслы. Хотя компания и ее программное обеспечение были освобожден от халатности Национальной администрацией безопасности дорожного движения, остается неясным, действительно ли клиенты понимают, что автомобиль может и не может сделать.

Что, если бы владельцам Теслы сказали не то, что они были вождение «бета-версии» автопилота а скорее полуавтономный автомобиль с умственная эквивалентность червя? Так называемый «интеллект», который обеспечивает "полная способность к самообслуживанию«На самом деле это гигантский компьютер, который очень хорошо разбирается в объектах и ​​избегает их, узнавая предметы в изображениях и ограниченное планирование. Это может изменить перспективы владельцев относительно того, насколько автомобиль действительно может обойтись без человеческого участия или контроля.

Что это такое?

Технологи часто пытаются объяснить ИИ с точки зрения того, как он построен. Возьмем, например, достижения, сделанные в глубокое обучение, Это метод, который использует многоуровневые сети чтобы узнать, как выполнить задачу. Сети должны обрабатывать огромное количество информации. Но из-за объема требуемых данных, сложности ассоциаций и алгоритмов в сетях, людям часто неясно, как они узнают, что они делают. Эти системы могут стать очень хорошими в одной конкретной задаче, но мы их действительно не понимаем.

Вместо того, чтобы думать об ИИ как о чем-то сверхчеловеческом или чуждом, легче их сопоставить с животными, умными нелюдьми у нас есть опыт обучения.

Например, если бы я использовал усиление обучения чтобы обучить собаку сидеть, я бы похвалил собаку и дал ему удовольствия, когда он сидит по команде. Со временем он научился ассоциировать команду с поведением с лечением.

Обучение собаке сидеть очень похоже на подготовку искусственного интеллекта.

{youtube}5-МА-rGbt9k{/youtube}

Обучение системы искусственного интеллекта может быть практически одинаковым. В усиление глубокого обучения, человеческие дизайнеры создали систему, предвидят то, что хотят ее изучать, дают ей информацию, следят за ее действиями и дают ей обратную связь (например, похвалу), когда видят, чего хотят. По сути, мы можем относиться к системе ИИ, как к лечению животных, которые мы обучаем.

Аналогия работает и на более глубоком уровне. Я не ожидаю, что сидящая собака поймет сложные понятия, такие как «любовь» или «добро». Я ожидаю, что он научится этому поведению. Так же, как мы можем заставить собак сидеть, оставаться и переворачиваться, мы можем заставить системы ИИ перемещать автомобили вокруг дорог общего пользования. Но это слишком много, чтобы ожидать, что автомобиль "решить" этические проблемы, которые могут возникнуть в чрезвычайных ситуациях.

Помощь исследователям

Мышление об ИИ в качестве обучаемого животного не просто полезно для объяснения его широкой общественности. Это также полезно для исследователей и инженеров, строящих технологию. Если ученый ИИ пытается научить систему новому навыку, то думать о процессе с точки зрения тренера по животным может помочь выявить потенциальные проблемы или осложнения.

Например, если я пытаюсь обучить мою собаку сидеть, и каждый раз, когда я говорю «сидеть», зуммер в духовку гаснет, тогда моя собака начнет ассоциировать сидение не только с моей командой, но и со звуком духовой зуммер. По существу, зуммер становится еще одним сигналом, говорящему собаке сидеть, что называется «случайным подкреплением». Если мы ищем случайные подкрепления или сигналы в системах искусственного интеллекта, которые не работают должным образом, тогда мы будем лучше знать не только то, что происходит но и то, какая конкретная переподготовка будет наиболее эффективной.

Это требует от нас понимания того, какие сообщения мы даем во время обучения ИИ, а также того, что ИИ может наблюдать в окружающей среде. Звуковой зуммер - простой пример; в реальном мире это будет намного сложнее.

Прежде чем мы приветствуем наших повелителей AI и передаем наши жизни и рабочие места роботам, мы должны остановиться и подумать о том, какие виды мы создаем. Они будут очень хорошо выполнять конкретные действия или задачи, но они не могут понять концепции и ничего не знают. Поэтому, когда вы думаете о обстреливать тысячи для нового автомобиля Tesla, помните, что его функция автопилота - это действительно очень быстрый и сексуальный червь. Вы действительно хотите дать контроль над своей жизнью и жизнью ваших близких червям? Наверное, нет, так что держите руки за руль и не засыпайте.

Об авторе

Хизер Рофф, старший научный сотрудник Департамента политики и международных отношений Оксфордского университета; Научный сотрудник Глобальной инициативы безопасности, Университет штата Аризона

Эта статья изначально была опубликована в Беседа, Прочтите оригинал статьи.

Книги по этой теме

at Внутренний рынок самовыражения и Amazon