chatGPT
Группа видных ученых-компьютерщиков и других деятелей технологической индустрии призывает к шестимесячной паузе в технологиях искусственного интеллекта. (Шаттерстки)

Недавнее открытое письмо ученых-компьютерщиков и лидеров технологической отрасли призыв к шестимесячному запрету на разработку искусственного интеллекта и получил широкое внимание в Интернете. Даже министр инноваций Канады Франсуа-Филипп Шампань ответил на письмо в Twitter.

В письме, опубликованном некоммерческим Институтом будущего жизни, содержится просьба ко всем лабораториям искусственного интеллекта прекратить обучение систем искусственного интеллекта, более мощных, чем GPT-4, модель ChatGPT. В письме утверждается, что ИИ «застрял в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать».

В письме предполагается, что ИИ становится или может стать «мощным цифровым разумом». долгосрочная интерпретация развития ИИ который игнорирует важные дебаты об ИИ сегодня вместо забот о будущем.

Долгосрочный подход и ИИ

Лонгтермизм – это вера в то, что искусственный интеллект представляет долгосрочные или экзистенциальные риски для будущего человечества, становясь неконтролируемым сверхразумом.


innerself subscribe graphic


Беспокойство по поводу сверхразумных ИИ обычно является предметом научной фантастики. фантазии ИИ являются одним из многих страхов в Силиконовой долине это может привести к темные пророчества. Но как Мучение Нексус мем, эти опасения превращаются в крупные инвестиции, а не в осторожность. Большинство крупных технологических фирм имеют сократить свои ответственные команды ИИ.

ChatGPT явно не путь к сверхразуму. В открытом письме языковая технология ИИ, такая как ChatGPT, рассматривается как когнитивный прорыв, который позволяет ИИ конкурировать с людьми в общих задачах. Но это только одно мнение.

Есть много других, которые считают ChatGPT, его модель GPT-4 и другие модели изучения языка «стохастические попугаи» которые просто повторяют то, что они изучают в Интернете, чтобы они появиться разумен для людей.

Слепые зоны сверхразума

Долгосрочный подход имеет прямые политические последствия, которые отдают приоритет сверхразуму над более насущными вопросами, такими как Дисбаланс сил ИИ. Некоторые сторонники долгосрочного подхода даже считают регулирование, направленное на остановку сверхразума, более неотложным, чем решение чрезвычайной климатической ситуации.

Последствия политики в области ИИ немедленны и не за горами. Поскольку GPT-4 обучается во всем Интернете и преследует явно коммерческие цели, поднимает вопросы о честном обращении и добросовестном использовании.

Мы до сих пор не знаем, защищены ли тексты и изображения, сгенерированные ИИ, авторским правом., так как машины и животные не может иметь авторских прав.

А когда дело доходит до вопросов конфиденциальности, подход ChatGPT трудно отличить от другого приложения ИИ. Клирвью ИИ. Обе модели ИИ были обучены с использованием огромного количества личной информации, собранной в открытом Интернете. Итальянский орган по защите данных только что запретил ChatGPT из соображений конфиденциальности..

Эти непосредственные риски не упоминаются в открытом письме, которое колеблется между дикой философией и техническими решениями, игнорируя проблемы, которые стоят прямо перед нами.

Заглушить прагматизм

Письмо следует старой динамике, которую мой соавтор и я определяем в предстоящая рецензируемая глава об управлении ИИ. Существует тенденция рассматривать ИИ либо как экзистенциальный риск, либо как нечто приземленное и техническое.

Напряжение между этими двумя крайностями показано в открытом письме. Письмо начинается с утверждения, что «продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле», а затем призывает к «надежному государственному финансированию технических исследований безопасности ИИ». Последнее предполагает, что социальный вред ИИ — это просто технические проекты, которые необходимо решить.

Сосредоточение внимания на этих двух крайностях вытесняет важные голоса, пытающиеся прагматично обсудить непосредственные риски ИИ, упомянутые выше, а также трудовые вопросы и многое другое.

Внимание, уделяемое открытому письму, особенно проблематично в Канаде, потому что два других письма, написанные художники и организации гражданских свобод, не получили такого же внимания. Эти письма призывают к реформам и более надежному подходу к управлению ИИ для защиты тех, кого он затрагивает.

Ненужное отвлечение внимания на законодательство об ИИ

В ответах правительства на открытое письмо подчеркивается, что в Канаде есть законодательство — Закон об искусственном интеллекте и данных (AIDA). Долгосрочные риски, связанные с ИИ, теперь используются для форсирования законодательства, такого как AIDA.

AIDA — это важный шаг к правильному режиму управления ИИ, но он должен лучше проконсультируйтесь с теми, кто пострадал от ИИ до реализации. Его нельзя торопить с ответом на предполагаемые долгосрочные страхи.

Призывы в письме ускорить принятие законодательства в области ИИ могут в конечном итоге принести пользу тем же немногим фирмам, которые сегодня занимаются исследованиями в области ИИ. Не имея времени на консультации, повышение общественной грамотности и выслушивание тех, кого затрагивает ИИ, AIDA рискует передать ответственность и аудит ИИ учреждениям, которые уже имеют хорошие возможности для извлечения выгоды из этой технологии, создавая рынок для новой индустрии аудита ИИ.

Судьба человечества может и не стоять на кону, но благое управление ИИ, безусловно, есть.The Conversation

Об авторе

Фенвик МакКелви, доцент кафедры политики в области информационных и коммуникационных технологий, Университет Конкордия

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.