Как искусственный интеллект может революционизировать здравоохранение
Getty Images

Искусственный интеллект (ИИ) быстро развивается и станет важным инструментом поддержки в клинической помощи. Исследования показывают, что алгоритмы ИИ могут точно обнаружить меланому и предсказать будущий рак молочной железы.

Но прежде чем ИИ можно будет интегрировать в рутинную клиническую практику, мы должны решить проблему алгоритмической предвзятости. Алгоритмы ИИ могут иметь врожденные предубеждения, которые могут привести к дискриминации и проблемам конфиденциальности. Системы ИИ также могут принимать решения без необходимого надзора или участия человека.

 Пример потенциально вредного воздействия ИИ взят из международный проект целью которого является использование ИИ для спасения жизней путем разработки революционных методов лечения. В ходе эксперимента команда изменила свою «хорошую» модель ИИ, чтобы создать варианты для новой модели ИИ, способной нанести «вред».

Менее чем за шесть часов обучения алгоритм обратного ИИ создал десятки тысяч потенциальных боевых отравляющих веществ, многие из которых более опасны, чем существующие боевые отравляющие вещества. Это крайний пример, касающийся химических соединений, но он служит тревожным сигналом для оценки известных и предположительно непостижимых этических последствий ИИ.

ИИ в клинической помощи

В медицине мы имеем дело с самыми личными данными людей и решениями, которые часто меняют жизнь. Надежные этические рамки ИИ необходимы.

Ассоциация Австралийский проект по эпилепсии стремится улучшить жизнь людей и сделать клиническую помощь более доступной. Основываясь на усовершенствованной визуализации мозга, генетической и когнитивной информации от тысяч людей, страдающих эпилепсией, мы планируем использовать ИИ для ответить на вопросы, на которые сейчас нет ответов.


графика подписки внутри себя


Продолжатся ли припадки этого человека? Какое лекарство наиболее эффективно? Является ли операция на головном мозге жизнеспособным вариантом лечения? Это фундаментальные вопросы, которые современная медицина пытается решить.

Меня как руководителя этого проекта в области искусственного интеллекта больше всего беспокоит то, что искусственный интеллект развивается быстро, а контроль со стороны регулирующих органов минимален. Именно по этим вопросам мы недавно создали этические рамки за использование ИИ в качестве инструмента клинической поддержки. Эта структура предназначена для того, чтобы наши технологии ИИ были открытыми, безопасными и заслуживающими доверия, а также способствовали инклюзивности и справедливости в клинической помощи.

Итак, как нам внедрить этику ИИ в медицину, чтобы уменьшить предвзятость и сохранить контроль над алгоритмами? Принцип информатики «мусор на входе, мусор на выходе» применим и к ИИ. Предположим, мы собираем необъективные данные из небольших выборок. Наши алгоритмы искусственного интеллекта, скорее всего, будут предвзятыми и не воспроизводимыми в других клинических условиях.

Примеры предубеждений нетрудно найти в современных моделях ИИ. Популярные модели больших языков (например, ChatGPT) и модели скрытой диффузии (DALL-E и Stable Diffusion) показывают, как явные предубеждения относительно пола, этнической принадлежности и социально-экономического статуса.

Исследователи обнаружили, что простые пользовательские подсказки генерируют образы, увековечивающие этнические, гендерные и классовые стереотипы. Например, подсказка для врача генерирует в основном изображения врачей-мужчин, что не соответствует действительности, поскольку около половины всех врачей в странах ОЭСР — женщины.

Безопасное внедрение медицинского ИИ

Решение проблемы предотвращения предвзятости и дискриминации не является тривиальным. Обеспечение равенства в отношении здоровья и поощрение инклюзивности в клинических исследованиях, вероятно, являются одними из первичные решения к борьбе с предубеждениями в медицинском ИИ.

Обнадеживает тот факт, что Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США недавно предложило сделать разнообразие обязательным в клинических испытаниях. Это предложение представляет собой шаг в сторону менее предвзятых и общественных клинических исследований.

Еще одним препятствием для прогресса является ограниченное финансирование исследований. Алгоритмы ИИ обычно требуют значительных объемов данных, которые могут быть дорогостоящими. Крайне важно создать расширенные механизмы финансирования, которые предоставят исследователям необходимые ресурсы для сбора клинически значимых данных, подходящих для приложений ИИ.

Мы также утверждаем, что всегда должны знать внутреннюю работу алгоритмов ИИ и понимать, как они приходят к своим выводам и рекомендациям. Эту концепцию часто называют «объяснимостью» в ИИ. Это связано с идеей о том, что люди и машины должны работать вместе для достижения оптимальных результатов.

Мы предпочитаем рассматривать реализацию предсказания в моделях как «дополненный», а не как «искусственный» интеллект — алгоритмы должны быть частью процесса, а медицинские работники должны по-прежнему контролировать процесс принятия решений.

Помимо поощрения использования объяснимых алгоритмов, мы поддерживаем прозрачную и открытую науку. Ученые должны публиковать подробности о моделях ИИ и их методологии для повышения прозрачности и воспроизводимости.

Что нам нужно в Аотеароа, Новая Зеландия, чтобы обеспечить безопасное внедрение ИИ в медицинском обслуживании? Проблемы этики ИИ в основном решаются экспертами в этой области. Тем не менее, целенаправленные правила ИИ, такие как Закон об искусственном интеллекте были предложены с учетом этих этических соображений.

Европейский закон об ИИ приветствуется и защитит людей, работающих в рамках «безопасного ИИ». Недавно правительство Великобритании выпустило свои активный подход к регулированию ИИ, служащий образцом для других ответных мер правительства на безопасность ИИ.

В Aotearoa мы выступаем за принятие упреждающей, а не реактивной позиции в отношении безопасности ИИ. Он установит этическую основу для использования ИИ в клинической помощи и других областях, что приведет к интерпретируемому, безопасному и беспристрастному ИИ. Следовательно, будет расти наша уверенность в том, что эта мощная технология приносит пользу обществу, защищая его от вреда.Беседа

Об авторе

Мангор Педерсен, доцент кафедры психологии и неврологии, Оклендский технологический университет

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.

Похожие книги:

Тело ведет счет: мозг, разум и тело в исцелении травмы

Бессель ван дер Колк

Эта книга исследует связи между травмой и физическим и психическим здоровьем, предлагая идеи и стратегии для исцеления и восстановления.

Нажмите для получения дополнительной информации или для заказа

Дыхание: новая наука об утерянном искусстве

Джеймс Нестор

Эта книга исследует науку и практику дыхания, предлагая идеи и методы для улучшения физического и психического здоровья.

Нажмите для получения дополнительной информации или для заказа

Парадокс растений: скрытые опасности «здоровой» пищи, вызывающие болезни и увеличение веса

Стивен Р. Гандри

Эта книга исследует связи между диетой, здоровьем и болезнями, предлагая идеи и стратегии для улучшения общего состояния здоровья и хорошего самочувствия.

Нажмите для получения дополнительной информации или для заказа

Код иммунитета: новая парадигма настоящего здоровья и радикального омоложения

Джоэл Грин

Эта книга предлагает новый взгляд на здоровье и иммунитет, опираясь на принципы эпигенетики и предлагая идеи и стратегии для оптимизации здоровья и старения.

Нажмите для получения дополнительной информации или для заказа

Полное руководство по голоданию: исцелите свое тело с помощью прерывистого, чередующегося и длительного голодания

д-р Джейсон Фанг и Джимми Мур

Эта книга исследует науку и практику голодания, предлагая идеи и стратегии для улучшения общего состояния здоровья и хорошего самочувствия.

Нажмите для получения дополнительной информации или для заказа

заботится