Новый цифровой разрыв между людьми, которые отказываются от алгоритмов, и людьми, которые этого не делают Знаете ли вы, что происходит, когда вы делитесь своими данными? mtkang / shutterstock.com

Каждый аспект жизни может руководствоваться алгоритмами искусственного интеллекта - от выбора маршрута для утренних поездок до решения вопроса о том, кого взять на свидание, до сложных юридических и судебных вопросов, таких как предиктивная политика.

Крупные технологические компании, такие как Google и Facebook, используют ИИ для получения информации о своих гигантских данных о клиентах. Это позволяет им монетизировать коллективные предпочтения пользователей с помощью таких методов, как микро-таргетинг, стратегия, используемая рекламодателями для узкой ориентации на конкретные группы пользователей.

Параллельно многие люди теперь доверяют платформам и алгоритмам больше, чем своим собственным правительствам и гражданскому обществу. Октябрьское исследование 2018 показало, что люди демонстрируют «алгоритм оценки, «В той степени, в которой они больше полагаются на советы, когда думают, что это от алгоритма, а не от человека.

В прошлом технологические эксперты беспокоились о «Цифровой разрыв» между теми, кто мог получить доступ к компьютерам и Интернету, и теми, кто не мог. Домохозяйства с меньшим доступом к цифровым технологиям находятся в невыгодном положении зарабатывать деньги и накапливать навыки.


графика подписки внутри себя


Но, поскольку цифровые устройства распространяются, разрыв больше не только в доступе. Как люди справляются с информационной перегрузкой и множеством алгоритмических решений, которые пронизывают каждый аспект их жизни?

Более опытные пользователи уходят от устройств и узнают, как алгоритмы влияют на их жизнь. В то же время потребители, у которых меньше информации, все больше полагаются на алгоритмы для принятия решений.

Стоит ли оставаться на связи или отключить? Pryzmat / shutterstock.com

Секретный соус за искусственным интеллектом

Основная причина нового цифрового разрыва, на мой взгляд, как человека, который изучает информационные системы, заключается в том, что так мало людей понимают, как работают алгоритмы, Для большинства пользователей алгоритмы выглядят как черный ящик.

Алгоритмы ИИ берут данные, подгоняют их к математической модели и выдают прогноз, начиная от какие песни вы можете наслаждаться в сколько лет кто-то должен провести в тюрьме, Эти модели разрабатываются и настраиваются на основе прошлых данных и успеха предыдущих моделей. Большинство людей - даже иногда сами разработчики алгоритмов - на самом деле не знают, что происходит внутри модели.

Исследователи давно обеспокоен об алгоритмической справедливости. Например, инструмент подбора персонала Amazon на основе AI оказался уволить кандидатов-женщин, Система Amazon выборочно извлекала неявно родовые слова - слова, которые мужчины чаще используют в повседневной речи, такие как «казненный» и «захваченный».

Другие исследования показали, что судебные алгоритмы имеют расистские предрассудки, приговаривая бедных черных обвиняемых на более длительный срок, чем другие

В рамках недавно утвержденного Общего регламента о защите данных в Европейском Союзе люди «Право на объяснение» критериев, которые алгоритмы используют в своих решениях. Этот закон рассматривает процесс принятия алгоритмических решений как книгу рецептов. Мысль идет о том, что если вы понимаете рецепт, вы можете понять, как алгоритм влияет на вашу жизнь.

Между тем, некоторые исследователи ИИ настаивали на алгоритмах, которые честный, ответственный и прозрачный, так же как интерпретируемыхЭто означает, что они должны прийти к своим решениям через процессы, которые люди могут понять и которым доверяют.

Какой эффект будет иметь прозрачность? В одно исследованиестуденты были оценены по алгоритму и предложили различные уровни объяснения того, как баллы их сверстников были скорректированы, чтобы получить окончательный балл. Студенты с более прозрачными объяснениями на самом деле меньше доверяли алгоритму. Это, опять же, предполагает цифровой разрыв: алгоритмическая осведомленность не приводит к большей уверенности в системе.

Но прозрачность не панацея. Даже когда общий процесс алгоритма набросан, детали могут быть слишком сложными для пользователей, чтобы понять. Прозрачность поможет только пользователям, которые достаточно опытны, чтобы понять тонкости алгоритмов.

Например, в 2014 Бен Бернанке, бывший председатель Федеральной резервной системы, был первоначально отказано в рефинансировании ипотеки по автоматизированной системе, Большинство людей, которые обращаются за таким рефинансированием ипотеки, не понимают, как алгоритмы могут определять их кредитоспособность.

Что алгоритм говорит сделать сегодня? Мария Савенко / shutterstock.com

Отказ от новой информационной экосистемы

Хотя алгоритмы влияют на большую часть жизни людей, лишь крошечная часть участников достаточно опытна, чтобы в полной мере участвовать в как алгоритмы влияют на их жизнь.

Существует не так много статистических данных о количестве людей, которые знают алгоритм. Исследования нашли доказательства алгоритмическая тревога, что приводит к глубокому дисбалансу власти между платформами, которые используют алгоритмы и пользователи, которые зависят от них.

Изучение использования Facebook обнаружил, что, когда участники узнали о алгоритме Facebook для курации новостных лент, около 83% участников изменили свое поведение, пытаясь воспользоваться преимуществами этого алгоритма, в то время как около 10% сократили использование Facebook.

Ноябрьский отчет 2018 из Исследовательского центра Пью обнаружил, что у подавляющего большинства общественности были серьезные опасения по поводу использования алгоритмов для конкретных целей. Он обнаружил, что 66% считает, что алгоритмы не будут справедливо рассчитывать баллы по личным финансам, в то время как 57% сказал то же самое об автоматическом скрининге резюме.

Небольшая часть людей осуществляет некоторый контроль над тем, как алгоритмы используют свои личные данные. Например, платформа Hu-Manity позволяет пользователям возможность контролировать, сколько их данных собирается, Интернет-энциклопедия Everipedia предлагает пользователям возможность быть заинтересованным лицом в процессе курирования, что означает, что пользователи также могут контролировать, как информация собирается и представляется им.

Однако подавляющее большинство платформ не предоставляют ни такой гибкости для своих конечных пользователей, ни права выбирать, как алгоритм использует их предпочтения при настройке их новостной ленты или при рекомендации их содержимого. Если есть варианты, пользователи могут не знать о них. Около 74% пользователей Facebook сказали в опросе, что они не в курсе, как платформа характеризует их личные интересы.

На мой взгляд, новая цифровая грамотность заключается не в использовании компьютера или в Интернете, а в понимании и оценке последствий постоянно включенного образа жизни.

Этот образ жизни оказывает существенное влияние на как люди взаимодействуют с другими; на их способности обратите внимание на новую информацию; и на сложность их процессов принятия решений.

Увеличение алгоритмического беспокойства может также быть отражено параллельными изменениями в экономике. Небольшая группа людей захватить выгоды от автоматизациив то время как многие работники находятся в ненадежное положение.

Отказ от алгоритмического курирования - это роскошь, и однажды он станет символом достатка, доступным лишь немногим избранным. Тогда возникает вопрос, каким будет измеримый вред для тех, кто не на той стороне цифрового разрыва.

Об авторе

Анжана Сусарла, доцент кафедры информационных систем, Университет штата Мичиган

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.

Книги по этой теме

at Внутренний рынок самовыражения и Amazon