Проблема Facebook сложнее, чем поддельные новости

После неожиданной победы Дональда Трампа многие вопросов были подняты о роли Facebook в содействие неточной и высокопартийной информации во время президентской гонки и повлияли ли эти поддельные новости на результаты выборов.

Несколько человек преуменьшили Влияние Facebook, включая генерального директора Марка Цукерберга, который сказал, что это «Крайне маловероятно» что поддельные новости могли бы поколебать выборы. Но вопросы о политической значимости социальной сети заслуживают большего, чем внимание.

У Facebook есть алгоритмы фильтрации объясните, почему у многих либералов была неуместная уверенность в победе Клинтона (повторение ошибки, сделанной Сторонники Ромни в 2012)? И является фальшивые новости распространяются на Facebook причина, по которой многие сторонники Трампа одобрили явно ложные заявления, сделанные их кандидатом?

Популярное утверждение о том, что «пузыри для фильтров» - вот почему фальшивые новости процветают на Facebook, почти наверняка ошибаются. Если сеть поощряет людей верить в неправды - и это большая проблема, - скорее всего, проблема заключается в том, как платформа взаимодействует с основными социальными тенденциями человечества. Это гораздо труднее изменить.

Дезинформация общественности

Роль Facebook в распространении политических новостей неоспорима. В мае 2016, 44 процентов американцев сказал, что они получили новости с сайта в социальных сетях. И распространенность дезинформации, распространяемой через Facebook, неоспоримый.


графика подписки внутри себя


Поэтому правдоподобно, что количество поддельных новостей на платформе, где так много людей получают свои новости, может помочь объяснить, почему так много американцев дезинформированы о политике.

Но трудно сказать, насколько это возможно. Я начал изучать роль Интернета в продвижении ложных убеждений во время выборов 2008, обратив мое внимание на социальные медиа в 2012. В ходе текущих исследований я нашел мало последовательных доказательств того, что использование в социальных сетях способствовало принятию ложных заявлений о кандидатах, несмотря на распространенность многих неправды, Вместо этого, похоже, что в 2012, как и в 2008, электронная почта по-прежнему была уникально мощным каналом за ложь и теории заговора. Социальные медиа не оказывали достоверного влияния на убеждения людей.

Однако на мгновение предположим, что 2016 отличается от 2012 и 2008. (Выборы были, безусловно, уникальными во многих других отношениях.)

Если Facebook продвигает платформу, в которой граждане менее способны отличить правду от художественной литературы, это станет серьезной угрозой для американской демократии, Но назвать проблему не достаточно. Чтобы бороться с потоком дезинформации через социальные сети, важно понять, почему это происходит.

Не обвиняйте пузырьки фильтра

Facebook хочет, чтобы его пользователи были вовлечены, а не перегружены, поэтому в нем используется проприетарное программное обеспечение, которое фильтрует новостные ленты пользователей и выбирает контент, который будет отображаться. Риск заключается в том, как этот пошив сделан.

Имеются достаточные доказательства что люди обращаются к новостям, которые подтверждают их политическую точку зрения. Программное обеспечение Facebook учится на прошлых действиях пользователей; он пытается угадать, какие истории они могут щелкнуть или поделиться в будущем. В крайнем случае это создает фильтр-пузырь, в котором пользователи подвергаются только содержимому, которое подтверждает их предубеждения. Таким образом, риск состоит в том, что фильтрующие пузыри способствуют ошибочным представлениям скрывая правду.

Привлекательность этого объяснения очевидна. Это легко понять, поэтому, возможно, это будет легко исправить. Избавиться от персонализированных новостных каналов, а фильтрать пузырьки уже нет.

Проблема с метафорой в пузырьках фильтра заключается в том, что он предполагает, что люди отлично изолированы от других точек зрения. По факту, многочисленный исследования иметь показанный что медицина отдельных людей почти всегда включает информацию и источники, которые бросают вызов их политическим установкам. И исследование пользовательских данных Facebook обнаружил, что встречи с сквозной информацией широко распространены. Другими словами, проведение ложных убеждений вряд ли будет объяснено отсутствие контакта с более точными новостями.

Вместо этого существовавшие ранее политические идентичности людей глубоко формируют свои убеждения, Поэтому даже когда сталкивается с той же информацией, будь то новости статьи или проверка фактов, люди с разными политическими ориентациями часто извлекают совершенно другое значение.

Мысленный эксперимент может помочь: если бы вы были сторонником Клинтона, знали ли вы, что уважаемый сайт предсказания FiveThirtyEight дал Клинтону только 71 процентный шанс выиграть? Эти шансы лучше, чем монетка, но далеко не верная вещь. Я подозреваю, что многие демократы были потрясены, несмотря на это неудобное доказательство. В самом деле, многие критиковали эту проекцию в дни до выборов.

Если вы проголосовали за Трампа, вы когда-нибудь сталкивались с доказательствами, оспаривая утверждение Трампа о том, что мошенничество с избирателями является обычным явлением в США? Факторы и новостные организации широко освещали этот вопрос, предлагая убедительные доказательства того, что иск не соответствует действительности. Однако сторонник Трампа может быть невозмутимым: В сентябрьском опросе 2016, 90 процентов сторонников Trump заявили, что они не доверяют фактам.

Facebook = сердитые партизаны?

Если изоляция от истины действительно является основным источником неточной информации, решение будет очевидно: сделать правду более заметной.

К сожалению, ответ не так прост. Это возвращает нас к вопросу о Facebook: существуют ли другие аспекты службы, которые могут исказить убеждения пользователей?

Пройдет некоторое время, прежде чем исследователи смогут уверенно ответить на этот вопрос, но как человек, который изучил, как различные способы, которыми другие интернет-технологии могут заставить людей поверить в ложную информацию, я готов предложить несколько образованных догадок.

Есть две вещи, которые мы уже знаем о Facebook, которые могут способствовать распространению ложной информации.

Во-первых, эмоции заразительны, и они могут распространяться на Facebook. Одно крупное исследование показало, что небольшие изменения в новостных лентах пользователей Facebook могут формировать эмоции, которые они выражают в более поздних сообщениях, В этом исследовании эмоциональные изменения были небольшими, но также были изменения в ленте новостей, которые вызвали их. Представьте себе, как пользователи Facebook реагируют на широко распространенные обвинения в коррупции, преступной деятельности и лжи кандидатов. Неудивительно, что почти половина (49 процентов) всех пользователей описал политическую дискуссию о социальных сетях как «сердитый».

Когда дело доходит до политики, гнев - это мощная эмоция. Было показано, что люди больше готовы принять партизанскую ложь и, скорее всего, опубликовать и поделиться политическая информация, предположительно включающие поддельные новостные статьи, которые укрепляют их убеждения. Если использование Facebook делает партизанов сердитыми, а также подвергает их партизанской ложности, обеспечение наличия точной информации может не иметь большого значения. Республиканцы или демократы, сердитые люди доверяют информации, которая делает их сторону хорошо выглядеть.

Во-вторых, Facebook, похоже, укрепляет политическую идентичность людей - продвигая уже партизанское разделение, Хотя Facebook не защищает людей от информации, с которой они не согласны, это, безусловно, облегчает поиск единомышленников. Наши социальные сети как правило, включают многих людей, которые разделяют наши ценности и убеждения, И это может быть другим способом, которым Facebook усиливает политически мотивированные лжи. Верования часто служат социальной функции, помогая людям определить, кто они и как они вписываются в мир. Чем проще люди видят себя в политических терминах, тем больше они привязаны к убеждениям, которые подтверждают эту идентичность.

Эти два фактора - способ, которым гнев может распространяться по социальным сетям Facebook, и то, как эти сети могут сделать политическую идентичность индивидов более центральными в том, кто они есть, - скорее всего, объясняют неточные убеждения пользователей Facebook, чем так называемый фильтр-пузырь.

Если это так, то перед нами впереди серьезный вызов. Facebook, скорее всего, убедится изменить свой алгоритм фильтрации, чтобы определить приоритетность более точной информации. Google уже предприняли аналогичную попытку, В недавних отчетах предполагается, что Facebook может быть более серьезная проблема чем предполагают комментарии Цукерберга.

Но это не делает ничего, чтобы обратить внимание на лежащие в основе силы, которые распространяют и усиливают ложную информацию: эмоции и людей в ваших социальных сетях. Также не очевидно, что эти характеристики Facebook могут или должны быть «исправлены». Социальная сеть, лишенная эмоций, кажется противоречием, и полицейский, с кем люди взаимодействуют, не является тем, что должно принять наше общество.

Возможно, что акции Facebook некоторые вины за некоторые лжи, которая распространила этот год выборов, - и что они изменили ход выборов.

Если это правда, задача будет заключаться в том, чтобы выяснить, что мы можем с этим поделать.

Беседа

Об авторе

Р. Келли Гарретт, Доцент связи, Университет штата Огайо

Эта статья изначально была опубликована в Беседа, Прочтите оригинал статьи.

Книги по этой теме

at Внутренний рынок самовыражения и Amazon