4: ваши поисковые запросы и социальные медиа влияют на ваши возможности в жизни

4: ваши поисковые запросы и социальные медиа влияют на ваши возможности в жизни
Shutterstock.

Независимо от того, осознаете или не согласитесь с ним, большие данные могут повлиять на вас и на вашу жизнь. Данные, которые мы создаем при использовании социальных сетей, Сидя в Интернете и носить фитнес-трекеры все собираются, классифицируются и используются по компаниям и государство создавать профили из нас. Эти профили затем используются для рекламы рекламных объявлений для продуктов и услуг тем, кто, скорее всего, их купит, или для информирования правительственных решений.

Большие данные позволяют государствам и компаниям получать доступ, объединять и анализировать нашу информацию и строить выявление - но неполный и потенциально неточный - профили нашей жизни. Они делают это, определяя корреляции и шаблоны данных о нас и людей с похожими профилями для нас, чтобы делать прогнозы о том, что мы можем делать.

Но только потому, что большая аналитика данных основана на алгоритмах и статистике, не означает, что они точной, нейтральной или по своей сути объективной, И хотя большие данные могут дать представление о групповом поведении, это не обязательно надежный способ определить индивидуальное поведение. Фактически, эти методы могут открыть дверь для дискриминации и угрожают правам человека людей - они могут даже работать против вас. Вот четыре примера, когда большая аналитика данных может привести к несправедливости.

1. Вычисление кредитных баллов

Большие данные могут быть использованы для принятия решений о право на получение кредита, влияя на то, предоставляется ли вам закладная или насколько высока ваша страхование автомобиля премии должны быть. Эти решения могут быть сообщения в социальных сетях и данные из других приложений, которые принимаются для указания вашего уровня риска или надежности.

Но такие данные, как ваш образовательный фон или где вы живете, не могут быть релевантными или надежными для таких оценок. Данные такого рода могут выступать в качестве прокси для гоночного или социально-экономического статуса, и использование его для принятия решений о кредитном риске может привести к дискриминации.

2. Поиск работы

Большие данные могут быть использованы для определения кто видит объявление о работе или попадает в шорт-лист на собеседование, Объявления о работе могут быть ориентированы на конкретные возрастные группы, таких как 25 для 36-летних, что исключает молодых и пожилых работников даже из-за определенных вакансий и представляет собой риск дискриминации по возрасту.

Автоматизация также используется для повышения эффективности фильтрации, сортировки и ранжирования кандидатов. Но этот процесс отбора может исключать людей на основе таких показателей, как расстояние их коммутируют, Работодатели могут предположить, что те, у кого больше времени на поездку, с меньшей вероятностью останутся на работе в течение длительного времени, но это может фактически дискриминировать людей, живущих дальше от центра города из-за расположения доступного жилья.


Получите последние новости от InnerSelf


3. Вынесение условно-досрочного освобождения

В США и Великобритании большие модели оценки данных используются для того, чтобы помочь чиновникам решить, предоставляются ли люди условно-досрочное освобождение, или упоминается реабилитационные программы, Они также могут быть использованы для оценки того, какой риск представляет преступник для общества, что является одним из факторов, который может рассмотреть судья при определении срока наказания.

Не совсем ясно, какие данные используются для проведения этих оценок, но поскольку движение к цифровая полицейская деятельность темпы роста, все более вероятно, что эти программы будут включать информацию с открытым исходным кодом, такую ​​как социальная медиальная деятельность - если они этого еще не сделали.

Эти оценки могут не просто смотреть на профиль человека, но также и то, как они сравниваются с другими людьми ». Некоторые полицейские силы исторически чрезмерно некоторые общины меньшинств, что приводит к непропорциональному числу зарегистрированных случаев преступности. Если эти данные подаются в алгоритм, это искажает модели оценки рисков и приводит к дискриминации, которая непосредственно влияет на право человека на свободу.

4. Визовая поддержка

В прошлом году Агентство иммиграции и таможенного контроля США (ICE) объявило, что оно хочет ввести автоматизированный "визовая проверка"Программы. Он автоматически и непрерывно сканирует учетные записи в социальных сетях, чтобы оценить, смогут ли заявители внести «позитивный вклад» в Соединенные Штаты, и могут ли возникнуть какие-либо проблемы национальной безопасности.

Помимо представления рисков для свободы мысли, мнения, выражения мнений и ассоциации, существует значительный риск того, что эта программа будет дискриминировать людей определенных национальностей или религий. Комментаторы характеризовал его как «запрет мусульман по алгоритму».

Программа был недавно отозван, по сообщениям, исходя из того, что «не было никакого« готового »программного обеспечения, которое могло бы обеспечить качество контроля за желанием агентства». Но включение таких целей в документы о закупках может создать плохие стимулы для технической отрасли для разработки программ, которые являются дискриминационными по дизайну.

БеседаНет никаких сомнений в том, что большая аналитика данных работает так, что может повлиять на возможности людей в жизни. Но отсутствие прозрачности о том, как большие данные собираются, используются и распределяются, затрудняет людям возможность узнать, какая информация используется, как и когда. Большая аналитика данных просто слишком сложна, чтобы люди могли защитить свои данные от неправильного использования. Вместо этого государства и компании должны разработать и соблюдать правила, гарантирующие, что их использование больших данных не приведет к дискриминации.

Об авторах

Лорна Макгрегор, директор Центра по правам человека, ИП и содиректор, ESRC Human Rights, Big Data and Technology Large Grant, Университет Эссекса; Дараг Мюррей, преподаватель международного права прав человека в юридической школе Эссекса, Университет Эссекса, и Вивиан Нг, старший научный сотрудник по правам человека, Университет Эссекса

Эта статья изначально была опубликована в Беседа, Прочтите оригинал статьи.

Книги этих авторов:

{amazonWS: searchindex = Книги; ключевые слова = Лорна МакГрегор; maxresults = 1}

{amazonWS: searchindex = Книги; ключевые слова = Дара Мюррей; maxresults = 2}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

Следуйте за InnerSelf

facebook-значокTwitter-значокНовости-значок

Получить последнее по электронной почте

{Emailcloak = выкл}

ВНУТРЕННИЕ ГОЛОСЫ

САМОЕ ЧИТАЕМОЕ