Русский
Русский
English
Статистика
Реклама

Перевод Как саботировать данные, которые технологические гиганты используют для слежки за вами

Алгоритмы не работают без качественных данных. Общественность может использовать их, чтобы требовать перемен.

Каждый день вы оставляете за собой след из цифровых хлебных крошек, по которому крупные технологические компании следят за каждым вашим шагом. Вы отправляете электронное письмо, заказываете еду, смотрите шоу на стриминговом сервисе. А обратно отдаете ценные пакеты данных, которые компании используют, чтобы лучше понять ваши предпочтения. Этими данными кормят алгоритмы машинного обучения, и затем показывают вам рекламу и рекомендации. Один только Google выручает за личную информацию 120 миллиардов долларов рекламных доходов в год.

Все чаще мы не можем отказаться от этой договоренности с корпорациями. В 2019 году репортер Gizmodo Кашмир Хилл попыталась исключить из своей жизни пять крупнейших технологических гигантов. Шесть недель она чувствовала себя несчастной, изо всех сил пытаясь выполнять самые базовые цифровые функции. Между тем, технологические гиганты не ощутили ничего.

Теперь исследователи из Северо-Западного университета предлагают способ исправить дисбаланс сил. Они рассматривают нашу коллективную информацию как рычаг воздействия. В распоряжении технологических гигантов продвинутые алгоритмы; но они не имеют смысла без правильных данных для обучения.

На конференции Ассоциации за справедливость, подотчетность и прозрачность вычислительной техники было представлено новое исследование. Его авторы, в том числе аспиранты Николас Винсент и Ханлин Ли, предлагают три способа, которыми общественность может пользоваться для продвижения своих интересов:

  • Бойкот данных (Data strikes), вдохновленный забастовками рабочих. Он включает в себя скрытие или удаление вашей личной информации, чтобы технологическая компания не могла ее использовать. Можно покинуть платформу или установить инструменты для защиты конфиденциальности.

  • Порча данных (Data poisoning), которая включает в себя передачу бессмысленной или вредоносной информации. Так, можно пользоваться расширением для браузера AdNauseam. Оно нажимает на каждое рекламное объявление, показанное вам, и тем самым сбивает с толку алгоритмы таргетинга Google.

  • Осознанная публикация данных (Conscious data contribution), или предоставление значимых данных конкуренту платформы, против которой вы хотите протестовать. Загрузите ваши фотографии в Tumblr вместо Facebook, например.

Пользователи уже применяют многие из этих тактик для защиты конфиденциальности. Если вы когда-либо включали блокировщик рекламы или другое расширение браузера, которое изменяет результаты поиска и исключает некоторые веб-сайты, то вы уже на практике участвовали в бойкоте данных. То есть, вы пытались вернуть себе контроль над личной информацией. Впрочем, как обнаружил Хилл, такие единичные индивидуальные действия не заставляют технологических гигантов менять свое поведение.

Но что произойдет, если миллионы людей будут координировать свои действия и отравят пул данных одной компании? Это даст им возможность отстоять свои требования.

Возможно, уже несколько раз удавалось это сделать. В январе миллионы пользователей удалили учетные записи WhatsApp и перешли к конкурентам, включая Signal и Telegram. Это произошло после того, как Facebook (владелец популярного мессенджера прим. пер) объявил, что откроет доступ к данным WhatsApp всей компании. Массовый исход вынудил Facebook отложить внесение изменений в политику.

Буквально на этой неделе Google также объявил, что прекратит отслеживать людей в сети и таргетировать рекламу. Пока неясно, реальное ли это изменение или ребрендинг. Винсент отмечает, что широкое использование инструментов вроде AdNauseam могло повлиять на это решение, так как снизило эффективность алгоритмов компании. (Конечно, точно сказать трудно. Только технологическая компания действительно знает, насколько эффективно использование данных повлияло на систему, говорит исследователь).

Винсент и Ли считают, что кампании по саботажу могут служить дополнениям к другим стратегиям. Таким, как агитация за изменение политики и объединение работников в движение, чтобы противостоять технологическим гигантам.

Приятно видеть такое исследование, говорит Али Алхатиб, научный сотрудник Центра прикладной этики данных Университета Сан-Франциско, не принимавший участия в исследовании. Интересно наблюдать, что авторы обращаются к коллективному или целостному подходу. Мы можем портить данные массово и предъявлять требования, угрожая этим. Потому что это наша информация, и вся вместе она формирует общий пул.

Еще предстоит проделать большую работу, чтобы развернуть эти кампании шире. Ученые могут сыграть важную роль в создании большего количества инструментов, таких как AdNauseam, чтобы помочь снизить барьер для участия. Политики тоже могут помочь. Бойкот данных наиболее эффективен, если он подкреплен строгими законами о конфиденциальности. Такими, как Общий регламент Европейского Союза о защите данных (GDPR), который дает пользователям право требовать удалить их информацию. Без регулирования сложнее гарантировать, что техническая компания позволит вам очистить ваш цифровой след, даже если вы удалите учетную запись.

Предстоит ответить еще на некоторые вопросы. Сколько человек должны участвовать в бойкоте данных, чтобы навредить алгоритмам компании? И какие данные были бы наиболее эффективными для порчи конкретной системы? Например, при моделировании алгоритма рекомендаций фильмов исследователи обнаружили, что если 30% пользователей объявят бойкот, это снизит точность системы на 50%. Но все алгоритмы машинного обучения разные, и компании постоянно обновляют их. Исследователи надеются, что участники сообществ машинного обучения смогут запускать аналогичные симуляции систем разных компаний и определять их уязвимости.

Алхатиб предполагает, что требуется больше исследований о том, как стимулировать коллективные действия с информацией в сети. Коллективные действия это в самом деле сложно, говорит он. Одна из проблем заставить людей постоянно действовать. И затем возникает другая: как удержать непостоянную группу в данном случае это могут быть люди, пять секунд пользующиеся поиском, чтобы они видели себя частью большого сообщества?

Он добавляет, что эта тактика может повлечь за собой последствия, которые требуют тщательного изучения. Закончится ли саботаж тем, что всего лишь добавит больше работы модераторам контента и другим людям, которым поручат очищать и маркировать данные обучения алгоритмов?

В целом Винсент, Ли и Алхатиб настроены оптимистично. Они верят, что коллективными данными можно эффективно воздействовать на технологических гигантов и влиять на обращение с нашей информацией и нашей конфиденциальностью.

Системы искусственного интеллекта зависят от данных. Это просто факт об их работе, говорит Винсент. В конечном счете, так общество может набрать силу.


Читайте другие наши переводы на тему искусственного интеллекта:

Напоминаем, что для читателей Хабрав магазине гаджетов Madrobotsдействуетскидка 5%на все продукты.Введите промокод: HABR

Источник: habr.com
К списку статей
Опубликовано: 23.03.2021 20:04:37
0

Сейчас читают

Комментариев (0)
Имя
Электронная почта

Блог компании madrobots

Big data

Google

Amazon

Apple

Конфиденциальность

Большие данные

Машинное обучение

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru