Пузырь фильтров (англ. «Filter bubble») – понятие, введенное интернет-активистом Илаем Парайзером и описанное в его одноименной книге: негативная сторона персонализированного поиска, явление, при котором сайты определяют, какую информацию пользователь хотел бы увидеть, основываясь на информации о его месторасположении, прошлых кликах и перемещениях мыши, предпочтениях и истории поиска.
После выборов в США 2016 года самыми актуальными и острыми техническими вопросами были инструменты влияния социальных сетей на результаты выборов, в частности это касалось Facebook. Как и насколько фейковые новости влияют на мнение людей? Приводит ли пузырь фильтров к более поляризованным точкам зрения? Почему люди склонны обмениваться негативными новостями?
Исследователи соцсетей уделяли этим вопросам самое пристальное внимание, но получить реальные данные было достаточно проблематично. Этим летом, однако, исследователи получат доступ к самой закрытой внутренней информации непосредственно от Facebook.
Абсолютно беспрецедентно Facebook согласился предоставить анонимные данные о том, как новостные истории распространяются на его платформе.
Первые 12 исследовательских групп, которые получили доступ к конфиденциальным данным о поведении пользователей Facebook, были объявлены на прошлой неделе. Все вместе они будут изучать важные вопросы, стоящие перед политикой и технологиями: как кампании по дезинформации запускаются в социальных сетях, как организуются партизанские сообщества и может ли Facebook в целом повлиять на ход выборов.
«Если бы мы могли найти способы сохранения конфиденциальности [обмена данными]… общество было бы намного лучше, – говорит Гэри Кинг, профессор из Гарварда, который помогает контролировать механизм обмена данными между Facebook и исследователями. – Это невероятный ресурс информации, который до сих пор остается нетронутым».
Несколько проектов будут непосредственно изучать влияние Facebook на выборы. Одна группа из Папского католического университета (Чили) изучит, как использование возможностей Facebook повлияло на выборы в Конгресс Чили в 2017 году, которые привели к власти консервативную коалицию Chile Vamos. Другая группа из Университета Урбино в Италии будет изучать, как популистские партии извлекают выгоду из обмена новостными историями, пользуясь партизанскими источниками. На Тайване исследователи изучат, как новостные сообщения в Facebook влияют на гражданскую активность.
Многие из этих исследований гораздо шире, их особенно интересует, когда и почему люди делятся фейковыми новостями, и кто эти люди.
Отчасти, это объясняется тем, что данные становятся все более доступными: раньше исследователи могли анализировать подобную информацию, просматривая такие источники, как публичные твиты, но данные Facebook гораздо богаче, а именно: можно установить, какими линками обменивались пользователи, возрастной диапазон и местонахождение людей, которые поделились этими линками, читают ли люди эти линки/ссылки, прежде чем делиться ими, можно также установить любые связанные с линками проверки фактов.
Facebook не выражает мнения всего человечества в целом, тем не менее, его аудитория – почти 2,4 миллиарда пользователей, безусловно, составляют его значительную часть.
Проект, возглавляемый Р. Келли Гарреттом, доцентом Университета штата Огайо, рассмотрит, существуют ли предсказуемые закономерности, которые приводят к обмену фейковыми и сомнительными новостями. Данные Facebook, по словам Гарретта, обеспечивают то, чего не могут предложить традиционные методы сбора данных. «Люди не могут с уверенностью сказать вам: “Я обычно делюсь информацией, которую я не удосужился прочитать посреди ночи, или весной, или на выходные, – говорит он. – Люди не знают или не имеют повода/стимула не говорить вам правду». Гарретт надеется выявить закономерности в социальных сетях, которые помогут онлайн-платформам внести изменения, препятствующие распространению фейковых историй.
Все данные обобщаются, чтобы защитить приватную информацию людей. Используя возрастной диапазон вместо конкретного указания возраста пользователя, называя регионы вместо конкретных мест проживания, но у исследователей будет достаточно деталей, чтобы они могли оценить эти важные вопросы, говорит Магдалена Салдана, возглавляющая отдельную группу исследований, проводимых чилийской командой в отношении фальсификаций с помощью новостей.
Это был только вопрос правильного направления процесса исследований. «Это был вызов для нас, – говорит Салдана. – Это заставило нас немного изменить наши исследовательские цели и предложить исследование, которое на самом деле поможет найти шаблоны распространения дезинформации на Facebook, не имея данных на уровне пользователей».
Несколько исследовательских групп также изучают изменения в поведении на Facebook до и после изменения алгоритма обмена информацией, предназначенного для продвижения пользователей через медиаисточники. «Хитрость заключается в том, что социальные сети и процесс создания экстремальных новостей развиваются в тандеме в течение последних 10 или 20 лет», – говорит Николас Бошам, доцент Северо-Восточного университета, который возглавляет исследовательскую группу, изучающую, как программа обмена файлами посредством технологии P2P (peer-sharing) влияет на поляризацию новостей.
Его группа рассмотрит частоту изменения алгоритма, чтобы увидеть, влияет ли peer-sharing на частоту появления фейковых новостей. «У нас есть возможность провести маленький эксперимент, – комментирует Николас, – который даст неожиданный сдвиг в сторону получения большего количества peer-sourced информации».
Все это зависит от того, могут ли Facebook и исследователи проводить совместное изучение, не нарушая конфиденциальность никого из миллиардов пользователей. Проект находится под контролем Social Science One, новой организации, призванной объединить действия такого партнерства между исследователями и организацией с таким огромным объемом данных, как Facebook.
Social Science One, соучредителем которого был King, стоит между Facebook и исследовательскими группами, чтобы гарантировать, что каждый получает то, что он хочет. Исследователи могут публиковать то, что они находят, без участия Facebook, а Facebook сможет критически оценить эти данные, чтобы удостовериться, что предоставленная исследователям информация не может быть прослежена до конкретных действий определенного человека.
Кинг, по крайней мере косвенно, столкнулся с проблемами конфиденциальности Facebook в прошлом. Организация, которую он основал и возглавлял в совете директоров, Crimson Hexagon, была приостановлена Facebook в прошлом году на фоне расследования об использовании сбора данных на Facebook для надзора правительства. Особенно после того, как The Wall Street Journal сообщила, что у Crimson Hexagon есть контракты в США, Турции и с организацией, связанной с Кремлем. В то время Кинг заявил, что у него «никогда не было прямых полномочий или повседневного контакта» с этой компанией. Facebook не ответил на просьбу прокомментировать ход расследования по делу Crimson Hexagon.
Существует несколько уровней защиты, чтобы гарантировать, что использование данных Facebook не пойдет не тем путем. На базовом уровне предложения об исследовании должны быть одобрены Институциональным советом университета. Кроме того, Social Science One и Facebook устанавливают уровни защиты, позволяющие не выявлять персональные привычки человека: что читает и какой информацией обменивается. URL-адреса будут включены в исследование только в том случае, если они будут упомянуты достаточное количество раз и каким-либо общедоступным способом. Данные могут также содержать небольшое количество случайных ошибок с использованием метода, называемого дифференциальной конфиденциальностью. Это означает, что на детальном уровне данные не будут полностью надежными, но общая картина будет по-прежнему давать достоверные цифры.
Доступ к данным также будет ограничен другими способами. Исследователи не смогут загружать или сохранять данные, вместо этого им придется получать доступ к ним через защищенный портал на серверах Facebook. Все, что исследователи делают на этих серверах, будет регистрироваться, и им будут предоставлять «бюджет» данных, который не позволит собирать больше информации, чем нужно.
«То, как исследования иногда описывались в прошлом, является своего рода балансированием, верно? Это может причинить вред отдельным лицам, но это принесет пользу всему обществу, поэтому мы делаем то, что можем», – говорит Кинг.
По крайней мере, таков план. Social Science One начнет знакомство исследователей через упрощенный набор данных уже в следующем месяце, что будет чем-то вроде бета-теста.
Планируется, что проблем с конфиденциальностью не будет, демографические данные будут в основном удалены. Таким образом, начальная работа будет выполняться, пока организация следит за тем, чтобы система работала в соответствии с планом. Если все получится, исследователи смогут получить полный набор данных и, возможно, даже в большем объеме в будущем.
«Мы общаемся и с другими организациями, – говорит Кинг. – Мы пока не взяли на себя никаких обязательств, потому что хотим убедиться, что наш план работает».
По материалам THE VERGE .