На этой неделе стало известно, что социальная сеть Facebook сознательно манипулировала настроением почти 700 000 своих пользователей в целях научного эксперимента. Из опубликованной в научном журнале PNAS статьи выяснилось, что на протяжении одной недели (с 11 по 18 января) 2012 года несколько сотен тысяч англоязычных пользователей социальной сети Facebook, сами того не зная, выступили в качестве подопытных кроликов: в их лентах друзей (News Feed) было автоматически сокращено количество сообщений, содержащих слова в одном случае с негативной, а в другом с позитивной окраской. Целью исследования было выяснить, как это отразится на публикациях, а значит, возможно, и “настроении” тестируемых.
Любопытно, что некоторые более ранние исследования демонстрировали обратную зависимость настроения пользователей от эмоциональной окраски того, что они наблюдали в своих лентах друзей: люди, больше приятелей которых писали о хорошем, чаще публиковали негативные сообщения. С точки зрения обывательской психологии этот феномен легко объясним, ведь досадно, когда у окружающих все слишком хорошо (к сожалению, часто верно и обратное). Однако масштабный опыт, проведенный исследовательским отделом (Core Data Science Team) компании Facebook совместно с учеными из Калифорнийского университета в Сан-Франциско и Корнелльского университета, показал, что пользователи крупнейшей социальной сети скорее склонны сопереживать, чем завидовать. Для того чтобы установить это, случайным образом были выбраны четыре группы примерно по 150 000 пользователей в каждой. Для первой из них алгоритм, формирующий ленту друзей (в нормальной ситуации этот алгоритм формирует ленту из сообщений, которые оцениваются как наиболее релевантные к текущей активности и интересам пользователя), был скорректирован таким образом, чтобы в ленту не попадали от 10 до 90 процентов сообщений, содержащих слова, имеющие позитивную окраску. Для второй группы был наоборот искусственно снижен негативный фон сообщений. Оставшиеся две группы стали контрольными – из лент этих пользователей сообщения удалялись случайным образом, вне зависимости от их эмоциональной окраски.
Эксперимент показал, что пользователи из первой (грустной) группы стали реже использовать позитивные слова и чаще негативные в собственных сообщениях, и наоборот, хорошее настроение виртуальных друзей заставляло пользователей чаще писать о хорошем и реже о плохом. Оба эффекта проявились с высокой статистической достоверностью, правда, сами по себе они оказались незначительными: частота использования позитивных/негативных слов менялась по сравнению с контрольной группой всего лишь на десятые доли процента. Авторы исследования объявили это первым убедительным подтверждением способности людей “заражаться” друг от друга настроением, причем не только при личном общении, но и в социальных сетях в интернете. На самом деле интерпретировать результаты исследования можно по-разному. Во-первых, наличие позитивных слов в записи ничего не говорит о действительной эмоциональной окраске сообщения (например, “Отлично! Меня окружают прекраснодушные идиоты”), во-вторых, наблюдаемый эффект может свидетельствовать не столько о сопереживании, сколько о социальной мимикрии, страхе выглядеть среди веселых друзей печальной белой вороной (и наоборот).
Для социологов результаты эксперимента могут быть важны, в первую очередь, благодаря беспрецедентно огромной выборке, в сотни и даже тысячи раз превышающей выборку типичного социологического исследования. А вот обычных пользователей возмутило (возможное) участие в научном эксперименте в качестве подопытных безо всякого предупреждения со стороны социальной сети.
На самом деле, ничего противозаконного исследователи из Facebook, видимо, не совершили. Согласно тексту пользовательского соглашения, которое неизбежно принимает любой регистрирующийся в Facebook человек, сеть может использовать собранную информацию о пользователе “для внутренних операций, включая устранение ошибок, анализ данных, тесты, исследования и усовершенствование услуг”. Работа алгоритма рэнкинга, формирующего ленту друзей, вообще никак не регламентирована, в статье в PNAS, например, про него сказано лишь что “[этот] алгоритм постоянно улучшается и тестируется командой Facebook в интересах демонстрации пользователю того контента, который окажется для них наиболее релевантным и вовлекающим”. И все же в американском законодательстве (а именно его юрисдикции подчиняется Facebook) для экспериментов на людях (Human Subject Research) существует достаточно жесткий регламент. Он мог бы быть применен к опыту, проведенному социальной сетью, потому что корректировку алгоритма рэнкинга можно считать манипуляцией над естественной средой человека, а такие действия попадают под формальное определение эксперимента. Вот только законодательство регулирует не все эксперименты на людях, а только те, которые проводятся организациями, финансируемыми государственным органом или агентством, входящим в определенный список, или если результаты этих экспериментов являются основой для обращения в Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США, как в случае, например, тестирования лекарств. Facebook лекарства не тестирует и от государственных агентств деньги не получает, а другие соавторы статьи, представляющие действительно федерально финансируемые Корнелльский и Калифорнийский университеты, всего лишь “помогали определить общий формат исследования и подготовить публикацию”, как прямо заявлено в тексте статьи.
Хотя формально Facebook не нарушил закон, ведущий автор исследования Адам Крэймер счел нужным ответить на обрушившуюся на социальную сеть критику и извиниться в записи на своей странице на Facebook.
“Любые исследования в Facebook мы проводим лишь для того, чтобы понять, как улучшить наш сервис. [...] Уверяю, что мы совсем не хотели никого расстроить. Понимаю, что некоторым все это могло показаться сомнительным. Я и мои соавторы приносим извинения за форму, в которой исследование было представлено в статье, и за доставленное этим беспокойство”, – написал Крэймер.
Впрочем, в этой же записи есть намек, что мотивация сети могла несколько выходить за рамки альтруизма и научной любознательности. “Нам казалось важным разобраться, действительно ли, наблюдая, как друзья публикуют позитивный контент, люди испытывают негативные эмоции или ощущают себя одинокими. В то же время нас волновало, что негативный настрой друзей приводит к тому, что люди начинают реже пользоваться Facebook”, – объясняет Крэймер. Разумеется, как можно более частое посещение пользователями социальной сети является прямым коммерческим интересом Facebook. Проведенный эксперимент показал, что не только мы своими статусами можем влиять на эмоции приятелей в интернете, но и сама социальная сеть, корректируя алгоритм рэнкинга ленты друзей, может (пусть и в относительно незначительной степени) манипулировать настроением сотен тысяч, а потенциально и миллиардов пользователей. А ведь, меняя алгоритм, можно регулировать не только уровень абстрактных негативных и позитивных записей.
Нравится нам это или нет, социальные сети все сильнее и во все большем масштабе влияют на реальные социальные процессы. Научное осмысление того, как и почему это происходит, необходимо, вот только стоит задумываться, каким образом и в чьих интересах могут использоваться результаты таких исследований. Интернет – свободная среда, но и в ней довольно легко манипулировать людьми. Защититься от этого просто: не забывать о реальности и поменьше пользоваться социальными сетями.