Почему нам нравится читать фейковые новости

  • 11 мая 2017
Политические активисты Правообладатель иллюстрации Getty Images

Можно ли что-то поделать с раздробленностью и недостоверностью новостных источников и масштабным распространением через интернет фальшивой информации? Обозреватель BBC Future пытается понять, как мы дошли до жизни такой, и беседует с учеными и инноваторами, которые стремятся докопаться до правды.

Кто стал первым чернокожим президентом Америки? Довольно простой вопрос, ответ на который лежит на поверхности, не правда ли? По крайней мере, на первый взгляд.

Но попробуйте ввести этот запрос в поисковик, и факты перестают быть такими однозначными.

Вот что получилось у меня: первый же результат поиска в Google - заключенный в рамку и расположенный в самом верху страницы - гласил, что первым чернокожим президентом в 1781 году стал некто по имени Джон Хансон.

Судя по другим статьям, пост президента США занимали в разное время семеро афроамериканцев, в том числе Томас Джефферсон и Дуайт Эйзенхауэр.

Другие поисковые машины справились с задачей не намного лучше. И Yahoo, и Bing тоже выдали в первых строках ссылки на статьи про загадочного Хансона.

Что ж, добро пожаловать в мир "альтернативных фактов" - этот запутанный лабиринт заявлений и опровержений, где по социальным сетям с пугающей скоростью распространяются "утки", умышленно провоцирующие гневную реакцию людей, которые принимают их за чистую монету.

Манипуляции с поисковыми машинами позволяют вывести спорные и маргинальные мнения по поводу президентов США на первый план.

В этом пространстве самый влиятельный в мире человек обвиняет основные СМИ в торговле "фейковыми новостями".

Избирателей, судя по всему, вводят в заблуждение те самые политики, за которых они отдали свои голоса, и даже научные исследования, которые в течение долгого времени считались достоверным источником информации для принятия решений, утратили свою былую значимость.

Обозреватели BBC Future беседовали с группой экспертов о наиболее серьезных трудностях, с которыми человечество столкнулось в XXI веке, и выяснилось, что в числе наиболее актуальных проблем - дискредитация надежных источников информации.

В некотором смысле эта проблема превосходит все остальные. Без общей отправной точки - ряда фактов, которые могут принять люди, не согласные друг с другом по остальным вопросам, - будет очень сложно решить хоть какие-нибудь из важных задач современности.

Пример, приведенный в начале этой статьи, может показаться мелким и незначительным недоразумением, но на самом деле эта проблема гораздо серьезнее.

Ведущие ученые, технологические компании и специалисты по проверке фактов, с которыми нам удалось связаться, подтвердили, что угрозу, связанную с распространением дезинформации, не следует недооценивать.

Приведем еще один пример. В прошлом году в преддверии президентских выборов в США в социальных сетях появилась ложная информация о кружке педофилов с участием видных членов Демократической партии, который якобы действовал в подвале одной вашингтонской пиццерии.

В начале декабря в пиццерию - где, кстати сказать, нет никакого подвала - вошел мужчина и открыл стрельбу из автомата. Чудо еще, что никто при этом не пострадал.

Правообладатель иллюстрации Getty Images
Image caption Слухи, распространяемые в интернете, кроме прочего, усиливают нагрузку на полицию

Некоторые предупреждают, что "фейковые новости" угрожают и демократическому процессу как таковому.

"На первой же странице любого учебника политологии написано, что основу демократии составляет информирование людей о различных вопросах в целях обсуждения и принятия решений", - поясняет Стивен Левандовски, когнитолог из Бристольского университета (Великобритания), изучающий вопросы устойчивости и распространения дезинформации.

"Когда множество людей в обществе пребывает в заблуждении из-за недостоверной информации, это очень печально и с этим очень трудно жить".

По данным исследования, проведенного ближе к концу прошлого года Исследовательским центром Pew, 64% взрослых американцев заявляют о том, что выдуманные новостные сюжеты вносят путаницу и затрудняют восприятие базовых фактов, касающихся современных проблем и событий.

Альтернативная история

Человеку приходится решать, кому верить, а кому нет, еще с тех давних пор, когда его предки стали жить общинным строем.

В политике всегда найдутся люди, готовые вводить окружающих в заблуждение ради того, чтобы добиться успеха самому.

Но отличие нынешней ситуации состоит в способах получения информации.

"Благодаря интернету возможность быть услышанным появилась у множества людей, которые раньше не могли пробиться через систему контроля распространения информации", - рассказывает Пол Ресник, преподаватель информационных дисциплин в Мичиганском университете (США).

"Сначала многие обрадовались перспективе ознакомиться с мнениями самых разных представителей общества. Но сейчас некоторые из этих людей говорят вещи, которые нам не нравятся, и главный вопрос заключается в том, как контролировать распространение информации, которая представляется ложной".

Необходим новый способ определения сведений, заслуживающих доверия. "Думаю, главное - понять не чему, а кому верить, - считает Ресник. - Все будет сводиться к репутации источника информации. И не факт, что в будущем останутся те же источники, что и в прошлом".

Этот сдвиг наблюдается уже сейчас. В течение нескольких десятилетий британская газета Daily Mail служила многим людям надежным источником информации. Но в прошлом месяце редакторы "Википедии" проголосовали за то, чтобы прекратить использовать Daily Mail в качестве источника, ссылаясь на то, что публикуемые в ней сведения "в целом ненадежны".

Однако и сама "Википедия" далека от совершенства: редактировать ее может кто угодно, а устранением неточностей занимаются волонтеры. На этом сайте регулярно встречаются неточные сведения, которые перед использованием приходится тщательно проверять.

К примеру, в статье "Википедии", посвященной актеру Ронни Корбетту, как-то появилась информация о том, будто он играл телепузика в детском кукольном телесериале.

Это неправда, но когда артист скончался, ошибка просочилась в некоторые из его некрологов, составители которых обратились к "Википедии" за сведениями о покойном.

Правообладатель иллюстрации Getty Images
Image caption В некоторых некрологах актера Ронни Корбетта ошибочно утверждалось, будто он играл телепузика - только потому, что так было написано в "Википедии"

Подобного рода ошибки не наносят большого вреда - разве что дают повод для обиды или заставляют краснеть, подрывая в конечном счете репутацию новостного агентства.

Впрочем, репутация беспокоит не всех - находятся те, кто занимается распространением информации исключительно ради денег.

В прошлом году в социальных сетях, таких как "Фейсбук", стали появляться ссылки на сайты, маскирующиеся под авторитетные источники.

Интернет наводнили совершенно не соответствующие действительности сообщения - например, о том, будто папа римский поддержал кандидатуру Дональда Трампа на президентских выборах в США, а его сопернице Хиллари Клинтон якобы было предъявлено официальное обвинение в связи с тем, что она в свою бытность госсекретарем страны использовала для переписки и хранения секретной информации частный почтовый сервер.

"В новостной сфере появилась серьезная проблема - новая форма правды", - заявляет Кевин Келли, журналист, специализирующийся на новых технологиях и основатель ежемесячного англоязычного журнала Wired.

"Правду больше не спускают сверху, ее распространяют рядовые члены общества. На каждый факт находится противоположный факт. И все эти факты в интернете выглядят одинаково, что сбивает с толку большинство людей".

Герои этих выдуманных историй получают возможность широко распространять их по соцсетям и получать свою долю рекламной выручки благодаря кликам и переходу по ссылкам на их сайты.

Выяснилось, что многие из этих сообщений поступают из небольшого городка в Македонии: схему использовали молодые люди в целях обогащения - они платили "Фейсбуку" за продвижение своих постов и получали доход от посещения своих сайтов огромным количеством пользователей.

"С возникновением социальных сетей изменился масштаб обмена информацией и появилась возможность находить людей, разделяющих ваше мировоззрение", - отмечает Уилл Мой, директор независимой британской организации Full Fact, которая занимается проверкой фактов.

"Раньше было не так просто навязать обществу те точки зрения, которые выходят за рамки общепринятых представлений. Если бы мы просто сидели за кухонным столом или в пабе, скорее всего, между нами разгорелся бы спор".

Но подобные дискуссии возникают все реже. Информация распространяется по миру за считанные секунды и становится известной миллиардам людей. Но и опровергнуть ее можно одним движением руки.

Сделанный человеком выбор фиксируется, и в дальнейшем ему предлагается еще больше аналогичных сообщений. В результате получается усиленный эффект эхокамеры.

"Два референдума, проведенных недавно в Великобритании, - по поводу независимости Шотландии и выхода из ЕС - показали, что люди имеют склонность объединяться со своими единомышленниками и тем самым сильнее раззадоривать друг друга", - отмечает Мой.

"Они становятся более фанатичными и раздраженными, им становится легче поверить, что им лгут, но труднее допустить, что лгут им те люди, с которыми они согласны. Это опасная тенденция".

Вопрос в том, как заставить эти пузыри лопнуть. Один из испробованных подходов состоит в том, чтобы ставить под сомнение факты и сообщения, которые появляются в соцсетях.

Например, такие организации, как Full Fact, изучают постоянно звучащие заявления политиков или средств массовой информации и пытаются их скорректировать. (У Би-би-си тоже есть подразделение, которое занимается проверкой фактов, - оно называется Reality Check).

Однако проведенные Ресником исследования показывают, что в социальных сетях этот подход, по-видимому, не работает.

Ученый создает программное обеспечение, способное автоматически отслеживать слухи, распускаемые в "Твиттере", путем разделения людей на тех, кто распространяет неверную информацию, и тех, кто ее исправляет.

"На материале слухов, которые мы изучили, было установлено, что у тех, кто внедряет слухи, гораздо больше подписчиков, чем у тех, кто их исправляет", - подчеркивает он.

"Кроме того, их аудитории, как правило, не пересекаются. Даже в тех случаях, когда и слух, и исправленная информация распространялись среди большого количества людей, обычно это были разные люди. Беда в том, что исправленная информация обычно распространяется не очень активно".

В качестве одного из примеров, выявленных Ресником и его коллегами, можно привести проект отчета Всемирной организации здравоохранения, который просочился в общий доступ, - в нем было ошибочно написано, будто многие носители ВИЧ в Греции заразились намеренно в надежде получить социальные пособия.

ВОЗ опубликовала опровержение, но ложную информацию получило больше людей, чем исправленную.

А вот еще один пример: пущенный в "Твиттере" слух о смерти американского рэпера Джей-Зи прочитали 900 тысяч человек, а опровержение - вдвое меньше пользователей. И лишь очень немногие видели в сети и слух, и его опровержение.

Когда дело касается политики, такое отсутствие пересечения создает отдельную проблему. Уилл Мой опасается, что с помощью соцсетей можно успешно обойти все традиционные преграды и меры надзора, направленные на обеспечение честности властей предержащих.

"Политические структуры могут разместить что-нибудь на "Фейсбуке", заплатить за рекламу и передать свое сообщение миллионам людей, причем тем, кто не входит в целевую группу, будет трудно об этом узнать", - рассказывает Мой.

"Отбор получателей такой "информации" можно производить по возрасту, месту жительства, цвету кожи, полу. Соцсети - это не просто инструмент для общения на равных - это еще и самая мощная площадка для рекламы за всю нашу историю".

Впрочем, это может и не иметь большого значения. "Никогда еще не было так легко рекламировать что-либо миллионам людей таким образом, чтобы остальные миллионы и не подозревали об этом", - утверждает он.

В самих компаниях Twitter и Facebook уверяют, что у них действуют строгие правила относительно рекламы, особенно рекламы политического характера. Но несмотря на это, использование социальных сетей в политических целях может иметь масштабные последствия.

По словам одного из координаторов кампании Vote Leave ("Голосуйте за выход"), в преддверии референдума по вопросу членства Великобритании в ЕС сторонники этой кампании оплатили почти миллиард целевых рекламных сообщений (преимущественно на "Фейсбуке").

В одном из них было написано, что Великобритания платит Евросоюзу 350 миллионов фунтов стерлингов (примерно 25,2 миллиарда рублей) в неделю.

Председатель Бюро статистики Великобритании сэр Эндрю Дилнот назвал эти данные недостоверными. На самом деле, для Великобритании действовала скидка, и она платила Евросоюзу порядка 276 миллионов фунтов стерлингов (19,9 миллиарда рублей) в неделю.

"Нам необходима прозрачная информация о том, кто использует социальные сети в период предвыборной или референдумной компании", - заявляет Мой.

"У нас должны быть инструменты для работы с этим явлением - надзорные органы, которые будут смотреть и говорить: так, стоп, тут несоответствие. И требовать исправления информации".

Правообладатель иллюстрации Getty Images
Image caption Красный автобус пропаганды... Многие сейчас обеспокоены тем, что кардинальные разногласия по поводу основополагающих фактов подрывают демократический процесс

Да и сами социальные сети тоже стали принимать меры. Основатель "Фейсбука" Марк Цукерберг недавно разместил в интернете письмо на 25 страниц, в котором выразил беспокойство в связи с распространением ложных сообщений и дезинформации, а также с поляризацией соцсетей.

В письме он сообщил, что его компания будет работать над снижением градуса сенсационности сообщений в своей новостной ленте, проверяя, знакомятся ли люди с их содержанием, прежде чем делиться такими сообщениями с другими пользователями.

Кроме того, изменяется рекламная политика этой соцсети: сокращено количество спамерских сайтов, которые наживаются на поддельных новостях, и добавлен инструмент, позволяющий пользователям отмечать статьи, содержащие ложную информацию.

Другие технологические гиганты тоже уверяют, что принимают проблему всерьез. Руководитель Apple Тим Кук недавно поднял тревогу в связи с распространением фейковых новостей, а в Google заявляют, что работают над совершенствованием алгоритмов поиска для отображения результатов с учетом их точности.

"Определить, какие страницы в интернете содержат лучший ответ на вопрос, - это сложная задача, и мы не всегда справляемся с ее решением", - признает Питер Бэррон, вице-президент Google по коммуникациям в Европе, на Ближнем Востоке и в Азии.

"Когда на первые места среди подобранных нами результатов поиска выходят неавторитетные источники информации, мы разрабатываем масштабируемые автоматизированные решения этой проблемы, а не удаляем их вручную по одному".

"Недавно мы усовершенствовали алгоритм, который позволит выводить на первые строки более качественный и надежный интернет-контент. Мы продолжим работу над алгоритмами, чтобы таких проблем впредь не возникало".

Рохит Чандрва, вице-президент Yahoo по инженерным вопросам, предлагает привлечь к решению этой проблемы больше людей.

"На мой взгляд, существует потребность в рынке разработки стандартов, - говорит он. - Мы не можем проверить факты, изложенные в каждом сообщении, но за контентом должно следить больше людей, чтобы поддерживать высокую планку качества".

Кроме того, Google в сотрудничестве с организациями, которые занимаются проверкой фактов, разрабатывает технологии выявления и даже исправления ложных заявлений.

Совместными усилиями создается автоматическая система проверки фактов, которая будет отслеживать заявления, сделанные на телевидении, в газетах, в парламенте и в интернете.

На первом этапе система будет настроена на поиск заявлений, которые уже были проверены людьми, и автоматически рассылать исправления, чтобы предотвратить распространение слухов.

По мере совершенствования искусственного интеллекта система и сама сможет проверять некоторые факты.

"Компьютеру относительно несложно проверить такое заявление, как "масштабы преступности растут", - утверждает Мой. - Мы знаем, где взять статистические данные о преступности, и можем написать алгоритм, позволяющий вынести суждение о том, действительно ли она растет".

"Прошлым летом мы провели презентацию в доказательство того, что можем автоматизировать проверку подобных заявлений. Сложнее будет создать инструменты проверки конкретных видов заявлений, но со временем этот инструмент станет более функциональным".

Почему не захотели слушать Уотсона

Этот подход пытаются применять разные группы в разных уголках мира. Например, автоматизированную систему проверки фактов разрабатывают научные сотрудники двух американских университетов - Миссисипи и Индианы.

Инструменты для решения этой проблемы есть и в самой продвинутой в мире системе искусственного интеллекта: у сотрудников IBM ушло несколько лет на разработку способов, с помощью которых их "Уотсон" позволяет пользователям интернета отличать правду от вымысла.

В эту систему встроено приложение для проверки фактов, которое может открываться вместе с браузером и анализировать страницы с помощью собственных языковых инструментов "Уотсона", отображая вероятность достоверности представленной информации.

Однако, по словам старшего разработчика программного обеспечения подразделения IBM Watson Research Бена Флетчера, который участвовал в создании этой системы, ее тестирование прошло неудачно - но не потому, что она оказалась не способной выявить ложь.

"Мы получили очень много отзывов от людей, которые не хотели, чтобы им указывали, что из написанного в интернете правда, а что нет", - поясняет он.

"По сути, они хотят увидеть все стороны и принять решение самостоятельно. Это серьезная проблема, с которой сталкивается большинство людей, не зная, что они живут словно внутри пузыря".

Сегодня все чаще звучат соображения на тему того, как помочь людям вырваться из изолированных информационных пузырей, в которых сегодня пребывает большинство из нас.

Если представлять точные факты, по крайней мере, можно будет инициировать их обсуждение. Но, судя по всему, сообщать о том, какие сведения достоверны, а какие ложны, бесполезно. В связи с этим в IBM пока отложили планы по созданию инструментов проверки фактов.

"Значительная часть населения США живет, так сказать, в альтернативной реальности, - утверждает Левандовски. - Они обмениваются друг с другом совершенно ложной информацией".

"Любая попытка прорваться через этот пузырь убеждений и верований сопряжена с неимоверными трудностями: она будет воспринята просто как заговор. Именно поэтому республиканцы и демократы не могут прийти к единому мнению даже по поводу такой очевидной вещи, как количество людей, запечатленных на фотографии".

Один из предложенных Левандовски вариантов решения состоит в том, чтобы создавать поисковые машины, которые будут выдавать информацию, слегка расходящуюся с мировоззрением пользователя.

Кроме того, такие компании, как Amazon, могут предлагать посетителям фильмы и книги, где изложена иная точка зрения, нежели в тех продуктах, которые обычно покупает данный пользователь.

"Предлагая людям то, что находится за пределами их зоны комфорта, но не настолько далеко, чтобы они вовсе не готовы были с этим знакомиться, можно удержать людей от радикализации внутри своих пузырей", - считает Левандовски.

"Такой вариант технологического решения может стать немалым шагом вперед. Мне кажется, над этим стоит поработать".

Google отчасти уже этим занимается, применяя малоизвестную систему грантов, которая позволяет некоторым общественным организациям публиковать объявления, появляющиеся в числе первых в ответ на определенные запросы.

Этот метод используют такие группы, как "Самаритяне", чей сайт благодаря этому фигурирует в верхних строчках списка при поиске информации о суициде.

При этом представители Google заявляют, что заявку на использование этой системы могут подать и благотворительные организации, выступающие против радикализации общества: к примеру, они могли бы продвигать свои сообщения в ответ на запросы, касающиеся так называемого "Исламского государства" (экстремистского движения, запрещенного во многих странах, включая Россию).

Однако вполне понятны и опасения по поводу того, что крупные компании, разрабатывающие и внедряющие интернет-технологии, будут фильтровать информацию, попадающую к людям, - и эти опасения бытуют даже внутри самих этих организаций.

Сторонники проверки фактов считают, что лучше будет усовершенствовать механизмы обозначения в интернете точной информации и дать людям возможность самостоятельно принимать решение о ее использовании.

"Алгоритмы поиска имеют такие же недостатки, что и люди, которые их разрабатывают", - поясняет Алексиос Мантцарлис, директор Международной сети организаций, занимающихся проверкой фактов.

"Следует подумать над тем, как добавить авторитетности источникам. Необходимо эффективно размечать и структурировать качественный контент".

Мантцарлис полагает, что одним из вариантов решения проблемы станет предоставление людям ресурсов для самостоятельной проверки получаемых фактов.

Он планирует создать базу данных источников, которые используют специалисты по проверке фактов, и разместить ее в свободном доступе.

Но что если люди совсем не готовы согласиться с официальными источниками информации? С этой проблемой сталкиваются правительства во всем мире: общественность воспринимает их слова со всё возрастающим скептицизмом.

Nesta, британская благотворительная организация, выступающая в поддержку инноваций, рассматривает некоторые из проблем, встающих перед демократией в цифровую эпоху, и способы привлечения людей к их решению с помощью интернета.

Эдди Коуплэнд, руководитель подразделения инноваций в государственном управлении, приводит в пример Тайвань, где представители широкой общественности могут выдвигать свои идеи и способствовать их закреплению на законодательном уровне.

"На первом этапе организуется краудсорсинг фактов, - рассказывает он. - Так что перед началом обсуждения формируется основа из общепринятых фактов, от которой можно отталкиваться".

Но для этого необходимо бороться с собственными вредными привычками. "Люди не готовы поразмыслить над фактами, которые противоречат их точке зрения", - утверждает Виктория Рубин, директор исследовательской лаборатории в области лингвистики и информационных технологий Западного университета в канадской провинции Онтарио. Вместе со своими коллегами она с 2015 года работает над выявлением в интернете поддельных новостей.

Уилл Мой согласен с ее точкой зрения. По его словам, впадая в ленивый цинизм по поводу того, что нам говорят, мы позволяем тем, кто нам лжет, уйти от ответственности за эту ложь.

Он убежден, что вместо этого следует подвергать сомнению сказанное и призывать ораторов к ответу за свои слова.

Но в конечном счете всем нам необходимо признать неприятную правду.

"Когда люди заявляют, что переживают по поводу возможного введения в заблуждение, они на самом деле имеют в виду, что в заблуждение могут ввести других, - указывает Ресник. - Они очень редко думают о том, что неправильными могут оказаться их собственные базовые убеждения".

Возможно, решить эту проблему нашего времени помогут технологии, но и нам самим пора уже призадуматься.

Прочитать оригинал этой статьи на английском языке можно на сайте BBC Future.

Похожие темы

Новости по теме