Посты о самоубийстве в "Инстаграме": как реагировать и что делает сама сеть

  • 17 мая 2019
Инстаграм Правообладатель иллюстрации Getty Images

Все чаще темой обсуждения в интернете становятся публикации в соцсетях, связанные с нанесением себе телесных повреждений ("селфхарм") и самоубийством. На этой неделе 16-летняя девушка из Малайзии покончила с собой после того, как провела опрос в своем "Инстаграм"-аккаунте, стоит ли ей жить.

Руководство Instagram рассказало, как именно контролирует распространение подобного опасного контента на своей платформе и что делать, если вы видите такие посты в ленте.

Девушка, имя которой не называется, покончила с собой 13 мая в штате Саравак на востоке Малайзии.

За несколько часов до самоубийства она спросила своих подписчиков в "Инстаграме", что ей выбрать - жизнь или смерть.

"Очень важно, помогите мне выбрать: D или L?" - написала девушка в своем профиле. Следствие заключило, что под "D" девушка имела в виду смерть (англ. "Death"), а под "L" - жизнь ("Life").

По сообщениям полиции, в какой-то момент 69% голосов было отдано за "смерть".

Как Instagram реагирует на потенциально опасный контент

Руководство Instagram выразило свои глубокие соболезнования по поводу смерти девушки.

Выступая в Вестминстере перед комитетом парламента Великобритании по вопросам культуры, СМИ, спорта и цифровых технологий, представители соцсети расказали, какие меры компания принимает для блокирования неуместного и потенциально опасного контента.

Публикации, поощряющие или одобряющие практики самоповреждения, самоубийства и расстройства пищевого поведения, алгоритмы и модераторы сети стремятся выявлять и блокировать.

Руководство платформы также призвало пользователей сообщать о потенциально опасном поведении и постах в приложении.

Дело Молли Рассел

Image caption 14-летняя Молли Рассел перед смертью просматривала посты о депрессии и самоповреждениях

Дискуссия о влиянии визуальной платформы на подростков началась уже довольно давно.

В феврале 2019 года отец погибшей лондонской школьницы обвинил Instagram в том, что алгоритмы соцсети показывали девушке опасный контент.

14-летняя Молли Рассел покончила с собой в ноябре 2017 года. Как сообщается, перед смертью она просматривала в соцсетях посты, связанные с самоповреждениями, депрессией и самоубийством. По мнению отца, часть вины за самоубийство подростка лежит на корпорации Facebook, которой принадлежит "Инстаграм".

Как защитить детей

После смерти Молли Рассел британские власти говорили об ответственности Instagram за произошедшее и грозились ввести возрастные ограничения на использование соцсетей.

Главный врач Национальной службы здравоохранения Британии Салли Дэйвис опубликовала рекомендации для родителей о том, как детям пользоваться интернетом. В частности, британские врачи советуют провести беседу с детьми о том, зачем им нужен телефон.

По данным британской Национальной службы здравоохранения, за 20 лет в период с 1997 по 2007 года количество девочек-подростков, наносящих себе повреждения, увеличилось в Англии почти вдвое: с 7300 до 13463 человек.

Может ли Instagram удалить весь опасный контент?

"Эта новость шокировала нас и очень опечалила", - сказал Вишал Шах, руководитель продуктов Instagram, комментируя самоубийство девушки в Малайзии.

Выступая перед комитетом Палаты общин, он признал, что сеть несет ответственность за безопасность и благополучие ее участников и в этой связи постоянно обновляет свою политику.

Image caption Представители Instagram Карина Ньютон и Вишал Шах

В ответ на вопрос о том, может ли платформа выявлять пользователей, которые испытывают психологические трудности и потенциально могут причинить себе вред, Вишал Шах пояснил, что такие технологии разрабатываются, однако формы поведения людей с такими склонностями все время меняются, что затрудняет работу алгоритмов.

В "Инстаграме" также ввели специальные меры по поддержке тех, кто проявляет интерес к суицидальным темам. Например, если в поиске "Инстаграма" набрать "suicide" (англ. "суицид"), то появится окно с предложением помощи, советами и ссылками на службы психологической поддержки и телефоны доверия.

Правообладатель иллюстрации Instagram
Image caption Instagram предлагает помощь тем, кто ищет запрещенный контент

Правда, в русской версии эта функция пока не работает, а среди советов по борьбе с тяжелым состоянием встречаются такие предложения, как "сходить в кино", "понаблюдать за облаками" и "вздремнуть".

Открытым также остается вопрос мер в отношении тех пользователей, которые проголосовали за смерть девушки.

По малайзийским законам подстрекательство к суициду карается смертной казнью или тюремным сроком до 20 лет.

В Instagram заявили, что пока рано говорить о том, будут ли предприняты какие-то действия по отношению к голосовавшим.

Что делать, если я вижу в Instagram пост, связанный с самоповреждениями или суицидом?

Прежде всего, ответить на вопрос: находится ли автор поста в критическом состоянии, есть ли угроза его здоровью и жизни?

Если да, то следует незамедлительно звонить в скорую. Экстренная госпитализация может спасти жизнь человеку. В России номера экстренной помощи следующие:

  • 03 - с городского телефона,
  • 103 или 112 - с мобильного.

Звонок на номер 112 пройдет даже при отсутствии денежных средств на телефоне и при заблокированной или отсутствующей симкарте.

Существуют также горячие линии психологической поддержки, куда можно обратиться. Например, телефон Московской службы психологической помощи населению работает круглосуточно и бесплатно. Все звонки конфиденциальны:

  • 051 - с городского
  • 8 (495) 051 - с мобильного.

Можно также позвонить на горячую линию Центра экстренной психологической помощи МЧС России, где могут посоветовать, как установить контакт с человеком в критической ситуации:

  • 8 (499) 210-50-50

или в службу помощи в кризисных ситуациях для детей, подростков и их родителей:

  • 8-800-2000-122.

Если непосредственной угрозы жизни и здоровью нет

Instagram просит сообщать о постах на тему самоповреждения или самоубийств, чтобы администрация могла скрыть эти посты от других пользователей, связаться с владельцем аккаунта и при необходимости предложить ему помощь.

Для этого нужно коснуться трех точек в правом верхнем углу над фотографией и выбрать "Пожаловаться", затем "Неуместные материалы" и "Нанесение себе увечий" (в "Инстаграм"-историях три точки находятся в правом нижнем углу).

Правообладатель иллюстрации Instagram
Image caption Как сообщить Instagram о публикациях, связанных с самоповреждением или суицидом

В случае, если подобные тревожные посты выкладывает ваш знакомый и вы беспокоитесь за его благополучие, вы можете связаться с автором и, если необходимо, предложить ему помощь и поддержку или дать телефон службы доверия.

Новости по теме