Правило о том, что стандарты прав человека должны одинаково работать в оффлайне и онлайне, Советом Европы декларируется давно, но только с распространением социальных сетей мы подошли к этой проблеме совсем близко и увидели, что пока мир все же устроен иначе.
Недавний пример – массовая стрельба в мечетях новозеландского города Крайстчерч, в результате которой погибли 50 человек. Главный подозреваемый, гражданин Австралии, во время стрельбы вел прямую трансляцию в Facebook, потом видеозапись «гуляла» по соцсети еще несколько часов, что стало основанием для обвинений Цукерберга в попытке «хайпануть» на крови. Власти Новой Зеландии попросили пользователей и провайдеров не распространять видеозапись под угрозой лишения свободы. Позже Facebook объявила об удалении только за сутки 1,5 млн записей, из которых 1,2 млн – на этапе загрузки. Платформа YouTube отключила поиск по ключевым словам, связанным с новозеландским терактом. В соцсетях началось обсуждение несовершенства алгоритмов соцсетей: почему платформа позволила свободно вести трансляцию массового убийства? В марте мусульмане Франции подали в суд на Facebook и YouTube за непредотвращение прямой трансляции теракта и последующее распространение видеозаписи.
На семинаре Академии европейского права (Academy of European Law – ERA) по теме языка вражды и необходимых в связи с его распространением ограничений свободы выражения мнения обсуждались правовые механизмы сдерживания «вирусов ненависти» в интернете, а также эффективность контентной политики соцсетей.
Что такое «язык ненависти»?
Право на свободу выражения мнения, закрепленное в статье 10 Европейской конвенции по правам человека, помимо прочего контента, применимо к информации и идеям, которые могут оскорблять, шокировать или иначе беспокоить государство, сообщества, отдельных людей. Определение «языка вражды» дано в Рекомендациях Совета Европы: термин следует понимать как охватывающий все формы выражения (текст, фото, видео, аудио и др.), которые распространяют, поощряют или оправдывают расовую ненависть, ксенофобию, антисемитизм, агрессивный национализм и этноцентризм, дискриминацию и враждебность по отношению к меньшинствам, мигрантам и людям «иммигрантского происхождения», а также содержат соответствующие призывы. Именно этого подхода придерживается в своей практике ЕСПЧ, относя к злоупотреблениям правом на свободу выражения мнения «все формы выражения мнения, которые распространяют, поощряют или оправдывают ненависть, основанную на нетерпимости (включая религиозную нетерпимость)». Европейская комиссия по борьбе с расизмом и нетерпимостью1См. Общеполитическую рекомендацию ЕКРН No15 о борьбе с языком ненависти, 8 декабря 2015 года. высказывается конкретнее: к распространению вражды и ненависти следует относить пропаганду или подстрекательство (или их оправдание) — в форме клеветнического или ненавистнического высказывания, осуждающего лицо или группу лиц, а также любое преследование, оскорбление, распространение негативных стереотипов, стигматизацию или угрозы на основании отдельных характеристик (раса, цвет кожи, происхождение, возраст, инвалидность, язык, религия или убеждения, пол, гендерная идентичность, сексуальная ориентация и др.).
Информация, распространяющая «вирусы ненависти», не подпадает под защиту 10-й статьи Европейской конвенции. При рассмотрении дел, связанных с языком вражды, ЕСПЧ принимает во внимание, где, когда, в каком общественно-политическом контексте и с какими намерениями сделано заявление, представляет ли его содержание общественный интерес, сделано ли высказывание в ходе политических дебатов,2Политикам крайне важно в публичном поле избегать комментариев, которые могут способствовать распространению нетерпимости (Féretv. Belgium, 16 июля 2009 г.) публичным или частным лицом, каково его потенциальное воздействие на аудиторию, каким образом и как широко оно распространено. Самая сложная категория дел здесь — дела, связанные с критикой и оскорблением религиозных убеждений. Единого общеевропейского стандарта оценки потенциального вреда антирелигиозных высказываний не существует, и Европейский суд наделяет государства широкой свободой усмотрения в таких делах.3 Otto-Preminger-Institut v. Austria, 20 сентября 1994 г. Однако общей является позиция, согласно которой оскорблением должно считаться высказывание, нацеленное на конкретного человека или группу людей, но не критика религиозного института как такового.
Сегодня в практике ЕСПЧ появляются дела о разжигании ненависти в соцсетях4Belkacem v. Belgium, 27 июня 2017 и на интернет-форумах5Smajić v. Bosnia and Herzegovina, 18 января 2018 г.; Nix v. Germany, 13 марта 2018 , об ответственности медиа за контент пользователей6Delfi AS v. Estonia [GC], 16 июня 2015 г.; Magyar Tartalomszolgáltatók Egyesülete and Index.hu Zrt v. Hungary, 2 февраля 2016 г.
Стандарты ЕС: права человека или алгоритмическая цензура?
Действующая в ЕС Директива e-Commerce Directive 2000/31 (ECD) в этой связи определяет некоторые правила для онлайн-платформ и поставщиков услуг хостинга, на чьих серверах размещается пользовательский контент. В частности, поставщик услуг не должен нести ответственности за незаконный контент (в том числе экстремистский), если не знает о нем или незамедлительно удаляет его в случае обнаружения. Государства могут определять условия ограничения доступа к недопустимым публикациям, обязывать частные компании сообщать о незаконных действиях пользователей и выдавать по запросу информацию о нарушителях. При этом Директива предостерегает страны ЕС от того, чтобы обязывать владельцев онлайн-платформ осуществлять общий «упреждающий» мониторинг и фильтрацию пользовательского контента (статья 15). Однако это не касается отдельных случаев, регулируемых национальным законодательством.
Еврокомиссия призывает операторов соцсетей проявлять большую активность в устранении «незаконного контента» и предотвращения его повторной загрузки. Одна из наиболее обсуждаемых попыток регулирования соцсетей на национальном уровне — германский закон «об охране прав в соцсетях» (NetzDG), действующий с 2017 года. Закон ввел «правило одного дня», когда крупнейшие соцсети (с аудиторией более 2 млн пользователей – Facebook, Instagram и др.) обязаны в течение суток отреагировать на жалобу пользователя и удалить «явно незаконный» контент. Штрафы за опоздание достигают 50 млн. евро. В момент принятия закона министр юстиции Германии Хайко Маас заметил, что свобода выражения мнений заканчивается там, где начинается уголовное право.
Задачей NetzDG было улучшение ситуации с правоприменением в соцсетях в части борьбы с «языком вражды», дезинформацией и «фейковыми новостями». Под действие закона подпадают соцсети с «населением» более 2 млн зарегистрированных германских пользователей, которые определяются как «платформы для обмена социальными данными, предназначенные для индивидуального общения». Из их числа исключены журналистские, а также узкоспециализированные и тематические платформы (профессиональные сети, онлайн-игры, платформы продаж, сайты знакомств). К категории «пользователей» (и производителей контента) отнесены зарегистрированные пользователи с немецким IP, принявшие пользовательское соглашение той или иной соцсети. В законе проводится различие между «явно» незаконным и просто незаконным содержанием. Незаконное содержание — то, которое нарушает нормы Уголовного кодекса Германии (преступления против конституционного строя, общественного порядка, достоинства личности или ее сексуального самоопределения). «Явно незаконный» контент — тот, незаконность которого может быть «обнаружена в течение 24 часов без тщательного изучения, разумными усилиями специально обученного персонала». Такой контент подлежит удалению в течение суток. В спорных случаях контент не следует считать «явно незаконным»: для его оценки предусмотрен семидневный период. Также закон оговаривает наличие и понятность процедуры отправки жалоб пользователями. Процедура должна обеспечивать немедленную реакцию администрации соцсети на жалобу, ее проверку и мотивированный ответ о принятом решении. Удаленный контент необходимо хранить на серверах на территории Евросоюза в течение нескольких недель. Вся коммуникация относительно спорного контента подлежит документированию. Закон вводит требование транспарентности для крупных платформ — у них есть обязательство раз в полгода выпускать публичный отчет об обработке жалоб пользователей.
Попытка Германии ввести формальное правовое регулирование в мир соцсетей вызвала критику всех заинтересованных сторон — пользователей, компаний, правозащитников. Юристы считают, что закон несовместим с правом на свободу выражения мнения, потому что соцсети непременно распространят «алгоритмическую цензуру» (алгоритмы давно применяются в ЕС для обнаружения «пиратского» контента) для превентивной блокировки сомнительных публикаций. Риски применения алгоритмов для оценки содержания связаны с большим количеством ошибок. «Правило одного дня» для удаления постов пользователей — еще одна критикуемая позиция: во избежание штрафов соцсетям выгоднее сразу «снести» спорную публикацию, чем тратить время на ее анализ и оценку. Многие уже связали российскую инициативу о борьбе с фейками и оскорблениями в соцсетях с инновационным примером Германии.
«Платформенное право»
Специальный докладчик ООН по вопросам свободы слова Дэвид Кайе исследует, как социальные медиа модерируют распространение информации пользователей, и предлагает меры по приведению контентной политики и корпоративных стандартов социальных платформ в соответствие с принципами прав человека. Кайе отмечает обеспокоенность гражданского общества тем, что государства делегируют функции по защите прав граждан (например, права на свободу выражения мнения и права на приватность) частным технологическим компаниям, таким как Facebook или Twitter. Специальный докладчик полагает, что частные компании готовы соблюдать права человека лишь в той части, в какой их обязывает это делать национальное законодательство. При этом компании, как правило, легко отвечают на запросы государств об удалении постов или предоставлении данных пользователей. То есть речи об эффективном саморегулировании и добровольной приверженности международным стандартам прав человека здесь не идет.
Сегодня крупные платформы декларируют контентную политику и принципы модерации, основанные (по крайней мере, в заявленной части) на принципах прав человека. Политика Facebook, например, занимает несколько страниц, и в ней есть специальный раздел об ограничении распространения «языка вражды». Компания заявляет о регулировании контента на принципах свободы слова, безопасности и справедливости, имея в виду такую «фильтрацию», которая направлена на недопустимость причинения вреда, и гибкость в оценке постов на темы общественного интереса. К «разжигающему» контенту Facebook относит правдоподобные угрозы и непосредственные нападки на людей на основе их расовой или этнической принадлежности, национальности, вероисповедании, сексуальной ориентации, пола или гендерной идентичности, серьезного заболевания или инвалидности (так называемые «характеристики, подлежащие защите от дискриминации»). Соцсеть заявляет, что умеет отличать серьезную форму высказывания от шутливой и оценивать реальность конкретной угрозы. «Мы ожидаем, что люди четко обозначат свои намерения, помогая понять, почему они поделились той или иной информацией. Если намерение высказывания неясно, мы можем его удалить. Мы допускаем юмор и дискуссии, связанные с перечисленными темами. Кроме того, если пользователь выступает под реальным именем, он более ответственно подходит к распространению информации», — говорится в правилах сообщества.
В настоящий момент в качестве инструментов для модерирования пользовательского контента операторы соцсетей используют автоматические фильтры, системы уведомлений, маркирование контента, деактивацию аккаунтов и удаление публикаций. Однако на практике они зачастую или «забывают» уведомить пользователя о том, что его пост «снесли», или уведомляют, но не дают возможности оспорить решение. На семинаре ERA тема регулирования частными компаниями пользовательского контента была самой дискуссионной. И спикеры, и участники выражали сомнения в добросовестности администраций онлайн-платформ, говорили о необходимости их большей прозрачности и подотчетности, введения действенных процедур для обжалования случаев несправедливого удаления публикаций. Стандарты соцсетей по противодействию злоупотреблениям часто декларативны или просто неэффективны, поэтому реальной травли и агрессии на платформах меньше не становится, зато соцсети активно борются с обнаженными телами на исторических и культурных изображениях, шутливыми высказываниями и документальными отчетами о конфликтах и военных преступлениях.
Выводы получились такими. Платформы, несомненно, должны принимать меры для обнаружения публикаций экстремистского характера, но не в ущерб праву на свободу выражения мнения, то есть «тест на ненависть» должен быть пропорциональным и недискриминационным. По мнению спикеров, эффективности в «частном правоприменении» соцсети добьются, когда будут активнее сотрудничать с НКО и представителями гражданского общества по вопросам обнаружения и анализа распространяемой на их платформах информации.
References[+]
↑1 | См. Общеполитическую рекомендацию ЕКРН No15 о борьбе с языком ненависти, 8 декабря 2015 года. |
---|---|
↑2 | Политикам крайне важно в публичном поле избегать комментариев, которые могут способствовать распространению нетерпимости (Féretv. Belgium, 16 июля 2009 г. |
↑3 | Otto-Preminger-Institut v. Austria, 20 сентября 1994 г. |
↑4 | Belkacem v. Belgium, 27 июня 2017 |
↑5 | Smajić v. Bosnia and Herzegovina, 18 января 2018 г.; Nix v. Germany, 13 марта 2018 |
↑6 | Delfi AS v. Estonia [GC], 16 июня 2015 г.; Magyar Tartalomszolgáltatók Egyesülete and Index.hu Zrt v. Hungary, 2 февраля 2016 г |