Суббота, 27 апреля 2024 года

Роскомнадзор научит модераторов «ВКонтакте» обнаруживать «группы смерти»

Модераторов «ВКонтакте» обучат выявлять «группы смерти», в которых подростков призывают к самоубийству. Об этом сообщает газета «Известия».Для этого рабочая группа, состоящая из представителей социальной сети, экспертов-психологов и сотрудников Роспотребнадзора и Роскомнадзора, разработает специальную методичку, которая позволит оперативно выявлять проблемные материалы и сообщества, в том числе программным методом.

На заседании рабочей группы по выявлению в интернете информации о самоубийствах официальный представитель Роскомнадзора Вадим Ампелонский сказал:

«Перед экспертами, прежде всего представителями научного сообщества, стоит задача разработки методики, которая позволит оперативно осуществлять мониторинг и эффективно выявлять материалы о самоубийствах и тематические сообщества, в том числе программным методом. Должен быть создан своего рода «суицидальный глоссарий». При этом необходимо отделить понятие пропаганды самоубийств от сведений об обстоятельствах, которые привели к смерти человека, и «черного юмора» (цитата по газете «Известия»).

С 2012 года на горячую линию Роскомнадзора поступило более 43 тысяч обращений по поводу пропаганды самоубийств. Более 14 тысяч страниц были внесены в черный список запрещенной информации, из которых порядка 6 тысяч (43%) пришлось на социальные сети.

В ведомстве говорят, что основными проблемами в работе по выявлению суицидального контента в сети являются большой объем материалов для мониторинга, «тайный» язык (общение с помощью метафорических хештегов и особого сленга), закрытый характер групп, посвященных суицидам, «замусоренность» смыслового поля (выражения типа «убей себя об стену», «выпей яду» и т. д., ставшие «общим местом» несерьезной интернет-коммуникации).

Глава Лиги безопасного интернета Денис Давыдов уверен, что если создавать систему мониторинга контента суицидальной направленности, то она должна быть в распоряжении администрации соцсети. По его мнению, система должна осуществлять мониторинг в автоматизированном режиме, в случае обнаружения подозрительного контента он должен маркироваться, затем — проверяться вручную. Если факт подтверждается, нужно блокировать и контент, и автора. Если он восстанавливается под новым именем и продолжает, нужно о нем сообщать в надзорные органы.


Выбор редакции


Еда