В связи с этим самым распространенным способом модерации все еще является блокировка нежелательного контента по прямым жалобам пользователей. Однако некоторые соцсети используют алгоритмы для определения враждебности комментария, еще когда пользователь его только пишет — чтобы предотвратить даже его опубликование.
Так, по словам Борисова, в сентябре 2019 года социальная сеть для соседей Nextdoor внедрила «Напоминание о доброте». Когда пользователь собирается опубликовать комментарий, который напоминает записи, отмеченные как непристойные, приложение переводит его обратно в режим редактирования, где ему приводится ссылка на рекомендации по общению в сообществе.
Социальная сеть LinkedIn использует нейросеть для того, чтобы распознавать и удалять целые аккаунты с недопустимым содержанием. Эту нейросеть даже обучали на профилях пользователей, маркированных как «допустимые» и «недопустимые».
Очень много экспериментирует с алгоритмами Facebook, и не всегда эти эксперименты можно назвать удачными. Из-за того, что нейросеть там может сама блокировать нежелательный контент, неоднократно случались громкие казусы вроде блокирования исторических документов или фотографий.
Что касается непосредственно «языка вражды», то тут Facebook старается следовать решениям самих пользователей с помощью инструмента голосования за комментарии и их оценки. Тем не менее и в Facebook, и в Instagram нейросети по-прежнему могут самостоятельно удалять нежелательные комментарии.
Источник:
360