ИИ-модель, обученная на сотнях тысяч примеров, выявляет токсичные комментарии и временно ограничивает их авторов от публикаций от часа до суток, в зависимости от частоты оскорблений. Результаты исследования показали, что негативные комментарии вызывают недовольство у большинства пользователей.
Директор по продукту «Одноклассников» отметил, что значительное количество жалоб на платформе связано с токсичными комментариями. Он также упомянул, что новый инструмент сокращает время обработки жалоб на токсичные сообщения в три раза.
Ранее «Одноклассники» боролись с неприемлемым контентом с помощью автоматического обнаружения нецензурных слов и размытия эротических изображений. Соцсеть активно использует машинное обучение для модерации контента, ограничивая нежелательный и неприемлемый материал, включая информацию для аудитории 18+.
Стремление «Одноклассников» к созданию безопасного пространства для общения помогло вернуть пользователей на платформу и привлечь новых. В 2023 году была запущена еще одна ИИ-модель для предотвращения навязчивых знакомств и нежелательных сообщений.
Источник: lenta.ru