scala Posted July 15, 2021 Report Share Posted July 15, 2021 TikTok будет использовать автоматизацию для обнаружения и удаления видео, на которых присутствуют изображения обнаженных тел и сцен насилия Алгоритмы будут искать контент, который нарушает политику в области безопасности несовершеннолетних. Речь идет в том числе о сценах насилия, изображений наготы, секса, контента с пропагандой незаконной деятельности и запрещенных товаров. При обнаружении нарушений система в тот же момент удалит видео. Разместивший такой контент пользователь сможет подать апелляцию. TikTok тестировал и настраивал системы для поиска и удаления нарушающего политику контента соцсети в течение 2020 года. Автоматический режим начнет работать в США и Канаде в ближайшие несколько недель. В TikTok сообщили, что только один случай из 20 автоматических удалений был произведен по ошибке. Компания надеется повысить уровень точности алгоритмов и отмечает, что «запросы на обжалование удаления видео остались неизменными». Автоматизация должна освободить время сотрудников службы безопасности TikTok, и они смогут сосредоточиться на контенте, требующем более тонкого подхода — например, видео, содержащие запугивание, преследование, дезинформацию, вражду. Введение алгоритмов особенно важно, поскольку сотрудники службы безопасности смогут смотреть меньше потенциально тревожных видеороликов — например, содержащих сцены жестокого насилия или эксплуатации детей. Engadget отмечает, что Facebook обвиняют в том, что компания делает недостаточно для защиты психического здоровья модераторов контента, которым приходится просматривать тревожный контент. Quote Link to comment Share on other sites More sharing options...
Recommended Posts