YouTube решил использовать больше людей для модерации контента. Из-за пандемии видеосервис стал больше полагаться на алгоритмы, но они оказались чрезмерно строгими цензорами: число заблокированных роликов выросло вдвое, причем не всегда для этого были основания, пишут СМИ.
Как пишет газета Financial Times, перед началом пандемии фильтрацией контента в компании занимались порядка 10 000 человек. Но из-за коронавируса команде пришлось «уйти в офлайн», и тогда сервис стал сильнее полагаться на автоматические системы, расширив их возможности по препятствованию разжиганию розни, жестокости или распространению опасного контента и дезинформации. Но одним из результатов сокращения человеческого надзора за сервисом стал резкий рост числа удаленных видео, существенная часть которых никоим образом не нарушала правила, заявил FT директор по продукту YouTube Нил Мохан. По его словам, во втором квартале года, в апреле-июне, почти 11 млн видео оказались недоступны, а это вдвое больше обычного. «Одним из наших решений [в начале пандемии], когда встал вопрос об алгоритмах, которые не могут быть такими же точными, как люди, стал выбор в пользу обеспечения защиты пользователей, даже если оно могло вылиться в слегка повышенное число заблокированных видео», — отметил Мохан.
Значительно выросла и доля роликов, блокировка которых была отменена после апелляции. Около 160 000 видео снова оказались доступны на сервисе — половина от общего числа заявок, тогда как в прошлые кварталы эта доля была меньше 25%, указала FT.
Но у алгоритмов есть и преимущества — в первую очередь скорость, с которой они реагируют на потенциально вредный контент. Больше половины из 11 млн видео не имели на момент блокировки не имели ни одного просмотра от настоящего пользователя YouTube, а больше 80% удаленных роликов имели меньше 10 просмотров, сообщил Мохан. Алгоритмы способны определить потенциально неприемлемые видео, а дальше в дело вступают люди, которые просматривают помеченные машиной ролики и принимают по ним решения. Люди могут учитывать больше нюансов, особенно когда дело касается дезинформации, травли или высказывания ненависти, считает топ-менеджер.
Из-за протестов против расизма и избирательной кампании в США социальные сети сталкиваются со все большим давлением с требованием лучше управлять своими платформами и следить за неприемлемыми материалами, пишет FT. В частности, YouTube, Facebook и Twitter уже обновили правила и технологии, чтобы остановить растущий поток связанной с выборами дезинформации и помешать провокаторам разжигать расовую рознь и призывать к насилию, считает газета. Провалы на этом направлении могут обернуться в том числе отказом рекламодателей от сотрудничества с платформой: это произошло летом с Facebook, когда несколько крупных брендов отказались размещать рекламу в соцсети.