Защитные меры Facebook могут подтолкнуть к самоубийствам

использует искусственный интеллект (ИИ), который выявляет суицидальные склонности пользователей и направляет к ним аварийные службы. Психиатр из Гарвардского университета считает, что ошибки в работе ИИ могут спровоцировать пользователей на самоубийства, пишет Inc.

Компания разработала ИИ для поиска суицидальных постов и трансляций после запуска функции видеостриминга Live. С началом работы стриминг-сервиса пользователи начали использовать платформу для публичной трансляции самоубийств.

Тогда разработал алгоритм, который отслеживает суицидальные материалы и высылает пользователю аварийную службу. ИИ сканирует изображение и текст, в том числе комментарии. Если алгоритм выявит намерение пользователя совершить самоубийство, он сначала отправит материал модератору, а тот — специально обученному сотруднику, которому поручено уведомлять аварийные службы. С 2017 по осень 2018 года службу направили 3,5 тыс. раз.

Психиатр из Гарвардского университета Джон Торус считает, что такой алгоритм может препятствовать откровенным дискуссиям о психическом здоровье на Facebook, обострять психические заболевания и навредить даже здоровому человеку. Торус изучил 64 модели прогнозирования самоубийств. По его данным, ни одна из них не способна точно предсказать попытку суицида. « использует алгоритм, но мы на самом деле не знаем, точно ли он работает, отмечает ли он правильных людей и не делает ли это слишком рано или слишком поздно», — сказал психиатр Business Insider.

Компания запустила Live в 2015 году. С тех пор известно как минимум о двух пользователях, которые устроили видеотрансляцию своей смерти: 14-летняя Накия Венант и 33-летний Джовони Маклендон — оба из США. В 2017 году Business Insider сообщал, что самые результаты поиска при вводе « Live» — это «Facebook Live Killing» и «Facebook Live Death».

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Поделиться