В 2023 году мир почувствует новое бедствие: что-то вроде пандемии, но это не иммунная система калечит легкие… Это пандемия неразличимости правды и лжи, как для отдельных людей, так и для обществ всех вид шкалы. По словам одного из самых авторитетных в мире китайских специалистов по искусственному интеллекту (ИИ) Кай-Фу Ли, работавшего в ведущих мировых ИТ-компаниях, осознание этого риска более вероятно, чем ядерная война или голод, которыми регулярно пугает население всего Земного шара. Об этом сообщают СМИ.
По словам Кай-Фу Ли, обратившегося к своим коллегам, разработчикам искусственного интеллекта, мир стоит на краю пропасти, из которой мы летим в бездну неуправляемой обычными людьми лжи, льющейся из компьютеров и телеэкранов.
Вот представьте, телезвезды, которым вы очень доверяли, вдруг заговорили… не совсем наоборот, но вы вдруг заметили некий «левый» или «правой» уклон в их речах. Пример: Известный ведущий патриотического шоу, борец за традиционные ценности, вдруг заявляет, что помирился с идеологическими врагами и призывает массы своих поклонников следовать за ним. Да, многие сразу «взбесятся» или решат, что их кумир сошел с ума. Но мало кто заподозрит, что человек, который ведет им трансляцию с компьютера или телевизора, не является их кумиром, а всего лишь его ботом. Дипфейк — это реалистичная замена видеокадров, созданных с помощью нейросети. Такой же заменой может стать фото и аудио материал.
Кай-Фу Ли считает, что реализация прогноза о потоках ложного контента от нейросети еще опаснее, чем голод или военных конфликты. С последними на Земле знают, как бороться. А вот потоки ложной информации, неотличимой от правды, активно воспринимаются людьми «за чистую монету».
Нейросеть способна любое утверждение сопроводить ссылками на работы ученых и аргументировать позицию. Причем делает это быстро и качественно, не углубляясь в достоверность используемых материалов.
Дальнейшее внедрение искусственного интеллекта в виде технологии AICG грозит созданием алгоритмической пропаганды. Ведь система учится на множестве данных, не всегда они правдивы. Но отличать правду и ложь алгоритм не умеет. Из-за этого в итоге получается правдоподобный искаженный контент.
«Возьмем, к примеру, версию с плоской землей, — говорит эксперт по информационным технологиям. — Обывателю будет очень сложно написать об этом аргументированный текст с множеством ссылок на «достоверные» источники. ИИ, напротив, ничего не отвергнет и благодаря скоростным возможностям обработки сотен необходимых материалов и предметов выведет любую нужную теорию за несколько часов. Выводов ученых будет мало — он их еще и сфабрикует.
При этом люди все еще быстро теряют критическое мышление. Вместе с правдоподобностью дипфейков и фейкового контента от ИИ это создает взрывоопасную смесь. В Китае даже уже принимают законодательство, обязывающее помечать данные, созданные нейросетью.
Кай-Фу Ли подчеркивает, что мир стремительно идет к ситуации, когда отличить правду от лжи будет практически невозможно. А самое страшное, что даже в теории нет ни одного инструмента, позволяющего сделать это.