Европол выразил обеспокоенность по поводу возможного преступного использования больших языковых моделей на базе искусственного интеллекта, в том числе ChatGPT. В полицейской службе выделили три основных направления, где могут быть использованы такие нейросети: фишинг, дезинформация и распространение пропаганды, а также киберпреступность.
Европол утверждает, что возможность создавать очень реалистичный текст делает большие языковые модели полезным инструментом для целей фишинга, выманивания персональных данных у пользователей.
Кроме того, способность таких нейросетей быстро создавать достоверные тексты делает их идеальным инструментом для пропаганды и дезинформации. Еще одним направлением, где большие языковые модели могут быть использованы в преступных целях, является киберпреступность.
Злоумышленники могут использовать нейросеть для создания вредоносных кодов даже при небольших технических знаниях. В Европоле отмечают, что возможности больших языковых моделей продолжают активно улучшаться, что может усугубить ситуацию в будущем. Поэтому полицейская служба рекомендует компаниям и государственным учреждениям обеспечивать высокий уровень кибербезопасности и следить за возможными преступными действиями, использующими такие нейросети.