В последние годы искусственный интеллект стал проникать во все сферы нашей жизни. От чат-ботов, таких как ChatGPT, до участия в создании музыкальных треков для престижных музыкальных наград.
Недавнее исследование Университета Южной Флориды показало, что текстовый контент, созданный ИИ, больше не отличается от контента, написанного людьми. Авторы исследования пригласили к участию в проекте некоторых экспертов-лингвистов из ведущих лингвистических журналов мира, но даже таким профессионалам было сложно идентифицировать контент, написанный ИИ. В целом они правильно различили только 39% случаев.
Мэтью Кесслер, ученый кафедры мировых языков Университета Южной Флориды, объединился с Дж. Эллиотом Кассаром, доцентом прикладной лингвистики Университета Мемфиса, чтобы попросить 72 лингвистических эксперта рассмотреть серию исследований. рефераты и определить, какие из них были написаны людьми, а какие созданы ИИ. В частности, каждый участвовавший эксперт должен был изучить четыре образца письма. В результате ни один эксперт не смог правильно идентифицировать все четыре образца, а 13% экспертов дали неправильные ответы.
На основании этих результатов авторам исследования пришлось прийти к выводу, что большинство современных профессоров не способны отличить контент, написанный самими студентами, от контента, созданного ИИ. Исследователи предполагают, что в ближайшем будущем, возможно, потребуется разработать программное обеспечение, которое поможет профессорам идентифицировать контент, написанный ИИ.
Эксперты-лингвисты пытаются судить об образцах письменности по ряду причин, например, по выявлению определенных лингвистических и стилистических особенностей. Однако в конечном итоге эти методы по сути потерпели неудачу, в результате чего общий процент правильного распознавания составил всего 38,9%.
В целом и Кесслер, и Касал пришли к выводу, что чат-боты, такие как ChatGPT, действительно могут писать короткие статьи так же хорошо (а в некоторых случаях лучше), чем большинство людей. ИИ обычно не допускает грамматических ошибок. Однако авторы исследования отмечают, что когда дело доходит до длинного письма, люди по-прежнему имеют преимущество.
«Было показано, что для длинного текста ИИ создает галлюцинации и вымышленный контент, что облегчает идентификацию того, что он был создан ИИ», — заключил Кесслер.
Кесслер надеется, что эта работа будет стимулировать дискуссию о срочной необходимости установления четкой этики и руководящих принципов при использовании ИИ в исследованиях и образовании. Исследование было опубликовано в журнале Applied Linguistics Research Methods .