Ученые нашли доказательства того, что ИИ может думать, как человек

Искусственный интеллект способен формировать представления об объектах, схожие с теми, что возникают в человеческом мозге, — к такому выводу пришли китайские учёные. Они выяснили, что мультимодальные большие языковые модели могут спонтанно развивать систему понятий, отражающую не только физические характеристики предметов, но и их смысловое и культурное значение — как это делает человек.

Люди могут концептуализировать объекты окружающего мира. Когда мы видим «собаку», «машину» или «яблоко», мы не только распознаем их физические характеристики (размер, цвет, форму), но и понимаем их функции, эмоциональную ценность и культурное значение. Именно такие многомерные концептуальные представления служат краеугольным камнем нашего познания. В последние годы, на фоне бурного развития больших языковых моделей (БЯМ), возник вопрос: способны ли эти модели формировать представления о концептах объектов, подобные человеческим, опираясь лишь на языковые и мультимодальные данные?

Исследования в области искусственного интеллекта в основном сосредоточены на точности распознавания объектов. Однако они редко касаются вопроса, действительно ли модели «понимают» значение этих объектов. Современный ИИ способен различать изображения кошек и собак, но фундаментальная разница между таким «распознаванием» и человеческим «пониманием» неясна.

Команда объединила поведенческие эксперименты и нейровизуализацию, чтобы понять, как большие языковые модели представляют объекты и насколько эти представления похожи на человеческое мышление. Для этого они собрали 4,7 млн оценок триплетов (сравнений групп по три объекта) от обычных и мультимодальных языковых моделей. На их основе были созданы компактные 66-мерные векторы, которые отражают сходство между 1854 естественными объектами.

Полученные векторы оказались устойчивыми и точно отражали взаимосвязи между объектами, формируя семантические группы, удивительно схожие с теми, что возникают в человеческом мышлении. Эти базовые измерения поддаются интерпретации, а это значит, что большие языковые модели развивают концептуальные представления об объектах, аналогичные человеческим.
Затем команда сравнила, насколько последовательно в своих решениях действуют большие языковые модели и люди. Оказалось, что БЯМ показали бóльшую последовательность. При этом исследование выявило ключевое различие: люди, принимая решения, склонны объединять визуальные характеристики с их смысловым значением, тогда как БЯМ больше полагаются на абстрактные понятия и семантические метки.

Таким образом, большие языковые модели — это вовсе не «попугаи», которые лишь имитируют речь. Они обладают внутренним пониманием концепций реального мира, очень похожим на человеческое. Главный вывод в том, что, хотя «мыслительный процесс» приводит ИИ и человека к схожим когнитивным результатам, пути достижения этих результатов различаются.

Поделитесь новостью