Философ и специалист по риску глобальных катастроф Эмиль Торрес предупредил, что человечество стоит на пороге изобретения искусственного интеллекта, который нас и уничтожит. Об этом пишут СМИ.
Эксперт в своей колонке в Washington Post отметил, что произойдёт это не по лекалу голливудских фантастических блокбастеров: речь идёт не о коварных роботах, которые уничтожат или поработят своих создателей, а о банальном человеческом недосмотре.
По оценкам экспертов в области искусственного интеллекта, есть большая вероятность, что к 2050 году человечество создаст машину, которая будет сравнима по возможностям с человеком. Торрес утверждает, что мы гораздо ближе к этому, чем кажется: современные искусственные интеллекты уже научились играть в шахматы и в покер лучше, чем самые именитые игроки на планете.
Эксперт утверждает, что в скором времени подобные алгоритмы начнут развивать общий уровень интеллекта и смогут решать задачи в разных областях: один и тот же алгоритм будет исполнять роль не только гроссмейстера, но вместе с тем и писателя, и композитора, и даже водителя транспорта на оживлённых городских улицах.
Создание такого искусственного суперинтеллекта (ИСИ) приведёт к тому, что машина сможет не просто заменить человека, но и быстро превзойдёт даже самых гениальных специалистов. Торрес утверждает, что изобретение подобного ИСИ станет настоящим переломным моментом в жизни человечества: мы впервые столкнёмся с чем-то умнее нас. ИСИ сможет наконец найти лекарство для рака или болезни Альцгеймера и даже спасти нашу планету от загрязнения.
Однако, аргументирует Торрес, с такой же вероятностью компьютерный супергений может нас и уничтожить. Если ИСИ будет во всех смыслах умнее людей, то как человечество сможет предсказать результаты его действий? Мышление подобного интеллекта может кардинально отличаться от нашего: даже современные искусственные интеллекты в специально сделанных для них играх находят такие лазейки, которые никто из разработчиков не мог и предположить.
«Если мы не можем предсказать, как алгоритм поведёт себя во время аналога детской игры в прятки, как мы можем быть уверены в действиях машины, чьи навыки решения проблем многократно превосходят человеческие? Допустим, мы дали задачу ИСИ устроить мир на всей земле, и он после этого решает ударить всем ядерным оружием по планете — если истребить всех людей, то и вероятность войны исключена. Мы можем специально запретить ИСИ действовать подобным образом, но что насчёт его запасных планов?» — задаётся вопросом Торрес.
Для любой проблемы глобального уровня можно найти уйму подобных «решений» с катастрофическими последствиями. Выключить же такой интеллект будет просто невозможно: любой алгоритм сразу же поймёт, что для выполнения поставленных задач он в первую очередь должен продолжать существовать и работать. Логически следует, что он сделает всё возможное, чтобы обеспечить своё дальнейшее существование, считает эксперт.
По словам Торреса, мы пока явно не готовы сосуществовать с такими ИСИ и по этой причине разработки в области искусственного интеллекта следует либо притормозить, либо отменить вообще. Если учёные не готовы принять такое решение, то тут должно вступить государство.
«Многие из этих учёных категорически отрицают, что продвинутый искусственный интеллект вообще может быть опасен. Они могут быть правы: ИСИ может оказаться совершенно безобидным или более того — вообще невозможным. В конце концов, я не умею предсказывать будущее. Проблема в том, что эти учёные тоже этого не умеют», — подводит итог Торрес.