Автономные системы смертельного действия должны быть запрещены. Такова позиция Генерального секретаря ООН Антониу Гутерриша. Он призвал собравшихся в Женеве экспертов в области искусственного интеллекта принять ограничения на разработку роботов-убийц.
Автономные системы смертельного действия должны быть запрещены. Такова позиция Генерального секретаря ООН Антониу Гутерриша. Он призвал собравшихся в Женеве экспертов в области искусственного интеллекта принять ограничения на разработку роботов-убийц.
«Существование и использование машин, которые способны самостоятельно выбирать цель и поражать ее, недопустимы с политической точки зрения и отвратительны – с позиции нравственности. Они должны быть запрещены международным правом», — подчеркнул глава ООН в заявлении, направленном группе правительственных экспертов, собравшихся в Женеве на уже третью встречу, посвященную боевым автономным системам.
Глава ООН подчеркнул, что руководящие принципы, которые эксперты приняли на предыдущей встрече – это важный шаг вперед. По его словам, особенно важно заявление Группы о том, что ответственность за действие автоматических систем должен нести человек, ее нельзя перекладывать на машины. В то же время страны не выработали единого подхода к проблеме: кто-считает, что нужны новые законы, другие предлагают ограничиться политическими мерами и рекомендациями. Антониу Гутерриш призывает пойти дальше: «Ваша задача сейчас заключается в том, чтобы сблизить позиции и найти наиболее эффективное решение. На вас смотрит весь мир, и время не ждет».
Группа экспертов работает в рамках Конвенции 1980 года с довольно длинным названием — «О запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие». Сторонами Конвенции на сегодня являются 125 государств.
В нынешней встрече экспертов – уже третей по счету — примут участие также представители международных организаций, гражданского общества, научного сообщество и производителей оружия.
Глава ООН уже не в первый раз привлекает внимание к опасности боевых роботизированных систем. В ноябре прошлого года на веб-саммите в Лиссабоне он предостерег от использования искусственного интеллекта в военных целях. «Сложно будет предотвратить эскалацию конфликта в случае применения роботов, которые могут самостоятельно принимать решения и исполнять их», — считает Антониу Гутерриш. «Непросто будет и гарантировать соблюдение международного права», — добавил он.