— При разговоре о внедрении новейших технологий в самые различные области жизни неизбежно возникают вопросы морально-этического характера. Например, система интеллектуального видеонаблюдения, скорее всего, встретит возражения. Как будущее законодательство должно учитывать эти вопросы?
— Это серьезная проблема, потому что тут невозможен компромисс, сейчас я объясню, почему. Например: с 2014 года в России действует система ФИС ГИА, в ней публикуются результаты ГИА и ЕГЭ, на основе которых абитуриенты в дальнейшем поступают в вузы.
Поскольку результаты ГИА и ЕГЭ содержат персональную информацию, школьники или их представители должны дать согласие на обработку персональных данных. Согласие можно и не давать, но тогда результаты будут отсутствовать в системе, а значит, вузы не смогут отобрать абитуриентов, те не смогут поступить, тем самым нарушится их конституционное право на образование.
Я не буду пересказывать, как пытались решить данную проблему, скажу только, что ее решили де-юре, но не фактически. Таким образом, получается три варианта. Первый — не использовать новые технологии, что, по сути, иррационально. Второй — пытаться придать данным правовым нормам диспозитивный характер, либо оставить использование тех же систем интеллектуального видеонаблюдения в «серой правовой зоне». Это, в свою очередь, приведет к снижению эффективности и негативным последствиям из-за правовых казусов, как в случае ФИС ГИА, либо к злоупотреблению возможностями новых технологий, что снизит эффективность всех нововведений. Третий — использовать императивный подход, в котором четко будет указано, как и зачем используются данные технологии. При этом данные нормы, конечно, не должны противоречить действующим положениям Конституции, тем не менее многое будет зависеть не от правовых норм, а от практики использования.
Мало кому понравится, если за ним будут круглосуточно наблюдать, но если люди увидят, что система эффективна, целесообразна, направлена на обеспечение безопасности, и все попытки злоупотребления пресекаются представителями исполнительной и судебной власти, тогда граждане смогут принять систему интеллектуального видеонаблюдения и подобные ей технологии.
— В некоторых странах в работу правоохранителей уже введены элементы инновационных технологий. Например, не так давно появились новости об «умных очках» у китайской полиции, в которые вшита базы данных с именами и адресами людей. Есть еще удачные или неудачные примеры использования технологий в правовой сфере в мире?
— Да, примеров очень много. Кроме «умных очков», в Китае действует «система социального кредита». По сути, это система перманентного корректирования общественного поведения, Она работает следующим образом: в Китае уже давно существуют централизованная система сбора данных о граждан, она определяет «рейтинг социальной надежности» конкретного гражданина КНР и на его основе принимает положительные или отрицательные санкции в отношении данного человека. Например, если человек нарушил правила дорожного движения или некорректно себя вел в общественном месте, его рейтинг падает, и его не возьмут на работу в государственное учреждение.
Если же гражданин ведет общественно полезный образ жизни, участвует в субботниках, иных акциях – социальный рейтинг растет, и человеку предоставляются льготы, скидки и т.д. Но я бы не стал относить эту систему к удачным примерам использования новых технологий, поскольку это — тотальный контроль над гражданами страны.
А вот удачным примером можно считать программы компании Palantir и их аналоги. Они заняты анализом данных и прогнозированием криминогенного поведения, используются американскими правоохранительными органами при расследовании преступлений. Другой положительный пример — это так называемые «судьи с искусственным интеллектом».
Использование термина «искусственный интеллект», конечно, преждевременно, но программы анализируют данные и рекомендуют вердикт, который судья должен вынести исходя из имеющихся материалов дела. Чаще всего судьи соглашаются с рекомендациями программ. Но есть и неудачный опыт внедрения: когда один банк решил заменить юристов ботами для осуществления простейших операций, он потерял миллиарды рублей недополученной прибыли. Но все же надо понимать, что неудачные примеры – это результат некорректного внедрения или неоптимизированного использования новых технологий.
— В этом году вы заканчиваете бакалавриат. Планируете ли идти в магистратуру и затем в аспирантуру? Если да, то какую тему собираетесь исследовать?
— Да, я планирую идти в магистратуру, а вот насчет аспирантуры еще в раздумьях. Все так же планирую заниматься правовым обеспечением использования новых технологий, поскольку эта тема весьма обширна и включает не только цифровые технологии, но и биотехнологии, и многое другое.
— Какой совет вы бы дали молодым ученым?
— У меня самого пока небольшой опыт, но все же: чем бы вы ни занимались — гуманитарной или естественной наукой, написанием научно-исследовательской работы или обычной курсовой, — вы всегда должны задавать себе два вопроса: «Что именно я делаю?» и «Зачем я это делаю?». Если на эти вопросы есть четкий ответ, работа выполнятся сама собой.