Искусственный интеллект обладает огромной силой менять наш образ жизни как в хорошем, так и в опасном смысле. У экспертов мало уверенности в том, что власть имущие готовы к тому, что грядет, пишет Би-би-си.
Еще в 2019 году некоммерческая исследовательская группа OpenAI создала программу, которая могла генерировать абзацы связного текста и выполнять элементарное понимание и анализ прочитанного без специальных инструкций.
Первоначально OpenAI решил не делать свое творение под названием GPT-2 полностью доступным для общественности из-за опасений, что люди со злым умыслом могут использовать его для создания огромного количества дезинформации и пропаганды. В пресс-релизе, объявляющем о своем решении, группа назвала программу «слишком опасной».
Перенесемся на три года вперед, и возможности искусственного интеллекта выросли в геометрической прогрессии.
В отличие от последнего ограниченного распространения, следующее предложение, GPT-3, стало доступно в ноябре. Интерфейс Chatbot-GPT, полученный из этого программирования, был службой, которая запустила тысячу новостных статей и сообщений в социальных сетях, поскольку репортеры и эксперты проверяли его возможности — часто с сногсшибательными результатами.
Chatbot-GPT написал сценарий стендапа в стиле покойного комика Джорджа Карлина о банкротстве банка Кремниевой долины. Он высказал мнение о христианском богословии. Оно писало стихи. Он объяснял ребенку квантовую физику так, как если бы это был рэпер Снуп Догг. Другие модели искусственного интеллекта, такие как Dall-E, генерировали настолько убедительные визуальные эффекты, что вызвали споры по поводу их размещения на арт-сайтах.
Машины, по крайней мере, невооруженным глазом, достигли творчества.
Во вторник OpenAI представила последнюю версию своей программы GPT-4, которая, по ее словам, имеет жесткие ограничения на неправомерное использование. Первыми клиентами являются Microsoft, Merrill Lynch и правительство Исландии. А на конференции South by Southwest Interactive в Остине, штат Техас, на этой неделе — глобальном собрании технических политиков, инвесторов и руководителей — самой горячей темой для разговора был потенциал и мощь программ искусственного интеллекта.
Арати Прабхакар, директор Управления научно-технической политики Белого дома, говорит, что она в восторге от возможностей ИИ, но у нее также есть предупреждение.
«То, что мы все наблюдаем, — это появление этой чрезвычайно мощной технологии. Это переломный момент», — сказала она аудитории на конференции. «Вся история показывает, что такого рода мощные новые технологии могут и будут использоваться как во благо, так и во зло».
Ее соучастник, Остин Карсон, был немного более прямолинеен.
«Если через шесть месяцев вы не сойдете с ума (ругательство), то я угощу вас ужином», — заявил аудитории основатель SeedAI, консультативной группы по политике в области искусственного интеллекта.
«В шоке» — это один из способов выразить это. Эми Уэбб, глава Института будущего сегодня и профессор бизнеса Нью-Йоркского университета, попыталась количественно оценить потенциальные результаты в своей презентации SXSW. Она сказала, что искусственный интеллект может развиваться в одном из двух направлений в течение следующих 10 лет.
В оптимистичном сценарии развитие ИИ сосредоточено на общем благе, с прозрачностью в конструкции системы ИИ и возможностью для отдельных лиц выбирать, включена ли их общедоступная информация в Интернете в базу знаний ИИ. Эта технология служит инструментом, который делает жизнь проще и удобнее, поскольку функции искусственного интеллекта в потребительских товарах могут предвидеть потребности пользователей и помочь выполнить практически любую задачу.
Катастрофический сценарий г-жи Уэбб предполагает меньшую конфиденциальность данных, большую централизацию власти в руках нескольких компаний и искусственный интеллект, который предвосхищает потребности пользователей — и понимает их неправильно или, по крайней мере, ограничивает выбор.
Она дает оптимистичному сценарию только 20% шансов.
Как сказала г-жа Уэбб в интервью Би-би-си, направление, в котором будет развиваться технология, в конечном счете во многом зависит от ответственности, с которой компании будут ее разрабатывать. Делают ли они это прозрачно, раскрывая и контролируя источники, из которых чат-боты — которые ученые называют моделями больших языков — черпают информацию?
Другой фактор, по ее словам, заключается в том, смогут ли правительство — федеральные регулирующие органы и Конгресс — быстро принять меры для установления правовых барьеров, чтобы направлять технологические разработки и предотвращать их неправомерное использование.
В этом отношении показателен опыт правительства с социальными сетями – Facebook, Twitter, Google и т.п. И опыт не обнадеживает.
«Во многих разговорах я слышала озабоченность по поводу отсутствия ограждений, — говорит Мелани Субин, управляющий директор Future Today Institute, о своем пребывании в South by Southwest. «Есть ощущение, что нужно что-то делать. И я думаю, что социальные сети как поучительная история — это то, что приходит в голову людям, когда они видят, как быстро развивается генеративный ИИ».
Федеральный надзор за социальными медиа-компаниями в значительной степени основан на Законе о приличии в коммуникациях, принятом Конгрессом в 1996 году, и коротком, но действенном положении, содержащемся в разделе 230 закона. Этот язык защищал интернет-компании от ответственности за пользовательский контент на их веб-сайтах. Ему приписывают создание правовой среды, в которой могут процветать компании, работающие в социальных сетях. Но в последнее время его также обвиняют в том, что он позволил этим интернет-компаниям получить слишком большую власть и влияние.
Политики справа жалуются, что это позволило гуглам и фейсбукам всего мира осуждать или уменьшать видимость консервативных мнений. Левые обвиняют компании в том, что они недостаточно делают для предотвращения распространения разжигания ненависти и угроз насилием.
«У нас есть возможность и ответственность признать, что ненавистническая риторика ведет к ненавистническим действиям», — заявила госсекретарь штата Мичиган Джоселин Бенсон. В декабре 2020 года ее дом стал объектом протеста вооруженных сторонников Дональда Трампа, организованных в Facebook, которые оспаривали результаты президентских выборов 2020 года.
Она поддержала закон о мошенничестве в Мичигане, согласно которому компании, работающие в социальных сетях, будут нести ответственность за сознательное распространение вредоносной информации. Аналогичные предложения поступали как на федеральном уровне, так и в других штатах, наряду с законодательством, требующим, чтобы сайты социальных сетей обеспечивали большую защиту несовершеннолетних пользователей, были более открытыми в отношении своей политики модерации контента и предпринимали более активные шаги по сокращению домогательств в Интернете.
Джоселин Бенсон, госсекретарь Мичигана, высказалась в поддержку регулирования крупных технологий для борьбы с ненавистной риторикой.
Однако мнения относительно шансов на успех такой реформы неоднозначны. У крупных технологических компаний есть целые группы лоббистов в Вашингтоне и столицах штатов, а также солидная казна, с помощью которой можно влиять на политиков посредством пожертвований на избирательные кампании.
«Несмотря на многочисленные свидетельства проблем с Facebook и другими социальными сетями, прошло уже 25 лет, — говорит технический журналист Кара Суишер. «Мы ждали какого-либо закона от Конгресса для защиты потребителей, и они сняли с себя свою ответственность».
Опасность, по словам Свишера, заключается в том, что многие компании, которые были крупными игроками в социальных сетях — Facebook, Google, Amazon, Apple и Microsoft — теперь являются лидерами в области искусственного интеллекта. И если Конгресс не смог успешно регулировать социальные сети, ему будет сложно быстро принять меры для решения проблем, связанных с тем, что Свишер называет «гонкой вооружений» искусственного интеллекта.
Сравнения между регулированием искусственного интеллекта и социальными сетями также не являются чисто академическими. Новая технология искусственного интеллекта может взять и без того неспокойные воды таких веб-сайтов, как Facebook, YouTube и Twitter, и превратить их в кипящее море дезинформации, поскольку становится все труднее отделить сообщения реальных людей от поддельных, но вполне правдоподобных учетных записей, созданных искусственным интеллектом.
Даже если правительству удастся ввести новые правила в отношении социальных сетей, они могут оказаться бессмысленными перед лицом потока вредоносного контента, созданного ИИ.
Среди бесчисленных панелей на South by Southwest была одна под названием «Как Конгресс строит политику в области ИИ с нуля». Примерно через 15 минут ожидания аудитории сообщили, что панель отменена, потому что участники отправились не в то место.
Для тех, кто на конференции надеялся на признаки компетентности людей в правительстве, это не было обнадеживающим событием.