ЗДОРОВЬЕ и ИНТЕЛЛЕКТ
ИИ представляет экзистенциальную угрозу – просто не так, как вы думаете
Некоторые опасаются, что искусственный интеллект будет угрожать выживанию человечества. Но экзистенциальный риск носит скорее философский, чем апокалиптический характер.
/img/Js/9Hu/fLzq/9hYYMd83AmdZ1/QIdM6IU5kH/05oDdwW5vcnrYzub.png)
Появление ChatGPT и подобных систем искусственного интеллекта сопровождалось резким ростом беспокойства по поводу ИИ. В течение последних нескольких месяцев руководители компаний и исследователи в области безопасности ИИ предлагали прогнозы, получившие название "P (doom)", о вероятности того, что ИИ приведёт к крупномасштабной катастрофе.
Беспокойство достигло пика в мае 2023 года, когда некоммерческая исследовательская и правозащитная организация Center for AI Safety опубликовала заявление из одного предложения: "Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война". Заявление подписали многие ключевые игроки в этой области, включая руководителей OpenAI, Google и Anthropic, а также двух так называемых "крестных отцов" ИИ: Джеффри Хинтона и Йошуа Бенгио.
Вы можете спросить, как должны проявляться такие экзистенциальные страхи. Одним из известных сценариев является мысленный эксперимент "максимизатор скрепок", сформулированный оксфордским философом Ником Бостром. Идея заключается в том, что система искусственного интеллекта, которой поручено производить как можно больше скрепок, может пойти на чрезвычайные меры в поисках сырья, например, разрушить фабрики и вызвать автомобильные аварии.
В менее ресурсоемком варианте ИИ поручено бронировать столик в популярном ресторане, отключая сотовые сети и светофоры, чтобы помешать другим посетителям занять столик.
Канцелярские принадлежности или ужин, основная идея одна и та же: ИИ быстро превращается в инопланетный разум, способный достигать целей, но опасный, потому что он не обязательно соответствует моральным ценностям своих создателей. И в своей самой экстремальной версии этот аргумент превращается в явную тревогу по поводу того, что ИИ поработит или уничтожит человеческую расу.
Реальный вред
В последние несколько лет мы с коллегами из Центра прикладной этики UMassв Бостоне изучали влияние взаимодействия с ИИ на понимание людьми самих себя, и я считаю, что эти катастрофические опасения раздуты и направлены не туда.
Да, способность ИИ создавать убедительные дипфейк видео (англ. deepfake от deep learning «глубинное обучение» + fake «подделка») и аудио пугает, и ею могут злоупотреблять люди с дурными намерениями. На фактически, это уже происходит: российские граждане (Вован и Лексус)*, пытались поставить в неловкое положение критика Кремля Билла Браудера, когда он поддался обману во время разговора с аватаром бывшего президента Украины Петра Порошенко. Киберпреступники используют клонирование голоса с помощью искусственного интеллекта для совершения различных преступлений – от высокотехнологичных краж до обычных афёр.
*Новостьоб этом, полное оригинальное видео. – прим. ред.
Системы принятия решений ИИ, которые предлагают одобрение кредита и рекомендации по найму, несут в себе риск алгоритмической предвзятости, поскольку данные обучения и модели принятия решений, на которых они основаны, отражают давние социальные предрассудки.
Это большие проблемы, и они требуют внимания политиков. Но они существуют уже некоторое время, и вряд ли носят катастрофический характер.
Не в одной лиге
В заявлении Центра безопасности искусственного интеллекта ИИ ставится в один ряд с пандемиями и ядерным оружием как основным риском для цивилизации. С таким сравнением возникают проблемы. COVID-19 привёл к почти 7 миллионам смертей во всем мире, вызвалмассовый и продолжающийся кризис психического здоровья и создал экономические проблемы, включая хронический дефицит в цепочке поставок и стремительную инфляцию.
Ядерное оружие, вероятно, убило более 200 000 человекв Хиросиме и Нагасаки в 1945 году, унесло ещё много жизней от рака в последующие годы, породило десятилетия глубокой тревоги во время холодной войны и поставило мир на грань уничтожения во время Карибского кризиса в 1962 году. Они также изменили оценки национальных лидеров относительно того, как реагировать на международную агрессию.
ИИ просто далек от того, чтобы обладать способностью наносить такой ущерб. Сценарий со скрепкой и другие подобные ему – научная фантастика.
Существующие приложения ИИ выполняют конкретные задачи, а не выносят обширных суждений. Технология далека от того, чтобы принимать решения, а затем планировать цели и второстепенные задачи, необходимые для перекрытия дорожного движения, чтобы обеспечить вам место в ресторане, или взрыва автомобильного завода, чтобы удовлетворить ваш зуд по поводу скрепок.
Технологии не только не хватает сложной способности к многоуровневому суждению, которая задействована в этих сценариях, но у неё также нет автономного доступа к достаточному количеству частей нашей критической инфраструктуры, чтобы быть способной наносить подобный ущерб.
Что значит быть человеком
Фактически, использование ИИ сопряжено с экзистенциальной опасностью, но этот риск экзистенциальный в философском, а не апокалиптическом смысле. ИИ в его нынешней форме может изменить представление людей о самих себе. Он может привести к упадку профессиональных качеств и уменьшению опыта, которые люди считают необходимыми для того, чтобы быть людьми.
Например, люди являются существами, принимающими решения. Люди рационально взвешивают детали и ежедневно принимают решения на работе и в свободное время о том, кого нанять, кому следует предоставить кредит, что просмотреть и так далее. Но всё больше и больше таких оценочных суждений автоматизируется и передаётся на откуп алгоритмам. Когда это произойдет, конец света не наступит. Но люди постепенно утратят способность самостоятельно выносить подобные суждения. Чем меньше таких суждений люди делают, тем хуже они будут их делать.
Или подумайте о роли случая в жизни людей.
Люди ценят случайные встречи: случайно натыкаются на место, человека или деятельность, оказываются втянутыми в это и ретроспективно оценивают роль, которую случай сыграл в этих значимых находках. Но роль алгоритмических систем рекомендаций заключается в том, чтобы уменьшить такого рода серендипности* и заменить её планированием и предсказанием.
*способность находить ценные или приятные вещи, которые не ищешь – прим. ред.
Наконец, рассмотрим возможности ChatGPT по написанию текстов. Технология находится в процессе устранения роли письменных заданий в высшем образовании. Если это произойдет, преподаватели потеряют ключевой инструмент для обучения студентов критическому мышлению.
Не мёртв, но истощился
Итак, нет, ИИ не разрушит мир. Но всё более некритичное отношение к нему в различных узких контекстах означает постепенную эрозию некоторых из наиболее важных человеческих навыков. Алгоритмы уже подрывают способность людей выносить суждения, наслаждаться случайными встречами и оттачивать критическое мышление.
Человеческий вид переживёт такие потери. Но наш способ существования в процессе будет обеднён. Фантастические опасения по поводу грядущего катаклизма искусственного интеллекта, сингулярности, Скайнета или как бы вы об этом ни думали, заслоняют эти не явные издержки.
Вспомните знаменитые заключительные строки Т.С. Элиота из "Полых людей": "Вот так закончится мир, – писал он, – хныканьем, а не взрывом".
перевод, редактура и адаптация Дмитрий Бобров