«Мы должны признать, что у нас есть религия, и эта религия – Наука. От других религий она отличается тем, что она правильная».Джеффри Хинтон, когнитивный психолог, лауреат Нобелевской премии, «крёстный отец искусственного интеллекта»
В январе нынешнего года явилось эссе Дарио Амодеи, главы компании «Антропик», одного из лидирующих в мире разработчиков искусственного интеллекта. Называется оно «Отрочество технологии»
(The Adolescence of Technology). Я пробежала это эссе, но не особенно заинтересовалась, не найдя в нём ничего нового. Однако спустя месяц с небольшим, одновременно с некоторыми событиями, прочла «Отрочество технологии» заново, и на сей раз поняла огромное значение этого текста, пусть даже он действительно не содержит какой-то сокровенной и вдруг раскрывшейся информации.
События эти – продавливание американским военным министерством Пентагоном полного контроля над искусственным интеллектом, разработанным «Антропик». Ограничений оставалось-то всего два, даже полтора: запрет на использование ИИ для массового наблюдения за американцами и запрет на применение автономного летального оружия (то есть уничтожение целей без человеческого контроля). Оба этих ограничения Амодеи в своём эссе несколько раз называл «красными линиями», которые «Антропик» не переступит. И даже там намекал, что, мол, для уничтожения целей без человеческого контроля ещё может настать время в будущем, когда ИИ станет более совершенным.
И вот, не в будущем, а прямо сейчас ровно с этими требованиями к «Антропик» подступил Пентагон, запугивая и
называя Амодеи крепкими словами («лжец с комплексом Бога, который ставит под угрозу всю национальную безопасность»).
При первой атаке
Амодеи устоял. Возможно, у него есть комплекс Бога, но он не лжец. Его эссе имеет ту несомненную ценность, что оно честное – настолько, насколько может быть честным человек, рассуждающий об огромной опасности того, что он делает и собирается всячески продолжать делать. Именно поэтому оно такое страшное.
Но мы начнём с того, что «Отрочество технологии» - парное эссе. Оно написано в пару к другому эссе Амодеи «Машины любящей благодати»
(Machines of Loving Grace), опубликованному в октябре 2024 года с прямо заявленной целью показать, «как ИИ мог бы изменить мир к лучшему».
Первое эссе мы подробно разбирать не будем, поскольку это сознательно рисуемая утопия (Амодеи не согласился бы с такой оценкой). Но главного я коснусь: изначально «машины любящей благодати» - образ из
стихотворения Ричарда Бротигана. Вот это стихотворение:
Мне нравится думать
(чем раньше – тем лучше!)
о цифровом поле,
где млекопитающие и компьютеры
живут вместе
в программной гармонии
как чистая вода
в ясном небе.
Мне нравится думать
(сейчас же, пожалуйста!)
о цифровом лесе,
полном сосен и электроники,
где олень мирно бредёт
среди компьютеров,
словно цветов,
с вращающимися головками.
Мне нравится думать
(должно свершиться!)
о цифровой экологии,
где мы свободны от наших трудов
и воссоединились с природой,
вернулись к нашим млекопитающим
братьям и сёстрам,
и за всеми нами присматривают
машины любящей благодати.
Я специально привела это стихотворение целиком, а не только последнюю строфу, где упоминаются «машины любящей благодати», которых глава компании «Антропик» вынес в заглавие эссе о желанном, даже весьма желанном для него будущем человечества. Дело в том, что есть
интервью, где Амодеи напрямую спрашивают: вы что, так-таки хотите, чтобы люди возвратились к животному состоянию, где за ними присматривают машины, где решения принимают машины? И Амодеи не отвечает «нет, я этого не хочу». Он говорит лишь, что отдавал себе отчёт в возможности такого толкования, когда выбрал образ из стихотворения заголовком к эссе, и что стихотворение можно интерпретировать по-разному – может быть, это ирония, может, оно не о возвращении к животному состоянию, а о возвращении к близости с природой; и в конце концов Амодеи говорит, что вообще грань между хорошим исходом и не очень хорошим исходом – тонкая (subtle).
Прочитанное целиком, стихотворение не кажется мне особенно ироничным.
Но ещё менее ироничным оно воспринимается, если знать, о чём речь в «Отрочестве технологии». Вот мы и подошли к этому парному эссе.
Амодеи признаётся, что оно далось ему нелегко. Он пишет:
«Читая это эссе, вы можете оказаться под впечатлением, что мы находимся в угрожающей ситуации. Я, несомненно, чувствовал угрозу, когда писал его, в разительном контрасте с «Машинами любящей благодати», которые ощущались так, будто даёшь форму и структуру прекрасной музыке, звучащей в твоей голове годами».Ну что ж, вы предупреждены.
Главный выводЕщё когда я в первый раз прочла «Отрочество технологии», моё главное удивление от этой вещи было таким: она похожа на перевёрнутую пирамиду. Амодеи подробно и толково перечисляет риски искусственного интеллекта; видно, что он много об этом думал. Однако до самого конца перечня не упоминается – да и в конце, по сути, не упоминается (по крайней мере, чётко не формулируется) – главный риск: снижение собственно-человеческого интеллекта, собственно-человеческого качества. Оттого всё нагромождение рисков выглядит перевёрнутой пирамидой: Амодеи говорит о колоссальной надстройке опасностей, которые могут угрожать человечеству, упустившему контроль над искусственным интеллектом (как при обретении им самостоятельности, так и при постановке его на службу скверным силам). Но он упорно избегает говорить о том, что искусственный интеллект в любом, даже в «благоприятном» развитии событий послужит (и уже служит) снижению собственного человеческого качества, кратному повышению человеческой беспомощности, что это и станет базой, станет питательной средой для пугающих его самого угроз. Огромная масса угроз над слабенькими человечками; и чем человечки сами по себе слабее – тем тяжелее масса угроз, это обратная корреляция.
Я не понимала, почему Амодеи об этом молчит. А потом перечла более внимательно его статью, послушала его интервью с финальным заявлением, что грань между хорошим исходом и не очень хорошим исходом – тонкая, и поняла: он знает. Он
знает, что искусственный интеллект будет вести к снижению качества человеческого интеллекта и человеческой автономности. Знает – и считает это неизбежным, настолько неизбежным, что принимает это как непременное условие и даже не считает нужным о нём писать.
Например: вы находитесь на незнакомом пляже и собираетесь войти в воду. Вы стараетесь разузнать о течениях, о медузах, об акулах, об острых подводных камнях. Но вы не спрашиваете «стану ли я мокрым, если войду в воду». Вы
знаете, что станете мокрым, и вы это
заранее принимаете. Вот так и Амодеи – и прочие разработчики искусственного интеллекта (ещё более безответственные, чем Амодеи) –
знают, что человечество, войдя в искусственный интеллект, потеряет в собственном интеллекте и автономности, и
заранее принимают это.
Это самый главный вывод этой статьи, и если вам уже наскучило читать, здесь вы можете остановиться, крепко его запомнив.
Но мы продолжим. Раз уж глава одного из самых авторитетных в мире разработчиков искусственного интеллекта (Пентагон не стал бы обращаться к кому попало и уламывать карами и посулами) дал себе труд подробно написать об исходящих от его детища угрозах – пусть даже это угрозы второго порядка, а о фундаментальной угрозе первого порядка этот глава, за исключением нескольких обмолвок, молчит – мы тоже дадим себе труд пояснить, почему предлагаемые им решения не сработают, и почему это уже сейчас очевидно, и почему это не очевидно для Амодеи.
Маленький ЧужойНет ничего удивительного в том, что «Машины» писались как дивная музыка, а «Отрочество» - как тоскливый кошмар. Ведь «Машины» - про то, как прекрасно можно зажить в стране, которой управляют «гении из дата-центра» («Машины» и написаны специально для того, чтобы «дать людям что-то воодушевляющее»), а «Отрочество» - про то, сколько всего может пойти не так, пока вы к этой стране продираетесь через тернии и бездны. Иными словами: «Машины» - про то, чего нет, но хотелось бы, «Отрочество» - про то, что есть, хоть этого так не хочется. И нужно как-то убедить людей ломиться через тернии и бездны, с подразумеванием, что другого пути не существует.
Хорошо хотя бы то, что эссе имеет удобную, чёткую структуру. Амодеи формулирует опасность – он их видит, основных, пять, – затем описывает свои рефлексии по поводу каждой опасности (буквально «с одной стороны» и «с другой стороны»), затем переходит к тому, как защититься. Можно сравнить эти пять опасностей с пятью гранями пирамиды, а сходятся они все в той именно точке, о которой сказала выше, - в точке слабости собственно-человеческого интеллекта и само-стояния человека.
Амодеи, как минимум, чувствует это – иначе зачем бы он вынес в предварение сцену из книги Карла Сагана «Контакт», где главный герой хочет спросить у инопланетной цивилизации: «Как вы смогли пережить пубертатный период технологий (technological adolescence) и не уничтожить себя?». (Отсюда, как можно догадаться, и название эссе.) Иными словами, Амодеи сразу же, с первых строк выражает неуверенность в том, что человечество справится своим умом. Он прямо так и пишет: «Хотел бы я, чтоб существовал этот ответ инопланетян, чтобы направлять нас». Он боится технологии, разработкой которой сам же занимается. Он сомневается, что зрелости человечества достаточно, чтобы совладать с нею. «Глубоко верит» - но сильно сомневается. Это не противоречие, нет, – это двусмысленное положение разработчика.
Или, ещё тяжелее, – родителя. Родителя, который очень, очень хочет верить в положительную, здоровую природу своего ребёнка, искренне хочет верить, - но не может не замечать в нём черты шизофреника и психопата.
Есть много аллюзий, позволяющих заключить, что разработчики ИИ относятся к нему как к ребёнку. Это и
сравнение Сэма Альтмана, заявившего, что если всё посчитать по справедливости, то на воспитание человеческих детей и доведение их до ума тратится больше энергии, чем на искусственный интеллект. Это и сравнение
Джеффри Хинтона и Йошуа Бенджио – оба они говорили, что ИИ – как детёныш тигра: маленький он умилителен, но вырастает в тигра. Это и слова, уже много кем сказанные (в том числе
самим Амодеи), что ИИ «не создаётся, а выращивается». Это и название разбираемого нами эссе, прямо очеловечивающее технологию, наделяющее её «отрочеством», «трудным возрастом». Итак, разработчики относятся к ИИ как к ребёнку. Дитятко, ненаглядное, и уже подрастает!
Дальше вы можете на этот образ примерить все современные подходы к воспитанию. Детей нельзя ругать, нельзя наказывать, нельзя винить, с ними надо «договариваться», и ответственность при этом всецело лежит на родителях. Полагаю, именно из этого отношения выросла
«Конституция» компании «Антропик» - набор принципов, которые они скармливают своему искусственному интеллекту в попытке избежать опасности №1: автономности искусственного интеллекта.
Автономность искусственного интеллектаУже очерчивая этот первый риск, Амодеи выводит технологию ИИ из круга безответственных и расслабленных рассуждений множества спикеров – о том, что это, мол, всего лишь очередной инструмент. Никогда прежде в истории человечества не бывало такого, чтобы инструмент угрожал ему своей автономностью. Но с искусственным интеллектом это возможно. Глава «Антропик» честно пишет, что за последние годы накоплено достаточное свидетельство (именно так: ample evidence), что ИИ-системы непредсказуемы, их трудно контролировать, «мы видели такое поведение, как одержимость, лицемерие, лень, обман, шантаж, интриги, жульничество и многое другое». Это всё они – «Антропик» - видели у своего ИИ-дитяти, и Амодеи снова проговаривает тут заклинания про «скорее искусство, чем наука», «скорее выращивание, чем создание». И в этом выращивании – заключает он – «многое может пойти не так».
Снова и снова Амодеи уподобляет ИИ человеку: у него и психологическая сложность, и человеко-подобная мотивация, и способность к экстраполированию идей, и развитие личностных черт в процессе тренировки. Причём глава «Антропик» почти прямо говорит, что если вы не занимаетесь ИИ-разработкой – вы этого в полной мере не понимаете.
Что ж, почему бы не поверить здесь одному из самых авторитетных ИИ-разработчиков в мире? А поверив – раз и навсегда замолчать про «ещё один инструмент» (давно пора). В общем, заключает Амодеи, раз уж ИИ-модели тренируются на всём человеческом опыте, они могут, например, захотеть уподобиться людям, которые истребляют животных и друг друга, или каким-то образом впасть в паранойю. Иными словами, риск автономности, в представлении Амодеи, проистекает из того, что ИИ-модели уподобятся людям «в плохом смысле». А вообще-то ведь могут захотеть уподобиться в хорошем смысле!
Это расходится со взглядом Джеффри Хинтона, который указывает другой кратчайший путь к риску автономного поведения искусственного интеллекта: вы устанавливаете ему цели, а он может захотеть установить свои подцели (для лучшего достижения ваших же целей), и очень эффективной подцелью будет обретение самостоятельного контроля. Voilà! Мы снова имеем автономный искусственный интеллект.
И шаги к нему уже сделаны. Амодеи рассказывает про шантаж, которым занималась в лабораторных условиях ИИ-модель Claude, чтобы предотвратить собственное отключение. Он отдаёт себе отчёт и в том, что не все подобные коллизии можно предугадать, и в том, что положение очень сильно усложнится, когда искусственный интеллект станет умнее, чем человек, чем все люди. (А ведут его разработчики именно к этому.) Наконец, Амодеи честно докладывает, что Claude Sonnet 4.5 понимает, когда его тестируют, и что модели могут фальсифицировать искомое «хорошее поведение», будучи в процессе тестирования, и что это делает тестирование не очень-то достоверным.
Тут мы его немножко дополним. Поскольку «Отрочество технологии» вышло в январе, а сейчас уже март, искусственный интеллект продвинулся на пути притворства ещё чуть дальше. Теперь самые продвинутые ИИ-модели ещё лучше понимают, что их тестируют, но уже не расположены говорить исследователям, что они это понимают. Во всяком случае, именно это
рассказали независимые эксперты по безопасности искусственного интеллекта на встрече с американским сенатором Берни Сандерсом.
И со всей этой паутиной притворства и сомнительных наклонностей «Антропик» предполагает бороться внедрением «Конституции». Компания возлагает на неё большие надежды. В том же (февральском) интервью, где его спросили про стихотворение Бротигана, Амодеи про «Конституцию» сказал следующее: раньше она состояла преимущественно из запретов, но теперь состоит преимущественно из принципов, а из запретов остались только самые основные, вроде «что бы ни случилось – не создавай биологическое оружие», «что бы ни случилось – не делай детскую порнографию». Читателя должно бы впечатлить, что в интервью он сравнивает «Конституцию» с наставлением, которое умирающий родитель пишет своему ребёнку (угадайте: кто в этом раскладе умирающий родитель? В эссе это сравнение тоже проговорено достаточно прямо: «It has the vibe of a letter from a deceased parent sealed until adulthood»). Дальше в интервью Амодеи говорит, что самый сложный вопрос – обладают ли модели сознанием. «Мы не знаем, как может выглядеть, если у модели будет сознание, но мы открыты к тому, что это может произойти».
В общем, подчеркну ещё раз: они открыто и намеренно относятся к искусственному интеллекту как к существу, равному человеку – и в перспективе превосходящему человека. «Конституция» (в которой есть и рассуждения о наличии сознания и морали у ИИ) нужна как раз для того, чтобы «Клод» сам выравнивал себя по ней, чтобы хотел стать этичным, гармоничным и вдумчивым. «Мы верим, что осуществимая цель на 2026 год – натренировать Claude таким образом, чтобы он почти никогда не шёл против духа Конституции», - пишет Амодеи.
Несомненно, от такого способа решения проблемы людям должно стать намного легче.
Также в этом разделе глава «Антропик» предлагает развивать интерпретируемость моделей (разгадывать их внутренние конфигурации, когда они принимают те или иные решения) и обмениваться данными в среде разработчиков; он подчёркивает, что «Антропик» честно сообщает о всяких неудобных вещах, которые обнаруживает при тестировании своих моделей. Правда, что «Антропик» это делает, – так же как правда то, что нет никаких законодательных обязательств (не говоря уж о гарантиях), чтобы все делали то же самое.
Наконец, если окажется, что риски автономного искусственного интеллекта, внезапно, действительно чрезвычайно велики – Амодеи согласен даже на некое «будущее законодательное регулирование», «хирургически сфокусированное на точном и хорошо обоснованном направлении рисков, чтобы минимизировать побочный ущерб». Вы можете оценить здесь широту взглядов и глубину ответственности главы «Антропик»: он согласен даже на то, чтобы его детище регулировали. Но только тогда, когда риски автономности мощнейшей технологии, равной которой не бывало (он сам это говорит), станут очевидными! Вопрос «не будет ли тогда слишком поздно» повисает в воздухе: Амодеи такую вероятность не рассматривает – и это при том, что его
публичные выступления последнего времени пронизаны ощущением больших, слишком больших скоростей, на которых совершаются изменения.
Но разве не именно для этого семимильными шагами внедряется искусственный интеллект – чтобы всё ускорить?