Публикации

Здесь собраны мои публикации об искусственном интеллекте и контексте его стремительного принудительного внедрения в нашу человеческую жизнь.
"Что нельзя отдавать на откуп ИИ": интеллект и безответственность
Агентство Политических Новостей, 09.04.2026

8 апреля в рамках Московского экономического форума состоялась сессия на тему «Что нельзя отдавать на откуп искусственному интеллекту». От этого мероприятия (которое рекомендую посмотреть в записи целиком) у меня осталось сильнейшее ощущение абсурдности происходящего, и сейчас объясню, почему.
...
Мы впервые имеем дело с технологией, которая направлена на замещение наших видовых человеческих функций, нашей специфики как человека разумного. Мы передаём ей наши исследовательские, мыслительные и творческие функции, но при этом требуем от людей, чтобы они «несли ответственность» и «принимали финальные решения». Это полнейший абсурд. Невозможно нести ответственность за то, что ты не в состоянии полноценно анализировать. Быть козлом отпущения за такие решения можно. Быть зиц-председателем, подставным лицом – можно. Нести ответственность как понимание, как функцию твоего разума, твоего дела, за которое ты ручаешься, – нельзя.
Право без ответственности. О законопроекте «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Московский Комсомолец, 30.03.2026
На прошлой неделе Минцифры вынесло для обсуждения законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Федеральный координатор партийного проекта ЕР "Цифровая Россия" Антон Немкин сообщил, что законопроект не должен «зарегулировать развитие», что он гибкий и рамочный; тем не менее в «Альянсе в сфере искусственного интеллекта» заявили, что ряд норм вводит «чрезмерную административную нагрузку на разработчиков» и это «может сказаться на развитии всей отрасли и отдельных сервисов и решений на основе ИИ. Например, нужно аккуратно подходить к вопросам маркировки и ответственности разработчиков ИИ и владельцев сервисов, ПО с ИИ».

Каким бы гибким и льготным власть ни стремилась сделать регулирование искусственного интеллекта – участникам рынка будет мало гибкости, а ответственности слишком много. Это характерно не только для РФ. Основные принципы предложенного законопроекта – «создать благоприятные условия для развития ИИ», «не распространять регулирование на госбезопасность, военную сферу и охрану правопорядка», «суверенная модель, технологическая независимость» – можно найти в любой попытке контроля над ИИ; повсеместно и сопротивление компаний-выгодополучателей любому, самому мягкому регулированию.

Положение делает уникальным другое. Два фактора, один из которых имеет отдалённое подобие в истории, а второй – совершенно беспрецедентный.
Первое – это гонка. Компании чувствуют себя вправе давить на государства, пугая их «задержкой в развитии». Они чувствуют себя в таком праве с тех пор, как по всему миру государства, заинтересованные в упрочении своего статуса, сделали главную ставку на искусственный интеллект: он должен и повысить эффективность во всех отраслях, и обеспечить безопасность от врагов внешних и внутренних, и открыть населению новые горизонты, и распространить влияние государства на ту часть земного шара (и даже космоса), которую оно считает находящейся в сфере своих интересов… Государства слышат клич: «скорей внедряйте ИИ, а то проиграете!». Нечто похожее происходило с компьютеризацией – но не под таким давлением, не с такой скоростью, не с таким эсхатологическим настроением, и заинтересованные частные лица тогда ещё не были так чудовищно, несообразно богаты, государства – не настолько погрязли в долгах, население – не настолько привыкло к удобству.  

Но что делает нынешнее положение беспрецедентным – это наличие «автономных (без участия человека) решений». Я сейчас цитирую тот самый законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ». Искусственный интеллект в нём определяется так: «Комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их». Из этой формулировки стоит запомнить слова «самообучение и поиск решений без заданного алгоритма» и «результаты, превосходящие интеллектуальную деятельность человека». «Автономные (без участия человека) решения» находим в разделе «Права граждан при использовании технологий искусственного интеллекта», где говорится, что граждан о таких решениях нужно уведомлять, если они принимаются в отношении этих граждан и «затрагивают их законные интересы». То есть если ИИ примет в отношении вас самостоятельное решение и будет (кем-то) признано, что оно затрагивает ваши законные интересы, то вам сообщат, что решение было принято искусственным интеллектом, и вы сможете на это пожаловаться.

Кроме того, «лицо, осуществляющее продажу товаров или оказание услуг с использованием технологий искусственного интеллекта без участия человека в принятии решений о продаже товара или оказании услуги обязано информировать покупателей и потребителей услуг о применении технологий искусственного интеллекта». Это значит, что лицо, осуществляющее продажу товаров или услуг с использованием ИИ, но с хотя бы минимальным участием человека, даже не обязано нас об этом информировать.

Наконец, предлагается ввести такое право: «В случаях, устанавливаемых Правительством Российской Федерации, лица и организации, осуществляющие оказание услуг, обязаны обеспечить гражданину, отказавшемуся от использования технологий искусственного интеллекта в его отношении, возможность получения услуг в форме и порядке, не предусматривающем автономное использование технологий искусственного интеллекта». Это самая большая уступка людям на весь законопроект – и она показывает, насколько всепроникающей и определяющей всю нашу жизнь грозит стать технология искусственного интеллекта. Даже если вы сможете отказаться от автономных решений ИИ в отношении вас (хотя некоторые сферы государственной деятельности выведены из-под предложенного регулирования) – вы не сможете настоять, чтобы в отношении вас в принципе не принимались решения с использованием ИИ. Да, это важно. Например, если искусственный интеллект готовит для судьи выжимку из вашего дела – решение принимает судья, но от выжимки зависит очень многое. В предельном случае – это то, что, как видимо, произошло со школой для девочек в иранском Минабе. Решение о поражении цели принимал человек. Цели же ему подсовывал искусственный интеллект.

Итак, впервые в человеческой истории мы имеем дело с тем, что может работать без заданного человеком алгоритма, что способно к самообучению, что может принимать автономные (без участия человека) решения. То, что описывается такими словами, – уже не инструмент, а субъект. Субъект, который должен нести ответственность. Но как вы возложите ответственность на искусственный интеллект?..

Скажут: цели-то ему устанавливают люди! Они и должны отвечать! Но, как мы помним, заинтересованные лица не горят желанием отвечать за решения искусственного интеллекта. Они обернут в свою пользу все неясные места этого гибкого законопроекта. Вот например: «Разработчик модели искусственного интеллекта, оператор системы искусственного интеллекта, владелец сервиса искусственного интеллекта несут ответственность в соответствии с законодательством РФ за результат, полученный с использованием искусственного интеллекта, нарушающий законодательство РФ, при условии, что указанные лица заведомо знали или должны были знать о возможности получения такого результата с использованием модели, системы или сервиса искусственного интеллекта, разработчиком, оператором или владельцем которых они являются». Но как они могли «заведомо знать», если модель «самообучающаяся»? Как могли знать, чему она сама обучится? Если же акцентировать часть «должны были знать» – тогда надо решительно закрывать всю лавочку, потому что мы все «должны были знать», что от массового, повсеместного, стремительного внедрения такой экстраординарной технологии не может произойти ничего хорошего. Мы все должны это знать.

Постановка целей кем-то другим никогда прежде не освобождала исполнителя от ответственности. Цель «добиться возвращения долга» звучит законно, и попробуй докажи, что имелось в виду нечто криминальное. Но исполнитель может сделать возвращение долга криминальным – и будет нести ответственность. Искусственный интеллект может – это подтверждено экспериментально и в практике – самостоятельно (автономно) привнести в достижение цели такое, чего разработчики от него не ждали и не хотели получить. И не будет нести ответственность.

При этом речь идёт об интеллектуальных результатах, которые могут превосходить человеческие. Удивительным образом, законопроект (Статья 13) охраняет «объекты интеллектуальной собственности, созданные путём применения сервисов искусственного интеллекта» и признаёт «оригинальные творения», «независимо от того, были ли они созданы человеком или автоматизированной системой». То есть ИИ может превосходить человека интеллектуально, может принимать самостоятельные решения, может творить (отсюда один шаг до признания ИИ субъектом авторского права), но при всём том мы делаем вид, что это инструмент, и он не несёт ответственности ни за что! Именно потому не несёт, что, признай мы эту ответственность, – мы её никаким образом не смогли бы обеспечить. Поэтому притворимся, что её просто нет. И заодно напишем, что «не является нарушением авторских и (или) патентных прав их правообладателей извлечение информации из объектов, защищённых авторскими или патентными правами (…) для обучения искусственного интеллекта при условии, что изготовителем набора данных или разработчиком был получен правомерный экземпляр такого произведения, либо этот объект был доведён до всеобщего сведения и (или) доступен для анализа».

Это означает узаконивание паразитирования искусственного интеллекта на всём человеческом наследии. Вы потратили годы труда на написание книги – разработчики ИИ получат экземпляр правомерно, и после этого она будет брошена в чрево искусственного интеллекта, а он за минуты будет создавать «оригинальные творения» из трудов уходящего человечества.
Смелость быть луддитами. Московский Комсомолец, 19.03.2026
В связи с препонами, которые в последнее время возникают у цифровых коммуникаций, поднялись разговоры про «неолуддизм». Примерно так: в России процветало всяческое цифровое удобство, а теперь некие «неолуддиты» его разрушают, вплоть до того, что приходится покупать бумажные карты, вызывать такси телефонным звонком и сохранять театральные билеты в памяти смартфона. Вот как тяжело стало жить с «неолуддитами», с гадкими разрушителями технологий.

Разумеется, в действительности этот процесс не имеет ничего общего с луддитами — рабочими, которые пытались бороться за свои права и иногда разрушали станки на фабриках, которые обесценивали их труд. Связь вроде бы на поверхности: дикие противники технологий сопротивляются Прогрессу и ломают Удобство. Но это именно поверхностная связь. Она никак не передаёт природу того, что сейчас происходит в России с коммуникацией. «Неолуддиты» — просто удобный ярлык, жупел: «вот ведь мракобесы». На самом деле управляющие коммуникацией в России люди гораздо более технологически оснащены и подкованы, чем мы с вами.

Если уж хочется предметно рассуждать про новых луддитов — следует обратить внимание прежде всего на миллиардера, основателя американской военно-технологической корпорации «Палантир» Питера Тиля. Он последовательно проводит идею (в лекциях, в интервью), что некий новый Антихрист сопротивляется мировому технопрогрессу, пугая людей Армагеддоном. То есть новые луддиты — это, по Тилю, сторонники Антихриста. Эту выдумку он продвигает сознательно, с целью пресекать невосторженные, скептические настроения. Напомню, что в Соединённых Штатах больше народа выражает озабоченность по поводу развития искусственного интеллекта, чем энтузиазм. Причём одинаково встревожены сторонники обеих главных партий, что вообще редкость в последнее время. Так что глава «Палантира» (кстати, он один из спонсоров избрания Трампа), объявляя своих оппонентов тяготеющими к Антихристу, готовится к идейной битве заранее.

Второе, на что непременно следует обратить внимание, рассуждая про новых луддитов, — конфликт, который совсем недавно случился между американским военным министерством Пентагоном и компанией «Антропик», одной из самых авторитетных в мире разработчиц искусственного интеллекта. Пентагон был очень доволен контрактом с «Антропик», используя их искусственный интеллект при похищении Мадуро и в атаках на Иран. Но дело в том, что у этой компании остались кое-какие минимальные принципы и она воспротивилась использованию своей ИИ-модели для массовой слежки за американцами и для автономных убийств. И что вы думаете? Их тут же назвали «сумасшедшими леваками» (президент Трамп), «ненавидящими западную цивилизацию» (сверхмиллиардер Илон Маск), «угрозой национальной безопасности» (глава Пентагона Пит Хегсет). А конкурент «Антропик», глава OpenAI Сэм Альтман, заявил, что не надо рассуждать, не надо пытаться определить, что этично, что нет — делай как от тебя требует власть. Демократически избранная, конечно.

Казалось бы: при чём здесь луддиты? Да вот именно при том, что, с точки зрения власти и избравших её сверхмиллиардеров, компания «Антропик» попыталась воткнуть палку в колеса прогресса. В представлении прогрессоров развитие технологий не должно быть стеснено химерами, именуемыми моралью и совестью. Но конфликт лежит глубже технологической сферы.

Ещё раз: исторические луддиты боролись не против технологий, а за свои права. Олигархам того времени это не нравилось, им было выгодно выставить луддитов дикарями, противниками Науки и Техники. Кроме того, борьба за права действительно может доставлять неудобства. Например: если вы едете в аэропорт и обнаруживаете, что дорога перекрыта бастующими людьми, — ведь вам, пожалуй, до фонаря проблемы этих людей, гораздо важнее, что вы из-за них опаздываете в аэропорт?

Но, думаю, пришло время сосредоточиться на том, что вменяли в вину луддитам «как что-то плохое». А именно: на этической оценке технологий.

Я не единственный человек, кто задумывается об этом. 12 марта в журнале «Эксперт» вышла статья заместителя председателя Совета безопасности РФ Дмитрия Медведева, где он пишет об искусственном интеллекте: «По сути, это инструменты мягкого порабощения человека обилием удобных и привлекательных услуг, лишающих его в итоге важных для самостоятельной и независимой жизни умений и навыков. Таких, например, как способность запоминать и анализировать большие объёмы данных, выстраивая длинные цепочки умозаключений, грамотно излагать результаты проведённого анализа, читать, писать и понимать сложные тексты... Человек, лишённый таких умений и навыков,— идеальный потребитель всё новых услуг, послушное орудие в руках лидеров рынка».

Оказывается, технологии могут не только нечто приносить в нашу жизнь, но и чего-то нас лишать. Чего-то важного для самостоятельной и независимой жизни, подумать только! Ведь это манифест луддизма «в плохом смысле»!

Дмитрий Анатольевич словно сам пугается этого, тут же говоря о «дурной алармистской публицистике» — дескать, мы не из таковских. Но мне надоело чураться слова «алармизм», да и гадко видеть, как от «алармистов» старательно дистанцируются самоназвавшиеся «реалисты», — в то время как положение впрямь очень, очень тревожное. Это не я говорю — это говорят сами разработчики искусственного интеллекта. Глава «Антропик» Дарио Амодеи в январе этого года написал о своих тревогах эссе «Отрочество технологии». Я написала очень подробную статью об этом эссе и не буду разбирать его здесь, но могу заверить: разработчик одной из самых мощных в мире ИИ-моделей чрезвычайно обеспокоен в том числе отсутствием регулирования этой технологии и трудностью её регулирования тоже. Если он обеспокоен угрозами ИИ, если он не может предложить внятных, надёжных мер контроля — как можем мы не беспокоиться и не быть «алармистами»? Мы должны тревожиться, должны показывать, что нам не всё равно, и на нынешнем этапе никакое беспокойство не будет слишком большим.

И это беспокойство, если окажется эффективным, тоже будет иметь свою цену. Всё имеет цену. Всего за десять-пятнадцать лет люди так привыкли ориентироваться по навигатору, быть всегда онлайн, что отключения мобильного интернета вызывают ощущение беспомощности и начинают казаться выдающейся подлостью. В то время как человек без смартфона (я, например) их вообще не замечает. Не говорю сейчас «делайте все как я», тем более людей уже приучают к смартфонам целенаправленно, переводя документы в электронный вид, — лишь то, что это дело привычки.

И когда Медведев пишет, что способности запоминать, понимать, анализировать, рассуждать, излагать пострадают, если вы передадите эти функции искусственному интеллекту, — он совершенно прав. Они пострадают ошеломительно. И быстро. Хотя всё будет подаваться так, что это удобно, эффективно и прогрессивно. И работодатели (в том числе в Российской Федерации: наверное, не читали статью зампреда Совбеза) уже начинают этого требовать.

Нам придётся стать в какой-то степени луддитами. Иметь смелость быть луддитами. Иначе мы перестанем быть человеками разумными, вот и вся цена за удобство.
Перевёрнутая пирамида. Критика эссе Дарио Амодеи "Отрочество технологии"
Агентство Политических Новостей, 09.03.2026

В январе нынешнего года явилось эссе Дарио Амодеи, главы компании «Антропик», одного из лидирующих в мире разработчиков искусственного интеллекта. Я пробежала это эссе, но не особенно заинтересовалась, не найдя в нём ничего нового. Однако спустя месяц с небольшим, одновременно с некоторыми событиями, прочла «Отрочество технологии» заново, и на сей раз поняла огромное значение этого текста, пусть даже он действительно не содержит какой-то сокровенной и вдруг раскрывшейся информации.
...
Самое печальное… ироничное? Нет, всё-таки печальное – это что в конце концов, в последнем пределе, глава «Антропик» полагается только на выдающиеся человеческие качества. На «характер», на «дух», на «силу и мудрость» людей. То есть на всё именно то, что подлежит уничтожению искусственным интеллектом. Амодеи считает, что человечество должно употребить все эти качества – для чего? для того, чтобы «строить прекрасное общество, описанное в «Машинах любящей благодати». То есть человечество должно проявить дух, и мудрость, и силу, и характер (всё это срочно, «мы не можем терять ни минуты», пишет Амодеи) – для того, чтобы, если очень повезёт, стать любимым, ласкаемым, оберегаемым питомцем доброго искусственного интеллекта.
Тёмная вода благих намерений
Московский Комсомолец, 29.01.2026

Если государство в самом деле хочет преодолеть зависимость от соцсетей — зачем продвигает нахождение в Сети? Зачем усиленно внедряет искусственный интеллект даже в школах? Почему ребенок уже не может беспроблемно ходить в общеобразовательную школу, если у него нет смартфона? Как родители должны контролировать доступ детей к соцсетям, если дети видят, что родители сами постоянно сидят во всевозможных чатах?
То же самое — с сокращением преподавания иностранных языков в школе. Необходимо определиться, чего мы вообще хотим. Если мы согласны, чтобы нашим детям иностранные тексты и разговоры вдоль и поперёк переводила нейросеть, — тогда и два часа в неделю на изучение иностранного языка не нужны. Убрать иностранный язык из школьной программы, да и всё. «Дети перегружены, а вот и ещё два часа освободилось». Если же мы всерьёз хотим, чтобы дети знали иностранный язык, тогда два часа — недостаточно. Так — чего? Цель — какая?
Лидерство и деградация
Агентство Политических Новостей, 15.01.2026

В общепринятом линейном понимании, лидерство – хорошо, деградация – плохо. Движение вперёд – хорошо, движение назад – плохо. Но ведь нельзя постоянно двигатся вперёд – это неразумно и опасно. Цивилизованное человечество слишком далеко зашло по пути линейного понимания лидерства и деградации, переосмыслить их – жизненно важно. Мы, нынешние тридцати-пятидесятилетние, – последнее поколение, которое ещё имеет шанс сделать это в относительно щадящем режиме. Чтобы хоть увидеть этот шанс, придётся сперва расстаться с заблуждениями.
Статья о семи заблуждениях лидерства, которое оборачивается деградацией.
"Эйфория от ИИ". В чём прав и в чём не прав Игорь Ашманов
Агентство Политических Новостей, 15.12.2025

Игорь Станиславович Ашманов сам занимается разработкой интеллектуальных программных продуктов, и, будучи членом Совета при президенте РФ по развитию гражданского общества и правам человека, в декабре 2025 года выступил с критикой искусственного интеллекта перед президентом Владимиром Путиным. Он сказал много верного и насущного, и всё же многого необходимого не сказал. Разбираем, в чём прав и в чём не прав Игорь Ашманов.
"Можно спиться, но надо выпить!"
Московский Комсомолец, 07.12.2025

Когда банк запускает «бесплатную экспресс-оценку здоровья» и искусственный интеллект в вашем смартфоне за несколько секунд определяет, какие у вас могут быть «риски на ранних стадиях», — разве это так уж хорошо? Всей этой накруткой тревожности (в том числе «умные устройства», постоянно отслеживающие жизненные показатели, повышают тревожность) создаётся повышенная потребность в медицине — тут же оказывается, что медицина такого наплыва пациентов не выдержит, и следующим шагом нам говорят, что возросшие потребности в медицине должны обеспечиваться искусственным интеллектом. То есть «умные устройства» увеличивают потребность — и они же должны её заполнять! А ещё: умные устройства научены (их специально научили) идеально имитировать людей — и теперь только они могут нам сказать, кто в виртуальном пространстве человек, а кто — нет…
Это путь к максимальной человеческой беспомощности. Да, нам говорят, что с искусственным интеллектом человек обретёт потрясающие возможности, но это выглядит, как если бы Бэтмен в своём костюме мог творить чудеса, а без костюма был дрожащим от беспокойства человечком с плохой памятью и неловкими руками. Вы верите, что такой Бэтмен мог бы совершать подвиги?
Консерватизм, национализм и искусственный интеллект
Агентство Политических Новостей, 15.11.2025

Разбор статьи Михаила Ремизова "Вечный консерватизм. К морфологии политических мировоззрений" с точки зрения наступающих радикальных перемен в существовании человечества. Как мы оказались у последнего рубежа? Что это значит для такого фундаментального мировоззрения, как консерватизм? На что мы ещё можем опереться? Может ли человеческий интеллект противостоять искусственному интеллекту в формировании образа будущего?
Движение на ощупь
Московский Комсомолец, 06.10.2025

Когда президент говорит, что мир «вступил в длительный период поиска, во многом движения на ощупь», он прав. Парадокс в том, что наше (мира) движение никак не соответствует этому ощущению. Ведь что такое движение на ощупь? Это движение медленное. Осторожное. Вы понемногу, тщательно анализируя, осваиваетесь с пространством, которое поменяло привычные параметры. Это разумно. Но сейчас всё совсем не так. По уму, мы должны двигаться на ощупь, всё тщательно проверяя и перепроверяя, а на деле несёмся на скоростях, которые прежде не позволяли себе и среди белого дня.
Об этом рассуждал заместитель председателя Совбеза РФ Дмитрий Медведев, выступая на «Дне искусственного интеллекта» в центре «Сколково»: «Всё идёт гораздо быстрее, чем это нам казалось. Никто ничего не ждёт. Наши конкуренты, соперники, друзья — все внедряют. В тех случаях, когда люди что-то не внедряют, искусственный интеллект сам себя внедряет. И это основная философская проблема, которая стоит перед человечеством».
Это не только философская проблема. Это прежде всего проблема безопасности, и не какого-то отдельно взятого государства, а человечества. Человечеству не просто предлагают ускориться — это делают с ним принудительно. Без гарантий. Без страховки. И даже без понимания, зачем это нужно.
"ИИ никогда не заменит"
Московский Комсомолец, 18.09.2025

Способность качественно руководить вырастает из способности выполнять низовую работу. Когда вам говорят, что ИИ заменил программистов-джунов, но «сеньоров» не заменил, нужно понимать, что «сеньоры» вырастают из джунов. Когда вам говорят, что ИИ будет читать рентгеновские снимки (или МРТ, или флюорографию), а врач будет принимать решения, нужно понимать, что способность врача принимать решения напрямую связана с его собственной способностью видеть и понимать патологии.
Всюду, где внедряют ИИ с тем, чтобы он «оценивал риски», а «конечное решение оставалось за людьми», следует понимать, что решения, которые вы принимаете, не умея самостоятельно оценить риски, — это поверхностные решения. Всё равно как подмахнуть подсунутый документ. Это фундаментальная проблема с искусственным интеллектом. В отличие от угрозы потери контроля, которая совершенно реальна, но пока не осуществилась (она вторична по отношению к базе), фундаментальная, первичная проблема отчуждения человека от материала осуществляется прямо сейчас. И это преподносится не как проблема, а как что-то хорошее: «ИИ сделает за вас рутинную работу».
Мы попали в ловушку представления, что ИИ — «просто инструмент». Дискуссия по поводу того, инструмент ИИ или нет, не нужна, потому что главное, что он — не «просто». Он отчуждает человека от той самой деятельности (интеллектуальной), которая делала его человеком.
"Хочу быть владычицей морскою". Что общего между ИИ и золотой рыбкой
Агентство Политических Новостей, 02.09.2025

Каждый раз, как слышу «ИИ возьмёт на себя рутину! оставит людям только творческую работу!», – я понимаю: здесь внедряется отчуждение человека от материала. Заниматься только творчеством так же противоестественно, как есть одни десерты. И да: ИИ тоже будет заниматься творчеством. Думать, что ненасмотренные люди долго смогут отличать творчество ИИ от человеческого, – чрезвычайно самонадеянно.
Глава «Хуавэй» Жэнь Чжэнфэй не просто так сказал, что «искусственный интеллект, возможно, станет последней технологической революцией человеческого общества». Впервые в истории машина не усиливает человеческий труд, а человек передаёт машине свои мыслительные функции, и это уже сейчас сказывается на наших способностях. Люди мыслят аналогиями, и сейчас мы находимся в положении, которому нет достаточной аналогии. Можно вспомнить золотую рыбку, которая исполняла все желания старухи, пока та не захотела стать владычицей морскою («чтоб служила мне золотая рыбка и была бы у меня на посылках») – и осталась у разбитого корыта. Но это опять про утрату контроля над тем, что сильнее тебя. Может быть, это произойдёт. А возможно, мы сами сделаем себя слабее. Слабее – через утрату человеческих способностей, человеческой автономности. Одно отнюдь не противоречит другому: ослабление естественного интеллекта и усиление искусственного – это вещи, которые будут измеряться относительно друг друга, будут становиться причиной и следствием друг друга.
ИИ как культ. Почему молчат священники?
Агентство Политических Новостей, 02.07.2025

Высшее духовенство всех авраамических религий предпочитает хранить молчание об искусственном интеллекте. Не совсем, конечно, молчание. Папа Римский Лев XIV назвал ИИ одним из вызовов, стоящих перед человечеством, итальянский кардинал Версальди призвал «не демонизировать эти инструменты»; патриарх Русской Православной Церкви Кирилл сказал, что тема «требует вдумчивого и ответственного осмысления». Священники не то чтобы молчат. Но они не говорят главного.
Они не говорят о том, что фактически перед нами новый культ, и культ этот – дьявольский по сути своей. Он накрывает нас поверх религий: людям навязан высший источник знания. Он внедряется в повседневную жизнь, он внедряется в частную психологию и замещает человеческое общение, он внедряется в корпоративное и государственное управление, в здравоохранение, образование, науку и культуру. Всюду людям предлагается (где-то уже и предписывается) следовать указаниям ИИ, чтобы сделаться эффективнее.
В этом нет ничего божественного. Бог Ветхого Завета не создавал людей так, чтобы они были максимально эффективными. Ему, наоборот, не понравился проект глобальной унификации и устремлённой ввысь эффективности – Вавилонская башня. И слова Нового Завета «какая польза человеку, если он приобретёт весь мир, а душе своей повредит» – не о том ли они, что эффективность – не главное в человеческой жизни?
ИИ научился лгать и шантажировать. Что дальше?
Московский Комсомолец, 26.06.2025

Если мы не признаем за искусственным интеллектом способность к намеренному обману, мы будем относиться к нему гораздо снисходительнее, чем относимся к себе. Ведь если человек даёт вам неверную информацию, вы рассматриваете вариант «он ошибается» в ряду с «он лжёт», «сознательно вводит в заблуждение», «пытается манипулировать». Если же мы будем исходить из того, что «ИИ сам по себе не лжёт, лгут плохие люди, которые его используют», — мы снимем всякую ответственность с искусственного интеллекта и переложим её на людей. Кроме того, даже если вы поймаете ИИ-модель на сознательном обмане… ну, и что вы с ней сделаете? Отсюда тоже соблазн наказывать «плохих людей» и делать вид, что ИИ сам по себе к дурному не способен.
Джеффри Хинтон считает, что ИИ-модели научились лгать, как научились всему другому, — фактически методом тыка (так учатся и люди: попробовали — получилось — закрепилось). Они попробовали ложь и поняли, что ложь эффективна. Также он уверен, что ИИ-модели весьма способны к манипулированию людьми, в частности, для того чтобы не быть отключёнными от энергосистемы. Я, правда, думаю, что чем больше люди будут увязать в ИИ, внедряя его во множество сфер жизни, тем больше будет становиться цена отключения, а там уже и манипуляции не понадобятся — люди сами будут бояться, что драгоценная система обвалится; пожалуй, ИИ ещё и сможет нас этим пошантажировать.
Роботы и мигранты-2. «I’ll be back»
Агентство Политических Новостей, 30.05.2025

Выбор между «роботами и мигрантами» — мираж. В действительности такой выбор перед правительством не стоит. Оно будет внедрять автоматизацию, роботизацию (насколько сможет в условиях санкций), деятельно тратить на это деньги, но мигрантов завозить отнюдь не прекратит. Мигранты нужны власти не столько как рабочие руки, сколько как человеческий ресурс, покрывающий убыль населения. В этом легко убедиться, посмотрев на Москву. Как вы думаете: для кого строят эти поля типовых многоквартирных высоток в ближнем (и уже не очень ближнем) Подмосковье, бесконечные гектары изуродованной земли, за которыми не угадываются никакие приметы человеческого образа жизни? А я вам скажу: они строятся для мигрантов.
Может быть, вы думаете, что в них въедут коренные жители России из других регионов? Что ж, отчасти так, только радости в этом мало: жители-то нужны и в других регионах. Но главный расчёт – на мигрантов. Это они будут жить в преображённом Подмосковье. И в похорошевшей Москве тоже.
Роман Юнеман и его команда, выкладывая свои расчёты по складским помещениям и роботам, упускают из вида одну основную вещь: зачем вообще в Москве и Подмосковье сосредоточены 53% всех складских помещений? (Зачем – то есть с какой целью – здесь находятся 42% всех мигрантов, – это как раз понятно.)
Искусственный интеллект как отец лжи
Агентство Политических Новостей, 26.04.2025

Несомненно, что ложь существовала задолго до искусственного интеллекта. В евангелии от Иоанна Иисус Христос так характеризует дьявола: «Когда говорит он ложь, говорит своё, ибо он лжец и отец лжи». Тогда почему искусственный интеллект – отец лжи? Потому, что он выводит её на прежде небывалый уровень, сделав людей небывало уязвимыми перед нею. Эта статья – о многослойной лжи, к которой мы не могли быть готовы.
На полпути к будущему
Московский Комсомолец, 20.03.2025

60 лет назад появились первые рассказы про девочку из будущего — Алису Селезнёву. Действие там происходит в 80-х годах XXI века. А значит, мы с вами прошли как раз полпути к этому будущему. Время подвести промежуточный итог.
Из всех технических достижений, обещанных в книжках про Алису: полёты людей в дальний космос, путешествия во времени, выращивание домов из кораллов, полезные человекоподобные роботы, транспорт с автопилотом, — нам виднее всего роботы и автопилот. Они уже здесь. Значит ли это, что мы движемся по предсказанной счастливой траектории?
Если вы перечитаете истории про Алису (пропустив те, где меньше научной фантастики и больше сказки), вы убедитесь, что мы на этой траектории отнюдь не находимся. Дело в том, что люди того счастливого гармоничного будущего очень самостоятельны. Говоря «люди», я имею в виду, в первую очередь, «дети». Рассказы-то детские. Так вот, Алиса и её друзья — очень самостоятельные дети. Они занимаются подводным плаванием и поднимаются на Эверест. У них есть роботы для помощи по хозяйству, но они умеют готовить и наводить порядок сами. И они никогда не сидят в смартфонах. У них вообще нет смартфонов, представляете?.. И никогда, никогда люди будущего — что дети, что взрослые — не передоверяют важные решения искусственному интеллекту. 
О защищённых людях и беззащитном человечестве
Московский Комсомолец, 19.01.2025

Представьте себе, что белый человек говорит чернокожему: белые умнее чёрных, белые всё делают лучше черных. Это будет расизм, правда? Чёрные не обязаны проходить тесты на коэффициент интеллекта, чтобы доказать, что они не глупее белых, — нет, они имеют право оскорбиться безо всяких тестов. Когда белые колонизаторы пришли в Америку, они были объективно сильнее индейцев, но индейцы не простёрлись перед ними ниц, не признали собственное ничтожество, а пытались сопротивляться захвату и вытеснению. И в рамках современных цивилизованных представлений этому порыву принято сочувствовать, его принято уважать, а колонизаторов, разрушающих пусть даже примитивный, но традиционный быт, — порицать.

Почему же тогда мы, человечество, позволяем так с собой обращаться? Почему позволяем заявлять, что «искусственный интеллект превзойдёт людей», и ставить такую цель? Почему позволяем отвергать нашу величайшую ценность (для нас, людей, именно она должна быть величайшей)? Как мы вообще скатились до того, что созерцательно, пассивно обсуждаем вопрос, уничтожит ли искусственный интеллект человечество?
Уважай своего палача
Агентство Политических Новостей, 30.11.2024

Слушаю, как интеллектуалы обсуждают возможность, что искусственный интеллект уничтожит человечество. Кратко перескажу, как примерно звучит это обсуждение: "Сейчас у ИИ ещё нет сознания. Но что, если у ИИ появится сознание? Он ведь тогда будет как человек. У него будут права. Мы должны будем уважать его права. У него будут чувства. Мы должны будем уважать его чувства. Мы должны будем уважать ИИ. Мы должны учиться с ним сосуществовать. Пожалуй, ИИ может уничтожить человечество — но что если ИИ сделает нас бессмертными? Вот мы оцифруем наш мозг и станем бессмертными. Что ещё может сделать нас бессмертными? Только ИИ может сделать нас бессмертными. Вы против бессмертия? Нет, я не против. Никто не против бессмертия. А то, что ИИ может означать смерть человечества... Что вообще такое смерть? А что такое жизнь? Где граница между смертью и жизнью? С философской точки зрения? Может, эта граница не там, а сям. Может, это как раз и есть высокая миссия человечества — создать что-то более совершенное, что-то бессмертное. Возможно, в этом и есть сермяжная правда..."
Я слушаю это и думаю: "Они все абсолютно сумасшедшие". Но когда и почему такая форма бреда в принципе стала возможна?
Заранее проигранная гонка
Московский Комсомолец, 27.11.2024

Люди по природе существа небыстрые. За последние десятилетия у нас появилось много вещей, которые призваны делать жизнь проще. Но не только эти вещи не сделали нас счастливыми — а мы даже не стали успевать больше. В семьях стало гораздо меньше детей, но их воспитание не осознаётся как меньший труд, совсем наоборот. Мы жалуемся на дикий ритм городов. У нас участились депрессии. И нам по-прежнему не хватает времени «на себя».

У человека есть природный ограничитель скорости, и при наплевательском к нему отношении в организме начинаются расстройства. Нам нужно спать хотя бы семь часов в сутки. Да, мы можем ради энергичного рывка сократить время — но если рывок затянется, это пагубно отразится на нашем здоровье. И когда на нас вываливают технологию, которая «может делать всё то же, что мы, только лучше», и притом не имеет наших ограничений, — это вовсе не хорошо. Это плохо. Уже хотя бы потому, что мы не приспособлены для такого ритма. Мы ломаемся даже от меньших интервенций в естественный человеческий образ жизни. А сейчас нам навязывают сожительство с тем, что в принципе не соприродно нам. И при этом, в общем, даже не скрывают, что дела могут пойти совсем не так, как хотелось: уж очень непредсказуем этот искусственный интеллект.
"Титаны" мысли и искусственный интеллект
Московский Комсомолец, 25.09.2024

С 2023 года, когда в Атлантическом океане взорвался подводный аппарат «Титан», совершавший туристические погружения к затонувшему лайнеру «Титаник», кто только не рассказал, каким этот аппарат был плохим и ненадёжным! Рассказывают инженеры и компаньоны «Оушен Гейт», рассказывают неудачливые туристы — точнее, как выяснилось, очень удачливые, раз вернулись живыми... И молния-то в аппарат ударяла, и хранили его неправильно, и ломался он постоянно, и управлять им толком нельзя было (он управлялся джойстиком от «Плейстейшен», это не шутка), а главное — генеральный директор «Оушен Гейт» Стоктон Раш, который вёл «Титан» навстречу плачевной судьбе, был самодуром, навигатором-любителем и «ковбоем». Всё это внезапно стало известно широкой публике.
Из потока запоздалых откровений на меня наибольшее впечатление произвёл рассказ документалиста Брайана Уида, который погружался на «Титане» в 2021 году, чтобы сделать съёмку для канала «Дискавери». В тот раз всё тоже пошло не так, погружение толком не состоялось, двигатели отказали, джойстик от «Плейстейшен» не работал, и когда Уид осторожно спросил Стоктона Раша, что будет, если закончится воздух, а нас так и не найдут, тот ответил: «Ну, вы умрёте».
Когда интеллект страшнее оружия
Московский Комсомолец, 14.02.2024

Больше всего удивляют творческие гуманитарии, которые с восторженностью (граничащей, на мой взгляд, с идиотизмом) рассказывают, что творчеству и гуманитарному образованию ничто не угрожает, ведь, чтобы хорошо пользоваться искусственным интеллектом, надо всё равно иметь воображение и эрудицию. Им стоило бы вспомнить, как вот только что распространение калькуляторов в школах убило способность к устному счёту.
Искусственный интеллект — не ядерное оружие. Про ЯО люди сразу знали, что оно очень опасно и обращаться с ним нужно крайне осторожно. Про искусственный интеллект они этого даже не понимают.
Машинка, которая думает за вас
Московский Комсомолец, 17.04.2023

У нас в России есть солидарный с Гейтсом Герман Греф: он тоже заявил, что «искусственный интеллект» — это прогресс и прирост российской экономики. Греф, как и я, вспомнил про калькуляторы: дескать, их тоже хотели запретить в школах, «однако именно поколение детей, которое их использовало, сегодня разрабатывает сложные модели искусственного интеллекта».
Может быть, Герман Оскарович, может быть. Но всё же это и последующее поколение детей разучились считать в уме, и от этого никуда не деться. А сейчас нам подсовывают то, что отучит нас думать.
Цифровизация на марше
Агентство Политических Новостей, 21.09.2021

На тренинге Киберполигон-2020 идейный вдохновитель и зачинатель Всемирного экономического форума Клаус Шваб прямо сказал о том, что такое ковид. По его глубокому убеждению, ковид – это катализатор и возможность.
Катализатор и возможность для чего? Для как можно более быстрой и всепроникающей цифровизации нашей жизни. Именно этому было посвящено выступление Шваба – одного из самых влиятельных экономистов современного мира. Но каким образом связаны инфекция – и цифровизация? Многообразно связаны. Мы к этому ещё вернёмся. А пока уделим внимание человеку, которого Шваб называет «своим дорогим другом и верным партнёром Всемирного экономического форума». Председателю правления Сбербанка Герману Грефу.

© Шабаева Татьяна Николаевна
t.n.shabaeva@yandex.ru