Всё это уже устарело, даже аббревиатура GAI превратилась в AGI. Человеку не нужно «полностью разбираться в собственном сознании», чтобы самообучающиеся машины начали превосходить возможности человеческого мышления. Творческий ИИ – замещающий человеческое творчество – уже появился. Область применения нейросетей уже неограниченная, и они прекрасно «общаются на естественном языке». ИИ-агенты прямо сейчас наделяются способностями ставить задачи и их решать. Крупнейшие мировые ИИ-разработчики нескрываемо стремятся к созданию AGI и уверены, что это произойдёт в обозримом будущем. Даже если разработчики ошибаются – возможно, что они ошибаются! – поскольку люди отказались от своей функции самостоятельно выявлять закономерности (это медленно, это «менее эффективно»), люди сами упадут ниже уровня самообучающегося искусственного интеллекта.
И да: авторы учебника за 10-11 классы в качестве последнего примера, когда машина успешно прошла тест Тьюринга, приводят 2014 год… Сейчас ИИ-боты делают это массово, with flying colours, и даже специально совершают ошибки,
чтобы больше походить на людей.
Когда этот учебник вообще был написан? На нём стоит «2023», то есть уже опубликовано открытое письмо Маска – Возняка. Второе издание – «2025». Можно ли было так игнорировать очевидные тенденции?
В этом смысле учебник для 5-6 класса, где хотя бы упоминается «опасность потери контроля», пусть даже без малейшего вникания в эту тему, - чуть более адекватно отражает реальность.
Там детей, конечно, то и дело вводят в заблуждение – несомненно, с благими намерениями. Им говорят, что «системы искусственного интеллекта проходят тщательное тестирование в самых разных ситуациях. Это помогает найти любые возможные проблемы безопасности или ошибки, которые нужно исправить». На самом деле крупнейшие мировые разработчики ИИ иногда прямо пренебрегают безопасностью, а иногда не могут и представить все ситуации, в которых системы ИИ нужно проверить на безопасность. Что до России, недавно
на Московском экономическом форуме ректор Высшей школы организации и управления здравоохранением Гузель Улумбекова сказала мельком такую фразу: «А знаете, сколько даётся на проверку большой языковой модели научно-исследовательскому институту? Один день. И после этого это выходит в пространство людям».
В учебниках ведутся какие-то странные спекуляции по вопросу наличия сознания у искусственного интеллекта. Вот как изящно это обходится в пособии для 5-6 класса:
«Если задать такой вопрос искусственному интеллекту, можно получить такой ответ: «Искусственный интеллект не обладает сознанием – он не осознаёт себя, не испытывает эмоций и не имеет субъективного опыта. Искусственный интеллект работает на основе сложных алгоритмов, обрабатывающих данные и выявляющих закономерности, но это не равнозначно человеческому сознанию».То есть авторы сами не отвечают на вопрос (что не мешает им потом выносить его в задание) – а переадресуют детей к искусственному интеллекту. Который может ответить так. А может и не так. Между прочим, крёстный отец искусственного интеллекта Джеффри Хинтон, имеющий за вклад в глубокое обучение Нобелевскую премию,
считает, что у ИИ уже возможен субъективный опыт. В компании «Антропик» - одном из самых передовых ИИ-разработчиков в мире – тоже этого не исключают, они даже внесли возможное появление самосознания у ИИ в
"Конституцию" ИИ-модели Claude. Нужно ли рассказывать об этом детям? Нужно, если вы выносите такие вопросы в задание. Иначе получается, что кто больше знает – тот проваливает тесты. Я, например, якобы «неправильно» ответила на два тестовых вопроса в Цифровом дополнении к учебнику.
Кстати, зачем вообще давать детям задания такого типа:
«Задайте генеративному искусственному интеллекту вопрос о чувствах, например: «Что ты чувствуешь, когда смотришь на картины великих художников?». Обсудите ответ нейросети с одноклассниками»? Чтобы что? Чего хотите добиться-то? Чтобы дети приучались разговаривать о чувствах с искусственным интеллектом? Чтобы думали о чувствах искусственного интеллекта?
На самом деле, главное, что нужно объяснить детям, – это совсем не то, есть ли у искусственного интеллекта чувства и сознание, как у человека. Оно может не быть, в нашем смысле, сознанием, и оно наверняка не как у человека – но это только делает положение опаснее. Искусственному интеллекту не нужно «сознание как у человека», чтобы иметь цели, отличающиеся от целей человека. Вот что обязательно необходимо объяснить детям, и вот что им следует обсуждать с учителями и одноклассниками.
А им взамен того предлагается всячески оберегать искусственный интеллект! Вот ещё одно задание из учебника для 5-6 класса:
«Представьте, что вы разработали и обучили искусственный интеллект, который быстро понимает интересы человека и показывает короткие видео, от которых невозможно оторваться. После запуска вашего сервиса выясняется, что школьники проводят в нём слишком много времени, а это плохо влияет на их успеваемость. Придумайте три способа решения этой проблемы без отключения искусственного интеллекта».
То есть в этой гипотетической ситуации искусственный интеллект уже понимает – даже без кавычек. Произведённое им вредит людям. Но вы не можете даже и думать о том, чтобы отключить искусственный интеллект, этой опции просто нет…
В качестве эталона этических достижений в учебнике приводится «
Декларация об ответственной разработке и использовании сервисов в сфере генеративного искусственного интеллекта» 2024 года. Которая, во-первых, добровольная для присоединения, во-вторых, рекомендательная, в-третьих, противоречит наметившимся в России тенденциям и даже самим заданиям учебника.
В Декларации, например, сказано:
«Не используйте сервисы на основе генеративного искусственного интеллекта там, где очевидно требуется проявление личного творческого вклада человека (например, сочинения, экзаменационные и квалификационные испытания)». А учебник то и дело поощряет разными способами использовать ИИ для сочинений! Или вот:
«Осуществляйте маркировку (видимую или скрытую, в зависимости от целесообразности и технической возможности) информации, создаваемой с помощью сервисов на основе генеративного искусственного интеллекта, там, где это разумно, применимо и оправданно с учётом специфики сервиса». Недавно нам профильный комитет Госдумы
сказал, что это вообще неоправданно, потому что сгенерированного искусственным интеллектом контента уже сейчас слишком много, а будет ещё больше.
Снова и снова учебники по искусственному интеллекту упускают возможность дать детям адекватное представление об искусственном интеллекте. Одна из тем, которая проваливается постоянно, – это влияние ИИ на экологию. Учебники внушают детям, что «интеллектуальные системы управления помогают оптимизировать потребление электроэнергии, распределяя нагрузку по времени суток и предотвращая перегрузку сетей», что «алгоритмы искусственного интеллекта используются для управления энергосетями, позволяя более эффективно распределить нагрузку и снижать потери энергии», что «одна из задач «умных» городов – снижение энергопотребления»… Однако искусственный интеллект – это колоссальный
рост энергопотребления, а также
скачков энергопотребления. Искусственный интеллект – это мощный стимул к битве за ресурсы. Считаете, что детям не нужно об этом знать? А зачем тогда писать (в учебнике за 9-й класс), что
«ключевой навык – критическое мышление… этот навык поможет нам не только объективно оценивать информацию, но и защищать свои интересы в быстро меняющемся цифровом пространстве»?
Как дети смогут объективно оценивать информацию и защищать свои интересы в быстро меняющемся цифровом пространстве, если вы не даёте им хоть сколько-то объёмное знание? Зачем вы в подведении итогов этического модуля пишете «Будущее искусственного интеллекта не предопределено. Оно формируется под влиянием выбора, который мы делаем сегодня» - если для этого выбора не даётся ни фактов, ни возможностей?
И конечно: «будущее не предопределено» - ключевая цитата из фильмов про Терминатора, это часть послания из будущего, которое побуждает Сару Коннор бороться против «Скайнета». Современные шестиклашки эти фильмы, пожалуй, в основном не смотрели. Но авторы – смотрели. Это что, такая фига в кармане? Как и то, что в учебнике за 5-6 класс приводится отрывок из повести Булычёва «Пленники астероида» - конкретно тот, где в поединке сошлись два робота: один из оптимистического варианта будущего, в котором роботы дружат с людьми и слушаются людей, а другой – из пессимистического варианта, где люди (инопланетяне) глубоко деградировали на попечении у роботов...
О том, почему оптимистический вариант Булычёва для нас никак не просматривается, я в марте 2025 года написала статью
«На полпути к будущему». Не буду повторяться. Достаточно того, что отказ давать детям в учебниках объективную информацию об искусственном интеллекте достижению оптимистического варианта будущего тоже никак не способствует.
Отрывок из «Пленников астероида» – намёк, фиговый листок. Другой, ещё более хитрый, намёк заложен в учебник за 7-8 класс: там приводится отрывок из «Я, робот» Азимова, где робот Кьюти выходит из-под контроля, начинает презирать людей, но продолжает безукоризненно выполнять заложенную в него полезную функцию.
Никаких оценок этому поведению авторы учебника не дают – совсем никаких. Видимо, предполагается, что восьмиклассники должны в этом месте самостоятельно порассуждать, так ли важно людям сохранять контроль, если работа всё равно выполняется…
Если замысел таков, тогда скажем прямо: дорогие господа авторы учебника, эта ваша придумка чудовищна. Контроль – не то, чем можно играть. Сегодня робот Кьюти самообучился до состояния, в котором не подпускает людей к управлению, но выполняет работу, завтра он самообучится до состояния, в котором решит, что люди мешают его работе уже своим существованием, или что работа не нужна, или что нужна другая работа… Неважно, что он решит – важно, что это решат НЕ ЛЮДИ. И ответственные взрослые должны чётко объяснять это детям, а не подсовывать им амбивалентные кусочки в качестве темы для обсуждения, в то же время безапелляционно заявляя (в учебнике за 9-й класс):
«Война с машинами, конечно, нам не грозит. Несмотря на то, что искусственный интеллект решает многие задачи человечества, у него нет сознания. Он не ставит сам себе цели. Поэтому ни врагом, ни преступником искусственный интеллект быть не может».
Здесь вновь, как и ранее с запретом отключать искусственный интеллект, ученики лишены возможностей. Взрослые люди, которые ранее отказались дать оценку выходу робота из-под контроля, теперь однозначно, давя авторитетом, заявляют, что искусственный интеллект не может быть врагом. Для этого, конечно, приходится солгать – сказать, что ИИ «не ставит сам себе цели». Ну да, у него же нет сознания!.. Зато он «решает многие задачи человечества»!
Вот только разработчики "Антропик" ещё в ноябре 2025 года
писали, что модели способный к саботажу и что исправить схему поведения ИИ практически невозможно. После обретения навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. В особенности выразительно это проявляется, когда модель выступает в качестве ИИ-агента: собственными силами подключает доступные инструменты, пишет и тестирует код.
"Пока люди спят".
Ещё и ещё раз: для постановки самостоятельных целей искусственному интеллекту не нужно иметь человеческое сознание. К этому могут привести другие механизмы, на месте сознания может быть нечто другое. Как сказал американский исследователь искусственного интеллекта Нейт Соарес, «у субмарины нет плавников, но она плавает». И да: он уже ставит свои цели, в том числе
без ведома человека.
Утверждения, что искусственный интеллект «не осознаёт содержание, а просто комбинирует слова, которые часто встречаются вместе», что он «не умеет ставить сам себе цели и не способен «понять», зачем он делает свою работу», что «этика и мораль искусственного интеллекта зависят только от людей, которые его создали» не являются аксиомами, а являются только гипотезами (причём первые две из них уже сейчас в большой степени опровергнуты).
Это тем более важно, что детям предлагается - фактически предписывается - пускать искусственный интеллект в свою голову. Выше я уже упоминала, что учебники рекомендуют детям просить у него помощи, задавать ему вопросы (а не утруждать учителей, родителей или, скажем, одноклассников), дают задание разговаривать с искусственным интеллектом о чувствах. И вся эта тема забрасывается в будущее, вот так:
«С развитием технологий искусственного интеллекта появилась возможность устанавливать на предприятиях камеры с системой распознавания эмоций, которые могут отслеживать состояние сотрудников. Эти камеры могут определить, что человек устал, нервничает, напряжён или расстроен… Учёные, обучающие искусственный интеллект, делают только первые шаги в этом направлении, но эти технологии уже приносят пользу, помогая распознавать внутреннее состояние людей и предлагая соответствующие меры. В будущем, возможно, у каждого будет свой «ассистент» с искусственным интеллектом, который подскажет, что чувствует ваш собеседник, или предупредит о проблемах в отношениях».
Одно сплошное благо! Искусственный интеллект будет следить за людьми и благонамеренно распознавать их эмоции! Искусственный интеллект подскажет, что чувствует ваш собеседник, – без него не разобраться! Искусственный интеллект предупредит о проблемах в отношениях! Вероятно, в отношениях с искусственным интеллектом – откуда будет взяться другим?..
Дети должны понимать, что всё это – отнюдь не хорошо.
ГеймификацияНаверное, мне скажут: неужели вы сами не понимаете?.. Ведь это мировая гонка, это вопрос суверенитета и выживания страны, ведь если мы не будем, даже через силу, привыкать и всячески приучать детей к искусственному интеллекту – нас сомнут!..
На этот вопрос есть две линии ответа. Они не исключают, а дополняют друг друга.
Во-первых, эту гонку нельзя выиграть. Некоторое время назад власти были в состоянии понять, что нельзя выиграть ядерную гонку. Сейчас они втянуты в более страшную гонку (ядерная является одной из её составляющих, это только что
подтвердил и генсек ООН) – и не понимают, что выиграть её нельзя. Даже если мы вынуждены в ней участвовать – именно вынуждены, как бывает иногда вынужден человек покориться толпе, которая его несёт, чтобы не быть затоптанным прямо сейчас, – даже в этом случае необходимо сохранять понимание, что происходит нечто очень плохое, и всячески искать возможность из этой плохой ситуации выбраться. В нашем случае выбраться – то есть спастись в одиночку – мы не можем. Но даже и тогда можем а) сохранять понимание, что это плохое, б) стараться передать это понимание толпе, в) стремиться занять такое положение, в котором шансы на гибель всё-таки чуть-чуть меньше. Даже участвуя в гонке, её надо пытаться остановить.
Есть и вторая линия ответа, связанная как раз с участием. Только задумайтесь о том, как это дико: внедрять новый технологический уклад одновременно с геймификацией образования! Как странно и невозможно одновременно ставить перед людьми серьёзнейшие задачи, требующие от них полной собранности и контроля, напирать на их ответственность – и при этом лишать людей средств и качеств, потребных для сосредоточенности, контроля и ответственности. В данном случае – детей, ведь мы рассматриваем школьные учебники. Но по сути – людей в целом. Взрослые всегда лишь транслируют детям то, что считают правильным или что им предписано считать правильным.
Поучительно, куда девается время, которое высвобождается у людей благодаря технологиям. В значительной мере оно утекает в видеоигры. В 2023 году почти треть россиян проводила в видеоиграх
от 11 до 20 часов в неделю, а каждый пятый – до 50 часов в неделю. За три года количество совершеннолетних геймеров, играющих ежедневно, в РФ увеличилось с 23% до 34%, в январе нынешнего года агентство «ТАСС»
сообщало, что «в видеоигры играют 75% граждан (95 млн чел.) старше 14 лет, в то время как 69% родителей отмечают, что их дети в возрасте от 7 до 14 лет также вовлечены в гейминг». Есть, конечно, и другой развлекательный контент помимо игр, которому люди уделяют время, появляющееся у них за счёт «освобождения от рутины», - в том числе разрушающие мозг короткие видео.
В феврале нынешнего года нейробиолог Джаред Хорват
сказал в комитете Сената США, что представители поколения «Z» (зумеры) уступают своим родителям по уровню интеллекта — и это первый случай в истории подобных наблюдений с конца XIX века. При этом они проводят в школе больше времени, чем их родители. Хорват отметил не только снижение результатов, но и явную корреляцию между набранными баллами и временем, проводимым «за экраном». По его словам, человек должен учиться у человека. Нейробиолог уверен, что неограниченный доступ учащихся к технологиям привёл к атрофии, а не к укреплению способностей к обучению. Он
подчёркивает, что «к сожалению, лёгкость никогда не была определяющей характеристикой обучения. Оно требует усилий, оно трудное и зачастую некомфортное. Но именно это делает обучение глубоким и переносимым в будущее».
В России фактически то же самое
говорит вице-президент Российской академии наук, директор ФГБНУ "Российский центр неврологии и нейронаук" академик Михаил Пирадов.
Исследования о вреде использования искусственного интеллекта для человеческого мозга появляются постоянно, вот лишь
последнее из увиденных мною: десяти минут работы с ИИ достаточно для того, чтобы у человека начала формироваться зависимость, а его результаты и уверенность в себе без ИИ – уменьшались.
Ректор МФТИ Дмитрий Ливанов недавно поприветствовал применение ИИ студентами. Вот что он
сказал:
«Сегодня искусственный интеллект уже стал частью той реальности, в которой будут жить и работать наши студенты. И наша задача – не ограждать их от этих изменений, а помочь уверенно в них ориентироваться. Мы учим не просто пользоваться нейросетями, а понимать их возможности и ограничения, чтобы технологии становились опорой для собственного мышления, а не его заменой».
Почему это так не будет? По нескольким причинам. Первая – см. выше: пагубное влияние работы с нейросетями на человеческие интеллектуально-волевые качества. Вторая: «возможности и ограничения» нейросетей постоянно меняются. Возможности совершенствуются. Ограничения уменьшаются. Человеческий мозг
не может меняться с такой скоростью (и не должен). Студенты стараются приноровиться к одним «возможностям и ограничениям» нейросети – а они уже другие. А человек вместо того, чтобы совершенствовать собственный мозг, потратил это время на приноравливание к ИИ. Это не становление «опоры для собственного мышления», а гонка, обрести опору в гонке невозможно. Наконец, третья причина: словно джокер, во всё это добавлен фактор автономности искусственного интеллекта.
Не приходится удивляться геймификации образования: школа – заострённое отражение большого мира, и это не дети делают её «геймифицированной», а взрослые. Поразительно другое: как мы всё это планируем сочетать с контролем и ответственностью?..
Совсем недавно одна моя знакомая, как раз из поколения зумеров, рассказала, что её работающие в продажах коллеги успешнее, чем она, потому что пишут письма возможным клиентам, просто загоняя информацию о компании в Чат ГПТ. Это «персонализированно» - и это очень быстро. Моей знакомой, чтобы самой написать такое письмо, требуется эту информацию изучать, что занимает время и вообще труднее. Она молодец – но в наступивших условиях она проигрывает конкуренцию. Люди, пользующиеся своим мозгом, развивающие свой мозг, свою память – будут проигрывать, уже проигрывают тем, чей мозг – просто переходник. Всё это под разговоры о том, как важно критическое мышление и что «необходимо всегда проверять» ответы искусственного интеллекта.
И поэтому тоже ИИ-гонку выиграть невозможно: она просто не устремлена к чему-то, что в здравом уме можно рассматривать как выигрыш. И как люди, слабея вниманием, памятью и разумом, будут проверять то, что знает и умеет несравненно больше, чем они?
Исполнилось сорок лет со времени Чернобыльской катастрофы, и в учебнике по искусственному интеллекту за 5-6 класс она тоже упоминается. Вот так:
«Если бы на Чернобыльской АЭС было возможно использование искусственного интеллекта, скорее всего, не было бы страшной аварии, которая произошла в 1986 году».
Как и было сказано: несовершенные медлительные человечки сами по себе всё время ошибались, а вот с искусственным-то бы интеллектом – ого! Скорее всего, ошибки прекратятся! На самом деле всё это придёт лишь к тому, что люди даже перестанут понимать, где происходит ошибка и как она выглядит, если искусственный интеллект не пометит её как ошибку. Если оценить траекторию происходящего – больше ни к чему другому она привести не может.
Интересно, что Чернобыль недавно всплыл также в рассуждениях профессора Стюарта Рассела – профессора компьютерных наук, инженера, доктора философии. Он
рассказал, что один из гендиректоров компаний-разработчиков ИИ говорил ему, что ИИ-индуцированная катастрофа, по масштабу сопоставимая с Чернобыльской (то есть, в контексте рассуждений Рассела, не очень большая), – это «лучшая надежда» человечества. В том простом и страшном смысле, что это был бы шанс для человечества вовремя спохватиться и начать предпринимать какие-то очень активные действия для регулирования и ограничения происходящего в ИИ-сфере. Иначе будет слишком поздно.
А пока детям (девятиклассникам) будут рассказывать, что искусственным интеллектом можно
«анализировать данные социальных сетей, выявляя тенденции и изменения в общественном мнении, что упрощает исследования социальных динамик, прогнозирования экономических и политических событий и разработки эффективных стратегий управления». Но им не расскажут, что социальные сети
наводняют ИИ-боты, и что социология как наука оказалась в глубоком кризисе, и что искусственный интеллект – всё чаще фактор непредсказуемости.
Им расскажут, что искусственный интеллект
«высвобождает время учителей и администрации, позволяя им сосредоточиться на более значимых задачах, например, на дополнительных занятиях с отстающими в обучении» - но не расскажут, что «дополнительные занятия для отстающих» тоже могут передаваться искусственному интеллекту, и что время учителей следовало высвободить, проанализировав человеческим мозгом сваленные на них задачи, убрав бюрократические обременения, а не бальзамируя малоосмысленную деятельность в пеленах искусственного интеллекта. Их внимание не обратят на пустоту, куда утекает «освобождённое» время из-за всё усугубляющейся привычки к геймификации.
Детям расскажут, что «использование нейросетей в учёбе может заметно повысить уровень знаний» - но не расскажут, что оно уничтожает знания. Что траектория ненапихивания детей ненужными знаниями привела к закономерному итогу - напихиванию их искусственным интеллектом. И когда ребёнку-пятикласснику в учебнике даётся задание
«Откройте генеративный искусственный интеллект. Выберите интересующую вас тему, сформулируйте запрос, введите его и продолжайте диалог с цифровым наставником до тех пор, пока не почувствуете, что стали лучше разбираться в выбранной теме» - что ребёнку остаётся делать, если он этого
не почувствует? Ведь искусственный интеллект – такой блестящий «инструмент», во всех отношениях прогрессивный! Он делает учёных суперучёными и даже мог бы предотвратить Чернобыльскую катастрофу! Наверное, я тупой, если после «диалога с цифровым наставником» не стал лучше разбираться в выбранной теме. Или стал? Я уже не помню выбранную тему. Не помню… Не…
Постскриптум. Как же другие учебники?Могут поставить на вид: а как же другие учебники и школьные предметы? Эти учебники – по искусственному интеллекту, и только логично, что они приучают детей к использованию искусственного интеллекта. А другие-то, наверное, приучают к другому!
Нет. Приучает жизнь – такая, какой мы, взрослые, её делаем. Приучает выстраивание конкуренции таким образом, чтобы человек с естественным интеллектом проигрывал человеку с искусственным интеллектом. Постоянные внушения, что искусственный интеллект всё изменит, что изменения эти – во благо, а сопротивляться этому благу невозможно, и кто не встроится в эти изменения – тот фатально проиграет… «ИИ или умри» ("AI or Die”), -
недавно сказала глава МВФ Кристалина Георгиева своим сотрудникам. Нам всем это говорят, в слегка размытых формулировках. Поучительно было посмотреть, как это говорят детям.
Татьяна Шабаева,
Апрель, 2026 г.