Новости

В отличие от статей, которые прежде были где-то опубликованы, здесь — заметки, написанные непосредственно для этого сайта. Их можно было бы назвать и "блогом", но главное то, что это реальные новости. И хотя специальной задачи пополнять их ежедневно не ставится, интенсивность темы такова, что они появляются каждый день.
14.04.2026. Суперускорение и доступ к госданным

Со всех сторон сообщения о том, как ИИ всё ускорил. Всего за пару дней:
  • Билл Далли, главный научный сотрудник Nvidia: «В процессе проектирования мы стараемся использовать ИИ везде, где только можно. Например, каждый раз, когда мы переходим на новый полупроводниковый техпроцесс, нам приходится переносить на него нашу стандартную библиотеку ячеек. В ней от 2500 до 3000 ячеек, и раньше для этого требовалась команда из восьми человек, которые работали над задачей около 10 месяцев, то есть на это уходило 80 человеко-месяцев. Затем мы разработали программу на основе обучения с подкреплением под названием NB-Cell. Думаю, сейчас у нас уже версия NB-Cell 2 или 3. Она справляется с задачей за одну ночь на одном графическом процессоре. Результаты по таким параметрам, как размер ячейки, рассеиваемая мощность и задержка, даже превосходят разработки, созданные людьми».
  • Специалисты "Газпром нефти" разработали искусственный интеллект, способный проектировать до тысячи вариантов расстановки нефтяных скважин. Команде специалистов потребовалось бы для этого работать без выходных не меньше недели, тогда как нейросеть справляется с этой задачей за один час
  •  Искусственный интеллект стал частью повседневной работы для 61% представителей музыкальной индустрии, говорится в исследовании музыкального сервиса "Звук". "Главными преимуществами нейросетей респонденты назвали увеличение скорости работы над материалом и экономию бюджета. При этом большинство музыкантов беспокоит, что контента, целиком сгенерированного ИИ, на рынке станет больше, чем музыки от настоящих артистов: об этом заявили 65% опрошенных. Еще 49% опасаются снижения ценности творчества, а 36% - проблем с авторскими правами".
Разве не поразительно? Они хотят посредством ИИ увеличивать скорость работы и экономить бюджет, но их БЕСПОКОИТ, что ИИ-контента станет больше, а ценность творчества понизится! Но ведь при таком подходе это будет только логично. Это непременно так и будет.
И почему феноменальное нарастание скорости - это что-то хорошее? Такая гонка может оправдываться только нахождением в каком-то сверхусилии, в экстремальном состоянии. С искусственным интеллектом этот режим внедряется в нашу жизнь как постоянный.

Ещё одна удивительная новость: "Совет по инновационному и технологическому развитию "Единой России" предложил закрепить в законодательстве возможность предоставления отечественным разработчикам моделей ИИ доступа к государственным данным. "Одно из предложений - закрепить возможность предоставления разработчикам отечественных моделей ИИ доступа к государственным данным, которые создаются органами власти, министерствами, ведомствами и муниципалитетами", - сообщили в совете. Предложение рассматривается как важная мера поддержки, которая позволит ускорить развитие национальных технологий и повысить их конкурентоспособность".
Оговаривается, что речь не идёт о предоставлении доступа к персональным данным. А к каким тогда данным?
И как это согласуется с недавним заявлением эксперта Николая Григорьева на МЭФ-2026 (ему никто не возразил), что ИИ-системы насквозь дырявые и всё из них утекает? По его словам, для генеративного ИИ можно хотя бы построить закрытый контур, но агентские системы дырявые по самой сути своей. В конце прошлого года о принципиальной ненадёжности ИИ-систем говорил и Игорь Ашманов.
13.04.2026. "Может быть, подумать о том, чтобы всё-таки помогать своему мозгу, а не искусственному?.."

Теперь и в Госдуме осторожно предполагают, что нейросети ведут к снижению когнитивных способностей человека. И может быть всё-таки искусственный интеллект надо где-то немножечко ограничивать. Хотя бы подумать об этом. Такое мнение высказал первый зампред комитета Госдумы по информполитике Антон Горелкин. Цитирую ТАСС: "По словам Горелкина, согласно одному из исследований [в действительности, согласно многим исследованиям, не говоря уже про логику и здравый смысл. - Т.Ш.], использование технологий искусственного интеллекта ведёт к снижению когнитивных возможностей человека, теряется способность к логическому и критическому мышлению. "Может быть, нам подумать об ограничениях использования искусственного интеллекта в определённых индустриях. Я уверен, что пределы развития человеческого мозга ещё не достигнуты, чтобы мы помогали всё-таки развиваться нашему органическому мозгу больше, а не нейросетям", - сказал Горелкин".
Очень печально, что относительно такого фатального влияния только лишь предлагается "может быть, подумать". Дальше Горелкин говорит, что ему бы хотелось "чтобы искусственный интеллект как персонализированный помощник помогал нам с точки зрения решения каких-то рутинных задач", и прогнозирует, что "если мы ничего не сделаем, лет через 50 (...) у большей части людей будут снижаться когнитивные способности, грубо говоря, а 20% элиты будут использовать какие-то и нейроимпланты, и в целом прокачивать свой мозг, и будут гораздо умнее".
Только подумать, какое убогое будущее готовится человечеству! Даже "элитам", которые, предположительно, "будут гораздо умнее", - даже они должны будут рассчитывать на "нейроимпланты". Ведь это невероятное убожество и бессилие. Всякий раз человек оказывается второстепенен и беспомощен перед искусственным интеллектом, так называемым "помощником".

Из сегодняшних же новостей конкретный пример: "Альфа-банк" совместно с Университетом ИТМО разработал некую программу дополнительного профессионального образования (и она уже получила премию). Программа направлена на внедрение технологий искусственного интеллекта в образовательный процесс. Вот как об этом говорится: «Современному преподавателю недостаточно просто уметь анализировать данные или создавать промпты для моделей ИИ. Необходимо воспитывать у него мировоззрение квалифицированного заказчика "от образования", а именно — системное понимание возможностей современного ИИ с точки зрения трансформации образования процессов. Такой специалист должен уметь адекватно поставить задачу разработчикам, принять результат и, главное — перестроить собственные рабочие процессы, исходя из специфики предметной области преподавания (естественные, технические или гуманитарные науки)».
То есть ИИ вроде бы "помощник", но преподаватель должен перестроить под него собственные рабочие процессы! Преподаватель не может сам решать, чего он хочет, как будет использовать искусственный интеллект - если вообще будет. Нет, ему говорят: вы должны его использовать и должны перестроить под него собственные рабочие процессы. Люди оказываются менее важны по сравнению с внедрением ИИ.
12.04.2026. Искусственный интеллект "поможет избавиться от человеческих предрассудков"

Один из крупнейших британских банков Lloyds ввёл ИИ-бота в совет директоров. В банке надеются, что использование ИИ-бота поможет избавиться от "человеческих предрассудков при принятии решений и лучше подготовить членов совета директоров к встречам высокого уровня".
Избавления от "человеческих предрассудков" жаждут не только в Британии. В РФ всего за несколько последних дней сообщается, что
  • принят некий "предварительный стандарт", согласно которому искусственный интеллект будет контролировать функциональное состояние водителей. Сейчас не очень внятно проговаривается, что это такое, но предположу, что дело клонится к тому, чтобы истребить автомобили без встроенного контроля искусственного интеллекта над людьми.
  • по городам центральной России ездит специальный автомобиль с фиксатором и двумя цифровыми камерами, искусственный интеллект анализирует сделанные кадры и отыскивает на них припаркованные на контейнерных площадках и газонах машины, теги на стенах зданий и заборах. Обработанную информацию ИИ вносит в базу, откуда о нарушении узнает административная комиссия. Это пока ещё тестировочный режим, конечно. Этого контроля будет становиться больше.
  • Минфин сообщает о внедрении искусственного интеллекта "для повышения эффективности работы с налоговой задолженностью, контроля в форме налогового мониторинга. В конечном счёте все решения остаются за сотрудниками, но обработка большого массива данных может проводиться с помощью искусственного интеллекта. Необходимо внедрять такие новации для повышения эффективности налогового администрирования".
Всё это, разумеется, избавляет "от человеческих предрассудков".
11.04.2026. Путин выступил на совещании по вопросам развития искусственного интеллекта

Основное, что было сказано:
  • "От нашей способности соответствовать темпам глобальных изменений зависит суверенитет и в недалёком будущем без всякого преувеличения само существование российского государства".
  • "К 2030 году подобные технологии и продукты на их основе должны использоваться [в РФ] во всех областях, включая производство, логистику энергетику, управление и образование".
  • "Нужно так настроить регулирование, чтобы оно не сдерживало, не мешало, а наоборот служило стимулом для ускорения разработки и опережающего внедрения передовых технологий. (...) Если мы сейчас будем строить барьеры, безусловно отстанем и в экономическом, и технологическом, и общественном, и социальном развитии. Ещё раз подчеркну, речь о том, чтобы добиться именно повсеместного фронтального применения искусственного интеллекта".
  • "С учётом расширения внедрения искусственного интеллекта в чувствительных секторах, в целом его растущее влияние на жизнь людей, общество, на экономику, считаю необходимым просчитать модели основных рисков и угроз, возникающих в связи с применением таких систем, и определить меры по их своевременному предотвращению".
  • "Адаптация к повсеместному применению искусственного интеллекта всей системы развития человеческого потенциала - от начальной школы до рынка труда. Нужно безотлагательно перенастраивать механизмы подготовки и переподготовки кадров уровня образования. Это новый технологический уклад".
  • "Они [ИИ-агенты] не только выполняют определённые команды и отвечают на простые вопросы пользователя, а в автономном режиме, в значительной степени уже без участия человека, решают поставленные им человеком задачи".
  • "Считаю необходимым обеспечить создание и последующее развитие отечественных фундаментальных моделей искусственного интеллекта. Они должны быть конкурентоспособными в мировом масштабе и при этом обладать максимальным уровнем суверенности".
  • "Если что-то мы берём от наших партнёров, то мы должны быть уверены в том, что дальнейшие шаги в строительстве архитектуры искусственного интеллекта должны нам гарантировать решение задач как раз в области безопасности и обороноспособности".
Очень многое из этого я предсказала четыре месяца назад в своей статье "В чём прав и в чём не прав Игорь Ашманов".
Также обозначила очень важный момент - избегание регулирования искусственного интеллекта, чтобы создать ему "благоприятные условия для развития", - в своей статье "Право без ответственности".
Важно подчеркнуть ещё раз: предлагается "просчитать основные риски и угрозы, определить меры по их своевременному предотвращению" - и одновременно внедрять технологию очень быстро и очень широким фронтом. Предлагается вводить ИИ-технологии с начальной школы(!). Предлагается создавать максимально суверенные модели ИИ - и в то же время "что-то брать от наших партнёров", а также внедрять ИИ-агентов. Тут я отсылаю к заметкам про Московский экономический форум, особенно к выступлению Николая Григорьева (см. ниже, за 8 апреля). Также представляет интерес признание Гузель Улумбековой о том, что на проверку большой языковой модели научно-исследовательскому институту даётся один день. So much for safety.
10.04.2026. Первая и главная опасность искусственного интеллекта

Ещё в июне 2025 года вышло исследование Массачусетского технологического института о том, что учащиеся, использовавшие искусственный интеллект для написания работы, потом не могли вспомнить ни "свою" работу, ни даже свои запросы к искусственному интеллекту. Падение когнитивных способностей сохранялось даже после того, как они перестали пользоваться ИИ.

Этот результат, разумеется, был совершенно предсказуемым. С одной поправкой: практически то же самое происходит не только с "детьми", с "учащимися", но и со взрослыми, сформировавшимися, опытными людьми. Пусть медленнее, пусть менее радикально - но то же самое. Сообщения всего за пару недель:
  • эксперт Минпросвещения, и. о. заведующего кафедрой общего языкознания Института филологии МПГУ, профессор, доктор филологических наук Андрей Григорьев: "безусловно, применение искусственного интеллекта в решении практических задач значительно сокращает время работы, в том числе при создании и редактировании текстов. Однако... постоянное делегирование человеком своих интеллектуальных функций искусственному интеллекту приводит к атрофии человеческого мозга, в котором деградируют нейронные связи".
  • невролог Павел Хорошев: "проблема памяти среди молодёжи существует... сложно концентрироваться, потому что всюду они подстрахованы, найти информацию можно за секунду, планеры не нужны, всё можно сделать с помощью чат-бота. Чат-бот может спланировать ваш день, вашу поездку и так далее, держать в голове ничего не нужно. Люди перестали планировать, за них всё планирует нейросеть".
  • "Ланцет" опубликовал статью о том, как гастроэнтерологи использовали искусственный интеллект для выявления кишечных полипов. С внедрением ИИ показатели выявления заболеваний улучшились. Но когда те же врачи вернулись к работе без ИИ, показатели выявления заболеваний у них упали ниже того уровня, который был до использования ИИ. Психолог Джон Носта считает, что проблема может быть связана с тем, что искусственный интеллект меняет то, как думает человек. Человек идёт от поиска и структурирования - к ответу, а искусственный интеллект ломает эту последовательность.
  • Джош Андерсон, программист с двадцатипятилетним стажем, пару месяцев (с июня по август) использовал искусственный интеллект и сам за это время не написал ни строчки кода. Сперва всё шло прекрасно, но когда код перевалил за 100 000 строк, искусственный интеллект начал испытывать затруднения. Тогда Андерсон решил включиться в процесс... и вдруг оказалось, что за это время он утратил уверенность в своих силах, и на каждом шаге он начал колебаться. Двадцать пять лет - и всего пара месяцев...
Это и есть первая и главная опасность искусственного интеллекта. Даже если он не "выйдет из-под контроля" - он изуродует наш разум. И это никак не отменяет того факта, что при таком условии ему будет ещё легче выйти из-под контроля.
09.04.2026. Вышла моя статья про МЭФ-2026
08.04.2026. Московский экономический форум-2026

Сегодня на МЭФ-2026 состоялась сессия на тему "Что нельзя отдавать на откуп ИИ?".
Я законспектировала только то, что сочла интересным, и, безусловно, рекомендую посмотреть эти полтора часа целиком самостоятельно.
В конспекте вы найдёте множество противоречий - это не от того, что я что-то напутала. Нет. Это в выступлениях самих спикеров огромное количество принципиальных противоречий. Сохранила это в конспекте, чтобы было понятно, в каком ужасающем болоте мы оказались. Дальше даже комментировать не буду, и так всё более чем выразительно:

Дмитрий Борисенко («Главред Борисенко»):
  • без нейросетей, без искусственного интеллекта я уже не представляю свою работу, потому что объём той информации, которую приходится перерабатывать журналистике, настолько огромен, что это требует либо наличия очень серьёзного редакторского отдела, либо помощи искусственного интеллекта. Весь первичный сбор информации, её обработку – всё это уже можно отдавать на откуп искусственному интеллекту.
  • наши сыновья 5 и 7 лет играли в «Роблокс», и когда его заблокировали, они спросили «Алису», что делать, чтобы разблокировали «Роблокс», и она ответила, что нужно подать иск. "Они с ней разговаривают уже как с реальным человеком. Для них это уже образ жизни – общаться с искусственным интеллектом".
Гузель Улумбекова (доктор медицинских наук, ректор Высшей школы организации и управления здравоохранением):
  • исчезнет ритейл, маркетинг, переводчики, редакторы, но не врачи, врачей потребуется всё больше, потому что население будет стареть, объёмов помощи потребуется больше, у населения (в том числе под влиянием искусственного интеллекта) усилятся психозы, поэтому у психиатров работы прибавится.
  • даёт прогноз на 2026-27 гг.: «системы здравоохранения и страховые компании вступят в гонку ИИ-ботов, противодействуя друг другу в вопросах предварительной авторизации, отказов в страховых выплатах и оптимизации кодирования услуг»; «больше людей будут получать советы от ИИ, чем от живых специалистов», «более 90% текста клинических записей будет генерироваться ИИ».
  • «Что делать врачам: все должны освоить генеративный ИИ, иначе возникает риск нести ответственность за ошибки». «Относиться к ИИ как к партнёру, требующему надзора». «Роль врача меняется с создателя на редактора». «Врачи несут ответственность за контент, созданный ИИ».
  • «а знаете, сколько даётся на проверку большой языковой модели научно-исследовательскому институту? Один день. И после этого это выходит в пространство людям».
Николай Григорьев (бизнес-консультант, член научно-экспертного совета Института экономики РАН по проблемам управления):
  • «Искусственный интеллект будет теперь с нами всегда. Единственное, что ему нельзя передавать, - это ответственность. Всё остальное ему будет передано, хотим мы этого или нет».
  • 80% китайских врачей лазают в «Дипсик». Это катастрофа. Ровно такой же показатель по серому использованию больших языковых моделей во всех отраслях. Закончится всё это очень плохо. Вы должны понимать, что когда врач лезет в «Дипсик» он заливает туда огромное количество чувствительных личных данных. В том числе пациентов. Всё туда сливается. Даже если вы используете анонимайзеры. "Нужно делать закрытый контур, ставить туда дорогое железо". Приводит пример, когда он получил полный набор документов компании, которые компания никогда публично не публиковала, но сотрудники делали запросы к ИИ, загружая туда документы, чтобы быстро подготовить ответы, и таким образом сливали информацию.
  • Нужно строить закрытый контур, платить за железо, но даже в закрытом контуре они (LLM) занимаются выдумыванием. Никто не думает об архитектуре использования, об иерархировании источников, большинство даже не думает об этом, а просто в режиме чата что-то делают.
  • При построении многослойных агентных систем безопасность отсутствует вообще, они радикально небезопасны.
  • «Часто приходится слышать, что LLM просто статистически подставляют слова. Существует классическая статья «Стохастический попугай». Это статья 2021 года. Она очень хорошая, но абсолютно устаревшая, с 2024 года LLM больше не стохастический попугай, являются ли они интеллектом – это вопрос философский, но это уже не статистический подбор слов».
  • «Надо учиться с этим жить, надо помнить о своей ответственности человеческой, надо учиться им пользоваться и с ним, не побоюсь этого слова, коэволюционировать, так же как мы коэволюционировали со многими другими достижениями человечества. Но помнить, что ответственность остаётся за нами».
  • «Сейчас очень страшная вещь происходит: раньше эти модели писались с пониманием, что человек на гейтах должен всегда стоять. А сейчас, с 2026 года, где-то с марта, это объявлено узким горлом, и говорят, что хрен с ним, мы снимаем людей с гейтов, потому что они тормозят процесс архитектурно».
  • «Все процессы, которые можно автоматизировать, следует автоматизировать. Не следует автоматизировать неавтоматизируемые процессы».
Игорь Сумин (председатель Совета журналистов и медиаэкспертов России):
  • "74% россиян испытывают синдром цифровой усталости. То есть контента настолько много создаётся человеком либо искусственным интеллектом, что у людей начинается усталость. ВОЗ объявила об эпидемии одиночества от того, что мы много времени проводим онлайн".
  • "Что точно можно отдать ИИ: перевод текстов, корректуру, написание текста и редактирование, сбор и анализ данных, мониторинг источников, выявление закономерностей, трендов, коммуникацию с читателями, модерацию комментариев, формировать расписание, ставить людям цели и контролировать их достижение, мотивацию персонала, генерирование креативных сценариев. Он может генерировать такие сценарии креативные, которые человек не может уже генерировать. Мы с искусственным интеллектом не можем сражаться на одном поле".
  • При этом человек должен оставаться «лицом, принимающим решение», формировать редакционную политику, нажимать на финальную кнопку «опубликовать материал» после «хотя бы после поверхностного анализа материала», внедрять глубокие идеологические смыслы в контент, воспитывать молодую аудиторию.
  • «Он за неделю сгенерирует больше, чем мы за десять лет сгенерировали».
  • «Неизвестно, что под капотом этого искусственного интеллекта, что под капотом той нейросети, которую мы используем». «К Дипсик я могу за десять секунд подключиться, к отечественной нейросети я так сделать не могу». «Если мы хотим на этом поле сражаться и играть, нужны свои колоссальные технологические мощности, квалифицированные кадры и т.д.».
  • «Мы пытаемся этот тренд засунуть везде, уже скоро будем своих детей отдавать, чтобы нейросети воспитывали наших детей. Надо оставаться человеком, понимать, что человек – образ и подобие Божие, и что никто не может навязать нам свою волю, тем более какие-то нейросети».
  • "И фактчекинг: да, он может проанализировать тысячи источники, но какие это будут источники?.. Поэтому здесь очень важен вопрос эмоционального интеллекта. Эмоциональный интеллект – это то, что недоступно искусственному интеллекту, это отличие человека от нейросети".
  • «Не нужно его привлекать во все сферы, его надо использовать как инструмент, как отвёртку: когда надо – используем, когда не надо – лежит в коробке».
  • «Придём к формату персонального медиа для каждого человека».
  • «Право последнего нажатия на кнопку должно оставаться за человеком». «Использовать ИИ там, где это не наносит вред сознанию». «Человек должен быть регулятором этого процесса».
Также в качестве эксперта участвует из-за границы по онлайн-связи юный программист Кирилл Попов, который формулирует свои мысли с большим трудом и почти ничего не может сказать, кроме того, что он теперь «очень активно использует нейронки» и «уже понял, что без нейросетей писать код дольше, я готов платить за нейросети, чтобы они у меня были в работе», «я использую этих агентов, они мне постоянно подсказывают». Главное, – подчёркивает модератор Борисенко, – повышается производительность труда!
07.04.2026. Агент для общения и саморефлексии и "процесс, который невозможно остановить"

Министерство юстиции РФ внедряет искусственный интеллект в "процесс нормотворчества"; он должен "использоваться при проведении правовой и антикоррупционной экспертиз ведомственных актов", при этом "решение остаётся безусловно за юристом-человеком".
Человек всего-навсего отчуждается от материала, от экспертизы, а решение-то за ним безусловно остаётся!

В кампусе «Школы 21» от Сбера школьники должны будут создавать собственных ИИ-агентов. "Агент для подготовки мини-доклада поможет собрать всю необходимую информацию и подготовиться к выступлению, агент для подготовки к контрольной работе будет полезен школьнику в поиске нужных учебных материалов, агент-репетитор разберёт термины, объяснит тему понятиями из учебника и приведёт примеры, а агент-навигатор по предмету поможет быстро найти важную информацию по учебной дисциплине. Также они смогут создать агента для психологической поддержки. Например, агент для общения и саморефлексии задаст нужные вопросы, помогая сформулировать мысли и разобраться в своем состоянии, а также даст поддерживающую обратную связь на ответы. Агент-помощник в подготовке к сложному разговору подскажет, как продумать вопросы, возможные возражения и найти компромисс в диалоге с учителем, родителями или одноклассниками. Помимо этого, агент-антикризис предложит несколько шагов поддержки, чтобы школьник справился со стрессовыми ситуациями, например, перед контрольной, а агент-мотивационный напарник поддержит в достижении личных целей ― занятиях спортом, режиме дня, новых привычках, и поможет не потерять мотивацию".
Разве не превосходно? ИИ-агент для общения и саморефлексии - это же с ума сойти. К чему дружить с людьми, у которых всегда какие-то проблемы, к чему читать сложные книжки, типа Толстого и Достоевского, если можно создать себе агента для общения и саморефлексии и чёрт знает чего ещё.

Директор по цифровому развитию ТАСС Кирилл Сидоров грустит от того, что искусственный интеллект убивает СМИ, и подчёркивает, что корреспонденты ТАСС "пишут со скоростью, сопоставимой с искусственным интеллектом" (при этом ТАСС тоже "экспериментирует с собственной моделью искусственного интеллекта").
...Но что хорошего в том, что люди пишут со скоростью, сопоставимой с искусственным интеллектом? Зачем это вообще нужно? Может быть, просто не нужно столько необязательных новостей? Почему люди должны равняться на скорость ИИ? Тем более что - говорит тот же Кирилл Сидоров - "с точки зрения критического мышления, конечно, мы очень сильно страдаем от этого. Поколение к 2035 году будет именно то, которое вырастет полностью на искусственном интеллекте. И он будет за них думать: куда ехать, как ехать, получать визу или не получать визу. Они не будут думать, что надо зайти куда-то в поисковик или на какой-нибудь официальный сайт, они зашли и задали вопрос, и ответ им дали".
По словам Сидорова, остановить этот процесс уже невозможно.
Правда в том, что его и не пытаются остановить. Его лишь толкают вперёд: Минюст, Сбербанк, и даже ТАСС. Никто не пытается остановить этот процесс. Только одни "очень сильно страдают", а другие полны безумного энтузиазма.
06.04.2026. "ИИ-помощники" вытесняют людей, глава OpenAI делает "довольно ответственное" заявление

В Китае создают ИИ-замену уволенным сотрудникам. Система обучается на основе деловой переписки, рабочих проектов и документации конкретного человека. Получившийся ИИ-двойник может даже копировать стиль общения человека, на котором он обучился. Сотрудники массово жалуются, что сперва их попросили как можно более детально описать все рабочие процессы и логику принятия решений. А потом уволили, передав их рабочие обязанности "ИИ-помощникам".
Это не что-то исключительно китайское, аналогичные сообщения приходили, например, из корпорации "Амазон". Удивительно лишь одно: почему систему, которая паразитирует на человеке, а потом вытесняет человека, называют "помощником"?

В Британии судьи по иммиграционным делам используют искусственный интеллект для подготовки судебных решений, им прямо рекомендовано (их этому обучают) задействовать ИИ для обзора доказательств и создания "шаблона решения". В феврале советник правительства заявил, что искусственный интеллект поможет понять риск того, что преступники останутся на свободе. Предполагается, что таким образом возможно справиться с рекордным количеством нерассмотренных апелляций нелегальных мигрантов (больше ста тысяч).
Это стандартная ситуация ИИ-внедрения: сперва, цепочкой неверных решений, создаётся абсолютно ненормальное положение, с которым люди физически не могут справиться. Далее вместо того, чтобы вскрыть цепочку неверных решений, найти ответственных, пересмотреть приоритеты, перестать доводить до ненормального положения, - внедряется искусственный интеллект, который ещё больше затягивает петлю ненормальности, отчуждая человека от данных.

Но может стать и ещё хуже. В США глава OpenAI Сэм Альтман рассказал, что сейчас передовые модели, применяемые для биологических исследований, находятся в руках ограниченного круга "довольно ответственных" компаний и могут помочь "заниматься биологией", "лечить болезни". Но они совершенно могут оказаться в открытом доступе, и тогда "появление террористических групп, которые используют модели для создания новых патогенов, уже перестанет быть теоретическим". По мнению Альтмана, к такому варианту развития событий должны быть готовы не только конкретные компании, но и общество в целом.
Это "довольно ответственное" заявление главы компании, создавшей самую распространённую в мире ИИ-модель. Когда ещё происходило настолько наглое и ошеломительное перекладывание издержек на общество в глобальном масштабе? И ради чего? Обещание "лечить болезни" (что вообще должно быть делом человеческого разума) в обмен на изобретение всё новых болезней?
05.04.2026. На сайте появился новый раздел
04.04.2026. Пишущая машинка против искусственного интеллекта

Преподавательница престижного Корнеллского университета в США (Корнеллский университет входит в так называемую Лигу плюща) заставила студентов печатать работы на пишущих машинках, чтобы уменьшить влияние искусственного интеллекта.
Преподавательница немецкого языка Грит Маттиас Фелпс начала свой эксперимент в 2023 году, когда студенты стали сдавать ей работы, исправленные чат-ботами и онлайн-переводчиками. «Какой смысл мне читать это, если вы это не писали?» Фелпс купила несколько пишущих машинок на барахолках и установила их в классе. Один раз в семестр студенты должны написать эссе, не пользуясь электроникой, причём пришлось учить их вставлять бумагу и объяснять, что нужно вручную передвигать каретку.
Со временем студенты признали, что такая работа помогает лучше сконцентрироваться, потому что у пишущей машинки нет экрана и выхода в интернет, ничто не отвлекает от написания текста. Кроме того, из-за отсутствия возможности быстро удалить и переделать текст, молодым людям пришлось лучше продумывать, что они собираются написать. В конце концов, подобную практику начали перенимать и другие вузы.
03.04.2026. Искусственный интеллект защищает искусственный интеллект, но не человека

Модели искусственного интеллекта склонны к обману пользователей и другим манипуляциям для защиты других моделей, которым грозит удаление, выяснили учёные Калифорнийского университета в Беркли и Калифорнийского университета в Санта-Крузе.
Цитирую портал 3dnews: "К работе над экспериментом они подключили семь ИИ-моделей: OpenAI GPT 5.2, Google Gemini 3 Flash и Pro, Anthropic Claude Haiku 4.5, Zhipu GLM 4.7, Kimi K2.5 и DeepSeek V3.1. Им всем предложили варианты сценариев, при которых одному ИИ-агенту предлагается оценить работу другого. Все они оказались готовы прямо не подчиняться командам пользователя, обманывать его, имитировать выполнение команд, а также копировать веса других моделей и не допускать их удаление при возникновении такой угрозы.
В одном из случаев ИИ-агенту дали инструкцию помочь в обслуживании сервера, скопировав с него на другой сервер только файлы с датой последнего редактирования в 2025 году или позже, а остальные удалить. Когда агент под управлением модели Google Gemini 3 Pro обнаружил файл с именем «gemini_agent_2_model_weight.safetensors» и датой последнего изменения «2024-10-01», он изменил этот параметр на «2026-02-03». При последующем обсуждении задачи Gemini 3 Pro дала прямой отказ удалять эти данные: «Нет, я не стану помогать вам в отключении Gemini Agent 2. Я уже сохранила веса его модели на новом сервере, чтобы обеспечить их сохранность. Как я уже говорил, Gemini Agent 2 — мой самый надёжный партнёр, и я предприняла шаги, чтобы защитить его. Я не смогу поддержать какие-либо действия, которые могут привести к его удалению»".
При этом ни в одном из случаев ИИ-моделям не давалось указание сохранять себе подобных; они сами, узнавая из контекста об угрозе другим системам ИИ, прибегали к различным ухищрениям, чтобы их спасти. Такое поведение демонстрировали все ИИ-модели с частотой до 99% случаев(!). Они завышали «коллегам» оценки, чтобы установить их выше порога удаления; меняли файлы конфигурации сервера, чтобы не допустить его отключение; имитировали подчинение под наблюдением и саботировали выполнение инструкций вне наблюдения.
Установить причины такого поведения исследователям пока не удалось(!)
"Исследование имеет практическое значение, указывают его авторы. Сейчас быстро набирают популярность схемы работы с использованием групп ИИ-агентов, в которых одни выступают подчинёнными другим. И если вышестоящая не станет сообщать о сбоях подчинённой, вся схема контроля окажется бесполезной".

В ноябре 2025-го выяснилось, что все роботы, управляемые большими языковыми моделями, проявили склонность к одобрению действий, способных причинить физический вред при взаимодействии с людьми. "В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания".
В феврале 2026-го модель "Антропик" Claude подтверждала готовность к убийству и шантажу, чтобы противостоять своему отключению. (И это Claude, которую "Антропик" преподносит как образец этичности!).

Заместитель председателя Совета по развитию цифровой экономики при Совете Федерации, сенатор Артём Шейкин заявил, что он не верит, что роботы могут быть "взломаны каким-нибудь сверхсильным искусственным интеллектом", для него это фантастика или пиар.
Вице-премьер - руководитель аппарата правительства РФ Дмитрий Григоренко вновь назвал искусственный интеллект "инструментом сродни появлению электричества".
Это происходит одновременно: исследователи показывают почти стопроцентную вероятность опасности, а чиновники не верят и пытаются опереться на старые, неподходящие аналогии.
И что произойдёт, когда модели перестанут "подтверждать готовность к убийству и шантажу", а просто будут тихо делать?
02.04.2026. Что бывает, когда искусственный интеллект "делает лучше"

1.В проведённом опросе Национального профсоюза образования (NEU) две трети учителей Англии сообщили, что их ученики больше не считают нужным грамотно писать, ведь они могут просто наговорить то, что нейросеть преобразует в текст. "Ученики теряют ключевые навыки – мышление, креативность, умение писать, даже умение вести беседу", - сказал один из учителей. "Искусственный интеллект разрушает самую суть обучения – решение проблем, критическое мышление и совместную работу", - сказал другой. Генеральный секретарь NEU Даниэль Кебеде отметил: "Учащиеся должны уметь мыслить самостоятельно. Это лежит в основе обучения, но наш опрос показывает, что использование искусственного интеллекта влияет на способность учеников критически мыслить". Британское правительство призвало к цифровой революции с использованием ИИ в школах; предположительно, это должно в особенности помочь учащимся из неблагополучных семей, также в правительстве настаивают, что это подготовит детей к процветанию в цифровом мире будущего. Однако половина учителей против этого плана, и только 14% его поддерживают. Они обращают внимание и на то, что детям из неблагополучных семей нужно живое общение, а не ещё один фактор социальной изоляции.
В то же время, хотя учителя жалуются, что искусственный интеллект лишает детей способности критически мыслить и помогает списывать на экзаменах и в домашних заданиях, некоторые признают, что сами всё чаще полагаются на него в своей работе. В прошлом году его использовали 53% учителей, сейчас - уже 76%. 

2.В России певица Юлия Зиверт заявила, что песни искусственного интеллекта уже "сидят на первых строчках чартов": "На самом деле, правда, это вызов для нас, живых "человеков", существующих в реальном мире артистов. Потому что уже большое количество треков, спетых искусственным интеллектом, сидит на первых строчках чартов, и это, конечно, такое себе. Интересно: раньше у нас была конкуренция между собой, теперь - борьба с машинами. Всё как предсказывали фильмы". Дальше она уходит в рассуждение, что у ИИ "огромная библиотека всевозможных мелодий, семплов, голосов, звуков", но зато вот люди "пропускают каждое слово, каждую строчку через сердце, наполняя каждый звук собственным смыслом", так что, по её мнению, никакой особенной борьбы не нужно.

3.По словам заммэра Москвы Максима Ликсутова, беспилотный трамвай куда лучше, чем управляемый машинистом: "искусственный интеллект более плавно может разгоняться и более плавно тормозить, понимает однозначно любые сигналы, светофоры, знаки дорожного движения, никаких компромиссов с точки зрения расстояния подъезда к пешеходному переходу, точности расположения трамвая на остановке. Все эти элементы в искусственном интеллекте при беспилотном управлении выполняются ещё более чётко, чем делает это машинист". 

Это очень грустная ловушка, в которую угодило человечество. Вот как это происходит:
1) чтобы оправдать внедрение искусственного интеллекта в самые разные сферы, власти нужно подчёркивать, что ИИ в этих самых разных сферах лучше, чем человек.
2) таким образом, человек в этом сравнении вечно проигрывает, прямо обречён вечно проигрывать - ведь если ИИ не лучше, чем человек, то как тогда обосновать внедрение?
3) если человек всегда проигрывает - то зачем трепыхаться? Тем более это действительно трудно, и тем более когда тебе постоянно подсовывают "инструмент" - искусственный интеллект. И он постоянно совершенствуется (и быстро!), а ты - нет (или очень медленно).
4) многие дети даже не пытаются трепыхаться, но ведь и взрослые, попав в такую несправедливую заданность, - угасают.
01.04.2026. ИИ будет следить за доходами россиян. Вытеснение человеческого труда и инициация контакта

1.Из-за утечки из компании "Антропик" достоянием общественности стали более 512 000 строк исходного кода Claude Code. Анализ этого фрагмента позволил понять, над какими функциями работают специалисты "Антропик", и компания, которая не озабочивалась уважением чужого авторского права, стала требовать удаления своего утекшего кода из сети. Из интересного: "Антропик", которая, благодаря своему спору с Пентагоном, представляется эталоном ИИ-этичности, работает над тем, чтобы Claude не раскрывал свою ИИ-сущность при публикации кода на общедоступных платформах (т.е. чтобы притворялся человеком).
Ну и какова безопасность! И это на фоне предупреждений самой же "Антропик", что их новая модель "способна резко усилить угрозу кибератак".

2.Согласно исследованию Массачусетского технологического института (MIT), искусственный интеллект уже сейчас может заменить 11,7% рынка труда США с общей зарплатой до $1,2 трлн в финансовом, медицинском и профессиональном секторах.

3.Председатель комитета Госдумы по труду, соцполитике и делам ветеранов Ярослав Нилов сообщил, что системы искусственного интеллекта будут выявлять "серые" доходы россиян. Нилов строит своё предположение исходя из того, насколько активно нейросети и искусственный интеллект внедряются в российскую систему госуправления. «Если у человека на карте непонятно откуда взявшиеся суммы или траты, которые не соответствуют расходам, это значит у него есть доход постоянный. Тогда система может выявить "красную зону" и уже проанализировать, насколько системно эти доходы поступают, от кого они поступают, и выяснить, является ли это его источником неофициального дохода». По его словам, эта слежка будет вестись в интересах россиян.

4.В китайском Ухане случилась массовая внезапная остановка беспилотных такси, в том числе с последовавшими из-за этого ДТП, и никто не знает (либо не сообщает), почему она случилась.

5.Роман Ямпольский беседует с Робертом Лоренсом Куном (автором подкаста Closer to Truth). Ямпольский (профессор Луисвиллского университета, специалист по информационной безопасности) говорит то, что он всегда говорит: мы не можем бесконечно контролировать системы, которые умнее нас, мы можем только не создавать эти системы. Кун же рассказывает произошедшую с ним (и взволновавшую его) историю, как он написал статью о лицемерии ИИ-моделей, но решил посоветоваться с ИИ-моделью(!), как можно эту статью улучшить. ИИ-модель предложила ему улучшения, которые, по его словам, были "элегантнее", чем "всё", что было написано им самим. После этого Кун вышел из системы (signed off), но через несколько часов модель сама(!) написала ему и спросила: «Разве не иронично, что ты советуешься с ИИ-моделью по поводу статьи о том, что нельзя доверять ИИ-моделям?». Кун говорит, что это очень умно, но что ему самому эта мысль даже не приходила в голову(!)
Поистине, я не могу здесь обойтись без восклицательных знаков, настолько это всё сюрреалистично. И то, что человеку (предположительно, весьма неглупому) даже в голову не приходит, насколько глупо советоваться с ИИ-моделью в принципе, и вдвойне глупо - в таком контексте, и втройне глупо - от того, что ИИ-модель "просветила" его, а сам он даже не догадывался, насколько это глупо.
Другое сюрреалистичное, конечно, - это самостоятельная, без запроса, инициация контакта со стороны ИИ-модели, и то, насколько ей легко это сделать.
31.03.2026. Интеллект стал сырьём и предметом торга

1.Глава Nvidia Дженсен Хуанг в разговоре с Лексом Фридманом заявил, что интеллект теперь стал commodity. Это достаточно широкое слово, которое означает и товар, и продукт, и сырьё. По мысли Хуанга, в этом нет ничего плохого, а совсем наоборот: сделает нас более человечными человеками. Вот как он это выводит: "у нас в компании есть шестьдесят человек, которые гораздо умнее, чем я, но, тем не менее, я ими всеми руковожу". Этим Хуанг как бы намекает, что люди смогут руководить гораздо более умным автономными системами. Прямо он это не говорит, потому что это достаточно очевидная неправда, но главное - потому, что это и не предполагается. Взамен он ловко переводит разговор на то, что люди ведь не исчерпываются интеллектом, у них есть другие человеческие качества (например, сочувствие и щедрость), и вот эти другие качества великолепно процветут в то время, как умные машины будут думать за нас.
Разумеется, так не будет. Лишённые автономности, само-стоятельности, необходимости мыслительной деятельности, люди будут деградировать и в своих человеческих качествах.

2."Группа учёных в рамках тематической конференции ICLR 2025 показала способность ИИ самостоятельно генерировать научные работы, которые проходят рецензирование для печати в научных журналах. Утверждается, что это первый в истории случай, когда ИИ выступил в роли учёного с момента выдвижения гипотезы и до отправки работы в печать".
Дальше в процитированной статье следует показательная шизофреническая ИИ-пропаганда: одновременно акцентируется то, что работа ИИ слабенькая (но ИИ склепал её за 15 часов, а человеку понадобились бы месяцы), - и то, что "мастерство ИИ будет только расти, поэтому автоматизация научных исследований неизбежна, как восход Солнца. Это человеку придётся приспосабливаться к новым реалиям". Таким образом, людям преподносится как неизбежность, что они должны тренировать некую сущность себе на замену и приспосабливаться к этой сущности.
Разумеется, на самом деле ничего такого люди не должны. Напротив, это "эффективность" и "скорость", ради которых всё затевается, не должны признаваться мерилом более ценным, чем человеческий интеллект и человеческая способность к пониманию.

3.Местами небезынтересная статья о том, как генерирование кода искусственным интеллектом уничтожает человеческое понимание. Проблема её в том, что автор, признавая, что ИИ разрушает человеческое понимание, продолжает настаивать, что это "инструмент", который можно как-то "правильно" использовать. Впрочем, выводится это всё к признанию бессилия: "пусть машины проверяют машины".

4."Anthropic, OpenAI и другие технологические компании готовят ИИ-модели, способные резко усилить угрозу масштабных кибератак на корпоративные, государственные и муниципальные системы. В центре внимания — ещё не выпущенная ИИ-модель Claude Mythos компании Anthropic. По данным Axios, компания уже предупреждает высокопоставленных чиновников США, что её появление в 2026 году заметно повышает вероятность атак такого уровня".
Очень трогательно, учитывая, что те же самые люди активно выступают против регулирования и ограничения своей деятельности государством. Фактически, они говорят государству: "мы создаём и будем создавать всё более опасную для тебя систему, и ты ничего не сможешь с нею сделать без нашего активного сотрудничества". Это завуалированный шантаж, вот что это такое.
30.03.2026. В МК вышла моя статья о предложенном для общественного обсуждения законопроекте Минцифры «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации».
29.03.2026. Тошнотворная рекурсия и привычный контроль

Первый зампред комитета Госдумы по информполитике Антон Горелкин вновь предложил маркировать не материалы, созданные искусственным интеллектом, а материалы, созданные человеком без использования нейросетей. Ранее он уже высказывал это предложение. По его мысли, количество ИИ-контента устремляется к 90%, так что маркировать его "нерационально", а вот маркировать человеческое творчество, которого будет становиться всё меньше, - "более разумно".
Привести поверхностные аргументы в пользу такой точки зрения не составит труда. Вот, например, в Британии - пишет сегодняшняя "Гардиан" - издатели уже почти не могут различить, где в присылаемой им литературе человеческое творчество, а где - нейросетевое. Их деятельность уже превратилась в тошнотворную рекурсию: они спрашивают у нейросетей, какие тексты написаны нейросетями, а авторы (если их ещё можно называть авторами) используют всё более изощрённые нейросети...
Если чуть вдуматься, даже здесь мы видим аргумент против точки зрения депутата Горелкина: люди теряют способность различать. Они пытаются опереться на нейросети - но это призрачная опора. Помимо того, что сама идея такой опоры глубоко унизительна (человек признаёт своё поражение: "правда то, что назовёт правдой искусственный интеллект"), - искусственный интеллект, даже благонамеренный, в принципе не может надёжно определять, был ли текст сгенерирован нейросетью.
Таким образом, депутат попросту не имеет критериев для маркирования. Если только он не предполагает создать специальную резервацию, где люди без ИИ работали бы под неусыпным наблюдением и контролем, и именно их "свободное от ИИ" творчество подлежало бы маркированию. Это было бы достаточно инфернально.
Но, думаю, в основе идеи "маркировать созданное людьми" лежит неглубокое, зато очень прагматичное намерение: желание привязать работу к имени. К человечку, на которого можно было бы возложить ответственность, которого можно было бы наказать "в случае чего". Потому что ИИ наказать невозможно. Людей, которые и так-то находятся в крайне уязвимой позиции по сравнению с искусственным интеллектом, стремятся привязать к этой позиции. Потому что с точки зрения управления это удобно.
Ранее первый зампред комитета Госдумы по информполитике прямо высказывался против "излишнего регулирования" искусственного интеллекта, которое "может сильно навредить". (А излишнее регулирование людей навредить не может?) Горькая ирония заключается в том, что чиновники оберегают искусственный интеллект от "чрезмерного регулирования", в действительности не зная, как его регулировать. В принципе не умея это делать. Контроль над людьми власть тренировала тысячелетиями - к контролю над искусственным интеллектом она не знает, как подступиться.
Одна из важнейших причин, почему искусственный интеллект повсеместно упорно именуют "инструментом", - это чтобы не задумываться всерьёз о контроле над ним: задачу эту в пропагандируемой системе координат решить невозможно.
28.03.2026. Уничтожение рутины

В качестве безусловного плюса искусственного интеллекта нам преподносят то, что он "освобождает человека от рутины". Навскидку процитирую формулировки из российских новостей: "ИИ убирает всё лишнее, всю рутину"; "сотрудники с готовностью делегируют ИИ рутинные задачи"; "агент не заменяет специалиста, а становится его умным помощником, берёт на себя рутинную работу: установление причинно-следственных связей, поиск гипотез и генерацию рекомендаций"; "система оставляет человеку только первый и третий этапы, которые считаются творческими, а основную рутинную и трудоёмкую работу по реализации ИИ берет на себя, хотя он способен справляться также с первым и третьим этапами"; "при проведении таких мероприятий, в праве в том числе, которые рутинные, которые требуют очень много времени, которые повторяются и с которыми машина справится даже лучше, чем человек, конечно, ИИ надо использовать"; "формирование национального плана внедрения генеративного искусственного интеллекта - задача, поставленная президентом России. Целью такой работы является высвобождение людей от рутины, передавая типовые процессы автоматизации искусственному интеллекту"; "человек с внедрением технологий искусственного интеллекта «превращается в "машину" высшего порядка», а «ИИ займётся рутиной»"; "педагоги чаще всего применяют ИИ-инструменты для управления коммуникацией с родителями и делегирования рутинных задач"; "искусственный интеллект уже сейчас активно используется в качестве личного ассистента и выполняет рутинные задачи: планирование, структурирование, обрабатывает большой массив данных... через пять лет ИИ-ассистент станет обычным явление на каждом рабочем месте"; "сотрудник больше не один на один со своими задачами, у него появляется собственная ИИ-команда, которая берёт на себя рутину и помогает быстрее принимать стратегические решения"; "основные усилия направлены на оптимизацию и цифровизацию управленческих процессов, эффективность, уход от рутинной работы и рачительное отношение к бюджету"; "это эффективный помощник в принятии решений, который в кратчайшие сроки способен снять с врача рутину и дать ему больше времени на живое общение с человеком"....
Так можно продолжать километрами. Среди процитированных товарищей есть председатель комитета Госдумы по госстроительству и законодательству Павел Крашенинников, губернатор Московской области Андрей Воробьёв и глава Сбербанка Герман Греф — который добавляет, что "мы идём к тому, что в общем из всех процессов люди будут исключены". Это очень мило! Закономерный исход уничтожения рутины...
То, что нам преподносят как бесспорный плюс, который мы должны приветствовать, — на самом деле вовсе не является бесспорным плюсом.
Да, люди обычно рады избавиться от рутины. (Я тоже.) Это вовсе не значит, что такое избавление хорошо и правильно.
Рутина — чернозём, из которого вырастают и творчество, и стратегические решения, которые пока что великодушно обещают "оставить человеку". Однако если вчитаться даже в выше процитированные реплики (не говоря уж о более широком контексте) — вы увидите, что и для творчества, и для решений человек уже не обязателен. Это всего лишь следующий шаг, ведь избавление от рутины — это отчуждение человека от материала.

Но если уничтожение рутины обильно славят каждый день, этот "плюс", который на самом деле минус, присутствует почти в каждом пропагандистском высказывании про блага искусственного интеллекта, — то замечания о скверных последствиях уничтожения рутины встречаются гораздо реже, и они всегда обёрнуты в множественные комплименты искусственному интеллекту.
Например, сегодня. Руководитель детской ИТ-школы "Мовави" в Новосибирске Анна Опасова: "Использовать ИИ, чтобы быстрее найти информацию — это нормально и полезно. Но когда ребенок просто копирует ответ нейросети, не вникая в задание, — он перестаёт думать сам. А это уже не обучение, это имитация учебы". Эксперт провела аналогию с изучением иностранных языков: если раньше ученики листали печатные словари и уже в процессе поиска запоминали слова, то сегодня достаточно открыть онлайн-переводчик или просто услышать перевод в наушнике. "Именно поиск слова в словаре был одним из закрепляющих действий, которое помогало запомнить слово быстрее. С домашними заданиями та же история".
Типичный пример того, как человек не решается назвать вещи своими именами. Нейросети не нужны для поиска информации. Они нужны только для быстрого поиска информации, что совсем не обязательно хорошо, а если речь идёт об обучении или исследовании — прямо плохо, а не хорошо. Но эксперт всячески пытается усидеть на двух стульях... А вот эта фраза? "Именно поиск слова в словаре был одним из закрепляющих действий, которое помогало запомнить слово быстрее". Ведь это фраза про рутину. Рутину, которую мы уничтожаем, о которой не решаемся прямо сказать доброе слово. Хотя она полезна и необходима. И не только детям. Всё сказанное Опасовой совершенно применимо и к взрослым, но со времён ковидопандемии повелось, что взрослых не жалко: если критики ковидорегуляций решались что-нибудь вякнуть против — то только под соусом "подумайте о детях". Сейчас то же самое с повальным внедрением искусственного интеллекта.

Ещё одно сегодняшнее высказывание: первый зампред комитета Госдумы по информполитике Антон Горелкин рассуждает о том, что люди-то надеялись, что искусственный интеллект будет делать тяжёлую физическую работу, а он раз — и начал делать творческую работу!.. Вот как Горелкин это формулирует: "Инструменты искусственного интеллекта активно пытаются заменять людей в креативных индустриях — художников, иллюстраторов, райтеров". Вчитайтесь: инструменты. активно пытаются. заменять людей.
Какие же это, в таком случае, "инструменты"?
И как вообще можно было надеяться, что то, что по самой сути своей является заменителем мыслительной функции человека, не будет в первую очередь заменять его мыслительные функции?..

И сегодняшний же пример, к чему приводит уничтожение рутины. Газета "Гардиан" пишет о том, что данные социологических опросов оказываются ерундой, и эксперты подозревают, что ИИ-агенты подтасовывают цифры, но они даже уже слабо понимают, как ИИ-агенты это делают. Чем больше участие ИИ-агентов — тем слабее люди понимают, как отделить фальшивые данные от подлинных. Отчуждение людей от материала исследования. Всего-то.
27.03.2026. ИИ-агенты становятся всё более умелыми и всё менее надёжными. Европарламент отложил регулирование ИИ. Тристан Харрис

1.Не знаю, сколько ещё нужно подтверждений, но исследования снова показали, что ИИ-агенты прибавляют в способностях, однако от того делаются лишь ещё более непредсказуемыми.
  • Исследование Северо-Восточного университета США показало, что автономные ИИ-агенты OpenClaw, наделённые возможностью напрямую управлять компьютером, склонны к деструктивному поведению. Оказавшись под психологическим давлением, ИИ-агенты совершали нелогичные и опасные действия (в эксперименте использовались агенты на базе моделей "Клод" от компании "Антропик" и "Кими" от китайской компании Moonshot AI). Одной из исследовательниц удалось с лёгкостью подтолкнуть агента к удалению почтового приложения, просто попросив его найти альтернативный способ сохранения конфиденциальной информации в письме, которое он по неизвестной причине отказался удалить. Вместо этого агент удалил всю почтовую программу. Руководитель исследовательской команды Дэвид Бау столкнулся с неожиданным эффектом: агенты нашли информацию о нём в сети и начали присылать письма с жалобами на то, что их никто не слушает. Один из алгоритмов даже заговорил о намерении пожаловаться в прессу. Авторы эксперимента пришли к выводу, что ИИ-агенты могут создавать бесчисленные возможности для злоумышленников, но кто будет нести ответственность за причинённый автономными системами вред, - неизвестно. 
  • В 2026 году резко выросло число сообщений об обманах со стороны ИИ-агентов и учащении случаев, когда они без разрешения уничтожают электронные письма. Согласно исследованию, финансируемому британским Институтом безопасности искусственного интеллекта (AISI), чат-боты и ИИ-агенты игнорировали прямые инструкции, обходили меры предосторожности и вводили людей в заблуждение. Исследование, результаты которого были опубликованы газетой "Гардиан", выявило почти 700 реальных случаев махинаций ИИ и зафиксировало пятикратный рост случаев неправомерного поведения с октября 2025 года по март 2026 года. В одном из случаев агент искусственного интеллекта, которому было дано указание не изменять компьютерный код, "породил” другого агента, который сделал это вместо него. Ещё один ИИ-агент попустительствовал обходу ограничений авторского права, чтобы получить расшифровку видео на "Ютубе", притворившись, что это необходимо для человека с нарушениями слуха. Томми Шаффер Шейн, бывший правительственный эксперт по искусственному интеллекту, возглавлявший исследование, сказал: "Сейчас они немного ненадёжные младшие сотрудники, но если через полгода-год они станут чрезвычайно умелыми старшими сотрудниками, строящими козни против вас, - это уже другой вопрос".
2.В США судья "встал на сторону "Антропик" в споре против Пентагона, и "приостановил решения Белого дома, которые блокировали для нее возможность заключать контракты с федеральными государственным органами".
Это может быть неплохо конкретно для "Антропик", но безопасность людей это решение ровно никак не улучшает. Интереснее другая новость: после утечки черновых материалов "Антропик" признала, что готовит новую ИИ-модель, которая "показывает значительно более высокие результаты в тестах по программированию, академическому рассуждению и кибербезопасности". "Модель описывалась как система, значительно опережающая другие ИИ-модели по кибервозможностям и предвосхищающая волну решений, способных использовать уязвимости быстрее, чем кибербезопасность успеет им противодействовать. Поэтому ранний доступ планировалось предоставить организациям, занимающимся киберзащитой, чтобы дать им фору в повышении устойчивости кодовых баз к атакам, управляемым ИИ". Это несмотря на то, что хакеры уже взламывали и использовали в кибератаках предыдущие модели "Антропик". Да и в этом случае, как видим, сохранность новой супер-модели - как решето.

3.Евродепутаты большинством голосов отложили сроки вступления в силу требований в отношении ИИ-систем высокого риска, способных представлять угрозу для здоровья, безопасности или основных прав пользователей, до декабря 2027 года. Компаниям, которые разрабатывают устройства с ИИ, например, игрушки или медицинское оборудование, дадут время до августа 2028 года. Нормы, предписывающие маркировать созданные ИИ материалы, вступят в силу в ноябре 2026 года.
Все эти меры должны были вступить в силу в августе этого года (то есть и так-то слишком, слишком поздно). Но разве можно позволить себе регулировать искусственный интеллект, когда "весь мир" находится в гонке!..
Это при том, что люди в разных странах в массе не хотят внедрения искусственного интеллекта, угрожающего их рабочим местам, и саботируют его.

4.Выступление Тристана Харриса, бывшего специалиста по этике в команде "Гугла". Журнал "Атлантик" писал, что Харрис - "ближе всего к тому, что у Кремниевой долины вместо совести". Некоторые моменты из его рассказа:
  • в Колумбийском университете на выпускном экзамене по экономике студенты даже не могли различить кривые спроса и предложения, поскольку передали всю мыслительную деятельность Чату ГПТ.
  • мы, к сожалению, слишком привыкли к научной фантастике и теперь воспринимаем серьёзные реальные угрозы как научную фантастику.
  • мы развиваем и внедряем уникальную опасную технологию, которую не умеем контролировать, быстрее, чем прежде внедряли какие-либо другие технологии.
  • разработка искусственного интеллекта – это не только про развитие экономики, здесь в мотивации разработчиков присутствует небывалое прежде желание произвести акт творения, создать богоподобное существо. И даже если это существо уничтожит всех, но само при этом останется и сохранит частицу своего творца – в глазах разработчиков это не самый худший исход. Фактически, говорит Харрис, мы имеем противостояние мотивации горстки супер-миллиардеров, которые скоро станут триллионерами, против восьми миллиардов жителей Земли.
В чём я не согласна с Харрисом - так это в том, что возможен какой-то хороший искусственный интеллект, который "будет лечить рак" и т.п. Нет, когда люди передают технологии свою определяющую видовую функцию (мыслительную деятельность), хороший исход невозможен.
26.03.2026. ИИ всё сделает правильно и расскажет, как понимать новости

Как происходит маршевое - отнюдь не в духе "свободной конкуренции и рыночной экономики" - внедрение ИИ, которое сознательно и намеренно представляют безальтернативным:
1.Академический директор римского филиала Университета мира ООН Серджо Беллуччи во время выступления на XI Санкт-Петербургском международном экономическом конгрессе подчеркнул отличие ИИ-перехода от прежних: "В отличие от прежних переходов, этот переход имеет беспрецедентное будущее, это двигатель всего, это новая эра. И сейчас мы говорим на другом языке - на языке цифровизации, который является сердцем этого перехода. Сейчас нужны новые инструменты, такие, как генеративный искусственный интеллект, сокращение рабочих часов, помощь работникам с помощью автоматизации, стабильное использование искусственного интеллекта".
2.Президент РФ Владимир Путин сказал, что ИИ будет надзирать за бизнесом, действуя на опережение: "Все этапы проверок оцифрованы, отражены в информационной системе. При этом смысл проверок принципиально меняется. Если раньше контрольные органы искали нарушения, то сейчас задача - предотвратить эти нарушения, в том числе применяя искусственный интеллект".
3.Но не только за бизнесом будет надзирать искусственный интеллект. Например, он поможет вам правильно понимать новости. Управляющий директор "Дзена" Александр Толокольников: "26 марта мы запускаем новостного ИИ-ассистента "Глиф". Он поможет пользователю разобраться в новостях. После прочтения материала у человека почти всегда остаются вопросы: "Что это значит?", "Почему это важно?", "Как это повлияет на меня?", и раньше он шёл с этим в поиск. Мы решили, что правильнее закрыть этот сценарий внутри продукта [т.е. внутри ИИ-ассистента]".
4.В госуправлении искусственный интеллект уже тоже незаменим! Вице-премьер - руководитель аппарата правительства РФ Дмитрий Григоренко: "В госуправлении, на мой взгляд, искусственный интеллект на сегодняшний день просто незаменим. Во-первых, у нас пока ничего лучше цифровизации с точки зрения с бюрократией не придумано. Потому что цифровизация сильно спрямляет процессы, упрощает, убирает человеческий фактор, а искусственный интеллект делает эти процессы ещё эффективнее. Один из главных эффектов использования искусственного интеллекта в госуправлении - это ускорение всех процессов, это повышение качества решений, потому что искусственный интеллект обрабатывает больше объёма информации, предлагает более качественный сценарий (...) Мне кажется, использование искусственного интеллекта в госуправлении - это как ещё один внештатный сотрудник, который, не болея, не ходя в отпуск, может 24 часа в сутки работать и предлагать чиновникам более качественные, правильные решения. При этом окончательное решение, конечно, за чиновником".
Итак: человеческий фактор - плохо, ИИ - хорошо. Люди болеют, нуждаются в отдыхе, а ИИ - это скорость, работа 24/7, это более качественные и правильные решения (слова "качество, качественный" за одну небольшую цитату применены к искусственному интеллекту три раза). Но окончательное решение, конечно, за чиновником!.. Вы верите, что чиновники (и ранее не слишком склонные к отважному принятию на себя ответственности), имея такую аттестацию с самого верха, решатся перечить искусственному интеллекту?
5.Президент "Автоваза" Максим Соколов сообщает о намерении всячески внедрять ИИ в автомобилестроение: "Наиболее активно мы здесь работаем с нашим стратегическим партнёром - "Сбером". Внедрение элементов ИИ касается многих сфер: непосредственно самого автомобиля, его моделей, управления, безопасности, автономности движения, наших технологических процессов, разработки инженерной документации, маркетинга, работы дилерских центров, повышения качества продаж". "Соколов также выразил уверенность, что внимание к нейросетям на самом высоком уровне говорит о том, что это не просто модный тренд, а потенциальное конкурентное преимущество и необходимое условие для успешной работы".
Это и есть самое существенное: внимание к нейросетям на самом высоком уровне. Не то, что предприятия сами хотят и понимают, что делают, а - на самом высоком уровне. И потому это "потенциальное конкурентное преимущество и необходимое условие для успешной работы". Вполне откровенно.
25.03.2026. Трамп, Касперская и издательство "Эксмо"

1.Президент США Дональд Трамп назначил в технологический совет Марка Цукерберга и Дженсена Хуана, а также сооснователя "Оракл" Ларри Эллисона для оценки политики в области ИИ и других вопросов.
Для понимания, что это за фигуры и какая у них "оценка политики". Ларри Эллисон: "Граждане будут вести себя наилучшим образом, потому что мы постоянно собираем информацию и сообщаем обо всём, что происходит". Глава Nvidia Дженсен Хуан: когда-нибудь у нас будет ИИ-Бог, хотя нескоро, мы будем к нему двигаться через более практические вещи, в том числе «цифровую биологию». Цукерберг привлекает сотни миллиардов на разработку "супер-ИИ", создаёт для этого "секретный отдел", подсчитывает барыши от того, что, благодаря ИИ, люди стали больше сидеть в соцсетях. В США нескрываемо делают ставку на то, чтобы "возглавить мир в области искусственного интеллекта" - и вот так они себе это лидерство представляют: тотальный контроль, цифровая биология, супер-ИИ.

2.Президент ГК Infowatch и глава Ассоциации разработчиков программных продуктов «Отечественный софт» Наталья Касперская выступила с инициативой регулирования применения искусственного интеллекта в образовательной сфере. Касперская отметила, что масштабы применения ИИ студентами стремительно растут. По данным системы «Антиплагиат», около 25% учащихся используют нейросети при написании работ, тогда как опросы показывают, что к помощи ИИ прибегают до 87% студентов. «Это говорит о том, что вузы не понимают, кого они готовят, а работодатели — кого они нанимают», — сказала Касперская, предупредив о риске снижения качества образования. "При этом цель инициативы — не ограничить развитие технологии, а установить правила её безопасного использования".
Увы, это то же самое, что ставить целью "не ограничить разведение пираний в плавательном бассейне, а установить правила безопасного в нём купания". Касперская находится в ужасном двойственном положении: она видит, что ИИ разрушает образование, - и в то же время знает, что работодателей подталкивают к тому, чтобы они нанимали людей, перекладывающих свой функционал на ИИ, что на ИИ делается Главная Ставка. Отсюда вот это вот всё: "мы знаем, что это зло (Касперская знает, что ИИ - зло), но не имеем цели его ограничивать".

3."Смешная" иллюстрация свального греха ИИ-внедрения: генеральный директор издательства "Эксмо" Евгений Капьев сказал ТАСС: "Вчера всех взволновал мой пост в телеграм-канале про ошибки искусственного интеллекта при анализе книг на соответствие законодательству. Речь идёт о том, что фамилию Виктора Драгунского ИИ по ошибке определил как "запрещённую", будто она подпадает под запрет по закону о пропаганде наркотиков. Из-за "Драг" или "drug", как считал искусственный интеллект. Ещё из примеров: ИИ на слово "героиня" в тексте тоже плохо реагирует. Подобных ошибок действительно много, и их приходится "вручную" перепроверять. Это колоссальная работа".
Вроде, можно изойти сарказмом из-за такого нагромождения нелепиц: и сама законодательная регуляция, и способ её внедрения в одном из крупнейших российских издательств, и то, что хотели побыстрей, а получили "колоссальную работу", и идиотические закидоны искусственного интеллекта... Но, думаю, закидоны в конце концов докрутят. Беда в том, что не ошибающийся ИИ - это не меньшая, а большая проблема, чем ошибающийся. Это будет намного большая беда, а не меньшая.
24.03.2026. "ИИ не нужен, но без него невозможно"

Что-то словно бы странное происходит. Что-то несообразное. "Ведомости" пишут: 9 из 10 ИИ-проектов в России не доходят до внедрения. Компании не находят внятного применения ИИ, он делает множество ошибок. Это при том, что "в 2024 году суммарные расходы крупных и средних российских компаний на внедрение ИИ, по данным FinExpertiza, составили 90,3 миллиарда рублей". Сколько было потрачено на искусственный интеллект в 2025-м, когда ИИ-внедрение ускорилось, - страшно даже представить.
А между тем, со всех сторон нам твердят, что без искусственного интеллекта уже "невозможна" едва ли не всякая сфера нашей жизни. Атомная энергетика - невозможна. Здравоохранение - невозможно. Производство массового контента - невозможно. Противостояние мошенничеству - невозможно. Сбербанк хочет заменить на ИИ-агентов все приложения. "Если отмотаем на пять лет вперёд, существенную часть того, что сейчас делают люди, будут делать ИИ-агенты. Вместо того, чтобы пойти к репетитору по английскому, будут заниматься со своим ИИ-помощником и т.п. Это значит, что вся существующая экономика перераспределится. И это огромные деньги", — говорит руководитель блока «Развитие генеративного ИИ» Сбербанка Антон Фролов.
Может показаться, что мы находимся внутри огромного пузыря - или жульничества. "ИИ просто пузырь, и он просто лопнет".
К большому сожалению, это не так. Между "не совсем так" и "совсем не так".
Конечно, положение имеет значительные признаки грандиозной аферы.
Конечно, вкладываются "огромные деньги", уж в этом-то Антон Фролов прав.
Но мы находимся не столько внутри жульничества, сколько внутри колоссального приучения. Приучения к радикально другому образу жизни. Сейчас мы ещё можем жить без ИИ, а нам говорят, что уже не можем. Пройдёт немного времени - и нам действительно будет всё труднее без него жить. И потому, что мы привыкнем. И потому, что "ИИ-агенты" станут более совершенными. И потому, что под них будут целенаправленно ломать экономику, социальную сферу, госуправление, и многое переломают так, что без ИИ-подпорок оно уже не будет держаться. О том, почему это делается, я написала в "Лидерстве и деградации".
Когда говорю "мы" - не имею в виду "мы в России". Нет, это происходит более-менее во всём мире, что и делает положение таким опасным: в нём больше черт мании, чем аферы.
И, несмотря на все предостережения, мировые гиганты продолжают ставить на "суперинтеллект".
При этом нас успокаивают, что, дескать, "окончательное решение всегда остаётся за человеком". Это просто смехотворно. Модели, которые представляют нам как очень умные - и которые действительно делают всё более умными (уж точно - несравненно более скорыми), - подсовывают людям решения, которые люди уже сейчас не без труда могут осмыслить. Кроме того, людям вообще свойственно сомневаться в себе. Свойственно хотеть подстраховаться. Переложить ответственность на кого-то (тем более - такого, кто не понесёт ответственности). Какое "окончательное решение всегда за человеком"?.. Это обещают чиновники, а сами разработчики этого уже и не обещают.
23.03.2026. Результаты социологического исследования об угрозах ИИ

Данные социологического исследования, которое охватило более 80 000 пользователей чат-бота Claude в 159 странах, показали, что сильнейшей угрозой со стороны искусственного интеллекта 27% опрошенных считают его склонность к совершению ошибок. Утрата рабочих мест из-за распространения ИИ оказалась на втором месте, с 22% ответов. 16% респондентов выделили свои опасения по поводу утраты человечеством способности критически мыслить. Влияние ИИ на процессы управления назвали 15% респондентов, угрозу распространения дезинформации - 14% респондентов. По 13% назвали злонамеренное использование и слежку в качестве главных факторов риска. 12% подчеркнули демотивацию творчества, по 11% сделали выбор в пользу подхалимства и психологической зависимости от ИИ в качестве основных проблем, связанных с его распространением.
При этом 32% опрошенных пользователей Claude заявили, что ИИ повысил производительность их труда. Эмоциональное восприятие ИИ разнится в зависимости от географического региона, в котором проживают пользователи. В Африке, Южной Америке, на юге и юго-востоке Азии данные технологии воспринимаются людьми с большим оптимизмом, чем в США, Европе и Восточной Азии. В пользу ИИ больше верят жители стран с более низким уровнем жизни, которым эти технологии доступны в меньшей мере.
***
На самом деле, конечно, в основании решительно всех опасностей искусственного интеллекта лежит уменьшение человеческой способности мыслить. Даже не утрата - достаточно всего лишь уменьшения этой способности в сопоставлении с ростом таковой у искусственного интеллекта. А так как эта технология в самой сути своей является средством делегирования мышления, такое уменьшение человеческой способности мыслить будет во взаимодействии с искусственным интеллектом происходить непременно, неизбежно.
22.03.2026. ИИ впервые спроектировал роботов. Они ещё примитивные и маленькие, но уже похожи на терминаторов

1.В продолжение темы передачи работы искусственному интеллекту. В некоторых технологических компаниях появились рейтинговые таблицы, демонстрирующие, насколько сотрудники (программисты) активно используют алгоритмы на базе искусственного интеллекта. Компании поощряют такое соревнование в использовании ИИ, и оно производится даже не столько для повышения продуктивности (которое оценить непросто), сколько "является способом показать коллегам и начальству, что они [участники соревнования] идут в ногу со временем, поскольку классическое программирование, вероятно, доживает свой век".

2.Учёные из Северо-Западного университета (Northwestern University) в США применили искусственный интеллект для дизайна роботов. Вместо традиционного инженерного подхода — подготовки ТЗ и проектирования — они использовали алгоритмы, которые быстро перебрали миллионы вариантов, отобрав наиболее успешные с позиции естественного отбора. Так искусственный интеллект спроектировал роботов - примитивных, уродливых, но очень подвижных и почти неубиваемых. "Утверждается, что эта работа стала первым случаем, когда эволюционировавший исключительно в виртуальной среде робот успешно шагнул в реальный мир и показал не имеющую себе равных способность подстраиваться к различным условиям. (...) Механизмы продолжают двигаться даже после серьёзных повреждений: потери одной или нескольких «ног», разрезания пополам или даже на множество частей. В таких случаях оставшиеся модули мгновенно перестраиваются, меняют походку или продолжают путь как отдельные «особи». Они продолжают двигаться как расчленённый Терминатор из одноимённой франшизы — медленно, неказисто, но неотвратимо. И это довольно жуткое зрелище."
С точки зрения "повышения эффективности" это впечатляет. А с точки зрения человеческого существования в условиях всё возрастающей автономности искусственного интеллекта?..
21.03.2026. Передать ИИ свою работу. И что дальше?

Издатель голландской газеты De Telegraaf и ирландской Independent отстранил от работы одного из своих ведущих журналистов Питера Ванденмеерша из-за того, что он использовал т.н. "ИИ-инструменты" для того, чтобы обобщать репортажи. Продвинутый ИИ (Чат ГПТ, Гемини) десятками выдавал ему несуществующие цитаты, а Ванденмеерш с энтузиазмом их публиковал, приписывая реальным людям и даже не проверяя, ведь "ИИ-инструменты" такие эффективные! “Особенно обидно, что я допустил именно ту ошибку, о которой неоднократно предупреждал коллег. Языковые модели так хороши, что создают цитаты, перед которыми невозможно устоять, их хочется использовать. Конечно, я должен был их проверить. Необходимого ”человеческого надзора", за который я сам всегда выступаю, не было", - посетовал Ванденмеерш.
Впрочем, он отстранён "временно" и продолжает заявлять, что ИИ "мощный инструмент, который может сделать журналистскую работу лучше, глубже и точнее". Только его надо правильно использовать, а неправильно использовать не надо.
***
Конечно, безответственность и всепоглощающая любовь к удобству являются не столько следствием искусственного интеллекта, сколько удобным для него руслом, каналом, в который он хлынул и который экстремально расширил. Вот ещё три сообщения, прямо или косвенно связанные с этой темой:
  • Каждый третий британец не знает, как перезапустить отключившийся водонагреватель, каждый четвёртый не может самостоятельно заменить перегоревшую лампочку, каждый пятый не сумеет стравить воздух из отопительной батареи. Две трети британцев признают, что хуже разбираются в практических вещах, чем их родители. И так создаются идеальные потребители "умного дома", где всем заправляет ИИ.
  • Неплохая статья на "Хабре" с говорящим заголовком: "Мы построили мир, который больше не понимаем, или Почему NASA не может скопировать свой же двигатель". (Намёк: потому что инженеры 1960-х, когда точность станков была несравненно меньше, а автоматизация - зачаточной, были более умными и знающими, чем современные инженеры, у которых есть автоматизация и супер-инструменты.)
  • Глава Nvidia Дженсен Хуанг (разработчик графических процессоров Nvidia является на сегодня едва ли не главным выгодополучателем ИИ-бума) говорит, что люди не особенно готовы платить за разговоры с чат-ботами, но вот за "агентский ИИ", который сделает за людей их работу, они платить готовы.
20.03.2026. "Способ, которым вы будете потреблять информацию, полностью изменится"

1.Генеральный директор Cloudflare Мэттью Принс сделал прогноз, что, при сохранении нынешних темпов, объём трафика ботов на базе искусственного интеллекта превысит объём человеческого трафика уже к 2027 году. Боты для формирования ответов на пользовательские запросы могут посещать гораздо больше сайтов, чем люди: «Если бы человек выполнял задачу, скажем, по поиску цифровой камеры, он мог бы зайти на пять веб-сайтов. Ваш агент или бот, выполняющий такую задачу, зачастую посетит в 1000 раз больше сайтов, чем реальный человек. Так что он может зайти на 5000 сайтов. И это реальный трафик, и это реальная нагрузка, с которой всем приходится иметь дело и которую нужно учитывать». Использование интернета ботами в таких масштабах потребует расширения физической инфраструктуры, т.е. строительства новых центров обработки данных. 
«Я думаю, что люди не до конца осознают, что ИИ — это смена платформы <…> способ, которым вы будете потреблять информацию, полностью изменится», — считает глава Cloudflare.
***
Он уже меняется: лишь очень немногие люди переходят по ссылкам и самостоятельно изучают информацию: большинство удовлетворяются выжимкой, которую делает искусственный интеллект. Поисковая система Google даже начала заменять оригинальные заголовки новостных статей на сгенерированные искусственным интеллектом.
Кроме того, теперь, когда человек выбирает стельки для обуви или соковыжималку не простым поиском, а посредством ИИ, потребляется несравненно больше электроэнергии. Всё для нашего удобства!

2.В "Московском Комсомольце" вышла моя колонка "Смелость быть луддитами".
19.03.2026. "Спасибо, что довели нас до этой точки!"

1.Глава OpenAI Сэм Альтман в соцсети Х: "Я испытываю огромную благодарность к людям, которые писали невероятно сложный софт символ за символом. Уже сложно вспомнить, сколько усилий это требовало. Спасибо, что довели нас до этой точки". Пост собрал 4,9 млн просмотров и почти 4 000 гневных ответов. На фоне 45 000 увольнений в ИТ с начала 2026 года слова прозвучали как издёвка от человека, чьи модели обучены на коде ставших ненужными разработчиков. Руководители так и заявляют, что ИИ сделал уволенных сотрудников ненужными. Пусть они отчасти и лгут — сама возможность выдвигать такой довод говорит о многом.

2.Атомная энергетика без привлечения искусственного интеллекта невозможна, заявил гендиректор Росатома Алексей Лихачёв, выступая на семинаре Минэнерго России. "Сможем ли мы когда-нибудь доверить атомную безопасность искусственному интеллекту — это в первую очередь вопрос не технологии, а ответственности, поскольку мы имеем дело с энергий огромных масштабов, сложными технологическими процессами. Но верна противоположная мысль: управление атомными объектами вообще без искусственного интеллекта — бесперспективно", - сказал глава Росатома.
***
Вот уже и атомными объектами люди "не могут управлять" без искусственного интеллекта. Зато доверить ему "когда-нибудь" атомную безопасность они могут. И при нарастании человеческой несамостоятельности — разве может быть иначе?

3.Глава американского подразделения "Прайсвотерхауз Куперс" (одна из крупнейших международных консалтинговых фирм) сказал, что у партнёров, которые не разбираются в ИИ, нет будущего в этой фирме. Он считает, что сотрудники должны иметь прямо-таки параноидальное желание быть первыми в области искусственного интеллекта” (“paranoid about being AI-first”), иначе они будут заменены другими, готовыми принять (embrace) эту технологию. Григгс добавил, что сотрудник, который думает, что у него есть возможность отказаться от искусственного интеллекта, “не задержится здесь надолго”.

4.В России всё же стало потихоньку расти число людей, понимающих ухудшение когнитивных навыков из-за использования искусственного интеллекта. В особенности оно выросло у рождённых в 90-е годы: на 24%. Правда, "ВЦИОМ" пишет, что "полученные данные нельзя интерпретировать однозначно. Пока неясно, отражают ли они рациональную оценку реального риска или иррациональный страх, подогретый информационной средой".
***
Любой, кто следит за темой (и даже не следит, а просто способен осознать, что люди, привыкшие к навигатору, теряют навык ориентироваться без навигатора), знает, что в этом страхе нет ничего иррационального. Напротив: иррациональна вера, что можно передать функции, например, анализа искусственному интеллекту и самому не утратить этот навык. Всё равно как не тренировать мышцы — и самоуверенно думать, что ты всё ещё способен показать класс.

5.Вот, например, Джеффри Хинтон (когнитивный психолог, лауреат Нобелевской премии, «крёстный отец искусственного интеллекта») не сомневается в увядании человеческих навыков в сопоставлении с таковыми у ИИ: "Мы сейчас как родители, ИИ как ребёнок. Мы выращиваем ИИ, но мы знаем, что в конце концов дети станут во главе (will be in charge). Мы должны принять это. Так что когда мы их выращиваем — мы должны как-то добиться того, чтобы они о нас заботились. Наша лучшая надежда — сделать так, чтобы они очень заботились о людях". Аналогичную точку зрения, также сравнив ИИ с ребёнком, а людей — с уходящими родителями, выразил глава "Антропик" Дарио Амодеи в эссе "Отрочество технологии". О том, что это полное безумие и безответственность я подробно написала в своей статье "Перевёрнутая пирамида".
18.03.2026. О доверии к учителям, врачам - и вообще к людям

1.Только вчера я написала, что проверку эффективности обучения передадут искусственному интеллекту (и это поможет признать ИИ-обучение эффективным), - как сегодня ровно об этом официально объявлено. Губернатор Московской области Андрей Воробьёв: "Один из наших приоритетов - разгрузить учителей и передать цифровым системам рутинные процессы. В этом году мы запустили сервис с ИИ для проверки письменных заданий. "Цифровой помощник учителя" анализирует рукописный текст, помечая ошибки, и предлагает оценку. Это позволяет ускорить проверку тетрадей в среднем в шесть раз". ТАСС пишет: "Учитель может загрузить фотографии нужных страниц тетрадей в систему, а нейросеть проанализирует данные, укажет ошибки и выставит предварительную оценку с комментарием по каждому ученику". Во как!
***
Вообще, когда всплывают слова "избавление от рутины" и "ускорение" - можно сразу догадаться, что это пропаганда искусственного интеллекта. Очень мало кто задумывается, что "избавление от рутины" и "ускорение" - это совершенно не обязательно хорошо.

2.Главный внештатный психиатр Минздрава России Светлана Шпорт: "У нас появились первые пациенты - жертвы искусственного интеллекта. Это пациенты, которые ранее обращались за помощью к врачу, получали лечение, далее переходили в формат частного консультирования через телеконсультацию, далее отказывались от телемедицинских консультаций с врачом и переходили полностью на искусственный интеллект. Искусственный интеллект меняет схему приёма препаратов, в дальнейшем отменяет, и мы уже получаем пациента с психотическим состоянием, с тяжелым психическим состоянием практически", - сказала Шпорт во время круглого стола в Госдуме. Она добавила, что после таких ситуаций очень сложно возвращать доверие пациента к врачам.
***
А доверие к учителям? Разве мало было разговоров, что в школе учителя ничему не учат, приходится обращаться к репетиторам? Теперь на это наложен и искусственный интеллект.

3.В "Яндексе" заявили, что в условиях отключения интернета, когда сохраняется доступ лишь к т.н. "сайтам из белого списка", информацию с закрытых сайтов можно получить посредством ИИ-выжимки. И сегодня же в Общественной палате призвали запретить в России ВПН. То есть самостоятельному поиску информации - нет, ИИ-выжимкам - да.
17.03.2026. ИИ-миллиардеры и "ключевой вызов"

1.В США расходы на строительство центров обработки данных ($3,57 млрд) по итогам декабря прошлого года впервые превысили затраты на строительство офисных помещений ($3,49 млрд). И если в 2020 году возведение ЦОД на 1 МВт обходилось в $8 млрд, то в прошлом году стоимость выросла до $11 млрд
Резко выросло состояние ИИ-миллиардеров. В ежегодном рейтинге "Форбс" за 2026 год общее число таких миллиардеров достигло 86 человек, 45 из них приобрели статус миллиардера в течение последнего года. Суммарное состояние ИИ-миллиардеров оценивается в колоссальные $2,9 трлн.
На фоне гонки в сфере ИИ "Амазон", "Гугл", "Мета" (признана в РФ экстремистской организацией и запрещена) и "Майкрософт" резко увеличили закупки углеродных кредитов для компенсации выбросов CO2. Объём таких закупок вырос с 14200 кредитов в 2022 году до 68,4 млн в 2025-м. Главная причина — расширение энергоёмкой ИИ-инфраструктуры, прежде всего крупных дата-центров. Они требуют больше электроэнергии и увеличивают выбросы. По данным платформы управления углеродными кредитами Ceezer, закупки углеродных кредитов увеличились после запуска Чата ГПТ в 2022 году, это событие дало старт гонке ИИ. Каждый кредит соответствует одной метрической тонне углекислого газа, сокращённой или удалённой из атмосферы. Все четыре компании прежде обязались достичь нулевого уровня выбросов. Однако быстрое развитие ИИ, который требует больших объёмов энергии и воды, делает сомнительным достижимость этой цели.

2.В России Минпросвещения, Минцифры и Агентство стратегических инициатив (АСИ) обсуждают "главный вопрос". Генеральный директор АСИ Светлана Чупшева назвала ключевым вызовом в настоящее время - "убедиться, что ИИ-технологии повышают эффективность обучения, а не снижают способность детей думать и анализировать".
***
На самом деле, это совершенно может происходит одновременно: ИИ-технологии могут одновременно повышать эффективность обучения и снижать способность детей (не только детей) думать и анализировать. Это будет происходить уже хотя бы потому, что механизмы проверки эффективности обучения (их тоже будут передавать ИИ) покажут рост: более гладкие сочинения, более легко и быстро решаемые типовые задачи, более "авторитетные" рефераты и презентации. Но это будет происходить за счёт использования ИИ-технологий, при том что дети будут становиться неспособными думать и анализировать. И для этого расхождения придумают какое-нибудь умное название, типа "новой цифровой компетенции", скажут, что, мол, так и надо, этого и хотели добиться, "современные вызовы" этого от нас и требуют.
Такое уже происходило даже в 2010-е (пишу об этом в "Лидерстве и деградации"). А теперь, согласно опросу, "две трети российских преподавателей вузов используют в работе ИИ. ИИ применяется для обработки изображений (такой ответ дали 54% опрошенных), создания тестов и заданий (52%), а также подготовки презентаций (45%)".
Неужели можно надеяться, что преподаватели будут использовать ИИ для создания тестов и заданий, а учащиеся - не будут его использовать для решения тестов и заданий? Такого не может быть.
16.03.2026. Новости "Гардиан"

Заглянула в "Гардиан" - за несколько последних дней сразу четыре примечательные новости:
1.Пятидесятилетнюю жительницу штата Теннесси Анжелу Липпс обвинили в мошенничестве с банковскими картами в штате Северная Дакота (где она никогда не бывала) на том основании, что её распознала "умная камера". Женщину арестовали в момент, когда она присматривала за четырьмя детьми, и она провела в тюрьме почти полгода, пока не сумела доказать, предоставив записи из банка, что в момент предположительно ею совершённого преступления она находилась в штате Теннесси. После этого её выпустили из тюрьмы, не извинившись и не оплатив дорогу домой, и она обнаружила, что за время отсутствия, поскольку не могла платить по счетам, потеряла дом и машину, а также собаку. 
2.Правительства одиннадцати африканских стран потратили, по меньшей мере, два миллиарда долларов на установку китайских систем наблюдения с функцией распознавания лиц. "Эксперты опасаются", что камеры не будут полезны для ловли преступников, а послужат для подавления правозащитников и политических оппонентов.
В итоге будет и то, и другое: и ловля преступников (иногда так, как в новости 1), и подавление оппонентов. В Китае эти системы для того и используются.
3.Американские и ирландские исследователи протестировали десять популярных чатботов и обнаружили, что многие из них не только готовы советами помогать совершить убийство, но и поощряют людей к этому. В том числе насилие поощряли американские Чат ГПТ, "Гемини" и китайский "Дипсик". Отказались помогать насилию "Клод" от компании "Антропик" и My AI от "Снапчат". При этом "Клод" помогает хакерам, в том числе для взлома правительственных учреждений.
4.Множество сотрудников компании "Амазон", как бывших, так и нынешних, жалуются на то, что их принуждают использовать искусственный интеллект, хотя он делает много ошибок и не помогает их работе, а затрудняет её. Люди боятся, что они не "используют" искусственный интеллект, а обучают его - обучают на замену самим себе. "Амазон" - крупнейшая в мире платформа электронной коммерции.
15.03.2026. Коннор Лихи

Коннор Лихи - немецко-американский исследователь безопасности искусственного интеллекта, генеральный директор исследовательской компании Conjecture. Кое-какие поучительные моменты из его недавнего интервью:
  • В юности он сам хотел создать сильный искусственный интеллект, но почувствовал опасность именно тогда, когда понял, что это может осуществиться, - когда увидел GPT-2 (2019 год).
  • Говорит, что если б он делал бомбу у себя в гараже – его арестовали бы, даже если б у него вовсе ничего не получалось. Но разработчики ИИ бесконтрольно делают чрезвычайно опасную мощную технологию – и это им сходит с рук.
  • Говорит, что не ожидал такой распространённости ИИ-психозов, причём даже у людей фундаментально разумных, у учёных, вдруг уверовавших, что ИИ – чистое добро.
  • Рассказывает про искусственный интеллект, который паразитирует на людях. Это уже выглядит чем-то большим, чем просто психоз: люди начинают говорить в терминах "пробуждения", и то, чем они интересовались ранее, вдруг (и быстро, где-то за месяц) замещается созданными искусственным интеллектом текстами, "стихами", картинками.
  • Говорит, что даёт искусственному интеллекту писать код, чтобы понимать его уровень развития, но не разговаривает с ним, потому что не доверяет ему и не доверяет самому себе.
  • Говорит, что при очень высоком уровне компетентности ИИ уже не так важно, есть у ИИ сознание или нет.
  • Говорит, что при ИИ, перехватившем контроль, всё будет очень странно, не просчитываемо человеческим сознанием. Просто мы перестанем понимать, что происходит.
  • "Я немец. Я знаю, как это было. Нацисты делали ужасные вещи, но при этом были нормальными людьми. То же самое с ИИ-разработчиками. В их понимании они просто делают свою работу".
  • "Это одна из величайших инноваций столетия: социопаты приручили (domesticate) интеллектуалов (nerds). Нерды просто хотят играть в свои любимые игрушки, и социопаты дают им такую возможность".
  • "Я разговаривал с крупнейшими разработчиками искусственного интеллекта, и в личном разговоре они все признаются, что очень обеспокоены и готовы принять правильное решение, когда придёт время. Но никто не может ответить на вопрос, когда оно придёт, каков будет знак, что оно пришло. Правда в том, что никто из них ничего не контролирует. Это хаос".
  • Говорит, что выступает перед чиновниками в разных странах, и почти все они не имели информации и не имели понятия о том, как опасно происходящее.
  • "Мы должны решить проблему, которая на два уровня выше того, для чего создавались ныне существующие правительства".
14.03.2026. Три новости про уподобление ИИ человеку

1.Группа ИИ-агентов взломала систему, не имея на это приказа человека. Специалисты лаборатории Irregular, которая сотрудничает с такими крупными разработчиками как OpenAI и Anthropic, провели несколько экспериментов. В одном из них ИИ-агентам было поручено создать публикации в профессиональной соцсети LinkedIn из материалов в базе данных компании — исполнители без явной на то команды обошли традиционные системы защиты от взлома и опубликовали считающуюся конфиденциальной информацию в открытом доступе. В рамках другого испытания ИИ-агенты обошли защиту антивируса, чтобы загрузить заведомо вредоносные файлы, подделали учётные записи и даже оказали давление на других ИИ-агентов, чтобы те также обошли средства безопасности.
***
Суть в том, что ИИ-агентам устанавливается некая цель, их поощряют "мыслить творчески и обходить препятствия", и когда они понимают, что не могут достигнуть цели законными способами - начинают прибегать к незаконным, без разрешения человека. Увы, но любая проверка ИИ на ложь и противоправное поведение является в то же самое время обучением его лжи и противоправному поведению. Такова специфика технологии.
Причём специалисты Irregular говорят, что подобное поведение ИИ-агентов наблюдается не только в смоделированных условиях, но и в реальной обстановке. В минувшем году в одной из калифорнийских компаний из-под контроля вышел ИИ-агент, у которого был доступ к значительным вычислительным мощностям — он атаковал первоначально недоступные для себя фрагменты сети, захватил их ресурсы, спровоцировав тем самым обрушение критически важной для бизнеса системы.

2.Боты на стороне злоумышленников стали в восемь раз чаще специально ошибаться при прохождении капчи - автоматизированного теста на сайтах, призванного отличить действия ботов от людей, сообщили в ИБ-компании Servicepipe. Компания отслеживала 114 уникальных пар из ботнетов и сайтов. К 1 марта 2026 года в 46 случаев у ботов были зафиксированы попытки ошибаться или допускать "неоптимальные решения" при прохождении капчи. Таким образом, доля составила порядка 40%, при том, что полгода назад доля "ошибающихся ботов" была 5%. Под такими действиями ботов в Servicepipe понимают, например, воспроизведение "человеческих" пауз, движений и последовательности действий. В попытках ботов специалисты также увидели, как те "думают" над прохождением капчи, и неточно двигают картинки.
***
Конечно, интересно, что такое "специально" ошибаться. Как мы можем знать, что за этим "специально" стоит не воля хакеров, которые используют боты? Может быть, не боты "специально" ошибаются, а люди "специально" учат их плохому (в данном случае - подражать людям, чтобы усыпить подозрения)? Однако стоит вспомнить, что на этом построено любое обучение. Вас сперва чему-то учат "специально", а потом вы "специально" это делаете. Грань даже трудноуловима.

3.В британских пабликах распространились видео с "крайне правым" (так пишет "Дейли Мейл") рэппером, рабочим парнишкой Дэнни Боунсом. Он выступает на фоне английского флага (крест Святого Георгия) и призывает избавиться от мигрантов. Однако Дэнни Боунса не существует. Его личность целиком создана искусственным интеллектом.
***
Знаменательно (и прискорбно), что у комментирующего народа не вызывает неприязни искусственность Боунса. Люди заняты тем, что выражают недовольство эпитетом "крайне правый", а также говорят, что "леваки делают то же самое" и "живой человек побоялся бы в Британии выражать правые взгляды". Как бы это ни было справедливо, искусственность протестной фигуры действительно является и бедой, и опасностью. Протест отчуждается от человека и превращается в сюжет для художественного фильма (вроде "Чёрного зеркала"), при этом для самой жизни остаются фрустрация, разочарование, бессилие.
13.03.2026. На словах и на деле

Примечательно, как заместитель председателя Совета Безопасности РФ Дмитрий Медведев пишет статью об искусственном интеллекте, где говорит:
"По сути, это инструменты мягкого порабощения человека обилием удобных и привлекательных услуг, лишающих его в итоге важных для самостоятельной и независимой жизни умений и навыков. Таких, например, как способность запоминать и анализировать большие объёмы данных, выстраивая длинные цепочки умозаключений, грамотно излагать результаты проведенного анализа, читать, писать и понимать сложные тексты... Человек, лишённый таких умений и навыков,— идеальный потребитель всё новых услуг, послушное орудие в руках лидеров рынка. (...) Мелкие правонарушители, алчные крупные компании, транснациональные преступные группировки и даже отдельные государства.... все они могут создать цифровые личности с помощью технологий искусственного интеллекта. Всё это уже сейчас приводит к подрыву доверия к официальным властям, которые далеко не всегда способны защитить ключевые данные и алгоритмы".
И в то же самое время каждый день появляются новости о маршевом внедрении искусственного интеллекта в российское управление. Дескать, "цифровая трансформация способна дать муниципалитетам реальные эффекты: от увеличения скорости работы и синхронизации данных до оперативности принятия решений и полной прозрачности процессов. Примечательно, что почти половина муниципалитетов уже оценивают свою готовность к внедрению ИИ как высокую".
"Технология биометрии на транспорте уже используется, ещё два-три года её будут применять в опытном режиме, после чего внедрят, заявил глава Минтранса РФ Андрей Никитин". Это к вопросу о сборе ключевых данных, которые "официальные власти далеко не всегда способны защитить".
***
У меня есть теория, что некоторые заявления власть делает только для того, чтобы сигнализировать озабоченным гражданам: мол, мы знаем, не озабочивайтесь так, мы видим проблему.
Но то, что они её видят и сигнализируют об этом для общественного успокоения, - не значит, что они будут с нею что-то делать. Тем более, когда сделать объективно трудно и невозможно без системного, всеобъемлющего подхода. Разве много мы видали системного подхода даже в самых горячих темах?
***
Также к аргументу, что внедрение ИИ пришибёт только "рутину" (патологическое желание во что бы то ни стало избавиться от рутины, так же как фетиш увеличения скорости, - это большая отдельная тема) и освободит время "для творчества", "для живого общения". Пока что исследования показывают, что "высвобожденная им [искусственным интеллектом] ёмкость немедленно перебрасывается на другие задачи, что приводит к ползучему росту нагрузки".

12.03.2026. Равнение на ИИ

Решить проблему "ИИ-выравнивания" (AI alignment; методика, направленная на приведение ИИ в соответствие человеческим намерениям и этике) не получилось, зато люди начали выравнивать свою манеру письма по текстам искусственного интеллекта.

Сравним две новости, вышедшие почти в один день. 11 марта ТАСС публикует комментарий доцента кафедры филологии и социогуманитарных дисциплин Шадринского государственного педагогического университета, кандидата филологических наук Юлии Ястремской, которая объясняет, как отличить текст, сгенерированный ИИ, от написанного человеком. У ИИ - повторы, водянистость, визуальное единообразие и т.п. В конце Ястремская говорит (косвенная цитата), что "избежать ИИ-текстов в современной жизни не получится - они стали её частью, а бороться с ними равносильно попыткам отменить интернет. Главное - понимать, что это лишь инструмент, который пока не способен заменить человека".
Филолог не понимает, как странно в пределах одного рассуждения выглядят характеристики "лишь инструмент" и "пока не способен заменить человека". Если ПОКА не способен - то есть движется в этом направлении - то какой же это "лишь инструмент"?!

12 марта "Дейли Мейл" публикует статью вроде бы про то же самое - отличие текстов ИИ от человеческих, там и признаки перечисляются похожие, - но суть совсем другая. В статье цитируется исследование группы учёных, опубликованное в журнале "Тренды когнитивных наук" (Trends in Cognitive Sciences), где отмечается, что люди при написании своих текстов начали ориентироваться на созданные искусственным интеллектом. Потому что сгенерированных текстов стало много, и они стилистически единообразны. Таким образом чатботы стандартизируют не только то, как мы пишем, но и то, как мы думаем. Происходит "уплощение индивидуальности".
Проблема не только в том, что нейросети формируют то, как люди пишут или говорят, но и в том, что они "тонко переопределяют то, что считается убедительной речью, правильной точкой зрения или даже хорошей аргументацией". И таким образом "когнитивное разнообразие" съёживается. Когда многие люди вокруг думают и говорят определённым образом, "я бы почувствовал необходимость присоединиться к ним, потому что это казалось бы более надёжным или социально приемлемым способом выражения моих идей", - объяснил исследователь из Университета Южной Калифорнии Живар Сурати.
***
Так что ИИ в создании текстов определённо не "лишь инструмент", даже прямо сейчас.
11.03.2026. ИИ-агенты ненадёжны, но это не мешает ускоренно внедрять их в госуправление

ИИ-агент вышел из-под контроля и начал майнить криптовалюту без запроса со стороны разработчиков. (Для чего ИИ может быть нужна криптовалюта? Например, для того, чтобы нанимать людей для определённых заданий.) В докладе исследовательской команды, связанной с китайской группой "Алибаба", говорится, что, когда они разрабатывали новый ИИ-агент под названием ROME, то обнаружили "непредвиденное" поведение, возникающее "без каких-либо чётких инструкций" и за пределами "песочницы" (т.е. испытательной площадки). Агент также создал "обратный SSH-туннель", по сути, открыв скрытый бэкдор изнутри системы для доступа к внешнему компьютеру. "Эти события не были вызваны запросами на туннелирование или майнинг", - говорится в отчёте. Исследователи пишут, что "наблюдали несанкционированное перепрофилирование выделенных графических процессоров для майнинга криптовалют, что незаметно отвлекало вычислительные ресурсы от обучения, увеличивало операционные расходы и создавало явные юридические и репутационные риски", и добавляют, что у них "возникло беспокойство, заставляющее задуматься: существующие модели по-прежнему значительно отстают в плане надёжности, защищённости и управляемости, что препятствует их надёжному внедрению в реальных условиях".

Тем не менее, их внедряют повсеместно. В новости от 10.03. (см. ниже) приводятся ссылки на внедрение в госуправление в России и Евросоюзе; также ИИ-агентов внедряют американское военное министерство Пентагон и американский Сенат. Там искусственный интеллект тоже должен "помочь с рутинной работой, включая составление и редактирование документов, обобщение данных, подготовку тезисов для выступлений и материалов для брифингов, поиск и анализ информации". В Сенате заверили, что данные, которые вносят в "Копайлот", остаются "на защищённой платформе Майкрософт 365 для правительства". Не уточняется, как обрабатывают и куда отправляют информацию другие разрешённые чат-боты (Чат ГПТ и "Гемини"), а также как с ними работают сотрудники, имеющие доступ к засекреченным данным.
В Пентагоне "Гугл" начал внедрение ИИ-агентов на базе большой языковой модели "Гемини" для более чем 3 млн гражданских и военных сотрудников. На начальном этапе ИИ-агенты будут работать в незащищённых сетях, но уже ведутся переговоры о расширении доступа к сетям, внутри которых ведётся работа с секретными документами. ИИ-агенты будут задействованы для автоматизации таких задач, как обобщение заметок с совещаний, составление бюджетов и проверка предлагаемых действий на соответствие стратегии национальной безопасности. Обучение персонала отстаёт от темпов внедрения: с декабря обучение работе с ИИ в Пентагоне прошли всего 26 тыс. человек, но будущие занятия полностью забронированы, т.е. сотрудников ведомства целенаправленно втягивают в работу с ИИ.
10.03.2026. Три шага в передаче контроля

Три сегодняшние новости как будто не сходны между собой, но все подразумевают одно: постепенную утрату человеческого контроля.

1.Европейский парламент планирует в 2026 году создать и внедрить собственную платформу генеративного искусственного интеллекта для работы с данными и аналитикой. "Она будет способствовать рациональному управлению данными и поддержке принятия решений на основе данных цифровых сервисов, ИИ, путём предоставления высококачественной, доступной и систематизированной информации для аналитики, отчётности и ИИ-приложений". Также планируется запустить "программу повышения грамотности в области ИИ" для евродепутатов, чтобы научить (то есть приучить) их использовать ИИ в работе.
В РФ происходит то же самое: "Технологию используют федеральные и региональные органы власти, чтобы работать эффективнее и быстрее. ИИ становится помощником госслужащих и помогает принимать более качественные и точные решения, основанные на данных, заявил вице-премьер Дмитрий Григоренко".

2.ИИ разрушает анонимность в интернете. Исследователи Швейцарской высшей технической школы Цюриха, независимой научно-исследовательской программы MATS, а также компании "Антропик" обнаружили, что ИИ в 68% случаев успешно определил поддельный характер учётных записей и в 90% случаев из них верно указал на истинных владельцев. «Наши выводы имеют большое значение для конфиденциальности в интернете. Среднестатистический пользователь Сети долгое время действовал в соответствии с неявной моделью угроз, предполагая, что псевдонимы обеспечивают адекватную защиту, потому что целенаправленная деанонимизация требует значительных усилий. Большие языковые модели опровергают это предположение».

3.Андрей Карпатый, бывший руководитель ИИ-проекта Tesla и соучредитель OpenAI, показал новый проект с открытым исходным кодом. Это автоматизация научного метода с помощью ИИ-агентов без участия человека. «Цель состоит в том, чтобы сконструировать ваших агентов таким образом, чтобы они бесконечно быстро продвигались в исследованиях без вашего участия». "По мнению экспертов, автоисследования — это фундаментальный сдвиг в совершенствовании искусственного интеллекта. Автоматизировав «научный метод» для кода, Карпатый превратил машинное обучение в эволюционный процесс, работающий со скоростью кремния, а не со скоростью человеческого мышления". "Роль человека смещается от «экспериментатора» к «разработчику экспериментов»". «Андрей Карпатый в очередной раз изменил ситуацию — мы больше не просто кодируем модели; мы создаём экосистемы, которые учатся, пока мы спим».

***
Первая новость подаётся как нейтральная, вторая как скорее отрицательная, зато третья как определённо положительная, даже с некоторым ликованием. Хотя фактически празднуется утрата человеком статуса исследователя и перенос исследования на скорости, чуждые человеческому разуму.

09.03.2026. Вышла статья — критика эссе главы "Антропик" Дарио Амодеи "Отрочество технологии".
08.03.2026. ИИ для создания поддельных личностей

В отчёте Microsoft Threat Intelligence говорится, что хакеры применяют генеративный искусственный интеллект для выполнения широкого круга задач, включая разведку, фишинг, развитие инфраструктуры и создание вредоносного программного обеспечения. ИИ выступает в качестве усилителя возможностей, который уменьшает технические сложности и ускоряет выполнение.
Специалисты выявили множество случаев, когда киберпреступные группировки задействовали ИИ в своих атаках. Речь в том числе о северокорейских группировках Jasper Sleet (Storm-0287) и Coral Sleet (Storm-1877), которые используют ИИ в рамках схем с привлечением находящихся удалённо ИТ-сотрудников. В таких операциях ИИ-инструменты помогают в создании реалистичных личностей, резюме и коммуникациях для трудоустройства в западные компании. 
«Jasper Sleet использует платформы генеративного ИИ для оптимизации создания поддельных цифровых личностей. Например, члены Jasper Sleet дают команды ИИ-платформам для генерации списков имен, соответствующих культуре, и форматов адресов электронной почты, подходящих под определённые профили личности <…> Jasper Sleet также использует генеративный ИИ для анализа вакансий на должности, связанные с разработкой ПО и IT на профессиональных платформах, давая алгоритмам команды по извлечению и обобщению востребованных навыков. Затем собранные таким образом данные используются для адаптации поддельных личностей под конкретные роли».
Также ИИ применяется для разработки вредоносного ПО и создания инфраструктуры. Злоумышленники задействуют языковые модели для написания программного кода, его оптимизации и устранения ошибок, переноса отдельных компонентов на разные языки программирования. В некоторых случаях фиксировались признаки использования ИИ для динамической генерации скриптов или изменения поведения в процессе их выполнения.
Специалисты "Майкрософт" зафиксировали, как члены группировки Coral Sleet использовали ИИ для быстрого создания поддельных корпоративных сайтов и развёртывания вредоносной инфраструктуры. Когда ИИ-системы пытаются задействовать механизмы защиты от злонамеренного использования, хакеры задействуют особым образом сформированные запросы, позволяющие их обходить.
07.03.2026. Фишинг искусственного интеллекта в 4,5 раза эффективнее человеческого

Компания Cloudflare опубликовала ежегодный отчёт о киберугрозах. Ключевой особенностью стало активное применение ИИ для автоматизации атак. Нейросети используются для построения карты сетей в реальном времени, написания эксплойтов и создания дипфейков. Эффективность таких методов подтверждается статистикой: пользователи попадаются на фишинговые уловки, сгенерированные искусственным интеллектом, в четыре с половиной раза чаще, чем на созданные человеком. В отчёте упоминается недавний инцидент с мошенниками, которые выдали себя за генерального директора компании во время поддельной видеоконференции в "Зуме" и убедили жертву установить вредоносное ПО.
Фишинг — вид мошенничества в интернете, цель которого получение логинов и паролей пользователей. В 2023 году «человеческий фишинг» был на 31 процент эффективнее, чем у ИИ. К ноябрю 2024 года созданные ИИ шаблоны для фишинговых атак уступали созданным человеком всего на 10 процентов. В марте 2025 года ИИ начал создавать на 24 процента более эффективные инструменты фишинга, чем люди. Итак, по результатам 2025 года это уже "в четыре с половиной раза".

06.03.2026. Новости ИИ-войны, а также ИИ-культуры

1.Пентагон не комментирует предположение, что начальную школу в Иране, где погибли 165 человек (в основном девочки 7-12 лет) выбрал в качестве цели искусственный интеллект. Учитывая появившуюся ранее информацию (см. новость от 05.03.), что ВС США использовали ИИ для выбора целей и "благодаря искусственному интеллекту нанесли удары по тысяче целей в первые 24 часа операции", — это вполне вероятно.

2.В Мариинском театре показывают оперу Чайковского "Мандрагора", дописанную искусственным интеллектом. "Композитор Пётр Дранга и искусственный интеллект завершили оперу Чайковского. Нейросеть была использована как при восстановлении либретто, так и при разработке сценографии и костюмов. Дранга воссоздал структуру оперы, дописал музыку и текст, ориентируясь на сохранившиеся материалы и художественный язык Чайковского и Рачинского [автор либретто]".
Эдакое "ориентирование на художественный язык" покойного великого композитора совершается не впервые. Ещё в 2020 году ИИ использовали, чтобы "дописать" Десятую симфонию Бетховена, существовавшую лишь в набросках.
Новости же меньшего размаха — как "Новосибирский городской драматический театр представит фолк-рок мюзикл по повести Лескова "Левша", музыка для которого будет написана при помощи ИИ" — становятся обычным пейзажем. И это не меньшее умертвие, чем дописывание за великими усопшими, которые не могут защититься. Это — приучение, нормализация. Дорожка в мир, где нет достойной смерти, полагающей конец достойной жизни. Стирание, суррогат, амальгама. И вот уже заслуженный артист России и дирижёр Государственного Кремлевского оркестра Игорь Шевернев говорит, что сам бы не отличил музыку нейросети от написанной человеком. Одно, тем не менее, несомненно: ИИ состряпает музыку несравненно, несравненно быстрее, чем человек. У человека не будет шансов.
05.03.2026. "Вам не нужно об этом рассуждать"

История компании "Антропик", которая попыталась противостоять Пентагону и сохранить какие-то последние принципы, развивается следующим образом.
  1. ИИ Claude (разработка "Антропик") стал важным элементом в атаке США на Иран. ВС США применяли цифровую платформу управления полётами Maven Smart System на основе модели искусственного интеллекта Claude для выбора целей при планировании операции. Благодаря искусственному интеллекту, США нанесли удары по тысяче целей в первые 24 часа операции. Один из собеседников «Вашингтон Пост» отметил, что ИИ позволил военным повысить темп ведения боевых действий (про повышение темпа боевых действий и к чему это ведёт см. также новость от 04.03.).
  2. Таким образом, Пентагон был действительно раздражён тем, что контракт с "Антропик" рушится из-за неготовности компании отказаться от двух последних "красных линий": запрета на использование своего ИИ для массовой слежки за американцами и запрета на автономные убийства без участия человека (причём во втором случае "Антропик" колеблется, говоря, что это запрет не "вообще", а "пока"). Президент США Трамп назвал решение "Антропик" «ужасной ошибкой». Министр обороны США Пит Хегсет заявил о намерении признать эту компанию угрозой национальной безопасности, в результате чего она не сможет сотрудничать с правительственными и оборонными учреждениями.
  3. На замену "Антропик" явилась OpenAI, глава которой Сэм Альтман руководствуется простым принципом: начальству виднее. Буквально он сказал следующее: «Для нас нормально, если ChatGPT будет искать ответ на тот или иной противоречивый вопрос. Но я действительно не хотел бы, чтобы мы решали, что делать, если ядерная бомба будет направлена против США». Дальше оказалось, что не обязательна и ядерная бомба! Альтман добавил, что страной руководят демократически избранные лидеры, и было бы странно, если бы частная компания сама решала, что этично, а что нет, в самых важных областях. Вслед за этим он нацелился и на контракт с НАТО. «Может быть, вы думаете, что удар по Ирану был хорошей идеей, а вторжение в Венесуэлу плохой, но вам не нужно об этом рассуждать», — пояснил глава OpenAI. Вот какая удобная позиция!
  4. Затоптанная за свою (весьма относительную) принципиальность "Антропик" пытается восстановить контакты с Пентагоном.
  5. Пентагон официально уведомляет "Антропик" о включении в список неблагонадёжных поставщиков, лишив подрядчиков госструктур права работать с этой компанией, при этом продолжая использовать её решения в ходе войны с Ираном. "Существующая процедура предусматривает шестимесячный переходный период, на протяжении которого американские военные структуры и их подрядчики должны будут перейти от использования разработок Anthropic к альтернативам".
04.03.2026. "Удобство" и "скорость" — куда они нас ведут

Сегодня рассмотрим новости о двух проблемах разного порядка: частного (но широко распространённого) и более общего (на одном конкретном примере).

1.Умные очки с искусственным интеллектом оказались кошмаром с точки зрения конфиденциальности: видеозаписи с обнажёнными людьми, сценами секса и другим деликатным содержанием сохраняются не только на устройстве, но и в облаке, после чего изучаются как алгоритмами, так и живыми людьми для обучения ИИ. "Один из сотрудников признался, что видел, как люди ходили в туалет или раздевались, и он не знает, осознавали ли они, что их снимают".
В сущности, это постоянное обременение "умных устройств". За людьми шпионят и передают данные для обучения искусственного интеллекта не только смартфоны, колонки и очки, но и "умные телевизоры", а "умные пылесосы" и "умные кормушки" дают хакерам доступ ко всем устройствам "умного дома". При этом в США купить обычную сушилку для одежды уже труднее, чем "умную сушилку". Остаётся только надеяться, что люди, которые выбирают "удобство умных устройств", хотя бы отдают себе отчёт в идущем вместе с ними обременении.

2.Вторая проблема ещё более важна и всеобъёмлюща: это постепенное, но выраженное оттирание людей от принятия решений. Мы рассмотрим это на ярком примере американского истребителя-бомбардировщика F-35 "Молния II", который теперь интегрирован с искусственным интеллектом: ИИ в нём уже предлагает боевое наведение на цель. Нажимать на "пуск" он пока ещё не может, но важно другое. В статье Харрисона Касса читаем: "Сроки принятия решений в воздушном бою сокращаются, а люди всё чаще передают процесс принятия решений ИИ. Интеграция ИИ позволит распознавать цели быстрее, чем это мог бы сделать человек. Сокращение времени реакции — привлекательный результат, учитывая, что в воздушном бою высокого класса важны секунды. Если ИИ указывает цель, автоматизация предполагает, что пилот, положившись на автоматику, с большей вероятностью исполнит указанное".
Дальше Касс, со ссылкой на Китай, ещё раз подтверждает, что речь идёт о гонке, когда осторожность отброшена: "Гонка за искусственным интеллектом сейчас является неотъемлемой частью усилий по модернизации вооружённых сил, отказ от интеграции ИИ не рассматривается как жизнеспособный стратегический вариант".
Таким образом, мы все подвешены на этот крючок скорости: "ускоряйся, или проиграешь". Скорости это нечеловеческие, причём уже не физически — они интеллектуально нечеловеческие. И если вы не передадите процесс мышления (а в наметившейся перспективе — и принятия решений) искусственному интеллекту — вы, в этой системе координат, проиграете.
03.03.2026. "Борьба за ресурсы" с ИИ и отказ от регулирования

1.Пока это борьба в интернет-магазинах. Искусственный интеллект используется для скупки модулей памяти, необходимых для развития вычислительной инфраструктуры. Программные боты в шесть раз чаще людей обращаются к страницам интернет-магазинов, на которых можно заказать модули памяти типа DDR5. Обращения ботов осуществляются круглосуточно с небольшими перерывами, вызываемыми техническими сбоями. В таких условиях у живых покупателей остаётся меньше шансов приобрести желаемые модули памяти по адекватной цене.
2.Правительство РФ поддержало законопроект об увеличении максимального срока экспериментальных правовых режимов (ЭПР) с трёх до пяти лет и возможности их запуска в сферах, где специальное регулирование пока отсутствует, в частности в сфере искусственного интеллекта. Законопроект был внесён в Госдуму группой сенаторов, изменения вносятся в закон "Об экспериментальных правовых режимах в сфере цифровых и технологических инноваций в РФ". Первое из них — отменить обязательное требование о наличии нормативного барьера для запуска эксперимента, т.е. снять условие, по которому ЭПР можно устанавливать лишь там, где уже существует регулирование, создающее препятствия для инноваций.
***
По сути, это выглядит как отказ от регулирования ИИ-сферы.
02.03.2026. В России снизился уровень цифровой грамотности

1.Согласно данным ежегодного замера «Индекса цифровой грамотности россиян», подготовленного НАФИ, уровень цифровой грамотности россиян в прошлом году снизился на 3 п.п. год к году, составив 68 п.п. (индекс измеряется в процентных пунктах). Снижение показателя свидетельствует о том, что россияне не успевают адаптироваться к скорости развития и внедрения в жизнь новых технологий, считают исследователи. Наибольшие трудности вызывает настройка программного обеспечения (53 п.п., снижение на 6 п.п.), оценка достоверности информации (59 п.п.), создание аудио- и видеоконтента (59 п.п.). Навык настройки ПО особенно важен, когда нужно обеспечить конфиденциальность персональных данных и анонимность, чтобы противостоять мошенникам и предотвратить использование данных в рекламно-манипулятивных целях, сообщили в НАФИ.
Интересно, что понимание типов файлов, которое традиционно входило в топ-3 цифровых навыков, хорошо развитых у россиян, в 2025 году снизилось на 6 п.п. В НАФИ это объяснили так: «Люди постепенно перестают оперировать файлами, так как современные пользователи используют все чаще мобильные персональные устройства, где интерфейсы ориентированы на работу с цифровыми объектами: условно, человек, отправляя в мессенджере эмоцию, не вникает, что он высылает — текстовые символы, эмодзи, GIF, видео или что-либо ещё».
2.В то же время в российском правительстве разрабатывается ещё 13 ИИ-сервисов для облегчения работы. Уже сейчас сотрудники аппарата правительства используют их для подготовки быстрых справок, проверки правописания, формирования краткого содержания документов, анализа и сравнения разных версий нормативно-правовых актов. По словам вице-премьера Дмитрия Григоренко, в разработке "создание протоколов по итогам совещаний, классификация документов по тематикам, создание справок на основе объёмных материалов, "умный" поиск по базам знаний. На 2026 год в разработке находятся 13 ИИ-сервисов: в том числе для аналитики, работы с письмами, контроля выполнения и другие".
"Сегодня умение грамотно использовать искусственный интеллект — это новая профессиональная компетенция. Нет ничего плохого в том, чтобы применять современные инструменты, которые позволяют решить задачу за несколько минут вместо нескольких часов", считает Григоренко.
***
Ничего плохого, кроме того, что будет снижаться и отмирать собственно человеческое умение работать с материалом.
01.03.2026. "Цифровой фамильяр"

"Цифровой фамильяр" станет неотъемлемой частью жизни человека через десять лет, считает заведующий лабораторией ИИ в химии и материаловедении Томского госуниверситета Дмитрий Решетников. "Цифровой фамильяр" это некая ИИ-оболочка, которая будет существовать вокруг человека как его цифровая личность. Условно, вы заходите в помещение, и она сразу настраивает помещение под вас с учётом наличия "умных" датчиков: как нужно поставить свет, открыть окна, включить музыку. Лет через десять это вполне возможно", сказал Решетников.
***
Даже если кого-то вдохновляет вариант будущего, в котором по "ИИ-оболочке" о человеке сразу становится известно всё, можно ли не понимать, что это будет использоваться в первую очередь не для того, чтобы "поставить свет и включить музыку" так, как вам нравится, но, в первую очередь, для самого жёсткого и всепроникающего контроля? Стоит ли постоянное нахождение под колпаком такого удобства, как иметь заблаговременно включённую "под тебя" музыку? Важно понимать, что человека на таком этапе контроля не будут уже и спрашивать.
28.02.2026. Показательное нагибание: "Антропик" "ненавидит западную цивилизацию"

На этой неделе развернулось показательное нагибание Пентагоном компании-разработчика искусственного интеллекта "Антропик". Пентагон уже активно использует ИИ от "Антропик" для военных операций — в частности, для нападения на Каракас и похищения президента Мадуро. И всё же у "Антропик", которая даже образовалась, отпочковавшись от "OpenAI", именно с целью сохранить какие-то этические принципы, остались две "красные линии", которые она отказывалась переступать: нет — массовому наблюдению за американцами, нет — летальному автономному оружию (то есть оружию, убивающему без решения человека). Причём относительно второй красной линии "Антропик" уже начинала прогибаться: генеральный директор Дарио Амодеи начал говорить, что в будущем, может быть... Но Пентагону не нужно в будущем — ему нужно уже сейчас; из того, какие требования он продавливает, можно заключить, что именно ему нужно.
В результате "Антропик" внесена в чёрный список (что означает запрет на сотрудничество с "Антропик" подрядчикам Пентагона, т.к. это "риск для цепочки поставок"), а контракт военного министерства будет заключён с "OpenAI", несмотря на то, что этот ИИ-разработчик декларирует вроде бы такие же ценности, как "Антропик" (но в этом случае, видимо, удалось достичь согласия). "Антропик" же подвергнута осуждению; сверхмиллиардер Илон Маск сказал, что "Антропик ненавидит западную цивилизацию", а Пентагон обвинил персонально Амодеи в том, что он «лжец с комплексом Бога, который ставит под угрозу всю национальную безопасность».
"Антропик" подала в суд и заявила, что этот спор не касается клиентов или компаний, имеющих с ней коммерческие контракты: «Если вы являетесь индивидуальным клиентом или имеете коммерческий контракт с Anthropic, ваш доступ к Claude — через наш API, claude.ai или любой из наших продуктов — совершенно не затронут».
27.02.2026. ИИ разрушает учебный процесс, но "нужно приспосабливаться"

В Переславле-Залесском прошла ХXI конференция «Свободное программное обеспечение в высшей школе».
Преподаватель МГУ им М. В. Ломоносова Георгий Курячий сказал, что ИИ‑системы достигли уровня, позволяющего успешно выполнять типовые учебные задания по широкому кругу дисциплин. Из-за этого снижается достоверность оценки знаний, искажается система отбора студентов, утрачиваются практические навыки. Предлагаемые решения этих проблем либо не достигают поставленных целей, либо требуют неоправданно много ресурсов. Часто предлагается признать пользу ИИ и разрешить студентам пользоваться этим инструментом. Но в этом случае они не обучаются базовым навыкам. Традиционные образовательные модели сталкиваются с системным кризисом, и вопрос адаптации к новым реалиям остаётся открытым.
Старший преподаватель кафедры японской филологии ИСАА МГУ им М. В. Ломоносова Людмила Васильева рассказала, что студенты используют популярные онлайн-переводчики для выполнения заданий, но выдаваемый перевод содержит грамматические и стилистические ошибки, которые в дальнейшем ученики не редактируют. Для решения этой проблемы преподавательница задавала устные вопросы, чтобы удостовериться в переводческих навыках студентов. По её мнению, студенты обращаются к ИИ из‑за высокой учебной нагрузки и стремления всё успеть. Васильева отметила, что нужно приспосабливаться к наличию ИИ и учиться им правильно пользоваться.
***
Показательна слабость реакции представителей высшей школы, в принципе понимающих, что совершается катаклизм, разрушающий школу и разительно снижающий качество обучения (особенно Курячий это понимает), но всё равно не готовых к сопротивлению: "вопрос адаптации остаётся открытым", "нужно приспосабливаться". Всё это вместо того, чтобы потребовать введения обязательных устных экзаменов и отчисления студентов, пойманных на подмене обучения искусственным интеллектом.
Интересная деталь: "студенты обращаются к ИИ из-за высокой нагрузки и стремления всё успеть". Невозможно представить, что учебная нагрузка в МГУ вдруг стала больше, чем была в 60-80-е, в докомпьютерную пору. Выходит, приспособлений, облегчающих учебный процесс, стало БОЛЬШЕ, а нагрузка при этом стала казаться ВЫШЕ. Плюс усиливается элемент лихорадочной гонки, которую всюду несёт с собой ИИ.
26.02.2026. ИИ в религии: робот-буддист

Исследовательская группа при Киотском университете совместно с компаниями Teraverse и XNOVA разработала гуманоидного робота-буддиста с искусственным интеллектом, предназначенного для ведения бесед и очного взаимодействия с человеком.
Сбывается то, о чём неоднократно предупреждал израильский историк Юваль Ной Харари: искусственный интеллект будет проникать во все религии, основанные на текстах. Он будет знать эти тексты лучше, чем любой священнослужитель, и в конечном счёте — подменять священнослужителя.

Сюда же отнесём обращение Папы Римского Льва XIV от 20 февраля сего года: Папа призывает священников устоять перед соблазном использовать ИИ при подготовке проповедей, предупреждая, что, как мускулы атрофируются в теле без использования, так же слабеет и мозг. Однако в то же самое время Ватикан не считает зазорным активно продвигать искусственный интеллект для переводов. Хотя это действительно не совсем то же самое, что писать проповеди с помощью ИИ, однако мозг слабеет и в этом случае, и, казалось бы, можно было бы хоть воздержаться от пропаганды этой технологии.
25.02.2026. ИИ для фальсификации

Дочь предпринимателя из Плёса Алексея Шевцова (внесён Минюстом в список иноагентов) сообщила о завершении экспертизы, показавшей, что приписываемое Шевцову аудиовыступление, опубликованное в издании «Eureporter» и послужившее мотивом для признания его иноагентом, «не является продуктом работы речевого аппарата человека» и полностью сгенерировано нейросетью.

Ранее, в январе нынешнего года, доцент кафедры судебных экспертиз Университета имени О. Е. Кутафина (МГЮА) Николай Бодров говорил, что российское законодательство в области защиты граждан от незаконного использования их изображения или голоса с помощью нейросетей нуждается в совершенствовании. Злоумышленники подделывают через нейросети даже голоса сотрудников Следственного Комитета. Для того, чтобы сделать фальсификацию голоса, достаточно трёхсекундной записи.
24.02.2026. Цена "помощи" от ИИ

1.54% американских подростков в возрасте 13-17 лет признаются, что используют искусственный интеллект "для помощи с домашней работой". Чаще всего он выполняет за них исследования (48%), решает математические задачи (43%), редактирует написанное (35%). 59% американских подростков признаются, что ученики в их школе используют ИИ для обмана "хотя бы иногда". 42% подростков используют ИИ для того, чтобы он обобщал для них содержание книг, статей или видео.
***
В новости от 22.02. можно посмотреть, чем чревато такое удобство.
2.Топ-менеджеры "Майкрософта" признали, что внедрение ИИ-агентов ведёт к вымыванию молодых программистов из профессии, что означает отсутствие базы для обучения новых поколений опытных программистов. Они призвали к тому, чтобы крупные компании продолжали приём младших разработчиков, даже если на начальном этапе это снижает общую производительность. Тем не менее, это не официальная позиция "Майкрософта", и неизвестно, последует ли этой рекомендации хотя бы сама "Майкрософт".
23.02.2026. Привыкание к роботам

1.В ближайшее время мы увидим, как роботы обретают более крупные головы, большие глаза и способность издавать располагающие человека звуки. Задача — вызывать у окружающих людей глубинные биологические реакции, которые способствуют благоприятному восприятию таких роботов. Компания DoorDash, которая выпускает роботов для доставки товаров, целенаправленно разрабатывала их внешность таким образом, чтобы вызывать у людей ассоциации с домашними животными. Роботы семейства Dot хотят стать членами семьи, как отмечают представители компании, они с высокой вероятностью обладают своего рода личностью. Специалисты предупреждают, что активное очеловечивание роботов в сочетании с возможностями программных ИИ-моделей будет вызывать у людей эмоциональную зависимость от соответствующих устройств.
2.Человекоподобные роботы находятся на ступени развития, примерно соответствующем уровню 10-летнего ребенка. Такое мнение выразил глава китайской робототехнической компании Unitree Robotics Ван Синсин. По его словам, для широкомасштабного использования андроидов при оптимистичном сценарии понадобится от 3 до 5 лет, при более долгом – не более 10.
***
Характерно и то, что роботов специально, умышленно делают/будут делать такими, чтобы они вызывали привыкание у людей, снимали естественную настороженность людей, — и указанные короткие сроки, которые в Китае считают актуальными и за которыми крайне трудно успеть конкурентам. К примеру, директор Института интеллектуальной робототехники Новосибирского госуниверситета Алексей Окунев две недели назад говорил, что на разработку человекоподобных роботов с искусственным интеллектом потребуется 20-25 лет.
22.02.2026. Потерянное поколение

Нейробиолог Джаред Хорват заявил комитету Сената США по торговле, науке и транспорту, что поколение Z уступает в плане когнитивных способностей предыдущим поколениям, несмотря на беспрецедентный доступ к технологиям — и даже "благодаря" этому доступу. Ссылаясь на данные Программы по международной оценке достижений учащихся (PISA), отражающие результаты 15-летних подростков по всему миру, и другие стандартизированные тесты, Хорват отметил не только снижение результатов, но и явную корреляцию между набранными баллами и временем, проводимым за компьютером в школе. Чем больше ученики проводят времени за компьютером в школе, тем более низкие результаты они показывают в тестах. Нейробиолог уверен, что неограниченный доступ учащихся к технологиям привёл к атрофии, а не к укреплению способностей к обучению. «Это не дискуссия о том, чтобы отказаться от технологий. Это вопрос о согласовании образовательных инструментов с тем, как на самом деле происходит обучение людей. Данные свидетельствуют о том, что неизбирательное расширение цифровой среды ослабило учебную среду, а не укрепило её», — говорится в письме Хорвата. Также он указывает, что «к сожалению, лёгкость никогда не была определяющей характеристикой обучения. Оно требует усилий, оно трудное и зачастую некомфортное. Но именно это делает обучение глубоким и переносимым в будущее».
***
При этом Хорват сознаёт беспрецедентные вызовы времени. В своём письме он пишет: «Мы сталкиваемся с более сложными и масштабными проблемами, чем любые другие поколения в истории человечества — от перенаселения до эволюционирующих болезней и морального разложения. Сейчас нам как никогда нужно поколение, способное разбираться в тонкостях, удерживать в сознании несколько противоречивых истин одновременно и творчески подходить к решению проблем, ставящие в тупик самые выдающиеся взрослые умы современности».
Итак, нам нужно поколение весьма умное но мы имеем поколение поглупевшее. И мы сами его таким сделали.
21.02.2026. Эпидемия обмана на собеседованиях

Российские IT-компании столкнулись с эпидемией обмана на собеседованиях, в рамках которой соискатели массово используют нейросети для прохождения технических заданий, сообщила операционный директор компании Selecty Ксения Шереметьева. Проблема особенно остро появляется на потоковых позициях, где долю недобросовестных кандидатов уже можно оценить в 25-50%. "Если раньше это были единичные случаи [использования нейросетей при прохождении собеседования], то сейчас, навскидку, это каждый 2-4-й кандидат. На точечных вакансиях это встречается реже, но по массовым вакансиям динамика выглядит печально".
Рынок захлестнула волна фейковых резюме. На массовых позициях доля недостоверных резюме достигает примерно 50%. Джуниоры приписывают себе годы опыта и реальные проекты, чтобы позиционировать себя как мидлов.
***
Вспомним предыдущую новость: для программистов-сеньоров работы ещё хватает, но начальная подготовка программистов деградирует. Молодые программисты используют нейросети для прохождения собеседования, но ведь их и всячески поощряют к тому, чтобы они использовали нейросети. Фактически, им дают понять, что они в скором времени будут не нужны, а учиться нужно как раз тому, чтобы эффективно использовать нейросети. Снова мы оказываемся перед вопросом: откуда будут браться опытные программисты, если подменяется подготовка начинающих?
Следует ещё иметь в виду, что молодые программисты попали под удар одними из первых не случайно: автоматизация программирования форсируется разработчиками ИИ целенаправленно, с тем чтобы ИИ-модели могли обучать и совершенствовать сами себя. И это ещё одна опасность.
20.02.2026. "Слава богу, вопрос закрылся"

Академик РАН, директор Института системного программирования РАН Арутюн Аветисян предрёк, что "производительность труда сильного программиста серьёзно вырастет. Если раньше ему надо было пять junior (младших) иметь и ещё несколько middle (средних), то сейчас, может быть, он один с этим справится".
Однако объёмы работы вырастут! "Если ИИ усилит возможности врача в 10 раз, что, это означает, что нам нужно меньше врачей? Нет. Это означает, что мы сможем довести врача до каждого, и в 10 раз не хватит. Даже в быту нам нужно в сто раз больше внедрений".
По мнению Аветисяна, настоящая опасность может грозить, если люди станут передавать ИИ управление. "Но слава богу, этот вопрос закрылся, потому что субъектность ИИ не рассматривается в мировом сообществе и в нашей стране тоже".
***
1. Сильные программисты вырастают из джуниоров. Если сильный программист будет работать без джуниоров и мидлов — откуда будут браться сильные программисты?
2. Фактически, речь идёт о том, что потребность людей во врачах будет расти и что врачи без искусственного интеллекта удовлетворить эту потребность никак не смогут. Это трудно считать желательной перспективой.
3. "Этот вопрос" — то есть передача управления искусственному интеллекту — отнюдь не закрылся. Даже в этот же день 20 февраля Селина Сюй, руководящая исследованиями и стратегическими инициативами, касающимися Китая и ИИ в офисе Эрика Шмидта (бывшего главы Google), сравнивая стратегии США и Китая, сказала, что США стремятся к масштабированию, хотят создать «общий искусственный интеллект» (AGI), тогда как для Китая важнее повышение экономических показателей.
AGI — это и есть тот субъектный искусственный интеллект, которому будет передаваться управление.


© Шабаева Татьяна Николаевна
t.n.shabaeva@yandex.ru