На этой неделе развернулось показательное нагибание Пентагоном компании-разработчика искусственного интеллекта "Антропик". Пентагон уже активно использует ИИ от "Антропик" для военных операций — в частности, для нападения на Каракас и похищения президента Мадуро. И всё же у "Антропик", которая даже образовалась, отпочковавшись от "OpenAI", именно с целью сохранить какие-то этические принципы, остались две "красные линии", которые она отказывалась переступать: нет — массовому наблюдению за американцами, нет — летальному автономному оружию (то есть оружию, убивающему без решения человека). Причём относительно второй красной линии "Антропик" уже начинала прогибаться: генеральный директор Дарио Амодеи начал говорить, что в будущем, может быть... Но Пентагону не нужно в будущем — ему нужно уже сейчас; из того, какие требования он продавливает, можно заключить, что именно ему нужно. В результате "Антропик" внесена в чёрный список (что означает запрет на сотрудничество с "Антропик" подрядчикам Пентагона), а контракт военного министерства будет заключён с "OpenAI", несмотря на то, что этот ИИ-разработчик декларирует вроде бы такие же ценности, как "Антропик" (но в этом случае, видимо, удалось достичь согласия). "Антропик" же подвергнута осуждению; сверхмиллиардер Илон Маск заявил, что "Антропик ненавидит западную цивилизацию", а Пентагон обвинил персонально Амодеи в том, что он «лжец с комплексом Бога, который ставит под угрозу всю национальную безопасность».
27.02.2026. ИИ разрушает учебный процесс, но "нужно приспосабливаться"
В Переславле-Залесском прошла ХXI конференция «Свободное программное обеспечение в высшей школе». Преподаватель МГУ им М. В. Ломоносова Георгий Курячий сказал, что ИИ‑системы достигли уровня, позволяющего успешно выполнять типовые учебные задания по широкому кругу дисциплин. Из-за этого снижается достоверность оценки знаний, искажается система отбора студентов, утрачиваются практические навыки. Предлагаемые решения этих проблем либо не достигают поставленных целей, либо требуют неоправданно много ресурсов. Часто предлагается признать пользу ИИ и разрешить студентам пользоваться этим инструментом. Но в этом случае они не обучаются базовым навыкам. Традиционные образовательные модели сталкиваются с системным кризисом, и вопрос адаптации к новым реалиям остаётся открытым. Старший преподаватель кафедры японской филологии ИСАА МГУ им М. В. Ломоносова Людмила Васильева рассказала, что студенты используют популярные онлайн-переводчики для выполнения заданий, но выдаваемый перевод содержит грамматические и стилистические ошибки, которые в дальнейшем ученики не редактируют. Для решения этой проблемы преподавательница задавала устные вопросы, чтобы удостовериться в переводческих навыках студентов. По её мнению, студенты обращаются к ИИ из‑за высокой учебной нагрузки и стремления всё успеть. Васильева отметила, что нужно приспосабливаться к наличию ИИ и учиться им правильно пользоваться. *** Показательна слабость реакции представителей высшей школы, в принципе понимающих, что совершается катаклизм, разрушающий школу и разительно снижающий качество обучения (особенно Курячий это понимает), но всё равно не готовых к сопротивлению: "вопрос адаптации остаётся открытым", "нужно приспосабливаться". Всё это вместо того, чтобы потребовать введения обязательных устных экзаменов и отчисления студентов, пойманных на подмене обучения искусственным интеллектом. Интересная деталь: "студенты обращаются к ИИ из-за высокой нагрузки и стремления всё успеть". Невозможно представить, что учебная нагрузка в МГУ вдруг стала больше, чем была в 60-80-е, в докомпьютерную пору. Выходит, приспособлений, облегчающих учебный процесс, стало БОЛЬШЕ, а нагрузка при этом стала казаться ВЫШЕ. Плюс усиливается элемент лихорадочной гонки, которую всюду несёт с собой ИИ.
26.02.2026. ИИ в религии: робот-буддист
Исследовательская группа при Киотском университете совместно с компаниями Teraverse и XNOVA разработала гуманоидного робота-буддиста с искусственным интеллектом, предназначенного для ведения бесед и очного взаимодействия с человеком. Сбывается то, о чём неоднократно предупреждал израильский историк Юваль Ной Харари: искусственный интеллект будет проникать во все религии, основанные на текстах. Он будет знать эти тексты лучше, чем любой священнослужитель, и в конечном счёте — подменять священнослужителя.
Сюда же отнесём обращение Папы Римского Льва XIV от 20 февраля сего года: Папа призывает священников устоять перед соблазном использовать ИИ при подготовке проповедей, предупреждая, что, как мускулы атрофируются в теле без использования, так же слабеет и мозг. Однако в то же самое время Ватикан не считает зазорным активно продвигать искусственный интеллект для переводов. Хотя это действительно не совсем то же самое, что писать проповеди с помощью ИИ, однако мозг слабеет и в этом случае, и, казалось бы, можно было бы хоть воздержаться от пропаганды этой технологии.
25.02.2026. ИИ для фальсификации
Дочь предпринимателя из Плёса Алексея Шевцова (внесён Минюстом в список иноагентов) сообщила о завершении экспертизы, показавшей, что приписываемое Шевцову аудиовыступление, опубликованное в издании «Eureporter» и послужившее мотивом для признания его иноагентом, «не является продуктом работы речевого аппарата человека» и полностью сгенерировано нейросетью.
Ранее, в январе нынешнего года, доцент кафедры судебных экспертиз Университета имени О. Е. Кутафина (МГЮА) Николай Бодров говорил, что российское законодательство в области защиты граждан от незаконного использования их изображения или голоса с помощью нейросетей нуждается в совершенствовании. Злоумышленники подделывают через нейросети даже голоса сотрудников Следственного Комитета. Для того, чтобы сделать фальсификацию голоса, достаточно трёхсекундной записи.
24.02.2026. Цена "помощи" от ИИ
1.54% американских подростков в возрасте 13-17 лет признаются, что используют искусственный интеллект "для помощи с домашней работой". Чаще всего он выполняет за них исследования (48%), решает математические задачи (43%), редактирует написанное (35%). 59% американских подростков признаются, что ученики в их школе используют ИИ для обмана "хотя бы иногда". 42% подростков используют ИИ для того, чтобы он обобщал для них содержание книг, статей или видео. *** В новости от 22.02. можно посмотреть, чем чревато такое удобство. 2.Топ-менеджеры "Майкрософта" признали, что внедрение ИИ-агентов ведёт к вымыванию молодых программистов из профессии, что означает отсутствие базы для обучения новых поколений опытных программистов. Они призвали к тому, чтобы крупные компании продолжали приём младших разработчиков, даже если на начальном этапе это снижает общую производительность. Тем не менее, это не официальная позиция "Майкрософта", и неизвестно, последует ли этой рекомендации хотя бы сама "Майкрософт".
23.02.2026. Привыкание к роботам
1.В ближайшее время мы увидим, как роботы обретают более крупные головы, большие глаза и способность издавать располагающие человека звуки. Задача — вызывать у окружающих людей глубинные биологические реакции, которые способствуют благоприятному восприятию таких роботов. Компания DoorDash, которая выпускает роботов для доставки товаров, целенаправленно разрабатывала их внешность таким образом, чтобы вызывать у людей ассоциации с домашними животными. Роботы семейства Dot хотят стать членами семьи, как отмечают представители компании, они с высокой вероятностью обладают своего рода личностью. Специалисты предупреждают, что активное очеловечивание роботов в сочетании с возможностями программных ИИ-моделей будет вызывать у людей эмоциональную зависимость от соответствующих устройств. 2.Человекоподобные роботы находятся на ступени развития, примерно соответствующем уровню 10-летнего ребенка. Такое мнение выразил глава китайской робототехнической компании Unitree Robotics Ван Синсин. По его словам, для широкомасштабного использования андроидов при оптимистичном сценарии понадобится от 3 до 5 лет, при более долгом – не более 10. *** Характерно и то, что роботов специально, умышленно делают/будут делать такими, чтобы они вызывали привыкание у людей, снимали естественную настороженность людей, — и указанные короткие сроки, которые в Китае считают актуальными и за которыми крайне трудно успеть конкурентам. К примеру, директор Института интеллектуальной робототехники Новосибирского госуниверситета Алексей Окунев две недели назад говорил, что на разработку человекоподобных роботов с искусственным интеллектом потребуется 20-25 лет.
22.02.2026. Потерянное поколение
Нейробиолог Джаред Хорват заявил комитету Сената США по торговле, науке и транспорту, что поколение Z уступает в плане когнитивных способностей предыдущим поколениям, несмотря на беспрецедентный доступ к технологиям — и даже "благодаря" этому доступу. Ссылаясь на данные Программы по международной оценке достижений учащихся (PISA), отражающие результаты 15-летних подростков по всему миру, и другие стандартизированные тесты, Хорват отметил не только снижение результатов, но и явную корреляцию между набранными баллами и временем, проводимым за компьютером в школе. Чем больше ученики проводят времени за компьютером в школе, тем более низкие результаты они показывают в тестах. Нейробиолог уверен, что неограниченный доступ учащихся к технологиям привёл к атрофии, а не к укреплению способностей к обучению. «Это не дискуссия о том, чтобы отказаться от технологий. Это вопрос о согласовании образовательных инструментов с тем, как на самом деле происходит обучение людей. Данные свидетельствуют о том, что неизбирательное расширение цифровой среды ослабило учебную среду, а не укрепило её», — говорится в письме Хорвата. Также он указывает, что «к сожалению, лёгкость никогда не была определяющей характеристикой обучения. Оно требует усилий, оно трудное и зачастую некомфортное. Но именно это делает обучение глубоким и переносимым в будущее». *** При этом Хорват сознаёт беспрецедентные вызовы времени. В своём письме он пишет: «Мы сталкиваемся с более сложными и масштабными проблемами, чем любые другие поколения в истории человечества — от перенаселения до эволюционирующих болезней и морального разложения. Сейчас нам как никогда нужно поколение, способное разбираться в тонкостях, удерживать в сознании несколько противоречивых истин одновременно и творчески подходить к решению проблем, ставящие в тупик самые выдающиеся взрослые умы современности». Итак, нам нужно поколение весьма умное — но мы имеем поколение поглупевшее. И мы сами его таким сделали.
21.02.2026. Эпидемия обмана на собеседованиях
Российские IT-компании столкнулись с эпидемией обмана на собеседованиях, в рамках которой соискатели массово используют нейросети для прохождения технических заданий, сообщила операционный директор компании Selecty Ксения Шереметьева. Проблема особенно остро появляется на потоковых позициях, где долю недобросовестных кандидатов уже можно оценить в 25-50%. "Если раньше это были единичные случаи [использования нейросетей при прохождении собеседования], то сейчас, навскидку, это каждый 2-4-й кандидат. На точечных вакансиях это встречается реже, но по массовым вакансиям динамика выглядит печально". Рынок захлестнула волна фейковых резюме. На массовых позициях доля недостоверных резюме достигает примерно 50%. Джуниоры приписывают себе годы опыта и реальные проекты, чтобы позиционировать себя как мидлов. *** Вспомним предыдущую новость: для программистов-сеньоров работы ещё хватает, но начальная подготовка программистов деградирует. Молодые программисты используют нейросети для прохождения собеседования, но ведь их и всячески поощряют к тому, чтобы они использовали нейросети. Фактически, им дают понять, что они в скором времени будут не нужны, а учиться нужно как раз тому, чтобы эффективно использовать нейросети. Снова мы оказываемся перед вопросом: откуда будут браться опытные программисты, если подменяется подготовка начинающих? Следует ещё иметь в виду, что молодые программисты попали под удар одними из первых не случайно: автоматизация программирования форсируется разработчиками ИИ целенаправленно, с тем чтобы ИИ-модели могли обучать и совершенствовать сами себя. И это ещё одна опасность.
20.02.2026. "Слава богу, вопрос закрылся"
Академик РАН, директор Института системного программирования РАН Арутюн Аветисян предрёк, что "производительность труда сильного программиста серьёзно вырастет. Если раньше ему надо было пять junior (младших) иметь и ещё несколько middle (средних), то сейчас, может быть, он один с этим справится". Однако объёмы работы вырастут! "Если ИИ усилит возможности врача в 10 раз, что, это означает, что нам нужно меньше врачей? Нет. Это означает, что мы сможем довести врача до каждого, и в 10 раз не хватит. Даже в быту нам нужно в сто раз больше внедрений". По мнению Аветисяна, настоящая опасность может грозить, если люди станут передавать ИИ управление. "Но слава богу, этот вопрос закрылся, потому что субъектность ИИ не рассматривается в мировом сообществе и в нашей стране тоже". *** 1. Сильные программисты вырастают из джуниоров. Если сильный программист будет работать без джуниоров и мидлов — откуда будут браться сильные программисты? 2. Фактически, речь идёт о том, что потребность людей во врачах будет расти и что врачи без искусственного интеллекта удовлетворить эту потребность никак не смогут. Это трудно считать желательной перспективой. 3. "Этот вопрос" — то есть передача управления искусственному интеллекту — отнюдь не закрылся. Даже в этот же день 20 февраля Селина Сюй, руководящая исследованиями и стратегическими инициативами, касающимися Китая и ИИ в офисе Эрика Шмидта (бывшего главы Google), сравнивая стратегии США и Китая, сказала, что США стремятся к масштабированию, хотят создать «общий искусственный интеллект» (AGI), тогда как для Китая важнее повышение экономических показателей. AGI — это и есть тот субъектный искусственный интеллект, которому будет передаваться управление.