На прошлой неделе Минцифры вынесло для обсуждения законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Федеральный координатор партийного проекта ЕР "Цифровая Россия" Антон Немкин сообщил, что законопроект не должен «зарегулировать развитие», что он гибкий и рамочный; тем не менее в «Альянсе в сфере искусственного интеллекта» заявили, что ряд норм вводит «чрезмерную административную нагрузку на разработчиков» и это «может сказаться на развитии всей отрасли и отдельных сервисов и решений на основе ИИ. Например, нужно аккуратно подходить к вопросам маркировки и ответственности разработчиков ИИ и владельцев сервисов, ПО с ИИ».
Каким бы гибким и льготным власть ни стремилась сделать регулирование искусственного интеллекта – участникам рынка будет мало гибкости, а ответственности слишком много. Это характерно не только для РФ. Основные принципы предложенного законопроекта – «создать благоприятные условия для развития ИИ», «не распространять регулирование на госбезопасность, военную сферу и охрану правопорядка», «суверенная модель, технологическая независимость» – можно найти в любой попытке контроля над ИИ; повсеместно и сопротивление компаний-выгодополучателей любому, самому мягкому регулированию.
Положение делает уникальным другое. Два фактора, один из которых имеет отдалённое подобие в истории, а второй – совершенно беспрецедентный.
Первое – это гонка. Компании чувствуют себя вправе давить на государства, пугая их «задержкой в развитии». Они чувствуют себя в таком праве с тех пор, как по всему миру государства, заинтересованные в упрочении своего статуса, сделали главную ставку на искусственный интеллект: он должен и повысить эффективность во всех отраслях, и обеспечить безопасность от врагов внешних и внутренних, и открыть населению новые горизонты, и распространить влияние государства на ту часть земного шара (и даже космоса), которую оно считает находящейся в сфере своих интересов… Государства слышат клич: «скорей внедряйте ИИ, а то проиграете!». Нечто похожее происходило с компьютеризацией – но не под таким давлением, не с такой скоростью, не с таким эсхатологическим настроением, и заинтересованные частные лица тогда ещё не были так чудовищно, несообразно богаты, государства – не настолько погрязли в долгах, население – не настолько привыкло к удобству.
Но что делает нынешнее положение беспрецедентным – это наличие «автономных (без участия человека) решений». Я сейчас цитирую тот самый законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ». Искусственный интеллект в нём определяется так: «Комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их». Из этой формулировки стоит запомнить слова «самообучение и поиск решений без заданного алгоритма» и «результаты, превосходящие интеллектуальную деятельность человека». «Автономные (без участия человека) решения» находим в разделе «Права граждан при использовании технологий искусственного интеллекта», где говорится, что граждан о таких решениях нужно уведомлять, если они принимаются в отношении этих граждан и «затрагивают их законные интересы». То есть если ИИ примет в отношении вас самостоятельное решение и будет (кем-то) признано, что оно затрагивает ваши законные интересы, то вам сообщат, что решение было принято искусственным интеллектом, и вы сможете на это пожаловаться.
Кроме того, «лицо, осуществляющее продажу товаров или оказание услуг с использованием технологий искусственного интеллекта без участия человека в принятии решений о продаже товара или оказании услуги обязано информировать покупателей и потребителей услуг о применении технологий искусственного интеллекта». Это значит, что лицо, осуществляющее продажу товаров или услуг с использованием ИИ, но с хотя бы минимальным участием человека, даже не обязано нас об этом информировать.
Наконец, предлагается ввести такое право: «В случаях, устанавливаемых Правительством Российской Федерации, лица и организации, осуществляющие оказание услуг, обязаны обеспечить гражданину, отказавшемуся от использования технологий искусственного интеллекта в его отношении, возможность получения услуг в форме и порядке, не предусматривающем автономное использование технологий искусственного интеллекта». Это самая большая уступка людям на весь законопроект – и она показывает, насколько всепроникающей и определяющей всю нашу жизнь грозит стать технология искусственного интеллекта. Даже если вы сможете отказаться от автономных решений ИИ в отношении вас (хотя некоторые сферы государственной деятельности выведены из-под предложенного регулирования) – вы не сможете настоять, чтобы в отношении вас в принципе не принимались решения с использованием ИИ. Да, это важно. Например, если искусственный интеллект готовит для судьи выжимку из вашего дела – решение принимает судья, но от выжимки зависит очень многое. В предельном случае – это то, что, как видимо, произошло со школой для девочек в иранском Минабе. Решение о поражении цели принимал человек. Цели же ему подсовывал искусственный интеллект.
Итак, впервые в человеческой истории мы имеем дело с тем, что может работать без заданного человеком алгоритма, что способно к самообучению, что может принимать автономные (без участия человека) решения. То, что описывается такими словами, – уже не инструмент, а субъект. Субъект, который должен нести ответственность. Но как вы возложите ответственность на искусственный интеллект?..
Скажут: цели-то ему устанавливают люди! Они и должны отвечать! Но, как мы помним, заинтересованные лица не горят желанием отвечать за решения искусственного интеллекта. Они обернут в свою пользу все неясные места этого гибкого законопроекта. Вот например: «Разработчик модели искусственного интеллекта, оператор системы искусственного интеллекта, владелец сервиса искусственного интеллекта несут ответственность в соответствии с законодательством РФ за результат, полученный с использованием искусственного интеллекта, нарушающий законодательство РФ, при условии, что указанные лица заведомо знали или должны были знать о возможности получения такого результата с использованием модели, системы или сервиса искусственного интеллекта, разработчиком, оператором или владельцем которых они являются». Но как они могли «заведомо знать», если модель «самообучающаяся»? Как могли знать, чему она сама обучится? Если же акцентировать часть «должны были знать» – тогда надо решительно закрывать всю лавочку, потому что мы все «должны были знать», что от массового, повсеместного, стремительного внедрения такой экстраординарной технологии не может произойти ничего хорошего. Мы все должны это знать.
Постановка целей кем-то другим никогда прежде не освобождала исполнителя от ответственности. Цель «добиться возвращения долга» звучит законно, и попробуй докажи, что имелось в виду нечто криминальное. Но исполнитель может сделать возвращение долга криминальным – и будет нести ответственность. Искусственный интеллект может – это подтверждено экспериментально и в практике – самостоятельно (автономно) привнести в достижение цели такое, чего разработчики от него не ждали и не хотели получить. И не будет нести ответственность.
При этом речь идёт об интеллектуальных результатах, которые могут превосходить человеческие. Удивительным образом, законопроект (Статья 13) охраняет «объекты интеллектуальной собственности, созданные путём применения сервисов искусственного интеллекта» и признаёт «оригинальные творения», «независимо от того, были ли они созданы человеком или автоматизированной системой». То есть ИИ может превосходить человека интеллектуально, может принимать самостоятельные решения, может творить (отсюда один шаг до признания ИИ субъектом авторского права), но при всём том мы делаем вид, что это инструмент, и он не несёт ответственности ни за что! Именно потому не несёт, что, признай мы эту ответственность, – мы её никаким образом не смогли бы обеспечить. Поэтому притворимся, что её просто нет. И заодно напишем, что «не является нарушением авторских и (или) патентных прав их правообладателей извлечение информации из объектов, защищённых авторскими или патентными правами (…) для обучения искусственного интеллекта при условии, что изготовителем набора данных или разработчиком был получен правомерный экземпляр такого произведения, либо этот объект был доведён до всеобщего сведения и (или) доступен для анализа».
Это означает узаконивание паразитирования искусственного интеллекта на всём человеческом наследии. Вы потратили годы труда на написание книги – разработчики ИИ получат экземпляр правомерно, и после этого она будет брошена в чрево искусственного интеллекта, а он за минуты будет создавать «оригинальные творения» из трудов уходящего человечества.