Концепция плана мероприятий по созданию плана дорожной карты проекта концепции регулирования ИИ до середины XXI века
Всем привет, (не)регулируемые пользователи ИИ!
Обсудим, надо ли регулировать ИИ и как именно. И что предлагает наше продвинутое министерство, живущее вместе с Германом Оскаровичем в далёком будущем.
Для затравки — несколько ссылок на клеветнические публикации ретроградов и луддитов:
- «Врачи моментально теряют навык диагностики, когда начинают использовать нейросети. После отказа от ИИ показатели падают ниже исходных. Врачи-эндоскописты быстро теряют навыки выявления некоторых предраковых заболеваний после начала использовании вспомогательных технологий машинного зрения».
- Отчёт MIT: 95% пилотных проектов генеративного ИИ в компаниях терпят неудачу. Исследование было основано на 150 интервью с руководителями, опросе 350 сотрудников и анализе 300 публичных кейсов внедрений ИИ. Выяснилось, что только около 5% пилотных программ ИИ дают быстрый рост выручки; подавляющее большинство из них останавливается, практически не оказывая измеримого влияния на прибыли и убытки компаний.
- ИИ не даёт экономического эффекта. Вне западного побережья Америки почти не видно, чтобы ИИ оказывал сколько-нибудь существенное влияние на что-либо.
- От ИИ-инструментов глупеют? В июне 20025 г. ученые Массачусетского технологического института опубликовали исследование на основе данных эхоэнцефалографии, которое показало, что при решении задач с использованием ботов на основе больших языковых моделей вроде ChatGPT мозговая активность намного ниже (в среднем на 47%), чем в случаях, когда оно осуществляется самостоятельно. Таким образом, применение ИИ может негативно отражаться на развитии когнитивных способностях человека, навыках критического мышления и уровне интеллектуальной независимости.
Ну и так далее. Скептические публикации разных исследователей последние месяца два-три идут косяком.
В принципе, читая выступления и тексты «евангелистов» генеративного ИИ, об этом снижении активности мозга на 47% можно догадаться и непосредственно, без исследований.
Как же возможно регулировать революцию революций?
Почитал Концепцию развития регулирования ИИ до 2030 от Минцифры (ссылки и какую-то версию документа я прикладывал в постах ранее). Статус её неясен, что это — будет ли потом закон об ИИ, или это декларация о том, что законы пока не нужны? Непонятно.
Ниже — наиболее показательные цитаты с моими комментариями. Сначала как бы хорошие и правильные цитаты, а потом как бы плохие и тревожащие.
Определения
Начнём с определений, это база.
Основное определение вставлено уже после введения, в списке терминов, и звучит так:
Искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Определение довольно уже привычное, похожее на определения ИИ в ГОСТах и используемые много где ещё. Но негодное.
Про «имитацию когнитивных функций» — это моя вина, моя формулировка, которую я использовал уже лет семь, практически везде. И это не вполне правильно, как справедливо мне указали члены нашей рабочей группы при СФ (это провоцирует неправильные мысли о субъектности ИИ).
А всё остальное в определении — идеологическое, или некорректное, или сиюминутное.
«Сопоставимое» и «превосходящее» — это протаскивание невыразимой крутости, а самое главное — субъектности ИИ (об этом ещё ниже).
«Машинное обучение» — не при чём, ИИ совершенно необязательно базируется на машинном обучении, так что вставлять это в определение неправильно.
Зачем про «поиск решений без заранее заданного алгоритма» — тоже неясно. ИИ бывает алгоритмический, бывает нет, бывает генеративный, бывает всякий, зачем это обсуждать в определении?
Одновременно использовать в определении на один абзац фактические синонимы «когнитивные функции» и «интеллектуальную деятельность» — неаккуратно.
Дальше в Концепции есть ещё два частных, уточняющих определения:
— узконаправленный искусственный интеллект — тип систем искусственного интеллекта, ориентированных на выполнение определенных задач с целью решения конкретной проблемы.
— универсальный искусственный интеллект — тип систем искусственного интеллекта, решающих широкий круг задач с приемлемым уровнем качества.
Тоже негодные. Что такое «определённых задач», что такое «широкий круг задач», что такое «приемлемый уровень качества», кем приемлемый?
Не надо, мне кажется, разрешать референтам и помощникам использовать ЧатЖПТ или даже отечественный Гигачат для написания определений. Но это глас вопиющего в пустыне.
Ну ладно, перейдём к «правильным цитатам».
Риски ИИ
В Концепции упоминаются риски внедрения ИИ, это большой шаг вперёд по сравнению с тем, что несли в массы «евангелисты ИИ» до того.
…"В связи с совершенствованием и масштабированием больших генеративных моделей и больших фундаментальных моделей применение технологий искусственного интеллекта стало возможным в том числе в отраслях, традиционно считающихся творческими и доступными только человеку».
Здесь и далее подобные утверждения преподносятся в подразумеваемой модальности, что это очень хорошо. Хорошо же?
Однако же:
«Автономность функционирования систем искусственного интеллекта, способных выполнять запросы и задачи без контроля со стороны человека, их способность к самообучению, отсутствие прозрачности и наличие потенциала для развития неограниченных возможностей систем искусственного интеллекта, повышают степень рисков причинения вреда человеку и обществу».
Вроде бы правильное утверждение, но специально вставлено про «потенциал неограниченных возможностей». Это тоже далее — везде по тексту, такое нейролингвистическое программирование на уровне лексики. Везде сплошной потанцевал.
«В настоящий момент в числе рисков, связанных с разработкой и внедрением технологий искусственного интеллекта, законодатели по всему миру отмечают риски создания вводящих в заблуждение и выдаваемых за достоверные данные (тексты, изображения, аудио- и аудиовизуальная информация, видеоматериалы и тому подобное), с помощью технологий искусственного интеллекта, а также использования технологий в противоправных целях».
Так-то всё верно; но вообще-то у нас сейчас крадут у граждан больше миллиарда рублей в день с помощью вот этого всего. И поджигают военкоматы и релейные шкафы.
Так что не нужны «законодатели всего мира», чтобы это заметить. Ну и неплохо бы ссылаться не только почему-то на смекалистых законодателей, а также — и на специалистов.
Основные «хорошие», направленные на добро цитаты сосредоточены в Главе IV «Принципы регулирования отношений в сфере технологий искусственного интеллекта».
Принципы: мы за всё хорошее против всего плохого
Концепция формулирует принципы, которые кажутся самоочевидными, правильными, по сути повторяющими декларации Кодекса этики ИИ:
- человеко-ориентированный подход: конечная цель развития технологий искусственного интеллекта является обеспечение защиты гарантированных российским и международным законодательством прав и свобод человека и повышение благосостояния и качества жизни граждан;
- доверенность: разработка и внедрение технологий искусственного интеллекта осуществляются в соответствии с требованиями безопасности, в том числе информационной.
- технологический суверенитет: обеспечение необходимого уровня независимости Российской Федерации в области искусственного интеллекта согласно требованиям государственной политики в сфере развития информационных технологий и импортозамещения;
- уважение автономии и свободы воли человека: сохранение автономии и свободы воли человека в принятии им решений, нормативно-правовое регулирование в области искусственного интеллекта не должно умалять право выбора и интеллектуальные способности человека, являющиеся самостоятельной ценностью и системообразующим фактором общества;
- недискриминация: алгоритмы и наборы данных, методы обработки используемых для машинного обучения данных, применяемые для группирования и (или) классификации данных, касающихся как групп лиц, так и отдельного человека не должны способствовать дискриминации;
- ответственность: не допускается делегирование системам искусственного интеллекта ответственного нравственного выбора (в том числе принятие любых решений, способных оказать влияние на жизнь или здоровье человека), а также делегирование ответственности за последствия принятия решений. Ответственность за все последствия работы систем искусственного интеллекта всегда несет физическое или юридическое лицо, признаваемое субъектом ответственности в соответствии с законодательством Российской Федерации;
- квалифицированная экспертная оценка: при разработке нормативно-правового регулирования, касающегося развития технологий искусственного интеллекта, должно быть обеспечено проведение его соответствующей оценки специалистами в области искусственного интеллекта.
Тут как бы трудно и возражать (тем более, что я участвовал почти пять лет назад в написании собственно этого Кодекса этики, и часть этих принципов — результат моих усилий).
Однако же, стоит заметить, что тут нет ничего про национальную безопасность и оборону (есть только про «технологический суверенитет»).
Но зато есть про какую-то обязательную «оценку регулирования специалистами». Так-то оно вроде бы правильно, но мы же знаем этих специалистов — это те же, кто писал данную концепцию. То есть это закладывание своих будущих полномочий управлять законотворчеством.
Ну и главное: эти принципы, правильные, хорошие и вообще типа классные — являются, как и Кодекс этики, реверансом всяким там луддитам, правозащитникам и паникёрам, то есть упаковкой, оформлением того, что цифровизаторы и внедренцы ИИ хотят протащить в социум и государство.
Перейдём к плохим цитатам.
Реальное содержание: революция революций
Дальше в Концепции явно видны намерения и интересы авторов (и это не чиновники, а точнее, не только чиновники, но и их бизнес-кураторы).
… современные крупные нейронные сети демонстрируют признаки эмерджентных способностей — неожиданные возможности, которые не были явно заложены при их обучении. Это позволяет предположить, что дальнейшее масштабирование нейронных архитектур может привести к качественному скачку возможностей — к созданию универсального искусственного интеллекта.
… Технологии искусственного интеллекта продолжают улучшать результаты в сложных тестах, во многих задачах превосходя людей. Модели демонстрируют все больший рост в тестах на логику, подтверждая растущую компетентность в сложных когнитивных задачах.
Мы видим здесь продвижение идеи, как же всё это хорошо, круто, прорывно и направлено в светлое будущее. Прямо в документе про регулирование.
Да, делаются оговорки:
… Движение к сильному искусственному интеллекту поднимает множество сложных вопросов, в частности, выравнивание ценностей: как обеспечить, чтобы цели универсального искусственного интеллекта соответствовали человеческим ценностям, возможность неконтролируемого самосовершенствования таких технологий, справедливый доступ к технологиям и защита от потенциальных угроз.
Но даже в этой оговорке «движение к сильному искусственному интеллекту» принимается по умолчанию, как неизбежность, как действительность. Нет, ну, а в самом деле, а куда ещё двигаться?
Ну и дальше начинают фигачить:
… При этом важно отметить, что хотя на текущий момент отношения в сфере искусственного интеллекта преимущественно возникают при разработке и использовании узконаправленного искусственного интеллекта, даже наличие узконаправленного искусственного интеллекта в значительной степени оказывает влияние на правовую систему.
… Развитие технологий искусственного интеллекта кардинально меняет правовую сферу, создавая беспрецедентные вызовы для существующих правовых систем и стимулируя появление новых подотраслей права. Технологии искусственного интеллекта затрагивают фундаментальные правовые принципы, институты и процессы, требуя адаптации законодательства к новым реалиям.
Это вот всё откуда взялось? Это нам люди Грефа, писавшие Концепцию, сообщают? Или это «отмечают законодатели всего мира»?
Из чего следует, что нам надо, надо, надо, прям вот надо менять нашу правовую систему? Это просто накачка, на уровне многократных повторений.
Дальше, естественно, перескок к «субъектности». Это любимый конёк «евангелистов ИИ». Можно подумать, что это просто алчный материальный интерес: генерировать контент даром и получать на него права, как на человеческий, но мне представляется, что это прямо религиозная тема.
… Один из ключевых правовых вопросов — определение правового положения систем искусственного интеллекта. Сегодня наделение систем искусственного интеллекта правосубъектностью вызывает научный интерес и активно обсуждается в юридическом сообществе.
Ряд ученых выступают за создание для роботов правового статуса «электронного» или «виртуального лица», а также за разработку комплекса прав и обязанностей, характерных для специфического квазисубъекта права. В основном дискуссии строятся на сравнении предполагаемого правового статуса робота с правовым положением юридического лица или животного, однако уже появляются предложения приравнять правовой статус искусственного интеллекта к статусу человека исходя из их тождественности.
До этого — лукавые рассуждения в духе «есть разные мнения», но дальше — прямой вывод:
…Совершенствование «агентного» искусственного интеллекта вкупе с повышением его автономности позволит делегировать совершение юридически значимых действий системам искусственного интеллекта, что приведет к необходимости адаптации законодательства.
«Статус лица», «обязанности ИИ», «тождественность ИИ и человека» — этот угар не в романах Головачёва и Азимова, а в государственной Концепции регулирования ИИ.
Ну и вывод, естественно — пора всё менять, революция же. Революция революций, как говорит Греф:
Трансформация традиционных отраслей права. Развитие и внедрение технологий искусственного интеллекта поднимает концептуальные вопросы применимости устоявшихся правовых институтов к отношениям, возникающим в связи с развитием технологий искусственного интеллекта, в частности в области права интеллектуальной собственности, юридической ответственности за результаты деятельности систем искусственного интеллекта и иной информации ограниченного доступа.
Ну и поехало, в духе Грефа, «мои мысли — мои скакуны»:
Развитие машиночитаемого права: посредством инструментов машиночитаемого права возможно обеспечить «встраивание» норм права в работу информационных систем, предоставляющих различные сервисы в автоматическом режиме, а также обменивающихся данными без участия человека (например, беспилотный транспорт, интернет вещей).
Знаем-знаем. Например, выдача и запрет кредитов, блокирование банковского счёта и мобильной связи за подозрительную транзакцию, выдача указания полиции задержать пассажира в аэропорту за похожесть лица, написание стратегий и «выявление связей между нацпроектами» и так далее.
Естественно, нужно для начала законами и подзаконными актами снять ограничения и позволить натурные эксперименты на гражданах, жителях выбранных регионов страны или относящихся к каким-то категориям:
Развитие механизмов «регуляторных песочниц»: экспериментальные правовые режимы для тестирования новых технологий.
Дальше следует опять рассуждение в духе: в мире есть разные мнения, знаете ли.
Различные подходы к регулированию ИИ
… На сегодняшний день в мировом ландшафте регулирования технологий искусственного интеллекта можно выделить несколько сложившихся подходов.
- Консервативный подход. Ряд юрисдикций идет по пути создания комплексных нормативных правовых актов в сфере искусственного интеллекта, направленных на регулирование всех аспектов взаимодействия человека с технологиями искусственного интеллекта, включая установление ограничений и мораториев на использование отдельных систем искусственного интеллекта с высоким или недопустимым риском.
- Гибридный подход. Для юрисдикций, придерживающихся такого подхода, характерно формирование секторального законодательства, многие нормативные правовые акты носят стимулирующий характер. Регулирование комбинируется из актов стимулирования с точечными нормативными ограничениями и механизмами саморегулирования.
- Проинновационный подход. Для юрисдикций, придерживающихся технократического подхода к регулированию, характерно создание гибкой системы регулирования, которая в определенной степени сдерживает вмешательство регулятора в технологическую сферу. В большой степени регулирование ограничивается инструментами саморегулирования.
Ну и вывод:
Российская Федерация придерживается гибридного подхода, направленного на создание безопасной среды для дальнейшего развития технологий искусственного интеллекта.
Вопрос, кто это решил, что у РФ такой подход — даже не ставится, никаких попыток даже как-то обосновать — не делается.
Просто: всё, у нас гибридный подход. Хотя, конечно, и это — реверанс, отмазка: из «плохих» цитат выше видно, что подразумевается не «гибридный», а исключительно «проинновационный подход».
Повышение доверия и снятие барьеров
Дальше авторы Концепции отбрасывают необходимость делать реверансы в сторону луддитов и безопасников и вырываются на оперативный мыслительный простор:
… В целях создания комфортных регуляторных условий требуется дальнейшее исследование отраслей на предмет наличия в них регуляторных барьеров, препятствующих внедрению технологий искусственного интеллекта.
… С учетом экономической и социальной значимости применения технологий искусственного интеллекта в различных сферах их разработка и эксплуатация не должны ограничиваться регуляторными мерами, за исключением случаев, в частности, связанных с высоким риском причинения вреда жизни и здоровью граждан.
А чтобы граждане не нервничали, их нужно воспитывать, воспитывать доверие к ИИ. Это слово вообще встречается в документе много раз:
…В целях повышения доверия пользователей …
… создание механизмов упрощенного внедрения продуктов с использованием технологий ИИ, обеспечивающих при этом необходимый уровень доверия и безопасности (это, кстати, про доверие к упрощённо внедрённому ИИ в медицине!)
… не исключая при этом формирования унифицированных механизмов обеспечения доверия к технологиям искусственного интеллекта на межотраслевом уровне.
Ну и так далее. Там ещё много, в том же духе: стимуляция, снятие барьеров, развитие, развитие, развитие…
Зачем это всё?
Результатом реализации Концепции должна стать поэтапная разработка и принятие к 2030 году нормативных правовых актов в сфере искусственного интеллекта, создающих комфортную регуляторную среду для развития технологий искусственного интеллекта.
Максимально медленно, не торопясь и комфортно для развития ИИ.
Что делать-то? Что я думаю об этом
Концепция отражает хотелки и мечтания наших цифровизаторов, которые говорят начальству, что ИИ решит все наши проблемы, а сами себе думают, что ИИ решит все их проблемы.
То есть используют ИИ для того, чтобы казаться умными перед начальством, делать карьеру, получать бюджеты и власть.
Чтобы это всё делать свободно и невозбранно — нужно прогнуть под себя законодательство, закрепив «гибридный подход» и «снятие барьеров», то есть фактический запрет регулирования — см. выше.
Моё мнение (не раз выраженное публично и в разного рода докладах и записках):
Ситуация рискованная
1. Имеется явный пузырь ИИ. Во время пузыря делается всё самое модное и ненужное, вытрачивается огромное количество денег и труда, потом пузырь лопается, деньги всем прощают. Происходит бешеная медийная накачка публики и чиновников — см. интервью Грефа.
2. Наш отечественный ИИ — глубоко вторичный, статьи, алгоритмы, платформы, данные скачиваются у американцев и выдаются за свои (в Сбербанке, МТСе, даже в Яндексе). Технологическая линейка у нас неполная, содержит зияющие дыры: нет процессоров и карт, нет так называемых «фреймворков» (нейронных операционных систем). Мало кадров, практически нет своей ИИ-науки. Это создаёт вторичность, «наркоманию скачивания свежих апдейтов» с Запада.
Это риск для нацбезопасности: Россия усилиями «евангелистов ИИ» всё глубже впадает в статус цифровой колонии. В области ИИ «импортозамещения» — по сути нет.
3. Социальные риски ИИ огромны: это отупение молодёжи, разрушение образования, барьеры между гражданами и властью, манипуляция, генерация шлака и фейков, дипфейки и пропаганда, вербовка и мошенники, потеря компетенций врачами, инженерами, гуманитариями. Социальные рейтинги, автоматическая дискриминация. Попытки внедрить ИИ в право, законотворчество, закрепить снятие ответственности с чиновников.
4. Государственные риски ИИ: в России образуется новый цифровой класс управленцев, которые получают власть по факту доступа к данным граждан и государства и к цифровым сервисам. Происходит незаметное, но мощное перетекание власти от энергетиков и промышленников к цифровикам. Это по сути — ползучий государственный переворот.
Вывод
ИИ крайне нужен России на войне и в промышленности — и категорически не нужен, вреден и опасен в социальной сфере, образовании, государственном управлении.
Что делать
· Вкладываться в оборонный и промышленный ИИ: распознавание, беспилотники, наведение, управление боем, предиктивная аналитика, управление производством, поиск дефектов, управление посевами и стадами, беспилотные поезда и авто, и т. п.
· Вкладываться в фундаментальное: в кадры, в собственную науку ИИ и технологическую линейку. Обеспечивать создание собственных базовых технологий (железа, фреймворков, нейронных сетей, датасетов).
· Создать единого оператора платформы ИИ (в формате ГЧП), с предоставлением льготного доступа к мощностям для школ, университетов, малого и крупного бизнеса, чтобы выдержать гонку с США и Китаем, обеспечить на уровне государства развитие собственной науки и технологии.
· Принять законы, ограничивающие внедрение ИИ в социум и госуправление, ограничить власть цифровых платформ и «цифровиков».
То есть во многом законодателям и государству нужно делать прямо противоположное написанному в Концепции регулирования ИИ от Минцифры.
Ну, поборемся.