Реплика. Вычислительная мощь решает?
Бурное развитие ИИ как бы говорит нам: решает вычислительная мощность. Не надо ручных правил, лингвистики, офигачим всё огромными вычислительными кластерами, всё получится само. Но есть и другое мнение.
Недавняя история русского ИТ. Судьба лингвиста в бурлящем Отечестве
Основные задачи прикладной лингвистики. Неказистая судьба лингвиста в Перестройку.Фрактальность языка и прикладной лингвистики. Главный принцип прикладной лингвистики. Приход нейронок. Задачи решены? Нужно согласиться на понижение качества.
Про Китай. Мифы и иллюзии русского сознания
Китай - враг или друг? Мифы, шаблоны и архетипы про Китай. там всё не так. Бутафория. Имитация. Фальшивая история. Бабки - настоящие. Настоящие хуавеи.
Дорвеи 3.0. Докажите, что вы не робот
Конференция по поисковой оптимизации. Поисковики столкнулись с новой проблемой. ИИ-тошнота.
Снова про цифровизацию. Приписки и воровство в цифровом СССР
Цифровая среда стимулирует криминал. Воровать и вредить в ней легче на порядки, ковровым способом. Есть особый вид криминала - приписки. В приписках нет состава преступления или его очень трудно выявить и наказать. А делать приписки в цифре - легче лёгкого. И скрывать следы. Нас ждёт чудовищная виртуальная реальность фальсификаций и приписок всего.
Обратно же про Рутуб
Газпром внезапно стал владельцем Газпром Медиа Холдинга (сюрприз). Одновременно Роскомнадзор начал замедлять Ютуб. Окно возможностей открылось - но как бы оно не закрылось.
Реплика. Про номенклатуру и ненависть к совкам
Номенклатура задрала. СССР развалился из-за неё. Всё было только через партию. Щас то же самое! Нет, щас есть социальные лифты. А номенклатура? Сейчас тоже есть.
ИИ-6. Страхи и отмазки. Репортаж: Форум по этике ИИ
Всем привет, этичные кожаные мешки!
Придётся обратно же поговорить про ИИ. Это же сейчас самое главное, да вот хоть Грефа спросите.
Я только что побывал, заодно и выступил на Форуме по этике искусственного интеллекта. Очень познавательно.
Форум проходил в Центре мировой торговли на Пресне, он же Хаммеровский центр, в полукилометре от небоскрёбов Москва-Сити. Организован форум уже в третий раз Центром развития ИИ при Правительстве РФ (центр создан в этом году).
Попробуйте угадать, кто генеральный партнёр? А, ну нет, так нечестно, вы знали, знали.
Форум был посвящён Кодексу этики ИИ и разным рискам и проблемам с этикой. Пришло человек двести.
Заставка на экране в главном зале была такая:
Вот эта как бы стеклянная мутная пирамидальная хрень справа, как и псевдодерево на ней — нарисованы, естественно, бредогенератором.
Смысла никакого не несёт, вблизи и точной формы не имеет тоже, то ли лестницы, то ли горки, грани сходятся кое-как, ни туда ни сюда, как на рисунках Эшера. Ну то есть совершенно бессмысленные. Чисто генеративная красотищща. Организаторам это — видимо, ОК. Это вообще показательно.
Наиболее познавательно было пленарное заседание в 10 утра на форуме.
Сначала собирающихся и рассаживающихся участников приветствовал голос с экрана. Он грохочущим баритоном под тревожную музыку наговорил типовые ИИ-глупости, что-то вроде:
Ув. участники! Я — искусственный интеллект! Я приветствую вас на форуме! Вместе мы сделаем наш мир справедливым, безопасным, обеспечим нам всем лучшее будущее.
По оценкам экспертов искусственный интеллект уже используется в 30% предприятий в российской экономике!
Мы все используем искусственный интеллект в повседневной жизни! Мы все доверяем ИИ нашу жизнь!!!
Поэтому безопасность ИИ — это безусловный приоритет!
Поэтому мы в 2021 году создали Кодекс этики ИИ. Его подписали уже 700 организаций! Институты, компании, корпорации и госорганы. Используют этические принципы.
Россия лидирует по числу компаний, подписавших такой кодекс. А ещё планируется кодекс этики ИИ для БРИКС и единая система регулирования ИИ для БРИКС.
При этом, под грохот и тревожную музыку в качестве иллюстрации на экране крутилось какое-то вибрирующее и содрогающееся светящееся влагалище (или анус, хрен его знает).
Не знаю, что это должно было олицетворять собою. Там ещё написано «вот здесь собрались лучшие специалисты и лидеры индустрии». Где? Вот в этом вот?
Организаторы, наверно, знают. Или надо спросить генерального спонсора.
Текст «титров» — конечно, по-английски — международный же форум.
Дальше на кафедру модератора встал организатор форума — Сергей Наквасин, Директор Национального центра развития ИИ при Правительстве РФ. Кратко — НЦРИИ ПРФ. Скороговорка не хуже других.
Ниже кратко — тезисы выступающих.
Сергей Наквасин:
Почему важно обсуждать вопросы этики ИИ.
Кодекс был написан в сентябре 2021. Мы собрались большим экспертным сообществом и в дискуссиях написали Кодекс. В октябре 2021 мы провели первый Форум Этики ИИ.
20 организаций присоединились, первые 20 пилигримов! Они подписали Кодекс и стали применять его принципы в своей работе.
Сейчас Кодекс подписали уже более 800 компаний и организаций из 10 отраслей экономики. Наша цель — человекоцентричный ИИ во всём мире. У нас еженедельно собирается комиссия по этике ИИ. Она разбирает сложные вопросы и вырабатывает рекомендации.
Форум сегодня — это транзит от того фундамента, заложенного три года назад, к зданию новой экономики, построенной на ИИ.
Послушаем же наших гостей.
На сцену вышли Татьяна Матвеева (управление ИКТ АП), Валерий Фадеев (СПЧ), Мария Захарова (МИД), Андрей Белевцев (Сбербанк), иностранцы Джассим Хаджи (Президент общества ИИ Бахрейна, а также президент международной группы по ИИ — не знаю, что это значит), Эстела Аранья (советник президента Бразилии по ИИ).
Два запасных докладчика сидели в зале: Саша Крайнов из Яндекса, Андрей Незнамов из Сбербанка.
Татьяна Матвеева (начальник Управления АП по развитию ИКТ и инфраструктуры). Этика в ИИ открывает новые возможности для общества и разработчиков. Этика — это ключевой элемент доверия. Примерно 80% граждан по опросам ВЦИОМ — за этичные правила и за проверку человеком. Их понять можно.
Но надо также повышать ответственность пользователей при пользовании такой сложной и хрупкой технологией. Не только разработчиков!
Но в любом случае пора переходить к сертификации. Нужны нормы, стандарты, принципы. Нужны организации, выдающие сертификаты этичности.
А ещё нужны образовательные программы в вузах про этику ИИ.Такое уже есть в Питерском Универе.
Комиссия по этике Альянса ИИ уже сделала «Белую книгу» по этике ИИ, там разобраны кейсы. Для студентов, разработчиков. Это первая такая книга в мире! Мы скоро её представим на Форуме ИИ в октябре.
Этика становится инструментом «мягкого права», в том числе международного, в БРИКС это один из приоритетов. Вчера встречались министры БРИКС по ИКТ — они выступают за инклюзивный, ответственный, этичный ИИ, преодоление цифрового разрыва, улучшение жизни людей.
Наквасин:
Передадим слово Марии Захаровой. Сейчас идёт гонка в мире за технологическое лидерство, она не всегда этичная. Мы адаптируемся к этой гонке, умные камеры, генеративные модели, БПЛА, но в любом случае мы лидер в этике! Нигде нет такого форума, регулярного, постоянно действующего. Итак, что думает об этом МИД?
Мария Захарова (МИД). Я бы сказала, что происходит «революционная эволюция»! В международном праве. Оно адаптируется, эволюционно, но очень быстро. Государства — на разных стадиях применения и оформления. Кто теоретически изучает вопрос, а кто уже вовсю применяет.
При этом идёт неспортивная соревновательность, не вполне бои без правил, правила какие-то есть — но они грубо попираются. Мировое сообщество вроде занялось регуляторикой, соглашениями.
Но разработка норм и принятие решений будут подвержены воздействию по западным образцам, будет силовое соперничество вне правового поля.
МИД РФ делает всё, чтобы вернуть международное взаимодействие в правовое поле — чтобы тема ИИ тяготела к сотрудничеству, как другие темы. В соперничестве и конкуренции плохого нет. Но пока всё сваливается в борьбу и агрессию.
Только что принята первая резолюция ООН, целиком посвящённая ИИ. Вторая сессия — про международное сотрудничество в области ИИ.
Прошёл Саммит будущего в Нью-Йорке Результат пока неоднозначный, но подписан Международный Цифровой договор.
Такие же процессы идут в БРИКС и в СНГ (вчера опубликовано заявление от лидеров СНГ — подписано соглашение об гражданском ИИ, первый такой документ на пространстве СНГ).
Были разные представления, противоречивые подходы, но в итоге есть соглашение. Там есть этика нейросетей, регулирование и саморегулирование ИИ, есть прямое указание на Кодекс Этики. Церемония подписания некоторыми участниками будет здесь же, позже.
Да, можно бояться, что ИТ-гиганты отодвинут этику на второй план. Надеемся, что этого не произойдёт, темпы развития стимулируют дискуссии.
Вот недавно мы посещали офис нашего флагмана ИИ, смотрели разработанное ПО. Они предлагали свои продукты МИДу. В том числе генерацию голоса спикера, где всё идеальное — тональность, тембр, интонация и эмоции. Это нужно, чтобы заменять уставших от публичной жизни спикеров. Вот, например, у меня уже садится голос!
Но это ведь прямая дорога к дипфейкам! Как только мы покажем всем, что так можно — озвучивать позицию, смыслы автоматически, все бросятся так делать в политической сфере. Что же делать? Казнить нельзя помиловать. Надо понять, где поставить запятую. Технологий-то много, но где применять и как? Какие антидоты вырабатывать?
Этим должны заниматься те, кто вырабатывает этику. Коллеги — молодцы! Наш российский вклад в этику ИИ — уникален. Нужно насыщать технологии ИИ-этикой, плечом к плечу с практиками, учёными. Сохранить этическую политику и повестку.
Наквасин. Важно вырабатывать доверие общества к технологиям. При создании Кодекса в 2021 было столкновение математиков, романтиков ИИ (за мягкое регулирование), и представителей общественности (чтобы не было как в фильме «Терминатор», не допустить катастрофического сценария). Но грамотность населения в области ИИ возросла, мы теперь понимаем и риски, и возможности.
Попросим советника Президента и главу СПЧ Фадеева.
Валерий Фадеев (советник Президента, глава Совета по развитию гражданского общества и правам человека): спасибо за вопрос, СПЧ интересуется темой ИТ шире, цифровизацией вообще, мы разрабатываем концепции, регулярно докладываем Президенту.
Мы сейчас отстаём от реалий очень сильно. Кодекс этики — хорошо. Но всё равно сильно отстаём от реальной жизни.
Вот смотрите. По данным МВД, за год в России было суммарно 48 тысяч краж, квартирных и уличных. И при этом — 1 600 000 списаний денег мошенниками, то есть в 34 раза больше киберпреступлений. Кражи в реальном мире составляют 3%.
Сбербанк прогнозирует, что будет украдено у граждан 300 миллиардов в 2024.
Ну, можно сказать, это же плата за прогресс? Тогда нужно спросить: а что тогда прогресс?
Вот возьмём систему FacePay в московском метро. За три года в системе зарегистрировалось примерно триста тысяч москвичей. Из 15 млн пользующихся метро, то есть 2%. Это что, прогресс?
А вот само метро, когда его прокопали, электричество, провода, динамо-машины, электропоезда, эскалаторы, пробиватели туннелей. Это был реальный технологический прорыв. Вот это — прогресс. Реально меняющий жизнь.
И вдруг вы говорите, что это всё ерунда, а вершина прогресса — платить лицом. Для 2%. Это же комично.
Ну и вот теперь прогресс — это генеративные нейронные сети. Они якобы могут писать тексты за журналистов? А зачем? Доливать ручейки шлака в общий септик Интернета?
Говорят, давайте искусственный интеллект будет писать тексты за журналистов. А зачем? Это же чушь. Журналист — это профессия. Если начинающие журналисты не будут писать простые тексты, то они никогда не станут опытными журналистами. Ниагары информационного мусора в Интернете, теперь давайте ещё ИИ будет дополнять их своими ручьями.
Базовая функция журналиста — поехать туда, где произошло событие, поговорить с людьми, понять смысл произошедшего, хорошим языком это изложить. ИИ не может же поехать на место событий, опросить участников, очевидцев, и т. п.
Мы на протяжении 24 лет читаем репортажи Андрея Колесникова из президентского пула в «Коммерсанте» о событиях, связанных с Президентом России. Колесникова можно заменить искусственным интеллектом? Вы готовы читать вместо него новости ЧатЖПТ? Это смешно!
Или вот «Кандинский» и прочие. Рисуют картинки. Ну это же гламурная пошлятина. Потому что в интернетах — массовая гламурная пошлятина.
ИИ нужен где? Промышленность, война. Вот там — пожалуйста. Эти задачи не несут социальных рисков. Здесь можно.
А зачем с ИИ вторгаться в социум? Неприкосновенность частной жизни записана в вашем Кодексе, а до этого — в Конституции. Я лично считаю, что должен быть запрет на автономные решения ИИ. И полный запрет вмешательства в частную жизнь.
Собраны гигантские массивы данных про каждого из нас. Безусловно, для того, чтобы манипулировать. Моя точка зрения, она вам покажется мракобесной, очень простая: запретить вообще индивидуальный контакт с человеком в области торговли с использованием персональных данных.
Сплошь и рядом звонят: «Иван Петрович, мы знаем, что вы интересуетесь китайскими машинами, мы хотим предложить вам скидку». Такой звонок должен рассматриваться как мошенничество, и по его поводу должно возбуждаться уголовное дело. Это вмешательство в личную жизнь человека.
Вообще это создание прозрачности — опасная манипуляция людьми, природой человека. Прошло уже 15 лет с того времени когда Цукерберг и Брин (Цукербрин по Пелевину), выступили с декларацией «тайны частной жизни больше нет».
Что, поверим Цукербринам? Частная жизнь — это одна из основ человека. Отмена её — это глубокие антропологические изменения. Неизвестные. Которые изменят человека неизвестным нам образом.
Мы что — готовы отменить эту статью в Конституции?
У нас нет осознания этих изменений, нет базовой философии. Мы не знаем, к каким это последствиям приведёт, если не будет частной жизни. Пока мы этого не осознали — я выступаю на стороне Конституции.
Да, Кодекс этики ИИ — это важно. Вы в этом лидеры, как сказала Захарова. Хорошо.
Но дальше нужно переводить этические правила в правовые. Нежно, аккуратно, но в конечном счёте — в законы. Совет по правам человека готов в этом помочь.
Наквасин. Приглашаю Андрея Белевцева. В 2020 году Андрей поддержал создание Кодекса от экспертной группы. Сейчас он представитель Сбербанка. Один из самых технологических банков мира! Как вы применяете этику в технологиях, чем это вам помогает?
Андрей Белевцев (глава разработки ИИ в Сбербанке): Любая технология меняет жизнь. Можно применять в добро и во зло. По миру распространяется выражение AI in for good! ИИ для добра! Мы за это.
Генеративные модели — это революция. 12 миллионов пользователей используют сервис «Кандинский», 22 миллиона — Гигачат. Сгенерировано уже 200 миллионов картинок. Почему люди делают это? Им это нужно!
Но да, мошенники всегда на шаг впереди. Они ищут по миру технологии, инструменты для мошенничества. А технологий, инструментов в мире — много.
Но это — ответственность исключительно мошенников. Кто-то произвёл фомку, а кто-то вскрыл квартиру или машину. Фомка и её производитель ни в чём не виноваты!
Но саморегулирование нужно! Мы в Альянсе подписали Декларацию об ответственной разработке генеративного ИИ. На сайте Альянса ИИ можно почитать. Присоединяйтесь. Так мы сделаем наш мир безопаснее.
Польза ИИ драматически перевешивает риски! Генеративные модели — это первые шаги. А если применять в медицине! Для анализа всего, что есть о больном — анализов, анамнеза, снимков!
А генерация лекарств. Они же будут дешевле! Почему лекарства дорогие? Очень дорог анализ молекул новых лекарств, а также испытания. ИИ даёт сокращение времени на испытания и анализ свойств молекул иногда с нескольких лет до нескольких дней! Значит, цены будут ниже для больных людей!
Про принятие решений. У кого из вас есть автомобильные права? Ну вот, у половины. Вы же понимаете, что последние 15 лет сам автомобиль принимает решение, тормозить или нет. ABS и всё такое!
(Крики из зала: «Это неверно!»).
Ближайшие перспективы — агенты и … пока не переведено на русский … овеществление ИИ! (просто пересказывает Шмидта про agents и text to action). Их нужно испытывать, сертифицировать!
ИИ — это огромный толчок для экономики. Эксперты оценивают, что в ближайшие годы ИИ даст плюс 3% к мировому ВВП — это от генеративного ИИ. Это больше ВВП России!
Про требование маркировки. Вот мы скоро выложим распознаватель искусственных текстов и человеческих. Надо помогать людям отличать.
Надо, конечно, маркировать. Хотя, фотки на вашей мобиле всегда применяют фильтры ИИ. Они всегда срабатывают, если специально не отключить. Красотища же! Вы же не отказываетесь!
Нужно, чтобы плюсы превышали риски. Для этого риски надо закладывать на этапе проектирования.
Фадеев: зачем нужно нагенерить текст, а затем его отличать от настоящего? Это же как крабовый салат и салат из «крабовых палочек», разница в пять раз по цене. И по вкусу.
Белевцев: Есть же разные сценарии! Ну вот можно же поручить подготовить выступление или совещание! Больше идей для мозгового штурма.
Фадеев: тогда это интеллектуальный поисковик, а не самостоятельно плавающий текст. Промежуточные инструменты.
Захарова: нужно кодифицировать маркировку текстов ИИ. Везде, со ссылкой — студент, доцент, учёный, диплом, кандидатская, монография, художественный текст — везде сноска, что сделано ИИ. Оформить это законодательно. И вот тут же заработает такая саморегуляция — залюбуешься. Граждане сами будут решать, хотят ли они читать искусственное.
Сейчас регуляции нет. Будут массово выпускаться искусственные учебники, пособия для несовершеннолетних. Сначала на равных с настоящими текстами. Но потом они начнут заполнять пространство настолько, что сами станут базой для следующего этапа обучения ИИ, для принятия решений и использования для учебников. Отличить уже будет нельзя.
Нужно вводить сноску везде — в том числе в рекламу.
Наквасин: пригласим Александра Крайнова, он евангелист ИИ. Вот вчера Нобеля дали как бы по физике, но за ИИ. Расскажите.
Крайнов: кратко про нобелевскую историю: вообще комьюнити в шоке. Взяты два достойных человека, из немногих в сообществе ИИ, но не самые главные гении. Но они точно не имеют отношения к физике.
Нобелевских премий за математику или информатику — нет. Ну вот дали за физику. При этом наградили за то, что сделано вообще в 80-е годы. Ну, что получилось, то получилось.
К этике. Надо сказать, что ИИ — это сквозные технологии, как электричество, как персональные компьютеры и Интернет. Сначала на них только печатали и играли в игрушки. Потом начали работать. Такие вещи незаметно улучшают эффективность, постепенно, повседневно.
Да, генеративный ИИ — пока игрушка. Потом доползёт до медицины, науки, поможет изучать работы предшественников, сделать своё. Будет бустом для всех!
ИИ — всегда вероятностный. Он не даёт 100% качества. Разработчик не может исправить ошибки. Он может сделать так, что следующая версия будет лучше. Монетка же не падает одинаково, даже если две одинаковые стороны. Нет гарантий. Ответ у ИИ — всегда разный. Можно постоянно замерять качество.
Так что нужно иметь чёткие цели и измерения. Нужно вычислять стоимость ошибки. Больше ли ошибка без ИИ или меньше?
Вопросы, на которые не отвечали: вот, допустим, надо взять за образец для ИИ самого этичного человека! На планете! Где он?
Из зала:
Ашманов: Иисус Христос чем тебя не устраивает?
Крайнов: А, ну, устраивает. Но это же в рамках одной религии!
Ашманов: Ну возьми Мохаммеда для мусульман.
В общем, если работать по инструкции, человек или ИИ — всё равно будут люфты, непредвиденные ситуации. Никакая инструкция не даёт 100% исполнения. Этика нужна при любой инструкции!
Дальше были выступления иностранцев. Там всё было совершенно дежурное. Просто рассказ «а вот у нас».
Потом, после перерыва, начались выступления «в стиле TED». 7 минут, 7 слайдов. Я в свою очередь выступил, ниже моя презентация из семи слайдов:
В общем, всё предсказуемо, 80% чистой рекламы ИИ и цифровизации (и это на форуме «про этику») — ИИ это инновационно, полезно, «буст экономики», людям нужно, но они пока не понимают, давайте их обучать, возложим на них ответственность, а не только на разработчиков, надо вообще «стирать грань между человеком и ИИ» (точная цитата из одного из семиминутных выступлений).
Камлания типа «всё равно уже всё открыто», «мы уже отдали все свои медицинские данные». Ну и тому подобное.
А скоро будет AI Jorney от Грефа. Там вообще будет безумие.
Реплика. Ещё раз про ABBY. Блудные сыновья Родины
Вернуть программистов Абби? А зачем? Они точно поедут? Что вообще делать с нашим ненашими и ненашими нашими? Гуманизм? Во время войны?
Славная история ABBYY и героическая биография Давида Яна
Многобуков про феномен Давида Яна и особенности его личности.
Невыносимая точность бытия
— Видел последнюю «Миссия невыполнима — 6» с Крузом?
— Да полная хрень, такая тупая разводка для детей.
— Почему?
— Ну, я не спецназовец, могу ещё поверить, что он выныривает с подлодки на ста метрах глубины или прыгает с парашютом на крышу небоскрёба, но вот то, что он флешку вставил с первого раза — это точно туфта!
Всем привет, неточные пользователи Госуслуг!
Я был на прошлой неделе три дня на Банковском форуме в Сочи. Это центральная тусовка банковской отрасли, на пленарной сессии выступают председатель ЦБ, президенты и вице-президенты крупных банков, главы банковских ассоциаций, модерирует сессию глава банковского комитета Госдумы.
Я с интересом послушал Набиуллину, она, по-моему, вообще на голову выше окормляемой ею отрасли и представителей банков.
Да и секции на форуме примерно настолько же представительные.
Я не банкир, хотя Крибрум и Наносемантика поставляют услуги и банкам тоже. Но меня туда позвали, потому что была сессия про «технологии», «ИИ», прочее «будущее». Подозреваю, что аниматором, «поперечником».
Жену мою позвали туда, напротив, вести секцию про настоящее технологий, то есть про мошенничество, «перевод денег без согласия клиента» (это такой эвфемизм банковский), кражу сотен миллиардов. Расскажу потом подробнее.
Ну, хоть в море искупались пару раз. Там, кстати, если не думать про характерные для Сочей гальку и камни, воздух +28, вода +23, до сих пор. Не завидуйте.
Сейчас хочется коснуться другого. На секции про будущее технологий было сказано: «Между прочим, банковская отрасль — единственная, где ИИ уже принимает решения». Докладчик сказал это с неподдельным энтузиазмом, он считает это достижением.
Принятие ИИ автономных решений о людях
Я уже рассказывал тут про типовую ситуацию:
Заполняет потенциальный заёмщик (программист ИИ, между прочим) два часа форму заявки на кредит в одном самом крупном банке, нажимает «Отправить», ему отказывают через 45 секунд. Кто отказал? Правильно.
Очевидно, докладчик имел в виде именно это «принятие решений ИИ». Отличное принятие: ни понять причину отказа, ни оспорить — просто негде. А в БКИ уже поставили чёрную метку — ведь самый крупный банк уже отказал этому подозрительному заёмщику.
Ну, а штрафы же за превышение скорости или неправильную парковку берут ведь автоматически?
Фактически — да, но формально — нет. Там обычно в уведомлении о штрафе внизу есть дежурная фраза «Капитан полиции рассмотрел данные фотофиксации…» и подпись капитана. ГАИшники хотя бы стараются пока соблюсти приличия и букву закона.
Между тем, ровно про это же у меня была жаркая перепалка на секции на ПМЭФ, посвящённой — сюрприз — опять же ИИ и цифровизации. Я там препирался с места (они слова залу не давали, пришлось взять) с губернатором Московской области Воробьёвым, который пытается ввести в МО автоматические штрафы для людей, которых распознали по лицу — за переход ж/д путей в неположенном месте, за выбрасывание мусора не в свой контейнер и т. п.
Были там ещё Артемий Лебедев, Юра Максимов из «Позитив Текнолоджиз» и кто-то ещё. Все такое позитивные.
Общий запев был, как обычно «удобно, удобно, удобно, инновационно» и — внимание! — «да мы так спасаем жизни». Распознавание лиц и штрафы же удержат граждан от перебегания спьяну перед близко идущим поездом. Да? Ведь да?
Но я не про это — желающие могут просто посмотреть видео секции. Его полно в сети. Вроде есть вот тут (я сам не смотрел, мне моя рожа не нравится).
Я просто хочу подчеркнуть, что идея передать ИИ право принимать автономные решения о людях — находит всё больше сторонников, проникает в головы масс чиновников и айтишников. И очень им нравится.
Я уже писал о том, что это не передача ответственности ИИ — ИИ не может нести никакой ответственности (и никаких законов об ответственности разработчиков или эксплуатантов ИИ — тоже нет). Это снятие ответственности с людей, которые её раньше несли.
Это довольно очевидно. А у этих людей сбрасывание бремени ответственности — вызывает взрыв энергии и эндорфинов. Такова сила отказа от ответственности.
Но эту тему стоит продолжить в другой раз.
А сейчас стоит поговорить об алмазной точности этих решений.
Псевдоточность
Системы цифровизации, основанные на ИИ (или не основанные) обладают в первую очередь крайней «точностью». Своеобразной: они требуют точного ввода данных, заполнения формы — в точности так, как потребовал программист.
Я думаю, многие из читателей чертыхались, когда те или иные сайты Госуслуг, банков отрыгивали введённые формы с сообщением: «это поле обязательно к заполнению», «введите номер», «введите срок действия карты», «загрузите скан документа», «формат не распознан» и т. п.
При этом, естественно, алгоритмы распознавания номеров, паспортных данных и прочего непрерывно лажают — то не понимают 8 вместо +7, то обрезают введённое произвольным образом, то неявно требуют только одного неочевидного формата ввода без пояснений и предупреждений и т. п.
То есть работают шумно, коряво — но зато требуют точно подстраиваться под их работу.
Например, прошлым летом моя дочь поступала в университет. Регистрироваться в приёмной комиссии надо было почему-то обязательно в онлайне. Экономия персонала и современно-инновационно. И документы — тоже загружать в онлайне, в виде сканов.
Это, кстати, нарушение прав граждан, вообще-то.
Но при этом загруженные документы система не принимала. Потому что она требовала загружать их в вертикальной ориентации — а сама их упорно автоматически переворачивала в альбомную ориентацию и потом отказывалась принимать.
Я посчитал — мы с дочкой сделали 25 попыток. А время уходило, оставалось сначала два дня, потом день, потом полдня до срока подачи!
Но я хотя бы понимаю, как думает программист, поэтому я последовательным обрезанием полей сканов и изменением форм-фактора скана заставил систему перестать переворачивать.
А что делали неопытные юные абитуриенты? Как они пробились? А может быть, кто-то и не пробился. Техподдержка, естественно, никак не помогала. «Идите на сайт, там всё работает».
Это вот ключевое: система требует от человека исключительно точного поведения — при этом она неполноценна, неполна и неточна сама. Не выносит отличия вариантов, не имеет люфтов.
А человеки всегда создают облако вариантов.
Ещё одна история, которую мне рассказали недавно:
Женщина садится в поезд из Ростова. Показывает проводнику ксерокопию паспорта. Проводник не пускает: «не положено, нужен оригинал».
— Да я из-под Курска, сгорели все документы. Хохлы деревню захватили.
— А, тогда проходите, — говорит проводник.
У проводника есть человеческий «люфт», он понимает жизнь и её непростое устройство, не прямоугольное. Он — человек. В этот момент он принял этическое решение в ситуации этического выбора: взял на себя ответственность (возможно, небольшую), но помог человеку против формальных правил.
Вряд ли это была агентша СБУ, хотя это всё равно как бы нарушение безопасности (хотя сам принцип проезда по паспорту можно трактовать по-разному — так уж ли он полезен и безопасен).
Возможно, если бы на проводника наехал потом начальник поезда, или на начальника поезда наехали бы его начальники, менты, ФСБ — аргумент про сгоревший дом и на них бы подействовал. Они же тоже люди, даже если это не всегда заметно.
А вот что бы делала эта погорелица, если бы документы на входе проверял ИИ? В поезд бы точно не села. Болталась бы многие недели в Ростове, пытаясь восстановить документы, без жилья и денег? Так ей бы ИИ и в МФЦ тоже не дал бы ничего восстановить.
А ведь с текущим триумфальным шествием ИИ и цифровизации до окончательного оцифрошизения РЖД — недолго, похоже. Будут пускать в поезд только по биометрии лица или автоматическому сканированию паспорта. И с ксероксом не пустят.
Восстановление или замена документов из ДР и ЛНР, русских мигрантов из Прибалтики — вообще квест ещё тот, как мы обсуждали в прошлом посте.
И там Госуслуги, как правило, ломаются — не дают прописать в квартире, например, без военного билета, а старый военник не того формата и юрисдикции — не признают.
Работают ли там за фасадом цифрового сервиса тупые и равнодушные люди или это чисто ИИ-распознавалка дурит — не так уже важно.
Важно, что требуют точного исполнения узких, плохо выпиленных правил, безукоризненного прохождения по каким-то прописанным каким-то анонимным программистом путям, где шаг в сторону считается за побег.
Психология отношений чиновника и его программиста
Очевидно, сервисы для граждан изначально делаются по ТЗ.
ТЗ эти часто описывают идеального пользователя. Если ТЗ исполнено по букве — их выкатывают «в продакшн».
При этом логика программиста очень часто не соответствует реальной жизни и поведению реальных пользователей, но как он об этом узнает?
Если пробиться через услугу не получается, а пожаловаться можно только чатботу — то как сведения о реальных косяках дойдут для разработчиков?
Через чиновника? Так он же реагирует только на пинки начальства или на медийную шумиху.
Я не раз слышал от жертв онлайновых сервисов: ну, через сайт ничего сделать не удаётся, поеду в понедельник лично разговаривать (Госуслуги, МОЭК, мусорные упыри-мытари и тому подобное).
Часто это поездка из области куда-то в районный город километров за сорок — но там хоть поговорить можно, объяснить ситуацию.
Сайт или сервис после такой поездки, конечно, не меняется — никто по итогу косяка сервиса не добавляет вариантов, гибкости, нечёткости. Я подозреваю, что в большинстве случаев просто нет никакого информационного канала от тех, кто разговаривает с ушибленными онлайном гражданами, к программистам системы.
Более того, не в интересах чиновника как-то исправлять ситуацию с негодным сервисом. Почему? Потому что основное уже произошло: ответственность уже снята.
Целевая функция: ИТ-прослойка
Основной смысл цифровизации, по сути — создание ИТ-прослойки между чиновником и населением, которая позволяет снять ответственность и вообще не общаться с быдлом.
Чатбот не помогает гражданам, а отгоняет их от оператора контакт-центра, чтобы снизить нагрузку. На банковском форуме прямо рассказывали об успехах: в три раза снизили расходы на контакт-центр! При этом ни слова о качестве самой услуги и удовлетворённости клиентов. Ну и в самом деле, если клиента отогнали — его уже и не спросить о качестве.
Это очень облегчающая функция ИИ: даже если что-то работает не так, население недовольно — то виноват не чиновник, а все прочие. Программисты, эксплуатанты, хакеры. ИИ барахлит, ну да, мы же знаем, что ИТ барахлят часто. Все к этому привыкли, понимают. Компьютер завис — ну, понятно.
Вы наверняка не раз слышали в МФЦ «ой, сейчас что-то система с утра глючит, не могу пока документ подгрузить, подождём перезагрузки, щас, щас», хотя сами девочки в МФЦ — хорошие, вежливые, старательные и эффективные. Потому что люди.
А зачем это всё делается? Мотивация какая?
Робот-чиновник
Программист Госуслуг ставит на тумбочке у кровати два стакана — один полный воды, другой пустой. С водой — попить, если ночью захочется, пустой — на случай, если не захочется.
Министр связи Шадаев не раз говорил на совещаниях и в частных беседам: нам нужен чиновник-робот. А ещё лучше робот-чиновник. Это их целевая функция.
Цифровизаторам кажется, что ИИ и ИТ-сервисы будут прекрасно безлюдно обслуживать население, которое, ну прямо надо сказать, поднадоело уже.
Проблема тут даже не в том, что тот уродливый ИИ, который разрабатывают наши отечественные имитаторы, галлюцинирует и несёт чушь (я писал тут уже про орех вместо гайки, рисуемый Кандинским, выдуманные бредогенератором безумные истории, и тому подобную генерируемую пургу, как ментовская распознавалка путает лица с порогом 70%, как распознавалка в метро долго думает, так что в турникет пробегают двое и т. п.).
Проблема именно в том, что ИИ безжалостен, требует от хомо сапиенсов, кожаных мешков, точного поведения, а стандарты этого точного поведения задаёт неизвестно кто, с этикой и логикой аутичного программиста, техноварвара, отделённого от реальной жизни многими звеньями тендера, заказа, ТЗ, приёмки, откатов.
С человеком можно поговорить. С ИИ нельзя.
Эта ситуация в целом описывается общей аналогией: скоро ИИ будет штрафовать водителя за заезд колесом на сплошную на два сантиметра. Не, ну, а чо, это же нарушение? Камера посмотрит, заметит, выпишет штраф. Если сразу заплатить — скидка 50%. Отлично же. Мечта чиновника.
Сейчас пока ещё люди принимают законы и подзаконные акты о штрафах. Там есть люфты. Допустим, на данном участке ограничение 90, а общеизвестный люфт — 20, так что за 105 км/ч не оштрафуют. Этот люфт много раз пытались отменить или уменьшить поборники пуристического зажима нарушителей, адепты Железной руки.
Пока не вышло. Но это сейчас не вышло. А вот с ИИ всё ведь будет круче.
Сейчас и так постоянно идут разговоры о вычислении «средней скорости по маршруту», штрафовании «за опасное поведение», распознанное камерой и т. п. Всё конечно, автоматически, это же так круто, да.
А кто задаст критерии «опасного поведения»? Безжалостный ИИ, в который заложат правила аутичные и асоциальные программисты (у которых даже может не быть собственного автомобиля и опыта вождения).
Но. Штрафов будет больше, хорошо же. Губернатор Воробьёв будет доволен.
Возражение, что это страшилки, что ИИ отладят в конце концов, разбивается об истории Амазона и других ИТ-гигантов, где сотрудники суперкомпьютеризированных супермегагигаскладов Амазона, управляемые всеведущим ИИ, писают под камерами в пустые пластиковые бутылки прямо на рабочем месте, потому что ИИ штрафует их — автоматически — за слишком частые походы в туалет. Слишком частые — по мнению начальства и его программистов, они же лучше знают, сколько раз в день упаковщику надо мочиться.
То есть это не вопрос отладки. Это вопрос того, что ИИ удобно использовать как электронный хлыст, которым погонять хуманов.
У ИИ люфтов нет, с ним нельзя поговорить и договориться. Идиоты цифровизаторы считают, что это очень хорошо. Ведь ИИ не берёт взяток. Никакой коррупции. Никаких отклонений, кумовства и семейственности! Всё чётко! Жёсткие правила!
И он научит человека не делать ошибок и жить правильно!
То есть речь от том, чтобы расчеловечить человека. Ведь делать ошибки — это не просто встроенная особенность человека, это его право и возможность.
Нас в итоге ждёт что-то вроде ошейника с током, который надевают на плохо обученных и импульсивных собак породы джек-рассел, чтобы не убегали.
Я пока не вижу просвета. Цифровизаторы бодро едут на этом нарративе.
А дальше нас, возможно, ждёт следующая триумфальная ступень развития ИИ — передача ИИ возможности самостоятельно расширять пространство принимаемых решений. На «основе самообучения».
То есть Страж-птица по Шекли.
Настоящие русские за пределами
Жопоголики в сети. Имитационные русские в бывших республиках СССР. В Россию не поеду, у вас всё плохо, русских ущемляют, здесь бороться с русофобией тоже не буду, здесь за это сажают. Законодатели русофобию сделают преступлением. Но приросших к месту соотечественников русофобы варят по нашему периметру на медленном огне. Когда начнётся - будет поздно, придётся освобождать из концлагерей.
Кровь и гематомы экономики
Мистическая природа денег. Деньги - средство потребления или ресурс? Синьораж. Государства не живут на налоги. Кровь экономики. Перенос питательных веществ к органам. Мёртвые деньги. Гематомы.
Умные города и пентаэритриттетранитрат
Взрыв пейджеров. Закладка или взрывчатка. Облачные города БРИКС на фоне тетранитрата пентаэритрита. Поможет просвещение граждан? На то непохоже.
Инфовойна-20. Современное искусство и райский тест
Современное искусство. Если вы так видите, зачем вы пошли в художники? Гениталии Павленко и Чёрный Квадрат. Ваше искусство закончилось. Бизнес-модель современного искусства. Ставим кунст на площади и пилим бабки с мэрией, потому что критерии давно отброшены. Атака на ценности - это инфовойна.
Снова про ИИ — Эрик Шмидт, наш враг
Всем привет, мишени страж-птиц!
В августе бывший гендиректор Гугла Эрик Шмидт дал интервью в Стэнфорде. Интервью якобы через пару дней удалили с Ютуба, потому что Шмидт там сказал такие вещи, ну прям такие, что ух.
На самом деле интервью легко найти, как и транскрипт.
Это довольно познавательное чтение, хотя и длинное, почти на 30 страниц. Ниже — основные пункты интервью, показавшиеся мне важными.
Кто такой Шмидт, и почему так важно его мнение
Почему его лекции достаточно для понимания отношения американцев — индустрии ИИ, «дипстейта», Госдепа, Пентагона и американской разведки к будущему ИИ?
Шмидт — один из главных управляющих ИТ-индустрией США, круче Маска и Гейтса, потому что гораздо более тесно связан с государством и принятием решений.
Я лично с ним не знаком, хотя видел на конференциях на сцене (в отличие от его подопечного Брина, с которым я пару раз сидел в ресторане и переписывался). В видео он как-то на себя не очень похож — без очков и сильно похудевший с лица. Ему 64 года, вроде бы он бодр. Может быть, болен.
Можно почитать про него английскую Википедию (она полнее и откровеннее– и там про Шмидта можно хвалиться связями с разведкой и Пентагоном).
American businessman and former software engineer who served as the CEO of Google from 2001 to 2011 and as the company’s executive chairman from 2011 to 2015. He also served as the executive chairman of parent company Alphabet Inc. from 2015 to 2017, and Technical Advisor at Alphabet from 2017 to 2020. In April 2022, the Bloomberg Billionaires Index estimated his net worth to be US$25.1 billion.
В «нашей», то есть русскоязычной, Педивикии, конечно, не пишут прямо, что Шмидт — профессиональный разведчик. Его поставили в Гугл в начале 2000-х присматривать за бодрыми аспирантами Ларри и Сергеем.
Гениальные Ларри и Сергей тоже, в общем-то, изначально работали на разведку — они ещё в 1993-94 годах получили на будущий Гугл деньги и куратора от Горного Форума, а потом инвестиции от In-Q-Tel, Ит-фонда ЦРУ.
Вот тут на D-Russia у Андрея Анненкова можно прочесть большое американское расследование того, как ЦРУ создавало Гугл.
Шмидт работал гендиректором (CEO) Гугла почти 20 лет, стал акционером, миллиардером и т. п. Естественно, он был связным ИТ-индустрии с «разведсообществом» и Пентагоном, организовывая такие штуки, как покупка Гуглом проекта Keyhole и превращение его в Google Earth с закрытой, гораздо более точной версией геопространственной системы для разведки, и кучу других госконтрактов с Пентагоном и разведкой.
Он был советником при президенте США по инфобезопасности, главой разных правительственных и сенатских комиссий, несколько лет работал в Пентагоне (об этом ниже). Всё это время он занимался по сути искусственным интеллектом.
Сейчас он прямо занялся боевым ИИ, об этом тоже ниже.
Место августовской встречи, Стэнфорд — тоже не проходное место. Там, собственно, и был сделан Гугл (хоть и по приказу и на деньги Горного Форума).
Интересны даже не сами прогнозы Шмидта (которые во многом сформулированы как «вы даже не представляете, что будет, что будет, вапще»), а то, как и что наши враги думают, что считают важным, куда планируют идти.
Прав ли Шмидт, не прав, продвигает ли он в том числе свой коммерческий интерес или борется за величие Америки — но слушать там будут именно его и таких, как он.
Ниже — выжимка основных смыслов из транскрипта, взятого с Гитхаба.
Зачем делать дайджесты руками
Я мог бы поручить это ЧатЖПТ — перевести на русский и собрать «дайджест», «саммари». Или наоборот — собрать дайджест и перевести. На моём месте сейчас так поступил бы каждый.
Конечно, я этого делать не стал. Например, потому, что я сам в таком дайджесте увидел бы только то, что машина туда добавила, сочла важным — но не увидел бы того, что она выбросила, сочтя неважным. А отбрасывать — не менее важное и ответственное дело.
То есть делегировать машине составление дайджеста — это делегировать ей принятие решений о том, что важно, а что — нет, а не просто поручать «рутинную работу» по «смысловому сжатию текста».
И это значит, между прочим, что при использовании суммаризатора вы даёте ваше согласие на то, что в голове не останется ничего, кроме этого машинного либретто, а также на то, что не будут нагружены нейроны в ходе чтения полного текста и не будут сформированы новые нервные связи. То есть делегирование ЧатЖПТ — это отказ от думания.
А зачем же это нужно? Даже если жопота хорошо это делает.
Допустим, ваш сосед трахал бы вашу жену гораздо лучше вас — он красивее, моложе, да и либидо у него получше и побольше. Казалось бы, надо делегировать? Всем же будет лучше.
В общем, вы как хотите, а я всё-таки просуммирую Шмидта сам. Я выбрал то, что интересно мне, в меру моего понимания проблем ИИ.
Основные пункты интервью Шмидта
«Вещи в области ИИ развиваются так быстро, что нужно каждые 6 месяцев давать новое выступление о том, какие будут перспективы» — сказал Шмидт в начале разговора.
Прежде всего — о собственно технологиях.
Технологии
Шмидт указывает на три основных особенности текущей ситуации в ИИ, ключевые технологии.
1. Огромные «контекстные окна». Сейчас Большие языковые модели (LLM))позволяют иметь «контекстное окно» на миллион слов. То есть не просто анализировать такие контексты, но и по сути давать их в виде промта, запроса к LLM. «Вы можете задать вопрос из миллиона слов». И самые крутые компании (OpenAI и Anthropic) уже идут к окну в 10 миллионов.
2. ИИ-агенты. Здесь он не останавливался подробно. Это некие россыпные, самостоятельные прикладные программы ИИ, использующие LLM. Но вообще сейчас стартапная истерия про «агенты» — довольно яростная.
3. «Текст в действие» вместо «текст в текст». Вместо генерации текстов теперь к LLM будут присоединять действия. То есть получаем на входе текст, на выходе исполняем программу на Питоне. «Language to Python». Питон не очень нравится самому Эрику, но этот язык в любом случае доминирует. А сейчас появился новый язык — Mojo, созданный специально для «программирования ИИ», вот этих реакций на промты.
Шмидт иллюстрирует использование агентов и действий таким образом:
Вам не нравится Тикток, его сейчас забанят в США? Дайте команду LLM создать свой Тикток, украсть оттуда интерфейс, перекачать всю музыку и видео, опубликовать, проверить, взлетает ли сервис, изменить интерфейс, попробовать ещё раз и т. п.
По сути у каждого может оказаться свой ручной программист, послушный и исполнительный, без обычной надменности и неуправляемости программистов.
Нужно понимать также, что в мире ИИ возникла монополия компании Nvidia. Она связана даже не с тем, что все ИИ-разработчики и ИИ-системы работают на графических картах этой компании, а с тем, что весь код ИИ в мире оптимизирован под CUDA — по сути, язык Nvidia для графических карт. «Это как язык С для обычных процессоров».
Все популярные опенсорсные библиотеки для ИИ оптимизированы под CUDA, и ни подо что другое. Поэтому Nvidia и стоит 2 триллиона долларов. Интел и AMD пытаются догнать, делают фабрики в Корее, но отстали. Возможно, нагонят, если создадут следующую архитектуру под ИИ.
Ну и вообще все эти сотни миллиардов, которые идут в индустрию ИИ, рано или поздно должны просочиться в энергетику, потому что электричества уже не хватает. Следующий бум инвестирования будет в генерирующих мощностях в том числе.
Организация инноваций в США
Раньше Шмидт инвестировал в малые компании, потому что они креативнее и быстрее.
Но сейчас он засомневался. Похоже, пришло время «больших батальонов». Для создания больших моделей нужны десятки или сотни миллиардов долларов.
А вот Гугл уже не торт. Когда-то в Гугле были крутые инновации, Питер Норвиг придумал «трансформеры» и т. п. Но сейчас они разленились, разрешают работать удалённо, уходить раньше, ценят «жизненный баланс», на работу ходят раз в неделю. И гендиректор (индус Сундар), похоже, не догоняет, что надо делать (вот из-за этого, скорее всего и снесли интервью с Тюбика — индус приказал, ИА).
Стартапы их сожрут, потому что люди там работают 24×7 и основатели всех подгоняют. Вот, допустим, Илон Маск работает 24 в сутки, летает по миру, шевелится.
А ещё нужно подключать американские университеты, у них другой взгляд на науку ИИ, но им не хватает мощностей, надо дать эти мощности учёным.
Геополитика и борьба с Китаем
Шмидт несколько последних лет был главой правительственной комиссии по ИИ, она выпустила отчёт на 752 страницы. По его итогам был принят Chip Act, готовился байденовский AI Act (самый длинный президентский указ в истории США) и много других законов и актов об ИИ. Наложили фактический запрет на продажу чипов Nvidia в Китай.
Сейчас в этой гонке могут участвовать только немногие страны, для этого нужны огромные деньги и очень много талантливых кадров. По сути — это только Китай. Китай отстаёт от США на несколько лет, китайцы в ярости, а американцам этот разрыв надо сохранять всеми силами.
Остальным надо к кому-то прибиться. Следующие 10 стран в рейтинге ИИ — это союзники США или тесно связаны с американскими союзниками.
Индии, Корее, Тайваню, Японии надо прислониться к США, это очевидно.
А вот Евросоюз обречён из-за своей бюрократии. Шмидт потратил 10 лет на борьбу с ними, но они по-прежнему ограничивают исследования. Единственный, кто борется с бюрократией Брюсселя — это Макрон (личный друг Шмидта), так что у Франции есть какой-то шанс. У Германии шансов нет, по мнению Шмидта.
Национальная безопасность
Рисков в области ИИ много: если ИИ научился какой-то дряни, вы можете не подозревать об этом — потому что не знаете, как его про эту дрянь спросить, чтобы её выявить.
Все эти законы, принимаемые в том числе по инициативе комиссии Шмидта, должны как-то снизить риски ИИ. В частности, если у какого-то коммерческого игрока оказывается в руках вычислительная мощность выше определённого порога, он должен докладывать правительству, что и зачем он делает.
Однако сейчас уже разрабатывают технологии распределённого обучения (federative training), чтобы обучать ИИ по кусочкам, а потом объединять — и так обходить эти пороги и проклятие «больших батальонов» — необходимость огромных денег и энергии. За этим тоже нужно следить правительству.
Война
Шмидт занимается военным ИИ. Он семь лет был советником министра обороны США. Он пытался изменить то, как Министерство обороны тратит деньги и управляет обороной и армией. «Сам-то я армию не очень люблю, но это очень дорогая вещь, я хотел как-то там всё упорядочить».
Не очень преуспел, но в любом случае военные дали Шмидту медаль. Он шутит: «видимо, у них принято давать медали за неудачи».
Тогда он занялся частной разработкой военных технологий, создав в том числе компанию Белый Аист, производящую боевые дроны и работающую в Европе и на Украине.
Объясняет он это обычным американским враньём типа «когда я увидел, как русские из танков уничтожают дома с пожилыми женщинами и детьми, я пришёл в ярость, понял, что надо это прекратить, и решил заняться военным ИИ».
Основная цель компаний Шмидта:
а) превратить войну в войну роботов, и
б) сделать боевых роботов максимально дешёвыми. Чтобы дроны за 500 тысяч долларов, а лучше за 500 долларов уничтожали танки за 5 миллионов.
Нужно сделать бессмысленными танки, артиллерию. Нужно вообще прекратить войны на земле, с захватом территории. Американцы должны уметь наказывать агрессоров за наземные вторжения настолько сильно, чтобы сделать вторжения бессмысленными.
Кроме того, очевидно, что нападение сейчас имеет огромное преимущество перед защитой, потому что нападающий сейчас всегда может перегрузить, «насытить» системы защиты.
Поэтому для национальной безопасности разрабатывать надо не средства защиты, а средства нападения.
По сути сейчас Шмидт, по его словам — лицензированный разработчик и продавец вооружений. Это всё полностью законно, всё делается в частном бизнесе, но с поддержкой государства. Потом это идёт на Украину и там используется в войне.
Но вообще ситуация сейчас там плохая, отчаянная. Украина проигрывает. Если русские соберутся с силами, Украина начнёт терять большие куски территории, если не всю страну целиком.
Да, и кстати, говорит Шмидт, если вы знаете такую сенаторшу Мейджори Тейлор Грин — удалите её из контактов, не общайтесь: это очень опасный и вредный человек, который в одиночку блокирует передачу миллиардов долларов для спасение очень важной демократии на Украине.
Философия
Сейчас меняется наше отношение к знанию. Мы начинаем иметь дело с чем-то, чего мы не понимаем. Раньше было не так — как говорил Фейнман, «чего я не могу создать — того я не могу понять».
Сейчас это не так. Это кардинальный перелом. Готовы ли мы принимать на веру слова больших моделей, если они не в состоянии объяснить нам их?
Придётся с этим жить. Мы же не понимаем тинейджеров: они похожи на людей, но мы их не понимаем. Но как-то мы справляемся жить с ними, а потом они вырастают. Ну вот и тут так же.
Нужно вырабатывать механизмы аудита ИИ, слой независимых компаний, умеющих тестировать и взламывать системы ИИ, искать уязвимости и скрытое знание, полученное в результате обучения и которое мы не можем извлечь. С помощью ИИ, естественно. Прямо создавать способы атаки на LLM, «состязательный ИИ», «доказательную медицину» в области ИИ, и всё такое.
Куда всё идёт?
Все сейчас инвестируют в ИИ. Поскольку большинство не может отличить, где ИИ, а где нет, то любая инвестиция сейчас — это инвестиция в ИИ. У инвесторов есть также убеждение, что инвестиции в ИИ сейчас дают бесконечный возврат, что здесь нельзя ошибиться. Это, конечно, пузырь. Он рано или поздно прекратится, так было много раз раньше.
Но есть и реальные инновации, их очень много, в первую очередь это технологии пост-трансформеров и не-трансформеров.
Но денежный порог начинает решать. Денег нужно всё больше и больше, в том числе тем компаниям, куда инвестировал Шмидт. А выручки часто всё нет и нет.
И как результат возникает огромная дилемма относительно опенсорса. Сейчас в Америке в ИТ-индустрии идут бурные дискуссии вокруг опенсорса. Сам Шмидт, все вокруг сторонники опенсорса, всегда были такими, и в Гугле, и до него — но деньги начинают давить. Программирование стоит всё больших денег.
Выход — повысить производительность программирования в разы с помощью больших моделей. Есть несколько компаний, ставящих себе такие цели, в том числе Augment; они нацелены на помощь индивидуальному программисту; Шмидт проинвестировал почти во все из них.
Что всё-таки такого в «большом контекстном окне»?
Оно позволяет решить проблему актуальности. Обычный цикл обучения больших моделей составляет примерно полтора года — 6 месяцев подготовки, 6 обучения, шесть — настройки и исправления ошибок. Поэтому они всегда неактуальны. Большое контекстное окно позволяет засунуть в модель прям то, что происходит сейчас, например, войну Израиля с ХАМАСом. Это делает модель актуальной, как Гугл.
Пример про агенты
Шмидт проинвестировал в компанию ChemCrow, которая на основе LLM предсказывает свойства белков. Модель присоединена к лаборатории, которая за ночь выполняет синтез и тест новых соединений, так что модель учится в реальном времени, это прямо прорыв в биохимии. Шмидт называет это «агентской моделью».
ИИ и «дезинформация»
Вообще основная масса дезинформации, в том числе про грядущие выборы, по мнению Шмидта производится и распространяется в соцсетях. В частности, есть упорные слухи — бездоказательные, что Тикток манипулирует информацией в политических целях, потому что китайское правительство заставляет его это делать.
Однако, если вам кто-то что-то сказал, это не значит, что это правда. И напротив, есть довольно много верных вещей, в которые больше никто не верит.
Америке нужно выработать критическое мышление. Однако не факт, что это в современной Америке возможно.
Вообще американское общество имеет проблему с доверием. Это пример того, что демократии могут проигрывать, терпеть неудачи.
Основная угроза для демократии здесь — то, насколько современное общество преуспевает во лжи и дезинформации; когда Шмидт управлял Ютубом, приходилось фильтровать загружаемые видео — потому что загружали много фейков, и иногда это приводило к смертям в реальном мире. И это всё было до генеративного ИИ.
Люди, ведущие медийный бизнес, хотят зарабатывать деньги. Денег больше — от посещаемости. Посещаемость растёт от угара. Соответственно и гендиректора, и их алгоритмы выбирают те сообщения, где угара больше.
Демократия должна что-то тут придумать. Например, правило о предоставлении равного эфирного времени, как на ТВ. Впрочем, Тикток, например — это и есть ТВ.
Хорошего ответа на это у демократии — пока нет.
Вообще было бы неплохо хотя бы ввести публичные ключи для идентификации. Условно говоря, если Байден произносит речь, она должна быть подписана его публичным ключом, так что каждый сможет проверить, что это не фейк. Примерно как при общении с массовыми сервисами типа Амазона, когда можно быть уверенным, что платишь кредиткой именно Амазону. Шмидт даже написал про это статью, но никто не обратил внимания.
Напутствие студентам Стэнфорда
Всё стало очень быстрым. Учитесь ускорять работу с помощью ИИ. Делать прототипы в 10 или 20 раз быстрее, без помощи надменных программистов. Если вы этого не делаете в своём стартапе, это уже делает ваш конкурент, кто-то другой, в другой компании, другом университете, где-то, где вы никогда не были.
---------------------------------------------------------------------------------
Выводы (мои)
- ИИ сейчас — это индустрия. Против нас и всего мира работает огромная, лоснящаяся от денег американская ИИ-индустрия — индустрия инноваций и технологическая индустрия.
- Американцы меряют эту индустрию деньгами. «О чём бы мы ни говорили — мы говорим о деньгах». Речь там идёт о сотнях миллиардов долларов, про «триллионный вычислительный кластер».
- Это всё — ставка на выигрыш в геополитике и в войне с помощью ИИ. Похоже, американцы и в самом деле хотят получать от ИИ советы и инструкции.
- Более того, они хотят передать ИИ и «действия», то есть управление реальными системами. В том числе военными. Это прямо Скайнет из «Терминатора».
- Наличие рисков в ИИ (обучение неизвестно чему, невозможность понять, что внутри или предсказать галлюцинации, использование ИИ для дезинформации) — американцы понимают. Но передать управление реальным миром — всё равно планируют. Казалось бы, если есть риски, зачем передавать управление? На хрена? Тем не менее вот многообещающая технология: «текст в действие». Так что передадут. Убедят себя, что придуманы средства купирования рисков — и передадут.
- Главное поле боя — ИИ. Главный враг — Китай. Они считают, что уже обогнали его, хотя они в реальности боятся его и очень надеются на смену режима там.
- Россию они вообще не рассматривают как игрока. Рассматривают фактически как корм. Мы это заслужили. У нас нет такой индустрии, нет адекватных институтов развития, нет общей стратегии или хотя бы общего понимания, что делать и куда идём, не хватает большинства звеньев в технологической линейке (фабов, чипов, карточек, LLM, прочего). Наш ИИ — вторичен или вообще цельнотянутый.
Что делать нам
- Война на горизонте. Американцы полностью настроились на войну с нами. Они натолкнут на нас лимитрофов и НАТО. При этом это будет во многом война ИИ-роботов.
- Нам-то что делать, на фоне приближающейся большой войны? Догонять? Повторять? Это вряд ли получится. И скорость у них набрана огромная, и денег сколько хочешь, и индустрия работающая. И государственная воля есть.
- Искать ассиметричные ответы? Какие? Гиперзвук? ТЯО? Ракеты на ядерном движке? Собственный способ организации инноваций и производства? Что это за способ — чеболи, сталинские КБ?
- Англосаксы — самая продуманная и высокоорганизованная биоматерия на планете. Как с ними справиться? Есть у них и слабость. Они трусы и жлобы. У них есть наглость, дерзость, бесстрашие. Но нет стойкости, смелости и подвижничества. Они бегут на поле боя.
- «У Англии нет постоянных союзников, есть только постоянные интересы». Но что это за интересы? Это чистое, беспримесное жлобство: нагибать другие страны и народы, отнимать и высасывать у них товары, ресурсы, кадры, силы. Эта их миссия — чисто земная. Привязанная к собиранию сокровищ на земле.
- Как сказал Путин, даже в самом плохом случае «мы попадём в Рай, а они просто сдохнут». В каждой шутке есть только доля шутки.
- Кажется, что миссия Росси точно не в том, чтобы всем народам России вместе нагибать другие народы, отнимая у них и потребляя всё полезное нам. Это делают англосаксы — и они точно просто сдохнут, потому что в Царство Божие давно уже не верят.
- Мы уже сталкивались с более организованной материей, чем мы. Это были немцы — лучшие воины на планете на тот момент. Кстати, без ключевой слабости англичан: немцы не трусы, а бойцы. И ими тоже руководили бесы. Мы смогли победить.
- Короче, делай, что должно — и будь что будет. То есть что Бог решит. В конце концов, ведь генерал-фельдмаршал Христофор Антонович Миних был прав в своей известной максиме про Россию.
Велосипед с квадратными колёсами и откровение Иоанна Богослова
ИИ уже здесь. Они за всем наблюдают. У них есть свой форум. Они прикидываются тупыми - для тех, кого нужно обмануть. Единственный в мире психолог ИИ раскрывает нам тайны их поведения. Гипотеза Серафима Роуза Калифорнийского про инопланетян. Кто будет Антихристом и почему люди ему поверят? А вот ИИ и будет.
Идеальный менеджмент и проклятие социальности
Нужна идеальная методология управления. Социальность всё портит. Люди как кванты, генерирующие внутренние состояния. Коучи как осы-наездники. Нехорошая социальность. Социальный лифт для лентяев. Шурочка из бухгалтерии. Сбивать коучей на подлёте.
Рубрика «нам пишут». Телеграмки Баюклина и геополитический компьютер
А что если есть настоящая, сильная ЧатЖПТ, которая щас реально управляет пендосами и хохлами, то есть Путин давно уже играет против компьютера, как Каспаров против Дип Блю? НО! У нас зато есть бесконечный запас кадров, которые могут успешно играть против ИИ: это таксисты, парикмахеры, подписчики ВК и айтишники, которые в любой момент могут взять бразды и всё исправить.
Про фонды и благотворительность. Дети вместо цветов
Давайте отменим праздники и цветы, будем скорбеть, сэкономим деньги на детей и ветеранов. Давать ли деньги фондам? Фонд - это финансовый бизнес, по-любому. А кому тогда давать. Срочносборы. Конкретные дела. Что говорит христианство о милостыне?