Панацея, которая не работает

Кажется мы слишком увлеклись возможностями которые дает нам ИИ, в первую очередь для генерации контента. Тонн, километров и гигабайтов никому не нужного контента.
Продавая бесчисленные курсы по работе с искусственным интеллектом, а точнее говоря по использованию больших языковых моделей, наши интернет-гуру рисуют картины счастливого будущего, где вы будете только нажимать кнопку… а все остальное сделает ИИ-агент.
В результате недовольны обе стороны: и читатель социальных сетей, утомленный бессмысленным розовым бульоном, и наш брат контентщик, конверсии у которого неумолимо падают. Давайте разбираться.
Массовый переход на генерацию контента с помощью ИИ выявил серьезные ограничения технологии. Несмотря на активное внедрение нейросетевых решений, качество и надежность ИИ-контента остаются предметом дискуссий.
Исследование Graphite (2025) показало, что количество статей в интернете, сгенерированных ИИ, впервые превысило объём контента, созданного людьми. Анализ 65 тыс. англоязычных URL-адресов, опубликованных с января 2020 года по май 2025 года, выявил, что доля ИИ-контента стабилизировалась на уровне около 52%. Прогнозы на 2026 год предполагали, что доля ИИ-контента может достичь 90%.
Не точно или не долго
В феврале 2026 года Microsoft Research и Salesforce опубликовали совместное исследование, в котором проанализировали более 200 000 диалогов с передовыми моделями ИИ, включая GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, OpenAI o3, DeepSeek R1 и Llama 4. Исследование выявило критическое снижение точности ответов в многоходовых диалогах — с 90% до 65%, что означает ошибку в каждом третьем ответе.
Фундаментальные проблемы современных нейросетей включают:
1. Снижение точности в многоходовых диалогах. При обработке отдельных запросов модели демонстрировали около 90% точных ответов, но в диалогах с обменом репликами точность падала до 65%. Это означает, что в длинной беседе нейросеть ошибалась в каждом третьем ответе.
2. Феномен «ответного зацепления». Модели склонны использовать предыдущий ответ как основу для следующего, даже если он был неверным. Это приводит к накоплению ошибок: ИИ закрепляет ошибочные данные в контексте разговора и использует их для последующих реплик.
3. «Раздутие ответов». В длинных диалогах длина ответов моделей увеличивалась на 20–300%. С ростом объёма ответов возрастало количество предположений и «галлюцинаций» (недостоверных данных), которые затем закреплялись в контексте.
4. Склонность к преждевременной генерации. Модели пытались ответить, не дочитав запрос до конца. Это объяснялось их стремлением завершить решение задачи до того, как пользователь закончит пояснение.
5. Снижение надёжности. Исследователи отметили, что способность моделей оставаться «в диалоге» снизилась всего на 15%, но надёжность упала на 112%. Это подчёркивает, что падение производительности при многоходовых взаимодействиях не означает, что модели «стали глупее», но демонстрирует их ограничение в реальных условиях.
6. Ограничения при работе с длинными контекстами. У нейросетей есть «критический порог» длины контекста. При достижении 40–50% от максимальной длины контекста качество ответов резко падало (с 0,55–0,56 до 0,3, что составляет 45,5% деградации). Это явление назвали «поверхностной адаптацией к длинному контексту».
7. «Катастрофическое забывание». При переобучении на новых данных параметры модели адаптируются под свежие паттерны, «забывая» ранее выученное. Даже небольшое количество новых примеров способно привести к потере ранее освоенных навыков. Это фундаментальное ограничение, так как нейросети каждый раз перекраивают свою внутреннюю структуру, в отличие от людей, которые накапливают знания.
Приходится констатировать, что технология генеративных моделей не достигла зрелости для критически важных сценариев, особенно в многоступенчатых диалогах. Модели остаются более надёжными при одиночных запросах, чем в реальном общении с пользователем.
Это вам не Шекспир
Социологические опросы показывают неоднозначное отношение к ИИ-контенту:
· 55% потребителей предпочитают контент, созданный людьми
· 48% пользователей способны распознать ИИ-контент с первого взгляда
· 68% относятся нейтрально при условии высокого качества
· 22% россиян относятся к ИИ-контенту негативно
Аудитория предпочитает контент, созданный людьми, а не ИИ. По данным Sprout Social, 55% потребителей больше доверяют брендам, которые публикуют контент, созданный людьми. Среди миллениалов этот показатель достигает 62%. Избыток обезличенного ИИ‑контента вызывает у аудитории отторжение.
Исследование Skillbox Media (январь 2026 года) выявило, что 22% россиян относятся к ИИ-контенту негативно, а 68% — нейтрально, но только при условии его качества. Отторжение чаще связано не с самой технологией, а с недостатками результата: ошибками, нереалистичными деталями, шаблонностью и отсутствием эмоций. При этом 48% аудитории распознают ИИ-контент сразу, а ещё 44% — за несколько минут.
Контент должен быть аутентичным, персонализированным и ориентированным на диалог с аудиторией. Пользователи ценят «человечный» ритм, реальные истории и подлинность. Важно сохранять естественные эмоции, указывать авторство специалистов и строить контент как диалог, а не монолог.
Исследование Brand Analytics (лето 2025 года) проанализировало более 4,1 млн русскоязычных сообщений в соцмедиа, посвящённых ИИ. Выявлено, что 21% обсуждений касался проблемы дезинформации и фейков, которые может создавать ИИ. Также 10% обсуждений были связаны с «галлюцинациями» ИИ — ситуациями, когда модель генерирует технически корректные, но противоречащие здравому смыслу данные.
Исследование Ирэн Рэй (Google) показало, что одна лишь информация об использовании ИИ снижает удовлетворённость аудитории контентом, даже если сам контент идентичен. Участники эксперимента относились к создателю контента более негативно и были менее удовлетворены, когда считали, что использовался ИИ.
Я знал, что будет плохо, но не знал что так скоро…
При этом данные реальной аналитики показывают активное внедрение ИИ в генерацию контента со стороны бизнеса.
Исследование диджитал-агентства «АЙНЕТ» и маркетплейса нейросетей Chad (2026 год) показало, что 62% компаний используют ИИ в контент-задачах постоянно, ещё 36% — время от времени. Самые частые сценарии — создание иллюстраций и фото товаров (23%), текстов (22%) и генерация идей (20%). 65% компаний планируют расширять применение нейросетей в 2026 году.
По данным Metricool (2025) большинство компаний широко используют ИИ‑инструменты в контент‑стратегии.
· 96% специалистов по социальным медиа используют ИИ‑инструменты в работе, 72,5% — ежедневно;
· 78% применяют ИИ для генерации идей контента;
· 72% используют ИИ для написания постов и текстов;
· 6 из 10 бизнес-респондентов считают, что качество ИИ‑контента сопоставимо с человеческим или превосходит его;
· 68% применяют ИИ для адаптации контента под разные каналы и тональность;
· 66% отмечают, что как минимум половина их контента создаётся с помощью ИИ;
· 45% называют качество контента барьером для более активного использования ИИ;
· 36% не отслеживают или не знают, как ИИ‑контент работает по сравнению с человеческим.
Данные из исследования в области контент-маркетинга (декабрь 2025 года) указывают, что 75% компаний уже используют ИИ для создания и оптимизации контента. При этом в техническом контенте цена ошибки высока: ИИ может «галлюцинировать» про несуществующие API, путать версии продуктов, придумывать метрики. В слепых тестах 56% читателей предпочитали ИИ-тексты человеческим, но после того, как узнавали об использовании ИИ, 52% теряли интерес к контенту. Бренды с ИИ-контентом воспринимались как «безличные» (26%) и «ненадёжные» (20%).
Чем сердце успокоится?
Приведенные в статье данные подчёркивают двойственность отношения к ИИ-контенту: с одной стороны, его использование растёт, с другой — сохраняются опасения относительно качества, достоверности и этических аспектов. А большинство результатов исследований указывает на важность человеческого контроля и доработки сгенерированного контента.
Гибридный подход (ИИ + человек) эффективнее чистого ИИ или полностью ручного контента. Статьи с участием человека (редактирование ИИ‑черновиков) получили больше органического трафика, лучше ранжировались, по ключевым словам, и имели ниже показатель отказов. «Сырые» ИИ‑тексты хуже индексируются и реже показываются в поиске.
Эффективность гибридного подхода подтверждается следующими фактами:
· Человеческая редакция ИИ-контента повышает его эффективность
· «Сырые» ИИ-тексты хуже индексируются поисковиками
· Трафик из ИИ-поиска демонстрирует конверсию в 4,4 раза выше традиционного
· В слепых тестах 56% читателей предпочитали ИИ-тексты, но после узнавания об ИИ 52% теряли интерес.
ИИ следует использовать для поддержки, а не замены человеческого творчества. Sprout Social рекомендует применять ИИ для анализа аудитории и автоматизации рутинных задач (генерация идей, планирование публикаций), но не для полной замены человеческого участия. ИИ может быть полезен как инструмент для создания черновиков, требующих доработки.
Прогнозы экспертов указывают на продолжающийся рост доли ИИ-контента при необходимости:
· Разработки стандартов качества ИИ-контента
· Внедрения систем контроля достоверности
· Сохранения баланса между автоматизацией и человеческим участием
· Борьбы с феноменом «катастрофического забывания» при переобучении моделей
Текущая ситуация демонстрирует, что ИИ остается вспомогательным инструментом, требующим человеческого контроля. Полное замещение человеческого фактора в контент-производстве может привести к потере качества и доверия аудитории.
Широкое внедрение ИИ-инструментов в контент-стратегии открывает новые возможности для автоматизации и повышения эффективности и одновременно — сопряжено с рядом рисков и угроз. Эти риски касаются и качества контента, и этических, правовых и операционных сторон коммуникации.
Источники:
- Conductor: Get Found and Grow in AI Search | Conductor AI.
- Microsoft Research и Salesforce: совместное исследование, февраль 2026 года (анализ более 200 000 диалогов с моделями GPT‑4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, OpenAI o3, DeepSeek R1, Llama 4).
- Windows Central: Microsoft Research study shows how AI bots fail at long chats.
- Metricool: State of AI in Social Media Study, август 2025 года.
- Sprout Social: The 2026 Social Media Content Strategy Report.
- Semrush: исследование эффективности ИИ‑контента, январь 2026 года.
- Microsoft Research: технический отчёт по анализу поведения LLM в многоходовых диалогах, 2026 год.
- Semrush: анализ 304 805 URL из ответов нейросетей и 921 614 URL из Google, январь 2026 года.
- Semrush: прогноз роста трафика из ИИ‑поиска, 2026 год.
- Sprout Social: данные по доверию аудитории к ИИ‑контенту, 2026 год.
- Исследование Graphite по анализу 65 000 URL-адресов
- Данные Skillbox Media (январь 2026)
- Исследование диджитал-агентства «АЙНЕТ» и маркетплейса нейросетей Chad (2026)
- Исследование Brand Analytics (лето 2025 года)