В чем проблема? Большие языковые модели отлично обрабатывают текст, но часто дают неточные ответы по узким темам. Они ограничены обучающими данными, страдают от проблем с актуальностью информации и склонны к “галлюцинациям”. При этом они все равно на хайпе.
Кто выигрывает от хайпа? Компании преувеличивают возможности ИИ, делая это для привлечения инвесторов. Создается замкнутый круг новых обещаний и последующих инвестиций, питающий завышенные ожидания. Узнайте подробности о реальных возможностях ИИ в нашей статье!
Фундаментальные ограничения языковых моделей
Когда Apple представила Apple Intelligence на WWDC в июне 2024 года, это событие сопровождалось громкими заявлениями о революции в пользовательском опыте. Однако когда ИИ-функции наконец стали доступны, многие пользователи были разочарованы. Фоновое распознавание изображений работало неплохо, но остальные возможности не впечатляли, особенно, на фоне завышенных ожиданий. К сожалению, в мире современного ИИ подобная ситуация не редкость
Чтобы понять, почему так происходит, необходимо прояснить, как работают языковые модели. Большие языковые модели (LLM) – это не разумные существа, способные к рассуждениям, а сложные системы статистического предсказания текста. Они проанализировали колоссальные объёмы текстов из интернета и научились предсказывать, какие слова с наибольшей вероятностью должны следовать за предыдущими.
Языковые модели действительно прекрасно справляются с задачами, связанными непосредственно с языком. Например, если вам нужен синоним для какого-то слова или вы хотите перефразировать предложение – ИИ справится отлично. Но как только вы начинаете использовать их для получения фактической информации, начинаются проблемы.
Это происходит потому, что языковые модели имеют фундаментальные ограничения, связанные с их обучающими данными. Модель может “знать” только то, что присутствовало в её обучающем корпусе в достаточном объёме. Если специализированное знание редко встречалось при обучении, модель просто не сможет предоставить точные ответы по этой теме. Это объясняет, почему LLM, как отмечают многие эксперты, имеют “приблизительное знание о многих вещах”, но становятся ненадежными при увеличении специфичности запросов.
Другое серьёзное ограничение – проблема актуальности информации. Языковые модели обучаются на данных до определённой даты (дата отсечения) и не имеют доступа к информации, появившейся позже. Когда Apple Intelligence была выпущена, она не могла “знать” о событиях, произошедших после завершения её обучения. Это фундаментальное ограничение, из-за которого модели могут с уверенным видом представлять неверную информацию как факт.
Исследователи из Apple также обнаружили, что языковые модели сталкиваются с фундаментальными ограничениями в логическом мышлении. Даже незначительные изменения в формулировке вопроса могут самым драматическим образом повлиять на производительность. Это подтверждает точку зрения, что мы склонны принимать языковую компетентность за интеллект, хотя это совершенно разные вещи.
Понимание текста не равно пониманию мира. Текст – это лишь отражение реальности, и если модель обучена только на тексте, она никогда не сможет постичь реальность напрямую. Она может выдать статистически правдоподобный ответ, но это не означает, что он будет фактически верным.
Ещё одна серьёзная проблема – “галлюцинации” или генерация ложной информации. Эти явления хорошо задокументированы: модели могут создавать статистически правдоподобную, но фактически неверную информацию. Уверенный стиль ее представления делает ошибки особенно опасным, поскольку пользователи склонны доверять авторитетно звучащим заявлениям.

Почему технический прогресс не решает проблему
Многие аналитики и компании утверждают, что ограничения языковых моделей – это лишь временное явление, которое будет преодолено с развитием технологий. Однако есть причины полагать, что некоторые из этих проблем являются фундаментальными и не могут быть решены простым увеличением вычислительных мощностей или объёма данных.
Преодоление текущих ограничений ИИ потребует не просто количественных улучшений (больше данных, больше параметров), а качественных изменений в архитектуре и подходах к обучению. Чтобы понять, почему простое масштабирование существующих технологий не решит основных проблем, рассмотрим несколько ключевых моментов.
Во-первых, проблема обучения на редких данных. Представим себе специализированную область знаний, по которой существуют всего несколько публикаций или, возможно, одна докторская диссертация. Даже если эти материалы будут включены в обучающий корпус, они составят лишь ничтожно малую долю от общего объёма данных. Это означает, что модель не сможет уделить этой информации достаточно “внимания” в процессе обучения. По самому своему определению, большие языковые модели требуют больших объёмов данных для эффективного обучения.
Важный нюанс: Увеличение размера модели и количества параметров не решает проблему недостатка данных в специализированных областях. Напротив, чем больше становится модель, тем больше данных ей требуется для эффективного обучения.
Второе фундаментальное ограничение связано с логическим мышлением. Исследование, проведённое специалистами Apple, показало, что даже самые продвинутые модели испытывают серьёзные трудности с логикой. Это не просто техническая проблема, которую можно решить увеличением вычислительной мощности – это фундаментальное ограничение, связанное с тем, как работают современные нейронные сети.
Традиционные языковые модели учатся предсказывать следующее слово в последовательности, но не обучаются явным образом логическому мышлению или причинно-следственным связям. Они могут имитировать рассуждения, воспроизводя паттерны, которые видели в текстах, но это не то же самое, что настоящее понимание логических отношений.
Третья проблема – отсутствие “заземления” (grounding) в реальном мире. Языковые модели работают преимущественно с текстом и, конечно, не имеют прямого опыта взаимодействия с физическим миром. Они не знают, каково это – видеть цвета, слышать звуки или ощущать температуру. Это ограничение особенно заметно, когда модель пытается рассуждать о физических явлениях или пространственных отношениях.
Компании вроде OpenAI, Google или Microsoft активно работают над решением этих проблем, но прогресс идёт медленно. В частности, интеграция различных модальностей (текст, изображения, аудио) в единую мультимодальную систему – это шаг в правильном направлении, но он не решает фундаментальных проблем с пониманием и рассуждением.
Даже если технологии продолжат развиваться быстрыми темпами, есть веские причины полагать, что некоторые ограничения останутся непреодолимыми в обозримом будущем. Это не означает, что языковые модели бесполезны – напротив, они могут быть чрезвычайно эффективными инструментами для определённых задач. Но важно понимать их ограничения и не ожидать от них больше, чем они могут предложить.
А это возвращает нас к вопросу: если технические специалисты хорошо осведомлены об этих ограничениях, почему компании продолжают обещать невозможное? Чтобы ответить на этот вопрос, необходимо взглянуть на экономические стимулы, стоящие за разработкой и маркетингом технологий ИИ.

Экономика хайпа
Многие пользователи недоумевают: если ИИ-инструменты не работают так, как обещано, почему компании продолжают их активно продвигать и интегрировать в свои продукты? Ответ лежит в экономической плоскости.
Задумайтесь о бизнес-модели стартапов, работающих в сфере ИИ. Как и любой стартап, они нуждаются в финансировании, чтобы разрабатывать новые технологии и выводить продукты на рынок. Но в отличие от многих других технологических секторов, развитие современного ИИ требует громадных инвестиций.
Это создает серьезную проблему: как убедить инвесторов вложить большие деньги в технологию, которая может не принести быстрой отдачи? Ответ: создать впечатление огромного потенциала и неизбежного прорыва.
Стоит подчеркнуть: Настоящими клиентами для многих AI-компаний являются не конечные пользователи, а венчурные инвесторы, которые ищут новый технологический прорыв.
Судя по объёму инвестиций, эта стратегия работает превосходно. Согласно данным исследовательских агентств, инвестиции в сектор ИИ выросли на 62% в 2024 году, достигнув отметки в 110 миллиардов долларов. Это говорит о том, что инвесторы видят в ИИ огромный потенциал, несмотря на недостатки современных решений.
Почему инвесторы продолжают вкладывать деньги, несмотря на разрыв между обещаниями и реальностью? Есть несколько факторов, объясняющих этот феномен.
Во-первых, экономический потенциал ИИ действительно огромен. Согласно прогнозам, искусственный интеллект может внести до 15,7 триллиона долларов в мировую экономику к 2030 году. Эти цифры создают мощные стимулы для получения ранних позиций в перспективных компаниях, даже если текущие возможности ИИ ограничены.
Во-вторых, существует заметная нехватка экспертов, способных оценить реальный технический потенциал ИИ-решений. Многие инвесторы не обладают глубокими техническими знаниями и вынуждены полагаться на мнения аналитиков и консультантов, которые часто обладают излишним оптимизмом относительно будущего искусственного интеллекта.
В-третьих, страх упустить следующий большой технологический прорыв. Многие инвесторы финансируют ИИ-стартапы по спекулятивным причинам — в надежде поддержать следующий прорыв до того, как он произойдет. Это создает цикл, в котором конкурентное давление среди инвесторов стимулирует финансирование независимо от текущих ограничений технологии.
Наконец, большие технологические компании активно приобретают ИИ-стартапы, что создает явные возможности выхода для ранних инвесторов. Этот рынок поглощений делает инвестиции привлекательными даже при неопределенных моделях доходов самих стартапов.
Таким образом, компании активно продвигают свои ИИ-решения не столько для поиска новых пользователей, сколько для привлечения инвесторов. Это объясняет, почему многие ИИ-функции кажутся поспешно встроенными в продукты даже когда они не работают должным образом или не удовлетворяют реальные потребности пользователей.
В результате мы получаем замкнутый круг: компании обещают невероятные ИИ-возможности, чтобы привлечь инвестиции; инвесторы вкладывают деньги в надежде на революционный прорыв; компании используют эти инвестиции для разработки и маркетинга новых ИИ-функций. Последние вновь активно продвигаются и снова не оправдывают ожиданий пользователей, создавая при этом впечатление прогресса и привлекая инвестиции.

Главный принцип в разработке ИИ-решений
Анализируя современное состояние искусственного интеллекта, можно выявить важный принцип, по которому развиваются эти технологии: ИИ должен быть “достаточно хорошим” в базовых задачах, чтобы создать впечатление, будто со временем он освоит более сложные функции. Эта стратегия особенно эффективна для поддержания интереса инвесторов.
Для базовых, распространенных задач, где имеются огромные объемы обучающих данных, языковые модели работают впечатляюще хорошо. Однако производительность резко снижается для специализированных знаний или задач, предполагающих сложные рассуждения. Высокая производительность на “бытовых” задачах создает иллюзию более широких возможностей, которая подпитывает инвестиции, даже когда обычные пользователи сталкиваются с разочаровывающими ограничениями.
Существует целый спектр задач, с которыми современный ИИ справляется вполне прилично. Это, например, поиск по содержимому фотографий, почти совершенное распознавание речи (по крайней мере, на английском языке), удаление нежелательных элементов на фото, разные виды работы с текстом (краткое содержание, изменения стиля, перевод с одного языка на другой и прочее).
К слову, все эти функции являются инструментами искусственного интеллекта, но не все эти функции мы воспринимаем как использование нейросети. Как только альтернативная медицина доказывает свою эффективность, она становится просто медициной; когда технологии ИИ начинают четко выполнять конкретную задачу, они перестают восприниматься как “искусственный интеллект” и становятся обычными цифровым инструментами.
Интересный факт: Многие технологии, которые мы сегодня воспринимаем как обычные функции программного обеспечения — от автокоррекции текста до рекомендательных систем — изначально считались “искусственным интеллектом”, но потеряли этот ярлык, когда стали обыденностью.
Эта динамика и создает впечатление, что ИИ никогда не оправдывает ожиданий. Как только технология начинает работать достаточно хорошо, чтобы быть действительно полезной, она перестает восприниматься как “ИИ”.
Есть и другой аспект принципа “достаточно хорошо” – это прагматичный подход к разработке технологий. Компании понимают, что создание действительно совершенной технологии может требовать непропорционально больших инвестиций по сравнению с “достаточно хорошим” решением.
В результате многие ИИ-функции разрабатываются до “минимально жизнеспособного” уровня, который демонстрирует потенциал технологии, но не всегда обеспечивает качественный пользовательский опыт. Это позволяет компаниям быстро выводить новые функции на рынок, получать обратную связь и оценивать потенциальный возврат инвестиций, уже затем вкладывая дополнительные ресурсы в совершенствование технологии.
Таким образом, принцип “достаточно хорошо” работает на нескольких уровнях: он помогает компаниям управлять ожиданиями инвесторов, оптимизировать распределение ресурсов и постепенно улучшать технологии на основе реального использования и обратной связи от пользователей.
Однако конечных пользователей этот подход часто приводит к разочарованию. Мы видим громкие анонсы революционных технологий, но на практике получаем продукты, которые лишь немного лучше предыдущих версий или в некоторых аспектах даже хуже. Это создает цикл постоянно неоправданных ожиданий, который может в долгосрочной перспективе подорвать доверие к технологическим инновациям в целом.

Ключевые выводы
- Большие языковые модели отлично справляются с обработкой языка, но не с предоставлением точной фактической информации по узкоспециализированным темам, где мало обучающих данных.
- Фундаментальные ограничения современного ИИ включают зависимость от обучающих данных, проблемы с актуальностью информации, недостатки в логическом мышлении и склонность к “галлюцинациям” — генерации правдоподобной, но вводящей в заблуждение информации.
- Зачастую компании преувеличивают возможности ИИ, обращаясь не столько к пользователям, сколько к инвесторам, стремясь продлить свою финансовую “взлетную полосу” и привлечь дополнительные средства.
- Инвесторы продолжают вкладывать средства в ИИ-стартапы из-за их потенциально огромного экономического эффекта, страха упустить следующий технологический прорыв, а также выгодной возможности выхода через поглощения стартапа крупными компаниями.
- Принцип “достаточно хорошо” в разработке ИИ означает, что технологии доводятся до уровня минимальной работоспособности, которая демонстрирует потенциал, но не обязательно обеспечивает положительный пользовательский опыт.
Часто задаваемые вопросы
Почему языковые модели дают неточные ответы, если они обучены на большом объеме данных?
Языковые модели обучаются предсказывать наиболее вероятное продолжение текста на основе статистических закономерностей, а не на понимании фактической истинности информации. Они могут генерировать ответы, которые звучат правдоподобно и соответствуют формату запроса, даже если содержат фактические ошибки. Кроме того, для специализированных тем в обучающих данных может быть недостаточно материала, что приводит к неточностям в ответах по этим темам. Модель не может знать то, чему она не была обучена, или что редко встречалось в её обучающих данных.
Будут ли решены ограничения современного ИИ с развитием технологий?
Какие-то ограничения будут преодолены с развитием технологий, но какие-то являются фундаментальными и связаны с самой природой статистического машинного обучения. Например, такие проблемы как обновление знаний после даты отсечения обучения, могут быть решены через доступ к актуальной информации. Однако более глубокие трудности, связанные с понимаем ИИ причинно-следственных связей или “заземлением” в реальном мире, потребуют качественно новых подходов, а не просто увеличения вычислительных мощностей.
Почему компании продолжают рекламировать ИИ, если он не оправдывает ожиданий?
Компании продвигают ИИ не только для конечных пользователей, но и для инвесторов, которым необходимо показывать инновационность продукта и потенциал для роста. Разработка ИИ требует значительных инвестиций, и компании нуждаются в “продлении взлётной полосы” — привлечении дополнительного финансирования. Демонстрация даже несовершенных ИИ-функций может создавать впечатление технологического лидерства и потенциала для будущих прорывов, что привлекает инвесторов.
Как отличить реальные возможности ИИ от маркетингового хайпа?
Лучший способ — это практическое тестирование технологии для решения конкретных задач, которые вам нужны, вместо того чтобы полагаться на рекламные материалы. Обращайте внимание на конкретные ограничения и условия использования, упомянутые в документации. Ищите независимые обзоры от технических специалистов, а не только от маркетологов. Также стоит помнить, что чем более общими и грандиозными кажутся обещания, тем больше вероятность, что они преувеличены.
Для каких задач современный ИИ действительно полезен?
Современный ИИ особенно полезен для задач, связанных с обработкой естественного языка: пересказ, перефразирование, перевод между языками, создание черновых вариантов текста. Он также эффективен в работе с изображениями: распознавание объектов, классификация, генерация картинок по описанию. ИИ может служить хорошим инструментом для первоначального исследования и поиска идей. Однако для задач, требующих высокой фактической точности, критического мышления или специализированных знаний, результаты ИИ всегда следует проверять.
Основной источник: AI Is Not Designed for You