Данные раскрывают, что «Claude деградирует в плане интеллекта» — это не городской миф; нестабильность AI-моделей представляет риск для бизнеса

После того как ИИ стал стандартным инструментом для компаний, на поверхность быстро всплывает явление, которое раньше считалось «вопросом ощущений»: LLM (крупные языковые модели) «становятся тупее». Пользователь Wisely Chen указывает, что так называемое «снижение интеллекта LLM» — не городской миф, а уже можно непрерывно отслеживать по данным, и это уже оказывает реальное влияние на рабочие процессы предприятий.

Он приводит пример из собственного опыта: 15 апреля в сервисах серии Claude от Anthropic произошло всеобъемлющее ухудшение, включая claude.ai, API и Claude Code — везде отображалось «Degraded Performance». Это не просто замедление или разовые ошибки: качество ответов явно рухнуло, а иногда возникали ситуации, когда сервис невозможно было нормально использовать, из-за чего в тот день все три его задачи разработки были сорваны.

Для индивидуальных разработчиков такие сценарии, возможно, означают лишь снижение эффективности, но для команд IT предприятий эффект многократно усиливается. Когда в команде несколько инженеров одновременно полагаются на ИИ-инструменты для кодинга, написания документов и автоматизации процессов, одно снижение уровня модели означает, что общая производительность одновременно уходит вниз, превращаясь затем в заметные потери времени и затрат.

ИИ кажется «тупее»? Данные подтверждают: «давно произошло снижение»

Wisely Chen отмечает, что разговоры вроде «GPT стал тупее», «Claude не тот, что раньше» ходят в сообществе уже давно, но долгое время не хватало объективных данных для подтверждения. Лишь в последнее время появились платформы, ведущие постоянный мониторинг качества моделей — и только тогда это явление впервые удалось количественно оценить.

В частности, StupidMeter проводит круглосуточное автоматизированное тестирование популярных моделей, включая OpenAI, Anthropic, Google и др., отслеживая показатели точности, способности к рассуждению и стабильности. В отличие от традиционных разовых benchmark-ов, такие системы ближе к корпоративному мониторингу API или доступности сервисов — они наблюдают колебания производительности модели в реальной среде использования.

Результаты данных довольно наглядны: сейчас большинство основных моделей находятся в состоянии предупреждения или деградации, и лишь немногие поддерживают нормальный режим. Это означает нестабильность качества моделей: это не проблема одного продукта, а распространённое явление во всей отрасли.

LLM «тихо» снижает интеллект, влияя на стабильность рабочих процессов с ИИ на предприятиях

Для компаний такие изменения означают, что ИИ уже вышел из роли «инструмента для повышения эффективности» и превратился в «переменную, влияющую на стабильность». Если повседневные рабочие процессы предприятия — от написания кода и code review до выпуска документов и аналитических отчётов — уже сильно зависят от LLM, то если в какой-то день у модели снижается способность к рассуждению или падает качество ответов, эти проблемы не будут проявляться точечно, как обычные баги в традиционном ПО: они одновременно проникнут во все этапы, где используется ИИ.

Ключевее всего то, что такие колебания часто трудно предсказать и сложно вовремя заметить. У большинства компаний нет механизмов постоянного мониторинга качества моделей: обычно они понимают, что проблема — в самой модели, только после того как результаты становятся аномальными или после снижения эффективности команды. В такой ситуации «снижение интеллекта» больше не просто субъективное ощущение пользователей — это системный риск, который напрямую влияет на ритм работы предприятия.

Когда ИИ становится «водой и электричеством», стабильность становится новым ключевым показателем

Wisely Chen сравнивает роль LLM с «водой и электричеством современного предприятия». Когда ИИ глубоко встраивается в повседневную операционную деятельность и становится незаменимой базовой способностью, важность стабильности растёт.

Раньше при оценке ИИ-инструментов компании в основном концентрировались на мощности модели, цене и функциональности. Но по мере того как проявляется явление «снижения интеллекта», на первый план выходит ещё один, более критичный показатель — стабильность. Когда качество модели может меняться без уведомления, компаниям приходится не просто «использовать ИИ», а начинать нести риск нового типа инфраструктуры. И ещё безнадёжнее то, что если судить только о передовых крупных языковых моделях, то, пока не решены проблемы с вычислительными мощностями, в основном может продолжаться то же самое.

Эта статья Данные раскрывают, что «Claude снижает интеллект» — это не городской миф, нестабильность ИИ-моделей становится риском для предприятий Самое раннее появление: в цепных новостях ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Фонд Reppo получил обязательство $20M от Bolts Capital для инфраструктуры данных для обучения ИИ

Сообщение Gate News, 23 апреля — Фонд Reppo объявил, что получил стратегическое обязательство по финансированию в размере $20 млн от Bolts Capital для продвижения разработки протокола и расширения экосистемы, с фокусом на создание инфраструктуры данных для обучения ИИ, работающей на базе рынков предсказаний. У подхода Reppo

GateNews19м назад

ЕС подготовит руководящие принципы, требующие от Google предоставлять сторонним приложениям ИИ равный доступ на Android, как у Gemini

Сообщение Gate News, 23 апреля — Европейский союз разработает руководящие принципы, требующие от Google предоставлять ChatGPT и Claude такой же доступ к функциональным возможностям на Android, как Gemini получает, согласно рыночным источникам. Этот шаг направлен на то, чтобы сторонние приложения ИИ имели равнозначные разрешения и

GateNews27м назад

Cluster Protocol привлекает $5M в финансировании, DAO5 возглавляет раунд

Сообщение Gate News, 23 апреля — Cluster Protocol, компания в области AI deep tech и инфраструктуры Web3, объявила о завершении раунда финансирования на $5 миллионов долларов под руководством DAO5 при участии Paper Ventures, JPEG Trading и Mapleblock Capital. Общий объем финансирования компании на сегодняшний день составляет 7,75 млн долларов

GateNews1ч назад

Президент ОАЭ обсуждает возможности в сфере ИИ и космоса с Маском и Финком

Сообщение Gate News, 23 апреля — президент ОАЭ шейх Мухаммед бин Заид Аль Нахайян провел переговоры с основателем SpaceX Илоном Маском и председателем BlackRock Ларри Финком о потенциальных возможностях в области искусственного интеллекта и космического сектора. Маск поговорил с эмирским лидером по телефону, согласно ОАЭ

GateNews1ч назад

Google Cloud и CVC объединяются, чтобы ускорить трансформацию AI-агентов для компаний портфеля

Сообщение Gate News, 23 апреля — Google Cloud и крупный гигант частного акционерного капитала CVC объявили о стратегическом партнерстве, чтобы ускорить трансформацию AI-агентов для CVC и сотен компаний в составе инвестиционного портфеля. В рамках сотрудничества будут задействованы платформа искусственного интеллекта Google Cloud и модель Gemini, чтобы стимулировать внедрение интеллектуальных агентов во всем портфеле.

GateNews2ч назад

Microsoft Рассматривала Приобретение Cursor, Но SpaceX Закрепила Пакет Сделки по Оценке $60B

Сообщение Gate News, 23 апреля — Microsoft рассмотрела возможность приобретения компании Cursor, занимающейся инструментами для кодинга с использованием ИИ, но в итоге не стала продолжать сделку. Затем SpaceX заключила соглашение о приобретении Cursor по оценке в $60 миллиардов, с $10 миллиардов в качестве штрафа за отказ от сделки, если приобретение i

GateNews2ч назад
комментарий
0/400
Нет комментариев