AI эта область уже тихо изменила свою конкурентную логику. Раньше все соревновались в том, у кого модель больше, у кого больше параметров, кто быстрее генерирует; но сегодня, по-настоящему различие уже не в возможностях, а в готовности доверять.
Это не просто новая нарративная стратегия самой индустрии, внешняя среда уже ясно дала понять свою позицию.
В недавно опубликованном отчёте «Тенденции технологий на ближайшие пять лет» китайской сети прямо указано на одну тенденцию: мир входит в эпоху AI-агентов. И речь идет не о чат-ботах, написании текстов или службах поддержки, а о внедрении в такие высокочувствительные сферы, как финансовый риск-менеджмент, государственные процедуры, общественное управление, а также о начале участия в реальных решениях.
Однако в отчёте неоднократно подчеркивается один важный условие: если AI ненадёжен, ему просто не место в этих системах.
Исследование IIT Delhi говорит еще яснее: структура «черного ящика», проблема галлюцинаций, необъяснимость — это сейчас самые большие разрывы в доверии к AI. Чем мощнее модель, тем больше риск при возникновении проблем — он не линейный, а прямо пропорционально увеличивается.
Именно поэтому вы наблюдаете противоречивую картину: с одной стороны — множество «AI + плагины», «AI + обёртки», кажется, функций становится всё больше; с другой — главный вопрос, сможет ли AI войти в ключевые сценарии, — это доверие, но практически никто не занимается его решением напрямую.
А серия недавних действий @inference_labs как раз направлена на решение этой самой сложной задачи.
Они запустили второй сезон TruthTensor, а также переименовали исходный Subnet-2 в DSperse. Название не так важно, важен очень ясный курс: они уже не просто «делают подсеть», а создают инфраструктуру для децентрализованного, проверяемого AI.
Основная идея DSperse не сложна: больше не стоит доверять одному модели, одному узлу или системе, что они «правильны». Вывод осуществляется совместно несколькими участниками, проверка — тоже коллективная, доверие не исходит от авторитета, а из процесса, который можно проверить, измерить и проследить.
Они одновременно тестируют модели и проверяют их; это не «ты мне веришь», а «ты можешь проверить меня сам».
Ключевой момент — DSperse полностью разделяет «вывод» и «проверку», реализуя их в распределенной системе. Это не самый быстрый подход, но в плане безопасности системы — это напрямую избегает самой опасной проблемы централизованного AI: если один узел ошибается, вся система не рухнет.
Этот путь, честно говоря, очень сложен, и в краткосрочной перспективе он может быть не очень популярным. Но если смотреть с точки зрения «AI должен войти в реальный мир», — это практически неизбежно.
На мой взгляд, 2026 год станет очень важной точкой. Тогда AI уже не будет испытывать дефицит моделей, а по-настоящему дефицитными станут три вещи: проверяемость, аудитируемость и доверенная инфраструктура.
С текущим темпом развития, Inference Labs выбирает сначала взяться за самое сложное. В то время как большинство проектов всё еще борются за параметры, переформатируют модели или создают оболочки, DSperse скорее — это тот незаметный, но возможно, определяющий направление следующего этапа переменный.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
AI эта область уже тихо изменила свою конкурентную логику. Раньше все соревновались в том, у кого модель больше, у кого больше параметров, кто быстрее генерирует; но сегодня, по-настоящему различие уже не в возможностях, а в готовности доверять.
Это не просто новая нарративная стратегия самой индустрии, внешняя среда уже ясно дала понять свою позицию.
В недавно опубликованном отчёте «Тенденции технологий на ближайшие пять лет» китайской сети прямо указано на одну тенденцию: мир входит в эпоху AI-агентов. И речь идет не о чат-ботах, написании текстов или службах поддержки, а о внедрении в такие высокочувствительные сферы, как финансовый риск-менеджмент, государственные процедуры, общественное управление, а также о начале участия в реальных решениях.
Однако в отчёте неоднократно подчеркивается один важный условие: если AI ненадёжен, ему просто не место в этих системах.
Исследование IIT Delhi говорит еще яснее: структура «черного ящика», проблема галлюцинаций, необъяснимость — это сейчас самые большие разрывы в доверии к AI. Чем мощнее модель, тем больше риск при возникновении проблем — он не линейный, а прямо пропорционально увеличивается.
Именно поэтому вы наблюдаете противоречивую картину: с одной стороны — множество «AI + плагины», «AI + обёртки», кажется, функций становится всё больше; с другой — главный вопрос, сможет ли AI войти в ключевые сценарии, — это доверие, но практически никто не занимается его решением напрямую.
А серия недавних действий @inference_labs как раз направлена на решение этой самой сложной задачи.
Они запустили второй сезон TruthTensor, а также переименовали исходный Subnet-2 в DSperse. Название не так важно, важен очень ясный курс: они уже не просто «делают подсеть», а создают инфраструктуру для децентрализованного, проверяемого AI.
Основная идея DSperse не сложна: больше не стоит доверять одному модели, одному узлу или системе, что они «правильны». Вывод осуществляется совместно несколькими участниками, проверка — тоже коллективная, доверие не исходит от авторитета, а из процесса, который можно проверить, измерить и проследить.
Они одновременно тестируют модели и проверяют их; это не «ты мне веришь», а «ты можешь проверить меня сам».
Ключевой момент — DSperse полностью разделяет «вывод» и «проверку», реализуя их в распределенной системе. Это не самый быстрый подход, но в плане безопасности системы — это напрямую избегает самой опасной проблемы централизованного AI: если один узел ошибается, вся система не рухнет.
Этот путь, честно говоря, очень сложен, и в краткосрочной перспективе он может быть не очень популярным. Но если смотреть с точки зрения «AI должен войти в реальный мир», — это практически неизбежно.
На мой взгляд, 2026 год станет очень важной точкой. Тогда AI уже не будет испытывать дефицит моделей, а по-настоящему дефицитными станут три вещи: проверяемость, аудитируемость и доверенная инфраструктура.
С текущим темпом развития, Inference Labs выбирает сначала взяться за самое сложное. В то время как большинство проектов всё еще борются за параметры, переформатируют модели или создают оболочки, DSperse скорее — это тот незаметный, но возможно, определяющий направление следующего этапа переменный.
@KaitoAI #Yapping #MadewithMoss @MossAI_Official #Starboard @Galxe @RiverdotInc @River4fun