AI ця галузь фактично вже тихо змінила свою конкурентну логіку. Раніше всі змагалися, хто має більшу модель, більше параметрів, хто швидше генерує; але на сьогодні, справжня різниця вже не в можливостях, а в тому, чи готові вам довіряти.



Це не те, що галузь сама шукає нову наративу, зовнішній світ вже досить чітко висловив свою позицію.

У нещодавньому «Звіті про технологічні тренди на наступні п’ять років» від China Internet, прямо вказано один тренд: світ входить у еру AI-інтелектуальних агентів. І це не ті, що просто спілкуються, пишуть тексти або обслуговують клієнтів, а ті, що будуть проникати у високочутливі сфери, такі як фінансовий ризик-менеджмент, державне управління, громадське адміністрування, і навіть почнуть брати участь у реальних рішеннях.

Але у звіті постійно наголошується, що якщо AI не заслуговує довіри, він навіть не має права бути інтегрованим у ці системи.

Дослідження IIT Delhi говорять ще ясніше: структура «чорного ящика», ілюзії, незрозумілість — це найбільші проблеми довіри до сучасного AI. Чим потужніша модель, тим більший ризик при виникненні проблем — ризик не лінійний, а безпосередньо посилюється.

Саме через цю реальність ви бачите дуже розділену картину: з одного боку — маса «AI + плагіни», «AI + обгортки додатків», функціонал яких здається все більш різноманітним; з іншого — питання, чи зможе AI потрапити у ключові сфери, залишається питанням довіри, але майже ніхто не намагається його прямо вирішити.

А нещодавня серія дій @inference_labs саме і спрямована на вирішення цієї найскладнішої проблеми.

Вони запустили другий сезон TruthTensor, одночасно перейменували Subnet-2 у DSperse. Назва не так важлива, важливо, що напрямок став дуже чітким: вони вже не просто «створюють підмережу», а будують базову структуру для децентралізованого, верифікованого AI.

Основна ідея DSperse досить проста: не дозволяти одному моделю, одному вузлу або системі окремо підтверджувати «правильність». Виведення результатів — спільна робота кількох, перевірка — участь кількох, довіра не базується на авторитеті, а на процесі, який можна перевірити, кількісно оцінити і простежити.

Він і запускає моделі, і перевіряє їх; це не «ти мені довіряєш», а «ти можеш сам мене перевірити».

Ще важливіше, що DSperse повністю розділяє «виведення висновків» і «перевірку», виконує їх у розподіленому режимі. Це не дуже ефективно з точки зору швидкості, але з точки зору безпеки системи — це прямо уникає найсмертельнішої проблеми централізованого AI: якщо один вузол помиляється, вся система може зламатися.

Цей шлях, чесно кажучи, дуже складний і навіть у короткостроковій перспективі не буде популярним. Але якщо дивитися з точки зору «AI має потрапити у реальний світ», він майже неможливий для ігнорування.

На мою думку, 2026 рік стане дуже важливим моментом. Тоді AI вже не буде бракувати можливостей моделей, а справжня дефіцитність з’явиться у трьох сферах: верифікаційність, аудитованість і довірена інфраструктура.

З урахуванням нинішнього темпу, Inference Labs обирає спершу взятися за найскладніше. У купі проектів, що ще змагаються за параметри, моделі та обгортки додатків, DSperse виглядає більш як непомітний, але можливо саме він визначить напрямок наступної фази розвитку.
Переглянути оригінал
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити