AI ця галузь фактично вже тихо змінила свою конкурентну логіку. Раніше всі змагалися, хто має більшу модель, більше параметрів, хто швидше генерує; але на сьогодні, справжня різниця вже не в можливостях, а в тому, чи готові вам довіряти.
Це не те, що галузь сама шукає нову наративу, зовнішній світ вже досить чітко висловив свою позицію.
У нещодавньому «Звіті про технологічні тренди на наступні п’ять років» від China Internet, прямо вказано один тренд: світ входить у еру AI-інтелектуальних агентів. І це не ті, що просто спілкуються, пишуть тексти або обслуговують клієнтів, а ті, що будуть проникати у високочутливі сфери, такі як фінансовий ризик-менеджмент, державне управління, громадське адміністрування, і навіть почнуть брати участь у реальних рішеннях.
Але у звіті постійно наголошується, що якщо AI не заслуговує довіри, він навіть не має права бути інтегрованим у ці системи.
Дослідження IIT Delhi говорять ще ясніше: структура «чорного ящика», ілюзії, незрозумілість — це найбільші проблеми довіри до сучасного AI. Чим потужніша модель, тим більший ризик при виникненні проблем — ризик не лінійний, а безпосередньо посилюється.
Саме через цю реальність ви бачите дуже розділену картину: з одного боку — маса «AI + плагіни», «AI + обгортки додатків», функціонал яких здається все більш різноманітним; з іншого — питання, чи зможе AI потрапити у ключові сфери, залишається питанням довіри, але майже ніхто не намагається його прямо вирішити.
А нещодавня серія дій @inference_labs саме і спрямована на вирішення цієї найскладнішої проблеми.
Вони запустили другий сезон TruthTensor, одночасно перейменували Subnet-2 у DSperse. Назва не так важлива, важливо, що напрямок став дуже чітким: вони вже не просто «створюють підмережу», а будують базову структуру для децентралізованого, верифікованого AI.
Основна ідея DSperse досить проста: не дозволяти одному моделю, одному вузлу або системі окремо підтверджувати «правильність». Виведення результатів — спільна робота кількох, перевірка — участь кількох, довіра не базується на авторитеті, а на процесі, який можна перевірити, кількісно оцінити і простежити.
Він і запускає моделі, і перевіряє їх; це не «ти мені довіряєш», а «ти можеш сам мене перевірити».
Ще важливіше, що DSperse повністю розділяє «виведення висновків» і «перевірку», виконує їх у розподіленому режимі. Це не дуже ефективно з точки зору швидкості, але з точки зору безпеки системи — це прямо уникає найсмертельнішої проблеми централізованого AI: якщо один вузол помиляється, вся система може зламатися.
Цей шлях, чесно кажучи, дуже складний і навіть у короткостроковій перспективі не буде популярним. Але якщо дивитися з точки зору «AI має потрапити у реальний світ», він майже неможливий для ігнорування.
На мою думку, 2026 рік стане дуже важливим моментом. Тоді AI вже не буде бракувати можливостей моделей, а справжня дефіцитність з’явиться у трьох сферах: верифікаційність, аудитованість і довірена інфраструктура.
З урахуванням нинішнього темпу, Inference Labs обирає спершу взятися за найскладніше. У купі проектів, що ще змагаються за параметри, моделі та обгортки додатків, DSperse виглядає більш як непомітний, але можливо саме він визначить напрямок наступної фази розвитку.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
AI ця галузь фактично вже тихо змінила свою конкурентну логіку. Раніше всі змагалися, хто має більшу модель, більше параметрів, хто швидше генерує; але на сьогодні, справжня різниця вже не в можливостях, а в тому, чи готові вам довіряти.
Це не те, що галузь сама шукає нову наративу, зовнішній світ вже досить чітко висловив свою позицію.
У нещодавньому «Звіті про технологічні тренди на наступні п’ять років» від China Internet, прямо вказано один тренд: світ входить у еру AI-інтелектуальних агентів. І це не ті, що просто спілкуються, пишуть тексти або обслуговують клієнтів, а ті, що будуть проникати у високочутливі сфери, такі як фінансовий ризик-менеджмент, державне управління, громадське адміністрування, і навіть почнуть брати участь у реальних рішеннях.
Але у звіті постійно наголошується, що якщо AI не заслуговує довіри, він навіть не має права бути інтегрованим у ці системи.
Дослідження IIT Delhi говорять ще ясніше: структура «чорного ящика», ілюзії, незрозумілість — це найбільші проблеми довіри до сучасного AI. Чим потужніша модель, тим більший ризик при виникненні проблем — ризик не лінійний, а безпосередньо посилюється.
Саме через цю реальність ви бачите дуже розділену картину: з одного боку — маса «AI + плагіни», «AI + обгортки додатків», функціонал яких здається все більш різноманітним; з іншого — питання, чи зможе AI потрапити у ключові сфери, залишається питанням довіри, але майже ніхто не намагається його прямо вирішити.
А нещодавня серія дій @inference_labs саме і спрямована на вирішення цієї найскладнішої проблеми.
Вони запустили другий сезон TruthTensor, одночасно перейменували Subnet-2 у DSperse. Назва не так важлива, важливо, що напрямок став дуже чітким: вони вже не просто «створюють підмережу», а будують базову структуру для децентралізованого, верифікованого AI.
Основна ідея DSperse досить проста: не дозволяти одному моделю, одному вузлу або системі окремо підтверджувати «правильність». Виведення результатів — спільна робота кількох, перевірка — участь кількох, довіра не базується на авторитеті, а на процесі, який можна перевірити, кількісно оцінити і простежити.
Він і запускає моделі, і перевіряє їх; це не «ти мені довіряєш», а «ти можеш сам мене перевірити».
Ще важливіше, що DSperse повністю розділяє «виведення висновків» і «перевірку», виконує їх у розподіленому режимі. Це не дуже ефективно з точки зору швидкості, але з точки зору безпеки системи — це прямо уникає найсмертельнішої проблеми централізованого AI: якщо один вузол помиляється, вся система може зламатися.
Цей шлях, чесно кажучи, дуже складний і навіть у короткостроковій перспективі не буде популярним. Але якщо дивитися з точки зору «AI має потрапити у реальний світ», він майже неможливий для ігнорування.
На мою думку, 2026 рік стане дуже важливим моментом. Тоді AI вже не буде бракувати можливостей моделей, а справжня дефіцитність з’явиться у трьох сферах: верифікаційність, аудитованість і довірена інфраструктура.
З урахуванням нинішнього темпу, Inference Labs обирає спершу взятися за найскладніше. У купі проектів, що ще змагаються за параметри, моделі та обгортки додатків, DSperse виглядає більш як непомітний, але можливо саме він визначить напрямок наступної фази розвитку.