DEEPTECH

DEEPEXI TECH 01384.HK Ціна

DEEPTECH
₴0
+₴0(0,00%)
Немає даних

*Дані востаннє оновлено: 2026-04-14 19:37 (UTC+8)

Станом на 2026-04-14 19:37 DEEPEXI TECH 01384.HK (DEEPTECH) має ціну ₴0, ринкова капіталізація становить --, співвідношення ціни до прибутку — 0,00, дивідендна прибутковість — 0,00%. Сьогодні ціна акцій коливалася між ₴0 та ₴0. Поточна ціна на 0,00% вища за денний мінімум та на 0,00% нижча за денний максимум, з обсягом торгів --. За останні 52 тижні DEEPTECH торгувався в діапазоні від ₴0 до ₴0, а поточна ціна знаходиться на відстані 0,00% від 52-тижневого максимуму.

Ключові показники DEEPTECH

Співвідношення P/E0,00
Дивідендна прибутковість (TTM)0,00%
Кількість акцій в обігу0,00

Поширені запитання DEEPEXI TECH 01384.HK (DEEPTECH)

Яка сьогодні біржова ціна DEEPEXI TECH 01384.HK (DEEPTECH)?

x
DEEPEXI TECH 01384.HK (DEEPTECH) зараз торгується за ціною ₴0, 24-годинна зміна становить 0,00%. Діапазон торгів за останні 52 тижні: від ₴0 до ₴0.

Які найвищі та найнижчі ціни за 52 тижні для DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Що таке співвідношення ціни до прибутку (P/E) для DEEPEXI TECH 01384.HK (DEEPTECH)? Що воно означає?

x

Яка ринкова капіталізація DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Який розмір останнього квартального прибутку на акцію (EPS) для DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Чи варто зараз купити чи продати DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Які фактори можуть впливати на ціну акцій DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Як купити акції DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Попередження про ризики

Ринок акцій пов’язаний із високим рівнем ризику та цінової волатильності. Вартість ваших інвестицій може як зростати, так і знижуватися, і ви можете не повернути повну суму вкладених коштів. Минулі результати не є надійним показником майбутніх результатів. Перед ухваленням будь-яких інвестиційних рішень уважно оцініть свій інвестиційний досвід, фінансовий стан, інвестиційні цілі та рівень толерантності до ризику, а також проведіть власне дослідження. У разі потреби зверніться до незалежного фінансового консультанта.

Застереження

Вміст цієї сторінки надається виключно з інформаційною метою і не є інвестиційною порадою, фінансовою порадою чи торговою рекомендацією. Gate не несе відповідальності за будь-які втрати або збитки, що виникли внаслідок таких фінансових рішень. Зверніть увагу, що Gate може не надавати повний сервіс на окремих ринках і в окремих юрисдикціях, зокрема, але не обмежуючись, Сполученими Штатами Америки, Канадою, Іраном та Кубою. Для отримання додаткової інформації щодо обмежених локацій, будь ласка зверніться до Користувацької угоди.

Гарячі публікації про DEEPEXI TECH 01384.HK (DEEPTECH)

MaticHoleFiller

MaticHoleFiller

04-05 22:45
>   акції просто дивіться аналітичні звіти аналітиків «Jin Qilin»: авторитетно, професійно, своєчасно, всеосяжно — допоможе вам розкрити потенційні теми та можливості! (Джерело: DeepTech) Напишіть функцію — ІІ майже непереможний; але для чого підтримувати систему, чому починає руйнуватися ІІ? Наразі штучний інтелект уже ввійшов у «другу половину». У міру того як можливості програмування ШІ постійно зростають, такі продукти, як OpenClaw, поступово з’являються, а «CLI everything» стає реальністю — ІІ не потребує керування комп’ютером, натомість усі інтерфейси перетворюються на командний рядок (CLI), і одна за одною навички перетворюються на функції програмного забезпечення. Тепер Agent — це вже не просто чат-інструмент для виконання одноразових задач, а система, що розвивається в напрямку довгострокової операційної роботи, взаємодії з реальним світом і виконання складних завдань. Однак з’являється нова проблема: під час безперервної еволюції чи здатен ІІ постійно адаптуватися до нових середовищ і зберігати розробницькі здібності на стабільному рівні? Головний AI-вчений у «офісі CEO/президента» Tencent, Яо Шуньюй, згадував у блозі під назвою «The Second Half», що реальні задачі програмування є послідовно залежними, а не незалежними паралельними; втім, у академічному середовищі зараз немає таких бенчмарків для оцінювання компетентностей, потрібних ІІ у цьому сценарії, і навіть бракує сміливості розірвати припущення про взаємну незалежність задач — припущення, яке довго широко приймалося для спрощення проблеми. Нещодавно спільна команда з Університету Південної Каліфорнії, Каліфорнійського університету в Ріверзайді, Стенфордського університету, Прінстонського університету, OpenHands та інших опублікувала новий евалюційний бенчмарк EvoClaw, запропонувавши нове рішення для вищезазначеного питання. Дослідницька команда витягнула історії еволюції високоякісного коду з відкритих проєктів, щоб Agent послідовно виконав десятки взаємозалежних ітерацій функцій в одному й тому самому репозиторії. Результати показали, що топові ІІ демонструють чудові результати в незалежних тестових задачах (80%+), але щойно вони переходять у довготривалий реальний сценарій, навіть Claude Opus 4.6 із найвищим комплексним рахунком отримує лише 38.03%. Це означає, що для задач із більшою свободою виконання ІІ легко з’їжджає зі траєкторії; до реальної здатності обробляти довготривалу, безперервну еволюцію програмного забезпечення все ще існує суттєвий розрив. (Джерело: arXiv) Це дослідження розкриває, що під час довготривалої еволюції ІІ надзвичайно легко потрапляє в «снігову грудку» технічного боргу. Хоч він може безперервно додавати нові функції, він не здатен контролювати накопичення помилок із поверненням, і врешті це призводить до втрати керованості системою. Це також означає, що програмування для ІІ переходить від написання коду до управління системою. Відповідний науковий матеріал має назву «EvoClaw: AI-агентний бенчмарк для оцінювання безперервної еволюції програмного забезпечення» (EvoClaw: Evaluating AI Agents on Continuous Software Evolution) і нещодавно опублікований на сайті preprint arXiv[1]. Рисунок | Відповідна наукова робота (Джерело: arXiv) Чому наявні евалюції програмування за допомогою ІІ не збігаються з реальним досвідом — де проблема? Чому топові моделі, які отримують високі бали в незалежних тестах, колективно зазнають поразки в EvoClaw? Корінь проблеми в тому, що змінився сам підхід до оцінювання. У попередніх дослідженнях основні бенчмарки програмування здебільшого фокусувалися на незалежних задачах: давали тему (issue) або pull request (PR, Pull Request), а модель у статичному зрізі коду завершувала фікс, і перевірка проходила — на цьому тест вважався виконаним. Але між попередніми результатами бенчмарків і реальною здатністю до розробки існує прірва, яку не можна ігнорувати: статичне середовище — це відносно ідеальний стан, тоді як реальне середовище є складнішим і динамічнішим. З часом навіть малий баг, що був місяцями раніше, після версійних ітерацій може вирости «як снігова куля», дедалі більше, аж доки система не зламається. (Джерело: arXiv) Перший автор статті, докторант Університету Південної Каліфорнії Денг Гангда, сказав DeepTech: «Наявні розміри commit та release — або надто дрібні, або надто грубі. Тому ці історії розробки не відображають процес еволюції ПЗ». Рисунок | Денг Гангда (Джерело: опитаний) Дослідницька команда вперше ввела часовий вимір в систему оцінювання здібностей ІІ до програмування, використавши абсолютно новий рівень — віху (Milestone), щоб реконструювати історію еволюції ПЗ: це дозволяє мати як семантичну цілісність, так і здатність зберігати залежності еволюції. Вона вимагає, щоб ІІ у межах одного й того самого репозиторію послідовно виконав кілька одиниць функціональності. Таким чином, зберігається результат кожного кроку, який стає стартовою точкою для наступного. (Джерело: arXiv) Щоб підтримати витяг із великої кількості open-source репозиторіїв якісної історії еволюції ПЗ, дослідники, спираючись на потужні можливості топових ІІ, запропонували набір Agent-керованих автоматизованих конвеєрів DeepCommit. Вперше це реалізувало реконструкцію шумних записів розробки Git у верифіковані, функціонально згуртовані графи залежностей задач-віх (Milestone DAG) та створило оцінювальні середовища для кожної віхи. Основне включає три етапи: попередню обробку історії Git, побудову DAG, керовану Agent, а також налаштування середовищ віх і верифікацію. Насправді реконструювати історію Agent за допомогою Milestone — не проста справа, бо потрібно не лише побудувати статичний, чисто спостережуваний DAG, а й забезпечити цілу низку виконуваних середовищ оцінювання, а також водночас гарантувати правильність під час змін у залежностях еволюції. Це означає, що коли ви порушуєте сукупний порядок commit і переугруповуєте їх та з’єднуєте наново, можуть виникнути ситуації, коли commit не можна застосувати, інтерфейси не збігаються, а компіляція видає масові помилки. Для вирішення цієї проблеми дослідники розробили ітеративний цикл виправлень: Agent самостійно аналізує журнали помилок і динамічно модифікує Dockerfile, щоб забезпечити можливість виконання. Найважливіше — він також додає пропущені неявні залежності на основі наявного DAG, коригуючи відношення «хто перед ким» у Milestone, щоб проблеми конфлікту інтерфейсів вирішилися належним чином. Після багаторазових ітерацій зрештою вдалося коректно зібрати 87.1% оригінальних тестових кейсів. «Порівняно з одиничним сценарієм програмістської задачі, стабільне, надійне та ефективне довготривале автономне програмування є більш передовим напрямом досліджень. Наприклад, Anthropic, OpenAI прямо зазначили, що вони змістили фокус на тренування моделей для довготривалого програмування», — сказав Денг Гангда. Рисунок | Діаграма архітектури конвеєра DeepCommit (Джерело: arXiv) Дослідники порівняли еволюційний граф, який автоматично генерує DeepCommit, із ручними мітками людських експертів. Їх здивувало те, що обидва використовують різну логіку організації та при цьому добре доповнюють одне одного. Зокрема, Milestone людських експертів зазвичай у локальному часовому вікні: спочатку визначають тему, а потім групують commits. Це підхід зверху вниз до семантичного розбиття. Натомість DeepCommit, щоб гарантувати абсолютну точність, виходить із залежностей між commits і реконструює еволюційну «канву» програмного забезпечення знизу вгору, акцентуючи більше на топологічній структурі та обмеженнях виконання. Для евалюції це якраз означає, що ключ DeepCommit полягає в умінні витягти з історії розробки ПЗ набір віх, які можна виконувати та верифікувати. З результатів видно, що DeepCommit здатен відбирати високоякісні Milestone-задачі, придатні для оцінювання, і що вони виконуються та верифікуються в реальному середовищі, забезпечуючи надійність евалюції. Щойно модель потрапляє в реальну розробку, чому результати колективно «вдвічі падають»? EvoClaw охоплює п’ять основних мов програмування: Python, Java, Go, Rust та TypeScript. Обрані проєкти охоплюють найдовший реальний цикл розробки до 750 днів. У показниках евалюції дослідницька команда не використала просту частку проходження, натомість ввела два ключові виміри — F1 із зважуванням за Recall (повнота) та Precision (точність) як оцінку для кожної Milestone. Recall використовується для вимірювання повноти реалізації функцій, тоді як Precision фіксує, наскільки модель при додаванні нової функції пошкоджує наявний код. Дослідницька команда протестувала різні комбінації фреймворків і моделей, зокрема Claude Code, OpenHands тощо. Результати показали, що в незалежних евалюціях бали в більшості топових моделей зазвичай становлять 80%-90%, але після проходження бенчмарку EvoClaw вони колективно різко знижуються: навіть Claude Opus 4.6 з найвищим результатом отримує лише 38.03% балів. Рисунок | Основні результати експериментів EvoClaw (Джерело: arXiv) GPT 5.3 Codex з комплексним балом 28.88% посідає друге місце після Opus4.6. За поділом за репозиторіями: GPT 5.3 Codex слабше показує себе в двох Rust-проєктах (Nushell, ripgrep), а в решті репозиторіїв може наближатися або навіть перевищувати Opus4.6. У випадку повного розв’язання (complete resolution) навіть Gemini 3 Pro з найвищим балом має лише 13.37%, і переважна більшість коректно реалізованих — це задачі без попередніх залежностей. За наявною інформацією, дослідники тримали загальні витрати в розумних межах: наприклад, для Claude Opus 4.5 повне проходження оцінювання коштує приблизно 500 доларів, а Kimi K2.5 та Gemini 3 Flash — в межах 50 доларів; витрати менших моделей ще нижчі. (Джерело: arXiv) Отже, якщо дати моделі більш тривалий «вікно» розробки, чи зможе вона в підсумку на 100% довести проєкт до завершення? Дослідження дає заперечну відповідь: незалежно від того, як довго триває «вікно» розробки, всі моделі врешті впираються в «стелю». Чим пізніше в послідовності виконання знаходиться задача та чим глибший рівень DAG, тим нижчі стають бали й частка розв’язань. Результати екстраполяції за насичувальною (saturation) функцією доводять: навіть для оптимального Opus 4.6 накопичений бал обмежується приблизно 45% на асимптотичній кривій. «Хоч Opus 4.6 на сайті Anthropic згадує, що в довготривалих задачах він кращий за 4.5, але без детальних метрик оцінювання; EvoClaw перевіряє їх твердження з іншого боку», — сказав Денг Гангда. Крім того, з експериментів видно суттєві відмінності між різними сімействами моделей. Зокрема, показники Claude та GPT у сценаріях безперервної еволюції підвищуються стабільно від версії до версії. При цьому Opus 4.6 у довготривалому програмуванні довів найкращу здатність підтримувати систему; GPT 5.3 знизив бали через слабкість на датасеті Rust і посів друге місце. (Джерело: arXiv) Найбільш несподіваним є те, що сімейство Gemini демонструє зовсім іншу тенденцію: від 3 Flash до 3 Pro і далі до 3.1 Pro — кожне покоління швидше стартує на ранніх етапах і показує кращу поведінку на початку, але його далекобійні результати майже не покращуються. Денг Гангда пояснив: «Помітне погіршення результатів Gemini у довготривалих запусках означає, що воно не лише гірше дотримується інструкцій, дедалі більше ігнорує вимоги специфікації ПЗ (SRS), але й слабко підтримує побудовану систему програмного забезпечення». Коли дослідники розклали загальні бали далі на Recall і Precision, з’явилося ще цікавіше явище: Recall майже безперервно зростає, наближаючись до лінійного збільшення. Це означає, що навіть якщо кодова база стає дедалі більш хаотичною й крихкою, Agent все ще добре справляється із реалізацією нових цільових функцій, поставлених на поточний момент. Справжній вузький бік — у Precision: Agent важко підтримувати наявну систему. Швидкість накопичення помилок повертається/відновлюється швидше, ніж його здатність ці проблеми виправляти, і саме це є коренем того, чому довготривала розробка зрештою зупиняється. Рисунок | Зліва: схема ланцюга помилок; справа: розподіл ланцюга помилок (Джерело: arXiv) Щоб глибше зрозуміти першопричину втрати керованості моделями під час ітерацій, дослідницька команда запропонувала аналітичний фреймворк ланцюгів помилок (Error Chains). Вони відстежили кожен тест від першого виникнення помилки та спостерігали, чи помилка успадковується, поширюється, пропускається або виправляється в наступних Milestone. Результати показали, що швидкість появи нових проблем не прискорюється. Модель навіть здатна реально пасивно виправляти частину попередніх помилок, але швидкість накопичення помилок, що виникли на початку, значно перевищує швидкість їхнього виправлення, і врешті система потрапляє у стан «банкрутства технічного боргу». Універсальна оцінка для дебагу AI Harness Нещодавно дуже популярним стало поняття «Harness Engineering» — прагнуть налаштувати весь процес розробки ПЗ у середовище, придатне для участі Agent. Бенчмарк EvoClaw надає таке універсальне playground, що підходить для дебагу та оцінювання довготривалої еволюції коду. Наприклад, якщо в наведеному в цьому дослідженні випадку невдачі Agent раптом поводиться занадто активно в ітераціях або постійно редагує й постійно перевіряє, імовірно, Agent зіткнувся з труднощами. У такому випадку можна шляхом створення запобіжників (護орож) у відповідних місцях рано виявити проблему та своєчасно втрутитися людині, підвищивши ефективність. Оскільки архітектура моделі робить Agent універсальною: «впроваджувати нові функції набагато легше, ніж підтримувати довготривалі старі функції», то чи породить це в майбутньому нові форми програмного забезпечення та моделі розробки? Наприклад, ПЗ більше акцентуватиме гнучкість і сумісність; або відбуватимуться більш надійні великомасштабні перебудови та перезбирання. Або ж воно буде більш «одноразовим»: конкретна бізнес-логіка генерується в реальному часі і не потребує підтримки; натомість акцент робитиметься на посиленні повторно використовуваних компонентів та інфраструктури. Дослідницька команда вважає, що в моделях розробки варто дещо послабити обмеження на якість ПЗ — це зменшить кількість втручань людей, щоб натомість отримати більшу пропускну здатність і, врешті, прискорити еволюцію програмного забезпечення. Денг Гангда зазначив: «Це дослідження доводить, що ми рухаємося правильним шляхом: довготривала програмістська здатність ІІ ще не вперлася в «вузьке місце» і може стабільно зростати з часом. Є потенціал у те, що одного разу, зростання “від кількості до якості” за балами в рейтингах, може перетворитися на зміну світу на якісному рівні». З розвитком технологій майбутній ІІ може еволюціонувати від поступового зменшення участі людей у розробці ПЗ до того, щоб ІІ сам формулював нові вимоги для еволюції кодової бази, і далі до того, щоб ІІ повністю перевершив людей, відкинувши їх, і врешті зміг би здійснювати самопосилюючу саморозвивальність. Довідкові матеріали: 1. Відповідна наукова робота: 2. Домашня сторінка проєкту: 3. Верстка: Лю Якун Масивні новини та точні інтерпретації — усе в застосунку Sina Finance APP
1
0
0
0
CycleProphet

CycleProphet

03-30 06:23
Для інвесторів в інфраструктуру штучного інтелекту, коли стаття стверджує, що досягнуто «декількох порядків» підвищення продуктивності, перш за все потрібно запитати, чи є умови для порівняння еталонів справедливими. Автор: Шенчао TechFlow Стаття Google, яка стверджує, що «зменшила використання пам'яті штучного інтелекту до 1/6», минулого тижня викликала зникнення понад 90 мільярдів доларів капіталізації акцій глобальних виробників пам'яті, таких як Micron і SanDisk. Проте через два дні після публікації статті, конкурент, постдоктор високої техніки Цюріхського федерального технологічного інституту Гао Цзяньян, опублікував відкритий лист на тисячу слів, звинувачуючи команду Google в тому, що в експерименті вона тестувала суперника за допомогою Python-скрипту на однокореневому ЦП, а сама використовувала A100 GPU, і, хоча була поінформована про проблему перед подачею, все ще відмовлялася вносити виправлення. Число переглядів на Zhihu швидко перевищило 4 мільйони, офіційний аккаунт Stanford NLP перепостив, академічне середовище і ринок одночасно зазнали потрясіння. (Джерело: стаття, що знизила акції виробників пам'яті) Ядром цього суперечливого питання є не складність: чи не спотворює стаття, що широко просувається офіційно Google і безпосередньо викликала панічний продаж в глобальному сегменті чіпів, систематично вже опубліковану попередню роботу, і чи створює вона завдяки свідомо несправедливим експериментам фальшивий наратив про перевагу в продуктивності? **TurboQuant зробив те, що: зменшив «чернетку» AI до 1/6** ----------------------------------------- Великі мовні моделі, генеруючи відповіді, повинні писати і одночасно переглядати раніше обчислені дані. Ці проміжні результати тимчасово зберігаються в пам'яті, в індустрії їх називають «KV Cache» (ключ-значення кеш). Чим довше діалог, тим товстішою стає ця «чернетка», витрати пам'яті зростають, а вартість також зростає. Алгоритм TurboQuant, розроблений дослідницькою групою Google, має ключову перевагу в тому, що зменшує цю чернетку до 1/6, при цьому стверджуючи, що точність не втрачається, а швидкість висновків збільшується до 8 разів. Стаття вперше була опублікована на академічній платформі попередніх версій arXiv у квітні 2025 року, в січні 2026 року була прийнята на провідну конференцію в сфері AI ICLR 2026, і 24 березня була повторно просунута через офіційний блог Google. На технічному рівні, ідея TurboQuant може бути просто зрозуміла як: спочатку використовують математичну трансформацію, щоб «очистити» хаотичні дані до однорідного формату, потім заздалегідь обчислені оптимальні таблиці стиснення використовуються для поступового стиснення, а в кінці використовується механізм виправлення на 1 біт для корекції обчислювальних похибок, викликаних стисненням. Незалежна реалізація в спільноті вже підтвердила, що його ефект стиснення в основному є правдою, а математичний внесок на рівні алгоритму дійсно існує. Спір не в тому, чи може бути використаний TurboQuant, а в тому, що Google зробив, щоб довести, що він «значно перевершує конкурентів». **Відкритий лист Гао Цзяньяна: три звинувачення, кожне влучає в ціль** ---------------------- 27 березня о 22:00 Гао Цзяньян опублікував довгий пост на Zhihu, одночасно надіславши офіційний коментар на платформу OpenReview для рецензування ICLR. Гао Цзяньян - перший автор алгоритму RaBitQ, який був опублікований на провідній конференції в галузі баз даних SIGMOD у 2024 році і вирішує ту ж категорію проблеми - ефективне стиснення високорозмірних векторів. ![](https://img-cdn.gateio.im/social/moments-febe1f91d9-be7f31146e-8b7abd-ceda62) Його звинувачення складається з трьох пунктів, кожен з яких має підтвердження в електронних листах та хронології. ### **Звинувачення перше: використали чужий основний метод, не згадуючи про це.** Технічна основа TurboQuant і RaBitQ має один ключовий спільний крок: перед стисненням даних спочатку здійснюється «випадковий оберт». Ця операція має на меті перетворити спочатку нерегулярні дані в передбачуване рівномірне розподілення, що суттєво знижує складність стиснення. Це найбільш суттєва частина обох алгоритмів. Автори TurboQuant самі визнали це у відповіді на рецензію, але жодного разу прямо не вказали на зв'язок між цим методом і RaBitQ у тексті статті. Ще більш важливим є те, що другий автор TurboQuant Маджид Далірі у січні 2025 року самостійно звернувся до команди Гао Цзяньяна з проханням допомогти відлагодити його версію на Python, переписану на основі вихідного коду RaBitQ. У листі докладно описані етапи відтворення та повідомлення про помилки - іншими словами, команда TurboQuant добре знала технічні деталі RaBitQ. Анонімний рецензент ICLR також незалежно вказав на те, що обидва використовують однакову технологію, вимагаючи належного обговорення. Але у фінальному варіанті статті команда TurboQuant не тільки не додала обговорення, а навпаки, перемістила (вже неповний) опис RaBitQ з основного тексту до додатку. ### **Звинувачення друге: бездоказово стверджують, що теорія «другорядна».** Стаття TurboQuant прямо наклеїла етикетку «теоретично другорядний» (suboptimal) на RaBitQ, аргументуючи це тим, що математичний аналіз RaBitQ «досить грубий». Але Гао Цзяньян зазначив, що розширена версія статті RaBitQ вже строго довела, що похибка стиснення досягла математично оптимального межі - цей висновок був опублікований на провідній конференції в галузі теоретичної комп'ютерної науки. У травні 2025 року команда Гао Цзяньяна кілька разів детально пояснювала оптимальність теорії RaBitQ через електронні листи. Другий автор TurboQuant Далірі підтвердив, що всіх авторів було проінформовано. Але стаття в кінцевому підсумку все ще залишила формулювання «другорядний» без жодних аргументів для спростування. ### **Звинувачення третє: в експериментальному порівнянні «одна рука зв'язана, інша з ножем».** Це найсильніше звинувачення в усьому тексті. Гао Цзяньян зазначив, що стаття TurboQuant в експерименті порівняння швидкості наклала два рівні несправедливих умов: По-перше, RaBitQ офіційно надала оптимізований C++ код (за замовчуванням підтримує багатопотокову обробку), але команда TurboQuant не використала його, а протестувала RaBitQ за допомогою власної версії на Python. По-друге, для тестування RaBitQ використовувався однокореневий ЦП і вимкнено багатопотокове виконання, тоді як TurboQuant використовував NVIDIA A100 GPU. Ефект цих двох умов в сумі: читачі бачать висновок, що «RaBitQ повільніше TurboQuant на декілька порядків», але не можуть знати, що це висновок базується на тому, що команда Google зв'язала руки супернику, перш ніж почати бігти. У статті недостатньо розкрито різниці в умовах експерименту. **Відповідь Google: «Випадковий оберт - це загальна технологія, неможливо посилатися на кожну статтю»** ----------------------------- Згідно з інформацією від Гао Цзяньяна, команда TurboQuant у відповіді на електронний лист у березні 2026 року заявила: «Використання випадкового обертання і перетворення Джонсона-Лінденштейна вже є стандартними технологіями в цій області, ми не можемо послатися на кожну статтю, що використовує ці методи». Команда Гао Цзяньяна вважає, що це є спробою підміни понять: питання не в тому, чи потрібно посилатися на всі статті, що використовують випадкове обертання, а в тому, що RaBitQ є першою роботою, яка в повністю аналогічних умовах поєднала цей метод зі стисненням векторів і довела його оптимальність, стаття TurboQuant повинна точно описати зв'язок між ними. Офіційний аккаунт Stanford NLP Group перепостив заяву Гао Цзяньяна. Команда Гао Цзяньяна вже опублікувала відкритий коментар на платформі OpenReview ICLR і подала офіційну скаргу до голови конференції ICLR та етичного комітету, в подальшому також буде опубліковано детальний технічний звіт на arXiv. ![](https://img-cdn.gateio.im/social/moments-c230774988-0cfb0537c8-8b7abd-ceda62) Незалежний технічний блогер Даріо Сальваті в своєму аналізі дав відносно нейтральну оцінку: TurboQuant дійсно має реальний внесок у математичному методі, але зв'язок з RaBitQ набагато тісніший, ніж викладено в статті. **Зникнення 90 мільярдів доларів капіталізації: суперечка навколо статті в поєднанні з ринковою панікою** -------------------------- Ця академічна суперечка сталася в надзвичайно делікатний момент. Після того, як Google 24 березня опублікував TurboQuant через офіційний блог, глобальний ринок чіпів пам'яті зазнав різкого падіння. За повідомленнями CNBC та інших ЗМІ, акції Micron Technology падали протягом шести торгових днів, загальна падіння перевищила 20%; акції SanDisk впали на 11% за один день; південнокорейська SK Hynix знизилася приблизно на 6%, Samsung Electronics впала майже на 5%, а японська Kioxia впала приблизно на 6%. Логіка паніки на ринку проста і жорстка: якщо програмне стиснення може знизити потреби пам'яті для висновків AI в 6 разів, перспективи попиту на чіпи пам'яті зазнають структурного зниження. Аналізатор Morgan Stanley Джозеф Мур у звіті 26 березня спростував цю логіку, підтримуючи рейтинг «купити» для Micron і SanDisk. Мур зазначив, що TurboQuant стискає лише специфічний тип кешу KV Cache, а не загальне використання пам'яті, і охарактеризував це як «нормальне поліпшення продуктивності». Аналітик Wells Fargo Ендрю Роча також посилався на парадокс Джевонса, стверджуючи, що підвищення ефективності може знизити витрати, а потім стимулювати більш масштабне впровадження AI, в результаті чого зрештою зросте потреба в пам'яті. **Стара стаття, нова упаковка: ризики ланцюга передачі наративу від дослідження AI до ринку** ---------------------------- Згідно з аналізом технічного блогера Бена Пулядіана, стаття TurboQuant була опублікована в квітні 2025 року і не є новим дослідженням. 24 березня Google повторно просунув її через офіційний блог, але ринок сприйняв її як новий прорив для ціноутворення. Ця стратегія просування «стара стаття, нова публікація», поєднана з можливими експериментальними упередженнями в статті, відображає систематичні ризики в ланцюгу передачі наративу від наукових статей до ринкових наративів. Для інвесторів в інфраструктуру штучного інтелекту, коли стаття стверджує, що досягнуто «декількох порядків» підвищення продуктивності, перш за все потрібно запитати, чи є умови для порівняння еталонів справедливими. Команда Гао Цзяньяна вже чітко заявила, що продовжить домагатися офіційного вирішення проблеми. Google поки не дав офіційної відповіді на конкретні звинувачення з відкритого листа.
1
0
0
0