Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Збитки у сфері зберігання даних: 90 мільярдів доларів США, стаття Google AI, звинувачена у фальсифікації експериментів
Для інвесторів в інфраструктуру штучного інтелекту, коли стаття стверджує, що досягнуто «декількох порядків» підвищення продуктивності, перш за все потрібно запитати, чи є умови для порівняння еталонів справедливими.
Автор: Шенчао TechFlow
Стаття Google, яка стверджує, що «зменшила використання пам’яті штучного інтелекту до 1/6», минулого тижня викликала зникнення понад 90 мільярдів доларів капіталізації акцій глобальних виробників пам’яті, таких як Micron і SanDisk.
Проте через два дні після публікації статті, конкурент, постдоктор високої техніки Цюріхського федерального технологічного інституту Гао Цзяньян, опублікував відкритий лист на тисячу слів, звинувачуючи команду Google в тому, що в експерименті вона тестувала суперника за допомогою Python-скрипту на однокореневому ЦП, а сама використовувала A100 GPU, і, хоча була поінформована про проблему перед подачею, все ще відмовлялася вносити виправлення. Число переглядів на Zhihu швидко перевищило 4 мільйони, офіційний аккаунт Stanford NLP перепостив, академічне середовище і ринок одночасно зазнали потрясіння.
(Джерело: стаття, що знизила акції виробників пам’яті)
Ядром цього суперечливого питання є не складність: чи не спотворює стаття, що широко просувається офіційно Google і безпосередньо викликала панічний продаж в глобальному сегменті чіпів, систематично вже опубліковану попередню роботу, і чи створює вона завдяки свідомо несправедливим експериментам фальшивий наратив про перевагу в продуктивності?
TurboQuant зробив те, що: зменшив «чернетку» AI до 1/6
Великі мовні моделі, генеруючи відповіді, повинні писати і одночасно переглядати раніше обчислені дані. Ці проміжні результати тимчасово зберігаються в пам’яті, в індустрії їх називають «KV Cache» (ключ-значення кеш). Чим довше діалог, тим товстішою стає ця «чернетка», витрати пам’яті зростають, а вартість також зростає.
Алгоритм TurboQuant, розроблений дослідницькою групою Google, має ключову перевагу в тому, що зменшує цю чернетку до 1/6, при цьому стверджуючи, що точність не втрачається, а швидкість висновків збільшується до 8 разів. Стаття вперше була опублікована на академічній платформі попередніх версій arXiv у квітні 2025 року, в січні 2026 року була прийнята на провідну конференцію в сфері AI ICLR 2026, і 24 березня була повторно просунута через офіційний блог Google.
На технічному рівні, ідея TurboQuant може бути просто зрозуміла як: спочатку використовують математичну трансформацію, щоб «очистити» хаотичні дані до однорідного формату, потім заздалегідь обчислені оптимальні таблиці стиснення використовуються для поступового стиснення, а в кінці використовується механізм виправлення на 1 біт для корекції обчислювальних похибок, викликаних стисненням. Незалежна реалізація в спільноті вже підтвердила, що його ефект стиснення в основному є правдою, а математичний внесок на рівні алгоритму дійсно існує.
Спір не в тому, чи може бути використаний TurboQuant, а в тому, що Google зробив, щоб довести, що він «значно перевершує конкурентів».
Відкритий лист Гао Цзяньяна: три звинувачення, кожне влучає в ціль
27 березня о 22:00 Гао Цзяньян опублікував довгий пост на Zhihu, одночасно надіславши офіційний коментар на платформу OpenReview для рецензування ICLR. Гао Цзяньян - перший автор алгоритму RaBitQ, який був опублікований на провідній конференції в галузі баз даних SIGMOD у 2024 році і вирішує ту ж категорію проблеми - ефективне стиснення високорозмірних векторів.
Його звинувачення складається з трьох пунктів, кожен з яких має підтвердження в електронних листах та хронології.
Звинувачення перше: використали чужий основний метод, не згадуючи про це.
Технічна основа TurboQuant і RaBitQ має один ключовий спільний крок: перед стисненням даних спочатку здійснюється «випадковий оберт». Ця операція має на меті перетворити спочатку нерегулярні дані в передбачуване рівномірне розподілення, що суттєво знижує складність стиснення. Це найбільш суттєва частина обох алгоритмів.
Автори TurboQuant самі визнали це у відповіді на рецензію, але жодного разу прямо не вказали на зв’язок між цим методом і RaBitQ у тексті статті. Ще більш важливим є те, що другий автор TurboQuant Маджид Далірі у січні 2025 року самостійно звернувся до команди Гао Цзяньяна з проханням допомогти відлагодити його версію на Python, переписану на основі вихідного коду RaBitQ. У листі докладно описані етапи відтворення та повідомлення про помилки - іншими словами, команда TurboQuant добре знала технічні деталі RaBitQ.
Анонімний рецензент ICLR також незалежно вказав на те, що обидва використовують однакову технологію, вимагаючи належного обговорення. Але у фінальному варіанті статті команда TurboQuant не тільки не додала обговорення, а навпаки, перемістила (вже неповний) опис RaBitQ з основного тексту до додатку.
Звинувачення друге: бездоказово стверджують, що теорія «другорядна».
Стаття TurboQuant прямо наклеїла етикетку «теоретично другорядний» (suboptimal) на RaBitQ, аргументуючи це тим, що математичний аналіз RaBitQ «досить грубий». Але Гао Цзяньян зазначив, що розширена версія статті RaBitQ вже строго довела, що похибка стиснення досягла математично оптимального межі - цей висновок був опублікований на провідній конференції в галузі теоретичної комп’ютерної науки.
У травні 2025 року команда Гао Цзяньяна кілька разів детально пояснювала оптимальність теорії RaBitQ через електронні листи. Другий автор TurboQuant Далірі підтвердив, що всіх авторів було проінформовано. Але стаття в кінцевому підсумку все ще залишила формулювання «другорядний» без жодних аргументів для спростування.
Звинувачення третє: в експериментальному порівнянні «одна рука зв’язана, інша з ножем».
Це найсильніше звинувачення в усьому тексті. Гао Цзяньян зазначив, що стаття TurboQuant в експерименті порівняння швидкості наклала два рівні несправедливих умов:
По-перше, RaBitQ офіційно надала оптимізований C++ код (за замовчуванням підтримує багатопотокову обробку), але команда TurboQuant не використала його, а протестувала RaBitQ за допомогою власної версії на Python. По-друге, для тестування RaBitQ використовувався однокореневий ЦП і вимкнено багатопотокове виконання, тоді як TurboQuant використовував NVIDIA A100 GPU.
Ефект цих двох умов в сумі: читачі бачать висновок, що «RaBitQ повільніше TurboQuant на декілька порядків», але не можуть знати, що це висновок базується на тому, що команда Google зв’язала руки супернику, перш ніж почати бігти. У статті недостатньо розкрито різниці в умовах експерименту.
Відповідь Google: «Випадковий оберт - це загальна технологія, неможливо посилатися на кожну статтю»
Згідно з інформацією від Гао Цзяньяна, команда TurboQuant у відповіді на електронний лист у березні 2026 року заявила: «Використання випадкового обертання і перетворення Джонсона-Лінденштейна вже є стандартними технологіями в цій області, ми не можемо послатися на кожну статтю, що використовує ці методи».
Команда Гао Цзяньяна вважає, що це є спробою підміни понять: питання не в тому, чи потрібно посилатися на всі статті, що використовують випадкове обертання, а в тому, що RaBitQ є першою роботою, яка в повністю аналогічних умовах поєднала цей метод зі стисненням векторів і довела його оптимальність, стаття TurboQuant повинна точно описати зв’язок між ними.
Офіційний аккаунт Stanford NLP Group перепостив заяву Гао Цзяньяна. Команда Гао Цзяньяна вже опублікувала відкритий коментар на платформі OpenReview ICLR і подала офіційну скаргу до голови конференції ICLR та етичного комітету, в подальшому також буде опубліковано детальний технічний звіт на arXiv.
Незалежний технічний блогер Даріо Сальваті в своєму аналізі дав відносно нейтральну оцінку: TurboQuant дійсно має реальний внесок у математичному методі, але зв’язок з RaBitQ набагато тісніший, ніж викладено в статті.
Зникнення 90 мільярдів доларів капіталізації: суперечка навколо статті в поєднанні з ринковою панікою
Ця академічна суперечка сталася в надзвичайно делікатний момент. Після того, як Google 24 березня опублікував TurboQuant через офіційний блог, глобальний ринок чіпів пам’яті зазнав різкого падіння. За повідомленнями CNBC та інших ЗМІ, акції Micron Technology падали протягом шести торгових днів, загальна падіння перевищила 20%; акції SanDisk впали на 11% за один день; південнокорейська SK Hynix знизилася приблизно на 6%, Samsung Electronics впала майже на 5%, а японська Kioxia впала приблизно на 6%. Логіка паніки на ринку проста і жорстка: якщо програмне стиснення може знизити потреби пам’яті для висновків AI в 6 разів, перспективи попиту на чіпи пам’яті зазнають структурного зниження.
Аналізатор Morgan Stanley Джозеф Мур у звіті 26 березня спростував цю логіку, підтримуючи рейтинг «купити» для Micron і SanDisk. Мур зазначив, що TurboQuant стискає лише специфічний тип кешу KV Cache, а не загальне використання пам’яті, і охарактеризував це як «нормальне поліпшення продуктивності». Аналітик Wells Fargo Ендрю Роча також посилався на парадокс Джевонса, стверджуючи, що підвищення ефективності може знизити витрати, а потім стимулювати більш масштабне впровадження AI, в результаті чого зрештою зросте потреба в пам’яті.
Стара стаття, нова упаковка: ризики ланцюга передачі наративу від дослідження AI до ринку
Згідно з аналізом технічного блогера Бена Пулядіана, стаття TurboQuant була опублікована в квітні 2025 року і не є новим дослідженням. 24 березня Google повторно просунув її через офіційний блог, але ринок сприйняв її як новий прорив для ціноутворення. Ця стратегія просування «стара стаття, нова публікація», поєднана з можливими експериментальними упередженнями в статті, відображає систематичні ризики в ланцюгу передачі наративу від наукових статей до ринкових наративів.
Для інвесторів в інфраструктуру штучного інтелекту, коли стаття стверджує, що досягнуто «декількох порядків» підвищення продуктивності, перш за все потрібно запитати, чи є умови для порівняння еталонів справедливими.
Команда Гао Цзяньяна вже чітко заявила, що продовжить домагатися офіційного вирішення проблеми. Google поки не дав офіційної відповіді на конкретні звинувачення з відкритого листа.