Suchergebnisse für "GPT"
2026-03-27
05:07

20B-Kleinmodell-Suchfähigkeit erreicht GPT-5 und Opus: Vektordatenbank Chroma Open Source Agent Suchmodell Context-1

Das Open-Source-Vektor-Datenbank Chroma hat Context-1 veröffentlicht, ein Suchmodell mit 20 Milliarden Parametern für Multi-Runden-Abfragen. Das Modell verwendet eine selbsteditierende Kontexttechnik und wurde mittels Reinforcement Learning und Kursmechanismen auf Multiple-Task-Training optimiert, zeigt hervorragende Leistungen, insbesondere in den Bereichen Web, Finanzen und Recht, und demonstriert auch branchenübergreifende Suchfähigkeiten im E-Mail-Bereich.
Mehr
04:22

Ist der „GPT-Moment" für verkörperte KI bereits in Reichweite? Axis Robotics kündigt Ende der Tests an und wird bald auf der Base-Chain gelauncht

> Quelle: Axis Axis Robotics strukturiert die Datendiversität und die skalierbare Produktion von verkörperter KI durch eine Simulations-First-Strategie neu. Im Jahr 2025 konvergieren mehrere technische Pfade in der Robotikbranche schnell: Die Kommerzialisierung von Lieferketten für embodied Hardware ermöglicht es ehemaligen teuren Prototypen erstmals, in großem Maßstab umgesetzt zu werden; Vision-Language-Action (VLA) Modelle bringen Robotern ein „Gehirn" mit semantischem Verständnis, Argumentation und Planung; und die mehrschichtige Datenpyramide von Video-Priors bis zu Simulationssynthese liefert kontinuierlich Brennstoff für die fortlaufende Evolution von verkörperter KI. Allerdings steht die Branche immer noch vor einem kritischsten Engpass: Daten. Im Vergleich zu großen Sprachmodellen und autonomem Fahren fehlt es der verkörperten KI in der Vortrainingsphase immer noch an enormen Mengen an Daten.
Mehr
01:39

AI-Programmierwerkzeug Cursor veröffentlicht Composer 2-Modell mit besserer Leistung als Opus 4.6, Preis auf 14% des Vormodells gesenkt

Cursor veröffentlichte am 20. März die dritte Generation des Programmiermodells Composer 2 mit drastisch gesenkten Preisen von $0,50 pro Million Token für Eingaben und $2,50 für Ausgaben, zusammen mit einer schnellen Version. Composer 2 übertrifft die Vorgängerversion in mehreren Benchmark-Tests, bleibt aber unter GPT-5.4. Die Verbesserungen stammen hauptsächlich aus fortgesetztem Pre-Training des Basis-Modells und verstärktem Lernen. Das Modell ist nur zur internen Verwendung durch Cursor verfügbar, und die Muttergesellschaft Anysphere wird auf $29,3 Milliarden bewertet.
Mehr
00:02

OpenAI veröffentlicht GPT-5.4 mini und nano, Preisgestaltung bis zu 4-mal höher als Vorgängermodell

OpenAI hat am 18. März neue Modelle GPT-5.4 mini und GPT-5.4 nano veröffentlicht, die für Multimodal- und Programmierszenarien konzipiert sind und erheblich höhere Preisgestaltung aufweisen. GPT-5.4 mini zeigt überlegene Leistung in Programmier-Benchmarks, unterstützt großflächige Kontexte und Multifunktionsvorgänge. Darüber hinaus werden Benutzer der kostenlosen ChatGPT-Version auch die neue Reasoning-Funktion nutzen können.
Mehr
15:32

Rakuten-Gruppe veröffentlicht japanisches großes Sprachmodell Rakuten AI 3.0, das Kontreverse auslöst, da es angeblich auf DeepSeek-Architektur basiert

Rakuten Group führte am 17. März das auf Japanisch spezialisierte Large Language Model Rakuten AI 3.0 ein und behauptete, GPT-4o in mehreren japanischen Tests zu übertreffen. Nutzer entdeckten jedoch, dass das Modell möglicherweise auf DeepSeek basiert, und stellten Fragen zur seiner Ausrichtung gegenüber China sowie zur Authentizität der eigenständigen Forschungs- und Entwicklungstechnologie auf, was zu Diskussionen führte.
Mehr
08:53

Rakuten veröffentlicht Rakuten AI 3.0 Modell, Konfigurationsdatei zeigt, dass die zugrunde liegende Architektur DeepSeek V3 ist

Rakuten Group hat am 17. März ein leistungsstarkes KI-Modell namens Rakuten AI 3.0 veröffentlicht, das 671 Milliarden Parameter umfasst und für die japanische Sprache optimiert wurde. Es soll in mehreren Benchmark-Tests GPT-4o übertreffen. Das Modell wird kostenlos unter der Apache 2.0-Lizenz als Open Source bereitgestellt, basiert auf einer Feinabstimmung des DeepSeek V3-Modells und erhielt Unterstützung durch Rechenkapazitäten der japanischen Regierung.
Mehr
03:23

OpenClaw Gründer teilen die Rangliste der Anpassungsfähigkeit von KI-Modellen, wobei die inländischen Modelle minimax-m2.1 und kimi-k2.5 auf den Plätzen 2 und 3 liegen.

OpenClaw-Gründer Peter Stanberg teilte die Benchmark-Ergebnisse von PinchBench, die zeigen, dass Gemini 3 Flash mit einer Erfolgsquote von 95,1% bei Proxy-Aufgaben den ersten Platz belegt, inländische Modelle wie minimax-m2.1 und kimi-k2.5 belegen den zweiten und dritten Platz mit Erfolgsquoten von 93,6% bzw. 93,4%. Andere Modelle wie Claude Sonnet 4.5 und GPT-4o schneiden schlechter ab.
Mehr