Laut den Überwachungsdaten von 1M AI News hat OpenAI-Mitgründer Greg Brockman in einem Interview den sprunghaften Anstieg der KI-Programmierungsfähigkeiten im Dezember 2025 rückblickend beschrieben. Er nutzte dafür einen Test-Prompt, den er seit Jahren zurückhält: die KI dabei zu lassen, eine Website zu bauen, die damals, als er das Programmieren gelernt hatte, ihn mehrere Monate gekostet hatte. Im gesamten Jahr 2025 brauchte diese Aufgabe mehrere Prompt-Runden und etwa vier Stunden, um fertig zu werden; im Dezember reichte dann ein einzelner Prompt – und die Qualität war zudem sehr gut. Er sagte, dass das neue Modell die KI von „kann etwa 20% der Aufgaben schaffen“ auf „etwa 80%“ gebracht habe. Dieser Sprung zwinge alle dazu, „die Arbeitsabläufe rund um die KI neu zu organisieren“.
Für die Frage, wohin das 11-Milliarden-US-Dollar-Funding fließt, vergleicht Brockman Rechenleistung mit „Sales-Personal“: Solange ein Produkt skalierbare Vertriebskanäle hat, bringt das Einstellen von mehr Sales-Personal mehr Umsatz. Rechenleistung sei kein Kosten-, sondern ein Erlöszentrum. Er erinnert sich an ein Gespräch mit dem Team kurz vor der Veröffentlichung von ChatGPT: „Sie fragten: ‚Wie viel Rechenleistung sollen wir kaufen?‘ Ich sagte: ‚Alles.‘ Sie sagten: ‚Nein, nein, im Ernst: Wie viel genau sollen wir kaufen?‘ Ich sagte: ‚Egal, wie wir es bauen, wir kommen nicht mit der Nachfrage hinterher.‘“ Dieses Urteil gilt bis heute, und der Einkauf von Rechenleistung muss 18 bis 24 Monate im Voraus gesichert werden.
Zur Frage, wie man diese Rechenleistung nutzt, verriet Brockman, dass OpenAI nicht mehr nur auf die größte mögliche Vortrainingskapazität setzt, sondern Vortraining und die Kosten des Schlussfolgerns als gemeinsam zu optimierendes Ziel behandelt: „Man muss nicht unbedingt so groß wie möglich werden, weil man auch die vielen nachgelagerten Szenarien für umfangreiche Schlussfolgerungen berücksichtigen muss. Was du wirklich willst, ist die optimale Lösung aus Intelligenz multipliziert mit Kosten.“ Gleichzeitig lehnt er jedoch die Aussage „Vortraining ist nicht mehr wichtig“ ausdrücklich ab. Er ist der Ansicht, dass je intelligenter das Basismodell ist, desto effizienter sind die nachfolgenden Phasen des Reinforcement Learnings und des Schlussfolgerns. Daher „braucht man absolut“ GPUs von Nvidia, um groß angelegtes, zentrales Training zu ermöglichen.