OpenAI hat in diesem Jahr seine Kapazität um das 9-fache erhöht und hat das Ziel, bis 2033 um weitere 125x zu wachsen, wodurch die aktuelle Energiekapazität ganz Indiens überschritten wird - laut @alexeheath Berichterstattung über @sama's interne Slack-Notiz.
Eine Sache, die zu beachten ist, ist, dass die Erhöhung der Energiekapazität um 125x die Steigerung der Rechenleistung unterschätzt, da Nvidia hart daran arbeitet, die 'Intelligenz pro Watt' zu erhöhen, sodass die effektive Rechenleistung viel höher sein könnte.
Die Menge an Rechenleistung, die Labore haben, wächst dramatisch. Zum Beispiel hat @OpenAI 14-mal mehr Rechenleistung als bei der Einführung von GPT-4. @xAI wächst die Rechenleistung extrem schnell und sie haben die verfügbare Rechenleistung zwischen den Veröffentlichungen von Grok 3 und Grok 4 verdoppelt.
@AnthropicAI hat die geringste Rechenleistung, aber sie waren sehr effizient darin, Rechenleistung in hochgradig erfolgreiche Modelle umzuwandeln. Zum Beispiel wurde Claude 3.5 mit etwa einem Fünftel der Rechenleistung eingeführt, die Anthropic jetzt hat.
Hinweis: Die Daten schließen @GoogleDeepMind aus, das wahrscheinlich die meiste Rechenleistung hat, obwohl nicht klar ist, wie konzentriert sie für das Training von LLMs ist.
Quelle: @SemiAnalysis_