Es ist äußerst gut, dass Anthropic nicht nachgegeben hat, und es ist bedeutend, dass OpenAI eine ähnliche Haltung eingenommen hat.
In der Zukunft wird es viel herausforderndere Situationen dieser Art geben, und es wird entscheidend sein, dass die relevanten Führungskräfte sich der Herausforderung stellen und dass erbitterte Konkurrenten ihre Differenzen beiseitelegen. Gut zu sehen, dass das heute passiert.
Es ist äußerst gut, dass Anthropic nicht nachgegeben hat, und es ist bedeutend, dass OpenAI nun die gleichen Bedingungen angenommen hat.
In Zukunft wird es viel herausforderndere Situationen dieser Art geben, und es wird entscheidend sein, dass die relevanten Führungskräfte sich der Herausforderung stellen und dass erbitterte Konkurrenten ihre Differenzen beiseitelegen. Gut zu sehen, dass das heute passiert ist.
Ein Punkt, den ich gemacht habe, der nicht rüberkam:
- Die Skalierung des aktuellen Systems wird weiterhin zu Verbesserungen führen. Insbesondere wird es nicht stagnieren.
- Aber etwas Wichtiges wird weiterhin fehlen.
hier sind die wichtigsten Punkte aus dem heutigen Podcast mit Ilya Sutskever:
- Superintelligenz in 5-20 Jahren
- Aktuelles Scaling wird stark stagnieren; wir sind zurück zu echter Forschung
- Superintelligenz = super-schneller kontinuierlicher Lerner, kein fertiger Orakel
- Modelle generalisieren 100x schlechter als Menschen, der größte AGI-Hindernis
- Brauchen ein völlig neues ML-Paradigma (ich habe Ideen, kann ich gerade nicht teilen)
- Die Auswirkungen von AI werden stark spürbar sein, aber erst nach wirtschaftlicher Diffusion
- Durchbrüche benötigten historisch fast keine Rechenleistung
- SSI hat genug fokussierte Forschungsrechenleistung, um zu gewinnen
- Aktuelles RL benötigt bereits mehr Rechenleistung als das Pre-Training