L'API Realtime est officiellement sortie de la phase bêta et prête pour vos agents vocaux en production !
Nous introduisons également gpt-realtime—notre modèle de conversion de la parole en parole le plus avancé à ce jour—ainsi que de nouvelles voix et capacités API :
🔌 MCPs distants
🖼️ Entrée d'image
📞 Appels téléphoniques SIP
♻️ Prompts réutilisables
🫡 Assistants
Nous mettons fin à la version bêta de l'API Assistants. Elle sera arrêtée dans un an, le 26 août 2026. Nous avons préparé un guide pour vous aider à migrer vers l'API Responses : .
Les Assistants étaient notre première approche sur la façon dont les agents pouvaient être construits (avant les modèles de raisonnement). Dans l'annonce de l'API Responses, nous avons dit que nous suivrions la dépréciation de l'API Assistants une fois que Responses atteindrait la parité fonctionnelle — et c'est désormais le cas. En fonction de vos retours, nous avons intégré les meilleures parties des Assistants dans Responses, y compris l'interpréteur de code et les conversations persistantes.
Les Responses sont plus simples et incluent des outils intégrés (recherche approfondie, MCP et utilisation de l'ordinateur). Avec un seul appel, vous pouvez exécuter des flux de travail multi-étapes à travers des outils et des tours de modèle. Et avec GPT-5, les tokens de raisonnement sont préservés entre les tours.
L'API Responses a déjà dépassé les Complétions de Chat en activité de tokens. C'est notre chemin recommandé pour s'intégrer à l'API OpenAI aujourd'hui et pour l'avenir.
devenant rapidement un moyen populaire de partager des instructions avec des agents de codage dans votre dépôt.
Maintenant pris en charge dans Cursor, Amp, Jules, Factory, RooCode et Codex.
Le microsite est en ligne !
Considérez-le comme un README pour les agents : un format simple et ouvert pour guider les agents de codage.
C'était génial de travailler aux côtés de collègues de @AmpCode, @cursor_ai, @julesagent, @FactoryAI et @roo_code pour donner vie à ce projet !