Les rumeurs ont circulé selon lesquelles OpenAI se préparait à exécuter ses modèles sur les unités de traitement tensoriel développées par Google, connues sous le nom de TPUs. Mais OpenAI a précisé que, pour l'instant, il n'y a pas de plans pour déployer les puces internes de Google à grande échelle.
Un porte-parole explique qu'OpenAI teste les TPUs mais son principal outil reste les GPUs de Nvidia et les processeurs d'IA d'AMD. L'adoption d'une nouvelle plateforme matérielle à grande échelle prend du temps, nécessite de retravailler les logiciels et d'ajuster l'architecture du système—pas une mince affaire lorsqu'on alimente des services utilisés par des millions de personnes à travers l'Afrique, l'Amérique latine et l'Asie.
Pendant ce temps, OpenAI s'efforce également de finaliser son propre processeur personnalisé. Le projet est en bonne voie pour atteindre l'étape de finalisation plus tard cette année, ce qui signifie que la conception sera verrouillée et envoyée pour fabrication.
Il est intéressant de noter qu'OpenAI a récemment lancé Google Cloud services pour augmenter sa capacité. Ce partenariat montre comment même les concurrents acharnés peuvent collaborer en coulisses. Cependant, la majeure partie du travail sera effectuée par les serveurs GPU exploités par CoreWeave, un nouvel acteur dans le domaine du cloud.
Google a ouvert l'accès à ses TPUs autrefois internes, et cela a attiré de grands noms comme Apple ainsi que des startups issues d'anciens leaders d'OpenAI, comme Anthropic et Safe Superintelligence.
La feuille de route d'OpenAI combine des GPUs éprouvés, des puces AMD, des tests sélectifs de TPUs et une conception interne. Cela nous rappelle que dans le monde du matériel d'IA, la route la plus rapide n'est pas toujours une ligne droite—parfois, il faut construire sa propre route.
Reference(s):
cgtn.com