NVIDIA ne rachète pas Groq, mais Jensen réalise une masterclass surprise à ne pas manquer

NVIDIA, sous la direction de son PDG Jensen Huang, a surpris l’industrie avec un partenariat inattendu avec Groq, une entreprise spécialisée dans le hardware AI. Ces technologies de pointe pourraient permettre à NVIDIA de prendre le dessus sur les charges de travail d’inférence.

Accord non-exclusif à 20 milliards €

D’après CNBC, NVIDIA serait en passe de « débourser » 20 milliards € pour Groq, une transaction qui pourrait être la plus importante de l’histoire de l’entreprise. Si certains craignent des investigations réglementaires, Groq a confirmé qu’il s’agissait d’un « accord de licence non exclusif » permettant à NVIDIA d’accéder à des technologies d’inférence. Cette manœuvre évite ainsi les complications d’un rachat officiel.

Nous intégrons les processeurs à faible latence de Groq dans l’architecture de ce usine AI, élargissant ainsi ce plateforme pour couvrir une gamme plus vaste de charges de travail d’inférence. Nous ajoutons des talents à ce équipe, mais nous n’acquérons pas Groq en tant qu’entreprise.

– Jensen Huang, PDG de NVIDIA

Jensen Huang semble avoir exécuté une stratégie appelée « Reverse Acqui-hire », vue chez Microsoft avec son acquisition d’Inflection. Ce type d’accord permet d’éviter les enquêtes de la FTC en qualifiant une transaction de licence plutôt que de fusion.

Architecture LPU de Groq : un atout pour NVIDIA

La technologie de Groq, particulièrement son architecture LPU (Language Processing Units), pourrait révolutionner le domaine de l’inférence AI. Alors que d’autres géants comme Google développent leur propre hardware, Groq propose un écosystème capable de répondre aux exigences croissantes en matière de calcul. Les entreprises hyperscale, cherchant à maximiser leur retour sur investissement, vont se tourner vers des solutions rapides et prédictibles, comme celles offertes par Groq.

À lire :  Des fuites de NVIDIA affirment qu'une déclinaison de 9 Go de GeForce RTX 5050 est imminente

Groq a démontré que ses LPUs offrent jusqu’à 80 To/s de bande passante interne avec une latence nettement inférieure à celle des technologies concurrentes. Le secret réside dans l’utilisation de la SRAM, qui permet d’améliorer l’efficacité énergétique et le débit par rapport aux solutions traditionnelles reposant sur la DRAM.

Les LPUs pourraient également optimiser l’exécution des tâches d’inférence, rendant leur intégration dans l’écosystème NVIDIA potentiellement transformative. Offrir ces unités dans des systèmes d’inférence à grande échelle semble être une voie prometteuse pour l’avenir.

NVIDIA pourrait se positionner comme un acteur essentiel dans l’évolution des tâches d’inférence AI, surtout avec l’architecture LPU de Groq. L’avenir des charges de travail d’inférence semble orienté vers une adoption massive de ces technologies, grâce à ce partenariat stratégique.

Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Comment supprimer Coil Whine carte graphique

Vous pourriez aussi aimer