Découvrez le plus petit ‘superordinateur’ de Tiiny AI, capable de faire fonctionner 120B modèles d’IA dans la paume de votre main
Les dispositifs d’IA compacts séduisent de plus en plus, et une nouvelle startup a levé le voile sur le plus petit superordinateur dédié à l’IA, qui affiche des caractéristiques impressionnantes.
Tiiny : Le Superordinateur de Poche
L’IA Edge émerge comme un segment clé de l’industrie informatique, permettant d’exécuter des modèles open source sur des machines locales pour une utilisation plus personnalisée. Toutefois, pour y parvenir, un hardware coûteux est souvent nécessaire. Des dispositifs comme le DGX Spark de NVIDIA, à 4 000 €, ne sont pas accessibles au grand public. La startup Tiiny AI propose une alternative abordable avec le Tiiny AI Pocket Lab, présenté comme le ‘plus petit’ superordinateur au monde.
Mesurant seulement 14,2 × 8 × 2,53 cm pour un poids de 300 g, ce superordinateur serait capable de déployer des modèles à 120 milliards de paramètres, une première dans son domaine. Les LLM compatibles assurent un raisonnement de niveau doctoral, une analyse complexe et une compréhension approfondie. L’AI Pocket Lab se positionne comme idéal non seulement pour les consommateurs, mais aussi pour les développeurs cherchant à expérimenter le déploiement local de LLM.
Caractéristiques Techniques du Tiiny AI Pocket Lab
| Catégorie | Caractéristiques |
|---|---|
| Processeur | CPU ARMv9.2 12 cœurs |
| Puissance de Calcul IA | Module hétérogène personnalisé (SoC + dNPU), ≈ 190 TOPS |
| Mémoire & Stockage | 80 Go LPDDR5X RAM + 1 To SSD |
| Capacité du Modèle | Exécute des LLM jusqu’à 120B paramètres entièrement sur le dispositif |
| Efficacité Énergétique | 30W TDP, ~65W en puissance système typique |
| Dimensions & Poids | 14,2 × 8 × 2,53 cm, ~300g (taille poche) |
| Écosystème | Déploiement en un clic pour de nombreux LLM open source et cadres d’agents |
| Connectivité | Fonctionnement entièrement hors ligne — sans Internet ni cloud |
D’après Tiiny AI, l’AI Pocket Lab prend en charge des modèles tels que GPT-OSS, Llama, Qwen, DeepSeek, Mistral, et Phi. Notamment, il offre 190 TOPS grâce à une NPU dédiée et utilise 80 Go de RAM LPDDR5X, permettant une quantification agressive pour un fonctionnement fluide des modèles de 120B. La startup a intégré deux techniques clés pour y parvenir :
TurboSparse améliore l’efficacité d’inférence tout en maintenant l’intelligence complète du modèle.
PowerInfer, un moteur d’inférence hétérogène open source, optimise les charges de travail LLM en répartissant la computation entre CPU et NPU, offrant des performances de niveau serveur à une fraction de la consommation d’énergie habituelle.
Ce dispositif sera présenté lors du CES 2026. Bien que les détails concernant la date de sortie et la disponibilité en site marchand manquent encore, l’AI Pocket Lab semble avoir un potentiel considérable sur le marché. Son entrée dans l’industrie sera à surveiller de près.



