Google a dévoilé TurboQuant, une technologie de compression algorithmique inédite capable de réduire drastiquement l’empreinte RAM nécessaire au fonctionnement des modèles d’intelligence artificielle. Cette innovation permet de faire tourner des modèles de langage complexes localement sur des appareils aux ressources limitées, comme des smartphones de milieu de gamme, sans perte de performance notable. Comparée par les experts à l'algorithme fictif de la série Silicon Valley, cette solution optimise l'utilisation des ressources matérielles de manière si efficace qu’elle pourrait mettre fin à la dépendance systématique au cloud pour l'IA générative. En levant l'un des principaux obstacles techniques actuels, Google s'apprête à démocratiser l'accès à l'IA de pointe pour des milliards d'utilisateurs.
ZDNet, Frandroid, TechCrunch.