Installation de machine avec RT Kernel et accélération graphique
Que ce soit pour LeRobot, pour AICA, ou en général pour utiliser des modèles d'IA, l'installation de Linux avec les bons drivers graphiques n'est pas toujours aisé.
On veut accéder dans Docker aux capacités Compute d'un GPU, essentiellement fournie par NVidia Cuda. On différentiera l'installation d'un serveur qui n'a pas besoin de l'accélération graphique liée à l'affichage, ni de capacités temps-réel, contrairement à un PC de commande de robot.
Vérification de la compatibilité
On a une carte graphique donnée :
- Vérification du Compute Capability https://developer.nvidia.com/cuda/gpus
- Si on est dans cette liste, donc Compute Capability >= 7.5 c'est une bonne base
- Si on n'y est pas, voir plus bas
On a une application d'IA donnée :
- d
GPU NVidia anciens / legacy
On a une carte graphique donnée :
- Vérification du Compute Capability https://developer.nvidia.com/cuda/gpus/legacy
- On conseille de laisser tomber l'IA avec des Compute Capability de 5.0 ou inférieur
- Si on a une Compute Capability entre 5.2 et 7.2 , on peut envisager des choses c'est compliqué
https://pytorch.org/get-started/previous-versions/
Avec pytorch 2.1.1 et 2.2.0 , c'est cuddn 8.9.2 qui est installé par défaut