Skip to main content

Installation de machine avec RT Kernel et accélération graphique

Que ce soit pour LeRobot, pour AICA, ou en général pour utiliser des modèles d'IA, l'installation de Linux avec les bons drivers graphiques n'est pas toujours aisé.

On veut accéder dans Docker aux capacités Compute d'un GPU, essentiellement fournie par NVidia Cuda. On différentiera l'installation d'un serveur qui n'a pas besoin de l'accélération graphique liée à l'affichage, ni de capacités temps-réel, contrairement à un PC de commande de robot.

Vérification de la compatibilité

On a une carte graphique donnée :

  • Vérification du Compute Capability https://developer.nvidia.com/cuda/gpus
  • Si on est dans cette liste, donc Compute Capability >= 7.5 c'est une bonne base
  • Si on n'y est pas, voirc'est plusqu'on basa une carte Legacy

Grâce à la compatibilité des versions mineures de Nvidia CUDA, une application d'IA compilée avec CUDA 11.8 peut être exécutée avec n'importe laquelle des version CUDA 11.x. Idem pour CUDA 12.x .

Par contre une application compilée avec cuDNN 8.x n'est pas compatible avec cuDNN 9.x .

PyTorch 2.3 et inférieur utilisent cuDNN 8.x

PyTorch 2.4 et supérieur utilisent cuDNN 9.x

Il faut donc choisir la version de Pytorch en fonction des versions de CUDA et cuDNN qui sont compatibles avec l'environnement d'exécution (carte graphique et driver)

On a une application d'IA donnéee, par exemple YOLO :

GPU NVidia anciens / legacyLegacy

On a une carte graphique donnée :

  • Vérification du Compute Capability https://developer.nvidia.com/cuda/gpus/legacy
  • On conseille de laisser tomber l'IA avec des Compute Capability de 5.0 ou inférieur
  • Si on a une Compute Capability entre 5.2 et 7.2 , on peut envisager des choses c'est compliqué

 

https://pytorch.org/get-started/previous-versions/

Avec pytorch 2.1.1 et 2.2.0 , c'est cuddn 8.9.2 qui est installé par défaut