Skip to main content

Installation de machine avec RT Kernel et accélération graphique

Que ce soit pour LeRobot, pour AICA, ou en général pour utiliser des modèles d'IA, l'installation de Linux avec les bons drivers graphiques n'est pas toujours aisé.

On veut accéder dans Docker aux capacités Compute d'un GPU, essentiellement fournie par NVidia Cuda. On différentiera l'installation d'un serveur qui n'a pas besoin de l'accélération graphique liée à l'affichage, ni de capacités temps-réel, contrairement à un PC de commande de robot.

Vérification de la compatibilité

On a une carte graphique donnée :

On a une application d'IA donnée :

  • d

GPU NVidia anciens / legacy

On a une carte graphique donnée :

  • Vérification du Compute Capability https://developer.nvidia.com/cuda/gpus/legacy
  • On conseille de laisser tomber l'IA avec des Compute Capability de 5.0 ou inférieur
  • Si on a une Compute Capability entre 5.2 et 7.2 , on peut envisager des choses c'est compliqué

 

https://pytorch.org/get-started/previous-versions/

Avec pytorch 2.1.1 et 2.2.0 , c'est cuddn 8.9.2 qui est installé par défaut