De la théorie à la pratique !
Découvrez le fonctionnement d’un hébergement LLM (Large Language Model) en local qui permet d’utiliser une intelligence artificielle directement sur son ordinateur, sans dépendre d’Internet !
Vous souhaitez comprendre ce qu’est un LLM ? Comment le faire fonctionner et l’installer ? Au programme de cet atelier, préparation de l’environnement, installation de Docker, configuration de Llama et intéraction avec l’IA avec Open WebUI. Posez-lui ensuite des questions et expérimentez différents modèles. Ouvert à tous les amateurs d’IA !
6 places disponibles
Découvrez le fonctionnement d’un hébergement LLM (Large Language Model) en local qui permet d’utiliser une intelligence artificielle directement sur son ordinateur, sans dépendre d’Internet !
Vous souhaitez comprendre ce qu’est un LLM ? Comment le faire fonctionner et l’installer ? Au programme de cet atelier, préparation de l’environnement, installation de Docker, configuration de Llama et intéraction avec l’IA avec Open WebUI. Posez-lui ensuite des questions et expérimentez différents modèles. Ouvert à tous les amateurs d’IA !
6 places disponibles

