Utilisation de grands modèles de langage localement en recherche
Description
Atelier - Utilisation de grands modèles de langage localement en recherche
Introduction
L'intégration des grands modèles de langage (LLM) sur site offre des avantages significatifs pour la recherche scientifique. Elle permet de garantir la confidentialité des données sensibles, d'assurer la propriété intellectuelle et de personnaliser les analyses en fonction des besoins spécifiques des projets. En déployant ces outils localement ou sur des infrastructures de calcul scientifique (comme les grappes HPC), les chercheur·es assurent la reproductibilité des résultats, indépendamment des plateformes externes ou des décisions commerciales.
La palette de modèles disponibles (Llama, Qwen, Gemma, etc.) permet aux chercheur·es d'adapter leur choix aux spécificités de leur domaine. Bien que le matériel informatique (comme les GPU) et une formation initiale soient nécessaires, l'existence de logiciels libres ou au code source ouvert rend cette approche accessible. Cette présentation vise à illustrer comment intégrer l'intelligence artificielle dans le traitement des données tout en valorisant l'autonomie, la transparence et la conformité aux normes éthiques de recherche.
Objectif de l'atelier
Cet atelier vise à familiariser les chercheur·es avec des outils d'IA générative capables de fonctionner hors ligne, tels que Ollama et la bibliothèque Transformers pour Python.
Les exemples concrets abordés incluront :
-
La génération de données synthétiques à l'aide de l'interface locale Open Web UI,
-
L'exécution d'un modèle sur une grappe HPC via le système de modules CVMFS utilisé par les infrastructures canadiennes.
Les codes sources et guides d'installation seront mis à disposition lors de la présentation, facilitant ainsi l'expérimentation et la mise en œuvre pratique.
Le formateur : François Pelletier
François Pelletier est entrepreneur du numérique et scientifique de données actif dans les secteurs de l'assurance et de la santé. Il détient une maîtrise en actuariat (2014) et a suivi le microprogramme en systèmes logiciels intelligents (2019).
Ses intérêts portent sur les enjeux de protection des données personnelles, les impacts sociaux des technologies numériques, ainsi que l’exploitation de la puissance de calcul locale dans le cadre de l’inférence d’apprentissage automatique, notamment pour les modèles de langage.
Using large language models locally in research
Introduction
Integrating large language models (LLMs) on-site offers significant advantages for scientific research. It ensures the confidentiality of sensitive data, protects intellectual property, and allows for customized analyses tailored to specific project needs. By deploying these tools locally or on scientific computing infrastructures (such as HPC clusters), researchers guarantee the reproducibility of their results, independent of external platforms or commercial decisions.
The range of available models (such as Llama, Qwen, and Gemma) enables researchers to select the best fit for their specific field. While hardware (like GPUs) and initial training are required, the availability of free or open-source software makes this approach accessible. This presentation aims to illustrate how to integrate artificial intelligence into data processing while promoting autonomy, transparency, and compliance with ethical research standards.
Goals of this workshop
This workshop aims to familiarize researchers with generative AI tools that can operate offline, such as Ollama and the Transformers library for Python.
The concrete examples covered will include:
- Generating synthetic data using the local Open Web UI interface,
- Running a model on an HPC cluster via the CVMFS module system used by Canadian infrastructures.
The source codes and installation guides will be provided during the presentation, facilitating experimentation and practical implementation.
About the speaker: François Pelletier
François Pelletier is a tech entrepreneur and data scientist working in the insurance and healthcare sectors. He holds a Master’s degree in Actuarial Science (2014) and completed a microprogram in Intelligent Software Systems (2019).
His interests focus on personal data protection issues, the social impacts of digital technologies, and the use of local computing power for machine learning inference, particularly for large language models.
Files
2025-02-27-llm-on-hpc-english.pdf
Additional details
Additional titles
- Subtitle (French)
- Utilisation de Ollama et Open Web UI sur son ordinateur local ou de l'infrastructure cloud
- Subtitle (French)
- Utilisation de Python et Transformers sur une infrastructure HPC
- Translated title
- Using Large Language Models Locally in Research
Dates
- Submitted
-
2205-11-27Présenté à la journée des professionnels de recherche Université Laval
- Issued
-
2025-12-07
- Updated
-
2026-02-27Added English version presented at SADC Ste-Justine
Software
- Repository URL
- https://git.jevalide.ca/partage/llm-sur-hpc
- Programming language
- Python , Shell
- Development Status
- Active