Published February 27, 2026 | Version v2
Presentation Open

Utilisation de grands modèles de langage localement en recherche

  • 1. ROR icon Université Laval

Description

Atelier - Utilisation de grands modèles de langage localement en recherche

Introduction

L'intégration des grands modèles de langage (LLM) sur site offre des avantages significatifs pour la recherche scientifique. Elle permet de garantir la confidentialité des données sensibles, d'assurer la propriété intellectuelle et de personnaliser les analyses en fonction des besoins spécifiques des projets. En déployant ces outils localement ou sur des infrastructures de calcul scientifique (comme les grappes HPC), les chercheur·es assurent la reproductibilité des résultats, indépendamment des plateformes externes ou des décisions commerciales.

La palette de modèles disponibles (Llama, Qwen, Gemma, etc.) permet aux chercheur·es d'adapter leur choix aux spécificités de leur domaine. Bien que le matériel informatique (comme les GPU) et une formation initiale soient nécessaires, l'existence de logiciels libres ou au code source ouvert rend cette approche accessible. Cette présentation vise à illustrer comment intégrer l'intelligence artificielle dans le traitement des données tout en valorisant l'autonomie, la transparence et la conformité aux normes éthiques de recherche.

Objectif de l'atelier

Cet atelier vise à familiariser les chercheur·es avec des outils d'IA générative capables de fonctionner hors ligne, tels que Ollama et la bibliothèque Transformers pour Python.

Les exemples concrets abordés incluront :

  • La génération de données synthétiques à l'aide de l'interface locale Open Web UI,

  • L'exécution d'un modèle sur une grappe HPC via le système de modules CVMFS utilisé par les infrastructures canadiennes.

Les codes sources et guides d'installation seront mis à disposition lors de la présentation, facilitant ainsi l'expérimentation et la mise en œuvre pratique.

Le formateur : François Pelletier

François Pelletier est entrepreneur du numérique et scientifique de données actif dans les secteurs de l'assurance et de la santé. Il détient une maîtrise en actuariat (2014) et a suivi le microprogramme en systèmes logiciels intelligents (2019).

Ses intérêts portent sur les enjeux de protection des données personnelles, les impacts sociaux des technologies numériques, ainsi que l’exploitation de la puissance de calcul locale dans le cadre de l’inférence d’apprentissage automatique, notamment pour les modèles de langage.

 

Using large language models locally in research

Introduction

Integrating large language models (LLMs) on-site offers significant advantages for scientific research. It ensures the confidentiality of sensitive data, protects intellectual property, and allows for customized analyses tailored to specific project needs. By deploying these tools locally or on scientific computing infrastructures (such as HPC clusters), researchers guarantee the reproducibility of their results, independent of external platforms or commercial decisions.

The range of available models (such as Llama, Qwen, and Gemma) enables researchers to select the best fit for their specific field. While hardware (like GPUs) and initial training are required, the availability of free or open-source software makes this approach accessible. This presentation aims to illustrate how to integrate artificial intelligence into data processing while promoting autonomy, transparency, and compliance with ethical research standards.

Goals of this workshop

This workshop aims to familiarize researchers with generative AI tools that can operate offline, such as Ollama and the Transformers library for Python.

The concrete examples covered will include:

  • Generating synthetic data using the local Open Web UI interface,
  • Running a model on an HPC cluster via the CVMFS module system used by Canadian infrastructures.

The source codes and installation guides will be provided during the presentation, facilitating experimentation and practical implementation.

About the speaker: François Pelletier

François Pelletier is a tech entrepreneur and data scientist working in the insurance and healthcare sectors. He holds a Master’s degree in Actuarial Science (2014) and completed a microprogram in Intelligent Software Systems (2019).

His interests focus on personal data protection issues, the social impacts of digital technologies, and the use of local computing power for machine learning inference, particularly for large language models.

Files

2025-02-27-llm-on-hpc-english.pdf

Files (1.7 MB)

Name Size Download all
md5:e7f952458558690f902e14cc37dd1ade
364.1 kB Preview Download
md5:6f0f81a70d56a4b4670b3de19f0bdfda
1.0 MB Preview Download
md5:86b81470ff2e0bc23fee7c0b9c6ab464
368.3 kB Preview Download

Additional details

Additional titles

Subtitle (French)
Utilisation de Ollama et Open Web UI sur son ordinateur local ou de l'infrastructure cloud
Subtitle (French)
Utilisation de Python et Transformers sur une infrastructure HPC
Translated title
Using Large Language Models Locally in Research

Dates

Submitted
2205-11-27
Présenté à la journée des professionnels de recherche Université Laval
Issued
2025-12-07
Updated
2026-02-27
Added English version presented at SADC Ste-Justine

Software

Repository URL
https://git.jevalide.ca/partage/llm-sur-hpc
Programming language
Python , Shell
Development Status
Active