Bienvenue sur notre site !

Nous sommes l'association d'IA de CentraleSupélec. Nous cherchons à promouvoir la connaissance autour de l'Intelligence Artificielle qui sera un outil clé pour les ingénieurs de demain. Nous proposons des formations, pour apprendre de zéro, et des TPs pour s'entraîner.

Qui sommes nous ?

Constituée de personnes motivées, nous faisons rayonner l'Intelligence Artificielle sur le campus de CentraleSupélec

Nous réalisons des formations autour de l'IA, pour ceux qui veulent découvrir les méthodes et techniques pour créer sa propre IA. Ces formations sont accompagnées de TPs concrets pour apprendre et monter en compétence.

logo

Nos activités


Generative Adversarial Networks (GAN)

2023 - 2024

Dans cette formation, on vous présente les Generative Adversarial Networks, qu'on utilise pour générer des images !

Formation

Réseaux de Neurones à Convolution

2023 - 2024

Dans cette formation, vous découvrirez les réseaux de neurones à convolution (CNN), inspirés de la pensée humaine et qui permettent de déterminer par exemple si une image donnée est la photo d’un chien ou d’un chat !

Formation

Introduction à l'IA et aux Réseaux de Neurones

2023 - 2024

Première formation de cette année, c'est une introduction à l'IA et aux réseaux de neurones, accessible à tous !

Formation

Apprentissage par renforcement (Partie 2)

2022 - 2023

L’Apprentissage par Renforcement est un domaine fondamental de l’intelligence artificielle qui consiste à placer un agent dans un environnement afin d’apprendre, au fil de ses expériences, à prendre les actions qui maximisent la récompense de l’environnement.

Formation

Apprentissage par renforcement

2022 - 2023

L’Apprentissage par Renforcement est un domaine fondamental de l’intelligence artificielle qui consiste à placer un agent dans un environnement afin d’apprendre, au fil de ses expériences, à prendre les actions qui maximisent la récompense de l’environnement.

Formation

Boire du thé est-il une forme de régularisation ?

2022 - 2023

Dans cette formation, on aborde le travail de l'ingénieur.e ML sous l'angle de la "régularisation". Partant de la définition de ce terme, nous verrons en quoi le concept de régularisation peut englober tous les aspects de la sélection de modèle. Nous mettrons ensuite en pratique cette manière de penser et verrons diverses manières de résoudre un problème concret par des méthodes de régularisation. La formation se terminera par un brainstorming pour régulariser un modèle dans une situation fictive.

Formation

Réseaux Récurrents (RNN)

2022 - 2023

Contrairement aux réseaux feed-forward vus jusqu'à présent, les RNNs présentent des connexions récurrentes. Ils peuvent servir à analyser des séries temporelles et à effectuer des prédictions à partir de celles-ci.

Formation

Approfondissement sur les réseaux de neurones

2022 - 2023

Dans cette formation plutôt technique, on vous apprend à choisir la structure interne de son réseau de neurones, à éviter le sur-apprentissage et comment fonctionne la backpropagation.

Formation

Les GAN et leurs mystères

2022 - 2023

Dans cette formation, on vous présente les Generative Adversarial Networks, qu'on utilise pour générer des images !

Formation

Réseaux de Neurones à Convolution

2022 - 2023

Dans cette formation, vous découvrirez les réseaux de neurones à convolution (CNN), inspirés de la pensée humaine et qui permettent de déterminer par exemple si une image donnée est la photo d’un chien ou d’un chat !

Formation

Introduction à l'IA et aux Réseaux de Neurones

2022 - 2023

Première formation de cette année, c'est une introduction à l'IA et aux réseaux de neurones, accessible à tous !

Formation

DDPM

2022 - 2023

Les diffusion models révolutionnent le domaine du text to image (txt2img) sur internet ces derniers temps. Dall-E2, Imagen, Midjourney, StableDiffusion, tous ces modèles incroyables partent d'un même papier : DDPM. Dans cette présentation, j'explique le raisonnement qui a permis d'en arriver aux premiers diffusion models.

Formation

Transformers

2021 - 2022

Vous en avez sûrement déjà entendu parler ne serait-ce qu'avec GPT-3, par exemple. Les transformers ont récemment su s'imposer pour des tâches complexes tels que le NLP et la classification.

Formation

Recurrent Neural Networks (RNN)

2021 - 2022

Et si le Machine Learning pouvait nous aider à prédire le futur ? C’est le pari des RNN, qui ont su s’imposer comme pilier du Machine Learning au service de l’ingénieur•e. Ils analysent des séries chronologiques et peuvent, par exemple, anticiper la variation du prix des actions ainsi que la trajectoire d’une voiture autonome pour éviter des accidents.

Formation

Statistiques et Apprentissage

2021 - 2022

Amphi de révision du cours de Statistiques et Apprentissage de 1ère année.

Formation

Introduction aux CNN et aux GAN

2021 - 2022

Introduction aux réseaux de neurones convolutifs et aux réseaux adversariaux génératifs. On aborde ici le fonctionnement, les architectures classiques, les problèmes et les applications de ces deux grandes familles.

Formation

Introduction au Reinforcement Learning

2021 - 2022

Introduction à l'apprentissage par renforcement ou Reinforcement Learning. Raffael présente l'historique et le principe de cette branche du Machine Learning, en s'appuyant sur les exemples du Morpion et des K machines à sous.

Formation

Introduction à l'IA et aux Réseaux de Neurones

2021 - 2022

Introduction à l'IA et au Machine Learning, suivie d'une présentation des réseaux de neurones. Formation accessible à tous !

Formation

La planification d'expérience en ML - II

2021 - 2022

Deuxième partie de la formation de Jules Salzinger, qui aborde ici la sélection de modèle.

Formation

La planification d'expérience en ML

2021 - 2022

Jules Salzinger traite de la gestion des bases de données de tests de manière assez imagée. "C'est une présentation assez théorique, mais dont on peut tirer des enseignements pour tous ses projets" Quelques connaissances de ML suffisent.

Formation

Introduction aux GANs

2021 - 2022

Clement explique le fonctionnement des GANs, ces réseaux qui créent des images plus vraies que nature !

Formation

Introduction à la théorie et bonnes pratiques

2021 - 2022

Formation incontournable sur la théorie qui se cache derrière l'IA et les bonnes pratiques d'utilisation

Formation

Introduction aux réseaux convolutifs (CNN)

2021 - 2022

Formation introductive aux CNN, excellents pour classifier des des images

Formation

Le Multi-Perceptron

2021 - 2022

Cette formation va vous permettre de créer depuis zéro votre réseau neuronal et de mieux comprendre les mathématiques qui se cachent derrière tout ça.

Formation

Introduction aux réseaux de neurones

2021 - 2022

Cette formation va vous permettre de créer depuis zéro votre réseau neuronal et de mieux comprendre les mathématiques qui se cachent derrière tout ça.

Formation

Introduction à l'Intelligence Artificielle

2021 - 2022

Présentation et application de l'IA, parfait pour débuter

Formation

Découverte de Yolov2

2020 - 2021

Théo nous explique le fonctionnement de YoloV2, "You only look once V2", un réseau de reconnaissance d'objets.

Formation

Statistiques et Apprentissage

2020 - 2021

Cette formation est en fait un amphi de révision du cours de statistiques de 1ère année.

Formation

La Backpropagation - How does it learn ?

2020 - 2021

Cette formation t'apprendra comment fonctionne la backpropagation qui est le mécanisme qui permet aux réseaux de neurones d'apprendre. Pour avoir une approche plus visuelle du phénomène, il y a cette série de vidéos de la chaine 3Blue1Brown (en anglais).

Formation

La Planification d'expérience en ML

2020 - 2021

Jules Salzinger traite de la gestion des bases de données de tests de manière assez imagée. "C'est une présentation assez théorique, mais dont on peut tirer des enseignements pour tous ses projets" Quelques connaissances de ML suffisent.

Formation

Introduction aux réseaux convolutifs (CNN)

2020 - 2021

Formation introductive aux CNN, excellents pour classifier des des images

Formation

Introduction à l'Intelligence Artificielle

2020 - 2021

Présentation et application de l'IA, parfait pour débuter

Formation

Introduction à la théorie et bonnes pratiques

2020 - 2021

Formation incontournable sur la théorie qui se cache derrière l'IA et les bonnes pratiques d'utilisation

Formation

Les bases sur la bibliothèque pytorch

2020 - 2021

Apprends à utiliser Pytorch, librairie indispensable pour la recherche en IA !

Formation

Normalizing Flow

2020 - 2021

Jules Salzinger nous présente le Normalizing Flow, un outil très puissant avec plein d'applications très intéressantes ! Formation de niveau avancé

Formation

La fabuleuse histoire des GANs

2020 - 2021

Viens découvrir la fabuleuse histoire des GANs.

Formation

Apprentissage par renforcement - Le Deep-QLearning

2020 - 2021

Théorie sur le Deep-QLearning ! Pour voir un exemple d'implémentation du Deep-QLearning : ici.

Formation

Apprentissage par renforcement - Introduction

2020 - 2021

Découvre les bases théoriques derrière l'apprentissage par renforcement grace à cette introduction.

Formation

Réseau neuronal convolutif (Convolutional neural network)

2020 - 2021

Tu veux classifier des images ? Tu entends souvent parler de CNN mais tu ne sais pas comment ça marche ? Alors cette formation est parfaite pour toi !

Formation

Le Multi-Perceptron

2020 - 2021

Apprends à écrire ton propre multiperceptron.

Formation

Apprentissage des réseaux de neurones

2020 - 2021

Cette formation t'apprendra comment fonctionne la backpropagation qui est le mécanisme qui permet aux réseaux de neurones d'apprendre. Pour avoir une approche plus visuelle du phénomène, il y a cette série de vidéos de la chaine 3Blue1Brown (en anglais).

Formation

Introduction au Machine Learning et réseaux de neurones

2020 - 2021

Tu as entendu parlé d'intelligence artificielle, mais tu ne sais pas ce que c'est ? Dans ce cas, cette introduction au Machine Learning et aux réseaux de neurones est faite pour toi !

Formation

Apprentissage par Renforcement

2019 - 2020

Formation sur l'apprentissage par renforcement.

Formation

AlphaGo

2019 - 2020

Présentation de l'algorithme derrière AlphaGo.

Formation

Les bases sur les réseaux neuronaux : Le MultiPerceptron

2019 - 2020

Cette formation va vous permettre de créer depuis zéro votre réseau neuronal et de mieux comprendre les mathématiques qui se cachent derrière tout ça.

Formation

Introduction aux Réseaux de Neurones

2019 - 2020

Cette formation permet d'approfondir les connaissances de la première, avec un intérêt plus particulier sur les systèmes neuronaux.

Formation

Introduction au Machine Learning

2019 - 2020

Cette formation ne nécessite aucun prérequis et vous permet de découvrir le Machine Learning et de développer des petits trucs en python en utilisant la librairie Scikit-Learn.

Formation

Statistiques et Apprentissage (partie 2)

2018 - 2019

Cette formation est en fait un amphi de révision du cours de statistiques de 1ère année. Merci à Hyris pour la vidéo. Voici un petit cadeau, on a trouvé une petite fiche sympa réalisée par des anciens centraliens qui donne pas mal d'infos utiles: Lien vers la fiche.

Formation

Statistiques et Apprentissage (partie 1)

2018 - 2019

Cette formation est en fait un amphi de révision du cours de statistiques de 1ère année. Merci à Hyris pour la vidéo.

Formation

TP GAN

2023 - 2024

L'objectif de ce TP est de coder un GAN pour générer des petits chats trop mignons. Il abordera les notions principales vues pendant la formation GAN : les CNN, convolutions transposées, batchnorm, binary crossentropy, comment entraîner tout ce beau monde...

TP

TP CNN

2023 - 2024

L'objectif de ce TP est de vous faire coder un réseau de neurones à convolution (CNN), et de vous familiariser en même temps avec Pytorch, qui est une librairie permettant de coder ses propres réseaux de neurones !

TP

TP Réseaux de Neurones

2023 - 2024

Pour coder des réseaux de neurones aujourd'hui, on va utiliser la librairie Python Pytorch afin d'assembler des couches et d'entraîner des modèles à haut niveau de code sans trop se compliquer la tête.

TP

TP RNN

2022 - 2023

Dans ce TP, vous allez vous familiariser avec différentes architectures de réseaux récurrents, et vous allez aussi pouvoir vous pencher plus en détail sur les données d'entraînement ainsi que l'évaluation des différents modèles. L'objectif sera ici de prévoir la météo un jour à l'avance !

TP

TP GAN

2022 - 2023

L'objectif de ce TP est de coder un GAN pour générer des petits chats trop mignons. Il abordera les notions principales vues pendant la formation GAN : les CNN, convolutions transposées, batchnorm, binary crossentropy, comment entraîner tout ce beau monde...

TP

TP CNN

2022 - 2023

L'objectif de ce TP est de vous faire coder un réseau de neurones à convolution (CNN), et de vous familiariser en même temps avec Keras et TensorFlow, qui sont des librairies permettant de coder ses propres réseaux de neurones!

TP

TP Réseaux de Neurones

2022 - 2023

Pour coder des réseaux de neurones aujourd'hui, on va utiliser la librairie Python Tensorflow (TF) et sa sous-couche Keras qui permettent d'assembler des couches et d'entraîner des modèles à haut niveau de code sans trop se compliquer la tête.

TP

TD Transformers

2021 - 2022

Mise en pratique de la formation Transformers, utilisant les algorithmes de Hugging Face.

TP

TD RNNs

2021 - 2022

Avec ce TP, on apprend à utiliser des RNN. Ces réseaux peuvent être vus comme une généralisation des multi layers perceptrons en incluant un aspect "séquentiel".

TP

Reinforcement Learning - DDPG

2021 - 2022

TP pour poursuivre l'apprentissage du Reinforcement Learning. On passe du discret au continu avec le Deep Deterministic Policy Gradient.

TP

Les GAN en pratique

2021 - 2022

TP pour découvrir les réseaux antagonistes génératifs, ou GAN, à partir du dataset MNIST. Le sujet est simplifié mais reste technique, il est recommandé d'avoir vu la formation sur les GANS.

TP

Reinforcement Learning - DQN

2021 - 2022

TP pour découvrir le Reinforcement Learning. On utilise des Deep Q-Networks pour battre des jeux Atari !

TP

Découverte des outils de Machine Learning et Deep Learning

2020 - 2021

L'objectif de ce projet de permanence est de découvrir les outils les plus utilisés en Machine Learning, et de prendre un peu en main les bibliothèques Keras et scikit-learn. Dans ce TP, vous ferez de la classification supervisée et non-supervisée, ainsi que des auto-encodeurs.

TP

Réseaux antagonistes génératifs (GAN)

2020 - 2021

L'objectif de ce projet de permanence est de mener à bien une première implémentation d'un GAN. Le sujet rappelle les bases et principes des GAN, puis propose de comprendre les problèmes classiques (effondrement des modes et pertes d'équilibre) sur une base de données simplifiée, pour finir sur deux implémentations libres sur la génération de chiffres, puis de visages.

TP

Algorithme génétique

2020 - 2021

Les algorithmes génétiques dérivent de la biologie, et sont une façon de résoudre des problèmes d'optimisation. Le sujet du TP est disponible ici.

TP

Autoencodeur

2018 - 2019

L'Intelligence Artificielle est particulièrement utilisée dans la compression d'images et de données, car elle permet de réduire grandement la taille des fichiers. Ce TP à pour but de s'intéresser à la réduction d'images sur un exemple simple pour se familiariser avec la bibliothèque keras et pour manipuler des réseaux neuronaux.

TP

Nous contacter

N'hésitez pas à nous contacter pour plus d'informations.

© 2020-2022 - Mentions légales - Association d'Intelligence Artificielle de CentraleSupélec