Nous sommes l'association d'IA de CentraleSupélec. Nous cherchons à promouvoir la connaissance autour de l'Intelligence Artificielle qui sera un outil clé pour les ingénieurs de demain. Nous proposons des formations, pour apprendre de zéro, et des TPs pour s'entraîner.
Nous réalisons des formations autour de l'IA, pour ceux qui veulent découvrir les méthodes et techniques pour créer sa propre IA. Ces formations sont accompagnées de TPs concrets pour apprendre et monter en compétence.
Dans cette formation, on vous présente les Generative Adversarial Networks, qu'on utilise pour générer des images !
Dans cette formation, vous découvrirez les réseaux de neurones à convolution (CNN), inspirés de la pensée humaine et qui permettent de déterminer par exemple si une image donnée est la photo d’un chien ou d’un chat !
Première formation de cette année, c'est une introduction à l'IA et aux réseaux de neurones, accessible à tous !
L’Apprentissage par Renforcement est un domaine fondamental de l’intelligence artificielle qui consiste à placer un agent dans un environnement afin d’apprendre, au fil de ses expériences, à prendre les actions qui maximisent la récompense de l’environnement.
L’Apprentissage par Renforcement est un domaine fondamental de l’intelligence artificielle qui consiste à placer un agent dans un environnement afin d’apprendre, au fil de ses expériences, à prendre les actions qui maximisent la récompense de l’environnement.
Dans cette formation, on aborde le travail de l'ingénieur.e ML sous l'angle de la "régularisation". Partant de la définition de ce terme, nous verrons en quoi le concept de régularisation peut englober tous les aspects de la sélection de modèle. Nous mettrons ensuite en pratique cette manière de penser et verrons diverses manières de résoudre un problème concret par des méthodes de régularisation. La formation se terminera par un brainstorming pour régulariser un modèle dans une situation fictive.
Contrairement aux réseaux feed-forward vus jusqu'à présent, les RNNs présentent des connexions récurrentes. Ils peuvent servir à analyser des séries temporelles et à effectuer des prédictions à partir de celles-ci.
Dans cette formation plutôt technique, on vous apprend à choisir la structure interne de son réseau de neurones, à éviter le sur-apprentissage et comment fonctionne la backpropagation.
Dans cette formation, on vous présente les Generative Adversarial Networks, qu'on utilise pour générer des images !
Dans cette formation, vous découvrirez les réseaux de neurones à convolution (CNN), inspirés de la pensée humaine et qui permettent de déterminer par exemple si une image donnée est la photo d’un chien ou d’un chat !
Première formation de cette année, c'est une introduction à l'IA et aux réseaux de neurones, accessible à tous !
Les diffusion models révolutionnent le domaine du text to image (txt2img) sur internet ces derniers temps. Dall-E2, Imagen, Midjourney, StableDiffusion, tous ces modèles incroyables partent d'un même papier : DDPM. Dans cette présentation, j'explique le raisonnement qui a permis d'en arriver aux premiers diffusion models.
Vous en avez sûrement déjà entendu parler ne serait-ce qu'avec GPT-3, par exemple. Les transformers ont récemment su s'imposer pour des tâches complexes tels que le NLP et la classification.
Et si le Machine Learning pouvait nous aider à prédire le futur ? C’est le pari des RNN, qui ont su s’imposer comme pilier du Machine Learning au service de l’ingénieur•e. Ils analysent des séries chronologiques et peuvent, par exemple, anticiper la variation du prix des actions ainsi que la trajectoire d’une voiture autonome pour éviter des accidents.
Amphi de révision du cours de Statistiques et Apprentissage de 1ère année.
Introduction aux réseaux de neurones convolutifs et aux réseaux adversariaux génératifs. On aborde ici le fonctionnement, les architectures classiques, les problèmes et les applications de ces deux grandes familles.
Introduction à l'apprentissage par renforcement ou Reinforcement Learning. Raffael présente l'historique et le principe de cette branche du Machine Learning, en s'appuyant sur les exemples du Morpion et des K machines à sous.
Introduction à l'IA et au Machine Learning, suivie d'une présentation des réseaux de neurones. Formation accessible à tous !
Deuxième partie de la formation de Jules Salzinger, qui aborde ici la sélection de modèle.
Jules Salzinger traite de la gestion des bases de données de tests de manière assez imagée. "C'est une présentation assez théorique, mais dont on peut tirer des enseignements pour tous ses projets" Quelques connaissances de ML suffisent.
Clement explique le fonctionnement des GANs, ces réseaux qui créent des images plus vraies que nature !
Formation incontournable sur la théorie qui se cache derrière l'IA et les bonnes pratiques d'utilisation
Formation introductive aux CNN, excellents pour classifier des des images
Cette formation va vous permettre de créer depuis zéro votre réseau neuronal et de mieux comprendre les mathématiques qui se cachent derrière tout ça.
Cette formation va vous permettre de créer depuis zéro votre réseau neuronal et de mieux comprendre les mathématiques qui se cachent derrière tout ça.
Présentation et application de l'IA, parfait pour débuter
Théo nous explique le fonctionnement de YoloV2, "You only look once V2", un réseau de reconnaissance d'objets.
Cette formation est en fait un amphi de révision du cours de statistiques de 1ère année.
Cette formation t'apprendra comment fonctionne la backpropagation qui est le mécanisme qui permet aux réseaux de neurones d'apprendre. Pour avoir une approche plus visuelle du phénomène, il y a cette série de vidéos de la chaine 3Blue1Brown (en anglais).
Jules Salzinger traite de la gestion des bases de données de tests de manière assez imagée. "C'est une présentation assez théorique, mais dont on peut tirer des enseignements pour tous ses projets" Quelques connaissances de ML suffisent.
Formation introductive aux CNN, excellents pour classifier des des images
Présentation et application de l'IA, parfait pour débuter
Formation incontournable sur la théorie qui se cache derrière l'IA et les bonnes pratiques d'utilisation
Apprends à utiliser Pytorch, librairie indispensable pour la recherche en IA !
Jules Salzinger nous présente le Normalizing Flow, un outil très puissant avec plein d'applications très intéressantes ! Formation de niveau avancé
Viens découvrir la fabuleuse histoire des GANs.
Théorie sur le Deep-QLearning ! Pour voir un exemple d'implémentation du Deep-QLearning : ici.
Découvre les bases théoriques derrière l'apprentissage par renforcement grace à cette introduction.
Tu veux classifier des images ? Tu entends souvent parler de CNN mais tu ne sais pas comment ça marche ? Alors cette formation est parfaite pour toi !
Apprends à écrire ton propre multiperceptron.
Cette formation t'apprendra comment fonctionne la backpropagation qui est le mécanisme qui permet aux réseaux de neurones d'apprendre. Pour avoir une approche plus visuelle du phénomène, il y a cette série de vidéos de la chaine 3Blue1Brown (en anglais).
Tu as entendu parlé d'intelligence artificielle, mais tu ne sais pas ce que c'est ? Dans ce cas, cette introduction au Machine Learning et aux réseaux de neurones est faite pour toi !
Formation sur l'apprentissage par renforcement.
Présentation de l'algorithme derrière AlphaGo.
Cette formation va vous permettre de créer depuis zéro votre réseau neuronal et de mieux comprendre les mathématiques qui se cachent derrière tout ça.
Cette formation permet d'approfondir les connaissances de la première, avec un intérêt plus particulier sur les systèmes neuronaux.
Cette formation ne nécessite aucun prérequis et vous permet de découvrir le Machine Learning et de développer des petits trucs en python en utilisant la librairie Scikit-Learn.
Cette formation est en fait un amphi de révision du cours de statistiques de 1ère année. Merci à Hyris pour la vidéo. Voici un petit cadeau, on a trouvé une petite fiche sympa réalisée par des anciens centraliens qui donne pas mal d'infos utiles: Lien vers la fiche.
Cette formation est en fait un amphi de révision du cours de statistiques de 1ère année. Merci à Hyris pour la vidéo.
L'objectif de ce TP est de coder un GAN pour générer des petits chats trop mignons. Il abordera les notions principales vues pendant la formation GAN : les CNN, convolutions transposées, batchnorm, binary crossentropy, comment entraîner tout ce beau monde...
L'objectif de ce TP est de vous faire coder un réseau de neurones à convolution (CNN), et de vous familiariser en même temps avec Pytorch, qui est une librairie permettant de coder ses propres réseaux de neurones !
Pour coder des réseaux de neurones aujourd'hui, on va utiliser la librairie Python Pytorch afin d'assembler des couches et d'entraîner des modèles à haut niveau de code sans trop se compliquer la tête.
Dans ce TP, vous allez vous familiariser avec différentes architectures de réseaux récurrents, et vous allez aussi pouvoir vous pencher plus en détail sur les données d'entraînement ainsi que l'évaluation des différents modèles. L'objectif sera ici de prévoir la météo un jour à l'avance !
L'objectif de ce TP est de coder un GAN pour générer des petits chats trop mignons. Il abordera les notions principales vues pendant la formation GAN : les CNN, convolutions transposées, batchnorm, binary crossentropy, comment entraîner tout ce beau monde...
L'objectif de ce TP est de vous faire coder un réseau de neurones à convolution (CNN), et de vous familiariser en même temps avec Keras et TensorFlow, qui sont des librairies permettant de coder ses propres réseaux de neurones!
Pour coder des réseaux de neurones aujourd'hui, on va utiliser la librairie Python Tensorflow (TF) et sa sous-couche Keras qui permettent d'assembler des couches et d'entraîner des modèles à haut niveau de code sans trop se compliquer la tête.
Mise en pratique de la formation Transformers, utilisant les algorithmes de Hugging Face.
Avec ce TP, on apprend à utiliser des RNN. Ces réseaux peuvent être vus comme une généralisation des multi layers perceptrons en incluant un aspect "séquentiel".
TP pour poursuivre l'apprentissage du Reinforcement Learning. On passe du discret au continu avec le Deep Deterministic Policy Gradient.
TP pour découvrir les réseaux antagonistes génératifs, ou GAN, à partir du dataset MNIST. Le sujet est simplifié mais reste technique, il est recommandé d'avoir vu la formation sur les GANS.
TP pour découvrir le Reinforcement Learning. On utilise des Deep Q-Networks pour battre des jeux Atari !
L'objectif de ce projet de permanence est de découvrir les outils les plus utilisés en Machine Learning, et de prendre un peu en main les bibliothèques Keras et scikit-learn. Dans ce TP, vous ferez de la classification supervisée et non-supervisée, ainsi que des auto-encodeurs.
L'objectif de ce projet de permanence est de mener à bien une première implémentation d'un GAN. Le sujet rappelle les bases et principes des GAN, puis propose de comprendre les problèmes classiques (effondrement des modes et pertes d'équilibre) sur une base de données simplifiée, pour finir sur deux implémentations libres sur la génération de chiffres, puis de visages.
Les algorithmes génétiques dérivent de la biologie, et sont une façon de résoudre des problèmes d'optimisation. Le sujet du TP est disponible ici.
L'Intelligence Artificielle est particulièrement utilisée dans la compression d'images et de données, car elle permet de réduire grandement la taille des fichiers. Ce TP à pour but de s'intéresser à la réduction d'images sur un exemple simple pour se familiariser avec la bibliothèque keras et pour manipuler des réseaux neuronaux.
N'hésitez pas à nous contacter pour plus d'informations.