Formation Intelligence artificielle : enjeux et outils
Objectifs
- Comprendre ce que sont les outils Machine et Deep Learning, leurs potentiels et leurs limites
- Avoir une vision à date de l'état de l'art de ces domaines
- Connaître et comprendre les applications de ces domaines à différents domaines de l'industrie
- Maîtriser les méthodologies et connaître les outils propres aux projets d'Intelligence Artificielle
- Appréhender les enjeux juridiques et éthiques de l’IA
- Identifier les apports potentiels par métier, activité ou secteurs dans l’entreprise
Profils des stagiaires
- Dirigeants, DSI, chefs de projets, développeurs, architectes…
Connaissances préalables
Bonnes connaissances en gestion de projet numérique. Expérience requise.
Méthodes d'évaluation des acquis
- uto-évaluation des acquis par le stagiaire via un questionnaire
- Attestation de fin de stage adressée avec la facture
Méthodes pédagogiques
- 6 à 12 personnes maximum par cours, 1 poste de travail par stagiaire
- Remise d’une documentation pédagogique papier ou numérique pendant le stage
- La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions
Durée
2 jours (14 heures)
Programme de formation
Qu'est ce que l'intelligence artficielle ?
- Le fantasme de l’Intelligence Artificielle et la réalité d’aujourd’hui
- Tâche intellectuelle versus algorithmes
- Types d’actions : classification, régression, clustering, estimation de densité, réduction de dimensionnalité
- Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels
- Algorithmes génétiques : faire évoluer une population d’agents virtuels par sélection
- Machine Learning : présentation et principaux algorithmes (XGBoost, Random Forest)
Réseaux de neurones et Deep Learning
- Qu’est-ce qu’un réseau de neurones ?
- Qu’est-ce que l’apprentissage d’un réseau de neurones ? Deep versus shallow network, overfit, underfit, convergence
- Appréhender une fonction par un réseau de neurones : présentation et exemples
- Génération de représentations internes au sein d’un réseau de neurones
- Généralisation des résultats d’un réseau de neurones
- Révolution du Deep Learning : généricité des outils et des problématiques
- Démonstration : Présentation d’un algorithme de classification et de ses limites
Applications du Deep Learning
- Classification de données. Les différents scénarios : donnée brute, image, son, texte, etc.
- Les enjeux d’une classification de données et les choix impliqués par un modèle de classification
- Outils de classification : des réseaux de type Multilayer Perceptron ou Convolutional Neural Network. Machine Learning
- Prédiction d’information et donnée séquentielle/temporelle. Enjeux et limites d’une prédiction d’information
- Règles structurelles au sein de la donnée pouvant permettre une logique de prédiction. Outils usuels de prédiction
- Transformation/génération de données. Opération de réinterprétation d’une donnée : débruitage, segmentation d’image…
- Opération de transformation sur un même format : traduction de texte d’une langue à une autre…
- Opération de génération de donnée "originale" : Neural Style, génération d’images à partir de présentations textuelles
- Reinforcement Learning : contrôle d’un environnement
- Experience Replay et apprentissage de jeux vidéo par un réseau de neurones
- Démonstrations : Classification d’images médicales. Prévision des images suivant une séquence vidéo. Contrôle de simulations numériques
Quels problèmes peut-on adresser avec le Machine/Deep Learning
- Condition sur les données : volumétrie, dimensionnement, équilibre entre les classes, description
- Donnée brute versus features travaillées : que choisir ?
- Machine Learning versus Deep Learning : les algorithmes plus anciens du Machine Learning ou les réseaux de neurones ?
- Qualifier le problème : Unsupervised Learning versus Supervised Learning
- Qualifier la solution d’un problème : comprendre la distance entre une affirmation et le résultat d’un algorithme
- Exemple d’étude de cas : Qualification d’une problématique pouvant être traitée avec l’IA
Génération d'un dataset
- Qu’est-ce qu’un Dataset ?
- Stocker/contrôler la donnée : surveiller les biais, nettoyer/convertir sans s’interdire des retours en arrière
- Comprendre la donnée : représentation des outils statistiques permettant une vision d’une donnée, sa distribution…
- Formater une donnée : décider d’un format d’entrée et de sortie, faire le lien avec la qualification du problème
- Préparer la donnée : définition des Train Set, Validation Set et Test Set
- Mettre en place une structure permettant de garantir que les algorithmes utilisés sont réellement pertinents (ou non)
- Echanges : Définition d’un Dataset et sa différence avec un BDD usuel
Recherche de la solution optimale
- Méthodologie pour avancer dans la recherche d’une meilleure solution à un problème ML/DL
- Choix d’une direction de recherche, localisation de publications ou de projets similaires existants
- Itérations successives depuis les algorithmes les plus simples jusqu’aux architectures les plus complexes
- Conservation d’un banc de comparaison transversal
- Arriver à une solution optimale
- Exemple d’étude de cas : Grouper et balancer un ensemble de solutions pour obtenir une solution optimale
Les outils
- Quels outils existe-t-il aujourd’hui ?
- Quels outils pour la recherche et quels outils pour l’industrie ?
- De Keras/Lasagne à Caffe en passant par Torch, Theano, Tensorflow ou Apache Spark ou Hadoop
- Industrialiser un réseau de neurones par un encadrement strict de son processus et un monitoring continu
- Mise en place de réapprentissages successifs pour conserver un réseau à jour et optimal
- Former des utilisateurs à la compréhension du réseau
- Démonstration : Mise en place de réapprentissages successifs