Dernière mise à jour : 18/11/2024
Du règlement général sur la protection des données (RGPD) aux scandales médiatiques, les questions d'éthique en data science défraient la chronique. Cette formation a pour objectif de sensibiliser les data scientists et leurs managers aux problèmes pouvant émerger de projets impliquant des données personnelles et des modèles de machine learning.
Des illustrations de cas concrets vous permettront d'appréhender les enjeux et vos leviers d'action pour développer et implémenter des systèmes d'IA plus responsables. Les mises en pratique proposées vous permettront de découvrir et manipuler les principales librairies Python favorisant l'interprétabilité et la vigilance (biais discriminatoires).
Cette formation est dispensée par un·e ou plusieurs consultant·es d'OCTO Technology ou de son réseau de partenaires, expert·es reconnus des sujets traités.
Le processus de sélection de nos formateurs et formatrices est exigeant et repose sur une évaluation rigoureuse leurs capacités techniques, de leur expérience professionnelle et de leurs compétences pédagogiques.
L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique.
Afin de valider les compétences acquises lors de la formation, un formulaire d'auto-positionnement est envoyé en amont et en aval de celle-ci.
En l'absence de réponse d'un ou plusieurs participants, un temps sera consacré en ouverture de session pour prendre connaissance du positionnement de chaque stagiaire sur les objectifs pédagogiques évalués.
Une évaluation à chaud est également effectuée en fin de session pour mesurer la satisfaction des stagiaires et un certificat de réalisation leur est adressé individuellement.
Jour 1
PRÉSENTATION CROISÉE ET ATTENTES DES PARTICIPANTS
PRÉSENTATION DES DIFFÉRENTES TYPOLOGIES DE PROBLEME
INTERPRÉTABILITÉ : POUVOIR EXPLIQUER SES MODÈLES
LA VIGILANCE : CONNAÎTRE SES DONNÉES
CLÔTURE