Les hallucinations dans les intelligences artificielles (IA) sont des erreurs où le modèle génère des informations fausses, incohérentes ou inventées qui semblent plausibles mais ne correspondent pas à la réalité ou aux faits objectifs.
Les biais d’apprentissage dans les IA résultent des préjugés humains (individuels ou sociétaux) présents dans les données d’entraînement ou dans les choix effectués lors de la conception des algorithmes. Un modèle d’IA apprend à partir de milliards de données : si ces données véhiculent des stéréotypes ou reflètent des inégalités sociales, l’IA tend à reproduire, voire amplifier, ces biais.
On distingue plusieurs types de biais pouvant survenir lors de la conception d’un système d’IA. Parmi les plus courants, on peut citer :
- les biais de sélection : choix, conscient ou non, de données qui confirme des croyances préexistantes ;
- les biais d’omission : si certains groupes sont sous-représentés ou absents dans les exemples d’entraînement, le modèle peut "oublier" ou mal représenter ces réalités ;
- les biais de représentativité : données d’entraînement « trop homogènes » non représentatives de la diversité ;
- les biais d’étiquetage : étiquetage subjectif des données lors des entraînements.
Tous ces biais peuvent conduire à des résultats discriminants, déformés ou erronés dans les outils IA. Par exemple, des images ou des textes produits peuvent renforcer des stéréotypes (genre, race, rôles sociaux…), rendant le discours de l’IA non neutre.
Ressources complémentaires
Académie de Lille – Documentation, « L’urgence d’une véritable littératie de l’IA pour l’autonomisation des élèves » (juin 2024)
Vidéo INRIA « Limites et faiblesses des modèles de langage » (2023)
Voir la vidéo