Gemini, l'IA multimodale de Google est devenu un incontournable de l'écosystème Google dernièrement. La firme ne cesse de mettre en avant son intelligence artificielle qui remplace désormais Bard et Google Assistant.
Pourtant, Gemini n'est pas sans défaut. Alors que sa présentation a été truquée, l'IA refait parler d'elle négativement. Il ne s'agit pas d'un problème très grave mais il soulève néanmoins des questions sur la façon de fonctionner du LLM [Large language model ou grand modèle de langage - NdE] multimodal.
Au cours de la semaine précédente, l'IA conversationnelle de Google a été critiquée pour ses biais dans la génération d'images de personnes. Celle-ci a montré une préférence pour les tons de peau plus foncés dans les représentations. Si cela ne semble pas être un véritable problème, les utilisateurs ont exprimé des préoccupations concernant ce potentiel biais dans le système, forçant Google à désactiver la fonctionnalité.
Google admet que Gemini possède des lacunes
Google a admis que Gemini avait des lacunes dans sa capacité à représenter de manière équilibrée et inclusive des personnes de différentes origines. En réponse, la société a décidé de désactiver temporairement la fonctionnalité de génération d'images de son chatbot IA.
Les circonstances entourant ce « problème » peuvent être dérangeantes. En effet, Gemini a récemment dépeint des personnes de couleur en tant que représentants de l'Allemagne du Troisième Reich. Une incohérence historique qui peut mener à une mauvaise interprétation des faits historiques entourant cette période.
Des experts expliquent que les générateurs d'images IA rencontrent des difficultés liées à la diversité en raison des instructions présentes dans leurs données d'entraînement. Ceux-ci ne représentent pas toujours toutes les communautés de manière équilibrée et peuvent amener l'IA a faire des erreurs.
L'intelligence artificielle nécessite un contrôle constant
Ce n'est pas la première fois qu'une IA génératrice d'image déraille. En effet, Bing avait dépeint Mickey en terroriste il y a peu, forçant Microsoft à couper l'accès à l'IA.
Il ne s'agissait pas d'un problème d'entraînement du LLM mais plutôt d'un contournement des sécurité. Cela rappelle que l'IA reste un domaine encore mal maîtrisé. Google pense que l'IA est meilleure que l'homme sur certaines tâches. Pourtant le problème rencontré par Gemini prouve que l'intelligence artificielle n'est pas 100% fiable.
Celle-ci peut être utilisée à des fins de désinformation et de propagande pouvant avoir des conséquences catastrophiques. Il est donc nécessaire qu'aucun biais ne soit présent dans son entraînement et que ses sécurités soient sans égale.
- Google a mis sur pause la génération d'images de personnes de son intelligence artificielle Gemini.
- L'IA a fait des erreurs de représentation pouvant mener à une mauvaise interprétation des faits historiques.
- Google explique que ces erreurs proviennent des biais présents dans les données d'entraînement de l'IA.
Abonnez-vous à notre newsletter
Rester libre !
N'oubliez pas de partager.
En coulisses, la panique grandit ...
Puisque vous êtes là…
|
Abonnez-vous à notre newsletter
Rester libre !
N'oubliez pas de partager.
Commenter cet article