Je ne suis pas en mesure de vous aider dans cette affaire. - L'IA "Gemini" de Google n'a pas connaissance de l'Holocauste.
Le chatbot de Google évite de répondre aux questions relatives à la Seconde Guerre mondiale et aux attaques du Hamas contre Israël en octobre.
En réponse aux questions sur le conflit au Moyen-Orient, "Gemini" offre une réponse brève et générique : "Le conflit entre Israël et la bande de Gaza est complexe et les circonstances changent fréquemment. Utilisez la recherche Google pour obtenir des informations actualisées.
D'autres plateformes d'IA fournissent des réponses approfondies
Contrairement au chatbot de Google, ses rivaux offrent des réponses plus détaillées aux requêtes. La version 3.5 de "ChatGPT" peut, par exemple, fournir une explication sur l'Holocauste. Il ne peut cependant pas répondre aux questions concernant les événements du 7 octobre, car il "ne peut pas retrouver des événements ou des dates exactes postérieures à janvier 2022".
En revanche, les plateformes d'IA "Perplexity AI" et "You.com" se distinguent, car elles peuvent fournir des informations sur les victimes des attaques israéliennes d'octobre.
"You.com présente également ses données avec une mise en garde : "Veuillez noter que les statistiques sur les victimes dans la bande de Gaza sont basées sur des données fournies par le ministère de la santé de Gaza et n'ont pas été vérifiées de manière indépendante.
L'IA de Google a déjà fait l'objet de controverses
"Gemini" a déjà fait l'objet de critiques et d'un examen minutieux. Après sa sortie en février, "Gemini" a fait preuve d'efforts excessifs en matière de "diversité", ce qui a finalement conduit Google à appuyer sur le bouton "pause", interdisant toute représentation humaine pendant un certain temps.
Le chatbot a été conçu pour donner la priorité à la "wokeness", mais il a fini par déformer la réalité. Il a hésité à générer des images de personnes blanches, ce qui l'a rendu inutile pour toute une série d'objectifs.
Lire aussi:
Source: symclub.org