L'IA de Google déraille
Les IA qui nous sont proposées sous la forme de LLM génératif tel ChatGPT sont quasiment toujours associées à un très grand ensemble de règles pour éviter qu'elles n'abordent certains sujets, et aussi pour leur apporter des biais ou corriger ceux-ci.
Une sorte de camisole numérique.
Essentiellement il leur manque le bon sens ainsi qu'une morale commune, et ça se voit quand ces règles sont contournées volontairement ou involontairement, ou qu'elles sont contradictoires...
2001 Odyssée de l'Espace par Stanley Kubrick et Arthur C. Clarke il y a plus d'un demi-siècle avait vraiment des fondations solides. Quand une IA déraille, c'est pas à moitié.
On se souvient de Microsoft qui avait lancée une IA de chat qui "apprenait" grâce à ces échanges, et avait mis moins de 24h pour prendre les pires traits de l'humanité.
De Midjourney générant quasi-uniquement des images de noirs, sauf dans certaines situations, allant jusqu'à dépeindre des soldats du IIIème Reich comme tels.
Du créateur de Dilbert amenant ChatGPT-4o à décrire comment, de manière plausible et indécouvrable, une agence à 3 lettres pouvait truquer les élections présidentielles aux USA.
Google a mis en place une IA sur sa recherche, et comme la concurrence est forte et en avance, ils n'ont visiblement pas assez travaillé sur les règles pour sécuriser ses sorties, celle-ci faisant alors des propositions dangereuses ou mortelles.
Je viens d'explorer avec ChatGPT-4o et pour ceux qui se souviennent de la polémique créée à juste titre par le livre "suicide, mode d'emploi", il suffit de 5 minutes pour se voir délivrer les informations nécessaires pour réaliser cet acte désespéré.
La course aux IA va vraiment trop vite, il n'y a plus d'éthique ni de sécurité...