Des nouvelles des IA : Grok et les images CSAM générées

Oui moi, je n'ai pas mis ma photo dans le bain...
Nous avons Grok, l'IA de X/Twitter, qui fait des images évidemment fake, tout à la fois de personnes adultes pour du "revenge porn" (habituellement se "venger" d'un ex-partenaire, ce qui est du harcelement sexuel) qui sont souvent diffusées sur Internet, ou transmis à des proches (tout aussi dégueulasse), mais aussi des images de mineurs dans des postures ou des actes sexuels, là aussi diffusées ou conservées de manière privée.
CSAM signifie pédo-pornographie. On en est là. Générée par une IA. Par Grok !
Autant vous dire que je suis extrêmement choqué, le mot est faible, je ne peux écrire vraiment ce que j'en pense. Depuis que j'ai 10ans je connais ce monde.
Je n'ai pas essayé : "À manger avec le diable, la fourchette n’est jamais trop longue".
Des gouvernements et leurs agences sont en train d'examiner cela.
On doit mettre fin à ces exactions. Quitte à virer Grok partout. Aucune excuse. Aucun pardon.
Quand va-t-on rendre les créateurs des IA responsables des crimes de leurs créations ?!?
Notez que ça vaut aussi pour Google Gemini et ses officiers nazis noirs... En attendant Siri.
Le "code" n'est pas une excuse, pas plus qu'avoir suivi les ordres l'a été !