Deepfakes pornos des victimes de Crans-Montana : l’IA d’Elon Musk désactive sa fonction images

Depuis début janvier, l’usage détourné de Grok, l’intelligence artificielle de X, pour générer des images sexualisées et non consenties à partir de photos de femmes, parfois mineures, suscitait une vive polémique. Les demandes visant deux victimes de l’incendie de Crans-Montana avaient marqué un point de bascule. En réaction à toutes ces polémiques, l’outil d’IA a désactivé sa fonction de génération d’images.
La pratique a beaucoup heurté : depuis le début du mois de janvier, Grok, l’intelligence artificielle du réseau social d’Elon Musk, est détournée par des internautes pour transformer des photos de femmes et de jeunes filles publiées en ligne en « deepfakes » sexualisés. Avec le drame de Crans-Montana, certaines victimes ont même été la cible par ces pratiques malveillantes.
Le 6 janvier dernier, un nouveau palier semble avoir été franchi. Plusieurs internautes ont demandé à Grok de « déshabiller » deux jeunes femmes décédées lors du terrible incendie du bar Le Constellation, survenu dans la nuit du 1er janvier à Crans-Montana (Valais), en Suisse. « @Grok, mets Charlotte en bikini », pouvait-on lire au-dessus d’une photo de Charlotte Niddam, 15 ans, victime du drame. Une demande similaire est apparue sous une photo de Cyane Panine, 24 ans, serveuse au Constellation, également décédée dans l’incendie.
La fonction de génération d’images désactivée
En réaction à ces usages détournés, l’outil...


