logo Begeek

tech · high-tech

Les géants de l’IA s’engagent à préserver la sécurité des enfants sur le web

Les géants de l’IA s’engagent à préserver la sécurité des enfants sur le web
Publié le 25 avr. 2024 à 15:00, mis à jour le 25 avr. 2024 à 13:00

Des entreprises technologiques telles que OpenAI, Microsoft, Google et Meta se sont engagées à empêcher leurs outils d'intelligence artificielle de générer et de diffuser des contenus liés à l'abus sexuel d'enfants.

Tl;dr

  • Les entreprises d’IA s’engagent contre l’exploitation des enfants.
  • L’initiative, menée par Thorn et All Tech Is Human.
  • Lancement d’un document pour prévenir les abus sexuels sur mineurs.
  • Mesures prises pour différencier les contenus adultes et enfants.

Des mesures importantes pour défendre les enfants

Une mobilisation exceptionnelle est à noter dans le domaine de l’intelligence artificielle. En effet, des entreprises de premier plan telles que OpenAI, Microsoft, Google, Meta et d’autres ont conjointement pris l’engagement de prévenir l’utilisation de leurs outils d’IA pour exploiter les enfants et générer des contenus liés à l’abus sexuel d’enfants (“child sexual abuse material”).

Une initiative pour un web plus sûr

Cette initiative est le fruit du travail conjoint de deux organisations. D’une part, Thorn, un groupe de sécurité pour les enfants et d’autre part, All Tech Is Human, une organisation non gouvernementale consacrée à une technologie responsable. Ces entités ont pris le problème à bras-le-corps, et leur action musclée ne laisse personne indifférent.

Des recommandations pour protéger les enfants

Dans un souci de transparence et d’efficacité, ces deux organisations ont sorti un document majeur intitulé “Safety by Design for Generative AI: Preventing Child Sexual Abuse”. Directrices pour les entreprises de l’IA, ces propositions ont pour but de prévenir l’utilisation des outils d’IA pour nuire aux enfants. Parmi ces recommandations figure notamment une sélection soignée des ensembles de données utilisés pour former les modèles d’IA. Elles appellent également à la suppression des liens vers les sites internet permettant de nuire à l’image des enfants.

Des actions concrètes en cours de déploiement

Les retours de ces actions sont encourageants. Certaines entreprises ont déjà accepté de séparer les images, les vidéos et les audios mettant en scène les enfants de ceux présentant des contenus adultes – évitant ainsi que leurs modèles ne fassent un amalgame entre les deux. Mais le chemin est encore long, et les faux positifs restent une menace tangible. Le marquage par filigrane ne protège en effet pas totalement les contenus. Malgré tout, l’engagement total de ces entreprises montre que le cap est clairement fixé vers un internet plus sûr pour nos enfants.

Publicité
Partager
  • partager sur Facebook logo
  • partager sur X logo
  • partager par email logo

À lire aussi sur Begeek: