Elle expérimente un nouvel outil pour déterminer si une image a été générée par une intelligence artificielle.
Nous nous croyons tous compétents pour identifier des images générées par l’intelligence artificielle. Des textes étranges en arrière-plan, des inexactitudes insensées violant les lois de la physique et surtout, les mains et les doigts au rendu grotesque. Cependant, la technologie évolue constamment et il ne sera pas long avant que nous ne puissions plus distinguer le réel de l’artificiel.
OpenAI, acteur de premier plan dans l’industrie, tente de prendre les devants en créant une boîte à outils permettant de détecter les images créées par son propre générateur DALL-E 3. Si l’entreprise affirme pouvoir “détecter avec précision 98% des images conçues par DALL-3”, il existe néanmoins de grandes réserves.
Tout d’abord, l’image doit être créée par DALL-E et, certes, il ne s’agit pas du seul générateur d’image. Le web en regorge. En se basant sur les données fournies par OpenAI, le système n’a réussi à classer correctement que 5 à 10% des images produites par d’autres modèles d’IA.
De plus, le système rencontre des difficultés si l’image a été modifiée de quelque façon que ce soit. Bien que pour des modifications mineures telles que le recadrage, la compression et les variations de saturation, le taux de réussite reste acceptable autour de 95 à 97%, l’ajustement de la teinte fait chuter ce taux à 82%.
En revanche, la boîte à outils a du mal lorsque les images subissent des modifications plus importantes. OpenAI a même choisi de ne pas publier le taux de réussite dans ces cas, affirmant simplement que “d’autres modifications peuvent réduire les performances”.
C’est pourtant un véritable enjeu lors des élections où les images générées par l’IA sont très souvent modifiées ultérieurement pour provoquer des réactions plus fortes. Dans tous les cas, OpenAI continue de travailler à l’amélioration de ses outils de détection et reste transparente sur les limites de sa technologie.