OpenAI travaille sur un outil de détection du texte généré par ChatGPT. Malgré une efficacité annoncée de 99,9 %, cet outil reste confidentiel, suscitant débats et préoccupations. Voici un aperçu des raisons de cette décision et de ses implications potentielles.
L’outil de détection d’OpenAI : une innovation prometteuse en attente
Depuis un an, OpenAI développe un outil de détection conçu pour identifier le texte généré par ChatGPT avec une précision annoncée de 99,9 %. Cependant, ce détecteur de contenu reste inaccessible au public. Selon le Wall Street Journal, bien que l’outil soit prêt depuis environ un an, OpenAI hésite à le déployer. À la suite de ce rapport, l’entreprise a confirmé l’existence de l’outil et ses limites tout en affirmant qu’elle continuait à travailler sur le sujet.
Préoccupations et limitations d’OpenAI
Une des principales préoccupations d’OpenAI est que les utilisateurs pourraient se détourner de ChatGPT s’ils savaient qu’il étaient facilement détectable. Une enquête interne a révélé que cette technologie pourrait dissuader un tiers des utilisateurs, notamment dans les contextes éducatifs, académiques et professionnels. ChatGPT ne marque pas son contenu avec un « filigrane numérique » ou “watermark”. Cependant cela changerait avec l’outil de détection qui utilise des filigranes invisibles pouvant être détectés et attribués à ChatGPT avec une probabilité de 99,9 % lorsque le texte contient suffisamment de mots.
Néanmoins, il existerait des moyens de contourner ces filigranes, comme traduire le texte via Google ou ajouter des caractères spéciaux avant de les supprimer. De plus, au fil du temps, la méthode de filigranage pourrait être découverte, soulevant d’autres préoccupations, notamment une éventuelle discrimination à l’encontre des utilisateurs ne parlant pas anglais.
Détection et évasion : Un défi technologique
OpenAI n’est pas la première à se confronter à ce défi. Par le passé, l’entreprise a testé un autre outil de détection sans filigranes, qui avait un taux de réussite de seulement 26 %. D’autres entreprises travaillent également sur les technologies de filigrane. Google a par exemple lancé son propre outil, SynthID, pour détecter les textes générés par son IA Gemini. D’autres solutions telles qu’Originality AI, Content at Scale et ZeroGPT tentent de relever ce défi, mais la question demeure : ces outils sont-ils vraiment fiables ?
À mon avis, tous les outils de détection de contenu généré par l’IA sont contournables en raison de la créativité des utilisateurs et du nombre immense d’utilisateurs. Il est probable que des vidéos explicatives fleuriront sur YouTube montrant comment contourner ces systèmes. Une question éthique se pose également : devons-nous toujours divulguer qui a créé le contenu ? De plus, les préoccupations liées à la détection concernent uniquement les textes entièrement générés par l’IA, mais si un texte est modifié et adapté par un utilisateur, quel sera alors le taux de détection ? La fiabilité de ces outils reste incertaine face aux nombreuses stratégies pour obscurcir l’origine d’un contenu.
Vers un avenir déterminé par les filigranes numériques
L’ascension des filigranes numériques comme norme pour le suivi des œuvres générées par l’IA semble inévitable. Malgré les défis technologiques et éthiques, OpenAI et d’autres acteurs de l’industrie travaillent sans relâche pour offrir des solutions efficaces. Dans un avenir proche, ces outils pourraient devenir des normes pour tenter d’assurer une transparence et une responsabilité accrues dans l’utilisation des IA génératives.
Par Brice Matter
____________________________
Pour ne rien rater de l’actualité des IA génératives, abonnez-vous ici à la Newsletter Gennn !