Les nouvelles réglementations du continent chinois sur le contenu généré par intelligence artificielle sont entrées en vigueur ce lundi, marquant une étape significative pour garantir la transparence numérique. Publiées conjointement par l'Administration du cyberespace de Chine (CAC) et trois autres départements, les règles exigent que tout texte, image, audio, vidéo ou scène virtuelle généré par l'IA porte des étiquettes claires sur les plateformes de distribution.
Les plateformes sont désormais chargées de revoir le contenu avant sa mise en ligne, de détecter les marqueurs d'IA et d'ajouter des avis de risque à tout matériel soupçonné d'être généré par IA. Selon Zhang Jiyu, directeur exécutif de l'Institut de droit et de technologie de Renmin, le processus de révision repose sur trois niveaux : marqueurs explicites, indices de métadonnées et inférence algorithmique.
« Si les métadonnées signalent une signature d'IA, elle reçoit une étiquette claire 'généré par IA' », explique Zhang. « Mais si une plateforme ne fait que deviner via des algorithmes, elle doit marquer le contenu comme 'AIGC suspecté'. » Il souligne également l'importance de protéger les créateurs en cas de mal étiquetage d'œuvres originales.
Le continent chinois a déjà intensifié ses efforts contre l'utilisation abusive de l'IA cette année. En avril, la CAC a lancé une campagne de trois mois ciblant les échanges de visages, les imitations vocales et les contenus d'IA non étiquetés. En juin, plus de 3 500 outils d'IA problématiques ont été traités, près d'un million de messages nuisibles ont été supprimés, et environ 3 700 comptes ont été sanctionnés.
L'étiquetage de l'IA générative devient une norme mondiale, et le continent chinois a été rapide à légiférer. Ses 'Dispositions de 2023 sur l'Administration de la Synthèse Profonde des Services d'Information Basés sur Internet' figuraient parmi les premières lois mondiales à exiger l'étiquetage de l'AIGC.
Certains comparent l'IA à la boîte de Pandore : pleine de promesses mais lourde de risques. Geoffrey Hinton, souvent appelé le parrain de l'IA, l'a comparée à élever un tigreau—adorable au début, mais potentiellement dangereux s'il n'est pas maîtrisé. « Vous ne pouvez pas éliminer l'IA, » a-t-il averti, « alors nous devons apprendre à l'entraîner en toute sécurité. »
Reference(s):
cgtn.com