La technologie Deepfake AI pourrait aider et autonomiser les prédateurs en ligne, avertit un expert en sécurité
La Commission eSafety australienne a fait part de ses inquiétudes quant au potentiel de l’intelligence artificielle (IA) pour aider les prédateurs à préparer les enfants en ligne alors que le pays débat des restrictions sur la technologie émergente.
La commissaire australienne à la sécurité électronique, Julie Inman Grant, a déclaré sur Twitter que « le pouvoir de manipulation de l’IA générative pour exécuter le toilettage et la sextorsion n’est plus spéculatif ».
« eSafety reçoit déjà des rapports de cyberintimidation et des rapports d’abus basés sur des images concernant les deepfakes », a-t-elle écrit. « Le fait est que l’IA a été » exfiltrée dans la nature « sans garde-corps. »
Le poste de commissaire à la sécurité électronique des enfants a été créé en 2015 avec l’adoption de la loi sur l’amélioration de la sécurité en ligne des enfants.
Le commissaire eSafety a rapporté que l’année dernière, « près de 60% des quelque 7 000 signalements » reçus via le programme d’abus basé sur l’image étaient des signalements de sextorsion – la pratique consistant à extorquer de l’argent ou des faveurs sexuelles en menaçant de prouver l’activité sexuelle des victimes, un problème cela pourrait devenir plus grave avec les capacités accrues de la technologie deepfake.
La technologie Deepfake, les images, les vidéos et les voix générées par l’IA, sont devenues plus crédibles et largement disponibles à mesure que l’IA améliore la capacité de manipuler les médias à des degrés très réalistes.
Le Parlement australien exige que les services de médias sociaux se conforment aux exigences de sécurité du département, mais l’IA est passée entre les mailles du filet en raison de la nature largement incontrôlée de son développement et de sa diffusion en ligne.
L’Australie a réagi en adoptant un ensemble national d’éthique et de principes d’IA, le gouvernement tenant compte des questions de sécurité en ligne et de droit d’auteur, entre autres, selon un porte-parole du ministre des Sciences et de la Technologie, Ed Husic.
« L’IA n’est pas un domaine non réglementé », a déclaré le porte-parole de Husic au Guardian – Australie. « Dans le cadre des explorations d’une réglementation supplémentaire de l’IA, le gouvernement consulte un large éventail de parties prenantes concernant les lacunes potentielles et envisage d’autres politiques. »
Le porte-parole a également révélé qu’en mars, le gouvernement avait reçu des conseils sur « les implications à court terme de l’IA générative, y compris les mesures prises par d’autres pays ».
La ministre des Communications, Michelle Rowland, a déclaré que l’IA sera réglementée par le commissaire à la sécurité électronique, la Commission australienne de la concurrence et des consommateurs, le commissaire australien à l’information et le National AI Center.
Le nouveau budget fédéral du pays, adopté la semaine dernière, contient 41 millions de dollars pour le déploiement responsable des programmes d’IA, a rapporté The Guardian.