De plus en plus nous voyons des entreprises, victimes d’attaques de l’homme du milieu. Enrichie par les performances des intelligences artificielles, ces attaques usant de deepfake sont de plus en plus convaincantes.
Détection du deepfake
Les services de forensic ont toujours été confrontés à des preuves falsifiées et sont donc bien placés pour s’adapter à la présence de deepfakes. Nous examinons ici quelques-unes des façons dont ce contenu artificiel peut être découvert, ainsi que les mesures préventives qui peuvent être prises contre cette menace.
Détection manuelle
Il est encore possible de détecter manuellement la grande majorité des contenus deepfake en recherchant les incohérences. Cette tâche ne peut être réalisée que pour un nombre limité de fichiers et peut nécessiter une formation pour se familiariser avec tous les signes à observer. Toutefois, ce processus est encore compliqué par la prédisposition humaine à croire le contenu audiovisuel et à travailler dans une perspective de vérité par défaut. Cela introduit la possibilité d’erreurs, tant dans la sélection des fichiers qui doivent être inspectés que dans l’inspection elle-même.
Les modèles d’IA générant des deepfakes peuvent contenir des défauts détectables à l’œil nu.
- des contours du visage sont flous ;
- un absence de clignement des yeux ;
- une présence de reflets de lumière dans les yeux ;
- une incohérences dans les cheveux, les veines, les cicatrices, etc ;
- des incohérences dans l’arrière-plan, dans le sujet ainsi que dans la mise au point, profondeur, etc.
Détection automatisée
Idéalement, un système analyserait tout contenu numérique et rendrait compte de son authenticité. Un tel système ne sera probablement jamais parfait, mais avec la sophistication croissante de la technologie des deepfakes, un tel système pourrait s’avérer plus précis que l’inspection manuelle. Des entreprises telles que Facebook et l’entreprise de sécurité McAfee se sont déjà efforcées de créer ce type de logiciel.
Le logiciel de détection recherchera les signes de manipulation et aidera l’examinateur à mesurer l’authenticité grâce à un rapport d’IA. Comme les outils de création de deepfake ont besoin de données d’entraînement pour reproduire une personne réelle, la plupart des modèles de détection de deepfake sont entraînés à l’aide d’images deepfake. Les signes de manipulation appris sont donc basés sur des données de deepfakes connus, ce qui rend difficile la détection de deepfakes générés par des modèles inconnus ou mis à jour. De même, un réseau antagoniste génératif (RAG) de deepfake peut être mis à jour pour tenir compte des signes détectés par des modèles de détection connus afin de passer inaperçus.
Cependant, la technologie de détection des deepfakes se heurte à des difficultés.
- Les algorithmes de détection sont formés sur des ensembles de données spécifiques. Une légère modification de la méthode utilisée pour générer le deepfake peut donc empêcher la détection.
- Une mise à jour du modèle discriminant d’un réseau antagoniste génératif (RAG) pour des artefacts spécifiques détectés par ces systèmes trompera le logiciel de détection.
- Les vidéos peuvent être compressées ou réduites en taille, ce qui pose des problèmes de réduction des pixels et des artefacts, rendant plus difficile la détection des incohérences recherchées par le système.
- Les bases de données peuvent être manipulées pour mal catégoriser les images comportant certains identifiants en ajoutant un identifiant à une petite partie de l’ensemble de données (par exemple, l’application d’un déclencheur à 5 % des images a entraîné une classification erronée des fausses images comportant le déclencheur comme étant réelles).
- Les capacités accrues en matière de criminalistique d’images et de détection des contrefaçons sont à l’origine de l’amélioration de la qualité des vidéos truquées. Les RAG peuvent rattraper leur retard relativement facilement en mettant à jour le discriminateur pour échapper au détecteur.
En mettant à jour le discriminateur pour échapper au détecteur, la capacité d’apprentissage basée sur les boucles de rétroaction de ces réseaux antagonistes génératifs permettra de produire un deepfake capable de tromper le détecteur.
Mesures de prévention du deepfake
Les entreprises qui s’appuient sur une autorisation par biométrie faciale ou vocale doivent évaluer le processus d’autorisation dans son ensemble. L’amélioration de la robustesse de ce processus est considérée comme un meilleur plan d’action que la seule mise en œuvre de systèmes spécifiques de détection des deepfakes. Les entreprises peuvent demander à leurs collaborateurs de mettre en place quelques vérifications systématiques :
- exiger une connexion vidéo en direct ;
- utiliser une autorisation audiovisuelle plutôt qu’uniquement audio ;
- exiger que des actes compliqués et aléatoires soient exécutés en direct devant la caméra, par exemple en déplaçant les mains sur le visage.
Afin de relever les défis posés par la technologie des deepfakes, il est important de connaître les actions menées par les différents acteurs pour contrer cette menace. Cette question est également influencée par le cadre législatif actuel, qui peut exiger des mesures obligatoires ou volontaires.
Actions des entreprises contre les deepfakes
Début 2020, Meta a annoncé une nouvelle politique interdisant les deepfakes sur ses plateformes. Meta a déclaré qu’elle supprimerait les contenus édités par l’IA susceptibles d’induire les gens en erreur, mais a précisé que les satires ou les parodies utilisant la même technologie seraient toujours autorisées sur les plateformes. La manière dont les entreprises technologiques telles que Twitter et Meta réglementent la technologie des deepfakes aura un impact considérable sur la manière dont les gens s’engageront et réagiront face aux deepfakes.
Voici quelques exemples de politiques d’entreprises.
- Meta souhaite supprimer les deepfakes ou les médias édités d’une autre manière, lorsque « la manipulation n’est pas apparente et pourrait induire en erreur, en particulier dans le cas de contenu vidéo ».
- TikTok interdit les faux numériques (médias synthétiques ou médias manipulés) qui « induisent les utilisateurs en erreur en déformant la vérité des événements et causent un préjudice important au sujet de la vidéo, à d’autres personnes ou à la société ».
- Reddit « n’autorise pas les contenus qui usurpent l’identité de personnes ou d’entités de manière trompeuse ou mensongère ». Cela inclut explicitement les deepfakes « présentés pour tromper ou faussement attribués à une personne ou une entité ».
- Youtube interdit déjà les médias manipulés dans le cadre des politiques relatives au spam, aux pratiques trompeuses et à l’escroquerie de ses lignes directrices communautaires.
Nombre de ces politiques prennent en compte l’intention pour décider de la suppression ou non d’un deepfake. Toutefois, la définition de l’intention peut s’avérer difficile et subjective. Néanmoins, les plateformes en ligne peuvent jouer un rôle central en aidant les victimes de technologies deepfake à identifier l’auteur. Les fournisseurs des technologies ont également des responsabilités dans la protection de l’utilisation de leurs technologies et dans la coopération avec les forces de l’ordre.
Plusieurs entreprises technologiques travaillent sur des technologies de détection des deepfakes. En outre, le développement de ces technologies est devenu une priorité lors de la pandémie de COVID-19, et le conflit actuel entre la Russie et l’Ukraine a suscité un regain d’intérêt.
- Meta a déclaré avoir mis au point un outil d’IA qui détecte les deepfakes en procédant à une rétro-ingénierie d’une seule image générée par l’IA afin d’en déterminer l’origine.
- Google a publié un vaste ensemble de données visuelles de deepfakes, qui a incorporé dans le benchmark FaceForensics.
- Microsoft a lancé le Microsoft Video Authenticator, qui peut analyser une photo ou une vidéo afin de déterminer, en pourcentage de probabilité, si le média a été manipulé artificiellement.
En ce qui concerne les tendances juridiques, le droit européen s’efforce de suivre le rythme de l’évolution de la technologie et des définitions changeantes de la criminalité. Toutefois, il est nécessaire d’établir de nouveaux cadres réglementaires tenant compte des défis contemporains en matière d’application de la loi, en particulier dans le domaine numérique, ainsi que de l’évolution des normes éthiques.
La crise du COVID-19 a donné lieu à davantage de discussions sur la réglementation de la désinformation et des outils de détection des contenus deepfakes, mais aussi à une utilisation accrue des outils de vidéoconférence avec des arrière-plans ajustables et d’autres filtres.
Le rapport du Parlement européen « Tackling Deepfakes in European Policy » explique cela et montre que le paysage réglementaire de l’Union européenne relatif aux deepfakes « comprend un réseau complexe de normes constitutionnelles, ainsi que des réglementations contraignantes et non contraignantes au niveau de l’UE et des États membres ».
Le cadre réglementaire le plus pertinent pour l’application de la loi dans le domaine des deepfakes est le cadre réglementaire sur l’IA, qui n’est encore qu’une proposition de loi, proposé par la Commission européenne. Ce cadre adopte une approche fondée sur les risques pour la réglementation de l’IA et de ses applications. Les deepfakes sont explicitement touchés par le passage concernant les « systèmes d’IA utilisés pour générer ou manipuler du contenu image, audio ou vidéo » et doivent adhérer à certaines exigences, qui comprennent le marquage du contenu comme deepfake pour indiquer clairement que les utilisateurs ont affaire à des séquences manipulées.
Les logiciels de détection de deepfake utilisés par les forces de l’ordre entrent dans la catégorie « à haut risque », car sont considérés comme une menace pour les droits et les libertés des individus.