En utilisant ce site, vous acceptez la Politique de confidentialité et les Conditions Générales de Vente.
Accepter
Le Blog de BBND – Actualités et nouvelles tendances du webLe Blog de BBND – Actualités et nouvelles tendances du web
  • News
  • Catégories
    • Actualités Numériques
    • Blockchain
    • Business Intelligence
    • Cybersécurité
    • Data
    • Développement Web
    • Hardware
    • Intelligence Artificielle
    • Mobile
    • Technologie
    • Web Design
    • Web Marketing
  • BBND
  • Qui sommes-nous
  • Initiatives
  • Réalisations
  • Formations
  • Recrutement
  • Contact
En cours de lecture : Lutte contre les deepfakes générés par l’IA
Partager
Notification Voir mes signets
Dernières actualités
Illustration représentant Rclone, un outil de synchronisation cloud en ligne de commande, avec une icône de cloud et flèches de transfert
Rclone : Guide complet pour synchroniser, sauvegarder et monter vos fichiers cloud
Technologie
Schéma comparatif entre IPMI, PiKVM et NanoKVM pour le contrôle à distance
IPMI, PiKVM ou NanoKVM : Quelle solution KVM choisir ?
Hardware
Des packages npm malveillants compromettent Cursor, volent des identifiants et cryptomonnaies, et déploient des chevaux de Troie. Détail des campagnes.
Une faille dans Cursor : plus de 3 200 développeurs infectés via des packages npm malveillants
Cybersécurité
Filament v3 laravel
Pourquoi Filament V3 change-t-il la donne pour les développeurs Laravel ?
Développement Web
Illustration d’un cerveau connecté à une intelligence artificielle, symbolisant la recherche contre Alzheimer
L’IA dévoile une cause possible d’Alzheimer et identifie une piste thérapeutique prometteuse
Intelligence Artificielle
Aa
Le Blog de BBND – Actualités et nouvelles tendances du webLe Blog de BBND – Actualités et nouvelles tendances du web
Aa
Recherche
  • News
  • Catégories
    • Actualités Numériques
    • Blockchain
    • Business Intelligence
    • Cybersécurité
    • Data
    • Développement Web
    • Hardware
    • Intelligence Artificielle
    • Mobile
    • Technologie
    • Web Design
    • Web Marketing
  • BBND
    • Qui sommes-nous
    • Initiatives
    • Réalisations
    • Formations
    • Recrutement
    • Contact
Suivez-nous
  • Personnaliser mes sujets d’intérêts
  • Mes signets
© 2023 BBND All Rights Reserved.
Le Blog de BBND – Actualités et nouvelles tendances du web > Tous les articles > Intelligence Artificielle > Lutte contre les deepfakes générés par l’IA
Intelligence Artificielle

Lutte contre les deepfakes générés par l’IA

Sara B.
De Sara B. 23 février 2024
Partager
11 min de lecture
Un homme et une femme en visio-conference
Partager

De plus en plus nous voyons des entreprises, victimes d’attaques de l’homme du milieu. Enrichie par les performances des intelligences artificielles, ces attaques usant de deepfake sont de plus en plus convaincantes.

Détection du deepfake

Les services de forensic ont toujours été confrontés à des preuves falsifiées et sont donc bien placés pour s’adapter à la présence de deepfakes. Nous examinons ici quelques-unes des façons dont ce contenu artificiel peut être découvert, ainsi que les mesures préventives qui peuvent être prises contre cette menace.

Détection manuelle

Il est encore possible de détecter manuellement la grande majorité des contenus deepfake en recherchant les incohérences. Cette tâche ne peut être réalisée que pour un nombre limité de fichiers et peut nécessiter une formation pour se familiariser avec tous les signes à observer. Toutefois, ce processus est encore compliqué par la prédisposition humaine à croire le contenu audiovisuel et à travailler dans une perspective de vérité par défaut. Cela introduit la possibilité d’erreurs, tant dans la sélection des fichiers qui doivent être inspectés que dans l’inspection elle-même.

Les modèles d’IA générant des deepfakes peuvent contenir des défauts détectables à l’œil nu.

  • des contours du visage sont flous ;
  • un absence de clignement des yeux ;
  • une présence de reflets de lumière dans les yeux ;
  • une incohérences dans les cheveux, les veines, les cicatrices, etc ;
  • des incohérences dans l’arrière-plan, dans le sujet ainsi que dans la mise au point, profondeur, etc.

Détection automatisée

Idéalement, un système analyserait tout contenu numérique et rendrait compte de son authenticité. Un tel système ne sera probablement jamais parfait, mais avec la sophistication croissante de la technologie des deepfakes, un tel système pourrait s’avérer plus précis que l’inspection manuelle. Des entreprises telles que Facebook et l’entreprise de sécurité McAfee se sont déjà efforcées de créer ce type de logiciel.

Le logiciel de détection recherchera les signes de manipulation et aidera l’examinateur à mesurer l’authenticité grâce à un rapport d’IA. Comme les outils de création de deepfake ont besoin de données d’entraînement pour reproduire une personne réelle, la plupart des modèles de détection de deepfake sont entraînés à l’aide d’images deepfake. Les signes de manipulation appris sont donc basés sur des données de deepfakes connus, ce qui rend difficile la détection de deepfakes générés par des modèles inconnus ou mis à jour. De même, un réseau antagoniste génératif (RAG) de deepfake peut être mis à jour pour tenir compte des signes détectés par des modèles de détection connus afin de passer inaperçus.

Cependant, la technologie de détection des deepfakes se heurte à des difficultés.

  • Les algorithmes de détection sont formés sur des ensembles de données spécifiques. Une légère modification de la méthode utilisée pour générer le deepfake peut donc empêcher la détection.
  • Une mise à jour du modèle discriminant d’un réseau antagoniste génératif (RAG) pour des artefacts spécifiques détectés par ces systèmes trompera le logiciel de détection.
  • Les vidéos peuvent être compressées ou réduites en taille, ce qui pose des problèmes de réduction des pixels et des artefacts, rendant plus difficile la détection des incohérences recherchées par le système.
  • Les bases de données peuvent être manipulées pour mal catégoriser les images comportant certains identifiants en ajoutant un identifiant à une petite partie de l’ensemble de données (par exemple, l’application d’un déclencheur à 5 % des images a entraîné une classification erronée des fausses images comportant le déclencheur comme étant réelles).
  • Les capacités accrues en matière de criminalistique d’images et de détection des contrefaçons sont à l’origine de l’amélioration de la qualité des vidéos truquées. Les RAG peuvent rattraper leur retard relativement facilement en mettant à jour le discriminateur pour échapper au détecteur.

En mettant à jour le discriminateur pour échapper au détecteur, la capacité d’apprentissage basée sur les boucles de rétroaction de ces réseaux antagonistes génératifs permettra de produire un deepfake capable de tromper le détecteur.

Mesures de prévention du deepfake

Les entreprises qui s’appuient sur une autorisation par biométrie faciale ou vocale doivent évaluer le processus d’autorisation dans son ensemble. L’amélioration de la robustesse de ce processus est considérée comme un meilleur plan d’action que la seule mise en œuvre de systèmes spécifiques de détection des deepfakes. Les entreprises peuvent demander à leurs collaborateurs de mettre en place quelques vérifications systématiques :

  • exiger une connexion vidéo en direct ;
  • utiliser une autorisation audiovisuelle plutôt qu’uniquement audio ;
  • exiger que des actes compliqués et aléatoires soient exécutés en direct devant la caméra, par exemple en déplaçant les mains sur le visage.

Afin de relever les défis posés par la technologie des deepfakes, il est important de connaître les actions menées par les différents acteurs pour contrer cette menace. Cette question est également influencée par le cadre législatif actuel, qui peut exiger des mesures obligatoires ou volontaires.

Actions des entreprises contre les deepfakes

Début 2020, Meta a annoncé une nouvelle politique interdisant les deepfakes sur ses plateformes. Meta a déclaré qu’elle supprimerait les contenus édités par l’IA susceptibles d’induire les gens en erreur, mais a précisé que les satires ou les parodies utilisant la même technologie seraient toujours autorisées sur les plateformes. La manière dont les entreprises technologiques telles que Twitter et Meta réglementent la technologie des deepfakes aura un impact considérable sur la manière dont les gens s’engageront et réagiront face aux deepfakes.

Voici quelques exemples de politiques d’entreprises.

  • Meta souhaite supprimer les deepfakes ou les médias édités d’une autre manière, lorsque « la manipulation n’est pas apparente et pourrait induire en erreur, en particulier dans le cas de contenu vidéo ».
  • TikTok interdit les faux numériques (médias synthétiques ou médias manipulés) qui « induisent les utilisateurs en erreur en déformant la vérité des événements et causent un préjudice important au sujet de la vidéo, à d’autres personnes ou à la société ».
  • Reddit « n’autorise pas les contenus qui usurpent l’identité de personnes ou d’entités de manière trompeuse ou mensongère ». Cela inclut explicitement les deepfakes « présentés pour tromper ou faussement attribués à une personne ou une entité ».
  • Youtube interdit déjà les médias manipulés dans le cadre des politiques relatives au spam, aux pratiques trompeuses et à l’escroquerie de ses lignes directrices communautaires.

Nombre de ces politiques prennent en compte l’intention pour décider de la suppression ou non d’un deepfake. Toutefois, la définition de l’intention peut s’avérer difficile et subjective. Néanmoins, les plateformes en ligne peuvent jouer un rôle central en aidant les victimes de technologies deepfake à identifier l’auteur. Les fournisseurs des technologies ont également des responsabilités dans la protection de l’utilisation de leurs technologies et dans la coopération avec les forces de l’ordre.

Plusieurs entreprises technologiques travaillent sur des technologies de détection des deepfakes. En outre, le développement de ces technologies est devenu une priorité lors de la pandémie de COVID-19, et le conflit actuel entre la Russie et l’Ukraine a suscité un regain d’intérêt.

  • Meta a déclaré avoir mis au point un outil d’IA qui détecte les deepfakes en procédant à une rétro-ingénierie d’une seule image générée par l’IA afin d’en déterminer l’origine.
  • Google a publié un vaste ensemble de données visuelles de deepfakes, qui a incorporé dans le benchmark FaceForensics.
  • Microsoft a lancé le Microsoft Video Authenticator, qui peut analyser une photo ou une vidéo afin de déterminer, en pourcentage de probabilité, si le média a été manipulé artificiellement.

En ce qui concerne les tendances juridiques, le droit européen s’efforce de suivre le rythme de l’évolution de la technologie et des définitions changeantes de la criminalité. Toutefois, il est nécessaire d’établir de nouveaux cadres réglementaires tenant compte des défis contemporains en matière d’application de la loi, en particulier dans le domaine numérique, ainsi que de l’évolution des normes éthiques.

La crise du COVID-19 a donné lieu à davantage de discussions sur la réglementation de la désinformation et des outils de détection des contenus deepfakes, mais aussi à une utilisation accrue des outils de vidéoconférence avec des arrière-plans ajustables et d’autres filtres.
Le rapport du Parlement européen « Tackling Deepfakes in European Policy » explique cela et montre que le paysage réglementaire de l’Union européenne relatif aux deepfakes « comprend un réseau complexe de normes constitutionnelles, ainsi que des réglementations contraignantes et non contraignantes au niveau de l’UE et des États membres ».

Le cadre réglementaire le plus pertinent pour l’application de la loi dans le domaine des deepfakes est le cadre réglementaire sur l’IA, qui n’est encore qu’une proposition de loi, proposé par la Commission européenne. Ce cadre adopte une approche fondée sur les risques pour la réglementation de l’IA et de ses applications. Les deepfakes sont explicitement touchés par le passage concernant les « systèmes d’IA utilisés pour générer ou manipuler du contenu image, audio ou vidéo » et doivent adhérer à certaines exigences, qui comprennent le marquage du contenu comme deepfake pour indiquer clairement que les utilisateurs ont affaire à des séquences manipulées.

Les logiciels de détection de deepfake utilisés par les forces de l’ordre entrent dans la catégorie « à haut risque », car sont considérés comme une menace pour les droits et les libertés des individus.

Vous devriez également aimer

L’IA dévoile une cause possible d’Alzheimer et identifie une piste thérapeutique prometteuse

L’IA révolutionne la détection de la tuberculose dans les zones défavorisées

IA détecte le cancer de l’endomètre avec 99,26% de précision

TxAgent : L’IA révolutionne la découverte de médicaments

FireSat : La révolution satellitaire contre les incendies, ou comment l’IA et l’espace sauvent nos forêts

Partager cet article
Facebook Twitter LinkedIn Copier le lien Imprimer
Qu´en avez-vous pensé ?
Ennuyant0
Triste0
Révoltant0
Drôle0
Accablant0
Plaisant0
Malin0
Surprenant0
Waouh0
Article précédent AnyDesk piraté, 170 000 utilisateurs concernés
Article suivant Aperçu de la présentation de Sora d'OpenAI. En fond, un arrêt sur image d'une vidéo générée par Sora présentant des avions en papier Sora, la nouvelle IA pour la création de courtes vidéos
Laisser un avis

Laisser un avis Annuler la réponse

Vous devez vous connecter pour publier un commentaire.

Restez connecté

Facebook Like
Twitter Suivre
Instagram Suivre
Youtube S´inscrire
banner banner
Faites confiance à BBND
Développez tous vos projets digitaux grâce à une équipe d'experts
En savoir plus

Dernières actualités

Illustration représentant Rclone, un outil de synchronisation cloud en ligne de commande, avec une icône de cloud et flèches de transfert
Rclone : Guide complet pour synchroniser, sauvegarder et monter vos fichiers cloud
Technologie
Schéma comparatif entre IPMI, PiKVM et NanoKVM pour le contrôle à distance
IPMI, PiKVM ou NanoKVM : Quelle solution KVM choisir ?
Hardware
Des packages npm malveillants compromettent Cursor, volent des identifiants et cryptomonnaies, et déploient des chevaux de Troie. Détail des campagnes.
Une faille dans Cursor : plus de 3 200 développeurs infectés via des packages npm malveillants
Cybersécurité
Filament v3 laravel
Pourquoi Filament V3 change-t-il la donne pour les développeurs Laravel ?
Développement Web
//

Le blog BBND
Actualités et nouvelles tendances du numérique

Catégories news

  • Actualités Numériques
  • Blockchain
  • Business Intelligence
  • Cybersécurité
  • Data
  • Développement Web
  • Intelligence Artificielle
  • Hardware
  • Mobile
  • Technologie
  • Web Design
  • Web Marketing

Notre société

  • Qui sommes-nous
  • Initiatives
  • Réalisations
  • Formations
  • Recrutement
  • Contact

Liens utiles

  • Mentions légales
  • CGV
  • Politique de confidentialité

Nos services

  • Développement web/mobile/desktop
  • SEO
  • Stratégie de communication & Community management
  • Audit d’ergonomie
  • Solutions de cybersécurité
  • Outils de cybersécurité
  • E-droit & E-réputation
  • Innovation de service & Innovation technologique
  • Intelligence Artificielle & Business Intellligence
  • Design graphique
  • Jeux mobile
  • Motion design
  • Impression tout support
Le Blog de BBND – Actualités et nouvelles tendances du webLe Blog de BBND – Actualités et nouvelles tendances du web
Suivez-nous

© 2023 BBND. All Rights Reserved.

Un projet digital ?

Notre équipe d'experts couvre de larges domaines du numérique

Contactez-nous pour nous en faire part !

Supprimé de la liste de lecture

Annuler
Welcome Back!

Sign in to your account

Mot de passe perdu ?