Ordinateurs

L’IA d’Intel peut détecter les DeepFakes avec une précision de 96 %

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Deepfakes n’a pas perdu de temps pour devenir un problème à l’échelle d’Internet. En quelques années seulement, ces vidéos manipulées ont évolué pour prendre part à la comédie sur le Web, à la désinformation politique, aux faux entretiens d’embauche et même à la pornographie sans le consentement de la personne représentée. Les deepfakes sont susceptibles de devenir encore plus convaincants à mesure que la technologie de l’intelligence artificielle (IA) se développe, amenant certaines entreprises à rechercher ou à développer leurs propres techniques de détection des deepfakes.

C’est exactement ce que fait le système FakeCatcher d’Intel, et avec une précision surprenante également. L’entreprise dit FakeCatcher est capable de différencier les vidéos de personnes réelles des deepfakes avec une précision de 96 % en quelques millisecondes. Comment fait-il ? En recherchant ce qui nous donne vraiment vie : le sang.

FakeCatcher recherche de minuscules signes de flux sanguin dans les pixels d’une vidéo deepfake potentielle. Lorsque notre cœur pompe le sang, nos veines changent de couleur. Ce phénomène fait partie intégrante de la photopléthysmographie (PPG), une technique généralement utilisée pour surveiller le flux sanguin d’une personne. À l’aide de PPG, FakeCatcher capture les signaux de flux sanguin à travers le visage d’un sujet vidéo. L’outil traduit ensuite ces signaux en cartes spatio-temporelles, que les algorithmes d’apprentissage en profondeur comparent à l’activité PPG humaine pour déterminer si le sujet de la vidéo est réel ou faux.

Les ingénieurs d’Intel ont utilisé plusieurs produits logiciels de l’entreprise pour créer FakeCatcher, comme OpenVINO comme interface d’apprentissage en profondeur de l’outil et OpenCV pour la détection en temps réel. FakeCatcher fonctionne sur des processeurs Intel Xeon Scalable de 3e génération, ce qui, selon Intel, permet à l’outil d’exécuter jusqu’à 72 flux de détection distincts à tout moment. Selon comment et où FakeCatcher est déployé, ce type de capacité pourrait aider à écraser les théories du complot, les escroqueries et les contenus pour adultes malveillants avant qu’ils ne puissent atteindre un public plus large. (Intel n’a pas précisé où exactement FakeCatcher ira maintenant qu’il a passé les tests, mais a mentionné qu’il pourrait trouver une place sur les réseaux sociaux, les actualités et les sites Web à but non lucratif.)

FakeCatcher représente le saut d’Intel dans un effort croissant pour arrêter les deepfakes dans leur élan. Plus tôt cette année, Google a pris la décision d’interdire la formation deepfake sur son service Colab dans un contexte d’augmentation de la désinformation et de la consommation de ressources informatiques. À peine deux semaines plus tard, l’Union européenne a annoncé qu’elle prendrait des mesures contre Meta, Twitter et d’autres géants de la technologie s’ils ne faisaient pas non plus d’efforts démontrables pour lutter contre les deepfakes.

Maintenant lis:

Bouton retour en haut de la page