Deux méthodes perturbatrices selon un chercheur de l’US Army spécialiste de l’IA et des sciences des réseaux

Le capitaine de l’armée américaine Iain Cruickshank est titulaire d’un doctorat et chercheur en informatique sociétale à l’Université Carnegie Mellon de Pittsburgh.
Ses affectations précédentes comprenaient la compagnie D, le 781st Military Intelligence Battalion (Cyber), et la responsabilité de la planification, de l’analyse et de la production d’une équipe de mission nationale dans la Cyber ​​National Mission Force.
Il est également membre actif du groupe de recherche CASOS (Center for Computational Analysis of Social and Organizational Systems). Il utilise l’apprentissage automatique et la science des réseaux pour étudier les phénomènes politiques et criminels, y compris les comportements de vote et les délits liés à la cyber-médiation.

Dans un article publié le 20 février 2020 sur le site War on the Rocks intitulé l’ABC de l’analyse du renseignement grâce à l’intelligence artificielle (excellent document, simple, synthétique et qui pose quasiment tous les enjeux), Iian Cruickshank identifie deux méthodes perturbatrices.

L’apprentissage automatique contradictoire

Cela consiste à apprendre à tromper les algorithmes d’apprentissage automatique afin qu’ils fassent de mauvaises prédictions.
« Cette technique peut être appliquée pour diverses raisons, la plus courante étant d’attaquer ou de provoquer un dysfonctionnement dans les modèles d’apprentissage automatique standard. »

Un exemple, une étude du Tencent Keen Security Lab publiée en mars 2019 montre qu’il était possible, en déposant des petits autocollants sur les routes, de tromper le système d’autopilotage de Tesla et de l’envoyer sur la voie de circulation opposée.

https://keenlab.tencent.com/en/2019/03/29/Tencent-Keen-Security-Lab-Experimental-Security-Research-of-Tesla-Autopilot/

Autre exemple, « des chercheurs de la KU Leuven ont mis au point un modèle capable de mystifier un détecteur de personnes. En portant autour du cou un petit panneau en carton où figure ce modèle, vous pourriez vous rendre invisible à une caméra de surveillance intelligente. »

 © Simen Thys, Wiebe Van Ranst, Toon Goedemé

Voici un excellent article qui introduit l’apprentissage automatique contradictoire –>
https://blog.floydhub.com/introduction-to-adversarial-machine-learning/

La production de données artificielles ou synthétiques crédibles

L’analyse de données est intéressante si elle se base sur un grand nombre de
données (les mégadonnées). C’est d’autant plus intéressant également si
l’algorithme peut s’entrainer beaucoup sur ces données. Or ces bases contiennent énormément de données sensibles comme des informations personnelles. Le respect de la vie privée et son bagage juridique peut freiner la recherche.

C’est pourquoi, en 2017, des chercheurs du MIT ont créer de faux ensembles de données à partir de vrais. L’objectif était de permettre l’analyse des données sans se soucier que des informations personnelles sensibles deviennent publiques tout en maintenant un apprentissage des algorithmes efficace.

La production de ces données synthétiques ne se cantonnent pas au domaine de la recherche.

Une intelligence artificielle crée des visages ultraréalistes de personnes qui n’existent pas.
Ces visages, générés automatiquement, ne sont pas des vrais. thispersondoesnotexist.com

En Inde, les deepfakes s’invitent déjà dans les campagnes électorales
En créant deux vidéos deepfakes de sa propre initiative, un candidat à une élection de Delhi (Inde) a pu adresser un message aux électeurs en trois langues différentes. Un moyen de s’adresser au plus grand nombre, même sans parler leur langue.
Des chercheurs développent une IA qui génère et détecte des fake news
L’institut explique : «Notre étude présente un résultat surprenant : le meilleur moyen de détecter les fake news neurales est d’utiliser un modèle qui est également un générateur. Le générateur est plus familier de ses propres habitudes, ses bizarreries et ses caractéristiques, ainsi que ceux de modèles d’IA similaires, en particulier ceux formés à partir de données similaires, c’est-à-dire des informations accessibles au public. Notre modèle, Grover, est un générateur capable de repérer facilement ses propres faux articles d’actualité, ainsi que ceux générés par d’autres IA. »

L’intérêt militaire est vite identifiable  

En effet, il peut être très dangereux qu’un ennemi nous alimente en données qui semblent parfaitement crédibles mais qui sont totalement fausses.
C’est pourquoi il faut comprendre le phénomène et mettre en place des contre-mesures.
A l’inverse, il peut être très intéressant d’alimenter son ennemi en données synthétiques pour le tromper, l’intoxiquer, le noyer sous les données, …

B. Biggio, G. Fumera, and F. Roli. « Security evaluation of pattern classifiers under attack ». IEEE Transactions on Knowledge and Data Engineering, 26(4):984–996, 2014.

Cela nous place sur un champ de bataille techno-socio cognitif en croissance exponentielle.

La nouvelle arme compatible avec l’IA : des photos de la Terre « truquées »


AP / AHN YOUNG-JOON 

Pour mieux comprendre l’aspect technique de cette bataille, voici un article intéressant.

Pour finir, voici la conclusion de l’article de Iian Cruickshank :

L’environnement opérationnel auquel sont confrontés les analystes du renseignement subit une numérisation accélérée. En tant que tels, les analystes et les organisations de renseignement militaire sont confrontés à de nouveaux problèmes de volume de données, de vitesse et de véracité qui nécessitent une modernisation complète des organisations de renseignement militaire. En particulier, les forces armées ont besoin d’outils et d’infrastructures centrées sur les données pour les unités de renseignement, de formation d’analystes du renseignement sur les compétences en matière de traitement des données numériques et de recherches par des organismes de recherche du renseignement militaire sur l’impact et l’atténuation de l’apprentissage automatique contradictoire et des fausses données numériques.

Bonus

Nous n’avons pas attendu l’intelligence artificielle pour tromper l’ennemi.
Un exemple, l’opération « cape de camouflage » des Nazis: Les autorités hambourgeoises nazies tentèrent en 1941 de tromper les Alliés en érigeant sur l’Alster, entre Jungfernstieg et le pont Lombardsbrücke, une construction à partir de bois, fils de fer et roseaux et un faux pont. L’objectif de cette opération « Tarnkappe »: faire croire aux pilotes des avions de bombardement que le centre de Hambourg était situé plus au nord… une tentative qui échoua très vite puisque la presse anglaise s’empressa de publier les photos du « avant » et du « après »

 

https://www.monhambourg.de/mon-hambourg/10-choses-presque-in-utiles-%C3%A0-savoir-sur-hambourg/

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.