Deux méthodes perturbatrices selon un chercheur de l’US Army spécialiste de l’IA et des sciences des réseaux

Le capitaine de l’armée américaine Iain Cruickshank est titulaire d’un doctorat et chercheur en informatique sociétale à l’Université Carnegie Mellon de Pittsburgh.
Ses affectations précédentes comprenaient la compagnie D, le 781st Military Intelligence Battalion (Cyber), et la responsabilité de la planification, de l’analyse et de la production d’une équipe de mission nationale dans la Cyber ​​National Mission Force.
Il est également membre actif du groupe de recherche CASOS (Center for Computational Analysis of Social and Organizational Systems). Il utilise l’apprentissage automatique et la science des réseaux pour étudier les phénomènes politiques et criminels, y compris les comportements de vote et les délits liés à la cyber-médiation.

Dans un article publié le 20 février 2020 sur le site War on the Rocks intitulé l’ABC de l’analyse du renseignement grâce à l’intelligence artificielle (excellent document, simple, synthétique et qui pose quasiment tous les enjeux), Iian Cruickshank identifie deux méthodes perturbatrices.

L’apprentissage automatique contradictoire

Cela consiste à apprendre à tromper les algorithmes d’apprentissage automatique afin qu’ils fassent de mauvaises prédictions.
« Cette technique peut être appliquée pour diverses raisons, la plus courante étant d’attaquer ou de provoquer un dysfonctionnement dans les modèles d’apprentissage automatique standard. »

Un exemple, une étude du Tencent Keen Security Lab publiée en mars 2019 montre qu’il était possible, en déposant des petits autocollants sur les routes, de tromper le système d’autopilotage de Tesla et de l’envoyer sur la voie de circulation opposée.

https://keenlab.tencent.com/en/2019/03/29/Tencent-Keen-Security-Lab-Experimental-Security-Research-of-Tesla-Autopilot/

Autre exemple, « des chercheurs de la KU Leuven ont mis au point un modèle capable de mystifier un détecteur de personnes. En portant autour du cou un petit panneau en carton où figure ce modèle, vous pourriez vous rendre invisible à une caméra de surveillance intelligente. »

 © Simen Thys, Wiebe Van Ranst, Toon Goedemé

Voici un excellent article qui introduit l’apprentissage automatique contradictoire –>
https://blog.floydhub.com/introduction-to-adversarial-machine-learning/

La production de données artificielles ou synthétiques crédibles

L’analyse de données est intéressante si elle se base sur un grand nombre de
données (les mégadonnées). C’est d’autant plus intéressant également si
l’algorithme peut s’entrainer beaucoup sur ces données. Or ces bases contiennent énormément de données sensibles comme des informations personnelles. Le respect de la vie privée et son bagage juridique peut freiner la recherche.

C’est pourquoi, en 2017, des chercheurs du MIT ont créer de faux ensembles de données à partir de vrais. L’objectif était de permettre l’analyse des données sans se soucier que des informations personnelles sensibles deviennent publiques tout en maintenant un apprentissage des algorithmes efficace.

La production de ces données synthétiques ne se cantonnent pas au domaine de la recherche.

Une intelligence artificielle crée des visages ultraréalistes de personnes qui n’existent pas.
Ces visages, générés automatiquement, ne sont pas des vrais. thispersondoesnotexist.com

En Inde, les deepfakes s’invitent déjà dans les campagnes électorales
En créant deux vidéos deepfakes de sa propre initiative, un candidat à une élection de Delhi (Inde) a pu adresser un message aux électeurs en trois langues différentes. Un moyen de s’adresser au plus grand nombre, même sans parler leur langue.
Des chercheurs développent une IA qui génère et détecte des fake news
L’institut explique : «Notre étude présente un résultat surprenant : le meilleur moyen de détecter les fake news neurales est d’utiliser un modèle qui est également un générateur. Le générateur est plus familier de ses propres habitudes, ses bizarreries et ses caractéristiques, ainsi que ceux de modèles d’IA similaires, en particulier ceux formés à partir de données similaires, c’est-à-dire des informations accessibles au public. Notre modèle, Grover, est un générateur capable de repérer facilement ses propres faux articles d’actualité, ainsi que ceux générés par d’autres IA. »

L’intérêt militaire est vite identifiable  

En effet, il peut être très dangereux qu’un ennemi nous alimente en données qui semblent parfaitement crédibles mais qui sont totalement fausses.
C’est pourquoi il faut comprendre le phénomène et mettre en place des contre-mesures.
A l’inverse, il peut être très intéressant d’alimenter son ennemi en données synthétiques pour le tromper, l’intoxiquer, le noyer sous les données, …

B. Biggio, G. Fumera, and F. Roli. « Security evaluation of pattern classifiers under attack ». IEEE Transactions on Knowledge and Data Engineering, 26(4):984–996, 2014.

Cela nous place sur un champ de bataille techno-socio cognitif en croissance exponentielle.

La nouvelle arme compatible avec l’IA : des photos de la Terre « truquées »


AP / AHN YOUNG-JOON 

Pour mieux comprendre l’aspect technique de cette bataille, voici un article intéressant.

Pour finir, voici la conclusion de l’article de Iian Cruickshank :

L’environnement opérationnel auquel sont confrontés les analystes du renseignement subit une numérisation accélérée. En tant que tels, les analystes et les organisations de renseignement militaire sont confrontés à de nouveaux problèmes de volume de données, de vitesse et de véracité qui nécessitent une modernisation complète des organisations de renseignement militaire. En particulier, les forces armées ont besoin d’outils et d’infrastructures centrées sur les données pour les unités de renseignement, de formation d’analystes du renseignement sur les compétences en matière de traitement des données numériques et de recherches par des organismes de recherche du renseignement militaire sur l’impact et l’atténuation de l’apprentissage automatique contradictoire et des fausses données numériques.

Bonus

Nous n’avons pas attendu l’intelligence artificielle pour tromper l’ennemi.
Un exemple, l’opération « cape de camouflage » des Nazis: Les autorités hambourgeoises nazies tentèrent en 1941 de tromper les Alliés en érigeant sur l’Alster, entre Jungfernstieg et le pont Lombardsbrücke, une construction à partir de bois, fils de fer et roseaux et un faux pont. L’objectif de cette opération « Tarnkappe »: faire croire aux pilotes des avions de bombardement que le centre de Hambourg était situé plus au nord… une tentative qui échoua très vite puisque la presse anglaise s’empressa de publier les photos du « avant » et du « après »

 

https://www.monhambourg.de/mon-hambourg/10-choses-presque-in-utiles-%C3%A0-savoir-sur-hambourg/

Contre-ingérence face à la Chine: Cartographie des liens entre les universités et les entreprises militaires et de sécurité.

« À la fin de 2018 et au début de 2019, l’Université nationale australienne de Canberra a subi d’importantes violations de données, au cours desquelles les pirates ont eu accès à 19 ans de données personnelles à partir du réseau de l’université. Les médias ont suggéré que le piratage avait été perpétré depuis la Chine, mais le gouvernement australien a déclaré que l’attaque n’avait été attribuée à aucun pays. Les politiciens et les universitaires ont également fait part de leurs préoccupations concernant certains projets impliquant des universités chinoises et des chercheurs australiens . »

« Lors d’une conférence de presse, le ministre de l’éducation nationale australien Dan Tehan a déclaré que les menaces d’ingérence étrangère contre l’Australie, y compris ses universités, avaient atteint des «niveaux sans précédent», sans donner de détail. »

« Selon un groupe de réflexion australien (Australian Strategic Policy Institute (ASPI)), les universités sont invitées à faire preuve de diligence raisonnable avant d’entreprendre des recherches ou d’autres collaborations avec des partenaires internationaux. Les universités devraient également communiquer avec leur personnel sur la nature et les risques d’ingérence étrangère et mettre en œuvre des stratégies de cybersécurité solides.

« L’institut a publié une base de données et une cartographie qui classe le niveau de risque – de très élevé à faible – posé par les partenariats de recherche avec quelque 160 universités chinoises, des institutions de sécurité et des groupes de l’industrie de la défense. »

« Quarante-trois universités chinoises devraient être considérées comme des collaborateurs à «très haut» ou à «haut risque» en raison de leur implication dans la recherche à des fins militaires et de défense. » 

–> Lien vers la cartographie
https://unitracker.aspi.org.au/

Sources:
-Foreign interference fears prompt guidelines for Australian universities, Bianca Nogrady, Nature, 19 november 2019
https://www.nature.com/articles/d41586-019-03523-2
– Chinese universities with military ties classed as ‘risky’ collaborators, Andrew Silver, Nature, 04 december 2019
https://www.nature.com/articles/d41586-019-03726-7?sf225447747=1

A destination des communautés du renseignement et d’intelligence économique: De l’urgence d’intégrer des autistes à haut niveau de fonctionnement et Asperger

Source: Capture d’écran TF1

En préambule à cette publication, deux points importants:

  1. Cette publication va avoir un certain relent de « yakafokon ». Je m’en excuse par avance. La raison en est fort simple. Je suis responsable intelligence économique dans une structure privée et j’enseigne dans quelques universités et écoles en tant qu’intervenant professionnel. Par consèquent, j’ai très peu de poids et très peu de leviers pour agir. A ce stade, je ne peux que communiquer, faire connaitre, sensibiliser, diffuser ce sujet (d’ailleurs, si à la fin de sa lecture, vous êtes sensible à cette publication, je vous invite à la partager largement à vos réseaux, aux directeurs de diplômes en intelligence économique, aux responsables intelligence économique ou ressources humaines de grands groupes, de grandes administrations, ou de services de renseignement).
    Par ailleurs et afin de ne pas être cantonné à cette posture de « yakafokon », je me tiens prêt et à disposition pour mettre les mains dans le cambouis et assumer toutes les responsabilités nécessaires si jamais des projets venaient à être réfléchis ou proposés.

  2. Si les autistes sont une ressource humaine inexploitée en France, cette publication n’a pas vocation à faire dans le pathos ou dans le social. Ce sujet pourrait être traité avec un pur cynisme. En effet, nous ne voulons pas démontrer comment faire à peu près aussi bien avec des ressources humaines différentes, nous voulons montrer comment faire autrement, sans équivalence et avec des résultats supérieurs.

Le renseignement HUMAIN est ma marotte, avec l’autisme nous en touchons la quintessence et pour ne rien cacher, si je travaillais ce sujet tranquillement depuis quelques mois (je remercie d’ailleurs Françoise Roingeard, coach auprès de personnes en situation de handicap, de m’avoir ouvert à ce sujet), c’est l’hystérie, l’irrationalité et la bêtise crasse dont a été la cible Greta Thunberg (sur son physique, ses mimiques, sa façon de communiquer,…) qui m’ont pousser à communiquer dès maintenant.
Donc de façon moins creusée et plus imparfaite que je ne l’aurais voulu mais c’est le bon moment.

Continuer la lecture de A destination des communautés du renseignement et d’intelligence économique: De l’urgence d’intégrer des autistes à haut niveau de fonctionnement et Asperger