En entreprise, l’intelligence artificielle se développe de plus en plus
et de mieux en mieux. Selon une étude Capgemini Research Institute de Juillet 2019, deux entreprises sur trois prévoiraient de déployer des systèmes liés
à l’IA afin de renforcer leur défense dès 2020.
C’est là que le bât blesse. En effet, cette technologie pourrait bien
faire le jeu des hackers. Alors qu’elle se démocratise dans toutes les sphères,
les pirates informatiques commencent à détourner l’usage de l’IA. Dans les
années qui viennent, s’avancerait-on vers un affrontement IA défensive versus
IA offensive ?
L’IA automatisera-t-elle
les attaques de malwares ?
Si les attaques des hackers gagnent en
complexité, il faut savoir qu’elles restent pourtant à la portée de tout
pirate. Sur le darkweb, moyennant quelques centaines de dollars, il est déjà
possible de télécharger des « tool kits » de hack. Ces kits se
révèlent très intéressants pour lancer des attaques automatisées contre les
logins utilisateurs. En quelques minutes, ce sont des centaines de mots de
passe différents qui vont être testés. Demain, grâce à la démocratisation de
l’IA, il n’est pas exclu d’imaginer qu’un hacker puisse, par le même procédé,
utiliser des tool kits d’intelligence artificielle avec des malwares préconçus.
Un exemple concret serait la construction
d’un malware qui puisse se propager de manière autonome et se disséminer dans
un réseau jusqu’à y trouver sa cible spécifique. Le virus DeepLocker a, par
exemple, été spécialement conçu par IBM pour être complétement autonome dans sa
prise de décisions et s’activer sur une cible spécifique, déterminée via
reconnaissance faciale et vocale.
Avant l’intelligence artificielle, l’un des
points faibles des malware résidait dans la communication sortante nécessaire
au hacker pour interagir avec ce que le malware avait découvert jusqu’à
atteindre sa cible. Or, un malware avec IA autonome est plus difficilement
détectable, car il n’a plus nécessairement besoin de communiquer vers
l’extérieur. Le malware dissimule ses actions dans la masse de données et peut
frapper jusqu’au remplissement de la mission.
Détourner l’IA
Au-delà de l’automatisation des malwares, le
défi actuel des hackers consiste surtout à détourner les applications des IA
défensives. En 2016, quelques semaines après le lancement du chatbot de
Microsoft, des hackers l’ont détourné pour lui prêter des propos racistes. Dans
la même veine, il n’a fallu que quelques minutes à une entreprise vietnamienne
pour hacker le tout nouveau système de Face ID édité par Apple. Enfin, un
groupe de chercheurs chinois a démontré combien détourner une voiture autonome
- pourtant dotée d’une intelligence artificielle ultra perfectionnée - était un
jeu d’enfant.
Le phénomène obligerait les entreprises qui
utilisent l’IA à laisser les clés du camion à une IA défensive pour se protéger
au risque de se faire infiltrer. L’intelligence artificielle reste une boîte
noire. Lâcher entièrement du lest à une IA s’impose aussi comme une prise de
risque dès lors qu’il s’agit de reprendre la main sur la cybersécurité.
L’utilisation massive de l’intelligence artificielle, si elle est
salutaire, représente davantage de possibilités de détournements. Dans les
années à venir, il n’est pas impossible d’imaginer qu’un affrontement puisse
s’opérer entre IA défensive du côté des entreprises et IA offensive du côté des
pirates ? La question est légitime : faut-il encore innover en IA au
risque de se faire détourner et infiltrer ? Faut-il toujours
faciliter la vie de l’utilisateur ? Et à quel coût ?
David Clarys,
NewTech Manager
South-EMEA chez Exclusive Networks
France