Un rapport pointe du doigt les risques liés à l'intelligence artificielle pour la sécurité des Etats
CYBERCRIMINALITE Le renforcement de la sécurité nationale des pays pourrait inciter les hackers à avoir recours à l’intelligence artificielle pour y faire face
Selon le rapport du Royal United Services Institute for Defense and Security Studies (RUSI) partagé par ZDNet, les États devraient adopter l’intelligence artificielle pour renforcer leur sécurité nationale. Cette forme de technologie représente de belles opportunités pour le secteur de la cybersécurité, notamment à un niveau national. Cependant, le recours à l’intelligence artificielle pourrait avoir un côté pervers dans le sens où les cybercriminels et États hostiles pourraient y faire appel également afin de poursuivre leurs méfaits à armes plus ou moins égales.
Dans le rapport d’étude du RUSI commandé par l’agence britannique de renseignement et de sécurité (GCHQ), certaines entités hostiles pourraient déjà avoir fait usage de l’IA dans le cadre de cyberattaques. Cela reste difficile à déterminer.
Le défi pour les services de sécurité nationale est donc de faire en sorte de tirer profit de l’intelligence artificielle plus efficacement que les hackers. Les cybercriminels ne manquent pas d’imagination ni de ressources quand il est question d’adapter leurs méthodes d’attaques et l’intelligence artificielle pourrait grandement les aider dans leurs missions malveillantes.
L’IA au service des renseignements
Dans son rapport, le RUSI souligne combien l’intelligence artificielle pourrait être une aide précieuse pour les États et leurs services de renseignements. Elle pourrait les aider à collecter et à traiter les données de manière plus efficace grâce à l’automatisation des processus organisationnels. Elle pourrait également identifier les comportements anormaux sur les réseaux, détecter les logiciels malveillants et répondre plus rapidement aux incidents suspects.
La RUSI souligne tout de même que l’IA a ses limites et ne pourra jamais remplacer les agents humains. « Aucun des cas d’utilisation de l’IA identifiés dans la recherche ne peut remplacer le jugement humain. Les systèmes qui tentent de prédire le comportement humain au niveau individuel sont susceptibles d’avoir une valeur limitée pour l’évaluation des menaces », peut-on lire dans les conclusions du RUSI.
Le recours à l’IA pourrait tout de même entraîner de nouvelles préoccupations, notamment en termes de protection de la vie privée, souligne le rapport. Il faudrait préalablement définir le cadre juridique dans lequel l’IA pourrait récolter des informations sans outrepasser la vie privée et les droits des personnes.