Intelligence artificielle et cybercriminalité

Bien que les nouvelles technologies renferment un potentiel illimité, leurs effets négatifs sont souvent minimisés, voir ignoré. Ces dernières années, l’émergence et le développement croissant de l’intelligence artificielle et de ses applications est de plus en plus visible dans notre vie quotidienne.

D’un point de vue criminologique, l’intelligence artificielle (IA) peut être utilisée dans toutes les tâches qui requièrent de la classification et de la génération de données, de la détection des anomalies (par exemple détecter des transactions frauduleuses) ou bien encore de la prédiction (taux de récidive des criminels). Ce qu’il faut cependant noter, c’est que ces tâches sont étroites c’est-à-dire qu’elles ne sont concentrées que sur des aspects spécifiques. En outre, les criminologues arrivent à oublier les défis sociaux posés par les perturbations technologiques. 

Les auteurs de cet article se sont donc intéressés à plusieurs aspects de l’IA en lien avec la cyebrcriminalité

Crimes commis avec l’IA (IA comme outil)

L’IA peut servir d’outil puissant pour un usage criminel malintentionné en développant et en changeant la nature inhérente des menaces existantes ou en introduisant de nouvelles.

Plusieurs études se sont intéressées à l’utilisation de l’IA dans des cas d’attaques par ingénierie sociale notamment parce que la majorité des cybercrimes ou des attaques commencent via ce genre d’attaque. Les courriels d’hameçonnage sont souvent génériques et sont donc, soit rapidement détectés par les filtres anti-pourriel ou ne sont pas assez convaincants pour la population, et donc sont moins susceptibles de faire des victimes. Avec l’IA, les systèmes peuvent automatiquement apprendre et combiner les caractéristiques d’autres attaques d’hameçonnage afin d’éviter les filtres anti-pourriels. L’IA est également développée comme outil de défense (par exemple « Panacea ») qui permettent de répondre aux cybercriminels et les engager dans des conversations afin d’obtenir plus d’information sur leur réelle identité mais aussi pour leur faire perdre du temps.

L’exemple le plus connu du recours à l’IA dans des intentions malveillantes est le cas des « DeepFakes » qui peuvent être utilisés par les criminels pour créer synthétiquement du matériel à des fins d’harcèlement, de chantage ou de sextorsion. Un rapport de 2019 montre que 96% des vidéos en ligne ayant eu recours au Deepfake impliquent la fabrication de matériel pornographique non consensuel.  

Crimes sur l’IA (IA comme surface d’attaque)

Les crimes sur l’IA réfèrent aux attaques qui exploitent les vulnérabilités des systèmes afin de tromper les systèmes IA. Les auteurs de l’article citent l’exemple du chatbot ‘Tay’ de Microsoft sur Twitter qui, quelques heures après son lancement, a été détourné et utilisé pour communiquer des slogans racistes.

Souvent, les vulnérabilités sont exacerbées dans la chaîne d’approvisionnement de l’apprentissage machine. La procédure d’apprentissage machine est souvent sous-traitée ou utilise des modèle pré- entraînés, les criminels pouvant ainsi créer des BadNet, un réseau malicieusement formé qui fonctionne très bien sur le scénario normal de l’utilisateur, mais qui contient des « portes dérobées environnementales » – des entrées spécifiques qui trompent le système afin d’avoir comportement incorrect ou dangereux. En résumé, les criminels peuvent agir sur l’environnement ce qui augmente les vulnérabilités des systèmes de l’Internet des objets et pose des problèmes pour le développement des villes intelligentes.

Crime par l’IA (IA comme intermédiaire)

Cette catégorie de crime réfère aux crimes commis par l’IA. Les auteurs de l’article font référence à une affaire en particulier. En 2015, un groupe d’artistes ont lâché un bot acheteur sur le darkweb qui a afin d’acheter des drogues. Cette affaire a amené des questionnements légaux notamment en ce qui concerne le statut légal de l’IA et sa potentielle utilisation comme intermédiaire ou bouclier d’actes criminels car dans cette affaire, c’est le bot qui acheté les drogues.

Utilisation de l’IA dans l’application de la loi

Une attention nouvelle est portée sur l’utilisation de l’IA par les agences d’application de la loi notamment en ce qui concerne l’utilisation des technologies prédictives fondés sur l’apprentissage machine.

Une autre attention est portée sur le remplacement des humains par l’IA quant à l’application de la loi. Il faut ici faire la différence entre les tâche et l’emploi. Le travail de police implique de nombreuses aspects distincts (patrouille, remplissage de formulaire, etc.) pour lesquelles l’IA pourrait être utile. Par contre, le travail de police implique également des fonctions plus larges comme par exemple, agir en tant que police de proximité, l’enquête, le soutien aux victimes, les arrestations qui sont des tâches plus difficiles à remplacer par l’IA.

Enfin, la surveillance étatique facilitée par l’AI amène tout un lot de questionnements. Parce que des bases de données extensives contenant les noms et les visages des citoyens existent déjà, et parce que les technologies de reconnaissance faciale peuvent être facilement et rapidement intégré dans l’architecture des caméras de surveillance, l’IApeut s’avérer comme un outil puissant de surveillance. On peut mentionner l’utilisation de « iBorderCtrl » dans l’Union européenne. Cette technologie, déployée dans les aéroports, prétend fournir une détection automatisée de tromperie sur la base de micro-expressions faciales, bien que de nombreuses préoccupations aient été soulevées quant aux fondements scientifiques de cette approche. D’autres technologies sont actuellement à l’essai, notamment l’écholocalisation pour identifier l’activité humaine, le «Speech2Face», qui permet aux utilisateurs de reconstruire des images faciales qui identifient l’âge, le sexe et l’appartenance ethnique à partir d’un audio et le laser « Jetson» du Pentagone, qui identifie des signatures uniques de battements de cœur (à travers les vêtements) à une portée allant jusqu’à 200 mètres.

En conclusion, l’utilisation de l’IA par les cybercriminels ou pour des activités malintentionnées offre de nombreuses nouvelles avenues d’études pour les criminologues.

Pour citer l’article: Hayward, K. J et Maas, M.M. (2020). Articifial ntelligence and crime : A primer for criminologists. Crime Media Culture, 2020, 1-25.