De nos jours, les gens sont de plus en plus exposés à toutes sortes d’abus sur les plateformes de médias sociaux (PMS). L’intention malveillante de personnes qui trompent les autres est aggravée par les différentes PMS, les vulnérabilités qui y sont présentes, telles que la pauvreté de la conception et de construction, les grandes quantités de contenus non structurés et les occasions offertes aux individus qui souhaitent agir de manière malveillante. Ces facteurs contribuent tous à rendre les plateformes de médias sociaux extrêmement vulnérables aux cybermenaces causées par des utilisateurs malveillants.
Cet article traite de la détection des faux comptes créés avec une intention malveillante. Ces comptes sont générés par des humains ou des robots (bots) et peuvent être utilisés pour diffamer une personne ou mener des actes d’intimidation en ligne. Pour cette recherche, les attributs trouvés dans des comptes Twitter authentiques des ont été utilisés pour détecter la contrefaçon de l’identité humaine. Les données de Twitter ont été extraites et épurées pour créer un corpus initial de comptes de réseaux sociaux auxquels des faux comptes ont été insérés. Les auteurs se sont concentrés sur l’apprentissage automatique supervisé, étant donné qu’il s’agit de savoir si les comptes humains doivent être classés comme « trompeurs » ou « non ».
Les auteurs ont ensuite utilisé le corpus pour former des modèles d’apprentissage automatique à la détection de fausses identités dans le cadre de deux expériences différentes. Dans la première expérience, seules les données du corpus ont été utilisées pour détecter la contrefaçon de l’identité. Ces données étaient basées sur les attributs d’origine que l’on trouve sur Twitter, par exemple leur « nombre_amis », également désigné par « FRIENDS_COUNT » sur Twitter. Dans la deuxième expérience, les attributs originaux utilisés dans la précédente ont ensuite été étendus à de nouvelles fonctionnalités d’ingénierie basées sur des principes psychologiques permettant d’identifier la supercherie, telle la caractéristique de « genre ».
À partir de ces deux expériences, un modèle de détection de fausses identités
(IDDM) a été proposé pour non seulement détecter, mais aussi interpréter le caractère trompeur. Le modèle comprend deux sous-modèles. Le premier sous-modèle, IDDMLM, présente un modèle d’apprentissage automatique qui détecte la fausse identité sur les PMS avec un taux de réussite 86,24 %. Le deuxième sous-modèle, IDDSM, met en évidence les caractéristiques susceptibles d’être trompeuses chez un utilisateur spécifique.
La cybersécurité en général peut tirer parti des travaux de recherche présentés dans cet article, qui traitent du développement de la détection intelligente de l’imposture identitaire au moyen de modèles d’apprentissage automatique.
Citer: van der Walt, E., Eloff, J. H. P. and Gobler, J. (2018). Cyber-security: Identity deception detection on social media platforms. Computer & Security, 78, 76-89.
Source: https://www.sciencedirect.com/science/article/pii/S0167404818306503