Combattre les technologies financières frauduleuses grâce à l'apprentissage automatique

Combattre les technologies financières frauduleuses grâce à l'apprentissage automatique

Blocs de contenu du modèle G
Sous-éditeur

Au cours de la dernière décennie, les pratiques prédatrices et frauduleuses dans la finance numérique et la technologie financière se sont multipliées. Avec l'augmentation de la part de la population mondiale utilisant des appareils mobiles pour les services financiers, il existe des inquiétudes persistantes concernant les fournisseurs problématiques ciblant les utilisateurs ayant une connaissance limitée des services financiers numériques pour exploiter les ménages et les entreprises vulnérables. L'ampleur de ce problème a été accentuée par la pandémie de COVID-19. Cela nuit non seulement aux consommateurs, mais peut également conduire à une méfiance à l'égard de la finance numérique et retarder les efforts d'inclusion financière. 

L'apprentissage automatique - un type d'intelligence artificielle (IA) qui permet aux applications logicielles de devenir plus précises pour prédire les résultats sans être explicitement programmées pour le faire - s'avère prometteur pour atténuer les technologies financières frauduleuses en analysant les données disponibles collectées régulièrement sur les magasins d'applications pour créer un système de signalement et de signalement des applications hautement suspectes. Pour le démontrer, les chercheurs se sont appuyés sur les données disponibles sur les applications financières de Google pour 63 pays couvrant de 2020 à mi-2021 pour documenter la prévalence de ces applications problématiques et tester l'efficacité de ces méthodes. En se concentrant sur les applications de prêt personnel, ils ont testé deux approches pour étiqueter les applications problématiques dans un ensemble de données de formation comme appartenant à plusieurs classes suspectes et légitimes en utilisant : 1) une classification manuelle et 2) une classification basée sur des directives spécifiques au marché. Ils ont ensuite mis en place des modèles pour prédire la propension des applications dans un ensemble de données de test distinct à être prédatrices ou frauduleuses, en s'appuyant à la fois sur des signaux statiques et en temps réel provenant des métadonnées des applications ainsi que sur ceux fournis dans les données d'examen des utilisateurs. Pour les deux approches, ils ont comparé la précision générale de leurs modèles aux suppressions d'applications réelles.

Dans l'ensemble, les techniques d'apprentissage automatique ont démontré leur capacité à créer un système permettant de signaler et de signaler efficacement et avec précision les applications présentant des comportements suspects, en particulier en séparant les applications « probablement légitimes » et « probablement suspectes ». Cependant, la précision du modèle était quelque peu inférieure lors de la différenciation des catégories plus granulaires - par exemple, entre les cas de "fraude pure" et de "prédation". Il a été constaté que différentes configurations de modèles d'apprentissage automatique avaient une certaine influence sur la précision prédictive. Bien que ces résultats indiquent qu'un ajustement supplémentaire est nécessaire, ils suggèrent également que l'utilisation d'un ensemble d'approches peut être utile pour identifier avec succès les applications suspectes d'intérêt. Dans l'ensemble, les résultats montrent que l'apprentissage automatique - même lorsqu'il nécessite un examen manuel pour se protéger contre les faux positifs ou un réglage fin - peut considérablement réduire le fardeau de la vérification manuelle des régulateurs des nouvelles applications financières. Cela peut également accélérer la vitesse à laquelle les applications suspectes peuvent être signalées et supprimées des magasins d'applications.