Polisis : l’intelligence artificielle pour protéger ses données

Revue de Presse

Quels sites et applications exploitent-ils vos informations pour les revendre? Un chercheur de l’EPFL a développé un système qui vous permet de décoder rapidement les termes d’une déclaration de confidentialité, avec l’aide de l’intelligence artificielle.

Polisis utilise l’intelligence artificielle pour montrer comment les données des internautes sont utilisées.

Combien d’internautes lisent-ils les déclarations de confidentialité d’un site avant de cliquer sur « j’accepte»? Trop longs, complexes et rédigés dans un langage juridique obscur, ces textes cachent parfois bien des surprises sur l’exploitation des données que vous vous apprêtez à révéler, de votre adresse IP à votre âge, en passant par vos préférences en ligne.

Pour aider les utilisateurs à y voir plus clair, une équipe de chercheurs de l’EPFL, de l’Université du Michigan et de l’Université du Wisconsin-Madison a mis l’intelligence artificielle au travail pour décoder les termes d’une déclaration de confidentialité.

Baptisé Polisis, pour privacy policy analysis, cet assistant est disponible gratuitement en extension pour navigateur (pour Chrome et Firefox) ou directement via une plateforme web.

« Notre objectif est de montrer sous forme de graphiques simples, avec des représentations en couleur, comment vos données seront utilisées : certains sites partageront ainsi votre location à des fins de marketing, ou ne protégeront pas correctement la vie privée des enfants, et ces informations sont souvent bien cachées dans les déclarations de confidentialité », explique Hamza Harkous, post-doctorant au Laboratoire de systèmes d’information répartis de l’EPFL, et principal auteur de ce travail.

10000000000000f0000000872d002c7f3fcfb72a.jpg

Grâce au machine learning

Concrètement, les chercheurs ont mis l’intelligence artificielle au travail en lui apprenant à décoder une déclaration de confidentialité, en analysant plus de 130’000 déclarations existantes sur internet.

À l’arrivée, Polisis est capable de décoder en quelques secondes un texte soumis par l’utilisateur, et affiche le résultat sous une forme visuelle claire. Il est ainsi possible de voir ce qu’un service est susceptible de collecter parmi vos données, et à quel usage : une information qui peut être cruciale avant d’accepter de télécharger une application. Polisis vous guide aussi sur les possibilités de refuser le partage de certaines données, et vous signale les désavantages éventuels de ces choix.

De plus, Polisis est accompagné par Pribot, un assistant en ligne auquel il est possible de poser des questions (en anglais seulement pour le moment) à propos d’une déclaration de confidentialité : par exemple, « Partagez-vous mes données de carte de crédit ? » Si Pribot n’est pas infaillible (tout comme Polisis, il a une valeur informative et non légale), il offre la bonne réponse parmi les trois premières proposées dans 82% des cas. Un résultat qui pourrait faire de Pribot comme de Polisis des outils précieux non seulement pour un utilisateur lambda, mais aussi pour les journalistes, les organisations qui militent pour la protection des données, ou les chercheurs.

« Les utilisateurs ont le choix»

À l’avenir, ce travail pourrait être étendu à d’autres usages, comme celui des objets connectés : le respect de la vie privée étant un critère essentiel dans le choix d’un élément connecté au coeur de sa maison. « Notre but est de montrer aux gens qu’ils ont le choix, et de leur permettre d’évaluer un service et d’opter pour une alternative, si nécessaire», souligne Hamza Harkous. Dans le futur, le chercheur espère développer un système d’alerte, qui informerait aussitôt les utilisateurs en cas d’usage inhabituel de leur donnée, ainsi qu’une forme de classement entre différents services ou objets connectés en fonction de leur politique de confidentialité.  

Source : agefi.com (15 février 2018)