L’intelligence artificielle sera-t-elle bénéfique d’ici 2030? L’avis de 1000 experts

Revue de Presse

Source : huffingtonpost.fr (13 décembre 2018)

S’ils sont majoritaires à répondre par l’affirmative, les problèmes soulevés n’en sont pas moins importants. Et doivent être résolus dès aujourd’hui.

63% des experts en intelligence artificielle interrogées pensent que cette technologie améliorera nos vies d’ici 2030.

À quoi ressemblera le monde en 2030? Il est toujours périlleux de tenter d’imaginer le futur. Mais c’est un exercice nécessaire pour mieux comprendre le présent, notamment dans des domaines dont l’évolution est explosive, comme celui de l’intelligence artificielle (IA).

C’est ce qu’a fait le Pew Research Center en interrogeant 979 experts, des chercheurs, entrepreneurs, ingénieurs, politiciens et activistes spécialistes de l’intelligence artificielle. Dans un résumé publié le 10 décembre, le centre de recherche américain donne un résultat très dense de ce sondage.

Au global, les sondés sont 63% à estimer que les avancées dans le domaine de l’IA vont ‘améliorer les capacités humaines’ d’ici 2030. À l’inverse, 37% des spécialistes estiment que cette technologie en plein essor va ‘diminuer l’autonomie et le libre arbitre à tel point que la plupart des gens ne vivra pas mieux qu’aujourd’hui’.

10000000000002760000013bb39734136e602d3d.jpg63% des experts en intelligence artificielle interrogées pensent que cette technologie améliorera nos vies d’ici 2030.

Cela ne veut pas dire que la majorité des experts versent dans le techno-optimisme béat, loin de là. Dans les centaines de citations du rapport, on lit quelques déclarations pleines d’espoirs, mais également beaucoup de mises en garde. Et des solutions possibles pour orienter l’humanité sur la bonne voie.

Dépendance, dictature et chômage

Le Pew Research Center liste les principales inquiétudes qui sont revenues régulièrement au fil des interviews d’experts. Dedans, on trouve peu de traces de craintes, fantasmées mais souvent très médiatisées, de l’avènement d’un âge des machines prenant le contrôle de l’humanité. Mais d’autres problèmes parfois plus effrayants, car plus concrets.

• La perte de contrôle. Revient souvent dans cette catégorie la peur de la création de ‘boîtes noires’ : une IA propose une solution en apprenant par elle-même, grâce à des millions d’exemples, mais on ne sait pas exactement comment elle arrive à son résultat. C’est ça, la boîte noire.

Or, il est nécessaire de comprendre comment les algorithmes font leur choix, car si nous ne savons pas ce qu’il se passe, nous serons incapables de déceler les biais de la machine. Ceux-ci sont souvent dus à nos propres biais ou au fait que les informations fournies sont incomplètes ou partiales. Cela pourrait créer des IA psychopathes, si l’on extrapole, comme l’ont fait des chercheurs en faisant passer le test de Rorschach à une machine biaisée.

• La dépendance. Autre problème lié à cette incompréhension des machines : les humains ‘sacrifient leur indépendance, leur vie privée et leur pouvoir’ en échange d’un résultat. Les experts mettent également en garde contre une dépendance qui pourrait ‘éroder leur capacité à penser par eux-mêmes’.

De plus, ‘la plupart des outils IA seront dans les mains de sociétés cherchant les profits ou de gouvernements cherchant le pouvoir’, résume le rapport. Si l’éthique et les valeurs ne sont pas au cœur de l’IA, les dérives possibles sont nombreuses.

Ces risques sont bien résumés par l’un des experts interrogés, Baratunde Thurston, auteur américain, futurologue et ancien directeur du site satirique The Onion :

‘Les problèmes que nous soumettons à l’IA ne sont en général pas ceux qui pourraient rendre la vie de la plupart des gens ‘meilleure’. C’est pour cela que je pense qu’en 2030, la plupart des gens n’auront pas une meilleure vie grâce à l’IA. Ils ne seront pas plus autonomes; ils seront plus automatisés et suivront leur GPS métaphorique à travers des directions quotidiennes. Nous ne choisirons pas notre petit déjeuner, nos exercices matinaux ou notre itinéraire pour aller travailler.

Un algorithme fera ces choix pour nous dans le but de maximiser l’efficacité (définie de façon étroite) et certainement dans le but de maximiser le profit du fournisseur du service.

• Le chômage technique. Autre point revenant régulièrement, celui de la crainte d’une destruction d’emplois. Ce sujet polémique fait régulièrement débat depuis des années. Certains se demandent si la majorité des métiers ne va pas finir par être automatisée, par des robots ou des algorithmes. D’autres estiment que si certains emplois vont disparaître, de nouveaux vont émerger. Au global, le résultat sera positif.

Impossible de trancher le débat, mais même si ces emplois sont créés, reste à savoir quand, comment et dans quelles circonstances. En septembre, le Forum économique mondial estimait que, d’ici 2022, les nouvelles technologies allaient créer plus d’emplois qu’en détruire. Mais ces transformations, dit le rapport, ‘si mal gérées, posent le risque d’accroître les écarts de compétence, d’augmenter l’inégalité et d’élargir la polarisation’.

En septembre, des chercheurs publiaient une étude montrant le lien entre le taux d’automatisation de ces dernières années dans les usines et l’élection de Donald Trump. Les auteurs ne souhaitaient pas freiner la révolution technologique actuelle, mais pointaient le risque d’une ‘rébellion populiste et d’un retour de bâton imminent contre la technologie elle-même’.

• Totalitarisme 2.0. D’autant que l’une des craintes qui revient régulièrement dans le rapport du Pew Research Center concerne l’utilisation de l’intelligence artificielle par des États. Par exemple pour censurer, ou produire de la propagande.

Dans les deux cas, les exemples actuels nous donnent une idée de possibles dystopies à venir : les ‘fake news’ de l’élection américaine et les plus récentes ‘deepfakes’, ces vidéos truquées, pour la propagande; l’incroyable système de surveillance 3.0 mis en place en Chine, qui va jusqu’à traquer les ondes cérébrales de ses citoyens, pour la censure et le contrôle des masses.

À cela, on peut également rajouter la crainte partagée par beaucoup de l’émergence de ‘robots tueurs’, de drones autonomes et autres armes biberonnées à l’IA.

‘La surveillance de toute sorte est l’avenir de l’IA. Ce n’est pas bénin si ce n’est pas contrôlé’, met en garde dans le rapport un chercheur éminent, spécialiste du lien entre technologie et être humain.

Solutions et raisons d’espérer

Si 63% des experts interrogés dans le rapport sont optimistes, c’est que tout n’est pas si noir. Ainsi, on voit poindre plusieurs solutions pour endiguer dès maintenant ces problèmes qui pourraient faire dérailler l’IA d’ici 2030.

D’abord, ‘la coopération numérique doit servir les meilleurs intérêts de l’humanité’, résume le rapport. C’est la priorité numéro 1 d’une bonne partie des experts sondés. Il est également nécessaire d’adopter une vision à long terme et utopiste (moonshot) afin de ‘construire des réseaux intelligents décentralisés, inclusifs et imprégnés d’empathie’.

Enfin, troisième point revenant régulièrement : ‘réorganiser les systèmes politiques et économiques vers l’objectif d’améliorer les capacités et aptitudes humaines dans le but d’augmenter la collaboration humain-IA’.

‘Pour créer un futur différent, je pense que nous devons diriger ces technologies au-delà de la maximisation des profits. Imaginez une application de cartographie qui vous propose un itinéraire en fonction de la route la plus belle, pas seulement la plus rapide’, écrit Baratunde Thurston.

Pour Erik Brynjolfsson, directeur d’un laboratoire de recherche du MIT sur l’économie digitale, si l’IA peut servir à ‘concentrer le pouvoir et la richesse, laisser beaucoup de personnes derrière et même créer d’horribles armes’, il pense qu’il est plus probable que ‘nous allons utiliser ce pouvoir pour façonner un monde meilleur’. Et de conclure par un appel à la réflexion et à l’action :

‘Aucune des voies n’est inéluctable, alors la bonne question n’est pas ‘que va-t-il se passer?’, mais plutôt ‘qu’allons-nous choisir de faire?’ Nous avons besoin de travailler activement à s’assurer que la technologie s’adapte à nos valeurs. Cela peut et doit être fait à tous les niveaux, des gouvernements aux entreprises en passant par les universités et les choix individuels’.