Intelligence artificielle et algorithmes: faut-il légiférer ?

Les progrès récents de l’intelligence artificielle (IA) dans de nombreux domaines (voitures autonomes, reconnaissance d’images, assistants virtuels etc.) et son influence croissante sur nos vies l’ont placée au centre du débat public. Ces dernières années de nombreuses voix se sont interrogées sur la capacité de l’IA à réellement œuvrer pour notre bien-être et sur les dispositions, notamment juridiques, à prendre pour la maitriser.

A court terme, il s’agit de poser certains principes de loyauté et de transparence sur les « algorithmes », par exemple ceux qui guident nos décisions d’achat sur internet. Pour le commun des mortels, ces algorithmes sous-tendant l’IA sont de véritables boites noires, opaques et inintelligibles.

Or, chaque jour, ils affectent notre accès à l’information, à la culture, à l’emploi ou encore au crédit.

Que dit la loi ?

Le règlement européen sur les données personnelles (RGPD) qui entre en vigueur en mai 2018 fournit une première protection en créant le droit pour toute personne « de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire

Cependant, cette protection est limitée au cas d’un traitement automatisé de données personnelles. Or, l’IA est aussi susceptible d’influencer nos vies de manière collective, en privilégiant certains choix politiques, culturels ou moraux (par exemple en recommandant certains ouvrages, au détriment d’autres, à l’occasion d’une visite d ‘un site de vente en ligne).

C’est encore plus prégnant lorsqu’il s’agit d’ »IA forte », qui recourt au « machine learning » ou « deep learning », c’est-à-dire lorsque la machine « apprend toute seule ». Il conviendrait alors d’ adapter la protection des droits et des libertés au regard des abus potentiels liés à l’utilisation des systèmes d’apprentissage machine. Or, il s’avère que la législation actuelle, centrée sur la protection de l’individu, n’est pas en phase avec la logique introduite par ces systèmes – c’est-à-dire l’analyse d’une masse considérable d’information afin d’identifier des tendances et des comportements masqués – et leurs effets sur des groupes d’individus.

A l’instar d’un récent rapport du député-mathématicien Cédric Villani remis au Premier ministre français, il serait nécessaire d’agir en créant des droits collectifs sur les données.

Auditabilité et responsabilité

Le rapport précité insiste sur l’importance d’ accroître la transparence et l’auditabilité des systèmes autonomes.

Parallèlement, il faut s’assurer que les organisations qui déploient et utilisent ces systèmes demeurent responsables devant la loi des éventuels dommages causés par ceux-ci. Sauf à créer un régime de responsabilité personnel de l’IA, qui disposerait alors de son propre patrimoine pour indemniser ses éventuelles victimes, par exemple dans le cas d’une voiture autonome et intelligente (l’Estonie planche sur une telle réglementation).

Dans un certain nombre de cas, le RGPD impose aux acteurs qui mettent en œuvre des traitements de données personnelles d’effectuer préalablement une étude portant sur l’‘impact de ces activités sur les droits et les intérêts des personnes concernées (privacy impact assessment, ou PIA). Les lignes directrices adoptées par le groupement européen des autorités de protection des données (G29) recommandent qu’un PIA soit effectué lorsqu’un risque de discrimination ou d’exclusion émerge avec un traitement de données.

Ce régime pourrait être transposé à l’IA en imposant un dispositif analogue pour les discriminations dont il serait la cause :  un discrimination impact assessment, ou DIA, pour amener les concepteurs d’IA à s’interroger sur les conséquences sociales des algorithmes qu’ils produisent.

Des pratiques anti-concurrencielles ?

Chacun se souvient de l’amende record, 2,42 milliards de d’euros, infligée par la Commission européenne à Google pour avoir «abusé de sa position dominante»

. Après sept ans d’enquête, la Commission a estimé que l’entreprise américaine avait joué de son algorithme et favorisé systématiquement son comparateur de prix, «Google Shopping», au détriment de ses concurrents.

D’autres pratiques, plus subtiles, et plus difficiles à contrer, sont également dans le collimateur des autorités de la concurrence : les algorithmes peuvent favoriser la collusion entre opérateurs, par exemple en étant programmés pour s’aligner sur les hausses de prix des concurrents, ou bien en convergeant d’eux-mêmes vers un équilibre collusif via, par exemple, des méthodes d’apprentissage.

Il est même possible que certains algorithmes « auto-apprenants » produisent des effets anti-concurrentiels non recherchés initialement par leurs auteurs. Faut-il en pareil les condamner ? La question reste ouverte…

Tags

Articles liés

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Rejoignez notre chaîne Telegram