TELECOM PARIS ALUMNI
Retour aux actualités
Article suivant Article précédent

Revue TELECOM 190 - Quelle régulation pour l'intelligence artificielle ?

Articles Revue TELECOM

-

01/10/2018

QUELLE RÉGULATION POUR L'INTELLIGENCE ARTIFICIELLE ?


Par Alexandra Bensamoun dans la revue TELECOM n° 190


L’histoire de l’humanité s’écrit au rythme des progrès de la science. Aujourd’hui, l’attention est tout entière dirigée vers l’intelligence artificielle (IA). La parole sur le sujet est prolifique, contradictoire : discours aux accents angéliques, révélateurs d’une nouvelle ère édénique, ou au contraire récits catastrophistes, prémices à l’éradication de l’humanité... Entre réalités fantasmées et fantasmes réalisés, la vérité de l’IA est sans doute médiane. Ce qui ne signifie pas qu’on peut l’ignorer. Au contraire. Car l’IA a désormais investi nos vies quotidiennes.

Les positions officielles se multiplient au point qu’une certaine cacophonie s’installe sur le sujet. En France, la Mission #FranceIA, constituée à la demande du gouvernement, a remis son rapport au président de la République en mars 2017¹. L’ambition a été poursuivie et un nouveau rapport, confié au député Cédric Villani, a été rendu public en mars 2018². En outre, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), saisi par la Commission des affaires économiques du Sénat, a adopté le 29 mars 2017 un rapport militant « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». En 2017 également, l’étude annuelle du Conseil d’Etat sur les plateformes numériques recommandait notamment l’instauration d’un débat de société sur les questions éthiques posées par les IA³. Enfin, à l’invitation de la loi pour une République numérique du 7 octobre 20164, la CNIL a choisi de dédier ses premières réflexions au thème du développement des algorithmes et de l’intelligence artificielle dans un cadre éthique, initiant un vaste débat public, avec pour point d’orgue un rapport dévoilé en décembre 2017, intitulé « Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle »5.

Les institutions européennes ont également participé au débat. Le 16 février 2017, le Parlement européen adoptait une résolution « contenant des recommandations concernant des règles de droit civil sur la robotique »6. De son côté, après s’être autosaisi de la question, le Comité économique et social européen (CESE), organe consultatif qui assiste le Parlement, le Conseil et la Commission, a rendu, le 31 mai 2017, un avis d’initiative sur « Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société »7. Plus récemment, la Commission européenne a dévoilé la stratégie de l’exécutif en la matière, dans une communication « AI for Europe »8.

Dans toutes ces réflexions, l’éthique est au cœur des préoccupations9, parfois comme un garde-fou, voire une incitation à l’empouvoirement, souvent comme une voie autonome de régulation, faisant intervenir les acteurs de l’IA. Ce message éthique passe par des instruments de « droit souple »10, du type chartes, licences, codes de conduite ou de déontologie, guides des bonnes pratiques, lignes directrices... Cette soft law, à la normativité hésitante, est-elle la voie à privilégier pour réguler l’IA ?

L’éthique, formalisée dans un instrument de droit souple, présente des avantages certains : promotion de principes larges, dans un secteur mouvant et qui ne supporterait pas de cadre contraignant, au risque de brider l’innovation ; transnationalité ; simplicité de l’acte (délié du formalisme attaché à la loi) ; forte acceptabilité – et donc forte effectivité – de la norme, qui devient horizontale et non plus verticale (puisqu’élaborée par les parties prenantes).

Mais le droit souple repose justement sur l’implication des acteurs. Des acteurs qui ne sont pas habilités à créer du droit. Aussi, outre sa faible normativité, ce droit participatif présente un risque de privatisation de la norme. La règle de comportement devient en effet le fait des acteurs privés et relève de leur bon vouloir.

C’est dire que si la voie éthique est une alternative à explorer, elle ne doit pas occulter la réponse législative à laquelle elle ne saurait se substituer11. En particulier, un certain nombre de principes devront être consacrés dans la loi : principe de loyauté, principe d’explicabilité, principe de responsabilité... La régulation de l’IA devra ainsi mobiliser tous les ressorts de la normativité. Et pour mêler souplesse et normativité, une idée pourrait être de responsabiliser les acteurs, dans une logique d’accountability, obligeant les entreprises à mettre en œuvre des mécanismes et des procédures internes leur permettant de démontrer, sur demande, le respect des règles législatives, sur le modèle du RGPD12 en matière de données personnelles. 


1/ V. conclusions du groupe de travail relatif aux enjeux juridiques et réglementaires de l’intelligence artificielle (groupe 3.2 B, dir. G. Courtois et A. Bensamoun), dans le cadre de la Stratégie nationale en intelligence artificielle - France IA, janv.-mars 2017, p. 295 s. :
https://www.economie.gouv.fr/files/files/PDF/2017/Conclusions_Groupes_Travail_France_IA.pdf (p. 295 s.).
2/ Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, mars 2018.
3/ Conseil d’Etat, Etude annuelle 2017, Puissance publique et plateformes numériques : accompagner l’« ubérisation », proposition n° 2, p. 110.
4/ Modifiant la loi n° 78-17, 6 janv. 1978, art. 11, 4°, e), qui a confié à la CNIL une mission de « réflexion sur les problèmes éthiques et les questions de société soulevés par l’évolution des technologies numériques ».
5/ G. Marraud des Grottes, « Intelligence artificielle : la CNIL appelle à une plus grande vigilance », RLDI n° 144, janv. 2018, p. 41 ; A. Bensamoun, « Rapport de la CNIL sur l’intelligence artificielle : une réflexion éthique », Revue pratique de la prospective et de l’innovation, Dossier, avril 2018, p. 33.
6/ PE, Résol., 16 févr. 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, 2015/2103(INL).
7/ CESE, Avis d’initiative, 31 mai 2017 : JOUE C 288/1, 31 août 2017.
8/ COM(2018), 237 final. - V. sur le sujet A. Bensamoun, « Stratégie européenne sur l’intelligence artificielle : toujours à la mode éthique », D. 2018, p. 1022.
9/ V. not. A. Bensamoun et G. Loiseau, « L’intelligence artificielle à la mode éthique », D. 2017, p. 1371.
10/ Nous rappellerons ici la définition donnée par le Conseil d’Etat dans son étude de 2013, impliquant trois conditions cumulatives à la qualification de ces instruments : l’objet de modifier ou d’orienter les comportements de leurs destinataires en suscitant, dans la mesure du possible, leur adhésion ; l’absence de création par eux-mêmes de droits et d’obligations pour leurs destinataires et la présence d’un degré de formalisation et de structuration qui les apparente aux règles de droit : Conseil d’Etat, Etude annuelle de 2013, Le droit souple, p. 9 et 6

11/ A. Bensamoun et G. Loiseau, « La gestion des risques de l’intelligence artificielle. De l’éthique à la responsabilité », JCP G 2017, doctr. 1203, p. 2063
12/ Règl. (UE) 2016/679 du Parlement européen et du Conseil du 27 avr. 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la dir. 95/46/CE (dit Règlement général sur la protection des données, RGPD). – V. not. Dossier Dalloz IP/IT 2016, p. 330, Protection des données personnelles : premiers regards sur le règlement (UE) 2016/679 ; Dossier Dalloz IP/IT 2016, p. 566, Les grands axes du règlement (UE) 2016/679 sur les données personnelles.



Biographie de l'auteur


Professeur de droit privé à l’Université de Rennes 1 (IODE-CNRS) et membre du comité de direction du Centre d’études et de recherche en droit de l’immatériel (CERDI - Université Paris-Sud/Paris-Saclay), Alexandra Bensamoun est spécialiste de droit de la propriété intellectuelle et de droit du numérique, qu’elle enseigne dans différentes universités, en France et à l’étranger. Elle travaille notamment sur le droit de l’intelligence artificielle et a codirigé la partie « Enjeux juridiques » du rapport #FranceIA. Personnalité qualifiée au CSPLA (Conseil Supérieur de la Propriété Littéraire et Artistique), elle y a conduit plusieurs missions, notamment sur la responsabilité des intermédiaires techniques ou sur le droit de communication au public, et a en charge depuis juillet 2018 une mission sur l’intelligence artificielle et la création. Elle a créé et dirige, à l’Université Paris-Sud/Paris-Saclay, le Master 2/LLM « Propriété intellectuelle fondamentale et technologies numériques », en co-diplômation avec l’Université Laval (Québec).

75 vues Visites

J'aime

Commentaires0

Veuillez vous connecter pour lire ou ajouter un commentaire

Articles suggérés

Articles Revue TELECOM

Revue TELECOM 194 - Editorial Laura Peytavin et Yves Poilane

User profile picture

Rédaction Revue TELECOM

13 novembre

Articles Revue TELECOM

Revue TELECOM 193 - La kippa bleue

User profile picture

Rédaction Revue TELECOM

15 juin

Articles Revue TELECOM

Revue TELECOM 193 - La transformation digitale (numérique) 2.0

User profile picture

Rédaction Revue TELECOM

15 juin