Cas d'usage
L’Ethics by Evolution comme garde-fou de l’intelligence artificielle
– Jérôme Béranger
Jérôme Béranger, expert pour AI For Tomorrow, est CEO de GoodAlgo, chercheur (PhD) associé au CERPOP — Inserm — Université de Toulouse et auteur de plusieurs ouvrages dont : « Quand l’intelligence artificielle s’éveillera » (Sept. 2020, Le Passeur).
Le monde digital se caractérise par son instantanéité, sa densité d’informations, son omniprésence, en contraste avec le monde concret des choses. Désormais, avec la multiplication des moyens de connexion, la baisse des coûts des technologies, les nouvelles capacités de collecte et de traitement algorithmique de la donnée, on s’aperçoit que nous pouvons faire communiquer des éléments de notre environnement jusqu’à présent muets. On assiste au développement multiforme des Nouvelles Technologies de l’Information et la Communication (NTIC), illustré par l’émergence des technologies associées aux Big Data (Badillo et Pélissier, 2015), aux objets connectés, aux algorithmes, aux nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC), à la Blockchain, à l’Intelligence Artificielle (IA), à la réalité virtuelle et augmentée, voire à l’informatique quantique. L’IA se développe à un rythme extrêmement rapide. Nous devrions nous attendre à voir des changements significatifs dans notre société à mesure que les systèmes d’IA s’intègrent à de nombreux aspects de nos vies (Béranger, 2021).
Ce phénomène numérique multifacette est en train de réunir les différents univers en ajoutant aux objets associés à ces NTIC la vitesse, l’intelligence et l’ubiquité propres au numérique. Les développements majeurs relatifs à l’IA dans la santé, les véhicules autonomes, la cybersécurité, l’éducation, les robots domestiques et de services améliorent chaque jour la qualité et le confort de nos vies. Dans chaque cas, l’IA peut être employée pour favoriser la nature humaine et ses performances (Nye, 2008), créant ainsi de réelles opportunités qu’il va falloir saisir et bien utiliser. (Voir Tableau 1)
Désormais, l’IA est fondamentale pour relever bon nombre des grands challenges auxquels l’humanité est confrontée, tels que le changement climatique, la santé et le bien-être dans le monde, la valorisation des ressources naturelles ou des dispositifs légaux et démocratiques fiables et pérennes. Cette technologie bouleverse alors nos modes de vie, de consommation, de fonctionnement et de travail. Cela s’illustre par une coupure avec le passé dans la relation et le lien que chacun a avec son prochain. Dès lors, ces interactions obligent le système à repenser chaque activité humaine (Floridi et al., 2018). C’est le commencement d’une révolution silencieuse (Floreoni, 2018), mais bien présente qui se passe bien sous nos yeux. Une nouvelle ère de changement et de disruption où la survie passe inéluctablement par de la réactivité, de l’adaptabilité, de la créativité et donc par de l’innovation (Buttarelli, 2015).
Dans ce contexte, nous sommes en droit de nous interroger d’un point de vue anthropologique sur la place de l’Homme dans cet écosystème hyperconnecté et digital où apparaissent de nouvelles relations au travail et à la transformation des modes d’organisation du travail. Vers quoi nous dirige l’IA ? Quelle place aura l’être humain dans ce monde digitalisé où interféreront respectivement objets, robots, machines et autres systèmes experts autonomes ? (Markowetz et al. 2014) L’IA va-t-elle laisser une place à l’Homme, l’aider, le rendre dépendant (« esclavage technologique ») ou le faire disparaître ? Menace-t-elle au contraire de disparition le discernement, l’intuition et l’émotion ? (Béranger, 2015) Jusqu’à quelle mesure l’Homme peut-il déléguer son libre arbitre ? Le citoyen peut-il accepter d’être manipulé pour transformer ses sentiments, convictions ou comportements, et d’être catégorisé ou évalué, sans en être informé ? Quelle répercussion aura le développement de l’IA sur notre sens de l’éthique et les relations entre l’être humain et la machine ? L’Homme verra-t-il son statut être réduit à l’état de sous-hommes comme certains spécialistes le prétendent ? (Béranger, 2021) Dans la mesure où elle étend notre temps, notre espace et nos sens, est-ce que l’IA viendra perturber notre conception de l’humanité et des émotions humaines ? Comment évaluer les actions et la création à partir de l’IA ? Comment pouvons-nous aligner les objectifs des systèmes d’IA autonomes avec ceux des humains ? Le droit ne serait-il pas un frein pour l’humanisme ? Comment empêcher les algorithmes d’apprentissage d’acquérir des biais moralement répréhensibles ? (Béranger, 2020)
Aux grandes promesses qu’apporte l’IA, doit alors répondre une grande responsabilité humaine ! Ainsi, l’approche du questionnement éthique est fortement associée à la conception de la place de l’Homme dans son environnement. Peu importe les produits et les services proposés, le numérique impacte tous les modèles d’affaires et par ricochet la manière de travailler et de réfléchir ensemble. Cela suppose forcément que les dirigeants d’entreprise réfléchissent aux apports du numérique tout le long de la chaîne de valeur de la structure, de manière transversale et systémique, comme l’analyse des structures de coûts, les processus d’élaboration et de production, les canaux de distribution, les procédures d’avant-ventes, de ventes et d’après-ventes. La complexité de ce monde toujours plus rapide impose donc de nouveaux modèles d’organisation et un mode de management plus tourné vers l’ouverture, l’autonomie, le sens et les valeurs humaines (Hervé, 2017).
Pour la première fois dans l’histoire de l’Homme, c’est le futur de l’humanité comme on la connaît qui se joue à travers les lignes de code des machines intelligentes. Le rythme des innovations technologiques et la temporalité de leur déploiement mondial soutenue par l’économie digitale dépassent très nettement la vitesse de la prise de conscience humaine. Dans ces conditions, il est grand temps de concevoir et structurer une éthique du numérique et en particulier relative à l’IA (Davis et Patterson, 2012). Il devient essentiel d’avoir une approche néodarwinienne à la fois systémique et structurée pour intégrer et appliquer l’éthique dans l’IA. Pour cela, il faut posséder une vision transversale et non en silo du numérique prenant en compte : les données, l’algorithme, l’architecture technologique et fonctionnelle (systèmes), l’environnement / le contexte, les pratiques, et les décisions. Cette démarche se fonde sur le concept de l’Ethics by Evolution [1]. En d’autres termes, nous devons intégrer des exigences et des préconisations éthiques, d’une part, dès la conception des technologies jusqu’à leurs utilisations, et d’autre part, de manière évolutive dans le temps pour garantir leur contrôle et suivi. Cela suppose d’être en mesure d’assurer une vigilance éthique permanente et organisée sur les créations technologiques auxquelles les acteurs publics et privés contribuent, ainsi que sur les technologies d’IA déjà existantes, dans une structure et un contexte donné. L’objectif final est d’aboutir à une IA plus sûre, sécurisée, adaptée aux besoins, éthiques, et humaine dans le temps (Béranger, 2016). Dans ce contexte, des régulations multiformes relatives à l’éthique de l’IA commencent à se structurer et à se développer. Elles peuvent être de nature publique et institutionnelle comme celle de la Commission européenne qui a présenté courant avril 2021 son projet de réglementations de l’IA digne de confiance, ou de nature privée comme la mise en place du label ADEL sur l’évaluation des engagements éthiques (fiabilité, interprétabilité (Terry, 2014), qualité/robustesse, discrimination sociale (Sweeney, 2013), (Morgan, 2014)) d’une IA par la société goodalgo [2].
En définitive, les systèmes algorithmiques et applications intelligentes doivent fondamentalement être éthiques dès leur élaboration jusqu’à leur usage et suivi dans le temps, du fait que la responsabilité appartienne à la fois aux concepteurs, aux propriétaires et aux utilisateurs (Boisvert et al., 2003). Comme l’aurait si bien dit François Rabelais — l’écrivain français humaniste de la Renaissance — « les algorithmes sans conscience ne sont que ruine annoncée de notre société ». C’est pourquoi l’éthique appliquée à l’IA concerne pleinement l’avenir de l’espèce humaine, de notre liberté de détermination, de jugement et de libre arbitre tant individuelle que sociétale.
Lire sur notre site.
Jérôme Béranger,
expert pour AI For Tomorrow, CEO de GoodAlgo, chercheur (PhD) associé au CERPOP — Inserm — Université de Toulouse
Références bibliographiques :
Badillo, P-Y, Pelissier, N. (2015). « Usages et usagers de l’information numérique », Revue française des sciences de l’information et de la communication, no 6, p. 4.
Béranger, J. (2015). Les systèmes d’information en santé et l’éthique : d’Hippocrate à e-ppocr@te. ISTE Editions, Londres.
Béranger, J. (2016). Les Big Data et l’éthique : le cas de la datasphère médicale. ISTE Editions, Londres.
Béranger, J (2020). Quand l’intelligence artificielle s’éveillera. Le Passeur, Paris.
Béranger, J. (2021). La responsabilité sociétale de l’intelligence artificielle. ISTE Editions. Londres.
Boisvert, Y, Jutras, M, Legault, G.A, Marchildon, A. (2003). Raisonnement éthique dans un contexte de marge de manœuvre accrue : clarification conceptuelle et aide à la décision. Rapport de recherche, Secrétariat du Conseil du trésor, Gouvernement du Québec, Centre d’expertise en gestion des ressources humaines.
Buttarelli, G. (2015). « Vers une nouvelle éthique numérique : Données, dignité et technologie », Avis n° 4/2015, EDPS, Bruxelles, p. 25, 11 septembre.
Davis K., Patterson D. (2012). Ethics of Big Data: Balancing Risk and Innovation. Sebastopol, Media, september 28.
Floridi L. et al. (2018). Taken together, they vield 47 principles. An Ethical Framework for a Good AI Society : Opportunities, Risks, Principles, and Recommandations. Minds and Machines, décembre.
Floreoni, S. (2018). « L’Humain au cœur du digital »,Livre Blanc ADEL intitulé Vade-mecum sur la gouvernance des traitements de données numériques, p. 87.
Hervé, C. (2017). « L’impératif éthique pour la médecine de demain, à l’aune de nos grands anciens », Bull. Acad. Natle Méd, 201, no 4–5, séance du 9 mai, Communication, p. 1–8.
Nye, D.E. (2008). Technologie & civilisation : 10 questions fondamentales liées aux technologies. FYP, Limoges.
Markowetz, A, Blaszkiewicz, K, Montag C. et al. (2014), « Psycho-Informatics : Big Data shaping modern psychometrics », Medical Hypotheses, vol. 82, no 4, p. 308.
Morgan, E. (2014). « I Quit Liking Things On Facebook for Two Weeks, Here’s How It Changed My View of Humanity », Medium.
Sweeney, L. (2013). « Discrimination in Online Ad Delivery », Communications of the ACM, vol. 56, no 5, p. 44–54.
Terry, N. (2014). « Health privacy is difficult but not impossible in a post-hipaa data-driven world ». Chest, 146(3), 835–840.
[1] A l’instar d’un organisme vivant biologique, l’IA est en capacité d’évoluer et d’interagir avec son environnement (Cf. Théorie de l’évolution), il devient alors fondamental d’avoir une approche néo-darwinienne pour tendre vers une IA responsable évolutive.