Regardez le monde
avec les yeux ouverts

Inscrit ou abonné ?
CONNEXION

UP', média libre
grâce à ses lecteurs
Je rejoins

rejoignez gratuitement le cercle des lecteurs de UP’

intelligence artificielle

Intelligence artificielle : Comment l’homme peut-il garder la main ?

Commencez
La CNIL présentait vendredi 15 décembre son rapport sur les risques de l’IA et des recommandations innovantes sur les enjeux éthiques des algorithmes. L’irruption dans nos vies quotidiennes de l’intelligence artificielle génère des bouleversements multiples et des défis nouveaux. Alors quid de la préservation de l’autonomie de la décision humaine face à des machines parfois perçues comme infaillibles ? Réponse : être en état de veille permanent, dans un doute méthodique. Explications.
 
Ce rapport intitulé « Comment permettre à l’homme de garder la main ? » est le résultat d’un débat public animé par la CNIL. Entre janvier et octobre 2017, 60 partenaires (associations, entreprises, administrations, syndicats, etc.) ont organisé 45 manifestations dans toute la France pour identifier les sujets de préoccupations éthiques soulevés par les algorithmes et l’intelligence artificielle, ainsi que les pistes de solutions possibles.
 
La première partie du rapport apporte une définition pragmatique des algorithmes et de l’intelligence artificielle tout en présentant leurs principaux usages et notamment ceux d’entre eux qui retiennent aujourd’hui le plus l’attention publique. En effet, algorithmes et intelligence artificielle sont à la mode. Ces mots sont aujourd’hui partout, non sans confusion parfois. Les définitions et les exemples qui en sont donnés dans le débat public aujourd’hui sont souvent imprécis. Ils sont parfois même contradictoires.
Cette situation s’explique par le caractère très technique de sujets qui se sont trouvés rapidement mis en circulation, dépassant largement les cercles d’experts et de spécialistes auxquels ils se sont longtemps trouvés cantonnés. De là une méconnaissance globale des Français : si 83% des Français ont déjà entendu parler des algorithmes, ils sont plus de la moitié à ne pas savoir précisément de quoi il s’agit (52%). Leur présence est déjà appréhendée comme massive dans la vie de tous les jours par 80% des Français qui considèrent, à 65%, que cette dynamique va encore s’accentuer dans les années qui viennent*.
 
Les grandes fonctions des algorithmes et de l’IA dans différents secteurs :
 
 
*Sondage mené par l’IFOP pour la CNIL en janvier 2017 (auprès d’un échantillon de 1001 personnes, représentatif de la population française âgée de 18 ans et plus) sur le niveau de notoriété des algorithmes au sein de la population française.
 

Pourquoi ce rapport ?

 
La perception publique des algorithmes et de l’IA est empreinte de méfiance, selon une enquête réalisée dans le cadre du débat public par la CFE-CGC, syndicat de l’encadrement, auprès de 1263 de ses adhérents (essentiellement issus des fédérations « Métallurgie » et « Finance et Banque »).
 
Les citoyens semblent prioritairement préoccupés par les nouvelles modalités de prise de décision et la dilution de la responsabilité créées par l’algorithme. La « perte de compétence » éventuelle de médecins ou d’employeurs qui se reposeraient intensément sur l’algorithme a été mise en exergue.
 
Parmi les conséquences préjudiciables évoquées : une « gestion des incertitudes » jugée inefficace chez la machine comparativement à ce dont est capable l’homme ; une incapacité à « gérer les exceptions » ou encore la « perte du sentiment d’humanité » (évoquées notamment à propos de l’absence de recours sur « APB »).
Le recours à des systèmes informatiques, parfois autonomes, pour prendre des décisions fait craindre que la responsabilité en cas d’erreurs ne soit « pas claire », une préoccupation soulevée justement à propos du secteur médical. Concernant le cas « APB », certains citoyens critiquent le manque de transparence qui explique que l’algorithme serve « de bouc émissaire faisant tampon entre ceux qui font des choix politiques et ceux qui se plaignent de ces choix ».
 
La problématique de la personnalisation informationnelle sur les réseaux sociaux et de ses effets collectifs, évoquée au sujet des élections présidentielles aux Etats-Unis, accentue également leur crainte que « plus personne ne soit réellement responsable du contrôle d’Internet ».
 
Moins évoqué, le danger de l’enfermement algorithmique est cependant mentionné par plusieurs participants des ateliers « ressources humaines » et « plateformes numériques ». Les citoyens ont aussi évoqué le risque de « formatage » des recrutements, et la rationalisation consécutive d’un champ qui ne devrait pas autant l’être, ou encore celui d’être figé sur Internet « dans un profil qui freinerait nos évolutions personnelles ».
Pour le public, les algorithmes et l’IA conduisent à une forme de dilution de figures d’autorité traditionnelles, de décideurs, de responsables, voire de l’autorité même de la règle de droit.
Enfin, la thématique des biais, des discriminations et de l’exclusion mérite une vigilance toute particulière aux yeux des participants, et cela que les biais en question soient volontaires (en matière de recrutement, on craint l’éventualité qu’un algorithme soit codé « selon les objectifs des employeurs aux dépens des salariés ») ou involontaires (l’outil algorithmique est facteur d’inquiétudes quant aux erreurs qu’il pourrait générer).
Les trois craintes les plus partagées sont la perte de contrôle humain (63 % des adhérents), la normativité et l’enfermement à travers l’uniformisation des recrutements (56 %) et la collecte disproportionnée de données personnelles (50 %). 72 % des répondants envisagent même comme une menace la possibilité d’être recruté par des algorithmes sur la base d’une analyse de leur profil et de sa compatibilité à un poste défini.
 

Six grandes problématiques éthiques

 
• Le perfectionnement et l’autonomie croissante des artefacts techniques permettent des formes de délégations de tâches, de raisonnements et de décisions de plus en complexes et critiques à des machines. Dans ces conditions, à côté de l’augmentation de sa puissance d’agir permise par la technique, n’est-ce pas aussi son autonomie, son libre arbitre, qui peut se trouver érodé ? Le prestige et la confiance accordés à des machines jugées souvent infaillibles et « neutres » ne risquent-ils pas de générer la tentation de se décharger sur les machines de la fatigue d’exercer des responsabilités, de juger, de prendre des décisions ? Comment appréhender les formes de dilution de la responsabilité que sont susceptibles de susciter les systèmes algorithmiques, complexes et très segmentés ?
 
• Les algorithmes et l’intelligence artificielle peuvent susciter des biais, des discriminations, voire des formes d’exclusion. Ces phénomènes peuvent être volontaires. Mais le réel enjeu, à l’heure du développement des algorithmes d’apprentissage, est leur développement à l’insu même de l’homme. Comment y faire face ?
 
• L’écosystème numérique tel qu’il s’est construit avec le Web, mais également plus anciennement les techniques actuarielles, ont fortement exploité les potentialités des algorithmes en termes de personnalisation. Le profilage et la segmentation de plus en plus fine rendent bien des services à l’individu. Mais cette logique de personnalisation est également susceptible d’affecter – outre les individus – des logiques collectives essentielles à la vie de nos sociétés (pluralisme démocratique et culturel, mutualisation du risque).
 
• L’intelligence artificielle, dans la mesure où elle repose sur des techniques d’apprentissage, nécessite d’énormes quantités de données. Or la législation promeut une logique de minimisation de la collecte et de la conservation de données personnelles, conforme à une conscience aigüe des risques impliqués pour les libertés individuelles et publiques de la constitution de grands fichiers. Les promesses de l’IA justifient-elles une révision de l’équilibre construit par le législateur ?
 
• Le choix du type de données alimentant un modèle algorithmique, leur quantité suffisante ou insuffisante, l’existence de biais dans les jeux de données servant à entraîner les algorithmes d’apprentissage constituent un enjeu majeur. S’y cristallise le besoin d’établir une attitude critique et de ne pas nourrir une confiance excessive dans la machine.
 
• L’autonomie croissante des machines ainsi que l’émergence de formes d’hybridation entre humains et machines (hybridation au plan d’une action assistée par des recommandations algorithmiques, mais aussi prochainement au plan physique) questionnent l’idée d’une spécificité humaine irréductible. Faut-il et est-il possible de parler au sens propre d’« éthique des algorithmes » ? Comment appréhender cette nouvelle classe d’objets que sont les robots humanoïdes, objets mais susceptibles de susciter chez l’homme des formes d’affects et d’attachement ?
 

Construire une intelligence artificielle au service de l’homme

 
Deux principes nouveaux apparaissent comme fondateurs. Le premier, substantiel, est le principe de loyauté, dans une version approfondie par rapport à celle initialement formulée par le Conseil d’Etat sur les plateformes.
Cette version intègre en effet une dimension collective de la loyauté, celle-ci visant à ce que l’outil algorithmique ne puisse trahir sa communauté d’appartenance (consumériste ou citoyenne), qu’il traite ou non des données personnelles.
 
Le second, d’ordre plus méthodique, est un principe de vigilance/réflexivité. Il vise à répondre dans le temps au défi constitué par le caractère instable et imprévisible des algorithmes d’apprentissage. Il constitue aussi une réponse aux formes d’indifférence, de négligence et de dilution de responsabilité que peut générer le caractère très compartimenté et segmenté des systèmes algorithmiques. Il a enfin pour but de prendre en compte et de contrebalancer la forme de biais cognitif conduisant l’esprit humain à accorder une confiance excessive aux décrets des algorithmes.
Il s’agit d’organiser, par des procédures et mesures concrètes, une forme de questionnement régulier, méthodique, délibératif et fécond à l’égard de ces objets techniques de la part de tous les acteurs de la chaine algorithmique, depuis le concepteur, jusqu’à l’utilisateur final, en passant par ceux qui entraînent les algorithmes.
 
Ces deux principes apparaissent comme fondateurs de la régulation de ces outils et assistants complexes que sont les algorithmes et l’IA. Ils en permettent l’utilisation et le développement tout en intégrant leur mise sous contrôle par la communauté. Ils sont complétés par une ingénierie spécifique et nouvelle articulée sur deux points : l’un visant à repenser l’obligation d’intervention humaine dans la prise de décision algorithmique (article 10 de la loi Informatique et libertés) ; l’autre à organiser l’intelligibilité et la responsabilité des systèmes algorithmiques.
 
Ces principes font l’objet d’une déclinaison opérationnelle sous la forme de six recommandations adressées tant aux pouvoirs publics qu’aux diverses composantes de la société civile (grand public, entreprises, associations, etc.).
 

Les recommandations pour piloter un monde complexe

 
• Former à l’éthique tous les maillons de la « chaîne algorithmique (concepteurs, professionnels, citoyens) ;
• Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ;
• Travailler le design des systèmes algorithmiques au service de la liberté humaine ;
• Constituer une plateforme nationale d’audit des algorithmes ;
• Encourager la recherche de solutions techniques pour faire de la France le leader de l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général ;
• Renforcer la fonction éthique au sein des entreprises.
 
Deux principes fondateurs ressortent donc de ce rapport.
D’une part, un principe substantiel, le principe de loyauté des algorithmes, dans une formulation approfondissant celle déjà élaborée par le Conseil d’Etat. Cette formulation intègre en effet une dimension de loyauté envers les utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers des collectifs, des communautés dont l’existence pourrait être affectée par des algorithmes, que ceux-ci d’ailleurs traitent des données personnelles ou pas.
 
D’autre part, un principe plus méthodologique : le principe de vigilance. Ce principe de vigilance doit être entendu, non comme une vague incantation mais comme une réponse étayée à trois enjeux centraux de la société numérique :
Premièrement, le caractère évolutif et imprévisible des algorithmes à l’ère de l’apprentissage automatique (machine learning).
Deuxièmement, le caractère très compartimenté des chaînes algorithmiques, induisant segmentation de l’action, indifférence aux impacts générés par le système algorithmique dans son ensemble, dilution des responsabilités.
Troisièmement, enfin, le risque d’une confiance excessive accordée à la machine, jugée – sous l’effet d’une forme de biais cognitif humain – infaillible et exempte de biais.
 
À travers le principe de vigilance, l’objectif poursuivi est en somme d’organiser l’état de veille permanente de nos sociétés à l’égard de ces objets socio-techniques complexes et mouvants que sont les algorithmes ou, à proprement parler, les systèmes ou chaînes algorithmiques. Un état de veille, autrement dit un questionnement, un doute méthodique.
Ceci concerne au premier chef les individus qui composent les maillons des chaînes algorithmiques : il s’agit de leur donner les moyens d’être les veilleurs, lucides et actifs, toujours en questionnement, de cette société numérique.
Ceci concerne aussi les autres forces vives de notre société. Les entreprises, bien sûr, pour modeler des systèmes algorithmiques vertueux, mais pas seulement.
 
Ces principes, par la démarche universelle dont ils procèdent, pourraient bien s’inscrire dans une nouvelle génération de principes et de droits de l’homme à l’ère numérique : cette génération qui après celles des droits-libertés, des droits patrimoniaux et des droits sociaux, serait celle des droits-système organisant la dimension sous-jacente à notre univers numérique. Ne sont-ils pas susceptibles d’être portés au niveau des principes généraux de gouvernance mondiale de l’infrastructure internet ? À l’heure où se construisent les positions française et européenne sur l’intelligence artificielle, la question mérite d’être posée.
 
 

0 Commentaires
Retour d'information sur Inline
Voir tous les commentaires
Google AI
Article précédent

Une intelligence artificielle construit une autre IA qui surpasse tout ce qui est fait par les humains

Dieu IA
Prochain article

Dieu est IA

Derniers articles de Intelligence artificielle

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS. ET AGIR.
logo-UP-menu150

Déjà inscrit ? Je me connecte

Inscrivez-vous et lisez trois articles gratuitement. Recevez aussi notre newsletter pour être informé des dernières infos publiées.

→ Inscrivez-vous gratuitement pour poursuivre votre lecture.

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS ET AGIR

Vous avez bénéficié de 3 articles gratuits pour découvrir UP’.

Profitez d'un accès illimité à nos contenus !

A partir de 1.70 € par semaine seulement.
Partagez
Tweetez
Partagez
WhatsApp
Email