Regardez le monde
avec les yeux ouverts

Inscrit ou abonné ?
CONNEXION

UP', média libre
grâce à ses lecteurs
Je rejoins

rejoignez gratuitement le cercle des lecteurs de UP’

L'éthique de l’IA intéresse l’UNESCO

L’éthique de l’IA intéresse l’UNESCO

Commencez

Huit entreprises de la Tech (GSMA, INNIT, Lenovo Group, LG AI Research, Mastercard, Microsoft, Salesforce et Telefonica) ont signé  un engagement inédit pour bâtir une intelligence artificielle (IA) plus éthique. Ces entreprises mettront en œuvre les valeurs et les principes de la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle à chaque étape de la conception et du déploiement de leurs systèmes d’IA. Une première pour que des entreprises s’engagent auprès des Nations unies dans ce domaine.

« En novembre 2021, l’ensemble des États membres de l’UNESCO a adopté le tout premier cadre éthique mondial pour l’utilisation de l’intelligence artificielle. Aujourd’hui, nous franchissons une nouvelle étape majeure en obtenant le même engagement concret de la part de grandes entreprises mondiales. J’appelle tous les acteurs de la Tech à suivre leur exemple. L’alliance des secteurs publics et privés est essentielle pour développer une IA qui soit au service du bien commun », a déclaré Audrey Azoulay, Directrice générale de l’UNESCO.

L’accord a été signé à Kranj, en Slovénie, lors du deuxième Forum mondial de l’UNESCO sur l’IA. Les signataires s’engagent à assumer pleinement leur rôle dans la protection des droits humains, lors de la conception, du développement, de l’achat, de la vente et de l’utilisation de l’IA. C’est la première fois que des entreprises s’engagent auprès des Nations unies dans ce domaine.

Il stipule notamment que des procédures de vérification devront être mises en place pour s’assurer que les normes de sécurité soient respectées, que les effets néfastes de l’IA soient identifiés et que des mesures visant à les limiter et à les corriger soient mises en place dans un délai raisonnable, en respectant les législations nationales.

L’accord souligne l’importance des tests ex-ante (avant la mise sur le marché), mais appelle également au développement de pratiques ex-post (après déploiement) d’évaluation et d’atténuation des risques, compte-tenu de l’évolution rapide des systèmes d’IA qui sont déjà sur le marché.

La Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, premier et seul cadre normatif mondial dans ce domaine, a permis des avancées tangibles au cours des deux dernières années. Plus de 50 pays sont actuellement engagés dans sa mise en œuvre et la coopération multilatérale en la matière s’est considérablement accrue.

Depuis l’adoption de la Recommandation, l’UNESCO a également fait avancer la coopération avec le secteur privé, avec la création d’un Conseil des entreprises pour l’éthique de l’IA, coprésidé par Microsoft et Telefonica. Ce Conseil s’est engagé à renforcer les capacités techniques en matière d’éthique et d’IA, à concevoir et à mettre en œuvre un Outil d’évaluation de l’impact éthique prévu par la Recommandation et à soutenir l’élaboration de réglementations régionales adaptées.

Transformer la gouvernance de l’IA

Le 2e « Forum mondial sur l’éthique de l’intelligence artificielle : transformer la gouvernance de l’IA » a eu lieu au Centre de congrès Brdo de Kranj les 5 et 6 février 2024. Cette édition a rassemblé les connaissances et le savoir-faire de pays se trouvant à différents niveaux de développement technologique et politique, en vue d’un échange approfondi pour apprendre les uns des autres, et d’un dialogue avec le secteur privé, le monde universitaire et la société civile au sens large.

Avec son mandat unique, l’UNESCO mène depuis des décennies des efforts au niveau international pour veiller à ce que les sciences et les technologies se développent avec des garde-fous éthiques solides. L’essor rapide de l’intelligence artificielle (IA) a créé de nombreuses opportunités au niveau mondial, qu’il s’agisse de faciliter les diagnostics de santé, de permettre des interactions humaines par le biais des réseaux sociaux ou de créer des rendements au niveau du travail grâce à l’automatisation des tâches.

Toutefois, ces changements rapides soulèvent également de profondes préoccupations éthiques. Celles-ci découlent du potentiel des systèmes d’IA à intégrer des biais, à contribuer à la dégradation du climat, à menacer les droits de l’homme et bien d’autres choses encore. Ces risques associés à l’IA ont déjà commencé à s’ajouter aux inégalités existantes, causant un préjudice supplémentaire à des groupes déjà marginalisés.

Qu’il s’agisse de recherche génétique, de changement climatique ou de recherche scientifique, l’UNESCO a établi des normes mondiales pour maximiser les avantages des découvertes scientifiques, tout en minimisant les risques, afin qu’elles contribuent à un monde plus inclusif, plus durable et plus pacifique. Elle a également identifié des défis majeurs dans des domaines tels que l’éthique des neurotechnologies, l’ingénierie climatique et l’internet des objets.

Dans aucun autre domaine, la boussole éthique n’est plus pertinente que dans celui de l’intelligence artificielle. Ces technologies polyvalentes sont en train de remodeler notre façon de travailler, d’interagir et de vivre. Le monde est appelé à changer à un rythme sans précédent depuis le déploiement de la presse à imprimer il y a six siècles. La technologie de l’IA apporte des avantages majeurs dans de nombreux domaines, mais sans garde-fous éthiques, elle risque de reproduire les préjugés et les discriminations du monde réel, d’alimenter les divisions et de menacer les droits de l’homme et les libertés fondamentales.

L’UNESCO a apporté une contribution majeure à l’objectif d’une gouvernance de l’IA efficace et éthique en adoptant en 2021 une norme mondiale exigeante : la Recommandation sur l’éthique de l’IA, et en dirigeant sa mise en œuvre par les États membres à l’aide d’outils et de méthodologies novateurs, comme l’évaluation de la préparation et de l’impact éthique.
Grâce à la mise en œuvre de ces outils, l’UNESCO modifie le modèle économique qui sous-tend l’IA et va au-delà des principes pour développer une série de solutions concrètes et pratiques et pour veiller à ce que les retombées de l’IA soient équitables, inclusives, durables et non-discriminatoires.

Au cours du Forum, les débats ont été alimentés par les données obtenues grâce à ce travail, notamment un diagnostic complet et multidimensionnel de l’état de la préparation à l’IA de près de cinquante pays dans le monde.

Quatre valeurs fondamentales

La recommandation s’articule autour de quatre valeurs fondamentales qui doivent servir de base à des systèmes d’IA fonctionnant pour le bien de l’humanité, des individus, des sociétés et de l’environnement :

  • Droits de l’homme et dignité humaine : Respect, protection et promotion des droits de l’homme, des libertés fondamentales et de la dignité humaine ;
  • Vivre dans des sociétés pacifiques, justes et interdépendantes ;
  • Assurer la diversité et l’inclusion
  • Un environnement et des écosystèmes qui prospèrent

Une approche de l’IA fondée sur les droits de l’homme

Dix principes fondamentaux définissent une approche de l’éthique de l’IA centrée sur les droits de l’homme :

  1. Principes de proportionnalité et d’innocuité : Aucun des processus liés au cycle de vie des systèmes d’IA ne devrait aller au-delà de ce qui est nécessaire pour atteindre des buts ou objectifs légitimes. L’évaluation des risques doit être utilisée pour prévenir les dommages pouvant résulter de ces utilisations.
  2. Sûreté et sécurité : Les préjudices non désirés (risques liés à la sûreté), ainsi que les vulnérabilités aux attaques (risques liés à la sécurité), devraient être évité et traités par les acteurs de l’IA.
  3. Droit au respect de la vie privée et protection des données : La vie privée doit être respectée, protégée et promue tout au long du cycle de vie des systèmes d’IA. Des cadres de protection des données et des mécanismes de gouvernance adéquats doivent être mis en place.
  4. Gouvernance et collaboration multipartites et adaptatives : Le droit international et la souveraineté nationale doivent être respectés dans l’utilisation des données. La participation des différentes parties prenantes est nécessaire pour garantir des approches inclusives de la gouvernance de l’IA.
  5. Responsabilité et redevabilité : Les systèmes d’IA doivent être vérifiables et traçables. Des mécanismes de surveillance, d’évaluation de l’impact, de contrôle et de diligence requise, devraient être mis en place place pour éviter tout conflit lié aux droits de l’homme et traiter les menaces pesant sur le bien-être de l’environnement.
  6. Transparence et explicabilité : Le déploiement éthique des systèmes d’IA dépend de leur transparence et explicabilité (T&E). Le niveau de T&E doit être adapté au contexte, car il peut être nécessaire de trouver un équilibre entre T&E et d’autres principes, tels que la protection de la vie privée, la sûreté et la sécurité.
  7. Surveillance et décision humaines : Les États membres devraient veiller à ce qu’il soit toujours possible d’attribuer la responsabilité éthique et juridique de tout stade du cycle de vie des systèmes d’IA à des personnes physiques ou des entités juridiques existantes.
  8. Durabilité : Les technologies de l’IA devraient être continuellement évaluées en fonction de leur impact sur la ‘durabilité’ en tant qu’ensemble d’objectifs en constante évolution, tels qu’ils sont actuellement définis dans les objectifs de développement durable (ODD) des Nations Unies.
  9. Sensibilisation et éducation : La compréhension des technologies de l’IA et de la valeur des données par le public devraient être favorisées par une éducation ouverte et accessible, l’engagement civique, l’acquisition de compétences numériques et la formation à l’éthique de l’IA, et l’éducation aux médias.
  10. Équité et non-discrimination : Les acteurs de l’IA doivent promouvoir la justice sociale, garantir l’équité et lutter contre les discriminations, tout en adoptant une approche inclusive pour s’assurer que les bénéfices de l’IA sont disponibles et accessibles à tous.

Des domaines d’action stratégique

Les domaines d’action stratégique définissent clairement les orientations que les États membres peuvent prendre en faveur d’une évolution responsable de l’IA.

Si les valeurs et les principes sont essentiels à la mise en place d’une base pour tout cadre éthique de l’IA, de récents mouvements dans le domaine de l’éthique de l’IA ont souligné la nécessité d’aller au-delà des principes de haut niveau vers des stratégies pratiques.

C’est précisément ce que fait la Recommandation en définissant onze domaines d’action stratégique.

En savoir plus

Mise en œuvre de la Recommandation de l’UNESCO

Il reste encore un long chemin à parcourir pour que les États membres disposent de ressources exploitables qui garantissent la mise en œuvre effective de la Recommandation. C’est pourquoi l’UNESCO a développé deux méthodologies pratiques :

Méthode d’évaluation de l’état de préparation
La méthode d’évaluation de l’état de préparation est un instrument qui aidera les pays à savoir se situer sur l’échelle de préparation à une mise en œuvre éthique et responsable de l’IA. Les résultats de cette méthode aideront l’UNESCO à adapter les mesures de renforcement des capacités aux besoins de chacun des pays.

Evaluation de l’impact éthique
L’évaluation de l’impact éthique est un processus structuré qui aide des équipes de projet d’IA, en collaboration avec les communautés concernées, à identifier et à évaluer les impacts qu’un système d’IA peut avoir. Elle permet de réfléchir à son impact potentiel et d’identifier les actions de prévention nécessaires.

En savoir plus

Women4Ethical AI

Women4Ethical AI (Réseau des femmes pour une IA éthique) de l’UNESCO est nouvelle plateforme collaborative visant à soutenir les gouvernements et les entreprises dans leurs efforts pour assurer l’égalité des genres à la fois dans la conception et le déploiement de l’IA. Les membres de cette plateforme contribueront à l’avancement de toutes les dispositions éthiques contenues dans la Recommandation de l’UNESCO.

Cette plateforme réunit des expertes reconnues issues du monde universitaire, de la société civile, du secteur privé et d’organismes de régulation du monde entier. Elles y partageront leurs recherches et contribueront à l’élaboration d’un référentiel de bonnes pratiques. La plateforme favorisera le développement d’algorithmes et de sources de données non discriminatoires, et incitera les filles, les femmes et les groupes sous-représentés à participer à l’IA.

En savoir plus

La bonne gouvernance de l’IA est l’un des défis les plus importants de notre époque, qui appelle à un apprentissage mutuel fondé sur les leçons et les bonnes pratiques émergeant des différentes juridictions à travers le monde. 
La question n’est pas de savoir s’il faut ou non légiférer sur l’IA et les technologies convergentes, mais comment le faire au mieux. Nous avons besoin d’une coordination et d’un partage des connaissances à l’échelle mondiale pour construire un environnement d’IA responsable qui profite à tous.

0 Commentaires
Retour d'information sur Inline
Voir tous les commentaires
IA générative : et maintenant, que va-t-il se passer ?
Article précédent

IA générative : et maintenant, que va-t-il se passer ?

L'IA va-t-elle nous rendre imbéciles ?
Prochain article

L'IA va-t-elle nous rendre imbéciles ?

Derniers articles de Intelligence artificielle

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS. ET AGIR.
logo-UP-menu150

Déjà inscrit ? Je me connecte

Inscrivez-vous et lisez trois articles gratuitement. Recevez aussi notre newsletter pour être informé des dernières infos publiées.

→ Inscrivez-vous gratuitement pour poursuivre votre lecture.

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS ET AGIR

Vous avez bénéficié de 3 articles gratuits pour découvrir UP’.

Profitez d'un accès illimité à nos contenus !

A partir de 1.70 € par semaine seulement.
Partagez
Tweetez
Partagez
WhatsApp
Email
Print