EN FR

ACCUEIL ›BLOGS

L'intelligence artificielle porte un énorme avantage. Mais les dommages potentiels doivent être gérés
-

Cet article a été publié initialement le La Conversation by Alison Gillwald et un Docteur Rachel Adams

8 février 2022

L'intelligence artificielle et l'apprentissage automatique ont le potentiel de contribuer à la résolution de certains des problèmes les plus insolubles de notre époque. Les exemples incluent le changement climatique et les pandémies. Mais ils ont aussi la capacité de causer du tort. Et ils peuvent, s'ils ne sont pas utilisés correctement, perpétuer les injustices historiques et les inégalités structurelles.

Pour atténuer leurs dommages potentiels, le monde a besoin de cadres de gouvernance des données qui soient économiquement favorables et qui préservent les droits.

L'intelligence artificielle et l'apprentissage automatique fonctionnent sur la base d'ensembles de données massifs à partir desquels des algorithmes sont programmés pour discerner des modèles. Ces modèles peuvent être utilisés pour déduire de nouvelles informations et également prédire le comportement et les résultats. De plus en plus, l'intelligence artificielle et l'apprentissage automatique sont utilisés pour remplacer les décisions humaines par une prise de décision automatisée au nom des humains. C'est souvent dans des domaines qui peuvent avoir un impact significatif sur la vie des gens. Accédez à  des prêts ou même l'accès à un pays.

Pourtant, tout se passe dans une boîte noire à laquelle même le concepteur de l'algorithme n'a peut-être pas accès, il est donc important de décider ce qui entre dans la boîte.

Les plus grands ensembles de données et l'activité algorithmique sont générés par les réseaux sociaux mondiaux qui surveiller chacune de nos actions en ligne. Ces ensembles de données peuvent être utilisés pour anticiper et façonner nos besoins et nos désirs.

Les grandes entreprises technologiques, agences multilatérales et un  banques de développement ont fait une grande partie du potentiel de l'intelligence artificielle pour faire progresser la croissance économique et le développement national. Et ils sont de plus en plus utilisés dans des applications sociales et économiques ainsi que dans la prise de décision publique, la planification et l'allocation des ressources. Il s'agit notamment d'orienter les jugements des tribunaux, de sélectionner les candidats à un emploi et d'affecter des universitaires aux systèmes scolaires.

La pandémie de COVID-19 a également mis en évidence l'énorme valeur des données publiques et la valeur potentielle de la combinaison de données publiques et privées pour faire face aux crises de santé publique et aux catastrophes.

Pourtant, il y a préoccupation croissante sur la répartition inégale des opportunités et des inconvénients associés à l'intelligence artificielle.

Les menaces

L'utilisation croissante de l'intelligence artificielle et de l'apprentissage automatique dans la prise de décision publique soulève des questions cruciales concernant l'équité et les droits de l'homme. 

En particulier, comment données numériques sont produits est marqué d'un drapeau rouge. Les ensembles de données présentent d'énormes lacunes. Certaines personnes sont ainsi rendues visibles, sous-représentées et discriminées dans la manière dont les données sont collectées. Le fait que la majeure partie de la population mondiale n'est pas connecté Internet et les réseaux sociaux mondiaux qui animent la nouvelle économie fondée sur les données signifient qu'ils n'existent tout simplement pas. 

À l'échelle mondiale, l'intelligence artificielle présente également un risque pour progrès accomplis vers l'égalité des sexes. Les histoires abondent de systèmes d'intelligence artificielle biaisés contre les femmes et les minorités de genre. 

De plus, les systèmes d'intelligence artificielle peuvent s'appuyer sur des hypothèses et des données qui excluent ou dénaturent des groupes déjà confrontés à des formes de discrimination multiples et croisées. Cela se traduit souvent par des résultats qui reflètent et renforcent les différences entre les sexes, les races et les capacités. inégalités et préjugés

Ces systèmes ne sont pas suffisamment soumis au type de responsabilité et de réglementation rigoureuses nécessaires pour atténuer les risques qu'ils font peser sur la société.

Cette menace est si importante que plusieurs forums internationaux ont émergé qui sont engagés dans le développement de «Bien","éthique» et l'intelligence artificielle « responsable ». 

Mais la plupart des les initiatives présenter des solutions techniques aux problèmes sociaux et politiques. Cela signifie qu'ils sont élaborés en dehors du cadre des droits de l'homme. Ce sont aussi en grande partie des initiatives du Nord global, avec une participation multipartite limitée du Sud global.

Une approche fondée sur les droits

Il existe des cadres de données basés sur les droits qui informent le développement de l'intelligence artificielle. Il s'agit notamment de l'Union européenne Règlement général de protection des données. Mais ils ont tendance à se concentrer principalement sur la première génération ou les droits fondamentaux, tels que la vie privée. La vie privée est généralement conçue comme un droit individualisé. Ce n'est peut-être pas toujours la principale valeur dans les sociétés plus centrées sur la communauté. 

La pandémie de COVID-19 a mis en évidence la nécessité de réglementer les données dans l'intérêt collectif ou le bien commun. Cela ne signifie pas que le droit à la vie privée doit être abandonné.

L'intérêt collectif concerne également la gouvernance des données dans le contexte de groupes ou de communautés identifiables où la conséquence potentielle de l'identification individuelle entraîne l'exposition de l'identité collective.

La littérature et la pratique de la gouvernance des données ont été principalement considérées et entreprises dans cette perspective réglementaire négative. En d'autres termes, en mettant l'accent sur le respect de la protection des données et de la cybersécurité et sur les sanctions en cas de violation. 

C'est une condition nécessaire pour juste l'intelligence artificielle. Mais ce n'est pas suffisant. De nombreux domaines de la gouvernance des données nécessitent une intervention positive. Les exemples incluent l'accès aux données, leur facilité d'utilisation et leur intégrité si elles doivent traiter des questions d'inclusion, d'égalité, de réparation et de justice sociale. 

Ce sont des questions qui peuvent être comprises comme des droits sociaux et économiques de deuxième et de troisième génération.

Une IA respectueuse des droits humains

Pour répondre à ces enjeux, un nouveau projet global est lancé en marge de la Sommet pour la démocratie

Les sommet représente un forum international pour faire progresser les engagements en faveur de la démocratie et des droits de l'homme. Son objectif est d'évaluer les progrès réalisés par les pays dans la promotion d'une intelligence artificielle respectueuse des droits de l'homme et des valeurs démocratiques.

Le projet est connu sous le nom de Global Index on Responsible AI. Il est piloté par le think tank numérique africain, Recherche TIC Afrique, et un indépendant Réseau de développement Data 4.

Les gouvernements et la communauté internationale ont commencé à répondre à l'appel mondial pour une intelligence artificielle responsable. En 2019, 42 pays ont signé les principes de l'OCDE sur IA digne de confiance. Cela les engage à garantir que les systèmes d'IA sont sûrs, équitables et dignes de confiance.

Plus récemment, l'UNESCO a développé Recommandation sur l'éthique en IA a été adopté par sa 41e Assemblée générale. La recommandation est centrée sur la protection des libertés et droits fondamentaux, la durabilité environnementale et la diversité.

L'indice mondial répond au besoin d'une norme inclusive et mesurable qui complète la compréhension en évolution rapide de ce que l'intelligence artificielle responsable signifie dans la pratique. Il encourage et suit également la mise en œuvre des principes de gouvernance par les acteurs concernés. 

L'indice mondial suivra la mise en œuvre des principes de l'IA responsable dans plus de 120 pays. Un réseau international de chercheurs indépendants sera créé pour évaluer dans quelle mesure les principes sont appliqués. Il collectera également des données primaires et secondaires sur les indicateurs clés de l'intelligence artificielle responsable.

Cela fournira aux gouvernements, à la société civile, aux chercheurs et aux autres parties prenantes les preuves clés dont ils ont besoin pour faire respecter les principes d'utilisation responsable dans le développement et la mise en œuvre de systèmes d'intelligence artificielle. Les preuves seront également utilisées pour :

  • respecter les obligations en matière de développement et de droits de l'homme, 
  • renforcer les capacités pour une IA responsable dans le monde entier, et 
  • approfondir la coopération internationale.

Le public et les autres parties prenantes intéressées auront l'occasion d'aider à façonner la conception et la portée de l'indice qui sera développé consciemment à travers une lentille du Sud global. 

Son développement représente une opportunité importante pour les experts du continent africain et des pays du Sud d'être à l'avant-garde de l'élaboration du nouvel agenda mondial sur l'utilisation et le développement responsables de l'intelligence artificielle.