ACCUEIL ›BLOGS

S'assurer que l'IA générative est une IA responsable : les arguments en faveur du temps nécessaire pour trouver les preuves
-

18 mai 2023

L'émergence d'applications puissantes d'intelligence artificielle (IA) générative comme ChatGPT soulève une question importante pour le développement international : comment pouvons-nous gérer les risques et les avantages des technologies de l'IA lorsque leurs avancées vont plus vite que notre capacité à comprendre leur impact ?

La version la plus récente de ChatGPT est déjà 10 fois plus puissante que le modèle 2022. Nous avons à peine eu le temps de réfléchir aux avantages et risques potentiels du modèle original dans le Nord, et encore moins d'explorer les problèmes particuliers que la dernière version pourrait poser pour le Sud.

La recherche peut aider. Mais il faut du temps.

De nombreux projets de recherche que nous soutenons actuellement se concentrent sur l'IA prédictive, qui fait des prédictions basées sur des données historiques. L'IA générative diffère des modèles prédictifs en ce sens qu'elle génère un nouveau contenu plutôt que de prédire un résultat.

Dans notre édition 2018, Intelligence artificielle et développement humain : vers un programme de recherche, nous avons examiné un nombre croissant de travaux menés par des dizaines de chercheurs et de développeurs en IA dans les pays du Sud. Cet article présente certaines de leurs opinions sur les raisons pour lesquelles l'IA générative doit être une IA responsable : sûre, digne de confiance, durable et éthique.

Le professeur Jerry John Kponyo de l'Université des sciences et technologies Kwame Nkrumah au Ghana est un partenaire de recherche du CRDI dans le cadre du programme Intelligence artificielle pour le développement en Afrique (AI4D Afrique), une initiative conjointe avec l'Agence suédoise de coopération internationale au développement. Kponyo dit que les outils d'IA génératifs comme ChatGPT présentent des opportunités importantes pour faire avancer l'Afrique vers la réalisation des objectifs de développement durable des Nations Unies.

« Ces modèles peuvent être utilisés pour développer des systèmes de soins de santé plus précis et efficaces qui peuvent aider à diagnostiquer et à traiter les maladies plus efficacement, même dans les zones reculées », déclare Kponyo. "Ils sont également utiles pour créer des ressources pédagogiques plus accessibles à un plus large éventail d'étudiants, quel que soit leur emplacement ou leur milieu socio-économique."

Ernest Mwebaze à Sunbird AI en Ouganda, qui fait partie d'un Réseau financé par le CRDI consacré au développement d'une IA non sexiste, affirme que les modèles génératifs peuvent également aider à résoudre la pénurie historique d'infrastructures de données en Afrique - un problème majeur pour les développeurs responsables.

"Il n'y a pas eu suffisamment de contenu contextuel du continent africain pour soutenir la formation des modèles d'IA, et nous avons vu les effets du biais dans la propagation des données à cause de cela", explique Mwebaze. "L'IA générative peut considérablement améliorer les efforts actuels pour créer du contenu contextuel à partir de l'Afrique."

Malgré les possibilités qu'elle présente, l'IA générative présente également des risques importants.

La capacité de l'IA générative à produire un texte convaincant, semblable à celui d'un humain, signifie qu'elle peut être utilisée comme un outil dangereux pour la création de désinformation. Cette, Recherche appuyée par le CRDI a contribué à démontrer, est déjà un défi de taille. Par exemple, il a été démontré qu'une telle utilisation de l'IA générative affecte négativement la participation des femmes aux processus démocratiques.

Le jury ne sait toujours pas si l'IA générative créera autant d'emplois qu'elle en supprimera. Mais Scott Timcke de Research ICT Africa, qui conçoit le projet financé par le CRDI Indice mondial sur l'IA responsable, affirme que ces chiffres d'emploi ne sont peut-être pas aussi importants que les effets sociétaux plus larges de l'IA générative.

"Les économies de main-d'œuvre et l'augmentation de la productivité auront un effet économique, mais aussi un effet politique", déclare Timcke. "Dans les sociétés où la richesse achète une influence politique disproportionnée, des outils comme ChatGPT et les modèles d'IA générative renforceront les processus qui produisent l'inégalité sociale."

L'objectif principal de l'indice mondial est de comprendre le développement et l'utilisation de l'IA et ses implications sociales dans le monde. Surtout, l'indice met l'accent sur les perspectives des groupes mal desservis et marginalisés. Ce sont les gens dont Timcke craint qu'ils ne tombent entre les mailles du filet. "Dans la proverbiale course aux armements entre les grandes entreprises technologiques qui déploieront des modèles d'IA génératifs, les régulateurs et les législateurs doivent s'assurer que le bien social n'est pas une victime", déclare Timcke.

La perpétuation des inégalités existantes par le biais d'applications génératives d'IA est une préoccupation majeure. Le terrain d'entraînement pour ces applications est Internet, qui regorge de bonnes et de mauvaises données. Le pire, ce sont les données toxiques - des images et du texte avec des abus flagrants comme la pornographie juvénile. Ces données peuvent être filtrées, mais ce processus est susceptible de renforcer les inégalités. Par exemple, OpenAI, basé aux États-Unis, a été critiqué pour avoir payé des travailleurs kenyans moins de 2.00 USD (2.70 CAD) de l'heure (environ le salaire moyen au Kenya) pour nettoyer les données textuelles, les soumettant ainsi à des heures de contenu dérangeant.

Alors que les données toxiques peuvent être supprimées, les opinions sociales problématiques sont beaucoup plus difficiles à effacer des données en ligne dont dépendent les modèles d'IA. Par exemple, il a été démontré que GPT-3 persiste associer les musulmans à la violence.

"Il y a un risque de renforcer les préjugés et les inégalités existants, en particulier dans les cas où les modèles d'IA générative sont formés sur des données qui reflètent les préjugés sociaux, économiques et culturels existants", déclare Luciá Mesa Vélez, du Ladysmith Collective, qui fournit le genre, l'équité et le mentorat d'inclusion et la formation en recherche sur l'IA. "Cela pourrait entraîner une marginalisation supplémentaire de groupes déjà vulnérables, tels que les femmes et la population LGBTQIA+, dans les pays du Sud".

À l'avenir, il est essentiel que nous ne placions pas tous nos espoirs sur l'IA pour résoudre les problèmes systémiques sous-jacents tels que les inégalités. Vélez dit que c'est déjà arrivé.

« Comme nous l'avons vu avec les technologies numériques telles que les téléphones portables - qui ont parfois été présentées comme ayant la capacité de fournir l'autonomisation "au bout des doigts des femmes" - il ne suffit pas d'adopter simplement des approches nouvelles ou innovantes pour résoudre d'anciens problèmes. Nous devons procéder avec prudence et prudence, notamment en rassemblant les informations issues des vastes connaissances existantes sur les promesses et les pièges de l'utilisation de la technologie et de la science des données pour le développement.

Agir avec prudence, c'est aussi tenir compte de la diversité des contextes. Comme l'explique Kponyo, "[il] y a plus de 2,000 XNUMX langues parlées à travers l'Afrique, ce qui en fait l'un des continents les plus linguistiquement diversifiés au monde. Ainsi, développer des modèles linguistiques qui reconnaissent et comprennent ces langues, et pas seulement celles couramment utilisées comme l'anglais, le français et l'arabe, est crucial.

Kponyo, Mwebaze et Vélez font tous partie du AI4D Afrique programme, un bon exemple de l'approche écosystémique utilisée par le CRDI pour financer la recherche sur les technologies de l'information et de la communication au service du développement. L'initiative de quatre ans avec SIDA soutient le développement dirigé par l'Afrique d'une IA responsable et inclusive, notamment par le biais d'une recherche de haute qualité et du renforcement des talents, et en informant une stratégie et une politique adaptées au contexte.

Au cœur de cette approche se trouve une question fondamentale : Qui est responsable du développement de l'IA et pour qui est-elle développée ? Ceux qui créent et affinent les modèles d'IA y intègrent inévitablement leurs valeurs, mais lorsque les technologies ont le potentiel d'avoir un impact mondial, quelles valeurs devraient être prioritaires ?

Répondre à ces questions prend également du temps. Il en va de même pour la collecte de preuves, qui est essentielle pour mieux comprendre les avantages, les risques et les options politiques. C'est pourquoi il est crucial de procéder avec prudence au développement et au déploiement de l'IA pour protéger les populations marginalisées.

Compte tenu du pouvoir de ces technologies de provoquer des perturbations sociales et économiques importantes, les bonnes garanties doivent être en place pour protéger le bien public. La communauté internationale a fait des progrès vers des principes largement acceptés sur le développement et la mise en œuvre d'une IA responsable et éthique - tels que l'accord de l'UNESCO sur la Éthique de l'IA adoptée par 193 États membres en 2021 – mais nous venons tout juste de commencer à comprendre les avantages et les risques potentiels, et comment les réglementer.

De manière critique, cette conversation doit cesser d'être dominée par les voix du Nord et inclure les perspectives et les recherches du Sud sur la manière dont ces technologies peuvent être gérées pour profiter à tous, où qu'ils vivent. Avec l'émergence de l'IA générative, cette approche est plus justifiée et plus nécessaire que jamais.


Cet article a été publié par Matthew Smith sur le blogue du CRDI. Il a été republié ici avec son autorisation.