Link Search Menu Expand Document
Boîte à outils gestion responsable de données

8.3 L'intelligence artificielle


TABLE DES MATIÈRES


À retenir

L’intelligence artificielle est une technologie qui a des applications pratiques potentielles (voire actuelles) très intéressantes.

Néanmoins, le principe du « ne pas nuire » doit primer avant tout - les ong ont comme responsabilité de connaitre suffisamment le sujet pour pouvoir vérifier dans chaque potentielle utilisation que celle-ci n’ira pas a l’encontre de ce principe.

Dans un contexte où les technologies évoluent très vite, il n’est pas toujours facile de comprendre les tenants et aboutissants de chaque nouvel outil.

Les ONG doivent donc y réfléchir plus largement, avoir une stratégie en la matière qui guide son utilisation pour éviter une prise en main anarchique et irresponsable.

Le développement de l’intelligence artificielle dans le secteur renforce le besoin des ONG de mieux connaitre cette technologie, que nous allons voir dans cette sous-section, et notamment les opportunités et les menaces qu’elle représente, afin de réduire les risques de ses différents usages.

8.3.1 De quoi parle-t-on ?

  • Une autre définition de l’IA, issue de la déclaration de Montréal pour un développement responsable de l’IA : « l’ensemble des techniques qui permettent à une machine de simuler l’apprentissage humain, c’est-à-dire d’apprendre, de prédire, de prendre des décisions et de percevoir le monde environnant. Dans le cas d’un système informatique, l’intelligence artificielle est appliquée aux données numériques. »
  • L’IA est liée à l’apprentissage machine (machine learning) qui est « la branche de l’intelligence artificielle qui consiste à programmer un algorithme à apprendre par lui-même. » (Déclaration de Montréal, pour un développement responsable de l’IA).

Bien que l’intelligence artificielle n’en est qu’à ses balbutiements comparé à ce qu’elle représentera dans le secteur de la solidarité internationale (comme dans tous les autres secteurs) d’ici quelques années, il reste de nombreuses utilisations actuelles et envisagées la concernant.

Comme tous les autres secteurs, les membres des ONG utilisent déjà les outils grand public, tels ChatGPT crée par l’Open AI, pour des besoins tels la traduction ou la production ou synthèse de documents / réunions pour être plus efficient.es. Le pendant spécifique sur la gestion de données, pour créer des produits de collecte ou de visualisation par exemple, ou pour classifier des données, démarre tout juste.

Mais, comme pour d’autres secteurs, de nombreuses utilisations pertinentes en lien avec les activités mises en place auprès des populations sont en exploration (voir quelques exemples dans les posts de blog d’ICTWorks sur le sujet, seulement disponibles en anglais), comme pour le diagnostic médical, l’analyse prédictive de crise, l’analyse d’évolution de contexte, ou la productivité agricole pour en citer quelques-uns.

À ce stade, les usages et les positionnements divergent entre les différents acteurs de la solidarité internationale :

  • Les agences de l’ONU, qui en ont un usage très répandu dans leurs interventions comme l’indique le dernier rapport d’International Telecommunication Union rassemblant les activités de l’AI par les différentes agences de l’ONU (seulement disponible en anglais), 281 projets d’IA au service des objectifs du développement durable de 40 agences des Nations Unies ont été présentés. Toutes les thématiques des ODD sont concernées, mais particulièrement le renforcement des institutions, les infrastructures et l’industrie, le développement économique, la réduction des inégalités, et la santé. Leur travail peut être suivi par le biais de l’initiative AI for good (seulement disponible en anglais).
  • Les ONG, qui sont plus frileuses ou plutôt au stade d’expérimentation de l’AI.

Un bon exemple sur ce dernier point est le chatbot (appelé Solis Bot) sur WhatsApp mis en place par Solidarités Internationale dans les camps de réfugiés au Liban pour fournir des informations aux personnes réfugiées sur les services dont elles peuvent bénéficier. Cette application, très appréciée des populations affectées, a permis de répondre informatiquement aux besoins d’une population fortement numérisée, et donc de recentrer le temps « humain » des équipes sur un suivi plus personnalisé des populations les plus vulnérables ou ayant moins accès à la technologie.

8.3.2 Quels sont les enjeux ?

Comme nous l’avons vu, l’arrivée et l’utilisation de plus en plus généralisée et inéluctable de l’IA participent à la transformation numérique du monde, et impacte également le secteur humanitaire. Il est clair que ses acteurs ne pourront pas freiner son usage à long terme, et qu’elles vont devoir s’adapter. Bien utilisé et cadré, l’IA a de nombreuses choses à offrir au secteur, en termes de techniques nouvelles d’analyse de données, d’efficacité, de qualité de données, et de mise à l’échelle d’initiatives intéressantes dans un contexte de plus en plus complexe avec de moins en moins de moyens.

Il semble néanmoins nécessaire pour les ONG de s’inscrire dans les réflexions éthiques et pratiques pour encadrer les usages de l’IA et de participer à l’orientation qui peut être donnée à l’IA dans le secteur, plutôt que de se le faire imposer par les avancées technologiques très rapides du monde du privé et de ce qui est testé et mis en place par les Nations Unies.

Les éléments à prendre en compte, dans la réflexion éthique de l’utilisation de l’AI, selon NetHope (seulement disponible en anglais):

  • Les données ne sont pas neutres
  • Les biais sont omniprésents
  • L’impartialité est complexe
  • L’intention est essentielle
  • Innovation responsable est un rôle qui incombe à tous·tes

En effet, il existe de nombreux risques associés à son utilisation, qui peuvent être contraire aux principes humanitaires, que cela soit en termes de respect des droits des personnes (surveillance de masse, notation sociale…), de protection des données ou d’accroissement des inégalités ou des discriminations, sans parler également de son empreinte carbone.

En voici un résumé (issu de cet article de Humanitarian Practise Network, de ce post de blog de l’ICRC de Christopher Chen, et de cet article de Sarah Spencer about the Humanitarian AI disponibles en anglais seulement) :

  • Les biais : l’AI est conçue par des personnes humaines, guidées par leurs propres normes sociales et culturelles, nourris par des jeux de données principalement occidentaux, impliquant une interprétation des données, autrement dit des biais. Ils sont reproduits dans le fonctionnement des différentes techniques de l’IA, voire amplifiés par la fiabilité accordée aux machines et la croyance dans l’exclusion automatiquement plus efficace des fraudes. Ces biais peuvent aboutir à des discriminations.

Par exemple, une IA utilisée par la police de l’Etat de Louisiane en avril 2023 (relaté dans l’article de Next Impact) a mal identifié une personne et l’a confondu avec un suspect de vols et a mené à son incarcération pendant six jours avant que l’erreur de reconnaissance faciale ne soit reconnue. L’article précise également qu’il est connu que « plus la peau d’un sujet est foncée, moins les algorithmes de reconnaissance faciale fonctionnent correctement ».

  • Le manque d’encadrement : l’encadrement des usages de la technologie de l’IA reste flou, insuffisant et fragmenté, et peut affaiblir la protection des données personnelles des populations par exemple, l’IA allant chercher tout ce qu’elle peut trouver de disponible, sans se poser des questions éthiques. Il n’existe pas de cadre international pour réguler l’usage de l’IA et il n’y pas de gardes fous interdisant les mauvais usages. Les risques ne sont pas suffisamment identifiés et le besoin d’établir une gestion responsable des données personnelles n’exonère pas les organisations lorsqu’elles utilisent une technologie numérique.
  • La question de la redevabilité : lorsqu’une technologie de l’IA fait une erreur qui a des conséquences sur une ou plusieurs personnes, comme l’exclusion de services d’une assistance humanitaire, comment déterminer la responsabilité ? Souvent l’équipe humaine sera blâmée et non les personnes créatrices de l’outil. Les outils de l’IA devraient être conçus pour soutenir les processus de prise de décisions humaines et non de directement prendre la décision informatiquement uniquement
  • La production de fausses informations : les technologies de l’IA s’entrainent sur des données qui peuvent parfois être incomplètes, erronées ou manquer de contexte. Dans ce cas, l’outil va reproduire les erreurs et diffuser de fausses informations.

Par exemple, l’entreprise Newsguard qui lutte contre la désinformation a constaté que « Dans 80% des cas que lui a soumis l’entreprise […], ChatGPT a produit des mensonges et des discours violents très convaincants » (Article de Next impact d’avril 2023).

8.3.3 Comment les ONG peuvent-elles appréhender le sujet ?

L’intelligence artificielle restant un sujet très nouveau et peu maitrisé, en particulier par les ONG, il est de leur responsabilité de rester informés sur le sujet pour être en capacité de prendre des décisions concernant son utilisation ou non. Au-delà, il est nécessaire pour elles de faire une évaluation des risques très poussée avant de mettre en place ce type de technologie pour s’assurer que les outils auront les bénéfices attendus sans risque pour les personnes, et pour également mettre en place les mesures pour contrer les potentiels effets négatifs. De la même manière, quand la technologie leur est « imposée » par d’autres parties prenantes (bailleurs, états…), elles ont la responsabilité de se renseigner sur l’analyse des risques réalisée et de la questionner au besoin.

Il n’existe pas encore de cadre général et contraignant sur l’usage de l’IA dans le monde : il existe des politiques et recommandations de certains organismes. Par exemple, l’ONU a développé 10 principes généraux applicables à ses différentes agences pour un usage éthique de l’IA.

Pour gérer les risques abordés précédemment, il y a cinq éléments clés à mettre en place au niveau organisationnel, selon le National Institute of Standard and Technology (NIST) :

  • Avoir une politique de gestion des risques liés à l’IA
  • Évaluer des risques à tous les niveaux (organisationnel autant qu’individuel)
  • Évaluer et hiérarchiser l’ensemble des risques liés au système d’IA et prioriser les plus élevés
  • Documenter les rôles et responsabilités
  • Connecter la fiabilité et les risques de l’AI

image info

Source: Risk Management Framework NIST

Nous vous invitons à consulter le guide ci-dessous sur l’intelligence artificielle appliquée à la gestion des données programmes des ONG. Ce document a été rédigé de manière collaborative par des membres de la communauté de pratique IM, un collectif rassemblant des ONG humanitaires francophones, afin de soutenir leurs équipes dans la manière dont elles abordent les défis de l’IA et l’utilisent dans leurs opérations quotidiennes. N’hésitez pas à le télécharger et à l’adapter aux besoins de votre organisation.

8.3.4 Ressources clés

  • D’autres ressources sont utiles sur le sujet. Vous pouvez lire l’article de « International review of the Red Cross » en anglais sur le potentiel de l’IA dans l’action humanitaire, les opportunités et les risques qu’elle représente et apporte également des éclairages sur la façon dont l’IA peut être utilisée sur le terrain de manière sécurisée et responsable.
  • Nous vous invitons à écouter les podcasts (seulement disponibles en anglais) issus de « humanitarian AI », une communauté d’échange sur les applications de l’IA dans le secteur humanitaire, et particulièrement celui d’ACAPS, où les utilisations opérationnelles de l’IA sont discutées.
  • Vous pouvez également explorer les ressources de l’ICTworks et notamment cet article (seulement disponible en anglais) sur le développement de principes éthiques guidant l’usage de l’IA, contextualisant et présentant l’ Articifical Intelligence Ethics Playbook de GSMA.
  • DataKind est une ONG qui accompagne la société civile dans le secteur de la science de la donnée et l’IA. Dans ce cadre, elle a développé le Datakind playbook (seulement disponible en anglais) pour ses bénévoles, qui donne aussi des recommandations pour évaluer et pondérer les risques liés aux données d’un projet lors de la phase de conception.