Technologie

L’IA pourrait aider à renforcer les réponses humanitaires, mais elle pourrait également comporter de grands inconvénients.

L’utilisation de l’intelligence artificielle pour aider les réfugiés en crise

Alors que l’International Rescue Committee fait face à une augmentation dramatique du nombre de personnes déplacées ces dernières années, l’organisation d’aide aux réfugiés recherche des moyens d’améliorer son efficacité, y compris en utilisant l’intelligence artificielle.

Depuis 2015, l’IRC a investi dans Signpost – un ensemble d’applications mobiles et de canaux de médias sociaux qui répondent aux questions dans différentes langues pour les personnes en situation dangereuse. Le projet Signpost, qui implique de nombreuses autres organisations, a déjà touché 18 millions de personnes, mais l’IRC souhaite augmenter considérablement sa portée en utilisant des outils d’IA – si cela peut se faire en toute sécurité.

Les conflits, les urgences climatiques et les difficultés économiques ont augmenté la demande d’aide humanitaire, avec plus de 117 millions de personnes déplacées de force en 2024, selon l’agence des Nations Unies pour les réfugiés. Le recours aux technologies d’intelligence artificielle est en partie motivé par l’énorme fossé entre les besoins et les ressources disponibles.

Pour atteindre son objectif de toucher la moitié des personnes déplacées en trois ans, l’IRC teste un réseau de chatbots d’IA pour voir s’ils peuvent renforcer la capacité de leurs agents humanitaires et des organisations locales qui servent directement les personnes via Signpost. Pour l’instant, le projet pilote est en cours en El Salvador, au Kenya, en Grèce et en Italie et répond en 11 langues. Il s’appuie sur une combinaison de grands modèles linguistiques de certaines des plus grandes entreprises technologiques, dont OpenAI, Anthropic et Google.

Si les outils fonctionnent, l’IRC souhaite étendre l’infrastructure technique à d’autres organisations humanitaires à but non lucratif sans frais. Ils espèrent créer des ressources technologiques partagées que des organisations moins axées sur la technologie pourraient utiliser sans avoir à négocier directement avec des entreprises technologiques ou gérer les risques de déploiement.

Les réponses et les informations fournies par les chatbots de Signpost sont vérifiées par des organisations locales pour être à jour et sensibles aux circonstances précaires dans lesquelles les gens pourraient se trouver. Un exemple de requête partagé par l’IRC est celui d’une femme du Salvador voyageant à travers le Mexique vers les États-Unis avec son fils, à la recherche d’un abri et de services pour son enfant. Le chatbot fournit une liste de fournisseurs dans la région où elle se trouve.

Des requêtes plus complexes ou sensibles sont transmises à des humains pour qu’ils y répondent.

Le principal inconvénient potentiel de ces outils serait qu’ils ne fonctionnent pas. Par exemple, que se passerait-il si la situation sur le terrain changeait et que le chatbot ne le savait pas ? Il pourrait fournir des informations non seulement erronées, mais également dangereuses.

Un deuxième problème est que ces outils peuvent recueillir une mine d’informations précieuses sur des personnes vulnérables que des acteurs hostiles pourraient cibler. Que se passerait-il si un pirate informatique parvenait à accéder à des données contenant des informations personnelles ou si ces données étaient partagées accidentellement avec un gouvernement oppressif ?

L’IRC a déclaré avoir convenu avec les fournisseurs de technologies que aucun de leurs modèles d’IA ne sera formé sur les données générées par l’IRC, les organisations locales ou les personnes qu’elles servent. Ils ont également travaillé à anonymiser les données, notamment en supprimant les informations personnelles et géographiques.

Dans le cadre du projet Signpost.AI, l’IRC teste également des outils tels qu’un tuteur numérique automatisé et des cartes pouvant intégrer de nombreux types de données pour aider à se préparer et à répondre aux crises.

Cathy Petrozzino, qui travaille pour la société de recherche et développement à but non lucratif MITRE, a déclaré que les outils d’IA présentent un fort potentiel, mais aussi de grands risques. Pour utiliser ces outils de manière responsable, a-t-elle dit, les organisations doivent se demander, la technologie fonctionne-t-elle ? Est-elle équitable ? Les données et la vie privée sont-elles protégées ?

Elle a également souligné que les organisations doivent convoquer un éventail de personnes pour aider à gouverner et à concevoir l’initiative – non seulement des experts techniques, mais des personnes ayant une connaissance approfondie du contexte, des experts juridiques et des représentants des groupes qui utiliseront les outils.

« Il y a de nombreux bons modèles qui se trouvent dans le cimetière de l’IA », a-t-elle déclaré, « parce qu’ils n’ont pas été élaborés en concertation et en collaboration avec la communauté des utilisateurs. »

Pour tout système ayant des impacts potentiellement vitaux, Petrozzino a déclaré que les groupes devraient faire appel à des experts extérieurs pour évaluer indépendamment leurs méthodologies. Les concepteurs d’outils d’IA doivent envisager les autres systèmes avec lesquels il interagira, a-t-elle dit, et ils doivent planifier pour surveiller le modèle sur le long terme.

Consulter des personnes déplacées ou d’autres personnes que les organisations humanitaires desservent peut augmenter le temps et les efforts nécessaires pour concevoir ces outils, mais ne pas tenir compte de leur avis soulève de nombreux problèmes de sécurité et d’éthique, a déclaré Helen McElhinney, directrice exécutive du réseau CDAC. Cela peut également libérer des connaissances locales.

Les personnes recevant des services d’organisations humanitaires doivent être informées si un modèle d’IA analysera les informations qu’elles fournissent, a-t-elle déclaré, même si l’intention est d’aider l’organisation à mieux répondre. Cela nécessite un consentement significatif et éclairé, a-t-elle ajouté. Elles devraient également savoir si un modèle d’IA prend des décisions changeant la vie en matière d’allocation de ressources et où se situe la responsabilité de ces décisions.

Degan Ali, PDG d’Adeso, une organisation à but non lucratif en Somalie et au Kenya, plaide depuis longtemps pour changer les dynamiques de pouvoir dans le développement international pour donner plus d’argent et de contrôle aux organisations locales. Elle a demandé comment l’IRC et d’autres poursuivant ces technologies surmonteraient les problèmes d’accès, en pointant vers les pannes de courant d’une semaine causées par l’ouragan Helene aux États-Unis. Les chatbots ne serviront à rien s’il n’y a ni appareil, ni internet, ni électricité, a-t-elle déclaré.

Ali a également mis en garde contre le fait que peu d’organisations locales ont la capacité d’assister aux grandes conférences humanitaires où l’éthique de l’IA est débattue. Peu ont des employés suffisamment haut placés et suffisamment compétents pour réellement s’engager dans ces discussions, a-t-elle déclaré, bien qu’ils comprennent le pouvoir potentiel et l’impact que ces technologies peuvent avoir.

« Nous devons être extrêmement prudents pour ne pas reproduire des déséquilibres de pouvoir et des biais à travers la technologie », a déclaré Ali. « Les questions les plus complexes nécessiteront toujours une expérience locale, contextuelle et vécue pour y répondre de manière significative. »

En conclusion, l’utilisation de l’intelligence artificielle pour aider les réfugiés en crise offre de grandes promesses mais comporte également des risques importants. Il est essentiel que les organisations mettent en œuvre des mesures de gouvernance et de conception adéquates pour garantir que ces outils soient utilisés de manière responsable, équitable et respectueuse de la vie privée. La consultation des populations affectées par ces technologies est cruciale pour garantir leur sécurité et leur bien-être, tout en évitant la reproduction des inégalités de pouvoir et des biais.