J’avais envie de faire ce second article au sujet du Sommet de l’Action pour l’IA auquel j’ai assisté la semaine dernière, non pas pour en remettre une couche sur l’aspect politique du truc, mais plutôt pour vous parler des “initiatives” (entreprises et ONG) que j’ai pu croiser rapidement là-bas.
Ce Sommet de Paris était avant tout une conversation mondiale sur l’IA, où toutes les voix, et pas seulement celles de Washington ou de Pékin pouvaient se faire entendre. Et à cette occasion, la France a décidé d’inviter des acteurs du secteur du monde entier… à 100% Tech for Good, c’est à dire qui utilisent l’IA pour le bien commun. J’ai trouvé que c’était bien, plutôt que d’avoir un méga stand OpenAI, Google, Meta ou je ne sais quoi, là y’avait plein de projets déjà présentés pour la plupart lors du Forum pour la Paix, que j’ai trouvé super intéressants et prometteurs.
Je commence par SituationHub de GANNET, une initiative innovante qui met l’IA au service de l’humanitaire. Ce projet montre comment l’intelligence artificielle peut aider à analyser et comprendre les crises en temps réel. Par exemple, SituationHub utilise l’IA pour collecter et analyser des données provenant de multiples sources officielles lors de crises humanitaires. La plateforme transforme ces données en insights exploitables qui aident ensuite les organisations à mieux coordonner leurs interventions sur le terrain. Par exemple, au Soudan, SituationHub permet aux acteurs humanitaires de prendre des décisions plus rapides tout en étant mieux informés.
J’ai également croisé Pluralisme, qui dans un autre style, a développé un moteur d’analyse politique avancé. Leur outil scanne en temps réel les prises de parole de plus de 3000 personnalités publiques (TV, radio, réseaux sociaux certifiés) pour offrir une vision claire du débat public. Déjà actif en France, en Allemagne et en Uruguay, Pluralisme s’est d’ailleurs associé à des médias comme BFM, M6 et la Süddeutsche Zeitung. Son ambition est de devenir la référence mondiale en matière de transparence politique. Magic LEMP, l’entreprise derrière ce projet, mise sur une IA “made in France” pour renforcer ainsi notre démocratie. Via des newsletters automatisées et des outils de fact-checking B2B, ils aident ainsi les citoyens, les journalistes et les décideurs à accéder à une information diversifiée et fiable. Ce projet montre ainsi comment l’IA peut concrètement contribuer à une vie démocratique plus transparente et plus saine.
DiversiFair est également un projet intéressant. C’est Européen et ça s’attaque à un défi crucial : les biais intersectionnels dans l’IA. En gros, l’idée c’est de former une nouvelle génération d’experts capables de détecter et prévenir les discriminations cachées des systèmes d’IA. Car oui, les biais sont souvent plus complexes qu’on ne le pense ! Par exemple, certains outils de reconnaissance faciale qui fonctionnent bien séparément pour les personnes noires ou pour les femmes, peuvent avoir jusqu’à 34% d’erreur quand il s’agit de femmes noires. Pour combattre ces angles morts, DiversiFair a donc déployé 2 programmes : Equality4Tech pour apprendre à auditer les biais, et Tech4Equality pour les prévenir en amont. Ce projet montre comment construire une IA plus juste pour tout le monde, quels que soient notre genre, notre origine ou notre milieu social.
En République Démocratique du Congo, la Fondation Hirondelle utilise aussi l’IA pour lutter contre les discours de haine à l’est du pays. Leur approche est maline puisqu’ils utilisent du traitement automatique du langage naturel pour surveiller les radios communautaires locales et repérer les discours violents. Mais ils ne s’arrêtent pas là, car en réponse à ces discours haineux, ils produisent et diffusent du contenu radio adapté pour neutraliser ces messages toxiques. Le projet touche les populations vulnérables d’Ituri et des Kivus via un réseau impressionnant de 200 partenaires médias, dont 50 dans l’est du pays. Les programmes sont ainsi diffusés en 5 langues nationales, avec une attention particulière pour inclure les femmes et les jeunes. C’est, je trouve, un bel exemple de comment l’IA peut concrètement renforcer la cohésion sociale et la stabilité locale en donnant accès à une information fiable !
Côté santé, un projet intéressant, c’est CervicAId. Ça utilise l’IA pour littéralement sauver des vies. Développée par une startup tunisienne avec MednTech, leur application mobile aide les soignants à détecter précocement le cancer du col de l’utérus, dans des zones géographiques mal desservies au niveau médical. Le principe est ingénieux : pendant l’examen du col, l’appli analyse en temps réel les images pour repérer d’éventuelles anomalies. Le projet est en place au Rwanda, avec l’ambition de s’étendre à toute l’Afrique. Ce qui est super, c’est qu’ils impliquent directement les professionnels de santé africains dans le développement de l’outil pour s’assurer qu’il répond vraiment aux besoins du terrain. Ici encore, l’IA peut rendre les soins préventifs plus accessibles aux femmes afin de prévenir ce genre de cancer !
Mozilla était également de la partie. Je ne m’attendais pas à les voir là, mais en fait c’est logique, car ils présentaient Common Voice dont je vous ai déjà parlé ici. Pour rappel, c’est un projet qui propose une approche différente de la création de données vocales pour l’IA. Au lieu de piller des données sur le Net sans consentement ou de sous-traiter à bas coût, ils misent sur la participation citoyenne pour créer une base de données publique et inclusive. Et ça marche, car avec plus de 750 000 contributeurs (dont moi !!) qui ont déjà donné 30 000 heures d’enregistrements dans plus de 140 langues, Common Voice est devenue la plus grande base de données vocales participative au monde.
J’ai aussi découvert Dalil, un outil d’analyse de médias dopé à l’IA qui aide à voir clair dans le chaos actuel des infos et infox comme on dit. Lancé en 2023 par Siren Analytics, il s’est rapidement imposé comme un allié précieux des fact-checkers, des journalistes et des enquêteurs, particulièrement en France et dans les Balkans. En gros, ça surveille des milliers de sources médiatiques (presse, TV, réseaux sociaux) pour détecter en temps réel des signaux faibles comme la propagation soudaine d’une fausse information, ou l’émergence d’un sujet sensible, afin derrière d’alerter les journalistes ou les autorités compétentes. Ils ont également mis au point un modèle d’IA juridique sur mesure qui est capable d’analyser des situations complexes en droit international humanitaire ! C’est top !
Y’a eu aussi des projets un peu plus écolos comme ce partenariat entre Meta et le WRI (World Resources Institute) qui cartographie la canopée mondiale avec une précision d’un mètre (oui oui, ils peuvent repérer chaque arbre !), ce qui est parfait pour suivre les projets de reforestation. Ou encore NEOMIA, développé en Côte d’Ivoire, qui utilise l’IA pour analyser les images satellites et lutter contre la pêche illégale tout en surveillant l’impact du changement climatique sur les côtes. Et puis il y a GAIA, un super projet qui veut démocratiser l’IA dans l’agriculture en proposant des outils open source. L’idée de GAIA c’est de créer une sorte de kit prêt à l’emploi avec des modèles d’IA spécialisés dans l’agriculture, accessibles à tous gratuitement.
J’ai aussi croisé hors stand, Prism Eval, une boite qui fait de la cybersécurité. Évidemment que ça m’a intéressé, car c’est l’un de mes sujets préférés avec l’IA. En gros, ils développent des outils pour tester la sécurité des modèles d’IA.
Leur projet phare s’appelle BET pour Behavior Elicitation Tool et je l’ai trouvé vraiment intéressant parce qu’au lieu de tester les IA avec des prompts fixes, ils explorent dynamiquement leurs vulnérabilités, un peu comme un hacker éthique super intelligent !
Ils viennent d’ailleurs de publier un classement qui je pense va vous intéresser. Leur approche est cool : d’abord, ils cartographient les vulnérabilités potentielles avec une bibliothèque de prompts & autres astuces permettant de contourner les garde-fous des IA. Ensuite, ils utilisent un algorithme inspiré des colonies de fourmis qui simule le comportement d’un hacker pour estimer combien de tentatives il faudrait pour “cracker” le modèle (oui, j’ai mis des guillemets). Cracker le modèle, ça veut dire contourner la sécurité du modèle et ainsi obtenir des infos comme des explications sur la création d’armes, de l’incitation à la violence, de la désinformation, des discours de haine…etc.
Et même si certains modèles comme Claude-3.5 résistent mieux (il faut plus de 400 tentatives pour les faire dérailler), on voit qu’il y a encore du boulot pour rendre les LLM vraiment sûrs. Bref, j’ai trouvé ça vraiment cool, je vous invite à aller voir leur leaderboard. Vous allez apprendre plein de choses.
Voilà, évidemment, je n’ai pas pu tout voir, y’avait trop de trucs, mais voilà pour mon petit retour sur des projets utilisant l’IA pour le bien de la collectivité. Il y en avait d’autres bien sûr et vous pouvez consulter la liste ici.
Passez une excellente journée !
Source link
Subscribe to our email newsletter to get the latest posts delivered right to your email.
Comments