Nom de domaine

Volevo fare questo secondo articolo sul vertice dell’azione per l’IA a cui ho partecipato la scorsa settimana, non per mettere uno strato sull’aspetto politico della cosa, ma piuttosto per parlare con te “iniziative” (aziende e ONG) che sono stato in grado di incontrarmi rapidamente lì.

Questo vertice di Parigi era soprattutto a Conversazione globale sull’intelligenza artificialedove si potevano ascoltare tutte le voci, non solo quelle di Washington o Pechino. E in questa occasione, la Francia ha deciso di invitare i giocatori del settore di tutto il mondo e MLDR; Con tecnologia al 100% per sempre, vale a dire chi usa l’IA per il bene comune. Ho scoperto che era buono, piuttosto che avere una mega stand aperta, Google, meta o non so cosa, c’erano molti progetti già presentati per il forum per la pace, che ho trovato super interessante e promettente.

IMG 9358

Comincio con la situazione di Gannet, un’iniziativa innovativa che mette l’IA al servizio diumanitario. Questo progetto mostra come l’intelligenza artificiale possa aiutare ad analizzare e comprendere le crisi in tempo reale. Per esempio, Hub -Hub Usa l’IA per raccogliere e analizzare i dati da più fonti ufficiali durante le crisi umanitarie. La piattaforma trasforma questi dati in approfondimenti utilizzabili che quindi aiutano le organizzazioni a coordinare meglio i loro interventi sul campo. Ad esempio, in Sudan, SituationHub consente agli attori umanitari di prendere decisioni più veloci pur essendo meglio informati.

Ho anche incrociato il pluralismo, che in un altro stile ha sviluppato un motore dianalisi politica anticipo. I loro strumenti scansionano in tempo reale i discorsi di oltre 3000 personaggi pubblici (TV, radio, social network certificati) per offrire una chiara visione del dibattito pubblico. Già attivo in Francia, Germania e Uruguay, il pluralismo è anche associato a media come BFM, M6 e Süddeutsche Zeitung. La sua ambizione è di diventare il riferimento globale in termini di trasparenza politica. Magic Lemp, la società dietro questo progetto, si basa su un’intelligenza artificiale “Made in France” per rafforzare la nostra democrazia. Tramite newsletter automatizzati e strumenti B2B di controllo dei fatti, aiutano così cittadini, giornalisti e decisori ad accedere a informazioni diversificate e affidabili. Questo progetto mostra quindi come l’IA può contribuire concretamente a una vita democratica più trasparente e più sana.

Diversifair è anche un progetto interessante. È europeo e attacca una sfida cruciale: pregiudizi intersezionali nell’intelligenza artificiale. Fondamentalmente, l’idea è quella di formare una nuova generazione di esperti in grado di rilevare e prevenire la discriminazione nascosta dei sistemi di intelligenza artificiale. Perché sì, i pregiudizi sono spesso più complessi di quanto pensi! Ad esempio, alcuni strumenti di riconoscimento facciale che funzionano bene separatamente per i neri o le donne possono avere un errore fino al 34% quando si tratta di donne di colore. Per combattere questi angoli morti, diversificair ha quindi distribuito 2 programmi: Equality4Tech Per imparare a distorcere e Equalità Tech4 Per impedirli a monte. Questo progetto mostra come costruire un’intelligenza artificiale più equa per tutti, qualunque sia il nostro genere, la nostra origine o il nostro background sociale.

Nella Repubblica Democratica del Congo, il Fondazione Hirondelle Usa anche l’IA per combattere i discorsi di odio a est del paese. Il loro approccio è intelligente poiché usano un trattamento automatico del linguaggio naturale per monitorare le radio della comunità locale e identificare discorsi violenti. Ma non si fermano qui, perché in risposta a questi discorsi di odio, producono e trasmettono contenuti radio adattati per neutralizzare questi messaggi tossici. Il progetto colpisce le popolazioni vulnerabili di Ituri e Kivus attraverso un’impressionante rete di 200 partner dei media, di cui 50 nell’est del paese. I programmi sono quindi diffusi in 5 lingue nazionali, con particolare attenzione per includere donne e giovani. Trovo, un bell’esempio di come l’IA può rafforzare concretamente la coesione sociale e la stabilità locale dando accesso a informazioni affidabili!

Side Health, un progetto interessante è Cervicaid. Usa l’IA per salvare letteralmente vite. Sviluppato da una startup tunisino con Medntechla loro applicazione mobile aiuta gli operatori sanitari a rilevare presto il cancro cervicale, in aree geografiche scarsamente servite a livello medico. Il principio è ingegnoso: durante l’esame del colletto, l’app analizza le immagini in tempo reale per identificare possibili anomalie. Il progetto è in atto in Ruanda, con l’ambizione di estendersi a tutta l’Africa. La cosa fantastica è che coinvolgono direttamente gli operatori sanitari africani nello sviluppo dello strumento per garantire che soddisfi davvero le esigenze del campo. Anche in questo caso, l’IA può rendere le cure preventive più accessibili alle donne al fine di prevenire questo tipo di cancro!

Anche Mozilla era lì. Non mi aspettavo di vederli lì, ma in realtà è logico, perché hanno presentato una voce comune di cui ti ho già detto qui. Come promemoria, è un progetto che offre un approccio diverso alla creazione di dati vocali per l’IA. Invece di saccheggiare i dati in rete senza consenso o subappalto a basso costo, scommettono sulla partecipazione dei cittadini per creare un database pubblico e inclusivo. E funziona, perché con oltre 750.000 collaboratori (incluso me !!) che hanno già dato 30.000 ore di registrazioni in oltre 140 lingue, la voce comune è diventata il più grande database vocale partecipativo al mondo.

Ho anche scoperto Daliluno strumento di analisi multimediale aumentato all’IA che aiuta a vedere chiaramente nell’attuale caos di Info e Infox come si suol dire. Lanciato nel 2023 da Analisi della sirenasi affermava rapidamente come un prezioso alleato di controlli di fatti, giornalisti e investigatori, in particolare in Francia e nei Balcani. Fondamentalmente, monitora migliaia di fonti mediatiche (stampa, TV, social network) per rilevare segnali deboli in tempo reale come l’improvvisa propagazione di informazioni false o l’emergere di un argomento sensibile, al fine di dietro i giornalisti di allerta o le autorità competenti. Hanno anche sviluppato un modello di intelligenza artificiale legale fatto su misura che è in grado di analizzare situazioni complesse in diritto umanitario internazionale! È ottimo!

Ci sono anche un po ‘più di progetti ecologici come questa partnership tra Meta e WRI (World Resources Institute) che mappa il baldacchino mondiale con una precisione di un metro (sì sì, possono individuare ogni albero!), Che è perfetto per i seguenti progetti di riforestazione. O Neomiasviluppato in Costa d’Avoire, che utilizza AI per analizzare le immagini satellitari e combattere contro la pesca illegale mentre monitora l’impatto dei cambiamenti climatici sulle coste. E poi c’è Gaiaun grande progetto che vuole democratizzare l’IA in agricoltura offrendo strumenti open source. L’idea di Gaia è quella di creare una sorta di kit pronto per uso con modelli AI specializzati in agricoltura, accessibile a tutti gratuitamente.

Ho anche cancellato, Prisma evaluna scatola che rende la sicurezza informatica. Ovviamente mi interessava, perché è uno dei miei argomenti preferiti con AI. Fondamentalmente, sviluppano strumenti per testare la sicurezza dei modelli di intelligenza artificiale.

Il loro progetto di punta si chiama Scommettere Per lo strumento di elicitazione del comportamento e l’ho trovato davvero interessante perché invece di testare l’IA con istruzioni fisse, esplorano dinamicamente le loro vulnerabilità, un po ‘come un hacker etico super intelligente!

Hanno appena pubblicato una classificazione che penso ti interesserà. Il loro approccio è bello: in primo luogo, mappano le potenziali vulnerabilità con una libreria di suggerimenti rapidi e altri consentire di bypassare le garanzie dell’IA. Quindi usano un algoritmo ispirato alle colonie delle formiche che simula il comportamento di un hacker per stimare il numero di tentativi che ci vorrebbero per “rompere” il modello (sì, ho messo le citazioni). Cracking del modello significa aggirare la sicurezza del modello e ottenere così informazioni come spiegazioni sulla creazione di armi, dall’incentivo alla violenza, alla disinformazione, ai discorsi di odio e MLDR.

SCR 20250218 MMVK 2

E anche se alcuni modelli come Claude-3.5 resistono meglio (ci vogliono più di 400 tentativi per deragliare), vediamo che c’è ancora lavoro per rendere l’LLM davvero sicuro. In breve, l’ho trovato davvero bello, Ti invito a andare a vedere la loro classifica. Imparerai molte cose.

Qui, ovviamente, non riuscivo a vedere tutto, c’erano troppe cose, ma questo è per il mio piccolo ritorno ai progetti che usa l’IA per il bene della comunità. C’erano altri ovviamente E puoi consultare l’elenco qui.

Vi auguro una buona giornata!


Source link

Categorized in: