venerdì 5 luglio 2024

Articolo per giornale o rivista. AI: più controllo sui dati e più programmatrici donne contro le discriminazioni


AI: più controllo sui dati e più programmatrici donne contro le discriminazione


L’Intelligenza artificiale, come ormai noto, rischia di aumentare le discriminazioni, i bias, le diseguaglianze, la disparità di genere. E questo perché l’Ai attinge e si forma sulla nostra cultura, sui nostri prodotti e i nostri dati, già inficiati da stereotipi e bias. Se lo scopo è, nella lotta alla disparità di genere diminuire bias, discriminazioni e diseguaglianze, secondo Mirta Michilli, direttrice di Fondazione Mondo Digitale, bisogna percorrere due strade: più controlli sulla scelta dei dati e sugli output e più donne tra sviluppatori e programmatori. In generale la parola d’ordine è poi formare i cittadini e renderli consapevoli dei rischi che si incorrono nell’uso delle nuove tecnologie: perché tanto si è più fragile e tanto più si è a rischio.

Quali sono i maggiori rischi dell’Ai in questo momento?

L’intelligenza artificiale ha dei rischi legati ai bias, perché viene addestrata su una grande quantità di dati già esistenti. È noto che, all’interno del set di dati, si riscontrano diseguaglianze di genere, discriminazioni per religione, cultura o etnia. Gli algoritmi, che apprendono da questo grande insieme di dati, sono influenzati dal materiale che hanno a disposizione. In sostanza l’Ai ha dei bias perché viene allenata su dati che hanno bias. Un’altra ragione delle discriminazioni contenute nell’Ai è da rintracciare nello sviluppo e nella programmazione dei sistemi. La maggior parte dei programmatori e degli sviluppatori sono uomini, bianchi, etero. Infine, c’è il tema dell’interfaccia utente, dell’usabilità, pensata soprattutto per normodotati, per la gran massa degli utenti, senza pensare alla diversificazione.

 Quali sono allora le maggiori difficoltà che si incontrano nel contrastare e invertire questa tendenza?

Siamo da poco partiti, come Mondo Digitale, con lo sviluppo di un progetto di tutoring rivolto a bambini con disturbi di apprendimento. Stiamo cercando di allenare un programma sulla sicurezza on line per bambini normodotati per aiutare anche i bambini con disturbi. Bisogna comunque sottolineare che diversificare i programmi è complicato e molto costoso. D’altronde, anche il cellulare è, generalmente, fatto e studiato per l’utente medio. Oggi esistono esempi di cellulari più grandi, più inclusivi, o software che aiutano i disabili, ma la diversificazione necessita di tempi lunghi ed è un processo molto costoso.

Quando una tecnologia, come nel caso dell’Ai, parte così velocemente – da novembre 2021 c’è infatti stato uno sviluppo esponenziale dell’Ai generativa – è normale che all’inizio si riscontrino tanti bias che piano piano, con gli investimenti nello sviluppo e con l’aumentare della sensibilità, dovrebbero diminuire.

Quali strumenti suggerisce per incidere oggi sui bias?

Innanzitutto, bisogna essere consapevoli dei dati che vengono usati, bisogna cioè stare attenti ad utilizzare dati che abbiano un linguaggio bilanciato, inclusivo, diversificato. Siccome la maggior parte degli Llm (Large language models) viene allenato per un uso specifico è molto importante che chi raccoglie i dati sia consapevole che il data set debba essere diversificato. Allo stesso modo fa la differenza la sensibilità del programmatore che costruisce il servizio usando l’Llm. È quindi, sempre più importante che ci siano programmatrici donne e programmatori che tengano conto di tutte le differenze, non solo quelle di genere.

Una volta scelti i dati, chi sviluppa il servizio deve poi assicurarsi che siano bilanciati. A questo proposito occorre creare dei meccanismi di controllo che interroghino il sistema, verificandolo. Ed  è, infatti, sempre più importante avere algoritmi che controllino che il servizio ultimo non sia discriminatorio, sia per tutti e non abbia bias.

Infine, occorre educare e sensibilizzare gli utenti. È lo stesso discorso che vale per i social media; la rete è piena di informazioni false, ma l’utente allenato a capire che i social media contengono tanti bias o fake news, più facilmente riesce a cercare le fonti giuste.

A livello regolatorio come stanno messe Italia ed Europa?  

Oggi siamo molto focalizzati sulla regolamentazione, quella europea si candida a essere tra le migliori al mondo, e anche a livello imprenditoriale cominciano gli investimenti nelle realtà italiane. Tutto ciò è positivo, ma non basta: è altrettanto importante, infatti, creare la cultura giusta e su questo fronte, dal punto di vista educativo, vedo, invece, pochi investimenti. Sulle Ai, in conclusione, occorre, invece, educare programmatori, sviluppatori, cittadini, fare in modo di avere sempre più donne nello sviluppo dei software, ma anche nello sviluppo dei servizi. E’ una catena su cui bisogna investire a tutti livelli. Ricordando che tanto più si è fragili e tanto più si rischia di rimanerne fuori.

Tags:
  • Bias
  • Discriminazioni
  • Donne
  • Fondazione mondo digitale
  • Intelligenza artificiale
  • Mirta michilli

 

Nessun commento:

Posta un commento