In che modo è possibile evitare che l’intelligenza artificiale erediti gli stessi pregiudizi di chi la programma? Ha provato a rispondere Cinzia Celeri, studentessa in Ingegneria Gestionale all’Università degli Studi di Bergamo, autrice dell’articolo che segue  con il quale è arrivata finalista nella categoria ‘Future Vision’ alla prima edizione della Disruptor Challenge, il contest di University2Business dedicato a universitari e neolaureati. Il testo di Cinzia intitolato ‘OMNI’ ha colpito per la sua originalità espositiva e la chiara visione del problema ‘responsible AI’ (tema del contest nel quale ha gareggiato). Da qui in avanti, parla Cinzia!

Nel 1914 Henry S. Salt scriveva: “Portate una bella ragazza a fare uno spuntino, e le offrite… un sandwich al prosciutto! Il proverbio dice che è da sciocchi gettare perle ai porci. Che dire della cortesia di gettare porci alle perle?” Nell’Inghilterra di quel tempo, un ragazzo che avesse seguito questo consiglio avrebbe sicuramente avuto buone probabilità di successo e, riflettendoci, forse anche oggigiorno può essere ritenuto valido, specie nelle regioni del Centro e Nord Italia caratterizzate da una lunga tradizione nell’allevamento e nel consumo di carne suina.

Supponiamo ora che, per gioco, un ragazzo si diletti nel creare un modello di intelligenza artificiale che preveda quando sia opportuno seguire il consiglio di Salt, utilizzando come dati il numero di successi e insuccessi degli appuntamenti con diverse ragazze, valutando l’ipotesi di fornire questo modello anche ai suoi amici, per renderlo più preciso.

Contestualizzando meglio la citazione dell’autore, apparsa nel romanzo “Etica del vegetarianismo”, ci si rende conto che, in quel passo, egli altro non tenta che di immedesimarsi nella sua nemesi: i carnivori. Ciò che risulta interessante notare è che egli è conscio di avere un pregiudizio verso i non vegetariani e, di conseguenza, ne tiene conto nel suo argomentare. Accorgersene, in quel caso, non fu difficile: bastava osservare le abitudini dei propri concittadini. Tuttavia i dati inseriti dal nostro ragazzo nel modello di AI rischiano di portare con sé dei pregiudizi inconsci di cui potrebbe non tenere conto, se ad esempio non fosse mai uscito con una ragazza musulmana o vegetariana.

Essere consapevoli di un pregiudizio significa aggiungere un nuovo «parametro» per ricalibrare le proprie decisioni, specie in attività che non sono fine a noi stessi, come scrivere un libro o inserire dei dati per un modello generale di AI. È vero anche che è difficile rendersi conto autonomamente dei propri pregiudizi: li conosciamo veramente solo quando altri, che ne hanno di diversi, ci danno l’occasione di notarli.

Perché il modello che abbiamo supposto sia efficace dovremmo sottoporlo a più riprese, in ottica agile test, ad una sorta di peer review: già utile, in campo scientifico, ad attestare non solo il rigore e la validità delle condizioni di un esperimento (come viene svolto), ma anche la presenza di pregiudizi che lo hanno condizionato a monte (come viene pensato).

Proiettiamoci nel 2100, chiedendoci se il consiglio possa ancora ritenersi valido. Le stime dell’Onu sostengono che, in futuro, ci saranno nel mondo sempre più asiatici e africani di oggi e sempre meno europei. Non sarebbero buone notizie per il nostro aspirante programmatore di intelligenza artificiale: un modello basato esclusivamente su un sandwich al prosciutto per un’applicazione di incontri implicherebbe un’alta percentuale di ragazzi single. Fortunatamente, questa situazione durerebbe poco dal momento che i modelli danno precedenza ai dati recenti. Utilizzando un’AI che preveda anche l’opzione di un sandwich al formaggio, con qualche sforzo si arriverebbe a correggere il modello e, forse, addirittura a ribaltarlo. Da quel momento le possibilità che si offra prosciutto diminuirebbero sempre più, facendo trionfare l’ideologia di Salt, che di certo avrebbe apprezzato maggiormente un sandwich al formaggio.
Probabilmente, però, anche se ammettessimo che nell’Inghilterra del 1914 le applicazioni di intelligenza artificiale fossero sviluppate come oggi, forse non avrebbe avuto senso prodigarsi per creare un modello neutrale. Scrivo forse perché, così come per Salt l’alimentazione, anche questa è una scelta etica. In questo momento chi crea modelli si trova in aree sviluppate, è ben istruito e prevalentemente uomo. In futuro l’abitante medio della Terra proverrà dalle aree ora in via di sviluppo e le donne avranno sempre maggior rilevanza nei processi decisionali. Prodigarsi ora per creare un modello neutrale consentirebbe di definire uno standard che non discrimini le minoranze presenti. É una scelta anche conveniente, perché uno standard adeguato viene mantenuto nel tempo mentre un modello prevenuto sarà smantellato.

Programmare un modello neutrale significa riconoscere oggi l’importanza del tener conto delle differenze degli altri, provando a superare i pregiudizi, affinché domani le future generazioni compiano lo stesso sforzo. Dare in pasto ai modelli di AI dati puliti non è impossibile: basta raccoglierli nei processi e nei territori di applicazione e poi chiederne la revisione a persone che siano distanti dagli sviluppatori, in termini di vissuto e mentalità. Non si chiede di rinunciare ai propri pregiudizi subito, come per magia, ma di riflettere su ciò che gli altri ci mostrano come prevenuto, provando a tenerne conto nelle decisioni e aiutandosi l’un l’altro, ad esempio coinvolgendo le no-profit che raccolgono dati, incentivandole. Così potremo creare modelli neutrali con un potenziale sociale molto più alto e fare davvero la differenza.

Fonti

https://population.un.org/wpp/DataQuery/ –  https://www.elementsofai.com/