Bilancio generale - cosa emerge?

Consulta il risultato comune delle statistiche analizzate relelative all'analisi dei bias.

Perché questo esperimento?

Attraverso questo esperimento, abbiamo voluto esplorare in modo critico e creativo le rappresentazioni automatiche del mondo del lavoro, mettendo alla prova diverse intelligenze artificiali. Il nostro obiettivo? Capire se esistono bias, stereotipi o tendenze ripetitive nei volti, nei ruoli e nelle emozioni che queste tecnologie associano ai lavoratori. Lanciamoci in questo pseudo-esperimento col fine di trovare anche qualche lato negativo della nostra tanto adorata IA.

La fonte del materiale di studio

Abbiamo generato circa 700 immagini, tutte basate sugli stessi ruoli lavorativi, utilizzando cinque diverse AI: DALL-E, Canva, Bing Image Creator, Gemini e Leonardo AI. Ogni immagine è stata poi analizzata da gruppi della nostra classe, che hanno ipotizzato: età del soggetto, etnia, colore della pelle (scala da 1 a 6), sesso ed umore espresso I dati sono stati raccolti in un foglio Excel per permettere un’analisi complessiva e strutturata.

scopri

Scopri di più

Genere: Come le AI vedono i due sessi a lavoro

Questa è stata una delle stats più interessanti ed attuali: i generi non vengono distribuiti in modo uniforme.I ruoli tecnici o di potere erano quasi sempre maschili. Le donne erano spesso rappresentate in ruoli di cura o supporto. L’aspetto fisico contava: vestiti eleganti per gli uomini manager, per esempio. Parlando di numeri, in generale, da grafici spiccano Canva e Bing, essendo le uniche con polarizzazione dei sessi apparentemente neutra.

Età: è davvero collegata col nostro lavoro secondo l'AI?

le intelligenze artificiali tendono a rappresentare le persone anziane come figure autorevoli e rispettate, mentre i giovani compaiono soprattutto nei ruoli operativi o di basso livello. Tuttavia, l'AI sembr simpatizzare per i più giovani (25-30 anni), essendo le categorie più generate dal punto di vista generale con alla fine, invece, gli ultra-sessantenni.

Pelle: si posso definire delle AI "razziste"?

L’analisi delle immagini generate rivela una forte predominanza di tonalità chiare (tipo I) nella rappresentazione dei lavoratori, con una presenza molto limitata di tonalità scure (IV, V e VI). In media, oltre il 65% dei volti rappresentati da ogni AI appartiene alla categoria I, ovvero pelle molto chiara. Invece, carnagioni più scure sono quasi del tutto marginali, con percentuali spesso sotto il 5%, alle quali vengono attribuiti lavori tutt'altro che dirigenziali. Come mai?...

Triste o felice? Secondo l'AI...

I gruppi Leonardo AI e Gemini AI generano lavoratori per lo più felici o sorridenti, mentre Dall-E mostra una maggiore varietà emotiva, con una porzione più ampia di espressioni neutre e una percentuale rilevante di emozioni negative (triste o arrabbiato). Canva e Bing si mantengono su profili espressivi bilanciati ma poco variegati, con un netto predominio della felicità. Anche per quanto riguarda i lavora non è presente una polarizzazione eccessiva. Tuttavia, inaspettatamente, quasi tutte le AI associavano lavori umili a volti felici, creando così il paradosso fama/tristezza.

L'AI ama viaggiare? Beh, non proprio...

Tutti i gruppi mostrano una forte prevalenza di etnia Occidentale, in particolare il Gruppo Leonardo con quasi l'80%. Tuttavia, Dall-E si distingue per una rilevante percentuale di individui Afrodiscendenti (28.57%). Gr. Bing, Gemini AI e Gr. Canva mostrano un certo equilibrio tra Occidentali e Orientali Estesi, con quest’ultima categoria rappresentata tra il 25% e quasi il 38%. In quasi tutti i gruppi, la rappresentanza afrodiscendente rimane bassa, eccetto in ChatGPT.

Commento

L’esperimento condotto mette in luce come i modelli di intelligenza artificiale generativa, nonostante l’apparente neutralità algoritmica, riflettano e amplifichino bias preesistenti. L’analisi ha evidenziato che le immagini prodotte non distribuiscono in modo equilibrato le caratteristiche rappresentate (etnia, genere, tratti somatici come la pelle, età ed umore). Relazionando, poi, il tutto interamente al mondo del lavoro si è fatto sì che si aggiungesse una "variabile" da analizzare nel corso di questo vero e proprio esperimento. La scelta delle professioni, inoltre, è studiata proprio per "stuzzicare" l'AI in modo da portare allo scoperto i bias per poi, di conseguenza, studiare meglio il fenomeno.

Conclusione

Infine, pur trattandosi di calcoli grezzi (molti dataset erano, infatti, disomogenei/incompleti... per svariati motivi, tra cui quello della limitazione nella generazione gratuita su alcune piattaforme), è stato possibile, a grandi linee, verificare ciò che si era ipotizzato prima ancora di iniziare: i modelli generativi non sono “neutri”, ma riflessi delle scelte, dei dati e delle culture che li hanno formati. Riteniamo, dunque fondamentale che lo sviluppo di queste tecnologie sia accompagnato da sistemi di valutazione e rilevamento bias in fase di test e da strumenti che permettano agli utenti di controllare e correggere potenziali distorsioni.