in

L’IA generativa ha un problema con la bellezza femminile, ma non è (solo) colpa sua

L’IA generativa ha un problema con la bellezza femminile, ma non è (solo) colpa sua


L’intelligenza artificiale generativa ha un problema con le donne. In particolare, con il modo in cui i sistemi di IA che creano immagini che rappresentano (o dovrebbero rappresentare) la bellezza femminile.

L’ultimo esempio, in ordine di tempo, è quello di Smash or Pass, una piattaforma online che consente, sulla falsariga di Facemash, sorta di antenato di Facebook, di valutare in modo positivo o negativo immagini femminili. Foto di persone che non esistono, generate dall’intelligenza artificiale. Con l’espressione del voto, l’IA dovrebbe essere in grado di capire i gusti dell’utente e di creare immagini sempre più gradevoli per lui (o lei).

A parte l’architettura stessa della piattaforma, sessista già dal design, a colpire sono le immagini. Seni enormi, visi senza imperfezioni, donne giovanissime, quasi tutte bianche: l’intelligenza artificiale generativa, come già dimostrato da altri esperimenti o da alcune generazioni dell’app Lensa, ha un’idea decisamente stereotipata della bellezza femminile.

Intelligenza artificiale

La IA fra razzismo e discriminazione: due anni dopo, siamo messi peggio di prima


La bellezza al tempo delle intelligenze artificiali

“La questione parte da lontano – secondo quanto ci ha spiegato Giada Pistilli, responsabile Etica di Hugging Face, azienda USA che sviluppa tool per il machine learning – Mi viene in mente il caso della foto su Playboy di Lena Forsén, modella svedese, utilizzata fin dagli anni ‘70 come cavia per l’elaborazione di immagini digitali. È un esempio che aiuta a capire una direzione: nel mondo dell’intelligenza artificiale e dell’informatica, un certo canone di bellezza è sempre stato presente, fin dalle origini”.

Per spiegare perché l’immagine di Lena fosse diventata uno standard nel settore, David C. Munson, direttore della rivista IEEE Transactions on Image Processing, spiegò che, se da un lato si trattava di una buona immagine di prova per i suoi dettagli, l’ombreggiatura e la trama, dall’altro l’immagine ritraeva una donna attraente. Una circostanza molto apprezzata dalla comunità di ricerca sull’elaborazione delle immagini (composta per lo più da maschi eterosessuali).

Insomma: da un lato le donne scontano anni di sottorappresentazione nel mondo tech: secondo un report del 2023, per ogni professionista di genere femminile, ne corrispondono 4 di genere maschile; dall’altro c’è il funzionamento stesso dei sistemi di intelligenza artificiale generativa. Che, come è noto, sono addestrati a creare nuovi media a partire da un’enorme mole di esempi, da database attraverso i quali imparano a conoscere il mondo e a legare le parole fornite in input, il famoso prompt, all’output.

“Usare le parole per descrivere un’immagine non è un processo che nasce con i prompt – ha ricordato Antonella Sbrilli, storica dell’arte alla Sapienza – È una tradizione letteraria, che prevedeva l’uso di modelli pittorici/scultorei nel testo, perché i lettori immaginassero fattezze e attitudini; gli esempi sono tanti: capelli, forma del viso, curvatura del collo, colori sono richiamati attraverso la comparazione con Botticelli, Velazquez e così via. A guardarle ora, si potrebbe dire che queste descrizioni (bella come la Venere di Milo, austera come un affresco di Giotto e simili, ndr) sono come i prompt, che pescano dal repertorio della cultura visiva condivisa per generare immagini mentali”.

Tuttavia, la questione riguarda il modo in cui le parole si legano alle immagini generate o, per dirla in altri termini, alla cultura visiva a disposizione di una società. Cosa vuol dire bella, quando le rappresentazioni che ho a disposizione identificano come tale quasi esclusivamente donne che rispondono a stereotipi molto precisi?

“Il concetto di bellezza è sempre stato rappresentato, fin dall’antichità sia nel corpo femminile sia in quello maschile – ci ha ricordato Marinella Belluati, sociologa dei media e tra le promotrici del progetto di public engagement dell’Università di Torino AI Aware – Quello che è successo è che con la società di massa, i media e la pornografia c’è stato un orientamento della definizione di bello, di piacente, di desiderabile, soprattutto per quello che riguarda le donne. In particolare, molto prima dell’intelligenza artificiale, si è definito un canone, quello della donna formosa, languida e sessualizzata”.

Axel Wahlström, che ha creato Copy, la prima rivista con immagini interamente generate dall’IA, ha rivelato a Business Insider di aver avuto difficoltà a creare foto di donne comuni, che non fossero troppo perfette: “Non riuscivo a capire perché. Qualunque fosse il prompt, il risultato era sempre molto simile: modelle perfette e stereotipate – ha spiegato al magazine americano – Credo che il nostro esperimento sia stato anche un modo per dimostrare l’immagine della bellezza che abbiamo avuto e diffuso negli ultimi 40 anni”.

“Questo canone si è sedimentato anche nell’inconscio dell’intelligenza artificiale, addestrata a pensare quei corpi come belli, sulla base del materiale fornito in input dai programmatori – ha aggiunto Belluati – La questione è che si tratta di un modo stereotipato, maschile e maschilista, di immaginare il corpo femminile. Il rischio è che si rafforzi un modello sempre più difficile da raggiungere per chiunque, e che corpi non conformi rimangano marginalizzati”.

Intelligenza artificiale

OpenAI ospiterà a San Francisco la sua prima conferenza per sviluppatori



La soluzione, o la nascita di un nuovo immaginario

Non è facile trovare una soluzione. La comunità IA, sul tema, è divisa: c’è chi parla addirittura di eliminare le donne dalle demo e dalle prime versioni dei prodotti, per evitare il rischio di rappresentazioni stereotipate e c’è chi prova a immaginare una soluzione diversa, che parta dall’addestramento dei sistemi e dalla trasparenza.

“Non bisogna dimenticarsi che le tecnologie sono legate alla società in cui viviamo: se la società è sessista, è difficile che le IA, addestrate sulle immagini che questa stessa società produce, non lo siano – è il ragionamento di Pistilli – Sicuramente si può fare uno sforzo nell’utilizzare database che includano rappresentazioni di donne più realistiche e iniziare un dialogo più aperto sul tema”.

Perché non è detto che l’intelligenza artificiale debba, per forza, essere riproduzione del mondo come lo conosciamo: “La complessità e la densità di questi fenomeni fa pensare che non si possa valutare in modo netto – è il suggerimento di Sbrilli – Le metamorfosi nella produzione e nel riuso delle immagini possono contemporaneamente rafforzare ed estremizzare, ma anche svuotare e sostituire canoni, bellezze, pregiudizi e immaginazioni”.



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Lucky, Lino e Rosa sono stati adottati

Lucky, Lino e Rosa sono stati adottati

Inchiesta cavalcavia di Mestre, la procura nel 2021 aveva già aperto un fascicolo dopo la caduta di calcinacci

Inchiesta cavalcavia di Mestre, la procura nel 2021 aveva già aperto un fascicolo dopo la caduta di calcinacci