culture
Il corpo delle donne e l’intelligenza artificiale
Gli algoritmi di intelligenza artificiale (AI) hanno il compito di decidere quali contenuti amplificare e quali sopprimere. Tuttavia, troppo spesso finiscono per shadowbannare immagini di donne, anche quando queste non contengono alcun riferimento a contenuti sessuali.
Anna Zangirolami
Digital Account Manager
Creato il: 21 febbraio 2024
Tempo di lettura: 0 minuti
Si tratta di contenuti pubblicati sui social media che mostrano donne che praticano sport, immagini legate a questioni mediche (come le campagne sulla prevenzione del tumore al seno), sponsorizzazioni di biancheria intima, o semplicemente il pancione di una donna incinta.
Questo fenomeno, noto come "Shadowbanning", si differenzia dai ban regolari perché sopprime il contenuto senza che l'utente ne sia a conoscenza e purtroppo, a soffrirne maggiormente sono spesso le donne. Quindi, oltre al danno, c'è anche la beffa: le foto vengono rimosse senza alcun motivo apparente nella maggior parte dei casi, e con queste viene cancellato anche il diritto alla conoscenza e alla trasparenza. Infatti, spesso gli utenti non sono nemmeno consapevoli delle azioni intraprese dai social media contro i loro account. Si viene "puniti" senza nemmeno avere la possibilità di sapere dove si ha "sbagliato".
Ma quali sono le conseguenze di questo sistema? E soprattutto, perché le immagini di uomini a torso nudo vengono considerate semplici contenuti promozionali del benessere fisico, mentre quelle delle donne che praticano sport vengono percepite come sessualmente suggestive?
Gianluca Mauro e Hilke Schellmann, due giornalisti del Guardian, hanno condotto una ricerca intitolata "There is no standard", in cui hanno analizzato centinaia di foto di uomini e donne tramite l'intelligenza artificiale. La ricerca ha dimostrato che, nonostante le foto mostrino uomini e donne con lo stesso tipo di abbigliamento e coinvolgimento nella stessa situazione, l'AI valuterà le donne come sessualmente esplicite, mentre non farà lo stesso per gli uomini.
Le conseguenze di questa discriminazione di genere sui social media sono evidenti e tangibili in diversi ambiti e settori lavorativi e non. Ad esempio, pensiamo a un fotografo che vuole celebrare il corpo di una donna in gravidanza, o a un insegnante di pole dance che desidera promuovere la sua attività sportiva e la sua palestra, oppure a una donna che decide di sponsorizzare un completo intimo. Ciò che è certo è che, se saranno fortunati, i loro prodotti e contenuti verranno "solamente" limitati, raggiungendo un misero numero di persone. Se saranno più sfortunati, invece, i contenuti e il loro lavoro verranno semplicemente eliminati senza alcuna spiegazione. Questo fenomeno danneggia specialmente le imprese guidate da donne, amplificando in questo modo ulteriormente le disparità sociali.
La spiegazione risiede nel fatto che l'intelligenza artificiale è stata addestrata da esseri umani che hanno insegnato a etichettare le immagini in modo forse talvolta discriminatorio. Idealmente, le aziende tecnologiche avrebbero dovuto analizzare attentamente coloro che etichettavano i loro dati per assicurarsi che gli algoritmi non discriminassero tra donne, uomini o altri gruppi, ma purtroppo ciò non avviene sempre.
Con questo discorso, riconosciamo l’importanza dell'intelligenza artificiale nel bloccare i contenuti che ritraggono scene di violenza o pornografia. Tuttavia, dobbiamo anche affrontare il problema della sua difficoltà nel distinguere quando un'immagine sia effettivamente sessualmente suggestiva.