Se anche gli algoritmi discriminano
- Posted by Carolina Lucchesini
- Categories Blog
- Date 10 Luglio, 2020
- Comments 0 comment
Costruire fiducia è un concetto portante in comunicazione, da sempre.
Considerando che buona parte dei processi di comunicazione online sono gestiti dal Machine Learning, però, è importante chiedersi in che modo interviene l’AI (Artificial Intelligence) nel processo di costruzione della fiducia con la nostra audience.
Accertarsi che l’algoritmo che distribuisce i contenuti alle nostre persone sia “buono, equo e giusto” è prioritario. Perché un algoritmo “intelligente”, capace di costruire fiducia e non escludere dimostra alle persone che le loro vite contano, che le loro differenze sono valorizzate.
Se vuoi iscriverti alla Newsletter e ricevere risorse, spunti, approfondimenti via mail, puoi farlo da qui.
Quanto sono importanti gli algoritmi nelle nostre vite?
Siamo abituati a frequentarli ogni giorno: gli algoritmi sono diventati parte integrante della nostra percezione del mondo.
Gestiscono e determinano quello che vediamo passare online, basandosi su un calcolo razionale di elementi di varia natura: le nostre ricerche, i dati che abbiamo diffuso online più o meno consapevolmente, il posto da cui proveniamo e la lingua che parliamo, i luoghi in cui siamo stati, il nostro film preferito, dove siamo andati al liceo, il colore della nostra pelle, il nostro genere, il nostro orientamento sessuale, il nostro livello di istruzione. E così via.
Gli algoritmi non sono oggettivi
Gli algoritmi rappresentano una combinazione di fattori non sempre oggettiva: riflettono o amplificano dei bias cognitivi, che possono avere radici diverse:
- dati raccolti in modo scorretto
- pregiudizi legati a genere, orientamento sessuale, razza, provenienza geografica di chi opera attraverso l’algoritmo (anche quando facciamo adv, per esempio)
- decisioni sui prodotti che svantaggiano un certo gruppo di persone
Ma quali sono i risvolti etici e pragmatici di un algoritmo che non è “buono, equo, giusto”?
Ecco qualche esempio:
- Se l’algoritmo impara male
Un caso eclatante che ci aiuta a capire cosa può succedere se i dati vengono raccolti male.
Vi ricordate il caso del chatbot Microsoft Tay? Un account che imparava dagli utenti e rispondeva su Twitter come se fosse una persona vera. In poco tempo, Tay ha iniziato a dire cose terribili: razziste, omofobe, contro gli ebrei e il movimento femminista. - Discriminazione etnica su Airbnb
Uno studio dei ricercatori Edelman, Luca and Svirsky ha dimostrato con una ricerca sul campo come l’algoritmo di Airbnb sia discriminatorio nei confronti dei neri americani. Se hai un nome afro-americano hai il 16% in meno di possibilità di essere accettato come ospite rispetto a chi si presenta con un nome white american con le stesse identiche caratteristiche. Non solo: gli host bianchi guadagnano dagli affitti il 12% in più degli host neri (ecco lo studio ) - Discriminazioni geografiche nel gaming
Secondo questo studio, Pokémon Go, videogioco “location-based” avvantaggerebbe la popolazione che, all’interno della realtà virtuale, vive nelle città, bianca, non latina. Un esempio? Permette loro di attrarre più turisti nei loro negozi. - Discriminare con l’advertising
Selezionare un pubblico per le advertising su Facebook implica una scelta che spesso può risentire di pregiudizi di genere, etnia, status sociale, istruzione.
Per esempio usando delle caratteristiche etniche per identificare una audience a cui destinare un’offerta di lavoro. E succede molto più spesso di quanto crediamo.
Studiare la scorrettezza degli algoritmi è complesso per diverse ragioni: prima di tutto per la molteplicità di motivi di unfairness. Poi, per la natura impenetrabile degli algoritmi stessi di cui pochi conoscono realmente il funzionamento.
Avere però la consapevolezza che parte del Machine Learning impara dai comportamenti umani è fondamentale per dare forma a un ecosistema di comunicazione più equo e giusto. hé per differenziarsi bisogna creare esperienze che valgano la pena essere vissute, condivise, ricordate e desiderate.
Ti aspettiamo via mail, tutte le settimane.