Fabio Fossa sui bias nella IA: conferenza il 13 gennaio

Il ricercatore Fabio Fossa terrà una lezione on line sui problemi etici che sorgono dell’impiego degli stereotipi (bias) nella robotica di interazione con gli umani.

Giovedì 13 gennaio 2022 dalle 17 alle 18,  nell’ambito del Corso organizzato da Scuola di Robotica e dedicato alla robotica inclusiva.

Qui il link per la registrazione e partecipazione gratuita: https://attendee.gotowebinar.com/register/531428473523208204

Per la preparazione alla lezione e per approfondimenti, si consiglia di leggere l’articolo di Fabio Fossa (di cui riportiamo di seguito un paragrafo) Robotica sociale, Persuasione, inganno ed etica del design, qui: https://www.scuoladirobotica.it/robotica-sociale-persuasione-inganno-ed-etica-del-design/

Sfruttare i bias in sede di design: qual è il problema?

Porre queste domande è particolarmente importante perché uno dei modi per rendere i robot più familiari e di facile utilizzo consiste nello sfruttare i cosiddetti bias, cioè gli stereotipi attraverso i quali semplifichiamo la realtà e ci orientiamo nel mondo sociale.

I bias sono associazioni mentali profondamente radicate nel modo in cui interpretiamo il mondo sociale. Ci aiutano a gestirne la complessità. Per loro tramite ci formiamo aspettative circa i ruoli, le competenze e le caratteristiche meno evidenti dei nostri simili. Sono associazioni che ci troviamo ad avere in testa, il che non dice nulla sulla loro effettiva consistenza. Capita che siano del tutto campate per aria. Funzionano un po’ come scorciatoie. Spesso le scorciatoie ci fanno arrivare prima e con più facilità dove vogliamo andare. Altre volte ci portano fuori strada e si finisce per fare o farsi male.

Tra i più diffusi ci sono i bias legati al genere sessuale. Per esempio, associamo capacità di cura e comprensione al sesso femminile, autorità e competenza al sesso maschile. Insieme alla dott.ssa Irene Sucameli dell’Università di Pisa ci siamo chiesti: cosa succede quando si usano questi bias per ottimizzare le relazioni uomo-macchina, per esempio nel caso di agenti conversazionali?

Non si tratta di una ipotesi. Sfruttare i bias che riguardano la nostra percezione del mondo per promuovere l’accettazione dei robot è una tecnica impiegata in robotica sociale, anche esplicitamente. In questo modo si vuole facilitare l’introduzione di robot nei vari contesti sociali, cioè far sì che l’utente umano non percepisca uno scarto troppo ampio tra l’interazione cui è abituato – quella con altri umani – e quella con il sistema artificiale.

Se si riesce a mantenere la continuità tra questi due mondi, l’utente sarà in grado di interagire con il robot più o meno nello stesso modo in cui si aspetta di interagire con le persone. Non sentirà troppo lo scarto, accetterà il sistema e lo userà come anticipato dai progettisti. Un esempio semplicistico ma efficace potrebbe essere questo: nel progettare un robot sociale per l’assistenza casalinga, dove cura e comprensione sono fondamentali, è consigliabile adottare forme, tono di voce e fattezze usualmente collegate al genere femminile. In questo modo le aspettative dell’utente, per quanto basate su pregiudizi, saranno soddisfatte e l’interazione sarà un successo.

Ora, se pensiamo che i robot sociali possano portare importanti benefici alla società, saremo motivati a ricorrere a questa strategia che ne facilita l’accettazione. Ma quali effetti rischiamo di causare?

Il sospetto che si stia giocando con il fuoco mi sembra lecito. Molti stereotipi si diffondono a livello sociale pur non avendo alcuna base razionale. Li troviamo già pronti e li riproduciamo non solo (e forse non tanto) per esplicita convinzione, ma anche in modo implicito, come un automatismo. Certo, alcuni di questi stereotipi possono essere innocui. Altri però possono veicolare credenze ingiuste, offensive e discriminatorie nei confronti di alcuni gruppi sociali. Pensiamo ad esempio al pregiudizio secondo cui competenza e autorevolezza sono caratteri maschili: un retaggio storico-culturale che continua a pesare sulla condizione delle donne nella nostra società. Non dovremmo almeno ammettere la possibilità che assecondare questi stereotipi attraverso il design dei robot sociali non finisca per consolidarli e istituzionalizzarli, quando sarebbe molto meglio disfarsene?

Fabio Fossa è assegnista di ricerca presso il Dipartimento di Ingegneria Meccanica del Politecnico di Milano, dove si occupa di filosofia degli agenti artificiali ed etica dei veicoli autonomi. La sua ricerca verte sui temi di etica applicata, filosofia della tecnologia, etica della robotica e dell’IA e sul pensiero di Hans Jonas. è Direttore della rivista InCircolo, Rivista di filosofia e culture e membro fondatore del gruppo di ricerca Zetesis.

Articoli correlati

OPS...
CI MANCANO ALCUNI TUOI DATI

Completa il tuo profilo prima di continuare