Cerca
Close this search box.

Robot e chatGPT? L’abbiamo chiesto ai robotici

Abbiamo chiesto ai professori Antonio Sgorbissa e Carmine Recchiuto del DIBRIS dell’Università di Genova quali possano essere le applicazioni – e l’utilità – dell’Intelligenza Artificiale Generativa, chatGPT per esempio, nella robotica.

D. Pensate sia un vantaggio integrare ChatGPT in un robot sociale?

Antonio Sgorbissa: L’integrazione di ChatGPT in un robot sociale può sicuramente offrire vantaggi significativi. I Large Language Models, come quelli basati su GPT di OpenAI, consentono al robot di interagire in modo più naturale e coinvolgente con gli utenti, grazie alla loro notevole capacità di comprensione e generazione del linguaggio naturale.

Tuttavia, è importante sottolineare che non possiamo lasciare completamente il controllo di ciò che il robot dice a un modello generativo del linguaggio. Chi sviluppa robot sociali dotati di autonomia continuerà ad essere responsabile di scrivere programmi “intelligenti” che stabiliscano “cosa” dire, i modelli generativi possono aiutare nel “come” dirlo in maniera naturale.

 

D. Potrebbe ottimizzare l’interazione umano-robot?

Carmine Recchiuto: Senza dubbio. Uno dei limiti più significativi dei robot sociali è, allo stato attuale, la loro capacità di comprendere e rispondere nella maniera corretta, facendo progredire il dialogo in modo interessante e coinvolgente per l’utente.

In questo senso i Large Language Model, se usati con consapevolezza, possono diventare uno strumento estremamente potente nelle mani degli sviluppatori di robot. Tuttavia, non è sufficiente connettere un robot a ChatGPT per utilizzare questi strumenti in un modo intelligente, così come non è sufficiente “abusare” delle le animazioni di PowerPoint per fare una bella presentazione. Sono sicuro che i lettori capiranno cosa intendo.

ChatGPT è uno strumento, e come tutti gli strumenti ha bisogno di qualcuno che sappia usarlo.

 

D. Quale miglioramento con ChatGPT rispetto allo speech recognition di cui sono dotati alcuni robot sociali?

Carmine Recchiuto: I sistemi di speech recognition hanno scopi diversi rispetto ai sistemi di Natural Language Processing o quelli pensati per la generazione di testi, come i Large Language Model basati su GPT. Dal punto di vista di un robot si tratta di fasi diverse e complementari: la prima fase è finalizzata a tradurre le parole pronunciate dalla persona in testo, la seconda e la terza sono finalizzate a comprendere e produrre testo. Andrebbe infine citata una quarta fase, che si occupa di sintetizzare audio nella maniera opportuna. E’ un problema assolutamente non trascurabile, se consideriamo quanta informazione è contenuta non solo nelle nostre parole, ma nel tono, nel volume, e nel ritmo della voce.

Quello che è possibile confrontare con GPT sono invece i sistemi più antichi per il riconoscimento e la produzione di testo basati su regole, spesso parte integrante del software di corredo ad alcune piattaforme robotiche commerciali, come NAO e Pepper. Un sistema basato su regole è molto più limitato nella comprensione e nella produzione di testo, perché essenzialmente si basa su un lungo elenco di casistiche: “se capisco X rispondo Y”, “se capisco A rispondo B”. I sistemi come GPT, invece, sono addestrati con un numero vastissimo di frasi, e scelgono come rispondere in base a ragionamenti di tipo probabilistico. Semplificando, scelgono le parole che sono più frequentemente associate ad altre parole in base al database di frasi già in loro possesso. Un po’ conformista, forse.

Il risultato, dal punto di vista della naturalezza del dialogo, è decisamente in favore di GPT. Ma chi ha il controllo? Chi può sapere cosa il sistema dirà, se non ci basiamo su regole ben chiare e definite a priori? Vogliamo davvero lasciare che un robot risponda usando le stesse parole che le persone userebbero in un contesto simile? I sistemi come ChatGPT hanno soluzioni per evitare un linguaggio discriminatorio e volgare. Di conseguenza, in certi casi, la risposta è senz’altro positiva: lasciamo che sia ChatGPT a decidere cosa è più opportuno dire. In altri casi, invece, vogliamo che il robot dica esattamente quello che noi crediamo sia giusto. In tutti questi casi, i sistemi “classici” basati su regole avranno ancora un ruolo da giocare.

 

D. Si ha notizia di un robot progettato da ChatGPT. ChatGPT potrebbe anche migliorare le funzioni di un robot, non solo la sua HMI?

Antonio Sgorbissa: La questione è davvero interessante. Qualcuno dice che i modelli generativi del linguaggio non sono “vera intelligenza”, perché si limitano a fare scelte puramente probabilistiche su quali parole accostare per comporre frasi complesse. Ma il risultato è comunque sorprendente. Si parla di un robot progettato da ChatGPT, ma provate a chiedere a ChatGPT come dire a una persona che ha una malattia grave o qual è il modo migliore di rompere con una fidanzata o un fidanzato, e vedrete quale capacità di ragionamento e quale sensibilità è in grado di esibire. Recentemente, ho partecipato in un evento organizzato dai Braccialettii Bianchi, una associazione di volontariato che offre sostegno empatico e spirituale a persone malate o alla fine della vita. In tale contesto, ho presentato una performance teatrale in cui due attori usano ChatGPT come mediatore tra posizioni opposte in merito all’uso dei vaccini. ChatGPT ha mostrato una capacità di mediare contraddistinta da una saggezza che pochi umani saprebbero esibire!

Pur non essendo un esperto di linguaggio né di neuroscienze, una domanda mi sorge spontanea. E’ possibile fare la congettura che anche l’intelligenza cosiddetta umana, o almeno quella parte di essa che ha a che fare con il linguaggio, non sia altro che guidata da regole di tipo probabilistico che ci dicono quali parole accostare in base all’esperienza durante la nostra vita? Per dirle in maniera scherzosa, è possibile sostenere che anche l’intelligenza umana non sia “vera intelligenza”?

Ovviamente, non esiste una definizione di “vera intelligenza” che non si riferisca all’intelligenza di tipo umano, ma la questione qui è più sottile: se la “materia” di cui sono fatte l’intelligenza artificiale e quella umana sia davvero diversa o, in fondo, non si tratti di qualcosa di molto simile. Se così fosse, non lo accetteremo senza sofferenza, di questo ne sono sicuro.

Articoli correlati

news
Fiorella Operto

Prof. Simon Burton: “Sicurezza nell’incertezza: Standard automobilistici per la sicurezza dell’IA e prospettive di ricerca“.   Siamo lieti di pubblicare il link al Canale youtube del

Leggi Tutto »

OPS...
CI MANCANO ALCUNI TUOI DATI

Completa il tuo profilo prima di continuare