3 minuti

La scorsa settimana, a Manhattan, oltre 700 programmatori specializzati nell’ambito dell’intelligenza artificiale si sono radunati alla O’Reilly Conference, per cercare di trovare una soluzione ed una via per rendere i robot, gli assistenti vocali e le chat-bot (o chatterbot; dei software sviluppati per simulare una conversazione tra essere umano e macchina: lo scopo è quello di riuscire a far credere all’utente umano che stia parlando con una persona reale invece che con una macchina – sulla base del criterio/test di Turing) più sensibili ed in grado di percepire delle emozioni.

Ricordiamo che O’Reilly (Media) è una casa editrice statunitense, fondata nel 78, la quale si occupa della pubblicazione di libri e siti in ambito informatico, ed ha organizzato l’evento.

I telefoni di oggi, riporta un giornalista di C|net, hanno un’intelligenza emotiva come la colla, l’elettronica sta diventando sempre più importante nella nostra vita ed è arrivato il momento di insegnarle ad essere più consapevole delle nostre sensazioni ed emozioni.

La ricercatrice scientifica trentaquattrenne Rana el Kaliouby, fondatrice di Affectiva, dove si occupa dello sviluppo del riconoscimento facciale in ambito tecnologico, all’inaugurazione della conferenza in merito, ha ammesso che:

Le persone stanno costruendo questi rapporti molto intimi con questi ‘compagni’, ma in questo momento questi compagni non hanno empatia.

e per compagni si riferisce a tutti quegli strumenti utili del mondo dell’elettronica; dal semplice telefono al robot più complesso.

cqoajgbxeaedc1h


Insegnare ai robot le emozioni, continua lo scrittore di C|net, mostra la promessa e l’effetto del cambiamento nello sviluppo degli strumenti in ambito dell’intelligenza artificiale.

Attualmente, uno dei rami dell’intelligenza artificiale è utilizzato per le ricerche di Google, i riconoscimenti facciali di Facebook ed i loro miglioramenti ma, alcune tra le migliori aziende, stanno cercando di sviluppare altri software intelligenti, in grado di guidare le automobili; già esistono le linee metropolitane che viaggiano senza pilota, vedi la lilla (M5) di Milano, sarà sicuramente un passo in avanti riuscire a trovare una soluzione in grado di guidare le auto in maniera “automatizzata”.

Relativo a questo campo, alcune tra le più note e grandi imprese attuali (sebbene concorrenti fra loro), quali Microsoft, DeepMind/Google, Facebook, IBM ed Amazon, hanno deciso di collaborare e trovare un punto di incontro, creando un’organizzazione no-profit: Partnership on Artificial Intelligence (AI) to Benefit People and Society (Partnership on AI).
Lo scopo di questa organizzazione è quello di creare delle linee guida per lo sviluppo dell’intelligenza artificiale, affrontare opportunità e sfide, mediante e per queste tecnologie intelligenti, al fine di produrre un risultato valido a beneficio sia della società che del singolo individuo, senza far pressioni sulle politiche e gli organi governativi.
Il programma da un lato cercherà di migliorare ed avvantaggiare molti aspetti di vita, dalla sanità all’istruzione, dalla domotica al mondo del trasporto, come accennato prima ma, dall’altro (nel bene e nel male), rivelerà soluzioni che stravolgeranno svariati campi, come quello del lavoro.

La speranza delle aziende di Partnership on AI è quella di coinvolgere anche Apple, in un futuro vicino, nel collaborare con loro.

“There's definitely going to be a flowering of these intelligent applications.” Dice Ben Lorica, uno dei principali della casa editrice statunitense.

There’s definitely going to be a flowering of these intelligent applications.

– Ben Lorica, uno dei principali di O’Reilly Media

Note case, Apple, Microsoft e Google sono solo alcune, hanno già fatto “un passo in avanti” introducendo gli assistenti vocali come Siri, Cortana ed Ok Google; proprio questi assistenti vocali saranno un ottimo strumento di studio ai quali applicare questa fatidica “intelligenza emotiva”, rendendoli abili nel riconoscere le nostre esigenze, capendo i nostri stati d’animo quali rabbia, felicità o sarcasmo.
Rana El Kaliouby ha lanciato un esempio pratico, suggerendo che i nostri telefoni potrebbero essere in grado di valutare e misurare il nostro stato mentale in base alle nostre espressioni facciali, potrebbero essere capaci di stabilire di quali medicine o esercizi abbiamo bisogno oppure, comprendere il livello di gradimento di una canzone, di un film o di qualcosa da proporre ad un ipotetico pubblico, tramite la mimica di ciascun individuo.

Ma gli assistenti vocali sono solo una sfaccettatura di questa tecnologia perché Microsoft, ad esempio, ha ideato una chatbot di nome Xiaoice, disponibile in Cina e Giappone, capace di offrire “supporto emotivo” ed è utilizzata da più di 40 milioni di utenti.
Sempre in Giappone è stato introdotto da SoftBank, già nel 2014, un robot umanoide dagli occhi grandi di nome Pepper, sulla larga scala di Baymax l’assistente medico robotico in Big Hero 6 carico di emozioni, esperto nell’identificare gioia, tristezza, preoccupazioni e rabbia di chi si trova davanti.

Altri piccoli divertenti progetti esistenti arrivano dall’istituto di tecnologia del Massachusetts e dall’Università di Scienze e Tecnologie di Hong Kong; il primo ha ideato un robot, di nome Tega, in grado di aiutare gli studenti ad imparare cose nuove ed, il secondo, Moodbox è in grado di cambiare l’illuminazione di una stanza e tipo di canzone da riprodurre in base allo stato d’animo del richiedente.

Ma la strada è ancora lunga, dice concludendo il racconto lo scrittore di C|net, e lo studio di ciascuna categoria contenente tutte le svariate espressioni facciali è ancora lunga; inoltre, molte espressioni nostre, degli esseri umani, si esprimono attraverso delle inflessioni vocali, perciò bisognerebbe studiare entrambe assieme, anche perché noi siamo piuttosto complicati in ambito emotivo.

So those hurdles mean we still have a long way to go before your smart fridge can cry along with you while you watch “The Notebook” together. We’re still a long way from a weepy iPhone.

Ben Fox Rubin, C|net.

Ma c’è ancora una lunga strada da percorre prima che il nostro frigorifero riesca a piangere con noi mentre stiamo guardando “Le Pagine della Nostra Vita”. E siamo ancora lontani da un iPhone strappalacrime.

 

 

Previous post

Google Trips: ciò di cui hai sempre avuto bisogno per i tuoi viaggi

Next post

Il nuovo album di Bruno Mars: 24K Magic

Greta Cavedon

Greta Cavedon

Hola!
Sono Greta, autrice di Squerz! Tutto quel che vedrete qui dentro beh.. È frutto di taaanta passione, voglia di fare ed un pizzico di follia!