lunedì 15 luglio 2019

Sei curioso riguardo alla coscienza? Chiedi alle macchine auto-consapevoli

La coscienza è un problema notoriamente difficile, quindi Hod Lipson sta partendo dalle basi: con robot auto-consapevoli che possono aiutarci a capire come pensiamo.


Hod Lipson nel Creative Machines Lab della Columbia University. Sta tenendo in mano il robot Aracna, che viene utilizzato per testare nuove idee sulla locomozione.


"Voglio incontrare, nella mia vita, una specie aliena", ha detto Hod Lipson, un robotista che gestisce il Creative Machines Lab della Columbia University. "Voglio incontrare qualcosa che sia intelligente e non umano." Ma invece di aspettare che arrivino tali esseri, Lipson vuole costruirli da solo - sotto forma di macchine auto-consapevoli.

A tal fine, Lipson si confronta apertamente con un concetto sfuggente - la consapevolezza - che spesso si sente verboso tra i suoi colleghi. "Ci riferivamo alla coscienza con la C Maiuscola nei circoli della robotica e dell'intelligenza artificiale, perché non abbiamo il permesso di toccare quell'argomento", ha detto. "È troppo soffice, nessuno sa cosa significhi e siamo persone serie, quindi non lo faremo. Ma per quanto mi riguarda, è quasi una delle grandi domande senza risposta, alla pari dell'origine della vita e dell'origine dell'universo. Cos'è la sensibilità, la creatività? Quali sono le emozioni? Vogliamo capire cosa significa essere umani, ma vogliamo anche capire cosa ci vuole per creare queste cose artificialmente. È tempo di affrontare queste domande a testa alta e di non essere timido in proposito."

Uno degli elementi costitutivi fondamentali della senzienza o autocoscienza, secondo Lipson, è "auto-simulazione": costruire una rappresentazione interna del proprio corpo e come si muove nello spazio fisico, e quindi usare quel modello per guidare il comportamento. Lipson ha studiato auto-simulazione artificiale già nel 2006, con un robot a forma di stella di mare che utilizzava algoritmi evolutivi (e alcuni "suggerimenti sulla fisica" pre-caricati) per insegnare a sé come flop avanti su un tavolo. Ma l'ascesa della moderna tecnologia di intelligenza artificiale nel 2012 (comprese le reti neuronali convoluzionali e l'apprendimento profondo) "ha portato nuovo vento in questa intera area di ricerca", ha affermato.

All'inizio del 2019, il laboratorio di Lipson ha rivelato un braccio robotico che utilizza l'apprendimento profondo per generare il proprio auto-modello interno completamente da zero - in un processo che Lipson descrive come "non dissimile da un bambino che balbetta osserva le sue mani". esegue con precisione due compiti diversi: raccogliere e posizionare piccole palline in una tazza e scrivere lettere con un pennarello, senza richiedere un addestramento specifico per nessuno dei due. Inoltre, quando i ricercatori hanno simulato il danno al corpo del robot aggiungendo un componente deformato, il robot ha rilevato il cambiamento, ha aggiornato il suo modello di sé di conseguenza ed è stato in grado di riprendere i suoi compiti.

È ben diverso dai robot che pensano a pensieri profondi. Ma Lipson afferma che la differenza è solo di laurea. "Quando parli di autocoscienza, le persone pensano che il robot si svegli improvvisamente e dica: 'Ciao, perché sono qui?'", Ha detto Lipson. "Ma la consapevolezza di sé non è una cosa in bianco e nero. Parte da cose molto banali come "Dove si muoverà la mia mano?" È la stessa domanda, solo su un orizzonte temporale più breve."

Quanta ha parlato con Lipson su come definire la consapevolezza di sé nei robot, perché è importante e dove potrebbe condurre. L'intervista è stata sintetizzata e modificata per chiarezza.

Sei chiaramente interessato a grandi domande sulla natura della coscienza - ma perché le stai investigando attraverso la robotica? Perché non sei un filosofo o un neuroscienziato?

Per me la cosa bella della robotica è che ti costringe a tradurre la tua comprensione in un algoritmo e in un meccanismo. Non puoi battere in giro, non puoi usare parole vuote, non puoi dire cose come "tela della realtà" che significano cose diverse per persone diverse, perché sono troppo vaghe per tradurle in una macchina. La robotica ti costringe a essere concreto.

Lipson nel suo ufficio alla Columbia.
Voglio costruire una di queste cose. Non voglio parlarne. I filosofi, con tutto il dovuto rispetto, non hanno fatto molti progressi su questo per mille anni. Non per mancanza di interesse, non per mancanza di persone intelligenti - è semplicemente troppo difficile affrontarlo dall'alto verso il basso. I neuroscienziati si sono avvicinati a questo in un modo più quantitativo. Tuttavia, penso che siano anche ostacolati dal fatto che stanno adottando un approccio dall'alto verso il basso.

Se vuoi comprendere la coscienza, perché iniziare con l'essere cosciente più complesso - cioè, un essere umano? 

È come iniziare in salita, il modo più difficile per iniziare. Proviamo a guardare a sistemi più semplici che sono potenzialmente più facili da capire. Questo è quello che stiamo cercando di fare: abbiamo guardato qualcosa di molto banale, [un robot] che ha quattro gradi di libertà e ha chiesto, "Possiamo rendere questa cosa auto-simulante?"
 
L'auto-simulazione e l'auto-consapevolezza sono la stessa cosa?

Un sistema che può simulare se stesso è in una certa misura auto-consapevole. E il grado in cui può simulare se stesso - la fedeltà di quella simulazione, l'orizzonte temporale a breve o lungo termine che può simulare se stesso all'interno - tutti questi fattori di cose differenti in quanto è autocosciente. Questa è l'ipotesi di base.

Quindi stai riducendo un termine come "autocoscienza" a una definizione più tecnica di auto-simulazione, ovvero la capacità di costruire un modello virtuale del tuo corpo nello spazio.

Sì, abbiamo una definizione diversa che usiamo che è molto concreta. È matematico, puoi misurarlo, puoi quantificarlo, puoi calcolare l'errore fino a che punto. I filosofi potrebbero dire: "Beh, non è così che vediamo la consapevolezza di sé". Quindi la discussione di solito diventa molto vaga. Puoi sostenere che la nostra definizione non è in realtà consapevolezza di sé. Ma abbiamo qualcosa che è molto fondato e facile da quantificare, perché abbiamo un punto di riferimento. Il punto di riferimento è il tradizionale auto-modello codificato a mano che un ingegnere fornisce a un robot. Con il nostro robot, volevamo vedere se un algoritmo di intelligenza artificiale può apprendere un modello di sé che è uguale o migliore di quello che può fare quel modello tradizionale, codificato per mano.

I singoli robot delle particelle (a sinistra) possono solo espandersi e contrarsi, ma possono lavorare insieme come gruppo per muoversi e svolgere compiti. I robot progettati per esplorare l'autoreplicazione (a destra) possono trasformarsi in un numero di forme.


Perché è necessario un robot fisico? Perché non indagare l'auto-consapevolezza in un sistema disincarnato?

Stiamo cercando un sistema chiuso che possa potenzialmente simulare se stesso - e per farlo, deve disporre di input e output, ma deve anche esserci un limite, un luogo in cui si disegna il "sé". Un robot è un tipo di cosa molto naturale che lo fa. Ha azioni, ha sensazioni e ha un confine, quindi le cose accadono e c'è qualcosa da simulare. Sono un robotista, è la mia prima scelta.
Il robot ha creato il suo automodellismo da una lavagna vuota totale?

Abbiamo iniziato senza assolutamente nulla, solo in linea di principio, per vedere fino a dove possiamo arrivare. Nel caso precedente [con il robot a forma di stella di mare], non avevamo la potenza computazionale. Dovevamo dirgli: "Non sai cosa sei e dove sono i tuoi pezzi, ma lascia che ti parli di F = ma e di altre regole della fisica che sappiamo essere vere, e prendi da lì".

In che modo l'intelligenza artificiale gioca in questo?

Per qualche ragione, siamo molto contenti di sapere che i robot imparano a conoscere il mondo esterno [usando l'intelligenza artificiale], ma quando si tratta di se stessi, per qualche strana ragione, insistiamo sulla codifica manuale del modello. Quindi quello che abbiamo fatto è in realtà abbastanza banale: abbiamo detto: "Prendiamo tutta l'infrastruttura che le persone hanno fatto per aiutare i robot a conoscere il mondo, e lo trasformeremo dentro, su se stesso"

In una frase è tutto, Noi facemmo.



Video: Il robotista Hod Lipson, direttore del Creative Machines Lab della Columbia University, usa i robot per esplorare antiche domande su come la gente pensa.


Il robot ha fatto 1.000 movimenti casuali per raccogliere dati per l'algoritmo di deep-learning per creare l'auto-simulazione. È questo il processo che descrivi come essere un balbettare in un bambino umano?

Questo è esattamente. Il robot si muove attorno e osserva una sorta di punta. Immagina di muovere i tuoi muscoli e guardare la punta delle dita. Questo è il tuo input e output. Il robot è là fuori che chiacchiera per 30 ore e una volta che raccogliamo tutti i dati, possiamo andare a casa. Da lì in poi, è puramente una sfida computazionale [per imparare l'auto-modello].

Quello che abbiamo fatto è che abbiamo rotto il robot [aggiungendo una parte deformata] e l'abbiamo fatto di nuovo. E abbiamo visto come il robot rotto può iniziare con il modello intatto e correggerlo. La seconda volta impara, non deve imparare da zero. C'è un periodo di re-balbettante, ma molto meno di quanto inizialmente necessario: solo il 10% [del periodo originale].

Ma prima ancora di fare il re-babbling, ha bisogno di sapere che qualcosa è andato storto. Questa è una cosa molto potente. Come lo sa? Quando hai un auto-modello e qualcosa va storto, lo sai immediatamente perché se apri gli occhi, vedrai che la tua mano non è dove dovrebbe essere. Ci si aspetta che si trovi entro quattro centimetri dal punto che si desidera che sia, ma è improvvisamente a 16 centimetri di distanza. Riceverai immediatamente quel feedback. Quindi il robot sa immediatamente che c'è qualcosa di sbagliato. Poi ci vuole un po 'per capire come compensare, ma anche sapere che qualcosa è sbagliato è, penso, molto importante.

Questi dipinti sono stati creati da un robot di fabbrica dismesso che è stato addestrato a dipingere usando l'intelligenza artificiale.


Questo modello di sé è analogo alle parti del cervello umano che si comportano come una mappa interna del corpo?

Penso che sia quello che è. E ancora, ecco perché è così grezzo e così semplice. Il fatto che il nostro robot fosse un braccio a quattro gradi di libertà è ciò che lo ha messo alla portata di tutti. Se fosse un umanoide che ha 800 gradi di libertà, quello potrebbe essere stato troppo complicato per l'intelligenza artificiale che abbiamo oggi.

Se questa è davvero una forma di autocoscienza, perché i robot dovrebbero averlo? A cosa serve?

Rende i robot in definitiva molto più resistenti. Puoi modellare i robot manualmente, come facciamo oggi, ma è molto laborioso e ci sta rallentando. Quando un robot nel mondo reale si deforma, o si rompe, se una ruota cade o un motore rallenta, improvvisamente il modello non è corretto. E non sarà solo un robot di fabbrica che mette le viti nel posto sbagliato. Se consideri le auto senza conducente, possiamo affidare le nostre vite a robot autonomi. Questa è roba seria. Volete che questi robot siano in grado di rilevare che qualcosa è andato storto e di essere in grado di farlo in modo affidabile.

L'altro motivo è la flessibilità. Supponiamo che il robot svolga un compito e, mentre svolge questo compito, aggiorna continuamente il proprio modello. Ora se ha bisogno di fare un nuovo compito - dice che deve mettere una vite in un posto diverso, o ha bisogno di spruzzare invece di mettere le viti - può usare lo stesso auto-modello per imparare e pianificare come farlo compito. Dall'esterno, sembra quello che chiamiamo "apprendimento a zero-colpi", che è una di quelle cose che gli umani sembrano fare. Puoi fissare un albero che non hai mai scalato prima e poi puoi salire e arrampicarlo. Quando il robot può auto-modellarsi, può imparare internamente in questo modo: non si vede che si è allenato per ore all'interno della propria simulazione interna. Tutto quello che puoi vedere è che ha svolto un compito, poi è rimasto lì per un po 'e all'improvviso può eseguire un nuovo compito senza mai provarci.

Qual è la connessione tra un robot che può auto-simulare il proprio corpo e un robot che può avere "pensieri" interni - qualcosa che suona più come il significato informale di "autocoscienza"?

Abbiamo altri progetti su cui stiamo lavorando che hanno a che fare con l'automodellismo, non con il corpo fisico, ma con il processo cognitivo. Stiamo facendo piccoli passi in entrambe le direzioni. È completamente un atto di fede credere che alla fine ciò porterà alla cognizione a livello umano e oltre.

Quindi stai ipotizzando che quei due percorsi - auto-simulando il corpo e auto-simulando la mente stessa - convergeranno?

Esattamente. Penso che sia la stessa cosa Questa è la nostra ipotesi e vedremo fino a che punto possiamo spingerla.



Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.