L'inizio di Internet. Uno schizzo della rete ARPA del 1969. |
LA RETE DEI NOSTRI TEMPI
Una prospettiva DARPA sullo sviluppo di Internet
Di Henry Kenyon
La storia di Internet è indissolubilmente connessa con DARPA e lo sviluppo di nuove tecnologie di rete e di condivisione delle informazioni. Dalle sue umili origini come una raccolta di strutture di ricerca connesse all'attuale rete globale (ed extra-globale) di miliardi di dispositivi, un tema centrale dell'evoluzione di Internet è stato e continua ad essere la ricerca all'avanguardia condotta sotto gli auspici di DARPA. Quando il pioniere di Internet J.C.R. Licklider descrisse, con intenzionale grandiloquenza, la sua visione di una "Rete di computer intergalattica" nel 1963, ancora non avrebbe potuto immaginare quanto la rete i cui semi da lui piantati sarebbero cresciuti nel regno terrestre.
In questo ambito e ubiquità, Internet ha trasformato la vita su vasta scala della civiltà. Smartphone e altri dispositivi mobili collegano i banchieri di Manhattan e i coltivatori di riso in India a un vasto mare di informazioni. L'uso di strumenti predittivi che estraggono queste informazioni ha permesso alle agenzie di assistenza all'infanzia di segnalare casi ad alto rischio, ha permesso agli operatori sanitari di determinare quali pazienti sono a rischio per varie condizioni e malattie e ha aiutato gli istituti finanziari a identificare frodi e furti di identità, tra gli altri vantaggi.
Ma ci sono sfide in questo nuovo ambiente di dati planetari: le stesse reti di computer e database e sistemi e infrastrutture che offrono alla società benefici inimmaginabili hanno portato con sé nuove vulnerabilità per violazioni della privacy, del crimine informatico e della guerra informatica.
Per avere un'idea di come il presente in rete sia diventato com'è adesso e immaginare il futuro potenziale di una rete guidata dall'intelligenza artificiale, dalla realtà virtuale/aumentata e dall'Internet of Things (IoT), una visita al passato è un dovere.
Ma ci sono sfide in questo nuovo ambiente di dati planetari: le stesse reti di computer e database e sistemi e infrastrutture che offrono alla società benefici inimmaginabili hanno portato con sé nuove vulnerabilità per violazioni della privacy, del crimine informatico e della guerra informatica.
Per avere un'idea di come il presente in rete sia diventato com'è adesso e immaginare il futuro potenziale di una rete guidata dall'intelligenza artificiale, dalla realtà virtuale/aumentata e dall'Internet of Things (IoT), una visita al passato è un dovere.
Interface Message Processor (IMP) è stato il primo router di pacchetti per ARPANET. La prima trasmissione ARPANET fu tra UCLA e Stanford Research Institute (SRI) il 29 ottobre 1969. |
All'inizio
Le radici della moderna Internet risiedono nel rivoluzionario lavoro che DARPA iniziò negli anni '60 (quando l'Agenzia era conosciuta come Advanced Research Projects Agency, o ARPA) per creare quello che divenne l'ARPANET. Nella sua prima forma, ARPANET iniziò con quattro nodi computerizzati e il primo segnale da computer a computer su questa rete nascente fu inviato tra l'UCLA e lo Stanford Research Institute il 29 ottobre 1969. "Per capire come ha iniziato ARPANET, è importante rendersi conto che in un momento in cui c'erano pochissimi computer al mondo, alcuni visionari iniziarono a vedere l'idea che alla fine [i computer] avrebbero voluto parlare tra loro ”, ha affermato James Hendler, direttore del Rensselaer Institute for Data Exploration and Applications, e che è stato capo scienziato dell'ex ufficio dei sistemi informativi della DARPA.
Comunicazioni sicure e condivisione delle informazioni tra strutture di ricerca dislocate geograficamente erano uno degli obiettivi originali di ARPANET. Man mano che più computer venivano coinvolti in questa prima rete di computer, tuttavia, sorsero problemi di ingegneria. Un problema chiave era il mantenimento delle comunicazioni, perché se ARPANET si comportava come un sistema telefonico tradizionale basato su circuiti, il fallimento di un singolo nodo poteva far crollare l'intera rete.
Ciò che era necessario era un mezzo per portare i messaggi a destinazione in un modo che non richiedesse la presenza di un singolo nodo. Qui è nato il concetto di commutazione di pacchetti. Spostando bit di dati che si facevano strada dinamicamente attraverso una rete verso la destinazione e si riassemblavano lì, si poteva evitare il problema della perdita di dati se uno o più nodi cadessero.
Era anche necessario un protocollo di comunicazione comune tra i computer, poiché i computer coinvolti "erano tutt'altro che compatibili", ha osservato Vint Cerf, Vice Presidente e Capo Internet Evangelist (questo titolo si trova sul suo biglietto da visita) per Google. Costruire un protocollo e il software che consentisse a diversi computer di comunicare e "internetwork" tra loro era una sfida significativa.
ARPANET nel 1977. |
ARPANET fu fondata negli ultimi mesi degli anni '60, ma la prima grande dimostrazione delle sue capacità di rete ebbe luogo a Washington D.C., nel 1972. A quel tempo, il Dipartimento della Difesa (DOD) si interessò all'utilizzo dei computer per il comando e il controllo. A differenza di ARPANET, che utilizzava linee telefoniche dedicate per collegare strutture informatiche, i militari volevano una rete mobile per collegare carri armati, aerei, navi e altre risorse, che richiedeva l'uso di sistemi radio e satellitari.
Nel 1973, i ricercatori supportati da DARPA avevano messo a punto quattro diverse tecnologie di commutazione di pacchetto (come la radio a pacchetto e il satellite a pacchetto), che hanno portato alla prossima sfida: come sviluppare standard che consentano a queste tecnologie di comunicazione di comunicare tra loro.
Cerf, che all'epoca era all'Università di Stanford e stava lavorando a un contratto per la DARPA, ha spiegato in una recente intervista che ci sono voluti circa sei mesi di lavoro per sviluppare la giusta architettura e creare un protocollo approssimativo. Lui e Robert Kahn, allora direttore dell'Ufficio per le tecniche di elaborazione delle informazioni della DARPA e che nel 1976 assunsero Cerf come responsabile del programma, iniziarono a lavorare su quello che sarebbe diventato il protocollo di controllo della trasmissione (TCP) e il protocollo Internet (IP).
Il lavoro sullo sviluppo di una specifica TCP dettagliata iniziò all'inizio del 1974 e il team di ricerca di Cerf a Stanford finalizzò una pubblicazione dello standard nel dicembre dello stesso anno.
L'implementazione iniziale del primo protocollo TCP / IP avvenne a Stanford nel 1975. Come testato nei prossimi anni, il famigerato protocollo veniva implementato su un numero crescente di sistemi operativi per computer in tutto il mondo. Nel gennaio 1983, un numero sufficiente di reti individuali era entrato in rete l'uno con l'altro, tanto che l'ARPANET si era evoluto in Internet, sebbene lo stesso ARPANET originale non fosse stato ufficialmente ritirato fino al 1990.
Sfide, spin-off e l'alba di Internet
Man mano che tecnologie come TCP/IP hanno migliorato le reti, scienziati e ingegneri hanno iniziato a prestare attenzione ad altri sistemi di supporto, come mostrano tali grafici. I miglioramenti nelle tecnologie di monitoraggio hanno anche spianato la strada a strumenti basati sulla grafica, come l'ipertesto.
Gran parte di questo ha contribuito a creare, e quindi cambiare in modo significativo, quella che è diventata la prima Internet. Il lavoro di Tim Berners-Lee sul World Wide Web alla fine degli anni '80 ha aperto la strada all'esplosione di Internet nel settore pubblico e privato negli anni '90. Le prime tecnologie di browser, come Mosaic, hanno contribuito a rendere il Web nascente più accessibile e ne hanno notevolmente ampliato l'utilità e la popolarità al pubblico.
Quando ARPANET ha iniziato la sua evoluzione in Internet, alcuni dei finanziamenti per la ricerca sono andati allo sviluppo tecnologico per rendere il calcolo accessibile alle istituzioni non governative. Tra queste tecnologie c'erano microprocessori incorporati e quelli che sarebbero diventati noti come router quando sarebbe diventato necessario spostare grandi volumi di pacchetti di dati all'interno della rete in crescita.
Per ottenere un uso diffuso della rete, DARPA ha supportato il lavoro che ha aperto la strada a macchine per scopi generici per fare il lavoro su Internet piuttosto che affidarsi a macchine specializzate. Questi dispositivi multiuso sono diventati elementi chiave delle prime server farm quando Internet è emerso e poi ha iniziato a espandersi rapidamente. Sono state queste tecnologie e standard di base che hanno contribuito a gettare le basi per le prime grandi società basate su Internet, come AOL e Netscape.
All'inizio degli anni '80 erano in atto le ossa di quello che sarebbe diventato Internet. Questa nuova e crescente rete, con il continuo supporto di DARPA e DOD, è diventata disponibile per la comunità accademica, che ha portato al lancio di altre reti governative. Nel 1983, la prima parte di quella che sarebbe diventata la spina dorsale informatica della National Science Foundation (NSF), NSFNET, fu stabilita usando una rete in fibra ottica.
NSFNET è cresciuta rapidamente, collegando migliaia e poi milioni di computer universitari negli Stati Uniti all'inizio degli anni '90. Il successo della rete ha convinto il Dipartimento dell'Energia (DOE) e la NASA a creare le proprie reti utilizzando gli stessi protocolli, che hanno portato alla nascita della rete di scienze energetiche del DOE e della NASA Science Internet. Queste nuove reti si unirono a quelle di NSF per diventare le quattro principali reti di Internet negli Stati Uniti.
Il servizio di internet commerciale non esisteva fino al 1989. Cerf notò che i prodotti hardware e software disponibili in commercio disponibili da aziende come Proteon, e in seguito Juniper e IBM, erano disponibili per l'uso dial-up. "Potresti comprare quei [prodotti]. Non è stato possibile acquistare il servizio [internet], perché era disponibile solo per le persone sponsorizzate dalle agenzie di ricerca del governo degli Stati Uniti ", ha detto Cerf.
Nel 1988, Cerf, che allora era vicepresidente della Corporation for National Research Initiatives, ricevette dal Federal Networking Council il permesso di collegare il servizio di posta MCI, che dal 1983 fornisce servizi di posta elettronica commerciale via modem via modem via Internet . In qualità di presidente di Digital Information Services di MCI dal 1982 al 1986, Cerf ha guidato lo sviluppo di MCI Mail. Ciò ha contribuito a rompere la restrizione che proibiva al traffico commerciale di attraversare la spina dorsale del governo, ha spiegato.
Questo nuovo servizio di posta elettronica commerciale, piuttosto che governativo, è stato lanciato nel 1989. Ha aperto le porte ai giocatori commerciali e ai principali fornitori di posta elettronica dell'epoca, come AOL, CompuServe e Telemail di Telenet, che fornivano messaggi tramite modem telefonici , presto seguì l'esempio. Questa rapida espansione dei servizi Internet commerciali ha spinto NSF a chiudere la sua dorsale dedicata nel 1995.
Alimentare il Web in crescita
Gli anni '90 hanno visto lo sviluppo della tecnologia di ricerca Web, guidata dalla necessità degli utenti di modi più efficienti per trovare informazioni con l'espansione esponenziale del World Wide Web. Il lavoro nella tecnologia di ricerca web deriva in gran parte da lavori precedenti nel recupero di informazioni dal testo, come il programma TIPSTER del 1991 di DARPA. Questi programmi precedenti hanno contribuito a gettare le basi per una linea di investimenti DARPA volta a migliorare l'estrazione e la ricerca di informazioni che continua ancora oggi.
Alla fine degli anni '90, la necessità di una migliore elaborazione automatica delle informazioni sul Web in crescita, nonché di capacità di ricerca più precise, stava diventando fondamentale per la capacità degli utenti di trovare ciò che stavano cercando. Nel contesto della sicurezza nazionale, le sfide per l'accesso, la gestione e la condivisione dei dati residenti nelle reti DOD classificate stavano diventando sempre più importanti da risolvere. "Molte tecnologie di gestione delle informazioni sono state sviluppate da DARPA", ha detto Hendler, ma "la domanda era: come potremmo applicarle a questo spazio in crescita esponenziale?"
Gran parte del lavoro di DARPA prima della fine degli anni '90 ha bilanciato le esigenze delle diverse comunità di utenti del governo con la sfida di controllare quando e dove condividere - o non condividere - informazioni tra individui, agenzie o comandanti del campo di battaglia. Tuttavia, con l'aumentare delle esigenze di informazione dei combattenti di guerra, soprattutto per operazioni complesse, DARPA ha anche iniziato a lavorare con il DOD per sviluppare tecnologie migliori per migliorare la condivisione di informazioni tra i diversi servizi militari e in particolare per le operazioni di coalizione in cui gli Stati Uniti dovevano lavorare con forze di altri paesi o delle Nazioni Unite. Una sfida particolare era che anche all'interno dell'esercito, per non parlare della rete aperta, le persone avevano bisogno di mezzi per trovare documenti o dati che potrebbero essere rilevanti per loro, anche quando i termini usati erano diversi.
Gli anni '90 hanno visto lo sviluppo della tecnologia di ricerca Web, guidata dalla necessità degli utenti di modi più efficienti per trovare informazioni con l'espansione esponenziale del World Wide Web. Il lavoro nella tecnologia di ricerca web deriva in gran parte da lavori precedenti nel recupero di informazioni dal testo, come il programma TIPSTER del 1991 di DARPA. Questi programmi precedenti hanno contribuito a gettare le basi per una linea di investimenti DARPA volta a migliorare l'estrazione e la ricerca di informazioni che continua ancora oggi.
Alla fine degli anni '90, la necessità di una migliore elaborazione automatica delle informazioni sul Web in crescita, nonché di capacità di ricerca più precise, stava diventando fondamentale per la capacità degli utenti di trovare ciò che stavano cercando. Nel contesto della sicurezza nazionale, le sfide per l'accesso, la gestione e la condivisione dei dati residenti nelle reti DOD classificate stavano diventando sempre più importanti da risolvere. "Molte tecnologie di gestione delle informazioni sono state sviluppate da DARPA", ha detto Hendler, ma "la domanda era: come potremmo applicarle a questo spazio in crescita esponenziale?"
Gran parte del lavoro di DARPA prima della fine degli anni '90 ha bilanciato le esigenze delle diverse comunità di utenti del governo con la sfida di controllare quando e dove condividere - o non condividere - informazioni tra individui, agenzie o comandanti del campo di battaglia. Tuttavia, con l'aumentare delle esigenze di informazione dei combattenti di guerra, soprattutto per operazioni complesse, DARPA ha anche iniziato a lavorare con il DOD per sviluppare tecnologie migliori per migliorare la condivisione di informazioni tra i diversi servizi militari e in particolare per le operazioni di coalizione in cui gli Stati Uniti dovevano lavorare con forze di altri paesi o delle Nazioni Unite. Una sfida particolare era che anche all'interno dell'esercito, per non parlare della rete aperta, le persone avevano bisogno di mezzi per trovare documenti o dati che potrebbero essere rilevanti per loro, anche quando i termini usati erano diversi.
"Un buon esempio", ha detto Hendler, "era che ciò che un guerriero degli Stati Uniti avrebbe definito un" MIG-25 "potrebbe essere chiamato un" Foxbat "in un rapporto presentato dalle truppe delle Nazioni Unite." Gli utenti avevano bisogno di un mezzo con cui la ricerca e il recupero non si limitavano alle parole di un documento, ma potevano anche includere la conoscenza di come le entità fossero correlate tra loro. "Avevamo bisogno di un modo in cui gli utenti potessero cercare" aerei da combattimento russi "e trovare MiG, Foxbats e tutte le altre cose che avrebbero potuto essere chiamati", ha affermato Hendler.
Per risolvere questo problema, DARPA ha investito nel programma DARPA Agent Markup Language (DAML), avviato da Hendler nel 1999. Un ricercatore chiave del progetto era il professor MIT Tim Berners-Lee, che aveva creato il World Wide Web durante il suo periodo presso CERN alla fine degli anni '80 e coniato il termine "Web semantico" a metà degli anni '90. Era chiaro che affinché queste tecnologie fossero ampiamente utilizzate dai militari, avrebbero dovuto essere supportate da società Web commerciali, che potevano fornire la scala necessaria per essere utilizzate su molti milioni di pagine sul Web in crescita. Le prime lingue del Semantic Web, promosse da Berners-Lee, Hendler e altri, alla fine si diffusero in tutto il World Wide Web per diventare standard commerciali. Ad esempio, uno degli usi più noti del Web semantico è stato nella creazione delle tecnologie del "grafico della conoscenza" utilizzate oggi dalle grandi società di ricerca su Internet e social network. Le tecnologie Web semantiche sono anche ampiamente utilizzate nella comunità delle cure sanitarie e delle scienze della vita. Molti dei primi concetti esplorati dalla DARPA a metà degli anni '90 hanno anche giocato allo sviluppo di tecnologie di comando, controllo e comunicazione che hanno cambiato il funzionamento del DOD. Le applicazioni commerciali di queste tecnologie sono state introdotte nei prodotti negli anni 2000. Un esempio è stato il progetto Personal Assistant that Learn (PAL) di DARPA, che ha aperto la strada allo sviluppo di famose applicazioni commerciali di risposta vocale come Siri e Alexa. "Inizi a vedere molta crescita quando queste cose si sono diffuse nel mondo commerciale", ha osservato Hendler, "ma se rintracci gran parte di quel lavoro alle sue radici, troverai le impronte digitali di DARPA".
Un'altra crescita del finanziamento di DARPA all'inizio del nuovo secolo è stata l'applicazione delle tecnologie di machine learning e intelligenza artificiale (AI) sul web. Lo sviluppo di sistemi di apprendimento automatico ha portato alla creazione di nuove applicazioni e pratiche come il data mining, che ha aperto nuove strade per l'analisi rapida e l'uso di enormi set di dati su Internet. DARPA è stato uno sviluppatore chiave di queste tecnologie di apprendimento automatico e gran parte dell'attuale boom dei big data è derivato dagli investimenti di DARPA.
Internet wireless e oltre
La tecnologia di commutazione dei pacchetti che ha contribuito a lanciare ARPANET ha portato anche a un'altra rivoluzione della rete. I messaggi basati su commutazione di pacchetti basati su standard TCP / IP sono stati originariamente inviati tramite cavi telefonici, ma le stesse informazioni sono state successivamente convertite in segnali radio che potevano essere trasmessi tramite stazioni di inoltro satellitari. Successivamente, questo approccio è stato applicato alle radio terrestri, ha affermato Randy Katz, Vice Cancelliere per la Ricerca presso l'Università della California, Berkeley.
La tecnologia di commutazione dei pacchetti che ha contribuito a lanciare ARPANET ha portato anche a un'altra rivoluzione della rete. I messaggi basati su commutazione di pacchetti basati su standard TCP / IP sono stati originariamente inviati tramite cavi telefonici, ma le stesse informazioni sono state successivamente convertite in segnali radio che potevano essere trasmessi tramite stazioni di inoltro satellitari. Successivamente, questo approccio è stato applicato alle radio terrestri, ha affermato Randy Katz, Vice Cancelliere per la Ricerca presso l'Università della California, Berkeley.
Alla fine degli anni '70, DARPA lanciò un programma per sviluppare un sistema di reti radio a pacchetto. Con l'obiettivo di supportare i requisiti DOD per le reti wireless mobili, la sfida era far funzionare le radio in ambienti tattici. Ciò presentava vincoli ingegneristici completamente diversi rispetto all'infrastruttura fissa ARPANET. "Il programma radiofonico a pacchetti della fine degli anni '70 era incentrato, forse non inviando così tanti bit, ma in un ambiente molto più sfidato, molto più dinamico ... perché rispecchiava la tipica applicazione sul campo di battaglia", ha detto Katz.
Le applicazioni wireless commerciali non sono diventate redditizie fino alla fine degli anni '80, con lo sviluppo del predecessore della tecnologia Wi-Fi.
I progressi nella miniaturizzazione hanno anche contribuito a guidare quella che sarebbe diventata la rivoluzione wireless. Katz notò che alla fine degli anni '70, la tecnologia che alla fine sarebbe diventata la base della comunicazione cellulare riempì un furgone di grandi dimensioni, in gran parte a causa della potenza computazionale richiesta per eseguire il framework TCP / IP ad alta intensità di software. Verso la fine degli anni '80, il sistema era miniaturizzato fino a un piccolo computer con un'antenna in un pacchetto delle dimensioni di un pacchetto di sigarette.
È meglio vedere l'avvento delle comunicazioni wireless in termini di mobile computing, ha spiegato Katz. Ciò è stato guidato dalla coevoluzione della miniaturizzazione informatica con la tecnologia di rete sviluppata da ARPANET e NSFNET. Ciò ha consentito ai computer, e quelli che sarebbero diventati smartphone, di essere collegati in modalità wireless utilizzando la tecnologia emergente del Wi-Fi.
Katz è entrato a far parte della DARPA nei primi anni '90 per dirigere il programma Globo (Global Mobile Information Systems), che mirava ad accelerare lo sviluppo del mobile computing (più tardi nello stesso decennio, Katz sarebbe diventato vicedirettore dell'ufficio per i sistemi informatici e la tecnologia di DARPA). GloMo ha esaminato le tecnologie a duplice uso per digitalizzare le comunicazioni militari e civili. Katz ha osservato che a partire dall'inizio degli anni '90, DARPA è diventata molto interessata alla mobilità e alle reti wireless per supportare gli sforzi del DOD per modernizzare le sue comunicazioni e i suoi sistemi di comando e controllo.
Gran parte del lavoro di DARPA all'epoca in quest'area consisteva nel comprendere come i sistemi wireless mobili potessero essere ridimensionati e funzionare in un ambiente in evoluzione. Queste reti mobili dovevano anche essere retrocompatibili con tutte le informazioni e risorse già disponibili su Internet, ha affermato Katz. Gli scienziati e gli ingegneri dovevano anche ponderare come i dispositivi mobili potessero scambiare informazioni senza una rete centralizzata o un insieme di server.
"Tutte queste idee sono sbocciate nel periodo compreso tra la fine degli anni '90 e l'inizio degli anni 2000".
La rete wireless e la banda larga continueranno a influenzare il calcolo a breve e lungo termine per applicazioni sia commerciali che militari, ha affermato Cerf. L'avvento dei primi veri smartphone nei primi anni 2000 (in grado di accedere a Internet, posizione GPS, registrazione video / telecamere e accesso alla rete wireless ad alta velocità) e il rilascio dell'iPhone di Apple nel 2007 hanno segnato l'inizio dell'era attuale di accesso onnipresente ai dati. Un'infrastruttura di Wi-Fi coperta e copertura cellulare nella maggior parte delle aree urbane in tutto il mondo ha notevolmente ampliato la facilità di accesso.
"Le persone possono accedere a Internet da qualsiasi luogo possano ottenere una connessione LTE, 3G o 4G", ha affermato Cerf. “E poiché usano i loro smartphone, gli smartphone beneficiano del fatto di avere accesso a tutta la banda larga di Internet. Quindi ottieni questi effetti che si rafforzano a vicenda iniziando nel 2007 e continuando fino ad oggi."
Ma questo accesso è un'arma a doppio taglio. Da un lato, consente un accesso senza precedenti alle informazioni. Circa metà della popolazione del pianeta può accedere a Internet e al suo mare di dati, ha affermato Cerf. L'aspetto negativo di questa facile disponibilità è che qualsiasi cosa può essere messa in rete, inclusi malware e disinformazione.
"Ora dobbiamo capire come far fronte al fatto che questa infrastruttura può essere maltrattata e maltrattata, e abbiamo bisogno di combinazioni di pensiero critico da parte degli utenti della rete per rifiutare informazioni errate", ha detto Cerf.
Parte della soluzione potrebbe presentarsi sotto forma di mezzi tecnici per sondare e gestire le comunicazioni e le reti wireless a banda larga, eventualmente supportate da normative per mitigare la portata internazionale del crimine e della disinformazione su Internet, ha affermato Cerf.
L'intelligenza artificiale e l'apprendimento automatico avanzato, ora presenti in applicazioni come Siri o IBM Watson, avranno un impatto sulla futura Internet, ha affermato Hendler. Invece di sostituire le persone, vede un futuro in cui gli strumenti di intelligenza artificiale intelligenti lavorano con gli esseri umani per trarre vantaggio dalle capacità delle macchine di cercare e vagliare enormi quantità di dati. Una persona prenderebbe una decisione finale su un processo o argomento e applicherebbe intuizione ed esperienza supportate dall'input dell'IA. Ad esempio, un medico potrebbe utilizzare i suoi strumenti di intelligenza artificiale per cercare un vasto numero di testi medici per una serie specifica di sintomi e utilizzare tali informazioni per giungere a una diagnosi. Ma trovare il giusto equilibrio tra intelligenza umana e macchina per compiti particolari, che si tratti di diagnosi mediche o decisioni sul campo di battaglia, sarà una sfida. Hendler disse: "Quando decidi che forse la macchina è giusta e quando decidi che forse l'umano ha ragione, o quando decidi che insieme hanno ragione?"
Internet a venire
Le domande relative al giusto equilibrio tra intelligenza umana e macchina restano controverse per la maggior parte della popolazione mondiale. Mentre Internet è diventato una parte pervasiva della vita in Occidente, circa la metà dei cittadini del mondo non ha ancora accesso a Internet. Una delle ragioni più importanti di tale mancanza è il costo di quella che oggi è l'infrastruttura necessaria alla sua crescita. Parte della soluzione a questo problema potrebbe risiedere nella ricerca finanziata dalla DARPA sulle reti wireless e mobili iniziata più di 20 anni fa.
A metà degli anni '90, DARPA iniziò a lavorare per consentire comunicazioni sul campo di battaglia sicure e affidabili. La questione chiave era che, diversamente dall'Internet civile, una rete militare non poteva dipendere da infrastrutture fisse come torri cellulari, router e server farm, in parte perché questi nodi fissi ma vitali sarebbero stati obiettivi primari e facili su un campo di battaglia e in parte perché tali l'infrastruttura non sarebbe probabilmente dove era necessaria.
Ciò che serviva era una rete mobile e la ricerca sostenuta da DARPA che aiutava a creare una rete di dispositivi, come laptop e telefoni cellulari, che non richiedeva alcuna infrastruttura fissa. Invece dei dispositivi che instradano le informazioni attraverso nodi fissi, ogni dispositivo può inviare e ricevere informazioni l'uno dall'altro. Se un dispositivo andasse perso nella rete, molti altri sarebbero ancora disponibili per inviare e ricevere dati. Scalato verso l'alto da una rete locale, il concetto ha spianato la strada alle "reti mesh".
Ma questo accesso è un'arma a doppio taglio. Da un lato, consente un accesso senza precedenti alle informazioni. Circa metà della popolazione del pianeta può accedere a Internet e al suo mare di dati, ha affermato Cerf. L'aspetto negativo di questa facile disponibilità è che qualsiasi cosa può essere messa in rete, inclusi malware e disinformazione.
"Ora dobbiamo capire come far fronte al fatto che questa infrastruttura può essere maltrattata e maltrattata, e abbiamo bisogno di combinazioni di pensiero critico da parte degli utenti della rete per rifiutare informazioni errate", ha detto Cerf.
Parte della soluzione potrebbe presentarsi sotto forma di mezzi tecnici per sondare e gestire le comunicazioni e le reti wireless a banda larga, eventualmente supportate da normative per mitigare la portata internazionale del crimine e della disinformazione su Internet, ha affermato Cerf.
L'intelligenza artificiale e l'apprendimento automatico avanzato, ora presenti in applicazioni come Siri o IBM Watson, avranno un impatto sulla futura Internet, ha affermato Hendler. Invece di sostituire le persone, vede un futuro in cui gli strumenti di intelligenza artificiale intelligenti lavorano con gli esseri umani per trarre vantaggio dalle capacità delle macchine di cercare e vagliare enormi quantità di dati. Una persona prenderebbe una decisione finale su un processo o argomento e applicherebbe intuizione ed esperienza supportate dall'input dell'IA. Ad esempio, un medico potrebbe utilizzare i suoi strumenti di intelligenza artificiale per cercare un vasto numero di testi medici per una serie specifica di sintomi e utilizzare tali informazioni per giungere a una diagnosi. Ma trovare il giusto equilibrio tra intelligenza umana e macchina per compiti particolari, che si tratti di diagnosi mediche o decisioni sul campo di battaglia, sarà una sfida. Hendler disse: "Quando decidi che forse la macchina è giusta e quando decidi che forse l'umano ha ragione, o quando decidi che insieme hanno ragione?"
Internet a venire
Le domande relative al giusto equilibrio tra intelligenza umana e macchina restano controverse per la maggior parte della popolazione mondiale. Mentre Internet è diventato una parte pervasiva della vita in Occidente, circa la metà dei cittadini del mondo non ha ancora accesso a Internet. Una delle ragioni più importanti di tale mancanza è il costo di quella che oggi è l'infrastruttura necessaria alla sua crescita. Parte della soluzione a questo problema potrebbe risiedere nella ricerca finanziata dalla DARPA sulle reti wireless e mobili iniziata più di 20 anni fa.
A metà degli anni '90, DARPA iniziò a lavorare per consentire comunicazioni sul campo di battaglia sicure e affidabili. La questione chiave era che, diversamente dall'Internet civile, una rete militare non poteva dipendere da infrastrutture fisse come torri cellulari, router e server farm, in parte perché questi nodi fissi ma vitali sarebbero stati obiettivi primari e facili su un campo di battaglia e in parte perché tali l'infrastruttura non sarebbe probabilmente dove era necessaria.
Ciò che serviva era una rete mobile e la ricerca sostenuta da DARPA che aiutava a creare una rete di dispositivi, come laptop e telefoni cellulari, che non richiedeva alcuna infrastruttura fissa. Invece dei dispositivi che instradano le informazioni attraverso nodi fissi, ogni dispositivo può inviare e ricevere informazioni l'uno dall'altro. Se un dispositivo andasse perso nella rete, molti altri sarebbero ancora disponibili per inviare e ricevere dati. Scalato verso l'alto da una rete locale, il concetto ha spianato la strada alle "reti mesh".
I protocolli di Disollertion Tolerant Network consentiranno a Internet del sistema solare, consentendo di archiviare i dati nei nodi fino a quando la trasmissione non avrà esito positivo. |
In una rete mesh, anziché viaggiare verso un nodo fisso come un router o una torre cellulare, le informazioni viaggiano attraverso la rete fino a raggiungere il destinatario. Poiché ogni dispositivo cerca altri dispositivi a cui connettersi in modalità wireless, solo un dispositivo deve essere collegato a un router fisso.
Per il mondo civile, ciò potrebbe significare investire meno in infrastrutture costose e vulnerabili, e invece costruire una rete che sia più economica e più robusta. Le città di Garland, Texas e Medford, Oregon, negli Stati Uniti, hanno già investito in reti mesh, ad esempio. Forse ancora più importante, tali reti potrebbero fornire Internet a vaste aree del mondo che ancora non hanno accesso.
Un altro importante vantaggio collaterale della rete mesh è che consente a vari dispositivi sull'IoT - cose come termostati, sistemi di automazione domestica, veicoli e dispositivi indossabili - di comunicare tra loro e fornire connettività per più dispositivi che potrebbero essere troppo lontano da una fonte Internet.
Entro il 2017, c'erano 8,4 miliardi di questi dispositivi collegati online nell'IoT, secondo il centro di ricerca PEW, e numerosi studi stimano che entro il 2020 ci saranno da 20 a 50 miliardi di dispositivi collegati in rete. Questa esplosione di dispositivi crea sia grandi benefici che grandi sfide.
L'IoT dipende dal rendere i dati e l'archiviazione di tali dispositivi di connessione, dagli "orologi" indossabili ai sistemi di automazione domestica, accessibili alle aziende IoT e archiviati nel cloud. Ciò solleva problemi di privacy e sicurezza, nonché la proprietà dei propri dati da parte dei cittadini.
Brandeis, il programma DARPA, sta cercando di rompere i beni apparentemente incompatibili della privacy e la capacità di attingere al grande valore di database ampi e diversificati. L'obiettivo di Brandeis, nella parola dei suoi gestori, "è consentire la condivisione sicura e prevedibile dei dati in cui viene preservata la privacy".
"Dobbiamo collaborare con le società Web per trovare un equilibrio che ritorni nelle mani delle persone un livello equo di controllo dei dati, compreso lo sviluppo di nuove tecnologie come" contenitori di dati "personali, se necessario, e l'esplorazione di modelli di entrate alternativi come abbonamenti e micropagamenti", ha scritto Berners-Lee in un post sul blog della World Wide Web Foundation nel marzo 2017." Dobbiamo combattere contro il governo per quanto riguarda le leggi di sorveglianza, anche attraverso i tribunali se necessario. Dobbiamo respingere la disinformazione incoraggiando gatekeeper come Google e Facebook a continuare i loro sforzi per combattere il problema, evitando al contempo la creazione di organi centrali per decidere cosa sia "vero" o no.
Abbiamo bisogno di maggiore trasparenza algoritmica per capire come vengono prese importanti decisioni che influenzano la nostra vita e forse un insieme di principi comuni da seguire. Dobbiamo urgentemente chiudere il "punto cieco di Internet" nella regolamentazione delle campagne politiche ", ha scritto.
Con programmi come "Explainable AI", che cerca di sviluppare strumenti di intelligenza artificiale che spiegano come arrivano a conclusioni e prendere decisioni, e il nuovo programma Media Forensics (MediFor), che cerca la capacità di rilevare automaticamente manipolazioni di immagini online e di rivelare proprio nel modo in cui sono state eseguite queste manipolazioni, la DARPA sta prendendo provvedimenti per salvaguardare le richieste di Berners-Lee. Sebbene molte sfide e problemi affrontino Internet, oggi ha in molti modi soddisfatto la visione di Licklider di "il principale ed essenziale mezzo di interazione informativa per governi, istituzioni, società e individui". In effetti, la rete "intergalattica" di Licklider ora ha effettivamente raggiunto nello spazio.
Uno dei contributi meno noti ma potenzialmente più ampi di ARPANET è il networking interplanetario, ha spiegato Cerf. A partire dal 2008, i ricercatori del Jet Propulsion Laboratory della NASA a Pasadena, in California, hanno utilizzato un protocollo chiamato Disruption Tolerant Networking (DTN) per trasmettere con successo dati a veicoli spaziali lontani in orbita terrestre. L'obiettivo di DTN è supportare le comunicazioni e il trasferimento di dati su distanze interplanetarie. Il driver di questo sforzo, secondo la NASA, è perché "quando i dati vengono trasmessi e ricevuti attraverso migliaia e persino milioni di miglia, il ritardo e il potenziale di interruzione o perdita di dati è significativo".
Nel 2016, un collegamento DTN dedicato tra la Terra e la Stazione Spaziale Internazionale è andato online, rendendolo la prima parte di un Internet interplanetario, ha detto Cerf.
Per il mondo civile, ciò potrebbe significare investire meno in infrastrutture costose e vulnerabili, e invece costruire una rete che sia più economica e più robusta. Le città di Garland, Texas e Medford, Oregon, negli Stati Uniti, hanno già investito in reti mesh, ad esempio. Forse ancora più importante, tali reti potrebbero fornire Internet a vaste aree del mondo che ancora non hanno accesso.
Un altro importante vantaggio collaterale della rete mesh è che consente a vari dispositivi sull'IoT - cose come termostati, sistemi di automazione domestica, veicoli e dispositivi indossabili - di comunicare tra loro e fornire connettività per più dispositivi che potrebbero essere troppo lontano da una fonte Internet.
Entro il 2017, c'erano 8,4 miliardi di questi dispositivi collegati online nell'IoT, secondo il centro di ricerca PEW, e numerosi studi stimano che entro il 2020 ci saranno da 20 a 50 miliardi di dispositivi collegati in rete. Questa esplosione di dispositivi crea sia grandi benefici che grandi sfide.
L'IoT dipende dal rendere i dati e l'archiviazione di tali dispositivi di connessione, dagli "orologi" indossabili ai sistemi di automazione domestica, accessibili alle aziende IoT e archiviati nel cloud. Ciò solleva problemi di privacy e sicurezza, nonché la proprietà dei propri dati da parte dei cittadini.
Brandeis, il programma DARPA, sta cercando di rompere i beni apparentemente incompatibili della privacy e la capacità di attingere al grande valore di database ampi e diversificati. L'obiettivo di Brandeis, nella parola dei suoi gestori, "è consentire la condivisione sicura e prevedibile dei dati in cui viene preservata la privacy".
In effetti, questi problemi sono tra le maggiori preoccupazioni per Berners-Lee a quasi 30 anni dalla sua creazione del World Wide Web.
"Dobbiamo collaborare con le società Web per trovare un equilibrio che ritorni nelle mani delle persone un livello equo di controllo dei dati, compreso lo sviluppo di nuove tecnologie come" contenitori di dati "personali, se necessario, e l'esplorazione di modelli di entrate alternativi come abbonamenti e micropagamenti", ha scritto Berners-Lee in un post sul blog della World Wide Web Foundation nel marzo 2017." Dobbiamo combattere contro il governo per quanto riguarda le leggi di sorveglianza, anche attraverso i tribunali se necessario. Dobbiamo respingere la disinformazione incoraggiando gatekeeper come Google e Facebook a continuare i loro sforzi per combattere il problema, evitando al contempo la creazione di organi centrali per decidere cosa sia "vero" o no.
Abbiamo bisogno di maggiore trasparenza algoritmica per capire come vengono prese importanti decisioni che influenzano la nostra vita e forse un insieme di principi comuni da seguire. Dobbiamo urgentemente chiudere il "punto cieco di Internet" nella regolamentazione delle campagne politiche ", ha scritto.
Con programmi come "Explainable AI", che cerca di sviluppare strumenti di intelligenza artificiale che spiegano come arrivano a conclusioni e prendere decisioni, e il nuovo programma Media Forensics (MediFor), che cerca la capacità di rilevare automaticamente manipolazioni di immagini online e di rivelare proprio nel modo in cui sono state eseguite queste manipolazioni, la DARPA sta prendendo provvedimenti per salvaguardare le richieste di Berners-Lee. Sebbene molte sfide e problemi affrontino Internet, oggi ha in molti modi soddisfatto la visione di Licklider di "il principale ed essenziale mezzo di interazione informativa per governi, istituzioni, società e individui". In effetti, la rete "intergalattica" di Licklider ora ha effettivamente raggiunto nello spazio.
Uno dei contributi meno noti ma potenzialmente più ampi di ARPANET è il networking interplanetario, ha spiegato Cerf. A partire dal 2008, i ricercatori del Jet Propulsion Laboratory della NASA a Pasadena, in California, hanno utilizzato un protocollo chiamato Disruption Tolerant Networking (DTN) per trasmettere con successo dati a veicoli spaziali lontani in orbita terrestre. L'obiettivo di DTN è supportare le comunicazioni e il trasferimento di dati su distanze interplanetarie. Il driver di questo sforzo, secondo la NASA, è perché "quando i dati vengono trasmessi e ricevuti attraverso migliaia e persino milioni di miglia, il ritardo e il potenziale di interruzione o perdita di dati è significativo".
Nel 2016, un collegamento DTN dedicato tra la Terra e la Stazione Spaziale Internazionale è andato online, rendendolo la prima parte di un Internet interplanetario, ha detto Cerf.
Articolo tratto dalla brochure della DARPA del 2018 per il sessantennale dalla sua fondazione; documento in PDF che puoi scaricare qui sotto.
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.