L’enorme computer che faceva muovere le scritte in Tv

Attraverso lo scorrere delle decadi, la tecnologia sembra diventare progressivamente più complessa e difficile da sfruttare: ciò è indubbiamente vero da un punto di vista ingegneristico e produttivo. Ma assai probabilmente, non da quello concettuale. Mano a mano che la potenza di calcolo dei dispositivi aumenta, in effetti, l’interfaccia uomo-macchina diventa più potente, e conseguentemente intuitiva. L’aveva compreso il telefilm Star Trek, in cui tutto quello che occorreva era chiedere le cose ad un computer usando la propria voce, disquisire, argomentare con lui. Mentre oggi, la soluzione del controllo vocale trova un approfondimento dovuto essenzialmente al desiderio di poter disporre della stessa soluzione nell’ambito della realtà tangibile ed effettiva. Spostando tale analisi all’odierna condizione uomo-macchina, quindi, ci si rende conto di come la semplificazione permei ogni ambito dell’elaborazione non \ale: dal momento in cui i computer sono diventati piccoli, talmente insignificanti nelle dimensioni da poter occupare un singolo tavolo o scrivania, la loro potenza è cresciuta esponenzialmente, arrivando a poter contenere, ed elaborare artificialmente, qualsiasi immagine o video introdotto dai loro padroni. Chi non ha mai visto un video delle vacanze creato con i programmi di montaggio di Microsoft o Apple, in cui le immagini si susseguono con improbabili dissolvenze e scorrono dai lati, mentre nomi di persone o luoghi compaiono da tutti gli angoli dell’inquadratura? Ora immaginate di dove fare la stessa cosa, ma lavorando su pellicola di celluloide. Ovvero lavorando direttamente nello spazio non-digitale dell’intera questione.
Computer analogico: sembra una contraddizione in termini. Uno spauracchio ucronistico, come i dirigibili a vapore, il continente di Atlantropa o i caschi raffigurati nei geroglifici egizi tra carri magici e coccodrilli spaziali. Eppure nella natura stessa di tale termine, non è implicato un metodo, bensì una finalità: elaborare, cambiare le carte in tavola al fine di perseguire un idea. Tutto può servire a farlo: un abaco è una forma primordiale di tale apparato, così come la macchina differenziale di Charles Babbage (1822) può affrontare il problema dei logaritmi attraverso un ammasso di ingranaggi e cremagliere interconnesse reciprocamente. Va quindi da se che negli anni ’70 e ’80, quando il boom dell’intrattenimento televisivo si apprestava a raggiungere il suo apice di pubblico e guadagni, esistesse un apparato in grado di elaborare ed impreziosire le immagini inviate nell’etere dei segnali. Qualcosa che oggi faticheremmo a riconoscere per ciò che è, se non fosse per l’esauriente guida di Dave Sieg, uno degli ingegneri elettronici che in tale epoca seppero reinventarsi artisti della grafica, per dare una forma alle idee dei network e qualche volta, dei registi del cinema di allora. E sembra proprio un cattivo dei film di James Bond così seduto di spalle, nella penombra, mentre manovra pulsanti e levette dalle funzionalità arcane. Mentre la sua opera potrebbe essere paragonata a quella di un animatore della Disney dei primordi, mentre lavorava al dispositivo che un tempo serviva ad unire il personaggio disegnato su pellicola trasparente con gli scenari dipinti del fondale. Soltanto che la sua tavolozza, stavolta, è un’effettiva ripresa della scena da brandizzare. E la sua matita, nei fatti, non esiste neppure. L’improbabile marchingegno è uno dei nove Scanimate prodotti originariamente dalla Computer Image Corporation di Denver, Colorado, grazie alla capacità inventiva di Lee Harrison III, che riuscirono ad imporsi come standard dell’industria per oltre 20 anni a partire da quel fatidico 1969. Immaginate per un attimo la fortuna di questi pionieri: ogni sigla, pubblicità qualsiasi telequiz e di tanto in tanto, un film hollywoodiano o due, dovevano necessariamente passare di lì o per una delle pochissime compagnie che possedevano uno di questi computer, situate in Inghilterra, Giappone, Lussemburgo e New York. Nel corso degli anni d’oro, un’ora di lavoro allo Scanimate poteva venire a costare al cliente anche 2.500 dollari, spendendo i quali poteva tuttavia disporre di un’animazione che, altrimenti, avrebbe richiesto giorni o intere settimane di lavoro. Naturalmente nessuno ti regala niente e se si pagavano simili cifre, era perché qui trovava espressione un servizio impossibile da trovare altrove…

Leggi tutto

Gara di auto elettriche, svanisce la zavorra del pilota

Se funziona nei videogiochi, perché non dovrebbe farlo anche nel mondo reale? Beh, “funziona” è una parola grossa. Nel vasto catalogo di esperienze digitali interattive in cui siamo chiamati a dirigere un missile su ruote lungo i percorsi soliti noti, l’intelligenza artificiale è sempre un gran punto interrogativo. Poiché può basarsi, essenzialmente, su due direttive molto differenti, seguire semplicemente la linea di gara, oppure interpretarla. La differenza non potrebbe essere maggiore: nel primo caso, al giocatore sembrerà di essere come una scheggia impazzita, inserita artificialmente nel bel mezzo di un ingorgo a più di 300 Km/h. I diversi concorrenti, in realtà avatar dello stesso pilota privo di un corpo, marceranno ordinatamente lungo il tracciato, inscenando qualche volta la figura di un sorpasso. Neppure urtarli, accidentalmente o di proposito (magari per la frustrazione) potrà fare molto per alterarne il rigido copione. Fu questo il caso del primo, storico Gran Turismo per PSX, e di un buon 80% dei driving game venuti dopo quel momento. Ma c’è stata un’epoca, costellata di nomi come il game designer Geoff Crammond, la compagnia Papyrus e Simbin dei tempi d’oro, in cui le automobili venivano effettivamente programmate. Con una serie di comportamenti, non soltanto direttive, talvolta inclusivi di “episodi” umani, come errori di calcolo, pressione psichica o paura. Ecco, quest’ultima parte, sconsiglierei di eliminarla dal futuro della quattroruote Robocar. Dopo tutto, stiamo parlando di un bolide che dovrà girare nel mondo fisico, con tutti i rischi connessi ad una tale finalizzazione. Tranne quello, fino ad ora, considerato inevitabile: le gravi conseguenze per chi guida. Per il semplice fatto che non ci sarà più un “Chi”. Avete capito di cosa sto parlando? A partire dal 2014, nello scenario automobilistico mondiale esiste questa realtà in grado di rompere con il passato, identificata con una singola lettera dell’alfabeto. Formula E, ha deciso di chiamarla la FIA organizzatrice, dove la E vorrebbe simboleggiare, ovviamente, la parola ed il concetto di Elettricità. Il che sottintende assai evidentemente, questa serie di gare in cui il rombo del motore viene sostituito da un sibilo intenso, che sottintende una velocità massima inferiore ma il più delle volte, un’accelerazione niente meno che bruciante. C’è poi l’altro piccolo dettaglio di sfondo: la stessa macchina per tutti i team. Benché nell’ultima edizione, ci si stia muovendo in direzione diametralmente opposta, con la nuova regola che consente qualche grado di personalizzazione al gruppo motopropulsore, cuore stesso del veicolo in questione. Ma questo non è l’unico punto di rottura netta della serie, caratterizzata da un certo numero di altre caratteristiche distintive: intanto, i tracciati. Nove proposte disseminati tra altrettante città di larga fama, come Parigi, Hong Kong e Marrakesh (l’ottava, la decima e la dodicesima gara riutilizzano per la seconda volta, rispettivamente, Berlino, New York e Montreal) . Senza mancare ovviamente, di fare una visita al celebre circuito di Monaco, con prospettive ancora più intriganti all’orizzonte. Chi non sa ormai quasi tutto, ad esempio, del progetto confermato di portare presto questo grande show a Roma?
Tutto il caravanserraglio inclusi gli elementi di contorno, tra cui dovrebbe figurare, entro la fine di quest’anno, anche il campionato collaterale di Roborace. O almeno questo è ciò che sperano gli organizzatori. Di certo. a guardare il video appena rilasciato, proveniente dal circuito tedesco dell’ex-aeroporto Templehof situato nella capitale berlinese, sembra oggi di essere notevolmente più vicini all’obiettivo. L’automobile impiegata per la prova, in realtà non quella definitiva prevista dagli organizzatori, sfreccia ad ottime velocità lungo le 17 curve di questo vero e proprio labirinto d’asfalto, tutt’altro che un circuito veloce, ma proprio per questo, anche molto tecnico dal punto di vista di coloro che dovrebbero guidare. La Devbot, in realtà nient’altro che una Ginetta LMP3, ovviamente con motore al 100% elettrico, guida con una cautela pari a quella di un pilota di abilità medio-bassa. È stato dichiarato a tal proposito che la velocità complessiva sia inferiore dell’8% a quella media dimostrata dai partecipanti umani; ma questo non è necessariamente disastroso. Poiché, per tornare alla questione dell’IA (Intelligenza Artificiale) che si occupa di pilotarla, questo non è un veicolo che segua un copione particolarmente stringente. Altrimenti, cosa avrebbe di speciale? Forse ricorderete l’incredibile realizzazione dell’Università di Stanford a partire da un’Audi TTS nel 2010, che venne fatta girare sul circuito di Pikes Peak con punte di 209 Km/h ed un tempo finale, comparabilmente, decisamente più notevole di quello della Devbot. Per poi replicare il successo sul circuito di Top Gear, in una precedente puntata del famoso programma Tv inglese. Ma il punto è proprio questo: l’Audi andava tanto forte, poiché la sua navigazione si basava su una speciale tipologia di GPS reattivo, in grado di determinare la sua posizione sulla pista con pochi centimetri di errore. Questione ben diversa dal proposito di questa erede, che piuttosto alla maniera delle driverless cars di Google ed Uber, si propone di fare affidamento su telecamere a infrarossi, radar e lidar, finalizzati ad uno studio in divenire degli eventuali pericoli su strada, nonché un presa di coscienza, a livello di algoritmo, dell’effettiva linea da seguire. In gergo, si parla di un’automobile senza guidatore di livello 5. Neppure all’epoca degli anni d’oro dei simulatori ludici su PC, fu mai raggiunto davvero l’equivalente del livello 5. Ma in futuro, come dicevamo…

Leggi tutto

La ragnatela di vetro che regge il mondo

Tutto inizia, volendo usare un punto di vista selettivo, dalla nostra penisola a forma di stivale. L’Italia, come paese, non ha un grandissimo numero di linee colorate. La ragione è da ricercarsi nella sua posizione geografica, che nella parte settentrionale la collega al grosso hub tecnologico dell’entroterra europeo. Eppure, anche noi ci difendiamo: ce n’è uno che unisce la penisola alla Sardegna. Ed un paio in Costa Azzurra, diretti verso il principato di Monaco e la Spagna. La Corsica, dal canto suo, giustamente risulta collegata soltanto alla Francia. La Puglia ne ha due, con ramificazioni verso l’Albania, la Croazia e la Grecia. Ma è soprattutto in Sicilia che le cose iniziano a farsi realmente serie: come un avamposto nel mezzo del Mediterraneo, l’isola triangolare è un punto d’approdo per l’AAE-1, 25.000 Km di autostrada sommersa, in fibre ottiche, rame ed acciaio, che giungono fino in India passando per il Mar Rosso, e da lì in Malesia, per incontrare altri cavi. Ce n’è soltanto una manciata, in tutto il mondo, in grado di rivaleggiare una tale imponenza. Vedi il più lungo in assoluto, di nome SEA-ME-WE 3, che partendo dalla Germania gira attorno alla nostra massa continentale, per poi raggiungere la Turchia, il Medio Oriente, le Filippine, il Giappone e l’Australia. O le letterali dozzine che s’irradiano dall’America, affrontando la sfida tradizionale dell’Atlantico o quella più recente, e complessa, del Pacifico verso le Hawaii e l’Asia. Prima che fossero costruiti, il mondo era soltanto un insieme di luoghi sconnessi che tentavano di comunicare attraverso il trasporto di pezzi di carta. Da quando ci sono, possiamo spingere un tasto e far ballare un gatto dall’altro lato del globo. In questa mappa prodotta per la testata del Business Insider, la grafica computerizzata e la musica da ascensore ci permettono di farci un’idea della disposizione complessiva di uno dei principali patrimoni della modernità, i nostri cavi per le telecomunicazioni appoggiati ai fondali marini (se dovete preferirla, ecco una versione interattiva ospitata presso il portale Telegeography). Letterali miliardi di dollari d’investimento e le lunghe ore di lavoro ed impegno, da parte degli uomini e donne di un industria che paga bene, ma risulta intrinsecamente e drammaticamente ignorata dalla collettività. Che pure, ne beneficia!
È un paradosso storico piuttosto pressante, quello che si propone di comparare gli avanzamenti tecnologici degli ultimi 100 anni, a quelli dell’ultima generazione o giù di lì. Perché se a medio termine troviamo la costruzione di jet supersonici, l’esplorazione dello spazio, la penicillina, i vaccini… Cosa abbiamo concluso, come categoria d’esseri sapienti, dall’invenzione di Internet? Praticamente null’altro, che potenziare Internet. Il che, del resto, non è un’impresa semplice come potremmo pensare. Perché ciò che occupa lo spazio virtuale risulta essere, per la nostra concezione immanente, un qualcosa di volatile, quasi immaginario. Mentre la realtà è che portare a destinazione i dati oltre una massa d’acqua, come attività, non è certo una delle più semplici a questo mondo. Né economiche: stiamo parlando di un investimento medio che può andare dai 100 ai 500 milioni di dollari per singolo progetto. L’importanza di un giusto approccio fu dimostrata inizialmente da Samuel Morse, col suo esperimento per far passare un cavo telegrafico attraverso la laguna di New York, operazione che ebbe successo unicamente grazie alla ricopertura di quest’ultimo con canapa incatramata e gomma naturale nel 1839. Ma la vera svolta sarebbe arrivata nel 1845, con l’impiego da parte di Michael Faraday e Charles Wheatstone di un nuovo materiale riportato in Inghilterra dall’India, la resina appiccicosa dell’albero di gutta-percha (Palaquium gutta) un isolante naturale che si dimostrò in grado di proteggere il potenziale elettrico del cavo all’interno attraverso miglia e miglia del fiume Reno, in Germania. Nel 1851, grazie all’opera del battello di nome Blazer della compagnia Submarine Telegraph, furono quindi proprio gli Inglesi a poter godere della risorsa di una linea di collegamento attraverso un braccio di mare ampio come la Manica, per meglio comunicare con la Francia e i Paesi Bassi. Come attività del resto, la posatura di linee di collegamento subacquee non fu mai particolare appannaggio degli Stati Uniti, semplicemente perché con il progressivo modificarsi del contesto socio-economico mondiale, e il successivo aumento dei commerci trans-oceanici, sarebbero stati piuttosto gli altri paesi del mondo, ad avere interesse a raggiungerli coi proprio cavi. Un mercantile che può comunicare con la madre patria, avrà informazioni chiare su cosa comprare ed a quale prezzo. Un ambasciatore sa cosa chiedere ed offrire. Una spia, può inviare il suo codice senza dare eccessivamente nell’occhio. I quali aspetti, a lungo andare, giustificavano ampiamente l’investimento…

Leggi tutto

L’hacker che desiderava un milione di amici

Samy Kamkar

In un mondo perfetto, il progresso dovrebbe essere universalmente un bene, e qualsiasi cambio dello stato delle cose tecnologiche andrebbe accolto, se non con entusiasmo, per lo meno sulla base di un quieto senso di soddisfazione. “Guarda cosa siamo riusciti a fare!” Oppure: “Avevo ragione a credere nell’inventiva di coloro che, studiando, si sono messi al servizio della collettiva società.” Ma per la stessa ragione per cui fuori piove, delle volte fa più freddo del dovuto, i gabbiani defecano sulle automobili ed i cani di taglia piccola sono mordaci, esistono casi in cui qualcuno si ritrova a scatenare nel mondo, volente o nolente, un demone dalle infinite potenzialità. Quale nessuno, prima d’allora, avrebbe mai avuto l’ardimento di incontrare neanche nei suoi incubi più oscuri. Fu il celebre caso di Alfred Nobel, ad esempio, che a seguito di aver creato l’esplosivo della dinamite, usato in infinite bombe, se ne pentì ed istituì la fondazione sua omonima, per premiare di fronte alle nazioni del mondo le future menti eccelse prive di aspirazioni direttamente belliche, o in qualche maniera deleterie. Lo stesso Einstein, una volta realizzato come le sue scoperte e soprattutto la collaborazione di vecchia data con J. Robert Oppenheimer avrebbero potuto condurre alla bomba atomica, se ne rammaricò pubblicamente in più occasioni, ed in seguito al bombardamento di Hiroshima, famosamente, scrisse alla moglie le parole Vey iz mir: “Misero me!” (Cosa ho creato). Eppure, si può davvero ritenere costoro come dei responsabili di ciò che venne dopo? Nella natura di alcuni, c’è la creatività. Nella natura di altri, la ricerca del puro guadagno, o in altri termini, del puro male. Ma non si possono far ricadere sui primi, le colpe dei secondi…
Nel 2005, quando l’allora ventenne di Los Angeles Samy Kamkar fece il gesto che l’avrebbe iscritto a lettere di fuoco dentro l’albo dei più importanti hackers della storia, Internet viveva in uno stato di quiete molto chiaramente definito: c’era già Google, ovviamente, il grande pilastro che filtra e definisce le informazioni adatte a raggiungere i diversi terminali nelle nostre case, e c’era pure, proprio come adesso, un grande social network, popolare in fasce d’età parecchio differenti tra di loro. Si trattava, tuttavia, di un fenomeno primariamente statunitense, che l’odierno utilizzatore medio di Facebook, con un lungo curriculum di successi agricoli alle spalle grazie al giochino della fattoria e dozzine di sondaggi senza senso completati con alacrità, sarebbe rimasto nient’altro che basìto di fronte al caos crepuscolare di quel mondo, il caotico ed altamente personalizzabile portale di MySpace. Simili stravaganze non erano in effetti nulla, al confronto di quello che veniva consentito di fare agli utenti di un vero e proprio punto di raccordo tra l’originale concetto di “home page personale” nata agli albori del linguaggio di programmazione Html, Vs. le prime timide propaggini del vero Web 2.0, in cui tutti avrebbero potuto e dovuto esprimersi, secondo le proprie capacità e il buon gusto in dotazione assieme alla tastiera ed il mouse. Non c’era alcuna uniformità imposta, dunque, tra le pagine di quel sito, neppure l’ombra di un ordinato layout bianco-azzurro come quello dell’arcinota creazione successiva di Mr. Zuckerberg, ma folli maelstrom di moduli ed immagini, elementi animati, fondi scuri con il testo bianco oppure ancora peggio, pagine viola scritte in giallo e così via. Regnava, insomma, l’anarchia.
Ed è curioso notare come, all’interno di un simile meccanismo potenzialmente pericoloso, la stessa compagnia che gestiva MySpace fosse estremamente gelosa dei suoi segreti, non permettesse a nessuno di realizzare software in grado di girare all’interno del suo ecosistema (come invece ha sempre fatto, notoriamente, the big F) e non si affidasse a società di consulenza esterna per la sicurezza del sito. Il che significa, che le funzioni di natura superiore o per così dire proibite, restavano sostanzialmente chiuse dietro un’unica, invalicabile porta di pietra. Finché non giunse l’Aladino della situazione, a pronunciare, per gioco, le famose parole: “Apriti…

Leggi tutto