
24 Giugno 2016
Terrapattern è un progetto avviato da poco, e ancora in fase alpha, che sfrutta una rete neurale per "capire" cosa viene raffigurato nelle foto satellitari. Per fare un esempio pratico, è quello che succederebbe se fondessimo in qualche modo Google Foto con Google Maps, anche se al momento il progetto è molto acerbo. Diciamo che il "cuore" del sistema fondamentalmente funziona, ma è necessario crearci attorno un'interfaccia e delle funzionalità.
Al momento, funziona così: se noi inquadriamo nel sistema una piscina, (o uno stadio, un campo da calcio o da golf eccetera), il sistema mostra tutte le piscine presenti nell'area. Per "aree" si intendono le poche grandi città in cui Terrapattern è attivo, tra cui troviamo Berlino, New York, San Francisco, Detroit, Pittsburgh e Miami. In quanto rete neurale, la sua precisione e accuratezza aumenteranno con l'uso. Notate che non è possibile cercare per parole chiave, il sistema è solo in grado di comparare le immagini.
Per il momento è solo un passatempo simpatico, ma se maturerà a dovere le implicazioni potrebbero essere notevoli. Il sistema è in grado di analizzare le immagini satellitari "grezze", quindi potrebbe per esempio tracciare quasi in tempo reale l'evoluzione di un grande cantiere, guardare quanti pannelli solari sono stati installati in questa e quell'area, osservare il comportamento dei deserti e molto altro ancora.
Terrapattern è un progetto open-source ideato e gestito dall'università della Pennsylvania, a cui partecipano studenti, scienziati e anche artisti. Il problema delle poche aree a disposizione è tecnico: ogni città/area richiede 10 GB di RAM, e per monitorare tutto il mondo ne servirebbero 2000 volte tanto, ovvero 20 terabyte.
Commenti