Pagine

domenica 20 marzo 2016

Dati geospaziali su Cloud e nuovi modelli di business

Spostare sul Cloud gli strumenti per l'elaborazione e l'analisi dei dati, ma anche l'accesso ai cataloghi globali di contenuti geospaziali e l'analisi interattiva dei risultati, per ottenere la vera conoscenza dei fenomeni sul territorio grazie a mappe dinamiche che si aggiornano automaticamente: è quello che stiamo facendo con le Smart M.Apps di Hexagon Geospatial.

Hexagon Smart M.App è una nuova piattaforma tecnologica su Cloud, che mette a disposizione via Web contenuti geospaziali dinamici (immagini satellitari, foto aeree e svariati altri tipi di dati) assieme a strumenti di analisi, flussi di lavoro e strumenti per l'elaborazione e la rappresentazione grafica ed interattiva delle informazioni.


Sto vedendo nascere qualcosa che realmente cambierà il modo in cui usiamo le informazioni geografiche. Mi piace che questa tecnologia permetta di superare il tradizionale utilizzo di prodotti desktop per elaborare dati che ancora oggi vengono scaricati, strapazzati, arricchiti di nuove informazioni, e poi faticosamente ricondivisi su web da una ridotta élite di specialisti.

Hexagon Geospatial sta lanciando in questi ultimi mesi un approccio innovativo, interamente basato sul Cloud. Come raccontava qualche giorno fa Vincenzo Barbieri sul blog di Planetek, questa nuova piattaforma mette a disposizione, in un unico ambiente e su Web, dati aggiornati su tutta la Terra  (immagini satellitari, rilievi aerei e LiDAR, forniti dai principali provider internazionali), funzioni di geo-precessing e per la creazione di flussi di lavoro automatizzati, e strumenti per la rappresentazione grafica ed interattiva delle informazioni sotto forma di indicatori ed infografiche.

Il design incontra la comunicazione dinamica: oltre l'analisi dei dati, verso servizi per la conoscenza 

Se finora nel mondo della geomatica ci si è concentrati sempre tanto sulla creazione delle mappe, oggi proviamo a dare molta più attenzione alla progettazione di un'esperienza dinamica che fornisca un servizio di informazione on-line, e che non solo rifletta ciò che è avvenuto in passato sul territorio, ma anche e soprattutto ciò che potrebbe o 'dovrebbe' accadere domani. Per fare ciò in modo efficace, bisogna superare l'utilizzo delle tradizionali carte digitali su Web e contaminare il mestiere del mapping con l'arte del design e della comunicazione.
Se combiniamo tutto ciò con uno straordinario scenario di innovazione tecnologica, possiamo cominciare a sperimentare "le mappe del futuro", come piace chiamarle a Mladen Stojic, presidente di Hexagon Geospatial: applicazioni cloud-based che sfruttano contenuti sempre freschi e aggiornati + strumenti di analisi di alto livello per creare un'esperienza di accesso dinamico alla conoscenza. Knowledge as a Service, a me piace chiamarla così.

SmartCity Road Knowledge: esempio di Smart M.App per il monitoraggio e la gestione della rete stradale urbana
https://store.hexagongeospatial.com/apps/58170

Smart M.Apps e nuovi modelli di business

Perché sostengo che le Smart M.App di Hexagon Geospatial cambiano oggi le regole del gioco?

Innanzitutto c'è la possibilità di connettere direttamente la propria applicazione web a cataloghi dinamici di dati geospaziali e descrittivi: sfruttando le nuove costellazioni di satelliti e mini-satelliti, le coperture aeree dell'Hexagon Imagery Program e i tanti dati open disponibili a livello mondiale, oggi anche una piccola start-up può creare servizi da vendere su abbonamento e magari a basso costo. Le Smart M.Apps permettono di connettersi ai cataloghi di provider commerciali e costruire applicazioni che sfruttino questi dati, pagando non più una licenza d'uso del dato da usare off-line, ma una commissione di utilizzo del dato per le esclusive finalità dell'app. Apriamo così la strada ad una sterminata gamma di servizi web vendibili in modalità subscription, superando i modelli tradizionali e costosi di produzione di valore aggiunto on demand.

La piattaforma, inoltre, mette a disposizione su cloud non solo i dati e le app, ma anche gli strumenti per la definizione dei flussi di lavoro e per la creazione delle "ricette" di processamento ed analisi dei dati, ovvero tutto ciò che serve per creare un'App. Si tratta dell'ambiente Smart M.App Studio, che porta su Web anche la grande potenza dello Spatial Modeler (che fino all'anno scorso era disponibile solo negli strumenti desktop di Hexagon Geospatial). In questo modo si riducono drasticamente i costi e quindi la dimensione dell'investimento necessario, sia per chi ha una buona idea da lanciare su un mercato globale, e sia per organizzazioni ed enti che vogliano sfruttare la potenza di contenuti geospaziali per rispondere internamente alle loro proprie esigenze di business specifiche.

Ancora, proprio la possibilità di accedere ad un'utenza globale: una buona idea che metta in piedi un'App basata su dati disponibili su tutto il mondo, e che risolva un problema diffuso, può essere pubblicata su Exchange, lo store on-line delle Smart M.Apps, e venduta in tutto il mondo grazie allo straordinario network globale di partner di Hexagon.

IGNITE Session a Roma: crea con noi la Smart M.App del futuro

Per promuovere le Smart M.Apps, Hexagon Geospatial ha lanciato IGNITE, la sfida per la "M.App del futuro". E' un' occasione per chiunque abbia una buona idea per una Smart M.App che affronti e risolva un problema globale con una soluzione mirata. E' un concorso che mette in palio fino a 100.000 dollari per l'App vincente, e per partecipare è sufficiente raccontare la propria idea: le migliori 20 idee saranno scelte ed aiutate a nascere e prendere forma, per partecipare alla votazione finale che premierà la migliore entro la fine dell'anno.

Per aiutare a sfruttare questa opportunità abbiamo organizzato Sessioni IGNITE in tutto il mondo: eventi di un giorno in cui gli esperti Hexagon geospatial ed i Partner del network si riuniranno per mostrare come funzionano le Smart M.App a sviluppatori, creativi e visionari, ed ideare insieme applicazioni innovative.

Ci sarà naturalmente una sessione IGNITE anche in Italia, e l'appuntamento a Roma è per il 6 aprile prossimo (qui tutte le informazioni). Nella prima parte della giornata parleremo in maniera approfondita di Smart M.App, delle App già esistenti e di quelle che stanno per arrivare; nel pomeriggio poi si potranno mettere le mani su Studio con l'aiuto dei colleghi italiani di Hexagon Geospatial e di Planetek Italia. Ci sono ancora pochi posti disponibili, registratevi subito!

In questo video chi ha voglia può seguire il Webcast che anticipa i principali contenuti delle IGNITE Sessions e del concorso. Vi aspetto a Roma, non mancate!

lunedì 2 novembre 2015

Il futuro dell'osservazione della Terra da satellite

Dopo aver parlato degli scenari attuali dell'osservazione della Terra da satellite, iniziamo a dare un'occhiata a ciò che ci riservano i prossimi anni. Non avremo bisogno di andare troppo lontano, perché una parte di questo futuro sta nascendo proprio in questi giorni.

Minisatelliti di PlanetLabs
Da quanto abbiamo detto finora, si intuisce che il futuro dell'Earth Observation (EO) è entusiasmante e si snoda su diversi scenari: mentre continuerà la bella avventura di Copernicus, con il lancio previsto degli altri satelliti della costellazione Sentinel e i dati accessibili con licenze open, i grandi operatori continueranno a lanciare satelliti con risoluzione spaziale e spettrale possibilmente sempre più alta. Nel frattempo assisteremo al proliferare di costellazioni di mini e micro satelliti.
Tra i satelliti che acquisiscono immagini ad altissima risoluzione attendiamo l'avvento di WorldView-4, che raddoppierà la capacità della costellazione di fornire immagini con 30cm di risoluzione, garantendo di fatto un monopolio alla DigitalGlobe nella fornitura di immagini con questo straordinario dettaglio. Il lancio è previsto per settembre del prossimo anno:

Questo investimento risponde alla domanda di informazioni della National Geospatial-Intelligence Agency statunitense (NGA), che è il principale committente di DigitalGlobe. Il programma americano chiamato Enhanced View ha l'obiettivo di fornire all'intelligence americana l'accesso continuo a immagini aggiornate su tutto il globo terrestre per supportare le attività militari.

A quanto pare, però, anche l'NGA inizia a guardare con interesse alle potenzialità delle costellazioni di mini-satelliti, e pur senza modificare l'attuale contratto con DigitalGlobe,potrebbe investire già dal prossimo anno nella sperimentazione con i diversi fornitori di immagini satellitari che si affacciano sul mercato con modelli di business differenti. Per DigitalGlobe, che negli ultimi anni ha combattuto la concorrenza "mangiandosela", come ha fatto con GeoEye qualche anno fa, questo significherà fare i conti con rivali molto diversi da quelli tradizionali. Vediamo perché.

Mini e micro satelliti

WorldView-3 in costruzione
Quello dei mini-satelliti è un discorso molto innovativo, che riguarda da un lato la dimensione dei satelliti, e dall'altro il modo in cui vengono realizzati.
Parlando di dimensioni, bisogna ricordare che i satelliti per l'osservazione della Terra "tradizionali" sono tipicamente molto grossi e pesano tanto. Ad esempio WorldView-3, di cui abbiamo già parlato e che nella foto accanto è raffigurato mentre era in costruzione, è alto quasi 6 metri e pesa più di 2 tonnellate e mezzo.
E' facile comprendere quanto sia complesso e costoso lanciare un bestione di questi nello spazio, e farlo entrare in orbita.

Complesso, costoso e... rischioso. Nonostante vengano lanciati continuamente oggetti nello spazio, infatti, non tutto fila sempre liscio. Guardate per esempio cosa è successo a giugno alla Space X di Elon Musk (si, quello della Tesla), a pochi mesi di distanza dall'incidente dell'Antares di ottobre dello scorso anno.



Queste missioni sfortunate avevano entrambe l'obiettivo di raggiungere la ISS - Stazione Spaziale Internazionale (quella su cui ha passato più di 6 mesi Samantha Cristoforetti) e rifornirla di attrezzature scientifiche e... mini-satelliti, come quelli di Planet Labs, che pesano 'solo' 120 kg ciascuno e dalla ISS vengono poi lanciati nello spazio, come si vede in questo bellissimo video:



E' interessante notare che nonostante gli incidenti dell'ultimo anno, né Space X né Planet Labs hanno subíto contraccolpi devastanti, ed hanno portato avanti le proprie attività continuando a lanciare nuovi satelliti.
Come infatti racconta in questa intervista Will Marshall, CEO di Planet Labs, la strategia che prevede di mettere in orbita una costellazione di mini-satelliti, soprattutto se questi sono realizzati con componenti a basso costo, rende l'approccio allo spazio più sostenibile e meno rischioso, perché la capacità dell'intera costellazione è meno legata all'efficienza dei singoli elementi che la compongono.

Già qualche anno fa il lungimirante Giovanni Sylos Labini aveva spiegato, sul blog di Planetek Italia, in che modo i mini-satelliti cambiano l'economia dello Spazio, individuando aree di riduzione dei costi in tutto il sistema di bordo e di terra, e adottando componenti industriali prodotti per mercati molto più ampi, invece che finanziare costose attività di ricerca e sviluppo per componenti da produrre in poche unità.

Nell'intervista citata all'inizio di questa serie di articoli, sempre Giovanni dice:
"[le costellazioni di minisatelliti] sembrano offrire un nuovo approccio alla raggiungibilità dello spazio, ed in alcuni casi anche un approccio più sostenibile dal punto di vista economico. Una buona parte di questa teoria deve essere ancora dimostrata, ma sicuramente iniziano ad avere nuovi ingredienti per costruire quelle che possono essere le missioni di osservazione della Terra del futuro. Quello che possiamo immaginare è che molti di questi sistemi avranno maggiori capacità a bordo, e saranno più capaci di muoversi in maniera collettiva, come singoli oggetti in orbita intorno alla terra."
Per questo, nel prossimo futuro, il successo dei "classici" operatori satellitari sarà minacciato da realtà commerciali con un diverso DNA e differenti modelli di business. Non c'è infatti solo Planet Labs a lanciare i suoi mini-satelliti.

Uno Spazio pieno di mini-satelliti

Dal prossimo anno BlackSky Global inizierà la sua avventura nello spazio, lanciando in orbita i primi 6 dei 60 satelliti che prevede di schierare in costellazione entro il 2019. L'obiettivo è coprire l’intero territorio terrestre con frequenza giornaliera, alla risoluzione di 1 metro per pixel.

Hexagon Imagery Program
Grazie a questo piano così aggressivo ed avvincente, che BlackSky ha chiamato "Satellite imaging as a Service", questa azienda di Seattle ha suscitato addirittura l'interesse di Hexagon AB, che ha già annunciato l'offerta di questi dati nella sua offerta commerciale HxIP: l'Hexagon Imagery Program, il servizio web-based per la distribuzione di dati satellitari e da aereo di tutto il mondo. Questo programma, grazie alle numerose partnership che Hexagon ha siglato con altre importanti realtà del settore geospaziale (tra cui Airbus DS), mette a disposizione degli utenti un vasto archivio di dati ad altissima risoluzione in continuo aggiornamento, ed offre anche accesso a dati LIDAR e modelli digitali del terreno.

Un'altra che sta lanciando man mano i suoi piccoli satelliti è SkyBox Imaging, che ha saputo catturare le attenzioni di una certa Google, al punto che il colosso di Mountain View se l'è comprata l'anno scorso. La costellazione di SkyBox è in grado di acquisire non solo immagini, ma anche riprese video della durata di oltre un minuto. Guardate il video seguente per capire di cosa parliamo:


SkyBox non è l'unica a girare filmini della Terra dallo spazio, perché c'è anche Urthecast che ha montato delle "videocamere" sulla ISS, In realtà sulle applicazioni che sfruttino questo genere di riprese video c'è ancora tanto da lavorare, e ancora non ho visto in giro niente di davvero rivoluzionario, se non per applicazioni di intelligence in ambito militare. Quando però i satelliti in orbita saranno un bel po', e le riprese video possibili inizieranno a crescere in maniera significativa, ne vedremo delle belle.

Big Data satellitari

Da quanto abbiamo visto finora, tra l'attuale offerta di dati ad altissima risoluzione spaziale ed un futuro dirompente con elevatissima risoluzione temporale, è chiaro che siamo già in pieno diluvio di dati. Bere o affogare?

Definizione delle 4V dei Big Data
Quando parlo di Big Data satellitari mi riferisco a due fenomeni principali: la quantità di informazioni offerte dai sistemi di osservazione della Terra e la nostra progressiva capacità di memorizzare, elaborare ed analizzare questi dati. Com'è noto, per descrivere il fenomeno dei Big Data, si usano in genere le quattro V, che ben si adattano anche alle immagini satellitari: Volume, Velocità, Varietà e Veridicità. Non mi soffermo su queste quattro e le darò per scontate. Voglio concludere invece questa serie di articoli sottolineando che tutta questa disponibilità di dati sarà sprecata se non riusciamo a trasformarla in reale Valore, che è secondo me la V più importante.

Affinché questi dati esprimano tutto il loro valore ci sono due nodi da sciogliere. Uno è legato alla tecnologia, ma l'altro si riferisce alla domanda di servizi basati su questi dati.

Workflow automatico per l'analisi della
torbidità marina con lo Spatial Modeler
Dal punto di vista della tecnologia ci sono alcune parole chiave che sento citate sempre più spesso quando si parla dei Big Data geospaziali: certamente vedremo un crescente impatto del Software As A Service e della fruizione su Cloud dei servizi basati su questi dati. Sarà sempre più importante spostare l'elaborazione dei dati, dal loro utilizzo in ambienti desktop con interfacce grafiche pensate per utenti umani, ad un processamento massivo grazie a workflow di elaborazione automatici.
Ieri il mio amico Andrea Borruso mi ha suggerito un articolo che evidenzia le ultime tendenze nel mondo del mapping, e che nelle sue conclusioni conforta questa mia analisi. Chi lavora con dati geospaziali in maniera tradizionale, spesso è costretto a sprecare il proprio tempo in ripetitive e noiose operazioni che succhiano tempo. Si pensi ad attività come lo scarico di dati, l’elaborazione attraverso molteplici software che richiedono continue conversione di formati, la creazione di cataloghi di metadati e la pubblicazione on-line di dati e mappe. Tempo sottratto alle attività di maggiore valore come l’analisi dei risultati ottenuti, fondamentale per l’adozione di decisioni.
La soluzione a questo problema è nella creazione di flussi di lavoro automatizzati, che assicurino risultati standardizzati e ripetibili, e che garantiscano l'accesso via web a dati e processi, ma soprattutto alle informazioni da essi generate.

Sarà cruciale poi affidare ai nostri strumenti mobili la rappresentazione di queste informazioni, sotto forma di indicatori e mappe dinamiche, perché ci garantiscono una reale conoscenza dei fenomeni investigati e ci aiutino a fare delle scelte. Su questo stiamo lavorando con le Smart M.Apps di Hexagon Geospatial, e ci torneremo spesso nei prossimi mesi.

Nel frattempo dovremo lavorare sulla crescita di una reale domanda per queste informazioni e conoscenza, che poi è la domanda di servizi basati sull'osservazione della Terra di cui parlavo anche nell'articolo precedente.
Ad oggi si stima che, nella proiezione al 2030 dei dati del settore EO, l'80% sarà ancora costituito da una domanda diretta o indiretta di servizi pubblici. Sarà sufficiente a rendere sostenibili - cioè economicamente vantaggiosi e competitivi dal punto di vista delle prestazioni - i sistemi spaziali che abbiamo visto finora?
Perché ciò accada, bisognerà cercare i metodi più opportuni per far crescere notevolmente questa domanda, semplificando l'accesso ai dati da parte delle aziende, favorendo l'accesso industriale ai fondi per la ricerca e promuovendo gli appalti pre-commerciali. Questi in particolare possono contribuire ad aumentare la consapevolezza ed il coinvolgimento dell'utenza, favorendo il cosiddetto user uptake, e creando le condizioni perché si affermi un mercato dei servizi EO che sappia rendere finalmente sostenibili le applicazioni dell’osservazione della Terra per gli utenti.
______________________

Questo post è l'ultimo di una serie dedicata all'osservazione della Terra:

lunedì 26 ottobre 2015

Immagini satellitari come #OpenData

Continuiamo a parlare del presente e del futuro dell'osservazione della Terra, dando un'occhiata in questa "terza puntata" a come la politica europea sul libero accesso ai dati satellitari delle missioni Sentinel stia cambiando le regole del gioco.
Nella puntata precedente infatti abbiamo parlato di satelliti commerciali, ovvero che acquisiscono immagini che poi vengono vendute sul mercato direttamente dagli operatori satellitari o da loro partner. Se fino a qualche anno fa l'unico modo di utilizzare immagini satellitari era acquistarne una licenza d'uso, da un po' di tempo a questa parte qualcosa sta cambiando.

Landsat 9 - Credits: www.nasa.gov
Un paio d'anni fa, quando ancora in Commissione Europea si discuteva delle strategie di licensing per i dati acquisiti dalle missioni satellitari del programma Copernicus, su questo blog avevo spiegato perché le data policy orientate alla liberazione dei dati sono più sensate e vantaggiose nel medio-lungo periodo. In quell'articolo parlavo delle scelte dell'USGS americano circa i dati delle prime 8 missioni Landsat, che ancora oggi sono accessibili gratuitamente, ed altrettanto accadrà con i dati della missione Landsat 9 che sarà lanciata fra 8 anni.

Poi sono partite le prime missioni Sentinel, con un approccio molto più integrato rispetto al programma Landsat, perché la strategia europea, anziché ad un solo satellite, è estesa ad un piano pluriennale e ambizioso che prevede il lancio di svariati satelliti di diverso tipo. Satelliti che acquisiscono o acquisiranno dati accessibili ed usabili liberamente, insomma dei veri e propri Open Data satellitari.
Tutto questo accade nell'ambito del programma Copernicus, che molti conoscono con il vecchio nome GMES, e che vuole rispondere alla domanda di servizi di osservazione della Terra in Europa. Per questo il programma mette a disposizione degli Stati europei i cosiddetti Core Services, per il monitoraggio del suolo, dei mari, dell'atmosfera, dei cambiamenti climatici, e per la gestione delle emergenze e della sicurezza. Questi servizi mettono a disposizione dei cittadini europei dati (satellitari ma non solo) o altri servizi: ad esempio, per il monitoraggio del suolo, l'Agenzia Europea per l'Ambiente (EEA) si occupa di produrre o aggiornare mappe tematiche ad alta risoluzione di tutta l'Europa relative alle superfici artificiali, alle aree forestate ecc., che tutte insieme permettono di tenere sotto controllo la copertura del suolo (con le mappe Corine Land Cover).

Anche gli output dei Core Services sono generalmente disponibili come Open Data, e questa è la grossa opportunità ma anche la sfida di Copernicus per l'Europa: sfruttare i prodotti a valore aggiunto ed i dati satellitari open per sviluppare una capacità molto più grande di quella attuale nella realizzazione di servizi ed applicazioni, che siano realmente utili, economicamente sostenibili, ed orientati a soddisfare una reale domanda degli utenti.
Sono i cosiddetti servizi downstream, tra cui rientrano anche le applicazioni commerciali che costruiscano Valore Aggiunto su dati telerilevati da satellite - commerciali o Open. I servizi downstream seri in realtà sanno sfruttare non solo i dati satellitari, ma anche le informazioni e gli altri dati resi disponibili dai servizi essenziali che vengono offerti dall'Unione Europea, i già citati Core Services di Copernicus.
Il potenziale in termini di mercato è straordinario, e ne parlavo qui.



Sentinelle spaziali

Torniamo a parlare delle immagini satellitari disponibili in maniera free e open. L'anno scorso è stato lanciato Sentinel-1a, la prima delle "sentinelle", che monta un sensore RADAR ad apertura sintetica in banda C. Non ha la risoluzione spaziale né temporale di Cosmo-SkyMED, di cui abbiamo parlato la scorsa settimana, perché la risoluzione spaziale arriva al massimo a 5 metri ed il tempo di rivisita sull'Europa è di circa 6 giorni (si ridurrà a 3 giorni quando sarà in orbita il satellite gemello Sentinel-1b), ma grazie alla possibilità di acquisire dati in qualsiasi condizione di illuminazione e di copertura nuvolosa, è estremamente utile per il monitoraggio della terraferma e dei mari.  

Le caratteristiche che abbiamo già visto per le acquisizioni satellitari con sistemi RADAR sono quelle che hanno consentito a Sentinel-1 di "immortalare" per esempio questo avvenimento che ha avuto grosso risalto nelle cronache di quest'estate: il relitto della Costa Concordia, rimorchiato verso il porto di Genova.
Da qualche settimana ci stiamo divertendo a raccontare come riusciamo a sfruttare questi dati per monitorare potenziali fenomeni di dissesto idrogeologico e prevenire i movimenti franosi.

Dallo scorso 23 giugno è in orbita anche Sentinel 2a, il primo di due satelliti multispettrali pensati per monitorare lo stato di salute del pianeta, con particolare attenzione alla vegetazione terrestre: foreste, piantagioni, zone agricole ecc.
Anche la missione Sentinel 2 prevede il lancio di due satelliti, destinati a rincorrersi per tutta la loro vita volando agli antipodi uno dell'altro.   


I sensori di Sentinel 2 sono di tipo ottico e garantiscono immagini in 13 bande multispettrali, con risoluzione da 10 metri fino a 60 metri. E' interessante notare che lo swath (l'ampiezza di ripresa) di Sentinel 1 è di ben 290 km: una volta e mezza quella del Landsat, come si vede nell'immagine accanto, che è la prima acquisita sull'Italia, appena quattro giorni dopo la messa in orbita. Si riconosce la Liguria e parte della Costa Azzurra. Grazie a questa grossa capacità di ripresa, quando sarà operativo anche Sentinel-2a il tempo di rivisita sull'Europa sarà di soli 3 giorni.
Le 13 bande multispettrali di questo satellite coprono un'ampia porzione dello spettro elettromagnetico, dal visibile all'infrarosso vicino, fino all'infrarosso ad onde corte, e forniranno informazioni importantissime sullo stato della vegetazione, come si intuisce dall'immagine a fianco, che raffigura in falsi colori un tratto della valle del fiume Po. Inutile dire che sarà straordinario il contributo dei satelliti Sentinel 2 alla prossima generazione di prodotti geografici che si potranno realizzare, tra mappe di copertura del suolo, delle foreste, delle aree artificiali e via dicendo. Ancora più importante saranno i prodotti che daranno evidenza dei cambiamenti in corso, per analizzare l'andamento di certi fenomeni o controllare l'effetto sul territorio delle politiche degli Stati nel tempo.

Entro la fine dell'anno sarà lanciato anche Sentinel 3a, un altro giocattolone spaziale che fornirà informazioni sui nostri mari e sugli oceani, dalla temperatura alla qualità delle acque marine, e tante altre informazioni utili per la sicurezza, il monitoraggio ambientale e lo studio del clima. Nei prossimi anni, poi, partiranno uno alla volta tutti i satelliti fino a Sentinel 6.
Ai dati Sentinel è possibile accedere già da tempo, previa registrazione, tramite il portale dell'Agenzia Spaziale Europea Sentinel Online.


Non solo Copernicus

Abbiamo visto quindi che la politica di distribuzione dei dati free open di Copernicus è pensata per favorire la piena adozione delle tecnologie di osservazione della Terra da parte dell'Europa, al fine di ottenere benefici di tipo ambientale - ma anche economico: da tempo si parla di un mercato da 30 miliardi di Euro e di decine di migliaia di nuovi posti di lavoro entro il 2030 (anche di questo ho già scritto qui). Queste scelte sono coerenti con le politiche che l'Europa persegue rispetto alla libertà d'accesso alle informazioni pubbliche, come previsto per esempio dalla Direttiva PSI.  


Se queste scelte virtuose sulla liberazione dei dati satellitari sono ragionevoli e benvenute quando fatte da un'entità pubblica, fanno rumore invece quando prese da realtà commerciali che sulla vendita dei dati dovrebbero basare tutta la loro strategia di ritorno sugli investimenti. Anch'io sono saltato sulla sedia quando Will Marshall, CEO di Planet Labs, ha annunciato a fine settembre che avrebbe liberato l'accesso ad una parte dei dati ad alta risoluzione acquisiti dalla sua costellazione di microsatelliti.






Marshall aveva fatto l'annuncio all'assemblea delle Nazioni Unite, parlando del contributo che questi dati avrebbero dato agli obiettivi dell'ONU per lo sviluppo sostenibile. Avevo pensato quindi che i dati satellitari che Planet Labs avrebbe rilasciato con licenze open sarebbero stati quelli acquisiti sulle aree più povere dell'Africa o dell'India; e mi sembrava già una bella cosa. E invece ecco che quei mattacchioni la settimana scorsa mi sorprendono ancora, perché aprono l'accesso alla loro piattaforma (ancora in beta) con le immagini satellitari della California! Con licenza CC BY SA 4.0, "condividi allo stesso modo" che si applica quindi anche ai prodotti a valore aggiunto generati con questi dati. In altre parole Marshall dice: io ti faccio usare i miei dati liberamente, ma qualsiasi cosa tu ci faccia, devi renderla pubblica allo stesso modo. 


Non so per quanto tempo questi dati sulla California resteranno accessibili in modalità open, ma questo è di certo un ottimo modo di promuovere e far conoscere le potenzialità della costellazione e delle immagini ad altissima risoluzione di Planet Labs. Di questi microsatelliti, che rappresentano davvero una grossa novità nel settore aerospaziale, parlerò ampiamente nella prossima ed ultima puntata di questa serie di articoli sul presente e futuro dell'osservazione della Terra.


Quando si parla di Open Data, e ci si riferisce alle informazioni che il settore pubblico dovrebbe rendere accessibili per assicurare trasparenza e creare opportunità di business, ci si scontra spesso con gli annosi problemi della mancata armonizzazione e integrazione delle banche dati. Invece, come dice il mio amico Vincenzo Patruno, "servono open data ad alta potenzialità su cui generare servizi orientati alla conoscenza".
Ecco: queste immagini satellitari open di cui abbiamo parlato oggi possiedono proprio queste caratteristiche. Sono dati disponibili in formati standard, pur nella loro varietà, e aggiornati frequentemente, di altissima qualità e diffusi da enti affidabili. Il meglio che ci può essere per costruirci sopra un business duraturo.

Le immagini satellitari da sole, però, non bastano.
Come è scaturito da un'indagine di Eurisy [1] di un paio di anni fa, se da un lato è ovvio che la gratuità dei dati satellitari aiuta a superare quegli ostacoli finanziari che fino a ieri impedivano certamente l'adozione delle tecnologie satellitari di osservazione della Terra, non bisogna trascurare l'impreparazione dell'utenza ad interpretare i dati grezzi. Parliamo di un'utenza professionale nel settore ambientale, dell'urbanistica, dell'ingegneria e del governo del territorio in senso lato, ovvero quella parte della domanda, pubblica e privata, che per prima potrebbe trarre beneficio dalla conoscenza ottenibile con l'osservazione della Terra; e che però non dispone delle competenze tecniche per processare ed interpretare i dati grezzi, integrarli con altre fonti informative, e produrre risultati - mappe, nei casi più ovvi, pronte da essere utilizzate nei sistemi informativi geografici.

Se la guardiamo così, la spinta all'utilizzo del dato satellitare corre il rischio di ridursi ad un mero push tecnologico, che non riuscirà facilmente a suscitare l'interesse di questa tipologia di utenza.
Non è quello che sta accadendo con i droni? Bei giocattoli che tutti vogliono imparare a pilotare, tanta curiosità, ma quant'è arduo poi trattare realmente i dati acquisiti per generare informazioni usabili.
Allo stesso modo, nonostante quest'ampia e crescente disponibilità di satelliti e dati, i servizi di osservazione della Terra restano ancora confinati nel dominio specialistico dei ricercatori e dei professionisti dei sistemi informativi geografici, che sono inevitabilmente più inclini ad inseguire i continui miglioramenti delle tecnologie satellitari (qualità dei sensori, aumento delle risoluzioni ecc).
Di conseguenza gli utenti finali (le categorie professionali che ho elencato prima) non riuscendo ad ottenere benefici tangibili dall'osservazione della Terra, sono portati a valutare la tecnologia satellitare come un semplice succedaneo del rilievo aereo. Ed ecco spiegata la fatidica domanda: "cosa mi offrono le immagini satellitari in più rispetto ad un volo aereo o a un rilievo col drone?!".

Oggi invece il vero User Uptake, cioè l'adozione dei servizi dello Spazio da parte di quelle categorie professionali, si può realizzare assicurando loro l'accesso a servizi che garantiscano non più mere informazioni, ma una reale conoscenza dei fenomeni. Non bastano quindi più le mappe tradizionali: l'utenza chiede scenari geospaziali ricchi di metriche ed indicatori, mappe dinamiche che diano evidenza dell'andamento di fenomeni, che aiutino a capire e prendere decisioni.

Questi servizi, accessibili via Web perché per loro natura sposano il paradigma del cloud e del software as a service, diventano 'black box' per l'utente, che si disinteressa di come l'informazione viene generata, se ciò che ottiene è accurato ed affidabile per i suoi scopi. Dietro la generazione dinamica e ripetitiva di indicatori per il monitoraggio della VAS ci saranno magari catene sconfinate di processamento dei dati, algoritmi complessi ed integrazione delle immagini satellitari con altre fonti di dati; ma l'utenza oggi vuole un'informazione snella e semplice, possibilmente a portata di smartphone.

Per la generazione di questi scenari l'utente non svolge un ruolo passivo: è indispensabile il suo coinvolgimento nel processo di costruzione della conoscenza. Per esempio può essere coinvolto nella fase di classificazione dell'immagine per addestrare il modello a riconoscere le features più utili, oppure in fase di validazione dei risultati: la consapevolezza dei luoghi e l'esperienza sul campo sono risorse (quasi) sempre disponibili a livello locale, e quando opportunamente riconosciute e sfruttate, possono aiutare a migliorare la qualità dei prodotti e servizi, in particolare quelli che assicurano un monitoraggio dei cambiamenti robusto, ripetibile e standardizzato.

In questi casi, come dicevo nel post precedente, anche una risoluzione del dato satellitare leggermente più bassa, se però è garantito un monitoraggio costante sulle aree di interesse, non costituisce un reale ostacolo alla realizzazione di servizi operativi e utili per gli utenti finali: purché questi servizi offrano un accesso rapido e continuo alla conoscenza dei fenomeni, garantendo il risparmio di tempo e di soldi.
Solo così otterremo la reale adozione delle tecnologie spaziali da parte dell'utenza.

Appuntamento alla prossima e ultima puntata, per guardare al futuro dell'osservazione della Terra.

______________________

Questo post è il terzo di una serie dedicata all'osservazione della Terra:
____________
[1] avevo salvato tempo fa un link ai risultati dell'indagine che adesso non sembra funzionare più: http://www.eurisy.org/index.php/news/item/242-satellite-data-is-not-enough-end-users-need-friendly-maps-and-services-tailored-to-their-needs.html