Pagine

sabato 24 aprile 2010

Progettiamo insieme un'Infrastruttura di Dati Territoriali

Prima di pubblicare sul sito web di Planetek Italia l'annuncio del prossimo corso di formazione, "Dai WebGIS alle Infrastrutture di Dati Territoriali" che si terrà a Bari a fine maggio, avevo chiesto al mio amico e collega Mauro Casaburi, che ha curato la progettazione del corso, di indicarmi quali competenze dovessero avere le persone interessate a partecipare.
Questa è un'informazione spesso utile per chi deve decidere se investire o meno in un corso che può sembrare molto tecnico ed apparentemente riservato solo a navigati amministratori di sistema, ma che invece ha tra i suoi punti di forza proprio il fatto di essere rivolto a chi deve progettare una SDI e prendere delle decisioni che sono non solo di carattere tecnologico.
Allora la mia domanda a Mauro era: quali sono i prerequisiti che devono avere i partecipanti? E probabilmente la risposta di Mauro chiarisce l'impostazione del nostro corso meglio di mille parole:

"Sai cos'è un database?
Sai cos'è il linguaggio SQL?
Hai mai navigato un sito di mappe?
Se dico vettoriale, pensi all'esame di geometria piana o ai vettori in fisica?
E se dico raster credi che stia parlando di qualche capellone coi bonghi?
Sai cos'è l'html o Javascript?
Hai mai realizzato un sito web?

...allora sei pronto per il corso!"

martedì 20 aprile 2010

Nuvole di cenere, viste dallo spazio

Mentre gli aerei non possono volare sopra un vulcano attivo (e ormai nemmeno nei dintorni, laddove questa parola assume un'accezione troppo globale per i nostri gusti di viaggiatori compulsivi), i satelliti di osservazione della Terra possono osservare sornioni, dalle loro placide e sicure orbite spaziali, l'eruzione del vulcano Eyjafjallajökull ed i relativi dintorni.
Ho scaricato le immagini di questa pagina dal sito della DLR, l'agenzia spaziale tedesca, che con riferimento al dato qui sopra, ottenuto dal satellite TerraSAR-X, spiega:

"l'immagine, acquisita la sera del 15 aprile 2010, mostra chiaramente tre crateri neri. Precedentemente, la caldera era coperta da circa 200 metri di ghiaccio. Una crepa collega i crateri di nordest e quello a sud, creati dalla nuova eruzione.
I torrenti generati dello scorrimento dell'acqua (derivata dalla fusione dei ghiacci) scorrono verso Nord, in una valle di oltre 1500 metri, ed una zona enorme già è stata allagata. Se l'acqua derivante dalla fusione dei ghiacciai scorresse verso sud, le zone abitate del litorale meridionale dell'Islanda sarebbero a rischio.
Le ceneri sottili dell'eruzione sono state trasportata dal vento verso est, dove si sono depositate sul ghiaccio creando un rivestimento di superficie denso e liscio. In queste zone il segnale del satellite radar è riflesso debolmente e quindi le aree appaiono più scure nell'immagine".

Qui ci vorrebbe un approfondimento su come funziona un satellite radar, ma siccome su questo blog ne ho già scritto in abbondanza, andiamo avanti:

"Seguendo la striscia scura che si allarga a forma di ventaglio verso est, si riconosce il luogo della precedente eruzione dello scorso 20 marzo 2010: questa zone è stata visitata da migliaia di turist
i che hanno viaggiato con autoveicoli e motoslitte sul ghiaccio, e le loro tracce sono chiaramente visibili come una linea bianca vicino al bordo destro dell'immagine".



Nell'immagine a sinistra invece si riconosce la nuvola di cenere ed anidride solforosa, ripresa dal satellite metereologico Meteosat-9 nello stesso giorno, che si accinge ad interferire con i piani di volo delle compagnie aeree europee: è quello sbuffo arancione tra la Scozia ed il sud della Norvegia.

Ringrazio Leo Amoruso, uno dei nostri "uomini radar", che mi ha segnalato l'articolo sul sito della DLR.

venerdì 9 aprile 2010

Il ricampionamento delle immagini satellitari, in parole povere

Questo post si poteva chiamare "Cubic Convolution vs Nearest Neighbour", ma l'avrebbero capito solo gli addetti ai lavori. Non che ricampionamento sia un termine più accattivante.
Mi ricordo infatti che, quando nel lontano autunno del 1997 feci la mia prima georeferenziazione con ER Mapper, un Sergio Samarelli molto meno morbido di adesso enunciò quella che sarebbe poi diventata una delle mie discutibili certezze:
"quando fai una geocodifica, devi ricampionare il dato".

Il fatto è che quando si acquista un dato satellitare, spesso bisogna scegliere quale metodo di ricampionamento applicare al dato. E la scelta spesso è proprio tra i due metodi citati, Cubic Convolution o Nearest Neighbour.
Per un approfondimento tecnico sulle differenze tra i due metodi suggerisco di consultare il Wiki del GFOSS oppure il sito di Enrico Bonino (che ho scoperto mentre scrivevo questo post e che trovo molto ben fatto, complimenti!).

Qui porto degli esempi che in parole povere aiutano a capire le differenze tra i due metodi.












Come si vede in queste figure d'esempio, nel Nearest Neighbour (a destra) i contorni
delle features sono molto più irregolari a causa delle forti differenze nei valori spettrali dei pixel che risultano visibili.
Nel Cubic Convolution invece (a sinistra) la qualità "estetica" del dato è migliore.

Non esiste una regola assoluta, tuttavia, per la scelta del metodo migliore di ricampionamento: ai nostri clienti, che acquistano immagini satellitari ad alta risoluzione dei sensori QuickBird o WorldView, suggeriamo il Cubic Convolution quando ci viene richiesto il dato in colori naturali, il cosiddetto pansharpened, risultato della combinazione del dato pancromatico con i colori delle bande multispettrali. In questo caso, infatti, si presume che l'obiettivo sia la fotointerpretazione o comunque che interessi maggiormente la qualità "estetica" del dato.












A chi invece richiede il dataset completo, quello che chiamiamo "bundle", ovvero la banda pancromatica + le quattro (o otto, per WorldView-2) bande multispettrali separate, consigliamo il ricampionamento Nearest Neighbour se l'obiettivo è l'analisi spettrale dei dati.

E' importante sapere che, se si acquista un dato ricampionato con il metodo Nearest Neighbour, è comunque possibile effettuare delle semplici elaborazioni con software tipo ERDAS Imagine, per ottenere un risultato simile a quello del Cubic Convolution (che però, attenzione, non sarà lo stesso risultato che se si fosse applicato il ricampionamento Cubic Convolution sul dato d'origine!!). Mentre non vale il contrario.

Ringrazio i colleghi Claudio La Mantia e Giulio Ceriola per avermi dato lo spunto e le immagini d'esempio per questo post.

martedì 6 aprile 2010

L'utilizzo di software in remoto: il cloud computing

Questa settimana mi è capitato di imbattermi nel cloud computing in diverse occasioni, e siccome è un concetto su cui sto lavorando, provo a mettere ordine facendomi.. una passeggiata tra le nuvole (come in quel vecchio film che in Italia hanno chiamato "il profumo del mosto selvatico".. non c'entra niente ma mi piaceva).

Cos'è il Cloud Computing
Definizione di Wikipedia: "In informatica, con il termine cloud computing si intende un insieme di tecnologie informatiche che permettono l'utilizzo di risorse hardware (storage, CPU) o software distribuite in remoto.
Nonostante il termine sia piuttosto vago e sembri essere utilizzato in diversi contesti con significati differenti tra loro, si possono distinguere tre tipologie fondamentali di Cloud Computing:
  • SaaS (Software as a Service) - Consiste nell'utilizzo di programmi in remoto, spesso attraverso un server web. Questo acronimo condivide in parte la filosofia di un termine oggi in disuso, ASP (Application service provider).
  • PaaS (Platform as a Service) - È simile al SaaS, ma non viene utilizzato in remoto un singolo programma, ma una piattaforma software che può essere costituita da diversi servizi, programmi, librerie, etc.
  • IaaS (Infrastructure as a Service) - Utilizzo di risorse hardware in remoto. Questo tipo di Cloud è quasi un sinonimo di Grid Computing, ma con una caratteristica imprescindibile: le risorse vengono utilizzate su richiesta al momento in cui un cliente ne ha bisogno, non vengono assegnate a prescindere dal loro utilizzo effettivo."
Si tratta insomma di accedere e utilizzare risorse hardware e software come servizi condivisi, eliminando così i costi di acquisto e manutenzione. Calato nel nostro mondo, significa potermi collegare ad un sito internet dove trovo dei dati geospaziali e gli strumenti per poterne estrarre delle informazioni, senza dover spendere soldi per acquistare né i dati, né il software, né l'hardware per farli girare.

Dicevo
, appunto, che questa settimana mi sono imbattuto in questo concetto più volte: ne parlava Microsoft, il NIST e la ERDAS.

Come la vede Microsoft

Microsoft inizia a promuovere i suoi servizi online, tra Exchange, SharePoint, Office Communications eccetera. E' facile immaginare che un utente office possa trovare comodo accedere agli strumenti con cui è abituato a lavorare, senza dover acquistare una licenza d'uso e senza i problemi di installazione, aggiornamento e manutenzione del software sul proprio computer portatile.
Guardiamola dal punto di vista di un Ente: il Cloud Computing significa una migliore gestione dei costi, perché anziché pagare le licenze d'uso dei prodotti dovrò fare più probabilmente un abbonamento ad un servizio, che consentirà ai dipendenti di accedere alle informazioni da qualsiasi parte del mondo attraverso Internet e anche solo con uno smartphone. Inoltre i dati vengono archiviati centralmente - non necessariamente in un singolo posto, magari sono anche distribuiti, ma di certo non sono sparsi e decuplicati e disallineati.

Come la vede il National Institute for Standards and Technology
Sul sito del NIST il Cloud Computing è elencato come uno degli ambiti di ricerca dell'Istituto, e giustamente il primo sforzo che hanno fatto è stato quello di tirare giù una definizione su cui essere tutti d'accordo. Ecco che nella versione n°15 (!!!) della definizione di Cloud Computing del NIST si legge che un modello di Cloud Computing ha 5 caratteristiche essenziali: è un self-service su richiesta, accessibile da una rete di utenti che usano terminali eterogenei e stupidi (tipo gli smartphone, che sappiamo tutti non essere sempre così smart!), che mette in comune risorse hardware e software assegnate agli utenti dinamicamente, scalabile in maniera elastica e dall'utilizzo misurabile e trasparente delle risorse e degli accessi.

Come la vede ERDAS
Ne stiamo già parlando da un po', del Cloud Computing con ERDAS: da quando l'anno scorso è stata introdotta la funzionalità di preparazione, in ERDAS Imagine, di algoritmi di elaborazione di dati e modelli di analisi spaziale, che possono essere poi pubblicati come WPS (Web Processing Service, uno standard OGC) su un server con ERDAS APOLLO.
Oggi in ERDAS si sta lavorando per la costruzione di un modello di Cloud Computing, basato su Apollo, che metta a disposizione degli utenti un'Infrastruttura come Servizio (quella che sopra abbiamo definito IaaS): non solo dati, non solo software, ma anche hardware, risorse di elaborazione e di archiviazione, cui l'utente accede "in affitto", a costi noti, noleggiando quindi un servizio. Ne parla Alan Stoll nell'ERDAS Labs, il blog in cui vengono anticipate le linee di sviluppo della ERDAS.

Oggi che il Ministero dell'Ambiente, nel , inizia a pubblicare servizi WCS (essenziali per supportare il processing dei dati raster), non è difficile immaginare uno scenario imminente in cui, quando tra i dati esposti ci saranno anche coverage di foto aeree o immagini satellitari multispettrali, un utente possa accedere a on-demand a servizi di elaborazione dei dati: mi collego ad un sito web con il mio smartphone, ed uso gli algoritmi di change detection già preconfezionati e pubblicati da quel sito web per confrontare i dati esposti dal PCN, e trovare al volo l'informazione che mi serve.
Sembrerebbe fantascienza ed invece è dietro l'angolo.

Leggi anche: