Pagine

giovedì 22 dicembre 2011

Auguri ed un racconto di Natale

Chi mi segue sa che ogni tanto (ma davvero ogni tanto) scrivo non solo su questo blog, ma anche su quello di Planetek Italia. Tanto per fare qualcosa di diverso, su quell'altro blog ho iniziato a scrivere come raccontando delle storie. Questa cosa è piaciuta molto al mio amico Andrea, ed allora ho continuato così.
Quest'anno poi mi andava di cambiare (che novità) rispetto alle cartoline o ai video di auguri, ed allora mi sono inventato una storiella tra due strani Babbi Natale che parlano di geomatica. La trovate qua:







Un'ultima cosa: la storia della ricercatrice, di cui si parla verso la fine del racconto, è vera, ed è stata realmente una delle cose più belle che mi siano capitate nell'ultimo mese. Mi andava proprio di raccontarla.

Tanti cari auguri di Buone Feste e Buon 2012 a tutti.

Massimo

giovedì 24 novembre 2011

L'uso del software libero nei progetti complessi

E' iniziata la quarta conferenza italiana sul software geografico e sui dati geografici liberi. Il GFOSS Day 2011 anche quest'anno si pone l'obiettivo di evidenziare lo stato dell'arte del software geografico libero ed Open Source e della condivisione dei dati geografici in Italia, ponendo particolare attenzione ai progetti e alle applicazioni nel campo delle pubbliche amministrazioni e delle aziende.
I partecipanti a questo genere di evento sono i più vari, perché ci sono i sostenitori del software libero più estremisti (noi li chiamiamo i talebani) e quelli più moderati, che di fronte a progetti complessi si sforziano di trovare il giusto compromesso tra le tante soluzioni disponibili sul mercato, siano essere proprietarie o open source.
Questo tema è accennato nell'ultimo numero del nostro magazine GeoXperience e sarà sviluppato domani pomeriggio da Cristoforo Abbattista nel corso del suo interventi.
L'altra sera commentavamo assieme i contenuti della sua presentazione di domani, che racconta quali tecnologie abbiamo utilizzato in tre grandi progetti come il Planetary Radar Observation Center (in pratica l'infrastruttura dei dati di Marte, per l'ASI), il Geoportale di INSPIRE e quello della Regione Emilia-Romagna. E con Cristoforo si diceva che ormai l'open source offre tantissime soluzioni estremamente utili e preformanti, ed al tempo stesso ce ne sono ancora altre che invece nascondono punti deboli inaspettati. Al punto che a volte viene da chiedersi se qualcun altro l'abbia mai usato in un caso reale.
Ad esempio, mi raccontava Cristoforo, Geoserver per fare il GetFeatureInfo fa due query a PostGIS: con la prima scopre quante feature sono interessate alla query spaziale, e con la seconda si fa restituire tutte le coordinate che compongono le feature. In questo modo il 99% delle informazioni estratte da Geoserver è inutile! Oppure un altro problema che abbiamo dovuto affrontare è l’assurda gestione delle linee e poligoni che oltrepassano la linea di cambiamento di data. Insomma c'è sempre tanto di cui discutere e tanto lavoro da fare.
Tutto ciò, accoppiato al crescente interesse delle Pubbliche Amministrazioni italiane rispetto alla liberalizzazione dei dati (non solo geografici), apre una marea di opportunità per i professionisti e le aziende che operano nel settore dell'informazione geografica.

Il GFOSS Day si può seguire in streaming video sul canale messo a disposizione dall'Università di Foggia che ospita l'evento, oppure su Twitter con l'hashtag #GFOSSDAY11.




mercoledì 16 novembre 2011

Che sta succedendo ad ASITA

La prossima settimana, a bocce ferme, proverò a raccontare com'è andata questa conferenza che sta procedendo tra luci ed ombre.
Nel frattempo, a chi non fosse riuscito a raggiungere Colorno per colpa della nebbia, dello sciopero dei treni o dei tagli di bilancio, potrà far piacere sfruttare le moderne tecnologie per seguire le discussioni in corso tra i partecipanti o le diverse sessioni della conferenza.

ASITA in diretta... 
Anche chi non è iscritto a Twitter può seguire da questa pagina il flusso dei tweet che alcuni partecipanti alla conferenza stanno postando con l'hashtag #asita11.



...o in differita
Tra le novità di quest'annno, c'è la possibilità di rivivere i momenti più importanti e di seguire le presentazioni più significative su Youtube con un canale video dedicato. Questo ad esempio è il video della sessione plenaria inaugurale di martedì mattina.

lunedì 14 novembre 2011

Verso il CORINE Land Cover 2012

L'anno prossimo, nell'ambito del programma GMES, verrà realizzata una copertura di dati satellitari ad alta risoluzione (attenzione: alta, non altissima) su tutto il territorio europeo, chiamata Image 2012. Questa copertura omogenea sarà utilizzata per tirarne fuori una serie di informazioni estremamente importanti, ed in particolare i layer relativi ad aree artificiali impermeabili, corpi idrici, aree umide, aree agricole e foreste. Queste attività saranno realizzate nell'ambito del progetto Geoland2.


E'  facile comprendere quanto sarà importante ottenere un aggiornamento ad alta risoluzione relativamente a questi tematismi: basti pensare alle aree artificiali impermeabili ed al loro impatto sul dissesto idrogeologico ed in senso lato sul consumo di suolo.
Questi layer hanno anche un'altra importanza strategica in ambito GMES, perché saranno utilizzati come dato di input, assieme ai dati Image 2012, per aggiornare la carta di copertura del suolo CORINE Land Cover 2012.

Per saperne di più, e capire come queste attività si inquadrano nel contesto più ampio del programma GMES, consiglio di leggere l'articolo che abbiamo pubblicato sull'ultimo numero del GeoXperience, il magazine semestrale di Planetek Italia.
Mercoledì pomeriggio a Colorno, nell'ambito della conferenza Asita, si terrà inoltre un workshop gratuito su questo tema, con gli importanti interventi dell'Agenzia Europea dell'Ambiente, di ISPRA e della Regione Veneto:

  • Ana Maria Ribeiro de Sousa EEA
    "I programmi Europei per ambiente e territorio"
  • Bernardo De Bernardinis - ISPRA - Rappresentante italiano allo USER FORUM della GMES Regulation
    "GMES come opportunità per lo sviluppo della geomatica nazionale"
  • Massimo FoccardiRegione del Veneto - Unità di Progetto SIT e Cartografia
    "I prodotti downstream di GMES a livello regionale. La Carta di Copertura del Suolo della Regione del Veneto"
  • Daniela Iasillo - Planetek Italia - Responsabile delle Geospatial Application Unit
    "I prodotti definiti da Geoland2 per l'analisi del territorio: l'Urban Atlas ed i 5 strati tematici a supporto del CORINE LAND COVER"
Gli atti del workshop saranno poi disponibili sul sito web di Planetek Italia nella pagina dedicata all'evento.

giovedì 10 novembre 2011

Indagine sul valore economico degli standard OGC


WMC, GML, SMS... che sono tutti questi acronimi??
Diciamocelo chiaramente, 'sta cosa degli standard OGC sembra roba riservata ad un ristretto manipolo di ingegneri e informatici.

(La prima volta che ho partecipato ad un meeting dell'Open Geospatial Consortium, non ci capivo niente. Cercavo di seguire una discussione che spiegava le relazioni tra i Gruppi di lavoro dedicati agli Standard (SWG) e quelli dedicati ad un settore applicativo (Domain Working Group, DWG). Allora io sentivo ripetere DWG, DWG... e lo confondevo con il formato vettoriale di AutoCAD. Così chiesi a Cristoforo: Crì, ma se qua stiamo in un posto dove si dovrebbe discutere degli standard, perché questi perdono tanto tempo appresso ad un formato proprietario??!
La riposta di Cristoforo è irriferibile :-)) 

Tuttavia qualcuno si è posto il problema.
Come fare a valorizzare gli standard OGC presso un'utenza non tecnica?
Come far capire qual è la loro importanza, e l'importanza dell'interoperabilità dei dati e dei servizi dal punto di vista economico?

Così è nato il Comitato per il valore economico dell'OGC, il Business Value Committee.

Tra le iniziative più interessanti che questo nuovo Comitato OGC ha lanciato va sicuramente segnalata quella attualmente in corso a livello mondiale:
indagine sul valore economico degli standard OGC.

Si tratta di un sondaggio aperto a tutti, e rivolto a due categorie di soggetti: i semplici utilizzatori dei dati e delle tecnologie geospaziali da un lato, ed i fornitori di tecnologia dall'altro.
Quest'indagine è uno sforzo congiunto fatto da due ricercatori accademici, membri dell'OGC e del comitato di Business Value OGC. Il dott. Mu Xia dell'Unveristà di Santa Clara ed il dottor Zhao Kexin dell'Università del North Carolina a Charlotte hanno sviluppato l'indagine tenendo conto delle necessità espresse dal Business Value Committee dell'OGC per comprendere sempre più quale sia l'efficacia degli standard aperti.

L'augurio di tutti, anche il mio, è che i risultati di quest'indagine possano aiutare l'OGC a valorizzare gli standard presso un'utenza non più soltanto tecnica, coinvolgendo i livelli decisionali più alti negli Enti di ogni tipo, pubblici e privati.
Naturalmente tra le finalità di un'operazione di questo genere c'è anche quella di migliorare costantemente i programmi dell'OGC per lo sviluppo degli standard geospaziali.

Anch'io, a titolo personale in qualità di utente, ed a nome di Planetek Italia come fornitore di tecnologia, mi unisco all'invito dell'OGC, rivolto a tutte le persone che si occupano di GIS, GPS, fotogrammetria, telerilevamento, ecc. o che hanno semplicemente a che fare con dati, servizi e software geospaziali, di rispondere a questo sondaggio.

I ricercatori hanno preparato due versioni alternative del sondaggio, che va fatto on-line:
Se non si è sicuri di quale versione usare, io sono a disposizione per chiarimenti.
Ah, si può anche vincere un premio (un iPad 2 da 16GB, WiFi al primo estratto; un iPod Touch da 8 GB  4a generazione al secondo estratto; un set di cuffie Bose AE2 al terzo estratto). A parte il rischio di vincere un iPad, questa è però una bella occasione per confrontarsi sulle implicazioni di tipo economico e/o tecnologico sull'uso degli standard aperti.

Per rispondere al sondaggio ci vogliono dai 10 ai 15 minuti. Le singole risposte saranno visibili solo dai ricercatori e da chi segue quest'operazione nell'OGC, e non saranno divulgate; i ricercatori  riassumeranno invece i dati raccolti nel corso dell'indagine, rimuovendo tutti gli eventuali riferimenti a risposte singole, e renderanno pubblica la sintesi mettendola a disposizione dei membri del Business Value Committee dell'OGC. Una sintesi sarà fornito anche a tutti quelli che avranno completato il questionario.

Il sondaggio è partito il 1 novembre e c'è tempo fino al 18 dicembre 2011.
Inutile dire che invito tutti a dare massima diffusione a questa iniziativa!

Qui c'è il comunicato stampa ufficiale dell'OGC.

giovedì 3 novembre 2011

Liguria: il disastro da satellite, in 3D

Se sei arrivato su questo post sperando di trovare qualche bella immagine colorata del disastro del Levante ligure della scorsa settimana, caschi male. Quella roba la trovi sui siti che fanno la gara a chi pubblica la foto o il video più agghiacciante.

Io mi rivolgo ai professionisti ed ai tecnici che hanno bisogno di dati aggiornati per lavorare all'analisi dei danni ed alla pianificazione degli interventi di ripristino. Sabato scorso, 29 ottobre, è stato acquisito un dato stereoscopico da satellite sull'area di Monterosso e Vernazza e relativo entroterra.
Si tratta di un dato con risoluzione di 50 cm nella banda pancromatica e 2 m per le bande multispettrali, che essendo stato acquisito in stereoscopia in un unico passaggio, consente di ricostruire lo scenario osservato in tre dimensioni, permettendo ad esempio (entro certi limiti) di calcolare volumi e studiare meglio le modifiche intervenute dopo l'alluvione.

Quest'immagine è stata acquisita grazie all'iniziativa di un gruppo di ricercatori italiani che si è subito attivato (ed ha investito) affinché programmassimo il satellite per effettuare l'acquisizione stereoscopica il più velocemente possibile. L'efficienza del sensore utilizzato, unita ad una sana botta di fortuna, che ci ha regalato un sabato mattinata luminoso e senza nuvole, hanno fatto il resto. Siamo riusciti così ad ottenere un dato di grande qualità e valore scientifico a distanza di pochissimi giorni dall'evento alluvionale.

L'efficienza dei colleghi, che sono riusciti a reperire velocemente i budget necessari per acquisire questo dato, rappresenta purtroppo l'eccezione in tali situazioni d'emergenza. L'iter burocratico per il reperimento dei fondi e per l'approvvigionamento di questi dati da parte degli Enti pubblici spesso richiede tempi che non sono conciliabili con la necessità di ottenere rapidamente una fotografia aggiornata del territorio a seguito di un evento del genere. Ritorna quindi la necessità, sempre attuale, di predisporre modalità innovative di approvvigionamento dei dati in situazioni di emergenza, mediante accordi quadro o altre forme contrattuali che possano ridurre al massimo gli sprechi e le inefficienze.

Un esempio virtuoso è rappresentato in questo senso dalla Regione Sardegna, come si può approfondire sull'ultimo numero del GeoXperience.

mercoledì 19 ottobre 2011

INSPIRE e GMES, a che punto siamo

E' disponibile, puntuale anche quest'anno, l'ormai settima versione del report 2011 su INSPIRE e GMES della Runder Tisch GIS, che si può scaricare gratuitamente.
Si tratta di una risorsa molto utile ed aggiornata per capire a che punto siamo con queste due importanti iniziative che sempre più si fanno convergenti e che avranno delle forti ricadute sul mercato geospaziale nel prossimo futuro.
Trattandosi di un report prodotto da un ente di ricerca tedesco, l'analisi si focalizza prevalentemente sulla realtà tedesca, ma non mancano degli spunti di riflessione molto interessanti sul quadro generale europeo.
Allora voglio segnalare quelle che, a mio parere, sono gli articoli più interessanti ed utili:
Come ho già scritto in un'altra sede, manca il paragrafo "INSPIRE in Italia". Confidiamo nell'edizione del prossimo anno?
INSPIRE GMES - Brochure Informativa (7° edizione)

lunedì 10 ottobre 2011

Altro che geotagging...

Incendio di Bastrop, in Texas.
Immagine acquisita da Digitalglobe il 7 settembre 2011
L'altro giorno, mentre cercavo qualche immagine recente per spiegare quali vantaggi offrano i dati satellitari per la perimetrazione delle aree percorse da incendio, mi imbatto in quest'immagine sul sito della DigitalGlobe.
La solita immagine in falsi colori, con le aree in rosso che indicano la vegetazione ricca di clorofilla e quelle scure che mi fanno capire a colpo d'occhio dove c'è l'incendio o quali aree sono andate bruciate.
Quei mattacchioni della DigitalGlobe però hanno ruotato l'immagine di 90° in senso antiorario, mettendo il nord a sinistra, certamente perché volevano che non passasse inosservata la scritta in alto a destra nell'immagine.

L'avete vista? Cliccate sull'anteprima per ingrandirla.

LUECKE.
C'è scritto Luecke.

Non è una scritta apposta digitalmente sull'immagine con fotoshock.
Quella scritta è fatta con gli alberi.
Con centinaia di alberi.
Non ci credete? Guardate la stessa area su Google Maps, qua sotto. Zoomate quanto volete, e provate a contare quanti alberi ha usato questo pazzoide con manie di grandezza per geotaggarsi sui suoi terreni.



View Larger Map

Da adesso in poi, tutte le volte che geotaggherò le foto fatte con il mio smartphone, mi sentirò un pivello.

martedì 4 ottobre 2011

Le mappe satellitari per la pianificazione urbanistica

Sull'ultimo numero di GeoConnexion è uscito un articolo che riepiloga i contenuti della presentazione che ho tenuto a Monaco di Baviera la scorsa primavera, sull'uso delle immagini da satellite per calcolare il consumo di suolo.
In sintesi questo articolo spiega come le otto bande multispettrali del satellite WorldView-2 si siano rivelate estremamente utili per identificare le aree impermeabilizzate, sul territorio dei comuni che hanno usato questi dati per costruire o aggiornare il proprio quadro conoscitivo. Il risultato dell'analisi del soil sealing, appunto l'impearmibilizzato, serve non solo come input per classificare le aree in base alla diversa densità urbana, ma soprattutto per calcolare, grazie al confronto di dati acquisiti in diversi periodi di tempo, l'indice di Consumo di Suolo.
Questo indicatore è estremamente importante nei processi di pianificazione per il monitoraggio della VAS, la Valutazione Ambientale Strategica, perché aiuta a comprendere l'effetto delle scelte dei governi locali rispetto allo sviluppo sostenibile del territorio.

Di tutto ciò si parlerà la prossima settimana ad Ascoli Piceno, nell'ambito di un convegno dal titolo inequivocabile: "Mappe Satellitari a supporto della redazione del Piano Regolatore Generale", in cui viene spiegato proprio qual è stato il contributo dei dati di osservazione della Terra, ed in particolare del nostro prodotto a valore aggiunto Preciso® Land, alla redazione del nuovo PRG del capoluogo marchigiano.
Nel corso del workshop si cercherà di illustrare queste tecniche innovative, basate sull’analisi di dati d'osservazione della Terra, ed utilizzate per la produzione del quadro conoscitivo geospaziale del territorio di Ascoli Piceno, e di come queste possano contribuire a determinare i vari indicatori ambientali adottati nella VAS.

martedì 27 settembre 2011

INSPIRE, una conferenza non basta

La scorsa settimana ho effettuato una "comunicazione di servizio", come l'ha chiamata il prof. Franco Vico, durante il workshop del progetto Plan4All che si è tenuto a Roma il 22 settembre.

I contenuti del mio intervento ricalcavano sostanzialmente quanto avevo già raccontato su questo blog qualche giorno prima, ma ribaltando il punto di vista.
Immaginiamo di essere nel 2019, e che oggi sia già il 17 dicembre: possiamo davvero immaginare che quel giorno tutti i dati territoriali italiani saranno stati armonizzati per renderli conformi alle implementing rules di INSPIRE?

La domanda è retorica, e certamente torneremo sulla questione spesso nei prossimi anni.
E' importante riflettere tuttavia su un paio di punti.

Innanzitutto l'osservazione dello stesso prof. Vico all'apertura dell'incontro, quando ha dato un paio di numeri: se questo processo di armonizzazione dei dati coinvolgerà 100.000 enti pubblici in tutta Europa, allora facendo un calcolo approssimativo in Italia saranno diverse migliaia gli enti coinvolti. Vico parlava di 6-7000 enti pubblici, un bel numero.
Se questa, come abbiamo già detto, rappresenta una grande opportunità per il mercato geospaziale italiano, c'è anche da chiedersi quanta sensibilità ci sia in giro rispetto a questa questione. E la risposta è che c'è poca attenzione, per vari motivi: io credo che ci sia una scarsa pressione "dall'alto", che si tratti di questioni oggettivamente difficili e molto tecniche, e che ci sia un processo in corso a livello europeo in cui l'Italia è stata abbastanza a guardare finora. Basta notare che c'erano pochissimi o nessun italiano tra tutti i gruppi di lavoro che hanno prodotto le bozze che attualmente sono oggetto della consultazione pubblica prima di diventare legge.
Eppure in Italia ci sono forti competenze, sia nella pubblica amministrazione che nell'industria, lo sappiamo.

L'altro paradosso è che, in uno scenario nazionale in cui le notizie su INSPIRE già circolano poco, un'opportunità come la conferenza AMFM viene trascurata, con un livello di partecipazione che certamente non ha premiato la qualità dei contenuti proposti (guardatevi le presentazioni dei vari relatori).
E poi la partecipazione alla conferenza era gratuita, accidenti! Io che mi lamento sempre quando eventi del genere sono a pagamento...
Era forse complicato raggiungere la sede dell'evento, perché quest'anno non si è tenuto nel centro di Roma come l'anno scorso, bensì ad Acilia? E' diventato oggettivamente sempre più complicato per chiunque spostarsi o farsi autorizzare lo spostamento? Con la crisi attuale ci sono altre priorità?
D'accordo, anche se credo che più di tutto abbia inciso quella scarsa sensibilità di cui parlavo prima.
Insomma, un'occasione mancata.

Il giorno dopo ripensavo a quali possono essere le maniere per coinvolgere più gente e far aumentare la consapevolezza e l'attenzione rispetto a questi temi, che sono attualissimi e sui quali non possiamo ammettere ulteriori ritardi. Mi è venuta qualche idea ma mi piacerebbe prima confrontarmi con voi per capire dove sta il problema, e cosa servirebbe davvero per superarlo.

giovedì 15 settembre 2011

Dagli allegati II e III di INSPIRE le opportunità per il mercato nazionale

A Giugno di quest'anno, in concomitanza con la Conferenza di Edinburgo, è partita la consultazione pubblica per mettere alla prova le specifiche dei dati prodotti da diversi gruppi di lavoro INSPIRE su 25 argomenti: dall’utilizzazione dei territori ai fini della pianificazione alla copertura del suolo, edifici, energia, salute, sicurezza ed altri ancora.

Tanto per capirci, i dati previsti nell'Allegato I di INSPIRE sono adesso obbligatori, e i detentori di questi dati dovevano produrre tutti i metadati entro il 24 dicembre dell'anno scorso (vi ricordate tutta la discussione?):

Allegato I
  1. Sistemi di coordinate
  2. Sistemi di griglie geografiche
  3. Nomi geografici
  4. Unità amministrative
  5. Indirizzi
  6. Particelle catastali
  7. Reti di trasporto
  8. Idrografia
  9. Siti protetti
Quindi questo è fatto.

Adesso si parte con i temi degli allegati II e III, che sono i seguenti:


Allegato II
  1. Elevazione
  2. Copertura del suolo
  3. Orto immagini
  4. Geologia


Allegato III
  1. Unità statistiche
  2. Edifici
  3. Suolo
  4. Utilizzo del territorio
  5. Salute umana e sicurezza
  6. Servizi di pubblica utilità e servizi amministrativi
  7. Impianti di monitoraggio ambientale
  8. Produzione e impianti industriali
  9. Impianti agricoli e di acquacoltura
  10. Distribuzione della popolazione – demografia
  11. Zone sottoposte a gestione/limitazioni/regolamentazione e unità con obbligo di comunicare dati
  12. Zone a rischio naturale
  13. Condizioni atmosferiche
  14. Elementi geografici meteorologici
  • Elementi geografici oceanografici
  • Regioni marine
  • Regioni biogeografiche
  • Habitat e biotopi
  • Distribuzione delle specie
  • Risorse energetiche
  • Risorse minerarie

  • Com'è facile notare, mentre nell'Annex I si trattava di dati di rilevanza prevalentemente nazionale, adesso si inizia a fare sul serio con dati e servizi che hanno un impatto molto più forte a livello "locale".

    La consultazione pubblica è aperta fino al 21 ottobre 2011, e ciò significa che potenzialmente chiunque, entro quella data, può dire la sua sugli standard che, nel prossimo futuro, dovranno garantire un approccio armonizzato in Europa ai dati relativi ad esempio alle zone a rischio naturale, alla distribuzione delle risorse energetiche, alle condizioni atmosferiche, agli habitat ed ai biotopi.

    Conclusa la fase di consultazione, i gruppi di lavoro di INSPIRE finalizzeranno questo progetto di atto giuridico per l’interoperabilità e l’armonizzazione dei dati in materia ambientale. Appena recepite dalla normativa italiana, queste specifiche di dati diventeranno dunque gli standard per la produzione dei dati territoriali cui bisognerà necessariamente adeguarsi.

    Una volta adottati, tali standard faciliteranno l’integrazione transfrontaliera e l’analisi dei dati ambientali a livello europeo, assicurando l’interoperabilità tra i dati e la loro circolazione, grazie anche agli strumenti per la loro diffusione quale il GeoPortale INSPIRE, che andrà in linea il prossimo anno e renderà accessibili i dati territoriali e le informazioni geospaziali condivise da tutti gli stati membri.

    Questo lungo processo, se opportunamente gestito, può diventare una straordinaria opportunità per lo sviluppo della cultura geomatica in Italia, coinvolgendo i diversi soggetti interessati: Pubbliche Amministrazioni, Enti di Ricerca, Aziende.
    L’implementazione delle specifiche INSPIRE può essere considerata una opportunità da cogliere: trasformare, quello che potrebbe essere visto come un onere, in un investimento degli enti nazionali, in grado di generare benefici nel tempo. Per vincere questa sfida serve prima di tutto la consapevolezza di quanto va realizzato.

    Se si dovesse mancare anche questo appuntamento ci troveremmo, come al solito, ad attuare soluzioni estemporanee che bruciano risorse e non creano un investimento per il futuro. Il processo di armonizzazione dell'informazione ambientale che è in corso in Europa crea invece le giuste condizioni, e l’industria nazionale ha dimostrato di avere tutte le carte in regola per supportare le Pubbliche Amministrazioni in questo percorso complesso.

    Di tutto questo si parlerà la settimana prossima a Roma, nell'ambito della Conferenza AMFM che inizia mercoledì 21 settembre, durante il Workshop sul progetto Plan4All dal titolo "L'informazione Spaziale per la pianificazione territoriale".

    giovedì 11 agosto 2011

    Nessuno tocchi i miei dati (LiDAR)

    Durante il tour ERDAS 2011 di questa primavera, una sezione importante del workshop era dedicata alla produzione e gestione delle nuvole di punti (ho parlato alcuni giorni fa su questo blog dell'importanza del formato LAS per l'archiviazione corretta di tutte le informazioni che una nuvola di punti può mettere a disposizione).
    Il mio discorso in quella sede girava tutto intorno ad una questione di fondo: sta accadendo oggi con i dati LiDAR quello che quindici anni fa accadeva con le ortofoto?

    Nel 2000 quando arrivarono sul mercato le ortofoto a colori della compagnia generale di riprese aeree di Parma, le famose IT2000 della CGR, si verificò un cambiamento epocale nella gestione dell'informazione geografica.
    Sul mercato arrivarono dati di straordinaria qualità, e guardacaso c'era anche un'azienda italiana il cui nome inizia per Planetek e finisce con Italia che disponeva di una tecnologia semplice ed efficace come l'ECW per rendere gestibili quelle centinaia di GigaByte di immagini.
    Finalmente si poteva lavorare con un'informazione geografica "originale" e non con un dato derivato come le aereofotogrammetrie che fino a quel momento erano il dato cartografico di riferimento.
    Usare l'ortofoto a colori nel proprio ambiente di analisi e di produzione cartografica permetteva di lavorare con il dato sorgente, e non con un'informazione elaborata da qualcun altro secondo criteri ignoti.

    Perché faccio il paragone tra le ortofoto IT2000 ed i dati LiDAR? Perchè ancora al giorno d'oggi, se andate in giro a chiedere che forma ha un rilievo LiDAR, molti vi faranno vedere straordinari DTM o DSM, rilievi ombreggiati ed altre fantastiche elaborazioni che però nulla hanno più a che vedere con la straordinaria ricchezza di informazioni contenute nel dato originale: quel file LAS che conteneva probabilmente le diverse risposte del segnale laser sulla z (z1, z2 e z3) e magari l'informazione sul colore del pixel.

    Quindi i DTM o DSM derivati da rilievi LiDAR, secondo me, equivalgono alle ortofotocarte di un tempo.
    Oggi invece, avendo gli strumenti software che mi consentono di gestire il dato LAS nella sua integrità, io posso apprezzare il suo contenuto informativo ed utilizzarlo per derivare prodotti cartografici o tematici a più alto valore aggiunto, archiviarli in maniera efficiente senza alterarli né degradarne la qualità.

    Con gli strumenti che per esempio la ERDAS ci mette a disposizione, il dato LAS può essere:
    1. utilizzato per estrarre DEM e DSM sfruttando gli algoritmi di ERDAS Imagine per l'analisi della nuvola di punti;
    2. archiviato con ERDAS APOLLO senza alterare né il formato né la qualità del dato, e pubblicato su Web con tre diverse modalità:
      • come servizio WMS, perché appena APOLLO legge il dato LAS crea immediatamente un rilievo ombreggiato che mi mostra in maniera grafica ed intuitiva quale area è coperta dalla mia nuvola di punti e che aspetto ha;
      • come servizio WCS, perché questo standard conserva le informazioni legate a ciascun layer del dato originale e quindi mi consente di accedere da remoto all'informazione contenuta nel dato nativo, potendo anche processare i dati per produrre nuove informazioni;
      • in download, potendo scegliere se scaricare uno qualsiasi dei dati derivati che sono archiviati sul server o in alternativa proprio quel dato LAS, nel formato originale, che mi servirà per tutte le future elaborazioni, al fine di estrarre esattamente l'informazione che serve alle mie specifiche esigenze applicative.
    (se vuoi approfondire questo discorso puoi leggere quello che ho scritto sul portale ERDAS italiano).

    Vale per il dati LiDAR lo stesso discorso che da sempre faccio per i dati multispettrali acquisiti da satellite.
    Magari per il momento mi serve soltanto l'ortofoto a colori ma, avendone la possibilità, io preferisco di gran lunga avere il dato completo, con tutta l'informazione spettrale che il satellite è riuscito a rilevare quando ha fatto l'acquisizione; ed utilizzare poi quel dato per produrre, volta per volta, l'ortoimmagine a colori, o l'immagine in falsi colori perché ho bisogno di studiare le aree vegetate, o estrarre l'indice di vegetazione per individuare le aree percorse da incendio dopo la stagione estiva...

    Come diceva quel vecchio adagio, se qualcuno ha fame non dargli da mangiare, ma insegnagli a cucinare? Io preferisco "cucinare" i dati da me piuttosto che comprarli precotti.
    Allo stesso modo, anche se in questo momento mi serve soltanto un DTM molto accurato, datemi il LAS - ché al resto ci penso io.

    giovedì 28 luglio 2011

    Sfruttiamo le nuvole di punti

    Prendendo spunto dal White Paper "Rein in 3D Point Clouds with the LAS Format" prodotto dalla ERDAS, ho scritto questo articolo per il portale ERDAS Italia News, riprendendo alcuni concetti che ho presentato nel corso del Tour ERDAS 2011 della scorsa primavera. 

    Ho già parlato in passato dei dati LiDAR su questo blog. Il LiDAR si è evoluto rapidamente e da essere una tecnologia di nicchia ha acquisito la dignità di fonte informativa primaria per la generazione di superfici 3D con scopi commerciali o militari e per l'estrazione di features.
    Il formato LAS nel frattempo è diventato lo standard de facto per l'archiviazione di nuvole di punti acquisite da LiDAR (o estratte mediante analisi stereoscopica di fotogrammi digitali). Questo formato si è affermato come la prima vera soluzione per l’archiviazione efficiente e compatta delle nuvole di punti, ed utile a garantire l’interoperabilità dei dati stessi.

    In origine, come sempre accade con queste nuove tecnologie, i fornitori di dati e le aziende di software utilizzavano formati proprietari diversi per memorizzare i dati, con la conseguenza che il formato di un fornitore non era sempre compatibile con tutti i pacchetti software utilizzati dai potenziali clienti. Un'alternativa all’utilizzo dei formati proprietari è stata (ma c’è chi lo usa ancora oggi!!) quella di memorizzare i dati in un file di testo ASCII, con le informazioni scritte come una serie di valori separati da virgole. I file ASCII sono un po' più interoperabili rispetto ai formati proprietari, ma ancora non sono perfetti per tutte le applicazioni, a meno che non si definisca chiaramente ed a priori il modo in cui le informazioni devono essere archiviate all'interno del file.
    A causa della ricchezza di informazioni contenute nella maggior parte dei dati LiDAR, questi file ASCII possono diventare molto grandi, e di conseguenza pesanti e lenti da aprire, anche quando si memorizza solo una quantità relativamente piccola di informazioni.

    Ecco quindi che arriva il formato LAS. Si tratta di un formato binario che memorizza i metadati LiDAR e tutte le informazioni contenute in una nuvola di punti 3D in una forma relativamente compatta. E' stato inoltre progettato in modo che tutti i dati originali possano essere conservati all’interno di questo simpatico contenitore.

    I vantaggi nell’utilizzo del formato LAS sono quindi relative alla dimensione più piccola dei file, alla facilità di utilizzo dei dati ed in generale una grande versatilità.

    Il formato LAS permette infatti di assegnare ogni punto della nuvola ad una classe, come ad esempio il suolo, la vegetazione bassa, la vegetazione alta o gli edifici. Ciò consente di archiviare tutta la nuvola di punti conservando l’integrità dell’informazione geospaziale acquisita, e di creare prodotti derivati a più alto valore aggiunto dal dataset stesso, senza alterare la consistenza della nuvola di punti stessa. Per esempio, software in grado di gestire i file LAS sono in grado di sopprimere i punti classificati come vegetazione o edifici e concentrarsi esclusivamente sul punti al suolo per produrre un modello nudo di elevazione terrestre (DEM o DTM).

    Oppure lo stesso file con tutti gli stessi dati può essere utilizzato per creare modelli di superficie tridimensionali (DSM) della strutture che insistono sul territorio, assieme al terreno visibile.
    Inoltre i sensori LiDAR, grazie alla loro sensibilità, sono in grado di rilevare oggetti volanti o sospesi quali uccelli, polveri o altro. Il formato LAS permette di contrassegnare questi punti come rumore sospetto, in modo che possano essere ignorati quando i prodotti a valore aggiunto vengono generati, ma senza eliminarli dal file!

    Infine, e questo è molto importante, la nuvola di punti LiDAR può essere fusa con le immagini ottiche a colori (infatti in genere assieme al rilievo LiDAR viene effettuato contemporaneamente l’acquisizione delle ortofoto digitali ad alta risoluzione) in modo che i valori RGB del pixel dell'immagine vengano anch’essi codificati nel file LAS. Ciò consente di ottenere visualizzazioni fotorealistiche in 3D come quella nella figura al lato.

    giovedì 30 giugno 2011

    INSPIRE per la realtà italiana

    Quali sono le prossime scadenze previste da INSPIRE? Quali le norme che regolano una IDT? Quali sono gli standard per la produzione dei Metadati?

    Pubblico qui l'articolo che ho scritto per l'ultimo numero della rivista GeoXperience.
    Da quando la Direttiva INSPIRE per la creazione di un’infrastruttura di dati geospaziali in Europa è stata emanata nel 2007, in Planetek Italia abbiamo avviato un importante processo di adeguamento delle competenze interne e delle soluzioni tecnologiche proposte, al fine di supportare gli utenti italiani ed i nostri clienti nel cogliere quest’importante opportunità.
    Già impegnati nella realizzazione dei più importanti portali cartografici italiani, abbiamo voluto contribuire alla creazione di una comunità di utenti per favorire il confronto sui temi dell'interoperabilità e delle infrastrutture di dati territoriali, per scambiarsi opinioni e condividere esperienze.
    In quest’ottica vanno viste le iniziative volte a creare il Gruppo italiano d'interesse su INSPIRE: ospitato dal Portale ufficiale di INSPIRE, mira a favorire la condivisione di idee ed iniziative utili a diffondere la consapevolezza della comunità geospaziale italiana in merito a INSPIRE ed al suo recepimento in Italia.
    E' un gruppo libero che ospita anche un forum a cui possono partecipare tutti i soggetti, pubblici o privati, interessati alla realizzazione dell'infrastruttura nazionale dei dati territoriali, e che sono invitati a contribuire alla discussione.
    Planetek Italia a livello internazionale è anche riconosciuta in ambito INSPIRE come Comunità di Interesse per i Dati Geospaziali (SDIC, Spatial Data Interest Community) assieme ad altre SDIC ed Enti Pubblici (LMO, Legally Mandated Organisations), essendo coinvolta nella realizzazione del nuovo GeoPortale
    Europeo di INSPIRE.
    L'adesione all'associazione AM/FM GIS Italia (Automated Mapping / Facilities Management e Geographic Information Systems) ed all'OGC (Open Geospatial Consortium), nonché
    l’impegno nella creazione del Forum Italiano dell’OGC conferma la nostra strategia di adottare standard riconosciuti a livello internazionale all’interno delle nostre attività, e l’impegno nello svolgere un ruolo propositivo per la loro adozione anche nel mercato italiano della geomatica.

    Il corso di formazione: INSPIRE per la realtà italiana
    La strada per l’efficace implementazione di INSPIRE a livello nazionale ed internazionale è lunga e caratterizzata da importanti scadenze da rispettare, come quella del prossimo settembre 2011 per l’operatività dei servizi di visualizzazione e ricerca.
    Per aiutare gli utenti nazionali ed i propri clienti a rispettare le scadenze ed i vincoli normativi imposti dalla Direttiva INSPIRE e dalle leggi e decreti che la recepiscono in Italia, abbiamo progettato diversi percorsi formativi sul tema dell’interoperabilità, della pubblicazione e condivisione di dati su Web, sulla realizzazione di Infrastrutture di Dati Territoriali e sull’implementazione di SDI conformi ad INPIRE perché tese a rispettare la legislazione vigente.
    Professionisti, i responsabili e tecnici delle pubbliche amministrazioni che vogliono specializzarsi sull’iter legislativo, sugli standard di produzione dei dati e dei metadati, sulle architetture software ed i servizi previsti dalla normativa INSPIRE possono accedere a percorsi formativi dedicati come il corso “INSPIRE per la realtà italiana”: un corso per potersi orientare e trovare la giusta risposta a tutte le domande in merito all’attuazione della direttiva INSPIRE, affinché questa diventi un’opportunità non solo un obbligo.

    Questo percorso formativo, partendo dallo scenario europeo ed arrivando fino all’analisi approfondita del contesto nazionale, mira a fornire gli strumenti necessari in termini di know-how normativo e tecnico per poter implementare una SDI conforme ad INPIRE ed assolvere a tutti gli obblighi legislativi.
    Non richiede competenze specifiche e prevede la disamina di casi d’uso reali a livello nazionale di adeguamento di alcune infrastrutture pubbliche ai vincoli normativi, con un approfondimento sull’attuale scenario in Italia.
    La prossima edizione del corso è prevista a Bari nei giorni 13 e 14 ottobre 2011.

    lunedì 27 giugno 2011

    Come ti calcolo il consumo di suolo

    Quando ho partecipato alla Conferenza degli utenti del satellite WorldView-2 a Monaco di Baviera, all'inizio del mese, ho raccontato in che modo le nuove immagini mutispettrali ad altissima risoluzione possono servire a tenere sotto controllo il fenomeno del consumo di suolo.
    Il tema del consumo di suolo è estremamente attuale, e lo dimostra anche la quantità di testi sul tema che iniziano ad affollare le librerie (uno che consiglio è ”Paesaggio, Costituzione e Cemento” di Salvatore Settis).
    Per affrontare questo problema nella maniera giusta bisognerebbe mettersi innanzitutto d'accordo su cosa significa consumo di suolo, e me ne rendo conto quando parlo di questo problema con interlocutori diversi: se
    una definizione abbastanza condivisa del concetto di consumo di suolo è quella di “passaggio da uno stato agricolo/naturale a uno stato urbano/artificiale/modellato dall’uomo” (Stefano Pareglio, 22 aprile 2010), non è raro che - soprattutto da parte di chi si occupa di agricoltura - quest'accezione venga usata in tutti i casi in cui le aree agricole vengono destinate ad altro uso.

    Lo scorso maggio a Venezia è stato presentato un interessantissimo lavoro, proprio sul consumo di suolo, fatto dal Sistema Informativo Territoriale della Regione Veneto con l'Urban Atlas HR, la carta d'uso del suolo elaborata da immagini satellitari ad altissima risoluzione per il territorio dei comuni interessati dal "Passante di Mestre".
    Come si evince dalla presentazione di Massimo Foccardi la disponibilità di un dato tematico relativo al 2007 (l'Urban Atlas prodotto nell'ambito del progetto GSE-Land da immagini satellitari SPOT5 a 2,5 m di risoluzione) ed uno del 2010 (anno di acquisizione del dato WorldView-2 sull'area del Passante di Mestre) è servita a calcolare il consumo di suolo nell'intervallo di tempo, confrontando i cambiamenti dell'uso di suolo tra i due periodi. Con un'unità minima mappabile di 0,15 ettari i risultati sono estremamente interessanti ed accurati.

    Quello che ho presentato a Monaco un paio di settimane fa, tuttavia, rappresenta un ulteriore approfondimento del tema. Dopo aver prodotto l'Urban Atlas HR sul Passante di Mestre, infatti, abbiamo fornito il prodotto Preciso® Land (che ha caratteristiche analoghe) a diversi comuni e province in Italia, e nell'ambito di queste attività abbiamo messo a punto una catena di processamento dei dati molto standardizzata. In particolare l'utilizzo delle 8 bande multispettrali del satellite WorldView-2 ci ha permesso di estrarre dalle immagini satellitari, in maniera quasi automatizzata, il layer relativo alle aree impermeabilizzate (soil sealing).

    Il soil sealing, secondo la definizione dell'Agenzia Europea per l'Ambiente (EEA) è quella copertura del suolo dovuta alla urbanizzazione e alla costruzione di infrastrutture, in modo tale che il suolo non abbia più la capacità di svolgere gran parte delle funzioni sue proprie. Nell'immagine qua sopra si riconosce questo layer, di colore giallo, che rappresenta quel "..processo di sigillatura o impermeabilizzazione causato dalla copertura del suolo con materiali impermeabili, o comunque dal cambiamento delle caratteristiche del suolo tanto da renderlo impermeabile in modo irreversibile o difficilmente reversibile" (Legambiente, 2010).

    Il layer del soil sealing è un'informazione binaria (impermeabile/no) che riusciamo ad estrarre mediante complicati algoritmi che io non sono in grado di spiegare (si tratta di oscure addizioni e sottrazioni tra bande multispettrali, ma mi nasconderò dietro il segreto industriale).

    Calcolare la differenza tra le superfici impermeabili estratte da un'immagine di recente acquisizione rispetto ad un dato storico, con un dettaglio corrispondente ai 2 metri del pixel multispettrale, assicura risultati molto più accurati rispetto a quello che si ottiene confrontando i cambiamenti delle classi di uso del suolo.

    Faccio un esempio: un'area in cui le superfici artificiali rappresentano soltanto il 31% del totale sarà classificata come "tessuto residenziale discontinuo e rado" in base alla legenda CORINE. A distanza di qualche anno, se nella stessa area le superfici artificiali avranno raggiunto il 49%, quell'area rientrerà sempre nella classe d'uso del suolo 1.1.2.2 "tessuto residenziale discontinuo e rado" anche se nei fatti il soil sealing è quasi raddoppiato!

    Invece, come si vede dallo schema a fianco, il calcolo puntuale delle aree impermeabilizzate aiuta a capire con maggiore precisione qual è stato il consumo di suolo all'interno di un comune: se una variazione dello 0,16% dell'Indice di Consumo di Suolo (ICS) rispetto all'intera superficie comunale può sembrare trascurabile, quando si va a raffrontare con le sole superfici urbanizzate ci si accorge che il dato schizza al 3,7% in meno di 4 anni!

    E' chiaro quindi quale sia il vantaggio di monitorare questi fenomeni mediante le immagini multispettrali telerilevate da satellite: la possibilità di effettuare acquisizioni ripetute nel tempo e a costi contenuti, e di usare procedure standardizzate per l'estrazione di informazioni da questi dati, permette di superare il limite di non aver mai raccolto ed elaborato finora, con sistematicità e criteri univoci, l'informazione relativa all'impermeabilizzazione dei suoli. Un confronto tra informazioni omogenee, calcolate secondo procedure standardizzate a distanza di tempo, aiuta a monitorare con grande precisione ed a costi contenuti queste variazioni.

    lunedì 20 giugno 2011

    Dietro le quinte del GeoXperience

    Questa settimana sarà difficile evitarci, perché incontrerete i miei colleghi di Planetek Italia:
    La prossima settimana invece saremo ad Edinburgo per la Conferenza INSPIRE 2011: Sergio, Jens, Cristoforo, Mauro ed io.
    In tutte queste occasioni avrete l'opportunità di ritirare gratuitamente l'ultima copia, fresca di stampa, del GeoXperience: il nostro magazine semestrale che in quest'ultimo numero parla di applicazioni del telerilevamento, INSPIRE ed opportunità per la formazione.
    GeoXperience Giugno 2011

    Racconto un po' come siamo arrivati a produrre questo numero di giugno 2011.

    Innanitutto l'editoriale doveva inizialmente essere scritto da Mariella Pappalepore, che però da quando è diventata presidente del Terziario Innovativo di Confindustria ha... aggiunto un'inebriante complessità alle sue giornate. Il magazine nel frattempo stava prendendo forma, con gli articoli sulle applicazioni dei dati di osservazione della Terra, del telerilevamento di prossimità mediante UAV e delle foto aeree. Così abbiamo deciso di dare un po' di tregua alla nostra presidentessa preferita e valorizzare un articolo che Enzo Barbieri aveva scritto sul Blog di Planetek Italia qualche tempo fa, a proposito della difficoltà di gestire dati eterogenei quando si lavora nel campo della geomatica per prendere decisioni importanti per il governo del territorio.
    Eh si, in fondo chi segue le nostre attività ha già capito che gli articoli del GeoXperience altro non sono che una selezione del meglio che viene pubblicato sui nostri diversi canali di comunicazione: il sito Web, il Blog aziendale, il forum interno e naturalmente i classici comunicati per la stampa.

    Viene prima l'articolo sul blog o quello per il GeoXperience? Non c'è una regola. Una volta definiti i contenuti del numero di prossima pubblicazione, tutto quello che è stato già prodotto viene ricicl... ehm... valorizzato, mentre nel frattempo i nuovi articoli vengono immediatamente pubblicati sul sito Web o sui blog per avviare il dialogo con i nostri utenti, e quando arriva il momento di andare in stampa se ne fa una sintesi e la si impagina nel magazine. Questo è il motivo per cui, nella versione scaricabile in PDF del GeoXperience, per ogni articolo c'è un link che rimanda al sito web o all'articolo sul Blog per raccogliere eventuali commenti o osservazioni.
    Beh, adesso non vi resta che sfogliarlo e dirci se vi piace.
    Buona lettura!

    venerdì 3 giugno 2011

    Ambiente, territorio e sostenibilità

    More about Rappresentare il territorio e l'ambienteHo scoperto una recente pubblicazione curata dal caro Michele Munafò, che conosco da diversi anni per la sua attività in ISPRA in cui, tra le altre cose, è coordinatore del gruppo di lavoro INSPIRE.
    Si tratta del libro dal titolo "Rappresentare il territorio e l'ambiente", e a quanto pare è il primo numero di una collana della Bonanno editore su Ambiente, Territorio e Sostenibilità.
    Devo confessare che se il libro non mi fosse capitato tra le mani, probabilmente la quarta di copertina non mi avrebbe conquistato (ma chi l'ha scritta?!). Invece sfogliandolo ho pensato: questo è il tipico libro che chi lavora in Planetek non può non leggere. In senso lato, è una lettura che consiglio sia a chi già opera nel campo del monitoraggio ambientale che a quanti si avvicinano al settore e vogliano farsi un'idea generale di ciò che li aspetta. L'impostazione infatti è più divulgativa che scientifica, e mi sembra che gli autori dei vari capitoli (una quindicina di nomi più o meno noti nel nostro settore) abbiano fatto molta attenzione a non scadere nel tecnicismo.

    Il libro si sviluppa in tre parti principali.
    La prima parte racconta come si fa a conoscere e rappresentare il Territorio, e quindi spazia dalla geodesia al telerilevamento, dall'uso del suolo agli indicatori statistici, e ciò che mi piace è che tutto è estremamente attuale e concreto, come nel paragrafo in cui si parla di INSPIRE e della successiva Comunicazione SEIS ("Verso un sistema condiviso di informazioni ambientali").
    La seconda parte si chiama Ambiente, ed affronta i problemi relativi alla pianificazione ed alle sue ricadute sull'ambiente, ai processi di partecipazione dei cittadini alla pianificazione (anche questo, non è attualissimo?) ed alla valutazione ambientale mediante indicatori e modelli.
    L'ultima parte è dedicata agli strumenti, e quindi si parla inevitabilmente di GIS, GPS, fotogrammetria ecc.

    Mi è piaciuto molto che alla fine sia della prima che della seconda parte ci siano due interi capitoli dedicati alle basi di conoscenza e fonti di dati, indispensabili per orientarsi tra le risorse a disposizione di chi si occupa di rappresentazione del territorio o di informazioni ambientali.

    In conclusione, a differenza di opere simili che ho trovato in giro e che a volte sembrano un'accozzaglia di vecchi articoli rilegati assieme, questo volume ha il pregio di seguire un preciso filo logico nella presentazione dei temi e di regalare una fotografia aggiornata della situazione nazionale ed europea, a beneficio di chi si occupa di analisi territoriali ed ambientali.

    lunedì 16 maggio 2011

    Troviamo la Posidonia Oceanica con il satellite

    E’ ormai noto che i dati di osservazione della Terra possono fornire un enorme contributo al monitoraggio delle aree costiere, grazie ai tipici vantaggi offerti dal satellite per questo genere di applicazioni: visione sinottica di grandi aree marine, frequenza dei passaggi e tempi di rivisitazione, rapidità nell’acquisizione e pronta disponibilità di dati aggiornati.
    Fino a poco tempo fa, tuttavia, le caratteristiche dei dati disponibili limitavano l’utilizzo del telerilevamento satellitare al monitoraggio di vaste aree marine. Oggi invece la tecnologia mette invece a disposizione nuove risorse, come i sensori multispettrali di ultima generazione, estremamente importanti dal punto di vista sia scientifico che applicativo perché consentono di monitorare specifiche aree costiere e tenere sotto controllo fenomeni rilevanti dal punto di vista sia ambientale che paesistico.

    Confronto tra immagine satellitare e mappatura della vegetazione sommersa
    Vediamo oggi come siamo riusciti a sfruttare queste risorse per studiare la presenza in mare di un tipo di vegetazione così importante per la difesa delle coste mediterranee come la Posidonia Oceanica.

    Ho scritto questo articolo per pubblicarlo sul prossimo numero del nostro magazine GeoXperience, che uscirà nei prossimi giorni, e per farlo ho utilizzato un report interno realizzato dai colleghi Giulio Ceriola e Claudio La Mantia, che ringrazio per avermi messo a disposizione questo materiale.

    La Posidonia oceanica è una pianta acquatica, tipica del Mar Mediterraneo, fondamentale per il suo ruolo di difesa delle coste. In comune con le piante terrestri, infatti, la Posidonia ha radici, fusto e foglie a forma di nastro che possono arrivare fino ad un metro di lunghezza, tipicamente in ciuffi di sei o sette. Questa pianta forma delle vere e proprie “praterie” sottomarine che costituiscono un forte freno alle onde ed alle correnti. Inoltre le stesse foglie morte, quando si stratificano sulla battigia, formano normalmente grossi cumuli che offrono di per sé una valida difesa contro le onde.
    All’interno delle praterie di Posidonia oceanica vivono inoltre molti organismi animali e vegetali che nella prateria trovano nutrimento e protezione, rendendola quindi un’essenziale risorsa non solo per la lotta all’erosione costiera, ma per la protezione di tutto l’ecosistema marino.

    I satelliti ad altissima risoluzione disponibili oggi rendono disponibili a livello commerciale immagini multispettrali che permettono di studiare la distribuzione delle praterie di Posidonia nei nostri mari.
    In particolare il satellite WorldView-2 della DigitalGlobe, di cui ho già parlato su questo blog, monta un sensore multispettrale che associa ai 50 centimetri di risoluzione spaziale ben 8 bande multispettrali, risultando così essere il primo satellite commerciale ad alta risoluzione in grado di acquisire, accanto alle classiche bande del Blu, Verde, Rosso ed Infrarosso Vicino, quattro bande mulispettrali finora mai viste su un satellite ad altissima risoluzione: la Costiera, la Gialla, la Red Edge e la Vicino Infrarosso 2.
    In particolare la banda Costiera, che corrisponde ad una lunghezza d'onda prossima all’ultravioletto, consente di effettuare analisi specifiche sui primi strati superficiali dell’acqua, in prossimità ad esempio della linea di costa, ed è particolarmente indicata per analisi batimetriche. Analizzata in combinazione con le altre bande multispettrali permette inoltre di distinguere diversi tipologie di vegetazione sommersa.

    La mappatura della vegetazione sommersa
    Quando si vuole mappare un habitat subacqueo, la profondità dell'acqua ha degli effetti molto significativi sulle misure telerilevate, tanto da indurre a confondere la risposta spettrale della sabbia pura con quella di un substrato ricoperto di alghe, o dei vari substrati in genere.
    Con un’opportuna procedura di correzione atmosferica è tuttavia possibile sottrarre la frazione di segnale derivante dall’interazione della luce con l’atmosfera nelle varie bande. In questo modo è quindi possibile conoscere le proprietà e le caratteristiche intrinseche dell’acqua di mare.

    Successivamente si può procedere alla costruzione della mappa della vegetazione sommersa, mediante un’elaborazione del dato satellitare multispettrale ortorettificato basata sul metodo di Lyzenga per la rimozione della risposta spettrale della colonna d’acqua. Quest’algoritmo è basato sul presupposto che la radianza alla superficie dell’acqua sia approssimativamente una funzione lineare della riflettanza del fondo e una funzione esponenziale della profondità dell'acqua. Tale elaborazione ha lo scopo di far risaltare le caratteristiche spettrali del fondale marino in tutte le bande del sensore WorldView-2. Se disponibili, si possono utilizzare informazioni reali sulla batimetria per aumentare l’efficienza di tale processo.

    La successiva elaborazione consiste nella classificazione supervisionata del fondale marino, basata su aree di training per ciascuna delle classi da individuare. Questo processo si basa infatti sull’uso di aree note di pixel dell’immagine, definite appunto aree di training, per allenare l’algoritmo di classificazione a identificare altre aree dell’immagine (pixel) con caratteristiche simili. La tipologia di classificazione presa in considerazione in quest’attività è basata sulle firme spettrali delle varie tipologie di fondale marino osservato, sfruttando le otto bande del sensore WorldView-2: proprio questo tipo di dato offre un considerevole contributo a questa analisi grazie alla sua elevata risoluzione spaziale (2 metri per il dato multispettrale) e radiometrica (11 bit). Le aree di training, nel caso della mappatura della Posidonia Oceanica, possono essere identificate da un operatore esperto mediante l’interpretazione dell’immagine WorldView-2 e l’analisi della firma spettrale degli elementi vegetazionali. Poiché la bontà di questo metodo è tanto migliore quanto più affidabili sono i dati di training, eventuali rilievi in situ possono contribuire ad individuare con maggiore accuratezza le aree di training, aumentando di conseguenza l’accuratezza della classificazione.

    venerdì 22 aprile 2011

    Il Geoportale Europeo di INSPIRE? Lo fanno gli italiani!

    Lo scorso inverno è stata bandita una gara internazionale per sviluppare il nuovo Geoportale Europeo di INSPIRE. L'obiettivo di questo sistema è quello di rappresentare un punto unico di accesso al patrimonio geoinformativo ambientale messo a disposizione da tutti gli stati membri della Comunità Europea.
    Nonostante la concorrenza agguerrita di 15 tra le più rinomate ed importanti società internazionali, questa gara è stata vinta da un' azienda italiana , indivinate chi? :-)
    Siamo riusciti con questo risultato a valorizzare l'esperienza di tanti anni nell'implementazione di infrastrutture di dati territoriali per i nostri utenti nazionali, e l'applauso che abbiamo ricevuto ogni volta che ho parlato di questo avvenimento negli incontri dell'ultimo mese è stato sempre un momento di grande soddisfazione.

    Per saperne di più sul Geoportale Europeo di INSPIRE ma in generale per essere aggiornati sulle strategie Europee in questo campo c'è un importante appuntamento fra poco: la Conferenza INSPIRE 2011 che si terrà a Edinburgo, in Scozia, dal 27 giugno al 1° luglio prossimi.



    Sul sito ufficiale della conferenza è stato pubblicato il calendario dei diversi appuntamenti della settimana, ed anche se il programma è ancora preliminare, la struttura della conferenza è la seguente:

    I workshop sono relativi ad attività di laboratorio, con tutorial ed esercizi da svolgere per in aula, con i PC portatili. A questo link c'è il calendario preliminare dei workshop.

    Le sessioni parallele danno spazio a quanti hanno presentato contributi in seguito alla Call for Paper, e sono organizzate per tema, con 15' circa di tempo per ciascuna presentazione orale. Le sessioni plenarie invece riguardano i più importanti temi di interesse comunitario. Qui trovate il programma preliminare della Conferenza con tutti gli interventi.

    La sessione poster si svolge nella prima serata della conferenza, e ci sarà anche una nostra presentazione in merito alle questioni da affrontare quando si vuol realizzare un'infrastruttura di dati nazionali, mettendo a frutto l'esperienza che abbiamo fatto con Geoportale.it. Qui il programma preliminare della sessione poster.

    Appuntamento allora ad Edinburgo dal 28 giugno in poi per la conferenza INSPIRE del 2011!

    martedì 29 marzo 2011

    ERDAS World Tour 2011: si parte!!

    Parte oggi da Roma questa nuova avventura che ci vedrà impegnati in giro per l'Italia per le prossime tre settimane.

    Mario ed io proveremo a raccontare in che modo trasformare i dati in informazioni utili a produrre conoscenza, per prendere decisioni ed agire in modo efficiente ed efficace.

    E quando parlo dei dati intendo tutte le fonti informative disponibili oggi: le immagini telerilevate dai più moderni sensori satellitari o aerei, le ortofoto, le stereocoppie, i rilievi LiDAR, ma anche dati non necessariamente spaziali o non geografici.

    Qui trovate il comunicato stampa con cui la ERDAS si è vantata di avere un partner come Planetek in Italia, ed abbiamo avuto talmente tante iscrizioni che oggi la tappa di Roma è "sold out".. o meglio, abbiamo esaurito i posti disponibili (perché per partecipare ai nostri eventi non si paga!!!).
    Anche domani a Palermo sono rimasti pochi posti! Fate ancora in tempo però ad iscrivervi alle prossime tappe, la prossima settimana a Milano e Venezia, poi Cagliari e Bari, ed infine Ancona.


    Visualizzazione ingrandita della mappa

    29 Marzo 2011 - Roma
    30 Marzo 2011 - Palermo
    05 Aprile 2011 - Milano
    07 Aprile 2011 - Venezia
    12 Aprile 2011 - Cagliari
    14 Aprile 2011 - Bari
    19 Aprile 2011 - Ancona

    Vi aspetto!

    lunedì 7 marzo 2011

    Monitorare il rischio frana da satellite

    Sull'ultimo numero della rivista GeoMedia c'è un interessante articolo di Salvatore Costabile e Marida Paci che parla di come il Ministero dell'Ambiente abbia costituito una banca dati rappresentativa dei movimenti del terreno in Italia.
    Ho già parlato su questo blog della tecnica PSI (Persistent Scatter Interferometry). Questa tecnica usa immagini radar (SAR), acquisite in epoche diverse sulla stessa area, per individuare oggetti che "riflettono" molto bene il segnale radar: opportune tecniche interferometriche consentono, confrontando le diverse immagini radar, di monitorare questi oggetti nel corso del tempo, individuandone gli spostamenti anche minimi sul terreno.
    Grazie a questa tecnica è possibile quindi tenere sotto osservazione le deformazioni del terreno, con particolare attenzione ovviamente per i fenomeni di dissesto.
    Proprio con riferimento a questo tema ho trovato interessante l'articolo di Costabile, ed ho chiesto ai colleghi di GeoMedia di poterlo rendere disponibile qui in PDF per il download, perché secondo me schematizza molto bene quali fenomeni possono essere monitorati con l'interferometria PSI e quali no, e perché, spiegando giusto per fare un esempio quali limiti incontra la tecnologia in caso di ribaltamento roccioso o crolli.

    La lettura di questo articolo è particolarmente utile per chi è interessato a seguire il convegno che si terrà a Roma domani, martedì 8, e mercoledì 9 marzo, dal titolo "Monitorare il rischio frana da satellite". Questo workshop illustra i risultati del progetto Morfeo, finanziato dall’Agenzia Spaziale Italiana per produrre informazioni utili per la gestione dell’emergenza da parte del Sistema Nazionale di Protezione Civile.
    L'evento si tiene presso la sede del Dipartimento di Protezione Civile (mercoledì invece l'appuntamento è in ASI per gli aspetti relativi alla ricerca) e permetterà di comprendere quale contributo posso offrire le tecnologie di osservazione della Terra in situazioni di emergenza nelle fasi pre-evento (consentendo il riconoscimento e la mappatura delle frane, la valutazione della suscettibilità, della pericolosità e del rischio da frana), nella fase di risposta all’allertamento (supportando il monitoraggio delle frane stesse) e dopo l'evento (con la stima del danno da frane).

    lunedì 28 febbraio 2011

    Cosa c'entra Planetek con la Ferrari

    Nella sezione "Aziende e Prodotti" dell'ultimo numero della rivista Geomedia c'è un articolo che parla della "Missione di Planetek".
    "L'immagine del Ferrari World di Abu Dabi sintetizza due cose indiscutibili, la leadership italiana nelle tecnologie alte come quelle usate dai piloti di Formula 1, e le scienze del telerilevamento come frontiera delle tecnologie spaziali al servizio della Terra, ovvero del telerilevamento. Quest'ultimo è appunto la missione di Planetek in termini di progetti e in termini di prodotti. E le ultime novità presentate ad ASITA parlano, infatti, della nuova release di ERDAS 2011 e di Preciso® Italia [...]"
    Ho sorriso leggendo quest'articolo, perché ho riconosciuto il tocco di Mimmo Santarsiero, che propone una chiave di lettura originale ed insolita della nostra missione.
    Questo mi dà lo spunto per parlare dell'ultimo numero del nostro magazine semestrale, il GeoXperience, che in copertina presenta appunto quell'immagine acquisita l'11 marzo dello scorso anno dal satellite QuickBird.
    GeoXperience Novembre 2010

    Abbiamo messo quest'immagine in copertina per il fascino indubbio del soggetto rappresentato, il Ferrari World, e per la curiosità che sapevamo avrebbe suscitato nei nostri lettori; c'era inoltre un nesso diretto con l'editoriale del nostro direttore tecnico Sergio Samarelli, in terza pagina, che parla della travolgente disponibilità di dati di osservazione della Terra e di come il pubblico stia diventando ormai affamato di informazioni sempre più aggiornate:
    "[...]La copertina di questo numero è un valido esempio a supporto della necessità di avere sempre maggiori coperture temporali: ad oggi (novembre 2010) su Google Maps c'è una immagine dell'area di agosto 2009 che mostra un enorme cantiere. Già nella nostra copertina (marzo 2010) l'area ha un aspetto più vicino a quello attuale, ma comunque il centro Ferrari di Abu Dhabi è ormai stato inaugurato, e anche i pochi cantieri che si vedono nell'immagine di marzo non ci sono più. Comunque chiunque abbia voglia di vedere l'area nel suo stato attuale può chiedere una nuova acquisizione e disporne nel giro ormai di pochi giorni."

    Sergio aveva già affrontato la questione sul Blog di Planetek, in un articolo dal titolo I dati geospaziali creano dipendenza!, che aveva scatenato un interessante dibattito.
    L'immagine di copertina del GeoXperience quindi, quando il giornale è andato in stampa a novembre, era già vecchia! Oggi infatti l'area dove sorge il Ferrari World ha un aspetto molto più simile a quello che vedete affianco, nell'immagine acquisita il 19 ottobre 2010 con 50cm di risoluzione dal satellite WorldView-2.
    Anch'essa, già vecchia.