18 oct. 2019

Los datos abiertos y sus enemigos


¿Puede tener consecuencias graves publicar datos y servicios geográficos abiertos, es decir con un mínimo de barreras? ¿Se debe publicar toda la información, siempre y en todo caso, sin ninguna limitación? Parece evidente que en algún caso, sí. No hay más que ver la lista de aspectos que no deben ponerse en peligro según la Directiva INSPIRE:
  • La confidencialidad de procedimientos administrativos fijados por ley.
  • Las relaciones internacionales, la defensa nacional o la seguridad pública.
  • El desarrollo de los procedimientos judiciales y las investigaciones criminales o disciplinarias.
  • La confidencialidad de datos de carácter comercial e industrial, cuando estén legalmente contempladas, incluyendo la confidencialidad estadística y el secreto fiscal;.
  • Los derechos de propiedad intelectual.
  • La confidencialidad con que la ley proteja los datos personales de difusión no autorizada.
  • Los intereses y datos personales de voluntarios que hayan facilitado información sin consentir su divulgación. 
  • La protección del medio ambiente, por ejemplo la localización de especies raras.
Vamos a fijarnos en dos de los aspectos que pueden ser más delicados, la seguridad y la privacidad. 
  
En las JIIDE2018 hubo una presentación muy interesante sobre el tema de la seguridad, a cargo de Javier Valencia. Parece razonable ser prudentes a la hora de publicar infraestructuras sensibles que pueden poner en peligro la seguridad y a salud públicas, como redes de electricidad, agua, gas, fibra óptica, comunicaciones y utilities similares, incluidos en la Directiva INSPIRE el tema 6 del anexo III, servicios de utilidad pública y estatales. Son datos de uso profesional, que en principio no parecen de interés para el público en general, y parece lógico restringir su acceso. 

Aunque quizás debieran ser las autoridades competentes, como Protección Civil, el Ministerio del Interior, el Ministerio de Defensa, especialistas en la materia, las que marcas en las pautas y reglas a seguir. Es posible que no tenga mucho sentido que cada organismo productor de datos y publicador de servicios tome las decisiones de qué publicar y cómo hacerlo.
  
Algo parecido pasa con la privacidad de las personas y los datos personales, protegidos por el RGDP.  Al publicar datos con la localización de las personas anonimizados, no es fácil a veces garantizar que no puedan ser utilizados para identificar datos personales (véase esta entrada, por ejemplo) si se cruzan con otros datos. A ese respecto, puede resultar muy interesante tener en cuenta estas «Orientaciones y garantías en los procesos de anonimización de datos personales». De nuevo me parece que lo razonable es buscar orientación en los expertos en la materia, en este caso la Agencia de Protección de Datos.

En ese sentido, una tentación es que la administración se cubra las espaldas e intente protegerse contra esos malos usos de los datos en la licencia, con cláusulas del tipo «No se permite realizar usos ilegales de estos datos» o «No se permite usar estos datos para identificar a personas individuales», pero eso tiene varios inconvenientes: viola la filosofía y las condiciones de los datos abiertos, que deben ser datos sin barreras de ningún tipo para su uso y reutilización; y en general,mi opinión es que las licencias paternalistas que tratan de decirle al usuario lo que debe hacer o no hacer (salvo cómo quiero que gestione los derechos de autor del productor) no causan más que problemas y constituyen una barrera para tener datos abiertos.

Probablemente el RGPD sea la mejor portección contra esos malos usos de la información, mucho más eficaz que los términos de una licencia, y la mejor manera de evitarlos sea simplemente no publicar datos ni de instalaciones que pongan en riesgo la seguridad ni datos que no estén anonimizados.

Mi opinión es que el marco legal es el que debe proteger contra las actividades no deseadas (que así se convierten en ilegales) y tratar de legislar a través de las licencias es menos eficaz y además va en contra de la publicación de los datos libres. En cualquier caso, el tema puede dar lugar a un debate interesante y creo que debemos pensar en estas cuestiones.

Publicado por Antonio F. Rodríguez.

17 oct. 2019

Visualizador de viajes balleneros

https://public.tableau.com/views/WhalingVoyages/Whales?:showVizHome=no
Desde luego, hay mapas fascinantes que consiguen aunar una estética impresionante con una inusitada eficacia para transmitir información. Hoy os quiero mostrar un estupendo mapa de más de 70 000 viajes balleneros americanos realizados entre 1784 y 1920. 

Están clasificados mediante colores en función de la especie de ballena, cada punto representa un avistamiento o un animal cazado. Los datos proceden de whalinghistory.org, el diseño es de Alexander Varlamov y está realizado utilizando Mapbox y OpenSteetMap en una plataforma (tableau) para realizar y publicar mapas y gráficos.

Otro notable ejemplo de lo que se puede hacer cuando hay datos abiertos interesantes.

Publicado por el editor. 

16 oct. 2019

Nuevos productos derivados del vuelo LiDAR 2017 de Navarra

http://ww2.pcypsitna.navarra.es/Participa/Blog1/Lists/Entradas%20de%20blog/Post.aspx?ID=152
Sombreado anisotrópico del MDS en semitransparencia con el Mapa Base.

Dentro del proyecto colaborativo entre Comunidades Autónomas y Estado llamado PNOA, el Departamento de Cohesión Territorial de la Comunidad Foral de Navarra realizó en el 2017 un vuelo LiDAR de de 14 puntos/m2, el primero hecho en Europa, con un aumento espectacular de densidad comparado con el punto por m2 del anterior.

A lo largo del año 2018 fué necesario poner a punto procesos de clasificación mejorada de los puntos LiDAR utilizando técnicas de Inteligencia Artificial. Esa clasificación de la nube de puntos distingue diferencias entre suelo, vegetación (baja, media y alta) y edificaciones; datos que se han publicado como datos abiertos en el novedoso formato LAZ 1.4, en la Cartoteca y Fototeca de Navarra y desde el FTP de Cartografía del Gobierno de Navarra, acompañada de una aplicación gratuita para la agregación y transformación de formatos LAZ (LiDAR Converter). 

El Departamento de Cohesión Territorial ha colaborado con el Departamento de Universidad, Innovación y Transformación Digital para facilitar el uso y difusión de los datos LiDAR, generando una serie de productos básicos con dos resoluciones, 50 cm y 2 m: 
  • Un Modelo Digital del Terreno (MDT), en el que se han eliminado los puntos clasificados como vegetación y edificios.
  • El Modelo Digital de Superficie (MDS), que contiene todos los elementos.
Ambos en formatos XYZ y ASCII, en unidades cortadas por marcos de hoja del mapa topográfico 1:10 000. 

Despues de publicar esos datos mediante servicios de visualización y descarga, se ha preparado una colección de sombreados de 50 cm de resolucón, tanto del MDT como del MDS, para publicarlos en IDENA bajo los epígrafes «Cobertura de la tierra - mapas básicos e imágenes» y «Mapas de relieve»:
  • Sombreados tradicionales en escala de grises con una elevación solar de 45º y orientación de 315º. Los sombreados en color se han obtenido superponiendo una imagen hipsométrica por alturas al sombreado. Se pueden ver ejemplos con ntes vistas sobre La Barranca y San Miguel de Aralar o navegar a otros lugares con los MDT blanco y negro o color y MDS blanco y negro o color.
  • El «Mapa de relieve clasificado en color» del MDS ofrece una vista diferente, un sombreado al que se le ha aplicado un resalte a las clases de suelo, vegetación, edificios y agua, que mejora notablemente la interpretación de esos fenómenos.
  • En los dos sombreados anteriores pueden provocar sombras en determinadas zonas. Como novedad, se han publicado dos nuevos productos, siguiendo la técnica de sombreado anisotrópico con iluminación difusa, que se generan utilizando fuentes de luz desde distintas direcciones, ponderando el resultado en función de su comportamiento tratando de alcanzar el máximo realce. Son sombreados en blanco y negro y los hay derivados del modelo del terreno y del de superficie. Esos nuevos productos permiten realizar una mejor inspección visual del modelo e incluso la detección de elementos superficiales, para su uso en múltiples aplicaciones como pueden ser la arqueología o la producción cartográfica. 
Para un uso profesional, se han incorporado además al servicio de coberturas (IDENA - WCS) cinco nuevas capas completas y continuas de Navarra, con una resolución de 2 m de paso de malla: el Modelo Digital del Terreno, el de Superficies, Altura sobre el terreno (como diferencia entre el MDS y el MDT), Pendiente (en porcentaje) y Orientación (en grados), para integrarlos directamente en cualquier proyecto que se realice con Sistemas de Información Geográfica, ahorrandose así pesadas descargas.

En ese sentido, ya se han actualizado con el nuevo MDT los servicios de consulta de altitudes e interpolación de entidades en los elementos seleccionados o dibujados en el visualizador de IDENA y el modelo en relieve para la navegación en modo 3D. Está ya prevista la ampliación de la consulta para que suministre también los valores desde el MDS y el modelo de alturas de los objetos; lo que permitirá conocer el tamaño de árboles, edificaciones y cualquier otro elemento no clasificado como suelo.

Para más información véase esta nota de prensa.

Publicado por Fernando Alonso-Pastor. 

15 oct. 2019

9º Encuentro APORTA sobre los datos de alto valor

https://datos.gob.es/es/eventos/la-nueva-edicion-del-encuentro-aporta-se-centrara-en-los-datos-de-alto-valor

Ya se está preparando el 9º Encuentro APORTA, previsto para el próximo 18 de diciembre en Madrid y en horario de mañana, de 9:00 a 14:30. En esta ocasión, el tema fundamental serán los datos de alto valor, mayoritariamente públicos, pero también privados en parte, un núcleo de información esencial por su gran impacto en la sociedad.

La  Directiva (UE) 2019/1024 de Reutilización y datos abiertos define como datos de alto valor los datos geoespaciales, ambientales, meteorológicos, estadísticos, de las sociedades mercantiles y de la movilidad. Esos datos se consideran clave para dinamizar servicios innovadores y generar beneficios socioeconómicos y medioambientales para toda la población.

La jornada se organizará en torno a tres mesas redondas de debate:
  • Hacia la disponibilidad de datos de alto valor, en donde participarán administraciones públicas productoras de ese tipo de datos.
  • Acelerando el uso de datos de alto valor, con representantes de aceleradoras de negocios e iniciativas dedicadas a contribuir a superar las barreras a las deben hacer frente las pymes y las start-ups especializadas en datos, 
  • Haciendo uso de los datos públicos de alto valor, formada por agentes del sector reutilizador que debatirán sobre las oportunidades que brinda la disponibilidad de datos de alto valor y los retos a los que es preciso hacer frente para incentivar su uso.
El orden del día sepublicará en las próximas semanas. Se pueden seguir las novedades del evento en redes sociales, con el hashtag  #Aporta2019 y en datos.gob.es. Como en otras ocasiones, la sesión podrá seguirse en streaming. Ya podéis marcar la fecha en el calendario: 18 de diciembre.

Publcado por el editor.

14 oct. 2019

Cómo va la neutralidad de la red

Este es uno de esos temas que se mantiene en la actualidad bastante tiempo y que vale la pena recapitular de vez en cuando por su importancia.

Repasemos. La neutralidad de la red es un principio que establece que el tráfico de datos en Internet debe ser tratado por igual independientemente de su contenido, sin que varíen ni la tarifa ni la velocidad de navegación en función de qué datos se estén transmitiendo, qué páginas web se visiten o qué soluciones tecnológicas tenga el usuario (sistema operativo, navegador, software en general y dispositivo).

El término fué acuñado en 2003 por el profesor Tim Wu de la Universidad de Columbia y implica, sobre todo, que los proveedores de servicios de internet proporcionen los mismos servicios y a las mismas tarifas a todos los usuarios y proveedores de contenidos. Hay que tener en cuenta que es razonable diferenciar el tráfico en la red para priorizar las comunicaciones de los servicios de emergencias, la gestión de la propia red de las operadoras y el uso de servicios críticos, como los de teleasistencia y otros parecidos. 
 
Algunos países han regulado por ley estas cuestiones: Chile se convirtió en 2010 en el primer país en aprobar una ley (la Ley N° 20.453) a favor de la neutralidad de la red; el Parlamento Europeo votó en 2014 a favor de la neutralidad de la red y ha aprobado varias medidas en esa dirección, y en España, la Ley General de Telecomunicaciones (Ley 9/2014) establece en su artículo 3 h) como uno de sus objetivos y principios  «fomentar, en la medida de lo posible, la neutralidad tecnológica en la regulación».
 
Sin embargo, no está claro cómo esos marcos legales y las buenas intenciones de algunos países pueden afectar al órgano regulador de la red, la Comisión Federal de Comunicaciones (FCC), cuyas disposiciones afectan a los grandes proveedores de Internet. Tras una historia llena de altibajos, está presidida desde 2017 por el polémico Ajit Pai, poco favorable a la neutralidad de la red, que promovió que la FCC se declarase no competente para sancionar las violaciones de la neutralidad.

En los últimos años, ha habido un buen número de caso preocupantes, unos más dudosos que otros de violar la neutralidad, desde compañías que ofrecen en un mismo paquete acceso a banda ancha junto y a una plataforma determinada de series y películas, hasta las diferencias en velocidad con que se accede a Netflix desde distintos proveedores de Internet, pasando por el zero rating, tarifas que ofrecen datos gratuitos para el tráfico generado por determinadas aplicaciones como redes sociales, vídeo, música o mensajería.
 
En cualquier caso, el dejar las manos libres para que los grandes proveedores de Internet actúen libremente y establezcan políticas comerciales propias puede tener consecuencias poco deseables, como ya se está viendo: la banda ancha puede tener recargos en zonas rurales poco conectadas y de baja rentabilidad, con lo que puede aumentar la brecha digital, las grandes compañías pueden bloquear las iniciativas innovadoras que los grandes genios puedan lanzar desde un garaje de forma independiente y puede desaparecer la libre y sana competencia de tarifas. En este artículo hay un interesante análisis de las consecuencias negativas.

Por rmencionar solo tres casos preocupantes ocurridos después de que la FCC dejase de proteger la neutralidad y algunas prácticas empresariales, mencionaremos: 
Por otro lado, hay que puntualizar primero que solemos pensar en Internet como una red única en todo el mundo y con las mismas reglas de funcionamiento, pero la verdad es que no es así, especialmente en China, donde la red está tan censurada y controlada que prácticamente es otra red, y en Rusia, que hace poco se desconectó de Internet para probar una red propia, nacional y soberana.

Volviendo a la neutralidad de la «red occidenta, el futuro es incierto y parece que su restablecimiento depende en buena medida de los jueces y del Congreso estadounidenses. Ahora mismo Hay al menos tres propuestas sobre la neutralidad de la red, como la iniciativa del Partido Demócrata de invalidar la decisión del 2017 de la FCC y volver a las reglas de juego anteriores. 

Si os interesa el tema, Free Press es una iniciativa en favor de la libertad, apertura y transparencia de los medio de comunicación en general y en particular de la red.

Como ya hemos comentado alguna vez, creemos que la neutralidad de la red es un principio fundamental que vale la pena defender y que puede ser especialmente importante para los datos geográficos, que suelen ser muy voluminosos y constituyen un campo en el que las soluciones comerciales tienen una gran presencia.

(Para redactar esta entrada hemos tomado buena parte del contenido de este artículo).

Publicado por Antonio F. Rodríguez.

10 oct. 2019

TerraClass, un geoportal sobre la Amazonía

https://www.terraclass.gov.br/webgis/

El geoportal TerraClass ofrece datos abiertos, que se pueden descargar, sobre zonas desforestadas de la Amazonía para los años 1991, 2000, 2004, 2008, 2010, 2012 y 2014, y un potente visualizador que muestra servicios estándar WMS (https://www.terraclass.gov.br/geoserver/TerraClass/wms?SERVICE=WMS&REQUEST=GetCapabilities) y herramientas de análisis en línea muy interesantes,algunas orientadas a ver cómo ha evolucionado el uso del suelo en el tiempo. 

El Proyecto TerraClass, gestionado por Corporación Brasileña de Investigación Agrícola (EMBRAPA) y el Instituto Nacional de Investigación Espacial (INPE), arrancó en 2010 para dar respuesta a una demanda del Gobierno Federal brasileño sobre la calificación de la deforestación observada en la región del Amazonas.

(Visto en Geodireito). 

Publicado por el editor.

9 oct. 2019

FATMAP: Mapas para explorar

https://fatmap.com/

Los caminos que llevan los datos son inescrutables. La cartografía en formato digital del IGN de España a varias escalas, desde 1:1 250 000 hasta el MTN25, sirve de datos de referencia para esta página web, FATMAP, una plataforma para web y móviles dedicada a mostrar itinerarios de aventura en todo el mundo para recorrer eskiando, en bici, andando... con cartografía, visiones tridimensionales, perfiles y un montón de información.


La página ofrece una app para móviles,cartografía fuera de línea, fotografías espectaculares y gran cantidad de información útil, como perfiles, dificultad del recorrido, época del año recomendada, etcétera. La idea es del británico Misha Goupal, fundador y CEO del proyecto, tiene una parte colaborativa que admite contribuciones de los usuarios y el patrocionio de varis empresasde material de alta montaña y aventura. Tiene una charla TED en la que explica su proyecto.

Cuando se publican datos abiertos, es imposible saber hasta dónde pueden llegar.

Publicado por Antonio F. Rodríguez.

8 oct. 2019

Publicada en GitHub la versión 2.0.0 de la API SITNA

http://ww2.pcypsitna.navarra.es/Participa/Blog1/Lists/Entradas%20de%20blog/Post.aspx?ID=151

Ya está disponible para desarrolladores la versión 2.0.0 de API SITNA (API JavaScript para el desarrollo de mapas interactivos de manera sencilla), con una drástica refactorización para eliminar dependencias, simplificar código, reducir volumen y actualizar referencias:
  • Eliminada la dependencia de jQuery.
  • Eliminada la dependencia de Modernizr.
  • Eliminadas todas las referencias a OpenLayers 2.
  • Retirado el soporte a Internet Explorer (ligado al punto anterior).
  • Actualización a OpenLayers 5.
  • Solución de errores.
Para obtener información sobre versiones previas consultar aquí.

Como resultado del compromiso adquirido con la comunidad IDE en las pasadas Jornadas Ibéricas de Infraestructuras de Datos Espaciales (JIIDE 2018), celebradas en Mahón, están también disponibles:
  • Los sitios web que contienen visualizadores desarrollados con la API SITNA aquí.
  • La hoja de ruta actualizada aquí.
API SITNA es una herramienta de desarrollo de código abierto, con licencia BSD-2, ofrecida por el Gobierno de Navarra
                  
Publicado por Fernando Alonso-Pastor.

7 oct. 2019

¿Sabemos identificar las imágenes de satélite falsas?

 https://medium.com/sentinel-hub/its-a-faaaake-or-not-bace4f0c01ec
Imagen falsa de un incendio en el Central Park de Nueva York

Desde hace años proliferan en la web imágenes de satélite de múltiples plataformas, resoluciones y características, situación potenciada por la aparición de los Servicios Web de Mapas Teselados (WMTS), que nos inundan de imágenes de nuestro planeta de resolución y frecuencia crecientes.

Pero, ante la inmediatez y la capacidad de persuasión de las imágenes de verdad, que aparentan enseñarnos el mundo real tal-y-como-es ¿sabemos distinguir las imágenes manipuladas de las que no lo son?

La imagen de arriba muestra un falso incendio en el Central Park de Nueva York, añadido con Photoshop en diez minutos de trabajo, procedente de un interesante artículo sobre el tema (en inglés) publicado en el Sentinel Hub Blog por Pierre Markuse, que os recomiendo leer:
En él, se distinguen varios casos interesantes: imágenes que parecen falsas, por mezclar bandas poco usuales o colores extravagantes, pero que sí son imágenes reales; imágenes que también parece falsas, pero que no lo son, simplemente se han interpretado mal (por error o con mala intención) y se presentan como lo que no son, y finalmente, las imágenes falsas como las de arriba.

Un artículo muy interesante que, dado el poder de convicción de las imágenes, mayor cuando la fuente citada es conocida y prestigiosa, lo fácil que es manipularlas y lo difícil que resulta para el gran público distinguir esa manipulación, nos tiene que hacer reflexionar sobre cómo evitar grandes engaños.

Probablemente la clave esté en los metadatos y en que los medios de comunicación y las agencias de noticias extremen el cuidado en comprobar el origen de ese tipo de información y su fiabilidad, tanto de las imágenes como de las interpretaciones y explicaciones que las acompañan. Y no estaría de más que los usuarios hiciesen lo mismo.

Publicado por el editor.