Imagico.de

blog

12. August 2017
von chris
Keine Kommentare

„Social Engineering“ in OpenStreetMap

Mit der zunehmenden Verwendung und Popularität sowie der wachsenden wirtschaftlichen Bedeutung von OpenStreetMap über die letzten Jahre haben auch das Interesse und die Versuche, von außen Einfluss auf das Projekt und die an ihm Beteiligten zu nehmen, deutlich zugenommen. Ich möchte hier einen Blick auf die in diesem Zusammenhang manchmal recht unerwarteten Mechanismen werfen.

Ich verwende den Begriff „Social Engineering“ hier im Sinne von Aktivitäten, die das Ziel verfolgen, andere Menschen in dem was sie tun (oder nicht tun) zu beeinflussen, und zwar nicht durch Informationen und Bildung, welche diese befähigt, ihre eigenen Entscheidungen auf Grundlage ihrer eigenen Prioritäten zu fällen, sondern indem man ihre Wahrnehmung beeinflusst, um gewissen Zielen zu dienen, ohne dass dies der Person bewusst ist. Manch einer mag ein solches Verhalten für vertretbar oder sogar für erwünscht halten, falls es höheren Zielen dient, aber ich vertrete hier einen strikt humanistischen Standpunkt.

Man beachte, dass Social Engineering nicht notwendigerweise bedeutet, dass derjenige, der andere beeinflusst sich selbst der Gründe hierfür bewusst ist.

OpenStreetMap ist unter digitalen sozialen Projekten und Internet-Gemeinschaften recht bekannt dafür, dass es wenig feste Regeln hat und das Projekt seinen Beteiligten großen Freiraum lässt, sich zu betätigen. Dies schafft natürlich auch eine Menge Raum für Einflussnahme. Auf der anderen Seite ist die Gemeinschaft der OpenStreetMap-Aktiven zumindest in mancher Hinsicht recht vielseitig und auch stark vernetzt so dass es recht schwierig ist, hier gezielt eine Gruppe von Leuten zu beeinflussen, ohne dass andere davon mitbekommen. Dies bedeutet, dass klassisches Social Engineering im Verborgenen, wo die Leute nicht mitbekommen, dass sie beeinflusst werden, nicht so weit verbreitet ist.

Es gibt jedoch in OpenStreetMap eine ganze Reihe von Aktivitäten, die man als mehr oder weniger offenes Social Engineering bezeichnen könnte, welches auf die Steuerung und Organisation von Mapping-Aktivitäten abzielt. Humanitäres Mapping ist hier das offensichtlichste Beispiel. Es gibt auch eine Reihe von bekannten Werkzeugen wie Maproulette, welche solche Aktivitäten unterstützen können.

Die erhebliche Anzahl von Leuten, die regelmäßig bei der Erfassung von Daten in OpenStreetMap aktiv sind, macht die Einflussnahme auf diese Aktivitäten selbst auf kleinem Rahmen zu einem attraktiven Ziel. Dies ist jedoch meist recht harmlos, denn

  • diese Form der Einflussnahme ist recht direkt,
  • der Einfluss und oft auch die dahinter stehenden Interessen sind gewöhnlich für den Mapper sichtbar und
  • wenn das Ganze aus dem Ruder läuft, können solche Aktivitäten recht einfach durch die Gemeinschaft unterbunden oder reguliert werden.

In anderen Worten: Mapper, die sich an HOT-Projekten beteiligen, werden nicht massiv manipuliert, denn die von ihnen wahrgenommenen Gründe für die Projekte unterscheiden sich nicht sonderlich von den tatsächlichen Gründen. Solche Mapper wissen vielleicht nicht genau in wie weit die Leute in der Gegend wo sie Daten erfassen auch tatsächlich von diesen profitieren und was genau die wirtschaftlichen Interessen der organisierenden Institutionen dabei sind. Im Groben treffen sie jedoch eine informierte Entscheidung, wenn sie sich an so etwas beteiligen.

Trotzdem sind solche organisierten Aktivitäten in OpenStreetMap nicht ohne Probleme, insbesondere dadurch, dass sie die soziale Balance innerhalb des Projektes gefährden können und zum Beispiel individuelle Mapper, die lokal die ihnen bekannten Umgebung erfassen, sich durch organisierte Aktivitäten von außerhalb bevormundet und übergangen fühlen.

Dies ist jedoch nicht das was ich hier hauptsächlich thematisieren möchte. Mit geht es um eine subtilere Form der Einflussnahme, welche ich social self engineering nennen möchte. Ein gutes Beispiel um zu erläutern, was ich damit bei OpenStreetMap meine, ist das was wir Mapping für den Renderer nennen.

Mit Mapping für den Renderer ist in der einfachsten Form gemeint, wenn Leute Daten in die OSM-Datenbank eintragen nicht mit dem Ziel, eine Beobachtung vor Ort in der Realität zu dokumentieren, sondern um in einer Karte auf Basis dieser Daten ein bestimmtes Darstellungsziel zu verwirklichen. Beispiele wären hier:

  • Als Namens-Attribute eingetragene Zeichenketten, welche keinen Namen darstellen, sondern zur Platzierung von sonstigen Beschriftungen in der Karte dienen.
  • Orts-Knoten, welche so verschoben werden, dass Beschriftungen an einer attraktiveren Position gezeichnet werden
  • Abweichende Klassifikationen von Orten oder Straßen, um diese früher und deutlicher in der Karte zu sehen.
  • Das Weglassen von Attributen, weil das daraus resultierende Erscheinungsbild in der Karte als unvorteilhaft angesehen wird.

Im Vergleich zu normalem Social Engineering sind die Rollen hier gewissermaßen vertauscht. Diejenigen, deren Verhalten beeinflusst wird, sind auch die, die darüber entscheiden (deshalb auch Self Engineering) und der Einfluss dies zu tun kommt von jemandem (dem Gestalter der Karte), der oft nichts von diesem Einfluss weiß und meist darüber auch gar nicht erfreut ist.

In dieser einfachen Form ist das Phänomen weit verbreitet und diejenigen, die so etwas tun, sind sich zwar im allgemeinen bewusst, dass das was sie machen nicht ganz richtig ist – sie sind sich aber meist nicht wirklich bewusst, was sie eigentlich motiviert, das zu tun, was sie tun und was für Konsequenzen dies auf die Datenqualität hat. In den meisten Fällen wird Mapping für den Renderer einfach als Abkürzung oder methodisches Schummeln angesehen. Die spezifischen Probleme der ganzen Wechselwirkung und Interaktion zwischen Karten-Gestaltern und Mappern habe ich auch schon früher mal diskutiert.

Es gibt aber noch eine andere Variante des Mapping für den Renderer (oder allgemeiner: des Mapping unter spezieller Berücksichtigung einer bestimmten Daten-Nutzung), welche weniger direkt ist und was ich als präventives Mapping für den Renderer bezeichnen möchte. Ein gutes Beispiel hierfür ist das verbreitete is_in-Attribut (oder Varianten wie is_in:country), welche angeben, in was für einem Land oder anderem Gebiet sich ein Objekt (zum Beispiel eine Stadt oder ein Dorf) befindet. Mir sind keine Anwendungen bekannt, für die dieses Attribut tatsächlich benötigt wird. Taginfo nennt Nominatim als einzige Anwendung, welche dieses verwendet. Allein schon die Idee, dass es in einer räumlichen Datenbank sinnvoll sein könnte, die Tatsache, dass sich eine Geometrie innerhalb einer anderen Geometrie befindet, per Hand als Attribut zu dokumentieren, ist absurd. Dennoch gibt es mehr als 2 Millionen Objekte mit diesem Attribut in der OSM-Datenbank.

Warum dies passiert hat eine Menge mit dem Phänomen des Cargo-Kults zu tun. Tatsächlich können recht viele der Tagging-Ideen und -Vorschläge, die in OSM entwickelt und kommuniziert werden, als Cargo-Kult-basiert klassifiziert werden und dies ist einer der Gründe weshalb viele Mapper Tagging-Diskussionen meiden. Eigentlich ist ja auch schon die Idee, dass jeder Dokumentation einer Beobachtung in der Realität in OSM ein universelles Klassifikations-System zugrunde liegen soll, inherent anfällig für Wunschdenken. Manchmal gibt es aufwändige strukturierte Tagging-Systeme, welche mit der Absicht entwickelt werden, es für Entwickler von Anwendungen attraktiv zu machen, sie zu implementieren, was glücklicherweise meist dazu führt, dass weder Mapper noch Daten-Nutzer diese Ideen umsetzen. Die Idee eines importance-Tags, welche alle paar Monate wieder irgendwo auftaucht, gehört auch zu dieser Kategorie. Aus dem Wunsch heraus, dass es einen objektiven und universellen Maßstab gäbe, um die Bedeutung von Dingen zu quantifizieren, erfinden Leute ein importance-Tag und hoffen, dass dessen Existenz allein ausreicht, dass dieser Wunsch Realität wird.

Aber nicht alle derartigen Mapping-Ideen sind ohne Erfolg. Es gibt eine ganze Reihe von Attributen, welche erfunden wurden, weil jemand dachte, dass sie die Datennutzung einfacher machen und Mapper investieren eine Menge Zeit, diese Dinge zu erfassen – wie im genannten Beispiel von is_in. Oder bei der Idee, Dinge als Polygone zu erfassen, welche ebenso präzise mit linearen Geometrien oder Punkten erfasst werden könnten – wie hier.

Das Problem dabei ist nicht nur die Verschwendung von Ressourcen bei der Erfassung und der Pflege der Daten. So etwas hält auch oftmals Datennutzer davon ab, sinnvollere Erfassungs-Methoden zu interpretieren. Präventives Mapping für den Renderer zielt immer, selbst wenn die Überlegungen dahinter gelegentlich sinnvoll sind, auf eine technologisch konservative Daten-Interpretation ab. Auf diese Weise werden echte Innovation und Investitionen in eine intelligente und fortschrittliche Interpretation von für die Mapper optimierten Erfassungs-Methoden behindert. Das is_in-Tag beispielsweise wurde erfunden in der Frühzeit von OpenStreetMap als es noch keine Grenz-Relationen gab, über welche man automatisch hätte ermitteln können, in welchem Land sich ein Objekt befindet. Also hat jemand anstatt eine besser geeignete Lösung zu erfinden den technologisch einfachen Weg gewählt und die Arbeit auf den Mapper abgeladen. Glücklicherweise hat dies in diesem Fall nicht verhindert, dass am Ende doch Grenz-Relationen und und Punkt-in-Polygon-Tests als bessere Lösung entwickelt und etabliert wurden.

Und während Versuche von Datennutzern, direkt Einfluss zu nehmen und Mapper zu überreden, Daten in für sie einfach verwendbarer Form zu erfassen, meist recht leicht zu erkennen und ggf. zurückzuweisen sind, ist die präventive Variante von Seiten der Mapper oft schwieriger zu erkennen. Und auch die Motive, weshalb ein Mapper jetzt ein bestimmtes, problematisches Tagging nutzt oder befürwortet sind meist recht kompliziert und unübersichtlich.

Wer also als Mapper wirklich eine kompetente Nutzung der Daten unterstützen möchte, der sollte besser jegliche Annahmen zu den vermuteten Interessen der Datennutzer ignorieren und sich darauf konzentrieren, wie man seine Beobachtungen vor Ort möglichst effizient in Datenform wiedergibt.

new_guinea_landsat_980

28. Juli 2017
von chris
2 Kommentare

Wahrgenommene und tatsächliche Qualität von Bildquellen für OpenStreetMap

Einer der Fallstricke für Mapper in OpenStreetMap bei der Erfassung auf Grundlage von Bildern ohne aktuelle Kenntnisse der Situation aus der Nähe ist das Problem, dass gelegentlich scheinbar ungenaue Daten auf Grundlage veralteter Informationen „verbessert“ werden. Ein plakatives Beispiel dafür sind Fälle, wo abgerissene Gebäude in populären Bilddaten-Quellen sichtbar bleiben und Mapper diese immer wieder neu abzeichnen, da sie anscheinend ja in der OpenStreetMap-Datenbank fehlen.

Diese Art von Problemen nimmt in den letzten Jahren zu, da die Anzahl unterschiedlicher Bildquellen, die für die Erfassung verwendet werden, wächst und gleichzeitig das durchschnittliche Alter dieser Bilddaten ansteigt, denn nicht überall werden die Bilder regelmäßig aktualisiert. Die Qualität von Bilddaten ist am Ende eine mehrdimensionale Größe wenngleich für Mapper, insbesondere wenn sie mit einer Gegend nicht vertraut sind, die Auflösung eines Bildes das offensichtlichste Qualitätsmerkmal ist und deshalb Mapper oft geneigt sind, die Quelle mit der höchsten Auflösung generell für die beste Bildquelle zu halten. Die wichtigsten Dimensionen der Bildqualität sind vermutlich:

  • die räumliche Auflösung.
  • die Positionsgenauigkeit – welche nicht unbedingt mit der Auflösung korreliert – näheres dazu in einem anderen Beitrag von mir.
  • das Alter – die fehlende Berücksichtigung hiervon ist die Ursache für das oben beschriebene Problem.
  • die Jahreszeit – Bilder von unterschiedlichen Jahreszeiten eignen sich unterschiedlich gut für die Erfassung verschiedener Dinge. Ein häufiges Problem mit hochauflösenden Bildern in Bing und DigitalGlobe bei hohen Breiten ist zum Beispiel, dass die Bilder oft von relativ früh im Jahresverlauf stammen (wo das Wetter oft besser ist als später im Jahr) und das meiste, was von Interesse ist, dann unter Schnee verdeckt ist.
  • die Wolkenfreiheit.

Von Menschen geschaffene Strukturen sind nicht der einzige Fall, wo die verschiedenen Dimensionen der Bildqualität in Kombination bewirken, dass die Bildquelle mit der höchsten Auflösung nicht unbedingt die Beste ist. Ich bin vor kurzem auf ein Beispiel gestoßen, welches dies sehr schön illustriert.

Hintergrund-Geschichte dazu: In 2013 hab ich die Gletscher von Neuguinea in OpenStreetMap erfasst – auf Grundlage von damals neuen Landsat-Bildern. Bing hatte damals wie heute keine hierfür brauchbaren Bilder.

Mit den vor kurzem von DigitalGlobe bereitgestellten Bildern gibt es jetzt für OpenStreetMap-Anwendungen hochauflösende Bilder der Gegend, jedoch sind diese nicht sehr aktuell, vermutlich stammen sie von 2011-2012. Wichtiger ist jedoch, dass das Gebiet des Northwall Firn einen erheblichen Versatz in der Position aufweist. Was dazu führt, dass die neue Erfassung durch palimpadum ohne böse Absicht schlechter ist als zuvor.

Ich hab jetzt zwei neue Bilder bei den OSM images for mapping hochgeladen, welche eine wirklich substantielle Aktualisierung der Gletscher und möglicherweise auch anderer Dinge in der Gegend ermöglichen sollten. Diese Bilder illustieren sehr schön die verschiedenen Dimensionen der Bildqualität für die Erfassung von Daten für OSM.

Das neuere der beiden Bilder stammt von 2016 und ist von Sentinel-2 aufgenommen. Es stellt das neueste wolkenfreie frei verfügbare Bild der Gegend dar. Jedoch weist es einen erheblichen Nachteil auf: Es zeigt Neuschnee auf den höchsten Teilen der Berge, welcher eine präzise Erfassung der Gletscher unmöglich macht.

Das andere Bild stammt von 2015 und ist von Landsat 8 aufgenommen. Es zeigt die Gletscher in schneefreiem Zustand und erlaubt so eine Erfassung ihrer Ausdehnung. Insgesamt haben wir also:

  • Das Bild von DigitalGlobe, welches die höchste Auflösung bietet, jedoch am ältesten ist und zumindest in Teilen eine schlechte Positionsgenauigkeit aufweist. Auch sind in der weiteren Umgebung weite Teile der Bilder durch Wolken unbrauchbar.
  • Das Sentinel-2-Bild, welches am aktuellsten, jedoch durch Neuschnee beeinträchtigt ist.
  • Das Landsat-8-Bild mit geringfügig geringerer Auflösung als Sentinel-2, jedoch mit einem klaren Blick auf die Gletscher.

Die Positions-Genauigkeit von Sentinel-2 und Landsat ist hier sehr ähnlich. Und schließlich sind die Wolken auch der Grund, weshalb es keine neueren Bilder von Landsat oder Sentinel-2 von der Gegend mit einem klaren Blick auf die Erdoberfläche gibt.

Für die Erfassung der Gletscher wird man sinnvollerweise also das Landsat-Bild verwenden. Für die Erfassung des Tagebaus, welcher sich recht schnell verändert, eignet sich das Sentinel-2-Bild vermutlich am besten. Andere Dinge wie Seen oder die Landbedeckung lassen sich – soweit nicht von Wolken verdeckt – recht zuverlässig von den Digital-Globe-Daten erfassen. Wobei es immer eine gute Idee ist, die Position anhand der anderen Bilder zu überprüfen und gegebenenfalls zu korrigieren.

Auch denen, die jetzt kein Interesse an Gletscher-Erfassung haben, empfehle ich, durchaus mal die drei Bildquellen hier in Ihrem bevorzugtem OSM-Editor zu landen und zwischen diesen ein bisschen hin und her zu schalten und so ein Gefühl für die Unterschiede zu bekommen. Hier die URLs für die OSMIM-Layer:

tms:http://imagico.de/map/osmim_tiles.php?layer=S2A_R088_S05_20160812T011732&z={zoom}&x={x}&y={-y}
tms:http://imagico.de/map/osmim_tiles.php?layer=LC81030632015286LGN00&z={zoom}&x={x}&y={-y}

slstr_temp_980

23. Juli 2017
von chris
Keine Kommentare

In der Dunkelheit sehen

Wie viele vermutlich bereits anderswo gelesen haben, ist vor kurzem ein recht großer Eisberg in der Antarktis abgebrochen, und zwar am Larsen-C-Schelfeis an der Ostseite der antarktischen Halbinsel. Das interessante daran ist weniger das Ereignis selbst (ja, das ist ein großer Eisberg und ja, seine Entstehung ist vermutlich Teil eines allgemeinen Trends des Rückgangs der Schelfeis-Flächen an der antarktischen Halbinsel im Verlauf der vergangenen hundert Jahre – aber nein, das ist nicht wirklich rekordverdächtig oder besonders alarmierend, wenn man das Ganze auf einem Zeithorizont von mehr als einem Jahrzehnt betrachtet). Interessant ist mehr die Art und Weise wie darüber kommuniziert wird. Eisberge dieser Größenklasse treten in der Antarktis in Intervallen von einigen Jahren bis Jahrzehnten auf. Es ist bekannt, dass viele der großen Schelfeis-Platten ein zyklisches Wachstum unterbrochen vom Kalben großer Eisberge wie diesem aufweisen, teilweise auf Zeitskalen von über fünfzig Jahren. Dieses war das erste mal, dass so ein Ereignis aus der Entfernung detailliert verfolgt wurde. In der Vergangenheit hat man so etwas meist einige Tage oder Wochen nach dem eigentlichen Ereignis bemerkt, während diesmal das Abbrechen erwartet worden ist und die Entwicklung der Risse im Eis detailliert verfolgt wurde. Es gab über Monate immer wieder Vorhersagen, dass das Kalben des Eisberges jetzt innerhalb von wenigen Tagen zu erwarten ist – oder anders ausgedrückt: Eine ganze Menge Leute hatten anscheinend ziemlich falsche Annahmen dazu, wie genau dieser Prozess ablaufen würde.

Ich bin nicht wirklich mit der Dynamik von Eis auf diesem Maßstab vertraut, so dass ich das nicht im Detail diskutieren werde. Wichtig ist immer im Hinterkopf zu behalten, dass sich Eis auf dem Maßstab von mehreren zehn bis hunderten Kilometern und unter den Drücken die dabei auftreten deutlich anders verhält als man dies in Analogie mit der Beobachtung von Eis auf Seen oder Flüssen vielleicht vermuten würde.

Der andere interessante Aspekt bei diesem Kalbungs-Ereignis ist, dass es in der Polarnacht stattfand. Da sich das Larsen-C-Schelfeis südlich des Polarkreises befindet, liegt die Gegend um diese Jahreszeit im Dunkeln. Wie beobachtet man also ein Ereignis in permanenter Dunkelheit auf Grundlage offener Satellitenbild-Daten?

Eine der interessantesten Möglichkeiten zur Beobachtung der Erde bei Nacht ist das Day/Night Band des VIIRS-Instruments. Dies ist ein Sensor im sichtbarem/NIR-Bereich, welcher sehr geringe Lichtmengen detektieren kann. Am bekanntesten ist dieser Sensor über Visualisierungen der Lichter menschlicher Siedlungen bei Nacht – welche künstliche Farben zeigen.

Dieser Sensor kann Bilder mit Hilfe von Mondlicht oder anderen nächtlichen Lichtquellen wie dem Polarlicht aufnehmen. Auf diese Weise sind einige der ersten Aufnahmen des frei schwimmenden Eisberges entstanden.

Antarktis im Mondlicht – VIIRS Day/Night Band

Dieses Bild verwendet eine logarithmische Farbskala, die tatsächlichen Lichtmengen variieren über das gezeigte Gebiet um etwa drei Größenordnungen.

Eine deutlich ältere und besser etablierte Methode zur Beobachtung bei Nacht ist die Beobachtung im thermischen Infrarot. Im langwelligen Infrarot-Bereich emittiert die Erdoberfläche Licht entsprechend ihrer Temperatur und diese Emissionen unterscheiden sich kaum zwischen Tag und Nacht. Wolken emittieren natürlich auch im langwelligem Infrarot, weshalb Aufnahmen im thermischen Infrarot insbesondere auch attraktiv sind und häufig verwendet werden zur durchgehenden Wetterbeobachtung Tag und Nacht von Wettersatelliten aus.

Thermische Infrarot-Bilder gibt es vom zuvor erwähnten VIIRS-Instrument, genauso aber auch von MODIS und Sentinel-3 SLSTR. Hier ein Beispiel unseres Gebietes von SLSTR.

Leuchten im Dunkeln – thermische Infrarot-Emissionen, aufgezeichnet von Sentinel-3 SLSTR

Während der Polarnacht treten die höchsten Temperaturen in der Gegend an offenen Wasserflächen auf wie auf der Westseite der Antarktischen Halbinsel oben links und die niedrigsten Temperaturen gibt es auf der Oberfläche der Schelfeis-Flächen und auf den untersten Teilen der Gletscher aus der Ostseite der Halbinsel. Die Umrisse des neuen Eisberges sind sehr gut sichtbar durch das recht warme offene Wasser in der Lücke zwischen Eisberg und Schelfeis, welches nur von wenig Eis überdeckt wird.

Thermische Infrarot-Bilder gibt es auch in deutlich höherer Auflösung von Landsat und ASTER. Landsat nimmt nicht routinemäßig bei Nacht Bilder in der Antarktis auf, jedoch wurden aufgrund des aktuellen Interesses an der Gegend in letzter Zeit einige Bilder dort aufgezeichnet. Hier eine Zusammenstellung von Bildern vom 12. und 14. Juli.

Hochauflösende thermische Infrarot-Aufnahmen von Landsat 8

Wie man sieht, wird die Sicht durch Wolken erheblich beeinträchtigt, insbesondere in den Bildern auf der rechten Seite, wo das Eis durch diese teils komplett verdeckt ist. Hier noch ein vergrößerter Ausschnitt um den Detaillierungsgrad zu zeigen.

ASTER bietet keine aktuellen Bilder der Gegend. Im Prinzip bietet ASTER jedoch derzeit die thermischen Aufnahme-Fähigkeiten mit der höchten Auflösung – sowohl im Bereich offener Daten als auch in der Welt öffentlich verfügbarer Daten generell, obwohl es vermutlich nicht öffentlich bekannte und zugängliche Sensoren mit höhere Auflösung im thermischen Infrarot gibt.

Bis jetzt sind alle gezeigten Bilder von passiven Sensoren aufgenommen, welche natürlich auftretende Emissionen oder Reflexionen messen. Die andere Möglichkeit zur nächtlichen Beobachtung besteht in der Verwendung aktiver Sensoren, insbesondere von Radar. Dieser Ansatz hat den zusätzlichen Vorteil, dass er unabhängig von Wolken ist (welche bei den verwendeten Wellenlängen im Grunde transparent sind).

Radar ist jedoch im Grunde erst einmal kein bildgebendes Verfahren. Man nehme zum Beispiel das klassische Navigations-Radar von Schiffen mit rotierender Antenne – das zweidimensionale Bild wird hier aufgebaut, indem man die Signal-Laufzeit des reflektierten und empfangenen Signals in die jeweilige Richtung aufträgt. Die Radar-Daten von Satelliten arbeiten im Grunde gar nicht so viel anders.

Satelliten-basierte Systeme, welche offene Radar-Erdbeobachtungs-Daten produzieren, gibt es derzeit auf Sentinel-3 und Sentinel-1. Sentinel-3 verfügt über einen Radar-Höhenmesser, welche die Position der Erdoberfläche entlang eines schmalen Streifens direkt unter dem Satelliten vermisst. Dies ist für die Beobachtung eines Eisbergs und seiner Entstehung nicht wirklich nützlich.

Sentinel-1 hingegen verfügt über ein klassischen bildgebendes Radar-System. Das meist verwendete Daten-Produkt von Sentinel-1 sind Ground Range Detected-Daten, welche meist in Form eins Graustufen-Bildes visualisiert werden – oder durch ein Falschfarben-Bild, wenn mehrere Polarisationen gemeinsam dargestellt werden. Hier ein Beispiel für das hier behandelte Gebiet.

Durch Wolken schauen – Bildgebendes Radar von Sentinel-1

Man beachte, dass das zwar wie ein Bild von oben aussieht, dieser Eindruck jedoch trügt. Das zweidimensionale Bild entsteht hier durch Interpretation der Signal-Laufzeit als Abstand (was eine weitgehend korrekte Annahme ist) und dadurch, dass man den Abstand auf einen Punkt auf einem Ellipsoid-Modell der Erde projiziert (was eine extreme Vereinfachung darstellt). In anderen Worten: Das Bild zeigt die Intensität des reflektierten Radar-Signals an dem Punkt, von wo das Signal käme, wenn die Erde ein perfekter Ellipsoid wäre. Für das Schelfeis ist dies kein so großes Problem, denn dieses ragt nicht mehr als vielleicht hundert Meter aus dem Wasser auf, was recht nahe am Ellipsoid-Modell ist, aber man sollte nie versuchen, aus so einer Visualisierung direkt Positions-Informationen über Punkte an Land abzuleiten.

Man sieht auch, dass das Rauschen in den Radar-Daten meist sehr viel stärker ist, das in optischen Bildern. Wir sprechen hier schließlich über ein Signal, welches mehrere hundert Kilometer weit ausgesendet wird, dann reflektiert und wovon ein ganz kleiner Teil am Ende über mehrere hundert Kilometer zurück reflektiert und aufgezeichnet wird. Aus Radar-Daten quantitative Informationen abzuleiten ist deutlich schwieriger als bei optischen Bildern. Aber der große Vorteil ist natürlich, dass man nicht durch Wolken beeinträchtigt ist.

Da dies möglicherweise verwirrend ist für Leser, die auch anderswo Bilder dieses Ereignisses sehen – die Darstellungen hier sind alle in UTM-Projektion und in etwa nordorientiert.

S2B_R053_S51_20170630T142859_expose.ann

7. Juli 2017
von chris
Keine Kommentare

Erste Sentinel-2B-Daten und Sentinel-3 L2

Seit ein paar Tagen sind die ersten Daten von Sentinel-2B öffentlich zugänglich.

Der Datenzugriff erfolgt über eine seperate Instanz der Datenzugangs-Infrastruktur so dass man Download-Skipte und Werkzeuge entsprechend anpassen muss. So wie es scheint wird Sentinel-2B genauso wie Sentinel-2A betrieben, das heißt, dass Europa, Afrika und Grönland mit Priorität aufgenommen werden und die größeren Landflächen des Rests der Welt weniger oft. Ich hab die täglichen Zahlen von Sentinel-2B in meiner Übersicht zu Satellitenbild-Erfassungszahlen ergänzt. Im Moment sind dies noch nicht so viele Bilder wie bei Sentinel-2A und Bilder von vor Ende Juni sind noch nicht verfügbar.

Wenn Sentinel-2B irgendwann mit der selben Frequenz Bilder aufnimmt wie Sentinel-2A soll das den zeitlichen Abstand zwischen den Aufnahmen halbieren – von normalerweise 10 Tagen in Europa und Afrika zu 5 Tagen. Die Überlappung der Bilder bei höheren Breiten wird dann auch dazu führen, dass für Grönland und den Europäischen Teil der Arktis ab 75° Breite bis zur Grenze bei 82.8° eine tägliche Abdeckung erfasst wird während die Grenze vorher bei 79.3° lag – dies liegt vor allem daran, dass die ESA anders als der USGS nicht aufgrund der Überlappungen die Aufnahme-Frequenz bei hohen Breiten reduziert.

Hier zwei Beispielbilder aus den letzten Tagen:

Upsala-Gletscher, Patagonien, Aufgenommen von Sentinel-2B

Sewastopol, Krim, Aufgenommen von Sentinel-2B

Neben den neuen Sentinel-2-Bildern gibt es jetzt auch Zugang zu einer Reihe weiterer Sentinel-3-Produkte – siehe hier, hier und hier. Das sieht in etwa so aus wie erwartet, das sind allerdings größtenteils recht spezielle Datenprodukte und nicht die Art von allgemeinen Level-2-Produkten wie man sie zum Beispiel von MODIS her kennt. Ich werde darüber vermutlich demnächst mal was schreiben.

Kleiner Einschub zur Erklärung der Bearbeitungsstufen bei Satellitenbildern:

  • Level-0 sind üblicherweise mehr oder weniger die Rohdaten, wie sie vom Satelliten kommen.
  • Level-1 schließt meist Kalibrierungen bezüglich der Eigenschaften des Sensors oder der Optik sowie geo-Referenzierung mit ein.
  • Level-2 umfasst in erster Linie die Kompensation unerwünschter Störeffekte bei der Aufnahme, insbesondere durch die Atmosphere, die Perspektive des Satelliten und die Beleuchtungsrichtung. Ziel ist meist eine Charakterisierung der Erdoberfläche, die unabhängig von den Aufnahme-Parametern ist, ggf. bereits für eine bestimmte thematische Anwendung.
  • Level-3 ist weniger klar definiert, meist handelt es sich hier um zeitlich aggregierte Daten, weiterreichende Auswertungen oder Kombinationen mit anderen Datenquellen.

Manche erinnern sich vielleicht an den Trend, den ich vor einiger Zeit mal hinsichtlich des Timings der Verfügbarkeit von Daten und den Satellitenstarts im Sentinel-Programm skizziert habe. Wir können dies jetzt ein wenig fortschreiben:

  • Sentinel-1A: Start 3 Apr 2014, öffentlicher Datenzugriff ab 9 Mai 2014 (1 Monat)
  • Sentinel-2A: Start 23 Jun 2015, Daten ab Ende November 2015 (5 Monate)
  • Sentinel-1B: Start 25 Apr 2016, Daten ab 26 Sep 2016 (5 Monate)
  • Sentinel-3A: Start 16 Feb 2016:
    • OLCI L1-Daten seit 20 Okt 2016 (8 Monate)
    • SLSTR L1-Daten seit 18 Nov 2016 (9 Monate)
    • teilweiser Zugang OLCI/SLSTR L2 seit 5/6 Jul 2017 (>16 Monate)
    • Weitere L2-Produkte: 16+ Monate und wir warten immer noch…
    • Daten von vor 20 Okt 2016: fehlen und es ist unklar, ob die jemals verfügbar werden.
  • Sentinel-2B: Start 7 Mar 2017, Daten-Zugang seit 5 Jul 2017 (4 Monate)

Der Trend ist also unterbrochen und ich bin sicher, dass jeder den im Vergleich zu Sentinel-2A beschleunigten Ablauf bei Sentinel-2B zu schätzen weiß. Der Ablauf bei Sentinel-3 ist jedoch – wie soll ich sagen – bemerkenswert. Man behalte dabei im Hinterkopf, dass die Level-2-Daten alles Dinge sind, die schon seit mehr als einem Jahr routinemäßig produziert, jedoch nicht veröffentlicht wurden – und das obwohl die Vorschriften dies eigentlich erfordern. Man könnte jetzt sagen, dass die Level-1-Daten das sind, worauf es ankommt, und alles andere nur optionale Zusatzleistungen sind. Wenn man jedoch zum Beispiel auf die MODIS-Daten schaut – da bin ich mir sicher, dass über 90 Prozent der Nutzer Produkte von Level 2 oder höher verwenden. Für das Ziel einer breiten Verwendung der Daten also (und ich würde zumindest bei der EU-Kommission annehmen, dass sie dieses Ziel verfolgt) ist das Zurückhalten von Level-2-Daten einfach nur bescheuert.

Tierra del Fuego in Winter 2017

4. Juli 2017
von chris
Keine Kommentare

Wintereindrücke 2017

Wie üblich wenn hier im Norden Sommer-Sonnenwende ist, herrscht im Süden Winter, also hier passend zwei Winter-Eindrücke auf Grundlage von Landsat-Bildern von der südlichen Hemisphäre aus den letzten Wochen.

Das erste Bild ist eine Ansicht des südlichen Teils von Feuerland und dem Beagle-Kanal:

mit Ushuaia, der südlichsten Großstadt der Erde:

Das zweite Bild zeigt Südgeorgien in einer seltenen fast wolkenfreien Situation in der Mitte des Winters:

Das Südgeorgien-Bild ist auch im Katalog auf services.imagico.de.

30. Juni 2017
von chris
Keine Kommentare

Eine weitere Umfrage

Es gibt eine weitere Umfrage für Nutzer freier Satellitendaten, dieses mal vom Copernicus-Programm:

http://www.copernicus.eu/COAHub-user-survey

Um Gegensatz zur neulich vorgestellten Landsat-Umfrage – welche übrigens weiterhin offen zur Teilnahme ist – handelt es sich hier um die üblichen Fragen zum ankreuzen. Das Ganze ist allerdings nicht anonym, sie fragen nach dem Namen und anderen Details zum Teilnehmenden.

Die Fragen sind sind recht offensichtlich zusammengestellt worden mit dem Ziel möglichst viele Themen in der Umfrage unterzubringen, gleichzeitig die Zahl der Fragen formell auf maximal 20 zu begrenzen. Das führt zu vielen kombinierten Fragen, welche versuchen, verschiedene Dinge gleichzeitig zu ermitteln, was jedoch zwangsläufig dazu führen dürfte, dass die Ergebnisse recht wenig aussagekräftig sind. So gibt es zum Beispiel die folgenden zwei Fragen:

11. Data products - Please indicate your level of satisfaction
* Sentinel-1 data - Poor/Average/Good/Excellent or N/A
* Sentinel-2 data - Poor/Average/Good/Excellent or N/A
* Sentinel-3 data - Poor/Average/Good/Excellent or N/A

12. Processing levels and data formats -
Please indicate your level of satisfaction
* Processing levels (L0, L1, L2, ...) - Poor/Average/Good/Excellent or N/A
* Data formats - Poor/Average/Good/Excellent or N/A

Bei der ersten Frage geht es um die allgemeine Zufriedenheit mit den Daten, getrennt nach den verschiedenen Plattformen – was auch Sinn macht. Aber die anschließende Frage nach der spezifischen Zufriedenheit mit dem Datenformat und der Verarbeitung macht eigentlich nur Sinn, wenn man sie getrennt für die verschiedenen Satelliten-Plattformen beantwortet, was jedoch nicht möglich ist.

Das traurige daran ist, dass der Wunsch die Zahl der Fragen gering zu halten klar daher rührt, dass man den Teilnehmenden ermöglichen möchte, die Umfrage recht schnell fertigzustellen. Diese kombinierten Fragen jedoch machen es im Grunde deutlich schwieriger und langwieriger, eine präzise Antwort zu geben, denn man muss ja die eigenen unterschiedlichen Eindrücke erst einmal gewichten.

Und das Endergebnis der Auswertung ist dann vielleicht, dass die Nutzer scheinbar fast alle mit den Dateiformaten bei Average bis Good liegen, in Wirklichkeit aber vielleicht größtenteils zwar das Sentinel-1-Format total toll finden, das von den Sentinel-3-Daten aber total daneben finden. Anders ausgerückt: Wenn man wirklich differenziertes Interesse an der Zufriedenheit der Nutzer im Detail hätte, hätte man die Fragen teils deutlich anders stellen müssen.

Ich würde trotzdem jedem der schon mal Copernicus-Sentinel-Daten verwendet hat nahelegen, an der Umfrage teilzunehmen. Selbst wenn es bei den Fragen häufig um Dinge geht, bei denen es wie im gezeigten Beispiel recht unwahrscheinlich ist, dass sich substantiell was ändert, und viele wichtige Fragen gar nicht erst gestellt werden, ist es wichtig, dass die Nutzer zeigen, dass sie eine differenzierte Meinung zu den Themen haben und nicht gleichgültig zu Fragen der Qualität der Daten und des Datenzugangs sind.

planet_explorer_140

26. Juni 2017
von chris
Keine Kommentare

Ist kleiner besser? – Eindrücke und Überlegungen zu Mikrosatelliten in der Erdbeobachtung

Zunächst eine einleitende Bemerkung zu meinen Richtlinien bei Besprechungen von Geodaten-Produkten – denn ich bekomme ab und zu mal Anfragen von der Form könntest du nicht mal eine Besprechung von Produkt X von Firma Y machen. Bei Satellitenbild-Produkten habe ich zum Beispiel einen detaillierten Review der Arbeiten von Mapbox und Google gebracht, denn als diese vorgestellt wurden, waren dies neue und innovative Dinge, die zuvor noch niemand gemacht hatte. Ich hab mich jedoch nicht mit den ganzen „me too“-Produkten befasst, die seit dem auf Basis von Landsat- und Sentinel-2-Daten vorgestellt wurden, denn keines von diesen hat bis jetzt einen merklichen Fortschritt in der Qualität oder eine erwähnenswerte technische Innovation mit sich gebracht.

Ich konzentriere mich natürlich auch auf offene Datenprodukte und solche auf Basis offener Daten – sowohl weil ich in diesen Gebieten am meisten Erfahrungen habe als auch weil ich denke, dass dies für die Leser am interessantesten ist.

Mit diesen Dingen im Hinterkopf ist eine Besprechung der Produkte von Planet Labs jetzt nicht gerade naheliegend für mich. Man verwendet dort zwar teilweise offene Satellitendaten für Produkte für Kunden, jedoch bietet Planet Labs anscheinend derzeit keine eigenen offenen Daten an. Es gibt zwar ein Produkt namens Open California, welches angeblich unter CC-BY-SA steht, jedoch ist dies nicht öffentlich zugänglich (wodurch das Ganze ziemlich nach openwashing aussieht).

Planet Labs ist das bekannteste Unternehmen, welches aus dem Mikrosatelliten-Hype der letzten Jahre hervorgegangen ist und ist im Bereich der Erdbeobachtungs-Anwendungen hier sicher der bedeutendste Marktteilnehmer. Sie haben im Verlauf der letzten Jahre eine beachtliche Zahl von sehr kleinen Satelliten von wenigen Kilogramm Gewicht entwickelt und gestartet, jedoch ist der einzige öffentliche Dienst, den sie derzeit anbieten, ein Programm namens Planet Explorer. Hierbei handelt es sich um eine Reihe von nahezu globalen Satellitenbild-Zusammenstellungen von jeweils einem kurzen Zeitraum (einem oder drei Monaten) auf Basis von Daten der Satelliten des Unternehmens. Ich schreibe diese Besprechung hier nicht, weil dieser Dienst besonders nützlich ist und auch nicht weil er technisch besonders innovativ wäre (was auf einer Datenverarbeitungs-Ebene durchaus sein könnte, hinsichtlich Bildbearbeitung jedoch sicher nicht). Die Besprechung hier soll ein Beitrag zum faktenorientierten öffentlichen Diskurs zu derzeit produzierten und verfügbaren Satellitenbildern sein, bei dem man offensichtlich auch die Bilder von Planet Labs einbeziehen muss.

Ich möchte klarstellen, dass dies keine Besprechung der Bilddaten selbst ist. Planet Explorer bietet für den nicht registrierten Nutzer noch nicht einmal eine Darstellung in voller Auflösung und es gibt derzeit keine öffentlich zugänglichen Beispiel-Originaldaten für Rapideye- and Plantscope-Bilder. Dieser Beitrag befasst sich mit dem Gesamt-Korpus der Bilder, welche dort zu sehen sind und wovon ich annehme, dass dies im Wesentlichen alle verwendbaren Bilder sind, welche derzeit von der Firma erfasst werden (im diesem Auflösungs-Bereich, Planet Labs hat vor kurzem auch höher auflösende Satelliten erworben, deren Daten hier nicht enthalten sind).

Kein guter Anfang

Um dies gleich am Anfang aus dem Weg zu bekommen – Planet Explorer verwendet OpenStreetMap-Daten in ihrer Darstellung für Beschriftungen, Grenzen und andere Elemente unter Verletzung der ODbL. OpenStreetMap wird zwar irgendwo unter „Terms“ erwähnt, das ist aber in etwa das Internet-Equivalent zu „unten in einem Aktenschrank in einer unbenutzten Toilette mit einem Schild auf der Tür mit der Aufschrift Vorsicht, bissiger Leopard“. Der Nutzer bekommt dies üblicherweise nicht zu Gesicht, was jedoch genau das ist was die ODbL verlangt.

Man könnte dies auch sich in den Fuß schießen nennen in Bezug auf den öffentlichen Eindruck bei der Open Data Community. Die meisten Leute respektieren es, wenn das Geschäftsmodell einer Firma auf der Lizenzierung von Daten basiert und die Daten deshalb nicht als offene Daten angeboten werden, die Toleranz endet jedoch dort, wo das selbe Unternehmen zu geizig ist, um es anständig zu würdigen, wenn sie Daten verwenden, die andere großzügigerweise als offene Daten zugänglich gemacht haben.

Ich werde für den Zweck dieser Besprechung mal diesen Fauxpas ignorieren, allerdings sollte wer die Dienste von Planet Labs nutzt sich dieser Tatsache natürlich bewusst sein.

Was sagt uns dies über die Daten?

Die Kartendarstellung zeigt uns Zusammenstellungen der Planet-Labs-Bilder in Intervallen von einem oder drei Monaten. Diese bestehen im Moment aus drei verschiedenen Arten von Bildern:

  • Bilder der Rapideye-Konstellation, welche in der Zusammenstellung durch die relativ große Bildbreite von 77 km identifizierbar sind.
  • Bilder der sehr kleinen Planetscope-Satelliten in sonnen-synchroner Umlaufbahn mit einer Bildbreite von 24 km für welche Planet Labs hauptsächlich bekannt ist.
  • Bilder von Planetscope-Satelliten im ISS-Orbit, welche sich von den vorher genannten Bildern durch die etwas kleinere Bildbreite (20 km) und die geringere Neigung der Umlaufbahn unterscheiden.

Ich werde nicht viel zu der Strategie der Bild-Zusammenstellung sagen – diese ist nicht sehr anspruchsvoll. Bei den Rapideye-Bildern wird eine Form der Wolken-Erkennung und -Maskierung verwendet, bei den Planetscope-Bildern jedoch nicht.

Der interessantere Teil ist die Abdeckung. Planet Labs wirbt seit langem mit der Aussicht darauf, eine tägliche Abdeckung des gesamten Planeten zu produzieren – was natürlich nur für die Landflächen gemeint ist. Die Angaben dazu, in wie fern sie dies tatsächlich erreichen, sind jedoch immer etwas vage – Zahlen erwecken meist den Eindruck eher theoretische Zielvorgaben zu sein und man spricht von der Fähigkeit einer kompletten täglichen Abdeckung und nicht davon dass diese tatsächlich aufgenommen wird.

Abdeckung

Die Bilder scheinen auf den Bereich zwischen 57°S and 76°N begrenzt zu sein, die nördliche Grenze ist jedoch erkennbar keine Aufnahme-Grenze, sondern eine Bearbeitungs-Grenze. Diese Grenzen entsprechen übrigens in etwa den Grenzen der bekannten Welt bis zum 17. bis 18. Jahrhundert. Im Bereich wo Bilder aufgenommen werden, erreichen sie im Moment (mit Mai 2017 als neuestem Monat) etwa 90-95 Prozent Abdeckung im Monats-Intervall. Es ist möglich, dass ein Teil der Lücken daher ruht, dass einige Bilder nicht verarbeitet wurden, weil sie komplett wolkenbedeckt sind, und die eigentliche Abdeckung etwas besser ist. Das Ganze ist jedoch noch immer weit entfernt von einer vollständigen täglichen Abdeckung, schließt jedoch nicht aus, dass die täglich erfasste Fläche in der Gegend der Größe der gesamten Landfläche der Erde oder darüber liegt. Um dies zu erreichen braucht man nur genügend Erfassungs-Kapazität, sprich: genügend viele Satelliten. Für eine tatsächlich vollständige Abdeckung hingegen müssten diese Aufnahmen gleichmäßig über die Landflächen der Erde verteilt sein, was ein viel größeres Problem ist.

Die derzeitige Erfassungs-Strategie mit vielen anscheinend zufälligen Lücken in den Aufnahmen sieht ziemlich merkwürdig aus. Ich weiss natürlich nicht, was für technische Einschränkungen hier bei so kleinen Satelliten existieren, wie präzise man die Aufnahmen planen kann und in wie weit es in der Nähe eine Empfangsstation geben muss. Und man behalte im Kopf, dass sie diese Satelliten nicht wirklich manövrieren können und damit nur wenig Kontrolle darüber haben, wo ein Satellit zu welcher Zeit Aufnahmen machen kann. Man kann sich das in etwa wie ein Dart-Spiel vorstellen, wo der Spieler relativ schlecht ist und die Aufgabe hat, alle Felder der Scheibe mindestens einmal zu treffen. Er braucht dafür deutlich mehr Pfeile als es Felder auf der Scheibe gibt, denn er wird viele Felder mehr als einmal treffen, bevor er eine volle Abdeckung erreicht hat.

Hier ein Beispiel vom Mai 2017 von einem Ausschnitt in Süddeutschland.

Das Bild hat hundert Prozent Abdeckung, allerdings kann man deutlich sehen, dass ein Bereich in der Bildmitte stark von Wolken beeinträchtigt ist, was darauf hindeutet, dass hier vom Mai 2017 keine Aufnahmen ohne Wolken existieren (oder deren Verfahren zur Einschätzung der Bildqualität funktioniert nicht, danach sieht es aber nicht wirklich aus). Wenn ich das Wetter vom Mai anschaue (zum Beispiel auf Grundlage von MODIS- und VIIRS-Bildern) dann finde ich mindestens vier Tage mit gutem Wetter im Vormittags-Zeitraum in diesem Bereich, wo gute Aufnahmen möglich gewesen wären (10., 17., 26. und 27. Mai). Hier eine schnelle Zusammenstellung von Sentinel-2-Daten vom 10. und 27. Mai.

Dass ich dies auf Grundlage von Sentinel-2-Daten mit einem 10-Tage-Aufnahme-Intervall produzieren kann ist natürlich ein glücklicher Zufall. Aber dies zeigt, dass obwohl die von Planet Labs aufgenommenen Bilder möglicherweise von der Anzahl her ausreichen würden um das ganze Gebiet jeden Tag abzudecken, die tatsächlich aufgenommen Bilder dies nicht tun, und zwar ziemlich deutlich. Und die Gegend liegt auf einer geographischen Breite wo durch die Umlaufbahn-Geometrie die potentielle Aufnahme-Dichte schon deutlich höher liegt als am Äquator.

Ist kleiner besser?

Diese konkrete Analyse der aktuellen Angebote und Fähigkeiten von Planet Labs bringt mich nun aber zu der allgemeineren und ultimativen Frage – ist eine größere Zahl kleiner Satelliten mit einem recht kleinen Blickfeld besser als eine kleinere Zahl von größeren Satelliten mit einem großen Blickfeld?

Obwohl ich diese Frage so formuliert habe, dass sie von der räumlichen Auflösung unabhängig ist, ist dies in der Praxis natürlich nicht der Fall – Satelliten mit höherer Auflösung haben gewöhnlich ein kleineres Blickfeld. Hier ein paar Beispiele:

Satellit Masse Aufzeichnungs-Breite Auflösung Breite in Pixel (ungefähr)
Landsat 1500 kg 190 km 15 m 13000
Sentinel-2 1100 kg 290 km 10 m 30000
Rapideye 156 kg 77 km 6.5 m 12000
Planetscope 6 kg 24.6 km 3.7 m 6600
Skysat 83 kg 8 km 0.9 m 8000
Pleiades 970 kg 20 km 0.7 m 30000
WorldView-4 2500 kg 13.1 km 0.31 m 42000

Beim Vergleich der Auflösungen sollte man beachten, dass die Planetscope-Satelliten die einzigen mit einem Bayer-Pattern-Sensor sind (so dass die angegebene Auflösung sich auf die Kombination der verschiedenen Spektralbänder bezieht).

Ein sehr breites Blickfeld wie bei Sentinel-2 führt zu zusätzlichen Problemen wie der Positions-Genauigkeit und der Unterschiede in der Beleuchtung und dem Blickwinkel über das Blickfeld, dies ist jedoch nicht worum es mir hier geht. Ohne diese besonderen Probleme haben wir im Grunde die folgenden Einflüsse:

  • Satelliten mit einem kleinen Blickfeld (sowohl was den Winkel als auch was die Breite in Pixel betrifft) können leichter und billiger gebaut werden. Dies ist der Hauptgrund für das kleine Sichtfeld bei den Planetscope-Satelliten.
  • Kleinere Einzelbilder erlauben eine feiner granulierte Aufnahme-Planung – entweder in Bezug auf die aufgenommenen Stellen oder in Hinsicht auf gutes Wetter. Anders ausgedrückt: Falls die Aufnahme-Planung gut funktioniert, sind in kleineren Bildern im Mittel weniger Wolken vorhanden.
  • Kleinere Bilder bedeuten mehr Kanten zwischen den Bildern und damit mehr Diskontinuitäten in den Daten und mehr Probleme beim Zusammensetzen.
  • Die Entwicklung und der Bau einer größeren Zahl kleiner Satelliten kann deutlich billiger sein als der Bau eines einzelnen großen Satelliten. Das Risiko-Management in Bezug auf Ausfälle beim Start und im Betrieb ist auch einfacher.
  • Aufnahmen in hoher Auflösung erfordern eine bestimmte Mindestgröße der Optik, was wiederum eine harte Grenze für die Größe eines Satelliten darstellt.
  • Aufnahmen im langwelligem Infrarot (SWIR/TIR) erfordern eine Kühlung, welche sich nicht ohne Weiteres miniaturisieren lässt.

Wie man sieht gibt es also Vor- und Nachteile für beides. Zusätzliche Einflussfaktoren existieren, wenn man zielgerichtet nur bestimmte Stellen aufnehmen möchte – was bei allen sehr hochauflösenden Systemen derzeit der Fall ist. Ich betrachte hier jedoch nur den Zweck einer gleichmäßigen Routine-Abdeckung größerer Gebiete.

Wenn man 16 Landsat-Satelliten hätte und diese für diesen Zweck passend in ihren Umlaufbahnen anordnet, könnte man eine solide tägliche Abdeckung erreichen (Ja, natürlich müsste man auch die Systeme am Boden dafür erheblich erweitern). Nimmt man nur die Breite des Sichtfeldes als Grundlage (was natürlich eine starke Vereinfachung darstellt) könnte man das selbe mit etwa 16*190/24.6 = 124 Planetscope-Satelliten machen, falls man (a) diese mit der selben Aufnahmezeit pro Umlauf betreiben kann – was vielleicht möglich wäre, was im derzeitigen Betrieb jedoch nicht demonstriert wird und (b) wenn man die Satelliten in ihren Umlaufbahnen dafür optimal relativ zu einander anordnet – was nicht geht, denn die Satelliten haben keinen Antrieb und die begrenzten Möglichkeiten, indem man das Abbremsen durch die Atmosphäre steuert, reichen hierfür vermutlich nicht. Folglich braucht man für eine wirklich tägliche Abdeckung eine deutlich größere Anzahl von Satelliten, vermutlich ein vielfaches der genannten Zahl.

Meine Vermutung ist, dass falls Planet Labs längerfristig mit dem derzeitigen Geschäftsmodell und dem Ziel einer täglichen und vollständigen Abdeckung größerer Gebiete auf der ganzen Welt im Geschäft bleibt, dass sie vermutlich früher oder später beginnen werden, ihre Satelliten mit einer Form von Antrieb auszustatten.

bahia_blanca_980

16. Juni 2017
von chris
Keine Kommentare

Erfassung von Küsten und der Gezeiten-Zone

Mit der Einführung von neuen Bildebenen für die Erfassung von Daten in OpenStreetMap durch DigitalGlobe gibt es jetzt eine ganze Menge zusätzliches Material für das Mappen auf die Entfernung. Dennoch sind in vielen entlegenen Gegenden meine Bilder für die Erfassung in OpenStreetMap nach wie vor die aktuellste einfach zugängliche Bildquelle und in einer ganzen Reihe von Bereichen auch die Beste überhaupt. Und selbst dort, wo es auf Aktualität nicht so ankommt und bei Bing und DigitalGlobe gute Bilder vorhanden sind, ist eine zusätzliche unabhängige Bildquelle oft sehr nützlich zur Interpretation.

Ich habe jetzt ein paar weitere Bilder ergänzt mit Schwerpunkt auf Küsten-Regionen und der Gezeiten-Zone. Gebiete mit wechselndem Wasserstand sind etwas, wo offene Satellitendaten ganz besonders nützlich sind selbst wenn es im Grunde auch höher auflösende Bilder gibt, denn man kann hier zielgerichtet Bilder mit hohem oder niedrigem Wasserstand wählen und ist so besser in der Lage, präzise die Küstenformen zu erfassen während dies bei höher aufgelösten Bildquellen mit mehr oder weniger zufälligem Wasserstand in den Bildern weitgehend auf Raten hinausläuft, wenn man keine zusätzlichen Informationsquellen hat.

Die Erfassung von Küsten und Tiden-Bereichen in OpenStreetMap ist gar nicht so schwer, hier in Kürze ein paar Grundlagen:

  • Die Küstenlinie mit dem Attribut natural=coastline wird an das obere Ende des Gezeiten-Bereiches platziert.
  • Der Gezeiten-Bereich selbst wird meist als natural=wetland erfasst, zusätzlich wetland=tidalflat, falls es sich um eine Wattfläche aus Sand oder Schlamm handelt, andere Attribute (wie wetland=saltmarsh oder wetland=mangrove) sind für bewachsene Flächen vorgesehen.
  • Flache jedoch permanent unter Wasser liegende Gebiete, welche höher liegen als der umgebende Meeresgrund können als natural=reef erfasst werden.
  • Für Sand- oder Kiesbänke im Gezeitenbereich oder darüber gibt es natural=shoal.
  • Unbewachsene Küstenstreifen aus Sand, Kies oder Geröll, welche von Wellen geformt werden, können als natural=beach erfasst werden, vorzugsweise mit einem surface-Attribut, welches das Material beschreibt.
  • Felsküsten kann man mit natural=bare_rock erfassen, Steilküsten mit natural=cliff.
  • Für Küstendünen-Bereiche gibt es natural=sand, einzelne Dünen kann man auch mit natural=dune erfassen.

Vieles davon ist natürlich ohne lokales Wissen schwierig zu beurteilen, also sollte man bei der Erfassung auf die Ferne vorsichtig sein und sich zumindest mit dem Gebiet vorher etwas vertraut machen. In vielen der Gebiete, die ich im Folgenden zeige, sind jedoch zumindest die grundlegenden Dinge, also Küstenlinie und Wattflächen, nicht ganz so schwierig.

Ein paar weitere Details zur Erfassung von Dingen an der Küste finden sich in einem anderen Blogbeitrag zu Stränden und Riffen.

Bahía Blanca

Bahía Blanca ist der Name einer Stadt und einer Bucht in Argentinien und dort gibt es eines der größten Watt-Gebiete in Südamerika, welches derzeit in OpenStreetMap recht schlecht erfasst ist. Ich habe hier Bilder sowohl mit niedrigem als auch mit hohem Wasserstand.

Bahía Blanca bei Niedrigwasser

Bahía Blanca bei Hochwasser

Man beachte, dass die Bilder auch von unterschiedlichen Jahreszeiten stammen, also die Farbunterschiede nicht ausschließlich den Gezeiten geschuldet sind. Das ganze Gebiet ist auch in hochauflösenden Bildern verfügbar, jedoch mit unterschiedlichen Wasserständen wodurch die Interpretation oft recht schwierig ist.

Cook Inlet

Cook Inlet ist eine große Bucht im Süden Alaskas an derem nördlichen Ende nahe Anchorage sich ausgedehnte Wattflächen befinden.

Diese Spätsommer-Bild erlaubt daneben auch eine gute Erfassung der Gebirge drumherum, welche in hochauflösenden Quellen nur teilweise und oft zu einer ungünstige Jahreszeit dargestellt sind.

Bogoslof Island

Auch in Alaska gelegen ist Bogoslof Island, wo ein Vuklanausbruch vor kurzem die Insel weitgehend umgestaltet hat. Näheres dazu auch hier.

Das Delta der nördlichen Dwina

Die Situation im Delta der nördlichen Dwina nahe Archangelsk ähnelt etwas der am Cook Inlet, jedoch ist die Datenbasis in OpenStreetMap an Land hier schon deutlich besser. Auch hier biete ich ein Bild mit niedrigem Wasserstand, was zur Erfassung des Formen im Gezeitenbereich nützlich sein dürfte.

Der Aralsee

Zum Schluss habe ich noch zwei Bilder des Aralsees mit niedrigem und hohem Wasserstand. Die genaue Ausdehnung der Wasserfläche variiert stark von Jahr zu Jahr, allerdings sollten diese Bilder zumindest grob zeigen, welche Flächen derzeit dauerhaft und welche nur saisonal mit Wasser bedeckt sind.

Aralsee Niedrigwasser

Aralsee Hochwasser

Im Hochwasser-Bild sind im nördlichen Teil noch Eisreste zu sehen, welche man nicht mit anderen Dingen verwechseln sollte. Die korrekte Erfassung von saisonaler Wasserbedeckung ist übrigens natural=water + intermittent=yes oder seasonal=yes, nicht natural=wetland – auch wenn der nicht dauerhafte Charakter derzeit im OSM-Standardstil nicht dediziert angezeigt wird.

16. Juni 2017
von chris
Keine Kommentare

Öffentliche Konsultation zu Anforderungen an zukünftige Landsat-Missionen

NASA und USGS bitten jetzt um Vorschläge und Eingaben zu den Anforderungen an zukünftige Landsat-Missionen. Die Aufforderung richtet sich an alle Datennutzer. Hier ein Zitat aus dem RFI:

The U.S. Geological Survey (USGS) Land Remote Sensing Program has collected a diverse set of U.S. Federal civil user measurement needs for moderate-resolution land imaging to help formulate future Landsat missions. The primary objective of this RFI is to determine if these needs are representative of the broader Landsat user community, including, but not limited to, private sector, government agencies, non-governmental organizations and academia, both domestic and foreign. Responses to this RFI will be considered along with other inputs in future system formulation.

Das ist ziemlich bemerkenswert. Normalerweise findet die Planung solcher Projekte fast ausschließlich im Kreise öffentlicher Institutionen statt. Wenn die Öffentlichkeit generell konsultiert wird dann üblicherweise über Fragebögen zum Ankreuzen, welche oft bereits mit einem bestimmten Ziel-Ergebnis aufgesetzt sind und dann auch entsprechend interpretiert werden. Dies sieht jedoch ein bisschen anders aus, sie möchten nämlich Freiform-Antworten zu einer Reihe von spezifischen, jedoch offenen Fragen haben und sie fragen nicht nur danach, was man möchte, sondern auch nach den Gründen, weshalb man glaubt, dass dies wichtig wäre.

Es gibt natürlich keinerlei Garantie, dass die Eingaben tatsächlich irgendeine Wirkung auf die Landsat-Pläne haben, dennoch würde ich alle Routine-Nutzer von Landsat-Daten, welche die Fragen verstehen und sich kompetent fühlen sie zu beantworten, auffordern, ihre Gedanken hierzu einzureichen. Bis jetzt sind so weit man das sehen kann bei der Planung der Zukunft von Landsat fast nur Wünsche von öffentlichen und wissenschaftlichen Institutionen sowie vermutlich von einigen größeren Unternehmen eingegangen. Die Interessen dieser Nutzer sind jedoch nicht unbedingt identisch mit denen aus dem großen Feld der kleineren kommerziellen Nutzer, unabhängigen Wissenschaftler, gemeinnützigen Projekten oder Ähnlichem. Falls Sie zu einer dieser unterrepräsentierten Gruppen gehören, Landsat-Daten nutzen und meine Beiträge hier zu Satelliten-Themen mit Interesse lesen und nicht nur wegen der Bilder überfliegen, besteht eine gute Chance, dass Sie hier wertvolle Hinweise geben könnten.

Einsendeschluss für Antworten ist der 14. Juli

resourcesat2_980

4. Juni 2017
von chris
Keine Kommentare

Neuigkeiten von offenen Satellitenbild-Daten

Hier ein paar weitere Neuigkeiten aus der Welt der offenen Satellitendaten:

  • als Nachtrag zu meinem Bericht zu fehlenden Aufnahmen bei Sentinel-2 – die ESA hat jetzt anscheinend ein paar Bilder „gefunden“ und die Formulierung, mit der sie das in ihrem Statusbericht mitteilen hebe ich mir mal für spätere Verwendung auf:

    The ground segment has suffered a sporadic anomaly between March and May, leading to an incomplete dissemination of the production with about 11% products missing throughout the period.

    Ich denke da an so was wie: Was meinen Sie mit Steuerhinterziehung, meine Buchhaltung litt im vergangenen Jahr unter einer sporadischen Anomalie… Ich habe die Illustrationen der Abdeckungen vor ein paar Tagen mit den neu verfügbaren Daten aktualisiert.

  • Der USGS hat seinen EarthNow! Live-Landsat-Betrachter überarbeitet – nicht zu verwechseln mit Mapbox Landsat Live (was nicht wirklich live ist). Die neue Version zeigt jetzt endlich Echtfarben-Bilder. Obwohl hier nur zeitweise eine echte live-Ansicht zu sehen ist – meist erhält man Aufzeichnungen von vor ein paar Stunden – ist dies eine recht schöne Illustration, wie Satelliten wirklich Bilder aufnehmen und so weit ich weiss ist dies die einzige Gelegenheit, wo man derzeit aktuelle Landsat-Level-0-Daten sehen kann.
  • Der USGS verteilt jetzt auch einige Bilder des indischen IRS-P6/Resourcesat-1-Satelliten und von dessen Nachfolger Resourcesat 2. Die Bilder sind größtenteils nur von den USA von zwei Instrumenten: LISS-3 und AWiFS. Die Datenqualität ist recht gut, jedoch mit einem recht eingeschränkten Spektralbereich mit Kanälen für rot, grün, NIR und einem SWIR-band. AWiFS ist ganz interessant als Zwischen-Lösung zwischen den höher auflösenden Systemen mit niedriger Aufnahme-Frequenz wie Landsat und Sentinel-2 auf der einen Seite und den Systemen mit niedriger Auflösung und hoher Aufnahme-Frequenz wie MODIS, VIIRS und Sentinel-3.

    Hier Beispielbilder vom Westen der USA mit angenäherten sichtbaren Farben mit geschätztem Blau-Signal (wie ich es auch schon früher bei ASTER gezeigt habe).

ISRO Resourcesat 2 AWiFS Beispiel

ISRO Resourcesat 2 LISS-3 Beispiel

LISS-3 Ausschnitt in voller Auflösung

S2A_R038_N77_20170505T125711_expose.ann

3. Juni 2017
von chris
Keine Kommentare

Arktische Orte im Frühjahr

Ein paar weitere Satellitenbilder vom Frühling in der Arktis – diesmal von den nördlichsten Siedlungen auf der Erde.

Der nördlichste dauerhaft bewohnte Ort auf dem Planeten ist bereits seit langem die Wetterstation und Militärbasis Alert im nördlichen Kanada am nordöstlichen Ende von Ellesmere Island bei 82.5 Grad nördlicher Breite.

Alert, Ellesmere Island

Als nächstes folgt etwa ein Grad weiter südlich die Station Nord im Nordosten Grönlands, ein Dänischer Militärposten. Im Gegensatz zu allen anderen Orten die ich hier zeige, welche sich nahe der Küste befinden und zumindest im Sommer per Schiff erreichbar sind, ist diese Station meist das ganze Jahr lang nur aus der Luft und über Land erreichbar, so dass alles benötigte per Flugzeug eingeflogen werden muss.

Station Nord, Grönland

Noch mal fast ein Grad weiter Südlich bei 80.8 Grad Nord liegt Nagurskaja auf Alexandraland, Franz-Josef-Land. Diese Militärstation ist in den letzten Jahren stark erweitert worden – ich habe vor zwei Jahren ein Bild eines Versorgungskonvois für die Station gezeigt.

Nagurskaja, Franz-Josef-Land

Alle bis jetzt gezeigten Orte sind in den 1950er Jahren während des kalten Krieges etabliert worden. Bei allen handelt es sich um militärische Stationen mit Zugangsbeschränkungen. Die nördlichste für Besucher frei zugängliche Siedlung ist Ny-Ålesund auf Spitzbergen, welche hauptsächlich der wissenschaftlichen Forschung dient.

Ny-Ålesund, Spitzbergen

Auch auf Spitzbergen, ein kleines Stück weiter südlich, liegt Longyearbyen welches mit mehr als 2000 Einwohnern die nördlichste größere Siedlung ist. Auf dem Plateau südlich des Flughafens auf der linken Seite des Bildes kann man die Antennen der Svalbard Satellite Station erkennen, welche auch einen großen Teil der Bilder empfängt, welche ich hier zeige.

Longyearbyen, Spitzbergen

Diese beiden Orte auf Spitzbergen sind mehr als einhundert Jahre alt, deutlich älter als die vorher gezeigten weiter nördlich, welche im kalten Krieg etabliert wurden. Im Gegensatz zu den anderen Orten, bei welchen so gut wie alle Ressourcen von anderswo herangeschafft werden müssen, werden die Siedlungen auf Spitzbergen von vor Ort abgebauter Kohle mit Energie versorgt.

Zum Abschluss ein Ort, welcher bezüglich der geographischen Breite nicht mehr mit den anderen konkurriert, jedoch durch die Lage auf der anderen Seite des Nordpols bedeutend ist. Es handelt sich um den russischen Stützpunkt auf der Kotelny-Insel, welcher wie Nagurskaja in den letzten Jahren deutlich erweitert wurde.

Темп, Kotelny-Insel

Hier noch mal die Positionen dieser Orte zusammen in einer Karte.

Alle Bilder auf Grundlage von Copernicus-Sentinel-2-Daten vom April und Mai 2017.

grounded_sea_ice_980

26. Mai 2017
von chris
Keine Kommentare

Aufliegendes Meereis in der Arktis

Ich habe das Phänomen von auf dem Meeresboden aufliegenden Meereises in der Karasee bereits vor einigen Jahren erwähnt. Hier ein aktuelles Bild des selben Gegend mit einem größeren Ausschnitt der gesamten nordöstlichen Karasee, welches zeigt, dass dies 2017 immer noch an den selben Stellen passiert.

Dies ist jedoch nicht die einzige Gegend im Arktischen Ozean, wo das Meereis entfernt von der Küste in Kontakt mit dem Meeresboden kommt, dadurch fixiert wird und sich nicht mehr mit dem allgemeinen Drift des Eises in der Gegend mitbewegt. Die bekannteste solche Stelle ist die Norske Øer Ice Barrier an der Küste Ostgrönlands. Das spezielle hieran ist, dass das Eis hier teils halb-dauerhaft auch über den Sommer verbleibt und nur in manchen Jahren vollständig verschwindet.

Zu dieser Zeit bildet die Eis-Barriere zusammen mit dem frei schwimmenden Küsteneis näher an der Küste eine geschlossene Eisfläche. Wie das gewöhnlich im Sommer aussieht kann man auf meinem Grönland-Mosaik erkennen. Eine andere Gegend, wo aufsetzendes Meereis derzeit gut zu sehen ist, ist das Ostsibirische Meer. Hier ein Bild vom März von der Gegend nördlich der Medweschji-Inseln.

Und hier die selbe Gegend vor ein paar Tagen.

Alle Bilder auf Grundlage von Copernicus Sentinel-3-OLCI-Daten.