Imagico.de

blog

Wahrgenommene und tatsächliche Qualität von Bildquellen für OpenStreetMap

| 2 Kommentare

Einer der Fallstricke für Mapper in OpenStreetMap bei der Erfassung auf Grundlage von Bildern ohne aktuelle Kenntnisse der Situation aus der Nähe ist das Problem, dass gelegentlich scheinbar ungenaue Daten auf Grundlage veralteter Informationen „verbessert“ werden. Ein plakatives Beispiel dafür sind Fälle, wo abgerissene Gebäude in populären Bilddaten-Quellen sichtbar bleiben und Mapper diese immer wieder neu abzeichnen, da sie anscheinend ja in der OpenStreetMap-Datenbank fehlen.

Diese Art von Problemen nimmt in den letzten Jahren zu, da die Anzahl unterschiedlicher Bildquellen, die für die Erfassung verwendet werden, wächst und gleichzeitig das durchschnittliche Alter dieser Bilddaten ansteigt, denn nicht überall werden die Bilder regelmäßig aktualisiert. Die Qualität von Bilddaten ist am Ende eine mehrdimensionale Größe wenngleich für Mapper, insbesondere wenn sie mit einer Gegend nicht vertraut sind, die Auflösung eines Bildes das offensichtlichste Qualitätsmerkmal ist und deshalb Mapper oft geneigt sind, die Quelle mit der höchsten Auflösung generell für die beste Bildquelle zu halten. Die wichtigsten Dimensionen der Bildqualität sind vermutlich:

  • die räumliche Auflösung.
  • die Positionsgenauigkeit – welche nicht unbedingt mit der Auflösung korreliert – näheres dazu in einem anderen Beitrag von mir.
  • das Alter – die fehlende Berücksichtigung hiervon ist die Ursache für das oben beschriebene Problem.
  • die Jahreszeit – Bilder von unterschiedlichen Jahreszeiten eignen sich unterschiedlich gut für die Erfassung verschiedener Dinge. Ein häufiges Problem mit hochauflösenden Bildern in Bing und DigitalGlobe bei hohen Breiten ist zum Beispiel, dass die Bilder oft von relativ früh im Jahresverlauf stammen (wo das Wetter oft besser ist als später im Jahr) und das meiste, was von Interesse ist, dann unter Schnee verdeckt ist.
  • die Wolkenfreiheit.

Von Menschen geschaffene Strukturen sind nicht der einzige Fall, wo die verschiedenen Dimensionen der Bildqualität in Kombination bewirken, dass die Bildquelle mit der höchsten Auflösung nicht unbedingt die Beste ist. Ich bin vor kurzem auf ein Beispiel gestoßen, welches dies sehr schön illustriert.

Hintergrund-Geschichte dazu: In 2013 hab ich die Gletscher von Neuguinea in OpenStreetMap erfasst – auf Grundlage von damals neuen Landsat-Bildern. Bing hatte damals wie heute keine hierfür brauchbaren Bilder.

Mit den vor kurzem von DigitalGlobe bereitgestellten Bildern gibt es jetzt für OpenStreetMap-Anwendungen hochauflösende Bilder der Gegend, jedoch sind diese nicht sehr aktuell, vermutlich stammen sie von 2011-2012. Wichtiger ist jedoch, dass das Gebiet des Northwall Firn einen erheblichen Versatz in der Position aufweist. Was dazu führt, dass die neue Erfassung durch palimpadum ohne böse Absicht schlechter ist als zuvor.

Ich hab jetzt zwei neue Bilder bei den OSM images for mapping hochgeladen, welche eine wirklich substantielle Aktualisierung der Gletscher und möglicherweise auch anderer Dinge in der Gegend ermöglichen sollten. Diese Bilder illustieren sehr schön die verschiedenen Dimensionen der Bildqualität für die Erfassung von Daten für OSM.

Das neuere der beiden Bilder stammt von 2016 und ist von Sentinel-2 aufgenommen. Es stellt das neueste wolkenfreie frei verfügbare Bild der Gegend dar. Jedoch weist es einen erheblichen Nachteil auf: Es zeigt Neuschnee auf den höchsten Teilen der Berge, welcher eine präzise Erfassung der Gletscher unmöglich macht.

Das andere Bild stammt von 2015 und ist von Landsat 8 aufgenommen. Es zeigt die Gletscher in schneefreiem Zustand und erlaubt so eine Erfassung ihrer Ausdehnung. Insgesamt haben wir also:

  • Das Bild von DigitalGlobe, welches die höchste Auflösung bietet, jedoch am ältesten ist und zumindest in Teilen eine schlechte Positionsgenauigkeit aufweist. Auch sind in der weiteren Umgebung weite Teile der Bilder durch Wolken unbrauchbar.
  • Das Sentinel-2-Bild, welches am aktuellsten, jedoch durch Neuschnee beeinträchtigt ist.
  • Das Landsat-8-Bild mit geringfügig geringerer Auflösung als Sentinel-2, jedoch mit einem klaren Blick auf die Gletscher.

Die Positions-Genauigkeit von Sentinel-2 und Landsat ist hier sehr ähnlich. Und schließlich sind die Wolken auch der Grund, weshalb es keine neueren Bilder von Landsat oder Sentinel-2 von der Gegend mit einem klaren Blick auf die Erdoberfläche gibt.

Für die Erfassung der Gletscher wird man sinnvollerweise also das Landsat-Bild verwenden. Für die Erfassung des Tagebaus, welcher sich recht schnell verändert, eignet sich das Sentinel-2-Bild vermutlich am besten. Andere Dinge wie Seen oder die Landbedeckung lassen sich – soweit nicht von Wolken verdeckt – recht zuverlässig von den Digital-Globe-Daten erfassen. Wobei es immer eine gute Idee ist, die Position anhand der anderen Bilder zu überprüfen und gegebenenfalls zu korrigieren.

Auch denen, die jetzt kein Interesse an Gletscher-Erfassung haben, empfehle ich, durchaus mal die drei Bildquellen hier in Ihrem bevorzugtem OSM-Editor zu landen und zwischen diesen ein bisschen hin und her zu schalten und so ein Gefühl für die Unterschiede zu bekommen. Hier die URLs für die OSMIM-Layer:

tms:http://imagico.de/map/osmim_tiles.php?layer=S2A_R088_S05_20160812T011732&z={zoom}&x={x}&y={-y}
tms:http://imagico.de/map/osmim_tiles.php?layer=LC81030632015286LGN00&z={zoom}&x={x}&y={-y}

2 Kommentare

  1. Das Armchair Mapping ist aber zu unrecht verpönt. Würde man vollständig auf diese Methode verzichten, stünden wir sicher nicht da wo wir heute sind.

    Warum? Weil man auch mit Ortskenntnis viele Dinge nicht ohne Satellitenbilder bei einem angemessenen Aufwand mappen kann. Ich weiß vielleicht den Zustand der Gebäude in meiner Straße, das wars aber auch schon. Darüber hinaus habe ich schon keine Ortskenntnis mehr. Wenn ich jetzt meine restliche Gemeinde mappen will, sollte ich jetzt nun jedes Gebäude einzeln per Bodenerfassung kontrollieren ob es noch steht? Das kann wohl kaum einer von mir verlangen?!

    Ich behaupte, dass man nicht viel falsch macht, wenn man in nicht-ortskundigen Gegenden Gebäude einträgt, weil man Ortskunde sowieso nur in seiner Straße besitzt. Und dass wir in jeder Straße einen OSMler haben, so weit sind wir noch nicht. Das schlimmste was passieren kann, ist dass es eine kleine Fehlerrate bei der tatsächlichen Gebäude Anzahl gibt, aber das ist besser wie nix zu haben.

    Anders schaut es natürlich aus, wenn man bei einer vollständigen Gebäude Erfassung Gebäude von alten Bildern einzeichnet, die es nicht mehr gibt. Aber dieses Phänomen kommt jz nicht allzu oft vor (hat in meiner lokalen Umgebung noch nie jmd gemacht)

    • Hallo Marius, danke für den Kommentar.

      Es geht in meinem Beitrag zwar nicht in erster Linie um fehlende Ortskenntnis aber trotzdem der Hinweis, dass die Verwendung von Luft-/Satellitenbildern nicht zwangsläufig mit dem Mappen ohne Ortskenntnis gleichzusetzen ist.

      Thema meines Beitrags und das was man mitnehmen sollte ist eigentlich eher, dass man Informationen, die man als Grundlage für die Erfassung verwendet, immer kritisch prüfen sollte und dass Bildquellen so gut wie nie alternativlos sind, man also meist die Möglichkeit hat, Beobachtungen in Bildern zumindest durch andere Bilder zu überprüfen.

Hinterlassen Sie einen Kommentar zu marius Antworten abbrechen

Pflichtfelder sind mit * markiert.



Durch das Abschicken Ihres Kommentars stimmen Sie der Datenschutzrichtlinie zu und erlauben, dass die eingegebenen Informationen (mit Ausnahme der eMail-Adresse) in diesem Blog veröffentlicht werden.