Imagico.de

blog

Archangelsk in Winter

28. Februar 2018
von chris
Keine Kommentare

Winter in Nordeuropa

Hier zwei Winter-Eindrücke aus Nordeuropa – der erste aus dem Norden Russlands von der Stadt Archangelsk:

Man erkennt die zugefrorene Nördliche Dwina und das ebenfalls weitgehend eisbedeckte Weiße Meer. Gut sichtbar in der niedrig stehenden Sonne sind auch die Abgase der Kraftwerke.

Hier ein Ausschnitt der Stadt:

Das zweite Bild zeigt den Nordwesten Schottlands:

Dieses Bild zeigt nicht nur die winterliche Schneebedeckung in den Bergen, sondern auch eine bemerkenswerte Farbkombination mit dem Grün der bewaldeten Flächen im Kontrast zu den Brauntönen der unbewaldeten Teile der Hügel und Berge.

Beide Bilder basieren auf Sentinel-2-Daten und finden sich im Bild-Katalog auf services.imagico.de.

Saunders Island, South Sandwich Islands by Sentinel-2A

23. Februar 2018
von chris
Keine Kommentare

Satellitenbild-Neuigkeiten

Ein paar Neuigkeiten zu offenen Satellitendaten:

Ich habe die Visualisierungen zur Satellitenbild-Abdeckung aktualisiert. Hier die dazu passende Darstellung der Abdeckung über der Zeit:

Entwicklung der Bild-Abdeckungen von offenen Satellitendaten

Darin kann man einige eichtige Entwicklungen erkennen:

  • Bei Landsat 8 hat der USGS jetzt im zweiten südhemispherischen Sommer einen geänderten Erfassungs-Plan umgesetzt (erkennbar im Abfall der Erfassungs-Zahlen im Dezember/Januar) bei dem die Antarktis deutlich seltener erfasst wird als in vergangenen Jahren (näher erläutert in meinem jährlichen Bericht).
  • Es gab in den Erfassungszahlen der Sentinel-2-Satelliten ziemliche Fluktuationen. Zu einem großen Teil sind diese durch eine wenig konsistente Erfassung der Antarktis bedingt – die ESA erfasst dabei manchmal mit einem Satelliten für ein paar Wochen Bilder der Antarktis, danach aber nicht mehr. Ein langfristiger Plan ist dabei nicht erkennbar.
  • In den letzten Wochen wurden die Erfassungen durch Sentinel-2B erheblich ausgeweitet und bieten nun eine vollständige Abdeckung im 10-Tages-Intervall (im Vergleich zu der recht willkürlichen Strategie vorher mit 10-Tages-Intervall für Europa, Afrika und Grönland und 20 Tagen für den Rest). Unterhalb ein Beispiel für die 10-Tage-Abdeckung. Das sind gute Neuigkeiten.
  • Das Problem mit fehlenden Erfassungen und einzelnen Paketen ist nach wie vor relevant – erkennbar an den orangenen Gebieten in den Visualisierungen.

Vollständige 10-Tage-Abdeckung durch Sentinel-2B Anfang 2018

Etwas anderes das sich geändert hat ist, dass die ESA anscheinend eine kleinere Änderung am Erfassungsplan für Sentinel-2A durchgeführt hat und jetzt die Südlichen Sandwichinseln mit erfasst. Hier ein Beispiel für einen seltenen fast wolkenfreien Blick auf Saunders Island:

Saunders Island, Südlichen Sandwichinseln von Sentinel-2A

Interessanterweise ist diese Änderung bis jetzt auf Sentinel-2A beschränkt – Sentinel-2B hat bis jetzt noch keine Bilder dieser Inseln erfasst. Wie bei der Antarktis scheint es keinen konsistenten Plan hinter dieser Änderung zu geben wodurch das Ganze für den Datennutzer recht unzuverlässig ist – eine weitere versäumte Gelegenheit Sentinel-2 als zuverlässige Datenquelle zu etablieren.

11. Februar 2018
von chris
Keine Kommentare

Die Imitation von Problemlösung

Wie viele hier sicher wissen gibt es seit einigen Jahren einen recht starken Trend in der Fernerkundung und Kartographie, der unter den Begriffen Künstliche Intelligenz und Maschinenlernen gehandelt wird. Wie viele vergleichbare Trends ist das was hierzu kommuniziert wird oft wenig in der Welt der Fakten verwurzelt, sondern oft von blumigen Marketing-Versprechen und Wunschdenken dominiert. Ich möchte hier ein bisschen Hintergrundinformationen dazu diskutieren, welche in der Diskussion oft fehlen und welche man berücksichtigen sollte, wenn man die Eignung solcher Methoden für kartographische Anwendungen beurteilen möchte.

KI-Technologien sind nichts wirklich Neues. Als ich an der Universität war, waren diese in der Informatik bereits recht etabliert. Der Name ist allerdings schon seit Beginn irreführend gewesen, denn Intelligenz und Lernen impliziert einen Zusammenhang zur menschlichen Intelligenz und zu typischen menschlichen Lern-Prozessen, welcher nicht existiert.

Eine recht gute Analogie wie solche Algorithmen arbeiten ist die eines Kindes, welches mechanisch trainiert wird: Man stelle sich ein junges Kind vor, welches ohne nennenswerten Kontakt mit der Umgebung der realen Welt aufgewachsen ist. Dieses Kind hat grundlegende menschliche Interaktionen und Sprache erlernt aber keine nennenswerte Erfahrung mit der Welt und der Gesellschaft darüber hinaus.

Nun setzt man sich mit diesem Kind vor einen Fernseher und jedes mal wenn ein Hund auf dem Bildschirm zu sehen ist ruft man Oh, ein Hund und ermutigt das Kind das nachzumachen. Nach einiger Zeit lässt man das Kind alleine weiter machen – quasi als menschlicher Hunde-Detektor.

Das ist in etwa wie KI- und Maschinenlernen-Technologien arbeiten – abgesehen davon natürlich, dass die technologischen Implementierungen natürlich dem menschlichen Gehirn bei dieser Arbeit oft immer noch unterlegen sind. Aber das ist nur ein gradueller Unterschied der mit der Zeit schrumpfen dürfte.

Das Wichtige dabei ist zu verstehen, dass das etwas vollkommen anderes ist als wie Menschen üblicherweise intellektuelle Arbeit vollführen.

Um ein Beispiel zu verwenden, welches näher an der kartographischen Anwendung liegt – man stelle sich das selbe Szenario mit dem Kind vor für die Erkennung von Gebäuden auf Satellitenbildern. Und dann stelle man sich vor, wie ein gewissenhafter und fähiger Mensch, wie der typische erfahrende OpenStreetMap-Mapper, diese Arbeit durchführen würde.

Das trainierte Kind hat noch nie ein echtes Gebäude von Außen gesehen. Es hat kein mentales Bild, welches mit dem Wort Gebäude verbunden ist, welches der Trainer verwendet, wenn auf dem Satellitenbild ein solches zu sehen ist.

Erfahrene OSM-Mapper haben hingegen eine ziemlich weitreichende Erfahrung dazu was ein Gebäude ist – sowohl in der realen Welt als auch hinsichtlich der abstrakten Klassifikations-Systeme in OpenStreetMap. Bei einem leeren Schwimmbecken auf dem Bild erkennt so jemand aufgrund der Schatten, dass dies kein Gebäude sein kann – und zwar selbst wenn der Mapper noch nie ein Schwimmbecken gesehen hat. Dieses qualifizierte Verständnis eines Bildes basiert auf einem tiefer gehenden Verständnis dessen, was man in dem Bild sehen kann, welches wiederum auf der umfassenden Lebens-Erfahrung basiert, die ein Mensch typischerweise hat. Hierdurch sind Menschen in der Lage, Probleme zu lösen, mit denen sie konkret noch nie konfrontiert waren, indem sie auf universelle Prinzipien aus Ihrer Erfahrung zurückgreifen wie Logik oder die Gesetze der Physik.

Wie im Titel dieses Beitrages schon angedeutet ist das was KI und Maschinenlernen machen im Grunde die Imitation von Problemlösung in einer Cargo-Kult-artigen Form. Wie das Kind im Beispiel oben, welches keinerlei Verständnis dafür hat, was ein Hund oder ein Gebäude sind und welches im Grunde nur versucht, die Handlungen des Trainers zu imitieren. Das sieht man auch an den lustigen Fehlern, welche solche Systeme meist produzieren – meist lustig deshalb, weil sie aus der Perspektive eines Menschen recht dumm und offensichtlich sind.

Die Leute in Entscheidungs-Positionen bei Unternehmen wie Facebook und Mapbox, welche versuchen, KI und Maschinenlernen in die Kartographie zu bringen (siehe hier und hier), sind sich dieser Einschränkungen im Grundsatz bewusst. Wenn sie tatsächlich glauben würden, dass KIs beim Mappen menschliche Intelligenz ersetzen können, dann würden sie nicht versuchen, diese Methoden in OSM zu etablieren, sie würden einfach ihre eigenen Geo-Datenbank auf Grundlage solcher Methoden aufbauen – ohne die unpraktischen Regeln und Einschränkungen, die es bei OSM so gibt. Der Grund, weshalb diese Unternehmen solche Methoden in OSM forcieren liegt darin, dass diese Methoden für sich genommen in kartographischen Anwendungen meist recht nutzlos sind. Wie oben ausgeführt produzieren diese Methoden aus prinzipiellen Gründen ziemlich blöde und eklatante Fehler und selbst wenn die Fehlerrate gering ist, macht dies das Ergebnis für die meisten Anwendungen ungeeignet. Was würde man von einer Karte halten, wo ein Prozent der Gebäude zum Beispiel in der Mitte von Straßen oder Flüssen eingezeichnet sind? Wer würde einem selbstfahrenden Auto vertrauen, das eine Straßen-Datenbank verwendet, wo 0.1 Prozent der Straßen in einen See oder durch eine Wand führen?

Was Facebook & Co. hoffen ist dass indem sie diese KI-Methoden in OSM etablieren die OSM-Community dazu bringen können, die Fehler ihrer mechanisch trainierten Kinder – welche diese unvermeidbar produzieren – zu korrigieren und dadurch die durch diese Fehler für sich genommen erst einmal ziemlich wertlosen Daten, die die KI ausspuckt, in etwas von praktischem Wert zu verwandeln. Oder, um es noch deutlicher zu sagen: Man versucht OSM von einer Karte von Menschen für Menschen in ein Projekt für das Crowdsourcing von Sklavenarbeit unter der Leitung von Unternehmens-gesteuerten KIs umzuwandeln.

Wer mein Blog regelmäßig liest weiß, dass ich alles andere als abgeneigt gegenüber automatischen Methoden in der Kartographie bin. Ich bevorzuge in den meisten Fällen analytische Methoden gegenüber KI-basierten Algorithmen, weil dies für die Probleme, mit denen ich zu tun habe, meist zu besseren Ergebnissen führt. Eines meiner wichtigsten Prinzipien dabei, an welches ich mich recht strikt halte, ist wenn irgend möglich niemals die Ergebnisse automatischer Methoden per Hand nachzubearbeiten. Der große Vorteil voll automatischer Methoden liegt darin, dass man sie sehr gut skalieren kann. Dieser Vorteil geht jedoch sofort verloren, wenn man eine manuelle Nachbearbeitung einführt, denn diese skaliert natürlich nicht in dieser Form. Wenn man dies ignoriert, da die Arbeit der OSM-Community ja kostenlos ist, dann demonstriert dies eine recht problematische und arrogante Einstellung zur Community. Computer sollten für Menschen arbeiten, nicht anders herum.

Wer sich mit KI und Maschinenlernen beschäftigt und OSM in diesem Bereich unterstützen möchte, für den gibt es eine Reihe von Möglichkeiten, dies in konstruktiver Form zu tun:

  • Sie sollten ihre Methoden als Open Source zur Verfügung stellen, damit die OSM-Community sie so einsetzen kann, wie es ihr am besten passt.
  • Teilen sie Ihre Erfahrungen mit diesen Methoden indem Sie Dokumentation und Anleitungen dazu schreiben.
  • Sie sollte Daten dafür wie Satellitenbilder unter einer Lizenz und in einer Form verfügbar machen, die für eine automatische Analyse gut geeignet ist. Das bedeutet insbesondere:
    • ohne Artefakte aus verlustbehafteter Kompression
    • mit ordentlicher radiometrischer Kalibrierung
    • mit allen verfügbaren Spektralbändern
    • mit vollständigen Metadaten
  • Sie sollten Methoden entwickeln, die den Mapper bei praktisch relevanten Problemen seiner Arbeit unterstützen und nicht versuchen, den Mapper dazu zu bringen, die Defizite in den Ergebnissen der Algorithmen auszubessern.

In anderen Worten: Sie sollten genau das Gegenteil von dem tun, was Facebook und Mapbox in diesem Bereich machen.

Ich möchte diesen Beitrag abschließen mit einer kurzen Bemerkung zu der Frage, ob wir denn in der Zukunft Maschinen haben werden, die Intelligenz-Arbeit deutlich oberhalb des Niveaus eines trainierten Kindes verrichten können. Die Antwort darauf ist: Das haben wir schon längst in Form von Computerprogrammen für spezifische Arbeiten. Der oberflächliche Reiz von KI und Maschinenlernen rührt von dem Versprechen her, dass sie helfen können, Probleme zu lösen, die man selbst nicht gut genug versteht um konkret einen Computer für diese Aufgaben zu programmieren. Ich denke nicht, dass es wahrscheinlich ist, dass dies tatsächlich in der vorhersehbaren Zukunft passieren wird, denn dies würde es nicht nur erfordern, den lebenslangen Lernprozess eines einzelnen Menschen zu reproduzieren, sondern auch die Jahrtausende dauernde kulturelle und technologische Evolution der menschlichen Gesellschaft als Ganzes.

Was jedoch durchaus möglich ist, dass wir für alltägliche Aufgaben zunehmend auf derartige Imitate von Lösungen durch KI vertrauen und dadurch immer mehr die Fähigkeit verlieren, diese Probleme wie oben beschrieben auf Grundlage eines tiefer gehenden Verständnisses zu analysieren und zu lösen. Falls dies eintritt wären wir dann natürlich auch nicht mehr in der Lage, den Unterschied zwischen der imitierten Lösung und einer tatsächlichen Lösung eines Problems zu erkennen. Am Ende ist ein Gebäude dann halt definiert als das, was eine KI als ein Gebäude erkennt.

Western Alps autumn colors 2017

27. Januar 2018
von chris
Keine Kommentare

Neue Mapping-Bilder

Über die vergangenen Tage hab ich ein paar neue Bilder für die Datenerfassung in OpenStreetMap vorbereitet – auf Grundlage von Sentinel-2 und Landsat-Daten.

Es gibt drei neue Bilder aus der Antarktis:

McMurdo-Sund

Dieses Bild deckt den McMurdo-Sund, Die McMurdo-Trockentäler und die Ross-Insel ab. Die Daten stammen vom Februar 2017 – also vom Ende des Sommers, aber mit dennoch einer Ganzen Menge Meereis im Bild.

Man kann auf Grundlage dieses Bildes eine Menge an Topographie, Gletschern und anderen Dingen erkennen und erfassen. Man kann es auch verwenden, um Elemente zu lokalisieren, deren Position man aus anderen Quellen nur ungefähr kennt. Wenn man das Bild mit in OSM existierenden Daten vergleicht, sieht man teils erhebliche Abweichungen. Die Positionsgenauigkeit des Bildes ist – wie auch bei den anderen Antarktis-Bildern – gut, aber nicht herausragend. In gebirgigen Gegenden am Rand des Aufnahme-Streifens (hier im Nordwesten) können die Positionsfehler schon mal über 50m liegen, anderswo sind sie meist geringer.

Bunger Hills

Ein anderer Teil der Küste der Ost-Antarktis. Hier braucht man zur Interpretation ein bisschen Erfahrung, dauerhaftes von nicht dauerhaftem Eis zu unterscheiden. Aber die existierenden OSM-Daten in der Gegend sind recht schlecht, so dass da eine Menge Raum für Verbesserungen besteht.

Larsen C Schelfeiskante

Dieses Bild dient hauptsächlich zur Aktualisierung der Schelfeis-Kante nach dem Eisberg-Abbruch 2017. Die derzeitige Erfassung in OSM ist eine grobe Näherung auf Basis von Bildern niedriger Auflösung.

Herbstfarben in den westlichen Alpen

Und dann hab ich noch ein weiteres Bild, welches mehr ein Experiment ist. Dies ist ein Herbst-Bild der westlichen Alpen, welches Herbstfarben der Bäume zeigt und damit zur Erfassung von leaf_cycle von Nutzen sein könnte. Ich bin mir aber nicht sicher, wie gut das funktioniert. Man benötigt vermutlich ein gewissen Mindestmaß an lokalem Wissen, um die Farben richtig zu deuten. Die im Bild rotbraunen Waldgebiete sind meist nicht immergrüner Laubwald, in vielen Fällen Buchen. Lärchen sind in der Farbe eher gelb und sind oft mit anderen Baumarten gemischt, was eine eindeutige Identifikation schwieriger macht. Auch verändern die verschiedenen Baumarten ihre Farbe natürlich zu verschiedenen Zeitpunkten – was sich auch noch je nach Höhe unterscheidet – so dass ein einzelnes Bild das nicht alles abdeckt und zur Ergänzung lokales Wissen recht wichtig ist, damit man die Farben nicht falsch interpretiert.

I would be interested in feedback about to what extent this image is useful for mapping leaf_cycle.

sval_3d_980

21. Januar 2018
von chris
Keine Kommentare

Über Beständigkeit in IT und Kartographie

Viele meiner Leser dürften vermutlich davon gehört haben, dass das Unternehmen Mapzen den Betrieb einstellt. In diesem Zusammenhang hat der CEO von Mapzen Randy Meech einen Text zur Vergänglichkeit und Beständigkeit im Technologie-Geschäft veröffentlicht (oder besser: erneut veröffentlicht), welcher mich an ein Thema erinnert hat, über welches ich schon seit längerem mal schreiben wollte.

Als ich vor über 10 Jahren mit der Produktion von 3D-Geovisualisierungen angefangen habe, waren diese sowohl technologisch als auch gestalterisch recht einzigartig. Nach meinen heutigen Maßstäben betrachtet sind in diesen frühen Arbeiten in mehrerer Hinsicht eine Menge Einschränkungen zu erkennen – sowohl durch das Fehlen von Kenntnissen und Erfahrungen von meiner Seite in diesem Gebiet als auch durch die begrenzte Qualität der verfügbaren Daten und durch die erheblichen Beschränkungen der Computer-Hardware zu der Zeit. Aber damals war dies in vieler Hinsicht allen anderen in diesem Bereich weit voraus (und ist es in Teilen immer noch).

Eine meiner frühen 3D-Geo-Visualisierungen von 2006

Heute, mehr als zehn Jahre später, hat sich sowohl in der Qualität der Ergebnisse als auch in der darunter liegenden Technologie eine Menge verändert. Aber es gibt auch einige Elemente, die fast gleich geblieben sind, insbesondere die Verwendung von POV-Ray als Rendering-Engine.

Eine neuere Ansicht, produziert 2015

Randy hat in seinem Text über die ältesten Unternehmen der Welt philosophiert und wenn man eine Liste der ältesten immer noch verwendeten Endbenutzer-Computer-Programme aufstellen würde, dann wäre dort POV-Ray ziemlich weit oben, denn dessen Ursprünge reichen bis 1987 zurück. Das ist nicht so alt wie TeX, aber dennoch recht bemerkenswert.

Was bewirkt, dass Programme wie TeX und POV-Ray sich in einer Welt behaupten, wo sich in beiden Fällen – entweder parallel oder im Anschluss zum Beginn dieser Programme – eine milliardenschwere Industrie entwickelt, deren Entwicklung in eine vollständig andere Richtung geht, die jedoch in vielerlei Hinsicht um die selben Aufgaben konkurriert (in diesem Fall Textsatz und die Produktion von 3D-Darstellungen)?

Die Antwort darauf ist, dass beide Programme auf Ideen basieren, welche in gewisser Hinsicht zeitlos und radikal sind und die dennoch gezielt für den Produktivbetrieb entwickelt wurden.

Im Fall von POV-Ray ist die zeitlose und radikale Idee das Rückwärts-Raytracing in Reinform. Es gab in den 1990er-Jahren dutzende Projekte aus der Informatik-Forschung, welche den selben Ansatz verfolgten, aber keines davon ist ernsthaft für den Produktions-Einsatz entwickelt worden. Es gab auch dutzende Rendering-Engines – sowohl Open Source als auch proprietär, welche für den Produktions-Einsatz gedacht waren, die jedoch alle das Konzept des Rückwärts-Raytracing aufgeweicht haben, denn man wollte von den Vorteilen der Verfahren des Hardware-beschleunigten 3D, welches damals die kommerziell bedeutenden Computerspiel- und Filmindustrie dominierten, profitieren.

Da POV-Ray im Grunde der einzige reine Raytracer war, war es auch die einzige Plattform, welche die Direkt-Darstellung impliziter Oberflächen umsetzen konnte. Ryoichi Suzuki, der dies implementiert hat, hat 2001 übrigens erwähnt, dass dies auf einer damals schon 15 Jahre alten Idee basierte, was das Ganze jetzt über 30 Jahre alt macht. Die Isosurface-Implementierung in POV-Ray ist die Grundlage aller meiner 3D-Erddarstellungen.

In Hinblick auf die gesamte kulturelle und technologische Entwicklung sind zehn oder 30 Jahre natürlich gar nichts. Längerfristig werden POV-Ray und meine 3D-Karten-Gestaltungen vermutlich in Vergessenheit geraten. Und vielleicht sind die zugrunde liegenden zeitlosen und radikalen Ideen ja gar nicht so zeitlos, wie ich es dargestellt habe. Was man jedoch mit Sicherheit sagen kann ist, dass der kurzfristige wirtschaftliche Erfolg kein Indikator für die langfristige Tragfähigkeit und Bedeutung einer Idee für den gesellschaftlichen Fortschritt ist.

Wenn ich jetzt mehr auf die Kartographie und Karten-Gestaltung schaue – ein Gebiet, mit dem die meisten meiner Leser vermutlich besser vertraut sind – Unternehmen wie Mapbox/Google/Here/Esri usw. konzentrieren sich da auf kurzfristige Lösungen für ihren akuten Bedarf im Geschäft – genau wie in den 1990er Jahren Unternehmen im Bereich 3D-Rendering in der Implementierung von Scanline-Techniken in spezialisierter Hardware einen tragfähigen und profitablen Weg gefunden haben, um die Art von 3D-Darstellung in geringer Qualität zu produzieren, wie wir sie aus den Computerspielen und Filmen der damaligen Zeit kennen.

Kaum jemand in Unternehmen wie Google oder Mapbox, insbesondere niemand in Entscheidungs-Positionen, hat die langfristige Vision eines Donald Knuth oder Eduard Imhof. Das liegt nicht nur daran, dass solche Leute kaum motiviert sind, für diese Unternehmen zu arbeiten, sondern auch daran, dass so etwas enorm gefährlich für den kurzfristigen wirtschaftlichen Erfolg wäre.

Mapzen hat sich immer so präsertiert, als wären sie weniger am kurzfristigen Erfolg interessiert als andere Unternehmen und vielleicht hat das letztendlich ihren Untergang mit bewirkt. Gleichzeitig hatte man aber nicht die zeitlosen radikalen Ideen und die Energie und Vision, diese zu verfolgen, um so etwas wie TeX oder POV-Ray zu schaffen, womit man sich hätte definieren können und einen langfristigen Vorsprung gegenüber den großen Spielern wie Google oder Mapbox erreichen könnte. Was Mapzen produziert hat, sind weitgehend Produkte gewesen, welche Lemming-haft den selben kurzfristigen Trends gefolgt sind, wie die anderen Mitspieler. Sicherlich gab es punktuell innovative Ideen im Detail aber nichts wirklich radikales, wodurch man sich hätte absetzen können.

Mapzen hat eine Menge seiner Produkte als Open Source veröffentlicht und damit versucht, sicherzustellen, dass nach dem Ende des Unternehmens diese Produkte weiterleben können. Das ist jedoch keine Versicherung gegen den Bedeutungsverlust. Es gibt in den Weiten des Netzes Unmengen an Open-Source-Programmen, welche niemand mehr anschaut.

Obwohl die Veröffentlichung von Entwicklungen als Open Source lobenswert und bedeutend ist für Innovation und Fortschritt insgesamt – TeX und POV-Ray hätten sich als konkrete Programme sicher nicht so lange gehalten, wenn sie nicht Open Source gewesen wären – sollte man klar erkennen, dass der entscheidende Faktor am Ende ist, dass

  • es eine substantiell innovative Idee gibt,
  • diese Idee konsequent zu ihrem wirklichen Potential hin entwickelt wird,
  • die Idee für die praktische Anwendung entwickelt und darin demonstriert wird,
  • die Idee öffentlich geteilt und kommuniziert wird und
  • die Idee einen substantiellen kulturellen oder technologischen Fortschritt gegenüber den bestehenden und näheren zukünftigen Alternativen bietet – was man, wenn überhaupt, meist nur im Nachhinein abschätzen kann.
waterbody and ford rendering in the alternative-colors style

10. Dezember 2017
von chris
Keine Kommentare

Wasser drunter und drüber

Vor Kurzem habe ich über die Darstellung von Fuß- und Radwegen in Karten auf OpenStreetMap-Basis geschrieben. Dabei deutete ich an, dass es auch noch eine Menge weitere Änderungen gibt, die ich im alternative-colors-Stil umgesetzt habe und welche etwas mehr Erklärungen verdienen. Hier stelle ich ein paar davon vor, welche die Darstellung von Gewässern betreffen.

Gewässer werden im Standardstil (und ähnlich in fast allen andere Karten auf OSM-Basis) seit jeher in einer recht einfachen, um nicht zu sagen primitiven Art und Weise dargestellet. Alle Wasser-Objekte werden in der selben Farbe gezeichnet, Wasserflächen traditionell ab z6, Fluss-Linien ab z8 und Bäche sowie kleine künstliche Wasserläufe ab z13. Die Grenzen bei z8 und z13 sind so fest verankert, dass Mapper oft die waterway-Attribute danach auswählen, was in Bezug auf diese Grenzen als darstellungswert erachtet wird. Da kleine künstliche Wasserläufe (ditch und drain) etwas dünner dargestellt werden als Bäche (stream), werden die Attribute dafür recht oft für kleinere natürliche Wasserläufe zweckentfremdet. Die einzige Besonderheit in dieser traditionellen Darstellungsform ist, dass die kleineren Wasserläufe, welche ab z13 gezeigt werden, mit einer hellen Umrahmung gezeichnet werden, wodurch sie auf dunklem Hintergrund besser zu sehen sind.

Vor einiger Zeit wurde eine differenzierte Darstellung von nicht permanenten Wasserläufen mit gestrichelten Linien eingeführt. Obwohl dies im Grunde eine sinnvolle Gestaltungs-Entscheidung zu sein scheint, hat sich herausgestellt, dass dies im Grunde nur recht schlecht funktioniert, denn bei der Kombination von gestrichelten Linien mit detaillierten Linien-Geometrien ergeben sich genau die Probleme, die ich im Zusammenhang mit den Fußwegen schon erläutert habe.

Das ist die Situation, die den Hintergrund für meine hier zu besprechenden Änderungen liefert.

Unterscheidung von Gewässern nach Typen

Wie oben erläutert stellt der OSM-Standardstil alle Wasser-Elemente einheitlich in der selben Farbe dar. Diese Farbe ist vor einiger Zeit geändert worden, aber es ist immer noch eine einheitliche Farbe für alle Wasser-Bezogenen Elemente – egal ob der Ozean oder ein kleiner Bach oder Graben.

Dieses „Alles eine Farbe“-Schema erfordert vom Mapper nicht viel Nachdenken, wie die Gewässer im Detail zu erfassen sind, Er kann einfach sozusagen die Karte blau anmalen. Insbesondere bei Wasserflächen hat dies zu recht viel Willkür bei den Attributen geführt und zu recht schlechter Daten-Qualität bei den spezifischeren Attributen. Wie ich im Zusammenhang mit den Gewässer-Daten schon oft erwähnt habe, kann man diese Daten kaum für etwas anderes verwenden, als die Gewässer einheitlich einfarbig darzustellen. Gleichzeitig ist das Ganze natürlich für den Kartengestalter recht einfach, denn er muss sich nicht viele Gedanken über die Reihenfolge der Darstellung und andere Probleme machen.

Detailliertere Informationen über Gewässer wären jedoch für Datennutzer oft recht nützlich, so dass es eigentlich Sinn macht, die darzustellen und so den Mappern einen Anreiz zu bieten, diese Dinge gewissenhaften zu erfassen. Und zwischen verschiedenen Gewässer-Typen zu differenzieren kann auch sehr helfen, dine besser lesbare Karte zu produzieren, denn was für eine Gestaltung am besten funktioniert hängt oft recht stark davon ab, um was für ein Gewässer es sich handelt. Und da blaue Farben sowieso weitgehend für Objekte mit Wasser-Bezug reserviert sind, ist eine Differenzierung über die Farbe kein so großes Problem.

Die drei Haupttypen von Gewässern, die ich differenziere sind:

  • der Ozean
  • stehende Binnen-Gewässer (hauptsächlich Seen)
  • Fließgewässer (sowohl Linien- als auch Flächen-Objekte)

Water colors for ocean (left) standing inland water (middle) and flowing water (right)

Dieses Farbschema konnte man auch in der Demonstration für die niedrigen Zoomstufen sehen, welche ich vor kurzem vorgestellt habe.

Flüsse verwenden die kräftigste und dunkelste Farbe, so dass sie auch vor kräftigem und stark strukturiertem Hintergrund gut zu sehen sind wähernd der Ozean in einer helleren Farbe gehalten ist, um im Kontrast mit Landflächen nicht zu sehr zu dominieren.

Die dunkle Fluss-Farbe vor dunklem Hintergrund

Untercheidung zwischen stehenden und Fließgewässern am Rhein

Außer der Unterscheidung in Abhängigkeit von der physikalischen Natur des Gewässers hab ich bei Linien-Elementen auch eine Unterscheidung zwischen natürlichen und künstlichen Wasserläufen in Form einer subtil helleren Mittellinie bei den höheren Zoomstufen eingeführt.

Kanal-Darstellung mit subtil hellerer Mittellinie

Bach und Gräben bei z18 im Vergleich

Subtilität in der Darstellung ist ein wichtiges Element, wenn man eine reichhaltige Karte produzieren möchte, die trotzdem noch gut lesbar sein soll. Diese Unterscheidung zwischen natürlichen und künstlichen Wasserläufen ist deutlich genug, dass der aufmerksame Betrachter sie klar erkennen kann, gleichzeitig aber nicht zu auffällig, so dass sie stört und die Lesbarkeit der Karte ansonsten einschränkt.

Zeitweilig trockene Gewässer

Darstellung von zeitweilig trockenen Flüssen im Standardstil bei z10

Wie weiter oben erwähnt unterscheidet der Standardstil bereits zwischen permanenten und nicht permanenten Gewässern – jedoch nicht in einer besonders gut lesbaren Form. Ich hab verschiedene andere Möglichkeiten hierfür ausprobiert und bin am Ende zu folgendem Ansatz gekommen

  • Zeitweilig trockene Wasserläufe werden eine Zoomstufe später dargestellt und bei den ersten Zoomstufen etwas dünner als permanente Wasserläufe.
  • Bei z12-z13 erhalten zeitweilig trockene Flüsse eine helle Mittellinie. Dies ist recht gut sichtbar und funktioniert bei detaillierten Geometrien besser als eine Strichelung. Von z14 aufwärts verwende ich dann eine Gestrichelte Linie, aber mit sehr schmalen Lücken zwischen den Strichen so dass die Linie als durchgehende Geometrie besser erkennbar bleibt. Bäche und Gräben werden von z13 aufwärts mit einer ähnlichen Strichelung gezeichnet.
  • Zeitweilig trockene Seen bekommen ein strukturierten Punktmuster mit blauen Punkten und einem transparenten Hintergrund so dass darunter liegende Landbedeckungen sichtbar bleiben.
  • Zeitweilig trockene Fließgewässer-Flächen werden von z14 aufwärts mit einem hellen Punktmuster vor einer blauen Hintergrund-Farbe dargestellt. Dies stellt sicher, dass die Umrisse der Geometrie gut erkennbar bleiben, was bei der Wasserfläche von Flüssen für die Lesbarkeit der Karte recht wichtig ist.

Zeitweilig trockene Wasserläufe bei z13 mit heller Mittelline für Flüsse und Strichelung für Bäche

Zeitweilig trockene Fließgewässer-Flächen bei z15 in Kombination mit Flüssen und Bächen

Zeitweilig trockene Seen bei z10

Des weiteren werden Salzwasser-Flächen (salt=yes) in der Ozean-Farbe mit zusätzlich einem schwachen hellen Muster dargestellt. Eine abstrakte Demonstration von allem Zusammen findet sich hier:

Zeitweilig trockene Gewässer im alternative-colors-Stil bei z14 – Ein Klick zeigt die Darstellung bei z15

Andere Änderungen

Abgesehen von den grundsätzlichen Änderungen, die ich oben beschrieben habe, hab ich auch eine ganze Reihe von kleineren Anpassungen bei Linienbreiten und sonstigen Parametern durchgeführt, um ein ausgeglicheneres Verhältnis zwischen den verschiedenen Objekt-Typen und einen kontinuierlicheren Übergang zwischen den verschiedenen Zoomstufen zu erreichen.

Furten

Nicht direkt mit den Änderungen bei den Gewässern verbunden, aber doch irgendwie im Zusammenhang dazu, habe ich eine Darstellung von Furten eingeführt. Diese werden im Standardstil von z16 an als Punkte mit einem Symbol dargestellt – was eine recht unglückliche Darstellung ist, denn:

  • Das Symbol verdeckt im Allgemeinen den wichtigsten Teil der Kreuzung zwischen Weg und Wasserlauf.
  • Das Symbol wird für jeden Node mit dem Attribut ford=yes dargestellt – egal ob dies eine große Straße oder ein kleiner Fußweg ist und daneben auch bei Dingen, wo das Attribut eventuell überhaupt keinen Sinn macht.
  • z16 ist in vielen Fällen viel zu spät, um für den Kartennutzer hilfreich zu sein.

Darstellung von Furten mit Symbol – Optisch sehr kräftig mit wenig praktischem Nutzen

Mit anderen Worten: Diese Art der Darstellung verbessert in vielen Fällen die Karte nicht wirklich.

Ich hab einen anderen Ansatz gewählt und stelle die Furten ähnlich wie Brücken dar – schließlich ist eine Furt ja im Grunde die Kreuzung eines Weges mit einem Fluss ohne Brücke. Die Schwierigkeit ist, dass Furten als Punkte erfasst werden können während Brücken per Konvention immer als Linien erfasst sind. Die Darstellung von Furt-Punkten im Stol einer Brücke ist nicht so einfach und ich fürchte, dass ich damit den sowieso schon recht komplexen Straßen-Darstellungs-Code noch ein ganzes Stück komplizierter gemacht habe. Aber ich denke, dass das Ergebnis den Aufwand Wert ist.

Als Punkte erfasste Furten von Fußwegen, Fahrspuren und kleineren Straßen

Wie man sehen kann ist das Ganze meist recht intuitiv als Furt erkennbar und die Konfiguration der Kreuzung wird nicht durch ein großes Symbol verdeckt.

Furten bei z15 für verschiedene Straßen- und Weg-Typen – ein Klick zeigt die Darstellung bei z16

1. Dezember 2017
von chris
Keine Kommentare

OSMF-Vorstands-Wahlen

Die OpenStreetMap Foundation wird morgen die Wahlen für zwei Sitze im Vorstand der Organisation im Rahmen der diesjährigen Jahres-Hauptversammlung eröffnen. Falls Sie ein Mitglied der OSMF sind, möchte ich Ihnen dringend nahe legen, mit abzustimmen. Wer kein Mitglied ist, könnte darüber nachdenken, eines zu werden (was jedoch nicht dazu führt, dass man bei den diesjährigen Wahlen mitmachen kann – dafür muss man einen Monat vorher schon Mitglied sein).

Der Grund, weshalb die Wahl in diesem Jahr besonders wichtig ist, liegt darin, dass die Positionen der Kandidaten zur zukünftigen Ausrichtung der OSMF und von OpenStreetMap im Allgemeinen dieses Mal zum Teil recht weit auseinander liegen. Man kann sich ein bisschen ein Bild von den Ideen und Ansichten der Kandidaten machen, wenn man die Fragen und Antworten im OSM-Wiki liest, man muss dafür jedoch auch ein bisschen zwischen den Zeilen lesen, denn die Kandidaten haben sich leider zum Teil die unangenehme Tendenz aus der großen Politik abgeschaut, zwar viel zu reden, aber dabei kaum etwas von Substanz zu sagen. Manchmal erfährt man mehr über die Kandidaten durch die Art und Weise, wie sie auf unangenehme Fragen reagieren als aus den Antworten selbst.

Natürlich werden zwei neue Mitglieder in einem Vorstand von sieben Leuten nicht unmittelbar die gesamte OSMF ändern, aber aufgrund der recht deutlichen Unterschiede zwischen den Kandidaten wird das Ergebnis der Wahl ein deutliches Signal sein, welche Richtung die Mitglieder unterstützen und dürfte damit auch einen Einfluss auf die Haltungen der anderen Mitglieder des Vorstandes haben.

Und natürlich würde selbst eine grundsätzliche Richtungsänderung der OSMF nicht notwendigerweise einen großen Einfluss auf der Projekt OpenStreetMap insgesamt haben. Eine der bemerkeswertesten Eigenschaften von OpenStreetMap ist ja, wie wenig es von zentraler Organisation und Management abhängt. Aber natürlich könnten deutliche Differenzen in Zielen und Ausrichtung zwischen der OSMF und der OSM-Gemeinschaft zu erheblicher Reibung führen.

Wind blown dust from the Copper River, Alaska

18. November 2017
von chris
Keine Kommentare

Mehr Staub und Eis

Hier eine weitere Ansicht der Staubwolke aus dem vorherigen Beitrag von ein paar Tagen später, aufgenommen von Sentinel-2:

Und noch eine andere bewerkenswerte Situation von der anderen Seite der Erde – eine beeindruckende Ansammlung von großen Tafeleisbergen in der Nähe von Elephant Island nordöstlich der antarktischen Halbinsel – von Sentinel-3 aufgenommen.

Landsat Winter Alaska 2017

15. November 2017
von chris
Keine Kommentare

In Richtung des Lichts

Ich hab hier mal ein etwas anderes Satellitenbild als üblich:

Das ist ein Streifen von neun aufeinander folgenden Landsat-Bildern, aufgenommen vor ein paar Tagen im Süden Alaskas. Ich hab das ganze so rotiert, dass das Bild in etwa in Flugrichtung des Satelliten orientiert ist. Man muss herunterscrollen, um das ganze Bild zu sehen. Während man das tut, bewegt man sich vom Rand der Polarnacht am nördlichen Ende in Richtung Sonne nach Südwesten über insgesamt etwa 1500km.

Manche bemerken vielleicht die leicht Krümmung, die das Bild dabei aufweist – das liegt daran, dass das gewählte Koordinatensystem nicht wirklich an der Umlaufbahn des Satelliten ausgerichtet ist, sondern eine einfach geneigte Mercator-Projektion darstellt. Durch die Sonnen-synchrone Umlaufbahn des Satelliten ist dessen Spur auf der Erdoberfläche nicht wirklich ein Großkreis, sondern wickelt sich, um der Sonne zu folgen, quasi spiralförmig um die Erde.

Das südliche Ende des Streifens ist bestimmt durch das Ende der Landsat-Aufnahmen hier, welche sich nicht über den offenen Ozean erstrecken (es heißt schließlich Landsat). Das nördliche Ende markiert die Aufnahme-Grenze aufgrund der niedrigen Sonnen-Position zu dieser Jahreszeit.

Hier ein Sentinel-3-OLCI-Bild vom selben Tag (und mit Nordorientierung – also kann man hier auch erkennen, wo die erste Aufnahme oben liegt) welches durch eine deutlich engere nördliche Grenze gekennzeichnet ist.

Zum Vergleich hier auch ein Flaschfarben-Infrarot-Bild von Sentinel-3-SLSTR, wo es keine Beleuchtungsbedingte Aufnahme-Grenze gibt und man folglich die Tag-Nacht-Grenze vollständig sehen kann – aber halt nicht in natürlichen Farben.

Die beiden Sentinel-3-Bilder zeigen auch eine beeindruckende Staubwolke, welche sich vom Delta des Copper River im Süden Alaskas auf der rechten Seite des Bildes nach SSW erstrecket. Hier eine vergrößerte Ansicht davon.

Und schließlich noch zwei Ausschnitte aus dem ersten Bild – der erste vom Norden, wo man den Flüssen zu dieser Jahreszeit gewissermaßen beim zufrieren zuschauen kann (nahe Fort Yukon).

und der zweite Ausschnitt vom Süden zeigt das tatsächlich sehr windige, aber sonnige Wetter bei Tugidak Island.

10. November 2017
von chris
Keine Kommentare

Satellitenbild-Neuigkeiten

Ein paar Neuigkeiten, die für den ein oder anderen Leser von Interesse sein könnten – ohne einen Anspruch auf Vollständigkeit.

  • Das Sentinel-2-Datenformat hat sich geändertschon wieder. Diesmal ist die Änderung recht klein und für die meisten Anwender nicht erheblich. Das interessante und witzige daran ist, dass die Saga des zweiten Zeitstempels um eine weitere Anekdote reicher wird – für den zweiten Zeitstempel gilt nun: is specialised to ensure a deterministic repeatable name across time for the same product. In anderen Worten: Er hat keine eigentliche Bedeutung als Zeitstempel mehr. Vielmehr dient er ausschließlich dazu, zwischen verschiedenen Paketen mit ansonsten gleichem Namen zu unterscheiden (was an den Grenzen zwischen data strips vorkommen kann).
  • Noch was anderes zu Sentinel-2 – das wurde nicht groß angekündigt, aber es gibt einen mehr oder weniger regelmäßig aktualisierten Daten-Qualitäts-Bericht zu Sentinel-2. Man muss da beim Lesen jedoch etwas aufpassen. Regelmäßige Aktualisierung bedeutet nicht, dass alle Informationen darin auf dem neusten Stand sind. Und man muss wissen, wie man die Aussagen dort interpretieren sollte. Man nehme zum Beispiel die absolute Positionsgenauigkeit (über die ich vor kurzem auch gechrieben habe) – diese kann man prinzipbedingt nur dann wirklich quantitativ ermitteln, wenn man genaue Referenzdaten hat – was gewöhnlich vor allem in denjenigen Regionen nicht der Fall ist, wo die Daten nicht so gut sind. Folglich sind die <11m at 95.5% confidence sehr wahrscheinlich nicht an einer neutral und gleichmäßig auf der Erde verteilten Sammlung von Punkten bestimmt. Die verwendeten Punkte sind natürlich nicht veröffentlicht – genauso wenig wie die Quelle der Positionsangaben, welche als Referenz dient.
  • Der USGS hat ein Datenprodukt Namens Landsat Analysis Ready Data vorgestellt. Das sind im Grunde Landsat-Daten, welche für das Gebiet der Vereinigten Staaten in ein einheitliches Koordinatensystem reprojiziert wurden und in Kachel-Form verfügbar sind. Ich werde mich hier nicht näher damit beschäftigen, denn ich halte das konzeptionell und technisch eher für eine Sackgasse. Dies ist per Definition ein regionales Produkt, was nicht auf eine globale Abdeckung ausgeweitet werden kann. Und eine doppelte Reprojektion (von den Level-0-Rohdaten in das UTM-Gitter der Level-1-Daten und dann nochmal in die Projektion des ARD-Gitters) ist unnötig und verschwenderisch hinsichtlich der Informationen in den Daten. Es gibt natürlich Vorteile dafür, für größere Regionen Daten in einem gemeinsamen Gitter zu verarbeiten, aber eine Lösung, welche auf das Gebiet der Vereinigten Staaten beschränkt ist, ist da natürlich kein universell verwendbarer Ansatz.
  • Bei der kommerziellen Erdbeobachtung hat Planet Labs sechs neue SkySat-Satelliten gestartet – das sind die etwas größeren Satelliten, die sie mit der Akquisition von Terra Bella von Google erworben haben. Ich habe diese kurz bei der Besprechung von Planet Labs vor einiger Zeit erwähnt. Es gibt über den Betrieb dieser Satelliten nur recht wenig öffentlich zugängliche Informationen. Die angegebene Aufnahme-Kapazität von 185k km^2 pro Tag für alle 13 Satelliten zusammen ist recht wenig. Mit einer Sichtfeld-Breite von 8km bedeutet dies weniger als 2000km Aufnahme-Länge pro Tag pro Satellit oder etwa 20 Sekunden Aufnahme pro Orbit. Ob dies in der Zukunft gesteigert werde kann ist unklar. Im Moment scheinen diese Satelliten, mit Positionen für Aufnahmen bei unterschiedlichen Tageszeiten und der Möglichkeit zur Aufnahme von Schwarzweiß-Videos, vor allem dafür verwendet zu werden, was man als Event-Fotografie aus dem Weltraum bezeichnen könnte.
  • Es sind für die nächste Zeit zwei Starts von Erdbeobachtungs-Satelliten angekündigt. Für den 14. November ist der Start von JPSS-1 geplant, welcher das ein zweites VIIRS-Instrument bietet zusätzlich zu dem auf dem 2011 gestarteten Suomi NPP. Und Ende Dezember ist der Start von GCOM-C geplant. Beide Satelliten starten wesentlich später als geplant. JPSS-1 sollte bereit vor einem Jahr starten. Bei GCOM-C war der Start ursprünglich bereits 2014 geplant.

Ich habe mein Satellitenbild-Sensor-Schaubild entsprechend aktualisiert. Dabei ist zu beachten, dass ich mit nach wie vor nicht dazu durchringen kann, bei den PlantScope-Satelliten ein Intervall zur vollständigen Abdeckung anzugeben. Sie zeigen zwar jetzt eine ordentliche monatliche Abdeckung von über 90 Prozent zwischen -60 und 75 Grad Breite mit der Kombination RapidEye und PlantScope aber vollständige Abdeckung bedeutet für mich vollständige Abdeckung. Und demo or it did not happen.