Imagico.de

blog

10. Oktober 2021
von chris
Keine Kommentare

Herbst und Frühling im Oktober 2021

Zusammen mit den beiden Landsat-Bild-Visualisierungen, welche ich im Text zum Start von Landsat 9 gezeigt habe und welche Herbst-Impressionen von der nördlichen Hemisphäre zeigen, habe ich zwei weitere Sentinel-2-Bilder im Katalog auf services.imagico.de eingestellt.

Das erste zeigt eine ziemlich klare Sicht auf Südgeorgien zu Beginn des Frühlings und der Schneeschmelze.

Südgeorgien Anfang Oktober 2021

Südgeorgien Anfang Oktober 2021

Das zweite ist eine recht schöne Herbst-Ansicht von Mount Aniakchak auf der Alaska-Halbinsel von Ende September mit etwas frischem Schnee auf dem Rand der Caldera, was zu einem guten Kontrast mit der dunkleren Umgebung führt.

Aniakchak Ende September 2021

Aniakchak Ende September 2021

27. September 2021
von chris
Keine Kommentare

Start von Landsat 9

Heute wurde Landsat 9 gestartet. Wie früher mal erwähnt diskutiere ich hier eigentlich keine Starts von Erdbeobachtungs-Satelliten, denn das interessantere und praktisch bedeutendere Datum ist eigentlich, wenn die ersten Daten verfügbar gemacht werden. Aber für Landsat mache ich eine Ausnahme – aufgrund der historischen wie auch aktuellen Bedeutung für die Welt der offenen Satellitenbild-Daten.

Landsat 8 Bilderfassungen 2020 – siehe hier für mehr Details

Seitdem Bilder von Sentinel-2 routinemäßig verfügbar sind hat Landsat für viele Datennutzer etwas an Attraktivität eingebüßt vor Allem aufgrund der höheren räumlichen Auflösung und höheren Aufnahme-Frequenz von Sentinel-2. Wie ich jedoch schon früher bei verschiedenen Gelegenheiten erwähnt habe ist von den beiden Systemen Landsat das einzige, welches eine mehr oder weniger gleichmäßige Erfassung aller Landflächen der Erde durchführt, während Sentinel-2-Aufnahmen nach kurzfristigen politischen und wirtschaftlichen Überlegungen priorisiert werden. Und mit einem zweiten Satelliten, welcher gleichermaßen qualitativ hochwertige Daten liefert und dadurch das Aufnahme-Intervall mit einheitlicher Bildqualität von 16 auf acht Tage reduziert, wird Landsat sicherlich attraktiver.

Dennoch ist Landsat 9 als weitgehende Kopie von Landsat 8 – welcher bereits acht Jahre alt ist – für viele vermutlich keine besonders aufregende Neuigkeit. Was nach Landsat 9 kommt ist im Moment noch nicht klar – es finden anscheinend derzeit einige Studien zu potentiellen Konzepten statt und einige nicht sehr konkrete Überlegungen sind veröffentlicht worden. Für einige Zeit hatte es den Anschein, dass Landsat 9 möglicherweise der letzte Landsat sein würde, welcher komplett offene Daten produziert und dass die US-Regierung überlegt, das Programm zu privatisieren. Mit der derzeitigen US-Administration und größeren Budgets für öffentlich finanzierte Erdbeobachtung scheint dies mittlerweile wieder weniger wahrscheinlich, aber in welche Richtung die Reise konkret geht ist so ungewiss wie zuvor. Vor diesem Hintergrund ist die langweilige Natur von Landsat 9, welche lediglich Kontinuität in verfügbaren Daten bietet, nicht notwendigerweise eine schlechte Neuigkeit.

Hier – um einen Eindruck zu vermitteln, was man von Landsat 9 erwarten kann – zwei Beispiele aus den vergangenen Tagen von Landsat 8.

Mount Katmai und Naknek Lake, Alaska – 26. September 2021

Landsat 8 - Mount Katmai und Naknek Lake, Alaska

Landsat 8 detail

Landsat 8 detail

Nord-Grönland – 13. September 2021

Landsat 8 - Nord-Grönland

Landsat 8 detail

25. September 2021
von chris
Keine Kommentare

Über mangelnden Fortschritt in der Qualität von Satellitenbild-Visualisierungen

Satellitenbilder und ihre Verwendung haben in den letzten Jahren stark an Popularität zugenommen. Es gab bereits eine frühere Welle der Popularisierung von Satellitenbilder im Zusammenhang mit der Einführung und Verbreitung von Satellitenbild-Ebenen in beliebten Kartendiensten im Internet im Zeitraum von ungefähr 2005 bis 2010. Hierdurch wurden zum ersten Mal eine größere Zahl von Menschen mit Satellitenbildern als Informationsquelle und als Mittel der Orientierung und nicht nur als einer Form anekdotischer Fotos vertraut gemacht.

Was ich hier diskutieren möchte ist jedoch eine jüngere Entwicklung, im Verflauf in etwa der letzten fünf Jahren – also ungefähr zehn Jahre nach dieser ersten Welle. Im Gegensatz zur ersten Popularisierungs-Welle, welche primär in einer informellen Nutzung von Bildern bestand, bezieht diese zweite Welle insbesondere auch mehr oder weniger ernsthafte aktive Nutzungen mit ein – durch sowohl berufliche Nutzer als auch Amateure mit einem breiten Spektrum von Hintergründen (größtenteils nicht mit Bildbearbeitungs- oder Erdbeobachtungs-Bezug). Angetrieben wird diese zweite Popularisierungs-Welle vor allem durch die Werbung und PR-Maßnahmen von Satelliten-Betreibern – sowohl Privat-Unternehmen als auch öffentliche Institutionen – welche diese betrieben, um Interesse an der Nutzung ihrer Produkte und Dienste zu wecken. Ergänzt wir dies durch die Anbieter von Cloud-Diensten, welche versuchen, zahlende Kunden für Anwendungen im Bereich der Satellitenbild-Verarbeitung anzuziehen.

Manche mögen mit meiner Beschreibung von zwei getrennten Wellen der Popularisierung on Satellitenbildern nicht einverstanden sein und eher einen kontinuierlichen Trend diagnostizieren, Ich sehe jedoch eine deutliche Zeit der Stagnation in der Popularisierung zwischen diesen Phasen und ich habe diese Branche aktiv über den gesamten diskutierten Zeitraum beobachtet – habe also ein recht gutes Bild von der Entwicklung.

Wie auch immer – worüber ich hier schreiben möchte ist nicht so sehr diese zwei Wellen der Popularisierung on Satellitenbildern, sondern wie sich die allgemeine Qualität von Visualisierungen auf Grundlage von Satellitenbildern über diesen Zeitraum entwickelt hat. In der Leistungsfähigkeit der Bildsensoren von Satelliten hat es über die Jahre massive Verbesserungen gegeben – ich habe über viele Beispiele davon im Detail geschrieben. Interessanterweise fand diese Entwicklung weitgehend parallel zu einer vergleichbaren (und technisch verwandten) Entwicklung bei digitaler Foto-Technik für die Fotographie am Boden statt. Um den Punkt, den ich in Bezug auf die Satellitenbild-Visualisierung machen möchte, zu illustrieren, hier ein kurzer Exkurs zu den Entwicklungen in der Technik der digitalen Fotographie im ungefähr selben Zeitraum.

Seit den Anfängen der digitalen Fotografie für den breiteren Markt Ende der 1990er-Jahre hat sich die Sensor- und Kamera-Technik in diesem Bereich ähnlich wie bei Satellitenbild-Sensoren in der Qualität massiv verbessert. Und bei der Verwendung der Bilddaten, welche diese Kameras produzieren, fand eine ähnliche Entwicklung statt. Und ich spreche hier nicht über die Entwicklung von Methoden, welche von einer kleinen Elite von Experten eingesetzt werden, ich spreche hier über Mainstream-Fotografie- und Bildbearbeitungs-Techniken, welche vielen Fotografen zur Verfügung stehen und von ihnen praktisch verwendet werden. Auf Grundlage dieser Entwicklungen sowohl in der Sensor- und Kamera-Technologie als auch in der Bildbearbeitungs-Methodik kann heute selbst die Kamera eines billigen Mobiltelefons aus dem Stand Bilder produzieren, welche professionelle Fotografen mit der neusten und besten Ausstattung in den frühen 2000er Jahren neidisch gemacht hätten. Und mit etwas rudimentärem Lernen und Training bei der Verwendung breit verfügbarer Werkzeuge und Techniken (entweder in der Kamera oder als Nachbearbeitung) kann man demgegenüber recht einfach die Qualität von Visualisierungen auf Grundlage fotografischer Bilddaten, wenn man so möchte noch einmal deutlich verbessern.

Beispiel für das technische Qualitäts-Niveau und die Leistungsfähigkeit von digitaler Fototechnik von ~2005 mit niedrigem Dynamik-Umfang, starkem Rauschen und schlechter Farbwiedergabe

Beispiel für das technische Qualitäts-Niveau und die Leistungsfähigkeit von digitaler Fototechnik von ~2005 mit niedrigem Dynamik-Umfang, starkem Rauschen und schlechter Farbwiedergabe

Out-of-the-box-Bild einer heutigen Mobiltelefon-Kamera (Modell von 2020), welches sehr guten Dynamik-Umfang, niedriges Rauschen, und eine sehr akzeptable Farbdarstellung zeigt (welche sich mit verfügbaren größeren Bildsensoren noch einmal deutlich verbessern lässt).  Kombiniert mit einer gleichermaßen sehr soliden automatischen Visualisierung für die Darstellung auf sRGB-Bildschirmen.

Out-of-the-box-Bild einer heutigen Mobiltelefon-Kamera (Modell von 2020), welches sehr guten Dynamik-Umfang, niedriges Rauschen, und eine sehr akzeptable Farbdarstellung zeigt (welche sich mit verfügbaren größeren Bildsensoren noch einmal deutlich verbessern lässt). Kombiniert mit einer gleichermaßen sehr soliden automatischen Visualisierung für die Darstellung auf sRGB-Bildschirmen.

Kommen wir zurück zu den Satellitenbildern – wie dargelegt spiegelt sich die technische Entwicklung der Sensor- und Kamera-Technik für Aufnahmen am Boden weitgehend in der technischen Entwicklung satellitenbasierter Kamera-Technologie. In der Datenverarbeitung und Visualisierungs-Technik jedoch, welche in der Breite der populären Anwendung zum Einsatz kommt, ist dies nicht der Fall. Seit mindestens dem Start von Landsat 8 im Jahr 2013 – welcher einen erheblichen Schritt vorwärts markiert, was die Qualität offener Satellitendaten betrifft, kombiniert mit einer Verfügbarkeit von Daten in größerem Volumen – bin ich erstaunt darüber, wie sehr die Technologie und Raffinesse in Bearbeitungs-Methoden für die Visualisierung von Satellitenbild-Daten stagniert oder sich teils sogar zurückentwickelt. Ich habe darüber bereits in konkreten Fällen geschrieben, welche die Qualität der zugrunde liegenden Daten massiv unterrepräsentieren. Dies ist jedoch nur ein Einzelbeispiel für ein deutlich breiteres Phänomen.

Mittelmäßige Visualisierung mit überbelichteten Farben und strukturlosen Schatten, welche die Qualität der zugrunde liegenden Daten nicht angemessen wiedergibt

Mittelmäßige Visualisierung mit überbelichteten Farben und strukturlosen Schatten, welche die Qualität der zugrunde liegenden Daten nicht angemessen wiedergibt

Bessere Visualisierung der selben Daten

Bessere Visualisierung der selben Daten

Das bemerkenswerte daran ist, dass es sich offensichtlich nicht um ein Problem fehlender Innovation handelt, denn die Innovationen, die hier nicht verwendet werden, obwohl sie bessere Visualisierungen ermöglichen könnten, sind ja im Bereich der Fotografie bereits entwickelt worden und finden dort breite Verwendung.

Ein Großteil der vielen Menschen, welche derzeit mit Satellitenbild-Daten arbeiten und welche Stolz Visualisierungen als Illustrationen ihrer Expertise in diesem Bereich präsentieren, arbeiten dabei unter Verzicht auf viele der der grundlegendsten technologischen und methodischen Innovationen, welche im Verlauf der letzten zwei Jahrzehnte für die Visualisierung digitaler Bilddaten in der Fotografie entwickelt worden sind und welche heute routinemäßig auf jedem Telefon verfügbar sind.

Schlechte Visualisierung der jüngsten Aktivitäten des Ätna auf Grundlage von Sentinel-3-OLCI-Daten mit verzerrten Farben und unnatürlichem Abschneiden der hellen Farbtöne

Schlechte Visualisierung der jüngsten Aktivitäten des Ätna auf Grundlage von Sentinel-3-OLCI-Daten mit verzerrten Farben und unnatürlichem Abschneiden der hellen Farbtöne

Konsistentere Visualisierung der selben Daten, welche ein ausgeglicheneres und präziseres Bild der Situation vermittelt

Konsistentere Visualisierung der selben Daten, welche ein ausgeglicheneres und präziseres Bild der Situation vermittelt

Man könnte also für viele der sehr mittelmäßigen Visualisierungen, die man diese Tage so auf sozialen Medien wie auch ernsthafteren Kanälen findet, gewissermaßen sagen: Die 1990er Jahre haben angerufen, sie möchten ihre grässlichen verzerrten Farben und überbelichteten JPEGs zurück.

Was die Gründe für das beschriebene Phänomen angeht – ein Großteil rührt vermutlich daher, dass viele Leute Satellitenbilder nicht als Fotos wahrnehmen, sondern als eine abstraktere Darstellungs-Form.

Der Grund, weshalb selbst in den billigsten Segmenten des Marktes der digitalen Fotografie über die letzten zwei Jahrzehnte ein kontinuierlicher Konkurrenz-Druck herrschte für Verbesserungen in der technischen Qualität der Bilder, liegt darin begründet, dass Nutzer dieser Geräte und der damit verbundenen Software die Qualität beurteilen und bewerten und dazu auf Grundlage des direkten Vergleiches mit der unmittelbaren Beobachtung des fotografierten auch in der Lage sind. Das gilt jedoch nicht gleichermaßen für Satellitenbilder. Um es ganz einfach auszudrücken: Leute gehen bei der Betrachtung von Visualisierungen von Satellitenbild-Daten von Vorneherein davon aus, dass diese in vielen Aspekten nicht mit ihrer persönlichen Erfahrung bei der Betrachtung des dargestellten Gebietes übereinstimmen oder dazu kompatibel sind. Deshalb sind sie eher geneigt, schlecht gemachte Visualisierungen von Satellitenbild-Daten zu akzeptieren.

Das bedeutet jedoch nicht, dass die meisten Leute nicht in der Lage sind, Qualität bei der Satellitenbild-Visualisierung zu würdigen, wenn sie mit dem Unterschied wie in den oben gezeigten Beispielen konfrontiert werden. Wer also derartige Visualisierungen mit dem Anspruch und der Ambition von Exzellenz produziert, zeigt dadurch vor Allem auch Respekt vor den Bedürfnissen des Betrachters ohne dass dieser dafür diese Bedürfnisse als Forderungen artikulieren muss.

13. September 2021
von chris
Keine Kommentare

Satellitenbild-Neuigkeiten

Der Titel hier sollte dieses Mal etwas mit Vorsicht gelesen werden – ich habe die Diskussion neuer Entwicklungen in diesem Bereich in letzter Zeit etwas vernachlässigt und somit sind einige der Neuigkeiten, die ich hier vorstelle, mittlerweile schon über ein Jahr alt.

Es gab in der letzten Zeit Starts einiger interessanter Satelliten und es stehen einige Starts an im Bereich offener Daten (insbesondere natürlich Landsat 9) wie auch im Bereich kommerzieller Erdbeobachtung. Im letzteren ist insbesondere der Start der ersten zwei von vier Satelliten der Pleiades Neo zu erwähnen (20. Mai und 16. August), welche höhere Auflösung und erweiterte Aufnahme-Kapazitäten im Vergleich zu den bisherigen zwei Pleiades-Satelliten bieten. Maxar hat auch seine Pläne für eine neue Satelliten-Konstellation leichterer hochauflösender Satelliten vorgestellt, wodurch die Kosten-Vorteile der Serien-Produktion wie auch die größere Flexibilität im Vergleich zu großen Einzel-Satelliten, wie man sie bis jetzt verwendet hat, genutzt werden sollen. Aber es gibt dort noch keinen Starttermin. Allerdings hat der Start von Pleiades Neo den Druck auf Maxar sicherlich erhöht. Planet Labs hat auch begonnen, eine neue, verbesserte Version ihrer Mikrosatelliten zu starten mit zusätzlichen Spektralbändern. Wie üblich sind jedoch nur recht wenig öffentliche Informationen darüber verfügbar.

Hinsichtlich neu verfügbarer offener Satellitendaten möchte ich vor allem die basilianischen CBERS-4A (gestartet am 20. Dezember 2019) und Amazonia-1 (gestartet am 28. Februar 2021) nennen. Es scheint, dass die vom National Institute for Space Research (INPE) veröffentlichten Daten dieser Satelliten unter CC-BY-SA verwendbar sind. Das ist restriktiver als bei anderen Angeboten offener Satellitendaten, aber dennoch ist dies der bis jetzt wichtigste Beitrag im Bereich offener Satellitendaten von einem Betreiber außerhalb von Europa, Nordamerika und Japan. Nicht ganz klar ist, ob die vom INPE veröffentlichten Daten alle aufgenommenen Bilder beinhalten, oder ob nur die Daten veröffentlicht werden, die man als offene Daten zur Verfügung stellen möchte, und es daneben noch unveröffentlichte Daten gibt. Wenn man bedenkt, dass die veröffentlichten Bilder weitgehend auf Südamerika beschränkt sind, ist das kein komplett unrealistisches Szenario.

Amazonia-1 Bildbeispiel von Süd-Peru und Bolivien - gesamte Szene

Amazonia-1 Bildbeispiel von Süd-Peru und Bolivien – gesamte Szene

Der Amazonia-1-Satellit mit seinem 850km-Sichtfeld und einer Auflösung von 60m füllt eine signifikante Lücke in den Systemen aus Europa, Nordamerika und Japan zwischen den hochauflösenden Sensoren (Auflösung besser als etwa 50m und Sichtfeldern weniger als 300km) und den niedrig/mittel auflösenden Sensoren mit Aufnahme-Breiten von mehr als 1000km und Auflösungen von 250m oder schlechter.

Amazonia-1 Bildbeispiel - vergrößerter Ausschnitt

Amazonia-1 Bildbeispiel – vergrößerter Ausschnitt

Der eigentliche Amazonia-1-Bildsensor ist gemessen an heutigen Standards nicht besonders leistungsfähig – der Dynamikumfang scheint in etwa vergleichbar mit Landsat 7 zu sein – mit der selben Tendenz zur Sättigung bei hellen Oberflächen. Er scheint eine 10-bit AD-Wandlung zu verwenden.

Amazonia-1 Bildbeispiel - Ausschnitt in voller Auflösung

Amazonia-1 Bildbeispiel – Ausschnitt in voller Auflösung

Es scheint bis jetzt auch noch keinerlei radiometrische Kalibrierung zu geben – lediglich die rohen Sensorwerte. Dennoch ist dies eine ziemlich beeindruckende neue Quelle für Bilder, die jetzt verfügbar ist, mit der Kombination eines recht breiten Sichtfeldes mit einer mäßig hohen Auflösung und es wäre sehr schön, wenn diese Bilder auch von Gegenden außerhalb der Teile von Südamerika verfügbar wären, für die bis jetzt Bilder erhältlich sind.

Auf die selbe Lücke in verfügbaren Bilderfassungs-Systemen zielt auch ein anderes experimentelles System – SeaHawk – welches bereits 2018 gestartet wurde und welches vor kurzem breiter öffentlich vorgestellt wurde. SeaHawk ist ein weniger als 5kg schwerer Mikrosatellit mit einem Sichtfeld von 216km Breite und einer Auflösung von 120m. Das ist weniger ambitioniert als Amazonia-1 und bietet weniger nominelle Abdeckung als ein einzelner Sentinel-2-Satellit bei viel geringerer Auflösung, bei dem Formfaktor ist dies jedoch dennoch recht beeindruckend, insbesondere auch in der Bildqualität.

SeaHawk Bildbeispiel von Ostgrönland

SeaHawk Bildbeispiel von Ostgrönland

SeaHawk Bildbeispiel von Neukaledonien

SeaHawk Bildbeispiel von Neukaledonien

Wenn man sich die Bilder näher anschaut, erkennt man aber auch einige Schwächen, insbesondere:

  • ein erhebliches Niveau von Streifen-Artefakten und ungleichmäßigen Werten der Sensoren. Dies könnte man vermutlich etwas durch eine genauere Kalibrierung auf Einzel-Pixel-Ebene verbessern, dennoch ist dies auf einem Niveau, was erheblich schlechter ist, als bei größeren aktuellen Sensoren.
  • Eine erhebliche Abnahme der Auflösung zum Bildrand hin, welche recht klar aus Defiziten in der Optik herrührt und nicht nur aus der Sichtfeld-Geometrie (also aufgrund des größeren Abstands zur Erdoberfläche an den Sichtfeld-Rändern, wie man es von Weitwinkel-Systemen wie MODIS und VIIRS her kennt).
  • eine erhebliche Fehlpassung zwischen den Spektralbändern, was zu Farbrändern an Kanten mit hohem Kontrast führt.
SeaHawk Bildbeispiel - vergrößerter Ausschnitt

SeaHawk Bildbeispiel – vergrößerter Ausschnitt

Das größte Problem liegt jedoch in der sehr schlechten Positionsgenauigkeit der Bilder. Die Level-1-Rohdaten, die man herunterladen kann, sind ohne Positions-Information und bis jetzt scheint das Verfahren zu sein, die Bilder manuell auf Grundlage der Küstenlinie zu geokodieren. Mikrosatelliten wie dieser verfügen ganz grundsätzlich nur über sehr begrenzte Fähigkeiten, ihre eigene Orientierung im Raum zu bestimmen, und wissen deshalb nur recht ungenau, wohin sie genau schauen. Dieser Mangel an genauen Daten über die Orientierung schränkt die Möglichkeiten zur genauen Geokodierung der Daten stark ein. Eine detaillierte Diskussion des Problems stellen die Betreiber zur Verfügung.

In eine ähnliche Richtung der Miniaturisierung geht das Projekt PROBA-V plus one – gedacht als Nachfolger für PROBA-V – welcher leider, obwohl von Steuergeldern bezahlt, nie vollständig offene Daten produziert hat. Dies wird also auch ein guter Test dafür, ob sich die Organisations-Kultur in der ESA vor dem Hintergrund des Copernicus-Programms (wo die Offenheit der Daten von oben von der EU-Kommission vorgeschrieben worden war) ändert, oder ob die Leute in der ESA und drumherum weiterhin lieber den Großteil der Daten unter Verschluss halten möchten – exklusiv für sich selbst und diejenigen, die sie für würdig erachten, damit zu arbeiten.

Bezugnehmend auf meine früheren Ausführungen zur Nutzung der Sentinel-3-Bilder und die erheblichen Probleme in den Geo-Lokalisierungs-Informationen der SLSTR-Daten kann ich mitteilen, dass die ESA Ende 2019 das Problem wohl endlich erkannt und behoben hat. Neuere Daten (produziert nach Anfang 2020, erkennbar durch die Version ‘004’ im Dateinamen) weist diesen Fehler nicht mehr auf. Ältere Sentinel-3B-Daten sind mittlerweile auch reprozessiert, Selntinel-3A-Daten jedoch noch nicht.

Ich werde das Thema vermutlich noch mehr im Detail separat aufgreifen.

Von allen optischen Erdbeobachtungs-Systemen aus dem EU-Copernicus-Programm hab ich bis jetzt lediglich Sentinel-5P noch nicht angeschaut. Es ist für meine Arbeit von relativ geringem Nutzen, jedoch hab ich jetzt der Vollständigkeit halber auch darauf einen Blick geworfen. Sentinel-5P verfügt über einen hyperspektral-Sensor mit geringer räumlicher Auflösung, welcher insbesondere zu Analyse der Atmosphere dient. Er konzentriert sich primär auf den UV- und Blaubereich. Das wäre ein sehr schönes Instrument, um die Wirkungen verschiedener Spektralband-Konzepte von multispektralen Sensoren für Visualisierungen der Erde zu untersuchen, jedoch weist die spektrale Abdeckung des Satelliten in der Mitte des sichtbaren Bereiches, wo sich üblicherweise Grüne Spektralbänder befinden, eine große Lücke auf.

Sentinel-5P L1B Falschfarben-Visualisierung der Daten vom 10. September 2021 bei etwa 305nm, 390nm und 475nm

Sentinel-5P L1B Falschfarben-Visualisierung der Daten vom 10. September 2021 bei etwa 305nm, 390nm und 475nm

Das obige Bild zeigt die Visualisierung der Daten eines Tages aus dem UV-Bereich und im blauen Spektrum in einer Falschfarben-Darstellung. Die Streifen entlang der Flugrichtung des Satelliten rühren von der unterschiedlichen Streuung des Lichtes abhängig von der Lichteinfalls- und Blickrichtung her. Ein Großteil des Signals im Ultraviolett-Bereich stammt aus der Streuung in der Atmosphere. Unterschiedliche Gase und Aerosole zeigen unterschiedliche Streuung und Absorption je nach Wellenlänge – erkennbar an diesem Tag sehr deutlich im mittleren Westen der USA, wo Rauch von Bränden in kräftigem Rot-Braun erscheint. Der Sentinel-5P-Sensor bietet für jeden Pixel der aufgenommenen Bilder ein detailliertes Spektrum. Insgesamt wurden für die Produktion dieser Illustration mehr als 150GB an L1B-Daten verarbeitet (und das sind nur drei der acht Spektralbänder des Sensors).

Sentinel-5P ist übrigens der einzige Satellit aus dem Copernicus-Programm, welcher die gesamte Erdoberfläche innerhalb eines Tages aufnimmt.

Zum Schluss noch eine wirklich traurige Nachricht – die NASA hat letztes Jahr mitgeteilt, dass der Terra-Satellit das Ende seiner Lebensdauer erreicht und dass er – aufgrund von Treibstoff-Mangel (ich hab das Thema in der Vergangenheit detaillierter für EO-1 diskutiert) – zunehmend in seiner Umlaufbahn zu wandern beginnen wird. Er hat mittlerweile sein nominelles Aufnahme-Fenster verlassen und wird vermutlich bis September 2022 einen 15-Minuten-Abstand von der nominellen Aufnahme-Position erreicht haben und spätestens 2025 wird kein Betrieb mehr möglich sein.

Ich werde vermutlich noch etwas mehr über den Terra-Satellit und dessen Bedeutung für die historische Entwicklung der Erdbeobachtung aus dem Weltraum sowie seine heutige Bedeutung schreiben. Insbesondere möchte ich dabei auch das MISR-Instrument diskutieren. Die meisten Leute kennen Terra insbesondere für die Sensoren MODIS und ASTER und MISR ist, auch weil es gewissermaßen im Schatten von MODIS steht, eines der am meisten unterschätzten und zu wenig genutzten Erdbeobachtungs-Systeme, die derzeit verfügbar sind.

Ich habe auch mein Schaubild der multispektralen Erdbeobachtungs-Satelliten mit vielen der hier erwähnten Systeme wie auch einigen weiteren ergänzt, als auch einige Korrekturen und Aktualisierungen bestehender Daten eingearbeitet.

Sensoren multispektraler Erdbeobachtungs-Satelliten - September 2021

Sensoren multispektraler Erdbeobachtungs-Satelliten – September 2021

3. September 2021
von chris
Keine Kommentare

„Green Marble“ Version 2.1

Ich freue mich, eine weitere Aktualisierung meines globalen Satellitenbild-Mosaiks, der „Green Marble“, vorzustellen.

Die „Green Marble“ ist ein Bild der gesamten Erdoberfläche in mittlerer Auflösung, welches die gesamte Oberfläche des Planeten, und zwar sowohl die Land- als auch die Wasserflächen, in unübertroffen gleichmäßiger Qualität darstellt. Und zwar auf Grundlage aktueller Daten und hundert Prozent wolkenfrei.

Das Kaspische Meer, dargestellt von der Green Marble 2.1

Das Kaspische Meer, dargestellt von der „Green Marble“ 2.1

Die Version 2.1, welche ich hier vorstelle, aktualisiert und erweitert die Datenbasis der Darstellung der Wasserflächen, welche auf Grundlage von Sentinel-3-OLCI-Daten produziert wird. Die Datenbasis hierfür wurde im Vergleich zu Version 2 auf mehr als das Doppelte ausgedehnt, womit für die Produktion des Bildes insgesamt mehr als 100TB an Sentinel-3-Daten heruntergeladen und verarbeitet wurden.

Die breitere Datenbasis führt zu einer erheblichen Reduktion von Artefakten und Rauschen bei der Darstellung der Wasserflächen, was zeigt, dass das verwendete Verfahren hervorragend konvergiert.

Kontrast-verstärkte Visualisierung der Reduktion an Rauschen in der Darstellung des offenen Meeres

Kontrast-verstärkte Visualisierung der Reduktion an Rauschen in der Darstellung des offenen Meeres

Damit man einen Eindruck vom verarbeiteten Datenvolumen bekommt – hier eine Visualisierung der Anzahl der letztendlich verwendbaren Datenpunkte (will heißen: Messwerte, die vermutlich Wasser darstellen und vermutlich frei von Wolken, Meereis und Sonnen-Reflexen sind).

Anzahl verwendbarer Messwerte der Wasser-Farbe, welche in die Produktion der „Green Marble“ 2.1 eingegangen sind

Anzahl verwendbarer Messwerte der Wasser-Farbe, welche in die Produktion der „Green Marble“ 2.1 eingegangen sind

Hier ein paar Beispiele im Vergleich zwischen Version 2 und Version 2.1 des Bildes, welche die Verbesserung der Qualität illustrieren.


Beispiel Nordsee (in groß: GM 2/GM 2.1)


Beispiel Indonesien (in groß: GM 2/GM 2.1)


Beispiel Korea (in groß: GM 2/GM 2.1)


Beispiel South Sandwich Islands (in groß: GM 2/GM 2.1)

Die etwas geringere Meereis-Bedeckung im neuen Bild geht übrigens auf Veränderungen in der Verarbeitung und auf die zusätzlichen Wasserdaten zurück und nicht auf einen Rückgang in der tatsächlichen Meereis-Bedeckung in den letzten Jahren.

Ich habe die interaktive Voransicht auf maps.imagico.de aktualisiert, wo man sich das Bild umfassender anschauen kann. Auch die Produktbeschreibung auf services.imagico.de ist auf den neusten Stand gebracht. Wer an der Verwendung des Bildes in eigenen Projekten interessiert ist, kann mich über das Formular auf der Produktseite oder via email kontaktieren. Hier ein paar weitere Beispiele der verbesserten Wasser-Darstellung.

Torres-Straße

Torres-Straße

Great Barrier Reef

Great Barrier Reef

Spitzbergen

Spitzbergen

Caribbean Sea

Karibisches Meer

15. April 2021
von chris
Keine Kommentare

Über Kommunikationskanäle für Gruppen

Was ich hier ein bisschen diskutieren möchte sind die verschiedenen Kanäle und Plattformen der Kommunikation in Gruppen (d.h. Kommunikation zwischen mehr als zwei Leuten) im Kontext von sozialen Projekten wie OpenStreetMap. Seit vielen Jahren tauchen auf OSM-Kommunikationskanälen immer mal wieder Leute auf, die ihre Unzufriedenheit entweder über den spezifischen Kommunikationskanal oder mit der Kommunikation in der OSM-Community im Allgemeinen ausdrücken – oft in Verbindung mit dem Vorschlag, dass doch bitte alle wechseln mögen zu [man ergänze hier seine bevorzugte momentan gerade gehypte Plattform]. Ich möchte hier meine persönlichen Kriterien dafür erläutern, was in meinen Augen einen Kommunikationskanal oder eine Plattform für eine produktive, konstruktive und inklusive Gruppen-Kommunikation im Kontext eines globalen, multikulturellen sozialen Projektes wie OpenStreetMap qualifiziert.

Ein paar Vorbemerkungen: Zunächst einmal möchte ich klarstellen, dass es in dieser Analyse nur um Gruppen-Kommunikation im Sinne von Symmetrischer Kommunikation zwischen mehr als zwei Personen auf Augenhöhe geht. Für eins-zu-eins-Kommunikation oder Asymmetrische Kommunikation (Eine-zu-Vielen ohne symmetrischen Rück-Kanal) gelten andere Kriterien. Zum zweiten: eine vielfältige globale Gemeinschaft wie OpenStreetMap braucht vielfältige Kommunikationskanäle. Alle Kommunikation auf wenigen Kanälen und Plattformen zu konzentrieren wäre für sich genommen schon ein Problem. OpenStreetMap kann nur dann nachhaltig funktionieren, wenn es nicht von einem zentralen Kommunikationskanal abhängt, den alle nutzen, Die Kernidee von OpenStreetMap ist es schließlich, dass die gemeinsam bearbeitete Datenbank das Element ist, welches das Projekt sozial zusammenhält und dies durch andere Mittel zu ersetzen würde das Projekt fundamental schwächen.

Die Kriterien

  1. Asynchrone Kommunikation: In einer globalen, mehrsprachigen Gemeinschaft wie OSM gibt es unvermeidbar große Unterschiede darin, wie flüssig Leute in der jeweiligen Sprache eines Kommunikationskanals kommunizieren können. Asynchrone Kommunikation (das ist Kommunikation, bei der es keine Erwartung, keine technische Notwendigkeit und keinen sozialen Druck gibt hinsichtlich der unmittelbaren zeitlichen Nähe zwischen einer Nachricht und einer Antwort darauf) kann enorm helfen, in dieser Hinsicht faire Bedingungen zu schaffen. Ganz zu schweigen von unterschiedlichen Zeitzonen. Asynchrone Kommunikation hilft auch Leuten mit nur sporadischem Internet-Zugang.
  2. Textbasierte Kommunikation: Aus ähnlichen Gründen ist textbasierte Kommunikation gegenüber Audio- und Video-Kommunikation von Vorteil. Gruppen-Kommunikation auf Audio- und Video-Basis ist natürlich auch fast immer synchron. Zusätzlich reduziert textbasierte Kommunikation den Bandbreitenbedarf für die Teilnehmer, erleichtert massiv jegliche Art der Filterung und insbesondere senkt sie die Hürde für die Teilnahme an der Kommunikation, denn sie gibt Teilnehmern eine bessere Kontrolle darüber, was sie in der Kommunikation von sich preisgeben und über die Offenlegung privater Informationen.
  3. Strukturierte Kommunikation: Ein ziemlich essentieller Aspekt der Kommunikation in Gruppen mit einer größeren Anzahl von Teilnehmern ist die Transparenz darüber, wer in der Kommunikation auf wen antwortet. Der klassische Weg, das zu visualisieren, ist in einer Baumstruktur. Meinungen dazu gehen stark auseinander – einige verachten die verzweigte Darstellung von Kommunikation während andere der Meinung sind, dass dies notwendig ist für eine funktionierende Kommunikation in größeren Gruppen. Dies hat viel damit zu tun, wie Leute in der digitalen Kommunikation sozialisiert wurden. Diejenigen, die beim Einstieg in die digitale Kommunikation nicht mit dem Konzept der verzweigten Kommunikations-Darstellung konfrontiert wurden, entwickeln oft eine Abneigung dagegen. Und mit der weiten Verbreitung von Werkzeugen und Plattformen zur email-Kommunikation (Microsoft, Google), welche standardmäßig die Verzweigung in der Kommunikation nicht sichtbar machen, im letzten Jahrzehnt und darüber hinaus betrifft dies eine recht große Anzahl von Leuten. Es ist jedoch recht eindeutig, dass wenn eine große Anzahl von Leuten sich aktiv auf einem Kommunikationskanal beteiligen, ohne dass die Kommunikation in Zweige strukturiert wird, sich die Kommunikation mehr und mehr in eine synchrone Kommunikation wandelt, da asynchrone Antworten auf ältere Kommunikation von den sehr aktiven Teilnehmern als störend wahrgenommen wird. Und eine solche Entwicklung bringt dann die Probleme mit sich, die ich oben im Zusammenhang mit asynchroner Kommunikation erwähnt habe.
  4. Verfügbarkeit eines verlinkbaren, unveränderlichen und dauerhaften öffentlichen Archivs der Kommunikation: Dies ist einer der wichtigsten Punkte. Damit Gruppen-Kommunikation praktisch für eine größere Gemeinschaft Bedeutung entfaltet, ist es absolut essentiell, dass man auf vergangene Kommunikation in einer für Alle nachvollziehbaren Art und Weise Bezug nehmen kann und dass man Erinnerungs-Unterschiede zum genauen Inhalt vergangener Kommunikation transparent auflösen kann. Dies geht am einfachsten durch ein vollständiges, verlässliches, nicht manipulierbares, durchsuchbares und verlinkbares Archiv der gesamten historischen Kommunikation auf dem jeweiligen Kanal.
  5. Offene Plattformen und Kommunikations-Protokolle: Für eine langfristige Verfügbarkeit und um die Abhängigkeit von Anbietern proprietärer Technologien zu vermeiden. Dies bedeutet insbesondere, dass die technischen Schnittstellen, über welche die Kommunikation stattfindet, dokumentiert sind und diese sowohl rechtlich als auch technisch offen dafür sind, von allen ohne Bindung an eine bestimmte Software genutzt zu werden.
  6. Praktische Vielfalt in Kommunikations-Werkzeugen und Schnittstellen: Verbunden mit dem vorherigen Punkt. Es ist von großem Vorteil, wenn nicht nur die Kommunikations-Protokolle im Prinzip offen sind, sondern auch praktisch verschiedene Programme und Schnittstellen existieren, aus denen der Nutzer nach eigenen Bedürfnissen und Wünschen auswählen kann. Außer für persönliche Vorlieben und Bequemlichkeit ist dies auch eine Frage der Zugänglichkeit, insbesondere auch für Menschen mit Behinderungen.
  7. Praktisch nutzbare Wege zur flexiblen und robusten Filterung der Kommunikation durch den einzelnen Nutzer: Dies steht eng in Verbindung mit den vorherigen zwei Punkten. Falls die Kommunikationsprotokolle offen sind und eine Auswahl an Programmen existieren, diese zu nutzen, besteht eines der wichtigsten Distintionsmerkmale solcher Programme meist in den Filter-Möglichkeiten für die Kommunikation. Dies ist auf zwei Ebene von Bedeutung. Zum einen erlaubt es den Kommunikationsteilnehmern, sich auf die Dinge zu konzentrieren, die Ihnen wichtig sind und die für sie von Interesse sind, und nicht auf das was andere für wichtig erachten. Zum anderen hat dies auch einen enorm zivilisierenden Einfluss auf die Teilnehmer auf einem Kommunikationskanal. Wenn jeder weiß, dass alle anderen auf dem Kanal die Möglichkeit haben, sich zu entscheiden, die eigene Kommunikation zu ignorieren, neigen die meisten dazu, gewissenhafter abzuwägen, was sie schreiben und berücksichtigen dabei mehr, ob das was sie schreiben von anderen als wertvoll erachtet wird. Um es ganz platt auszudrücken: Man unterschätze niemals den befriedenden Einfluss eines Killfiles.
  8. Der Kanal ist offen für alle und man benötigt weder eine explizite Einladung noch existieren andere Hürden oder Abschreckungen zur Teilnahme. Wie zum Beispiel die Anforderung, Verhaltensregeln zustimmen zu müssen, die von anderen aufgestellt wurden als von denen, die den Kommunikationskanal selbst aktiv nutzen. Dies ist wiederum essentiell für eine Vielfalt in der Beteiligung an der Kommunikation. Für viele ist die psychologische Barriere, an einer offenen Gruppen-Kommunikation aktiv teilzunehmen, recht hoch Es ist deshalb wichtig, hier nicht noch zusätzliche Hürden aufzubauen. Natürlich nehmen sich am Ende fast alle, auch nicht kommerzielle Betreiber von Kommunikationsplattformen das Recht heraus, letztendlich den Zugang zu ihrer Infrastruktur zu kontrollieren, falls sie dies als notwendig erachten. Entscheidend ist, ob dies praktisch tatsächlich stattfindet, oder ob es lediglich eine prinzipielle Möglichkeit ist.
  9. Dezentralisierte Protokolle. Dies ist die ideale Lösung für den vorherigen Punkt, praktisch arbeiten jedoch nur sehr wenige Gruppen-Kommunikationskanäle vollständig dezentral. Historisch was Usenet das Musterbeispiel für dezentrale Gruppen-Kommunikation und seit dessen Niedergang hat es bis jetzt niemals mehr einen dezentralen Ansatz hierfür gegeben, der vergleichbare Bedeutung erreicht hat.

Und wie sehen die verschiedenen Kanäle im Vergleich aus?

Hier ist eine Abschätzung, wie die verschiedenen Kommunikationskanäle, welche in der OSM-Community verbreitet genutzt werden, sich in Bezug auf die diskutierten Kriterien schlagen. Ich habe Usenet/NNTP da einbezogen auch wenn dies weder in der OSM-Community noch außerhalb noch nennenswerte Bedeutung hat, da es von erheblicher Bedeutung für die Entwicklung digitaler Gruppen-Kommunikationskultur im Internet ist. Und wie man sehen kann liegt dieses auch in Bezug auf meine Kriterien weit vorne. Die Gründe für den Abstieg von Usenet und NNTP sind eine andere Geschichte (eine sehr interessante natürlich – aber auch eine, wo schon viele Leute drüber geschrieben haben, deshalb werde ich das hier nicht vertiefen).

Die Informationen zu Facebook, Telegram und Whatsapp basieren auf Hörensagen und sind deshalb nicht sehr belastbar – ich habe diese Plattformen nie verwendet, so dass ich hier keine Erfahrungen aus erster Hand bieten kann.

Kommunikationskanäle und Plattformen in OpenStreetMap

Kommunikationskanäle und Plattformen in OpenStreetMap

Fußnoten zu der Tabelle:

  1. help.openstreetmap.org hat begrenzte Unterstützung für strukturierte Kommunikation
  2. Das OSM-Wiki erlaubt im Prinzip strukturierte Kommunikation auf den Diskussions-Seiten und es ist etablierte Praxis, Diskussionen entsprechend zu strukturieren. Allerdings ist dies komplett Handarbeit und funktioniert nur, wenn alle dies gewissenhaft tun. Es gibt keine eingebaute Unterstützung dafür.
  3. Im Usenet haben Server-Betrieber Nachrichten routinemäßig nach einiger Zeit gelöscht, so dass es im Grunde kein permanentes Archiv im System selbst gab. Allerdings konnte jeder Betreiber eines Usenet-Servers ein solches erzeugen und gegen Ende der Usenet-Ära hat Google praktisch als Referenz-Archiv fungiert.
  4. Im Forum ist sichtbar, wenn Beiträge nachträglich geändert wurden, allerdings existiert kein Archiv der Original-Inhalte vor der Änderung. Daneben können Administratoren im Forum auch Nachrichten vollständig löschen und tun dies praktisch auch (unterschiedlich oft, je nach Unterforum).
  5. Die Benutzer-Blogs (diaries) selbst können ohne sichtbare Editier-Historie nachträglich bearbeitet werden, die Kommentare darunter jedoch nicht.
  6. Im Wiki ist die Editier-Historie öffentlich sichtbar, was als unveränderliches Archiv fungiert (wenngleich dies manchmal schwierig als solches zu nutzen ist).
  7. Github hat ein recht raffiniertes System entwickelt, nachträgliche Änderungen der Kommunikation zu erlauben, diese jedoch transparent sichtbar zu machen. Github erlaubt es jedoch auch in manchen Fällen, Nachrichten komplett aus dem Archiv zu entfernen (wenngleich so weit ich weiß zumindest angezeigt wird, wo dies erfolgt ist).
  8. Obwohl es keine Alternativen Möglichkeiten gibt, Changeset-Kommentare zu schreiben, gibt es zum Lesen die beliebten Werkzeuge von Pascal Neis.
  9. Offenheit für die Teilnahme gibt es bei den meisten Mailinglisten und Foren mit OSM-Bezug. Es gibt ein paar Ausnahmen, insbesondere ist osmf-talk zum Schreiben nur für OSMF-Mitglieder offen. Es gibt thematische und regionale Listen und Foren mit Kulturspezifischen Regeln, die man akzeptieren muss, um sich aktiv zu beteiligen, welche jedoch meist durch Konsens der aktiven Teilnehmer auf dem Kanal festgelegt werden (wie diversity-talk, regionale Foren).

Schlussfolgerungen

Die Schlussfolgerung ist: Mailinglisten führen immer noch mit großem Abstand vor allem, was in der OSM-Community derzeit verbreitet verwendet wird. Aber natürlich sind die von mir angelegten Kriterien meine persönlichen Präferenzen und wenngleich ich dargelegt habe, weshalb ich diese für wichtig halte, gibt es andere, die das was ich als Vorteile betrachte für Nachteile halten. Und das ist auch in Ordnung – wie ich bereits Anfangs erläutert habe, ist Vielfalt in der Kommunikation essentiell für eine vielfältige globale Gemeinschaft wie OpenStreetMap. Es gibt manche in OpenStreetMap, welchen dies missfällt und die die OSM-Community kulturell homogenisieren möchten und dafür möglichst alle dazu drängen möchten, die selben Kommunikations-Plattformen zu verwenden. Das wird allerdings nicht funktionieren. Wenn es einen Bereich gibt, wo man absolut sicher sein kann, dass letztendlich die Menschen mit ihren Füßen abstimmen, dann sind das Gruppen-Kommunikationskanäle.

Ausblick

Interessant ist natürlich ein Blick darauf, wohin die Reise in der Zukunft weitergehen könnte. Wird es Plattformen und Kanäle geben, welche an traditionelle Techniken (NNTP und Mailiglisten) herankommen, welche aus meiner Analyse als Gewinner hervorgehen? Im Moment sehe ich in diese Richtung nichts konkretes. Der Schwerpunkt bei der Entwicklung von Gruppen-Kommunikations-Technologie scheint seit einer ganzen Reihe von Jahren bei synchroner Echtzeit-Kommunikation zu liegen. Wie ich jedoch versucht habe, zu erläutern, ist dies für hochgradig multikulturelle Anwendungsfälle wie in OpenStreetMap nur von geringer Bedeutung. Der Trend in asynchroner Kommunikation geht schon seit längerer Zeit in Richtung monolithischer Plattformen, wo der Klient und die Benutzer-Schnittstelle eng mit dem eigentlichen Kommunikationsprotokoll verwoben sind (oder anders gesagt: Kram, der um ein schickes Web-Interface herum entwickelt wurde, welches die Mode des Tages im Bereich UI-Design widerspiegelt). Dies ist schade, denn meist braucht es in einer hochgradig nicht homogenen Community wie OpenStreetMap viele Jahre, bis ein neuer Kommunikationskanal wirklich in der Breite akzeptiert wird. Und dann habe die meistem auf Tagesmoden aufbauenden Plattformen schon das Ende ihres kurzen Lebens erreicht und werden nicht mehr weiter entwickelt.

22. März 2021
von chris
Keine Kommentare

Satellitenbild-Erfassungen – Bericht für 2020

Ich bin dieses Jahr ein bisschen spät dran, aber ich möchte mit meiner Tradition fortfahren, eine jährliche Analyse der Aufnahmen durchzuführen von den derzeit im Betrieb befindlichen höher auflösenden Erdbeobachtungs-Satelliten-Systeme mit Aufnahmen in natürlichen Farben, deren Aufnahmen als offene Daten veröffentlicht werden – konkret sind das Landsat und Sentinel-2.

Oberflächlich betrachtet ähnliche Analysen gibt es gelegentlich natürlich auch von den Satellitenbetreibern, diese sind jedoch in den meisten Fällen nicht sehr detailliert und manchmal sogar grob verzerrend, zum Beispiel wenn die Redundanzen zwischen den veröffentlichten Datenpaketen fälschlich als unabhängige Aufnahmen interpretiert werden. Hier finden Sie die genauste derzeit verfügbare Analyse der räumlichen Verteilung der Aufnahmen von Landsat und Sentinel-2 auf Grundlage tatsächlich zum Download verfügbarer Daten.

Entwicklung des veröffentlichten Bild-Volumen in Quadratkilometer

Die Entwicklung der aufgenommenen Flächenabdeckung zeigt bereits, dass USGS und ESA im Groben 2020 nach dem selben Muster aufgenommen haben wie in den Jahren davor. Die größte Anomalie in jüngerer Zeit war, dass der USGS anscheinend aus unbekannten Gründen etwa für ein Jahr die off-nadir-Aufnahmen von den Polarregionen ausgesetzt hat (2019 im nordhemisphärischen Sommer und 2019/2020 im südhemisphärischen Sommer). In 2020 ist man jedoch im Wesentlichen zum vorherigen Aufnahme-Muster zurückgekehrt.

Landsat 8 2020

Die Sentinel-2-Aufnahmen sind mit den Änderungen aus 2019 (also der Ausweitung der Aufnahmen im hohen Norden bei niedrigem Sonnenstand mit Sentinel-2B sowie der Abdeckung einiger zusätzlicher kleiner Inseln) in 2020 fortgesetzt worden.

Sentinel-2 2020

Bedeutender ist allerdings das, was sich nicht geändert hat – und das sind die Bereiche, wo ich bereits letztes Jahr Änderungen vorgeschlagen habe, die ich hier folglich noch mal wiederhole:

Für sowohl den USGS als auch die ESA:

  • Nutzt die zur Verfügung stehenden Aufnahme-Kapazitäten im nordhemisphärischen Winter, um mehr als nur sporadische Aufnahmen der Antarktis zu produzieren.

Zusätzlich an den USGS:

  • Schließt endlich die letzte fehlende Insel (Jonas-Insel) in die Aufnahme-Pläne mit ein.
  • Macht regelmäßig off-nadir-Aufnahmen von Nordgrönland und der zentralen Antarktis, bevorzugt unter Nutzung der zur Verfügung stehenden Flexibilität zur Minimierung der Wolken-Abdeckung.

Und an die ESA:

  • Beendet die unprofessionelle und kurzsichtige Bedienung irgendwelcher Spezialinteressen und plant die Aufnahmen generell nach klaren, einheitlichen und transparenten Kriterien.
  • In Verbindung dazu: Überdenkt die Strategie, ausgedehnte Meeresflächen um einige Inseln herum zu erfassen, während andere deutlich größere Inseln (Südliche Orkneyinseln) überhaupt nicht aufgenommen werden.
  • Betreibt Sentinel-2A und Sentinel-2B nach dem selben Plan oder erklärt nachvollziehbar, warum Ihr das nicht macht.

Hier noch wie in den letzten Jahren alle Karten-Darstellungen der Aufnahme-Abdeckungen zusammen:

Jahr Tag Nacht Aufnahme-Zahl Tag
2014 LS8, LS7 LS8 LS8
2015 LS8, LS7 LS8 LS8
2016 LS8, LS7 LS8 LS8, S2A
2017 LS8, LS7 LS8 LS8, S2A, S2B, S2 (beide)
2018 LS8, LS7 LS8 LS8, S2A, S2B, S2 (beide)
2019 LS8, LS7 LS8 LS8, S2A, S2B, S2 (beide)
2020 LS8, LS7 LS8 LS8, S2A, S2B, S2 (beide)