Imagico.de

blog

Die Imitation von Problemlösung

| Keine Kommentare

Wie viele hier sicher wissen gibt es seit einigen Jahren einen recht starken Trend in der Fernerkundung und Kartographie, der unter den Begriffen Künstliche Intelligenz und Maschinenlernen gehandelt wird. Wie viele vergleichbare Trends ist das was hierzu kommuniziert wird oft wenig in der Welt der Fakten verwurzelt, sondern oft von blumigen Marketing-Versprechen und Wunschdenken dominiert. Ich möchte hier ein bisschen Hintergrundinformationen dazu diskutieren, welche in der Diskussion oft fehlen und welche man berücksichtigen sollte, wenn man die Eignung solcher Methoden für kartographische Anwendungen beurteilen möchte.

KI-Technologien sind nichts wirklich Neues. Als ich an der Universität war, waren diese in der Informatik bereits recht etabliert. Der Name ist allerdings schon seit Beginn irreführend gewesen, denn Intelligenz und Lernen impliziert einen Zusammenhang zur menschlichen Intelligenz und zu typischen menschlichen Lern-Prozessen, welcher nicht existiert.

Eine recht gute Analogie wie solche Algorithmen arbeiten ist die eines Kindes, welches mechanisch trainiert wird: Man stelle sich ein junges Kind vor, welches ohne nennenswerten Kontakt mit der Umgebung der realen Welt aufgewachsen ist. Dieses Kind hat grundlegende menschliche Interaktionen und Sprache erlernt aber keine nennenswerte Erfahrung mit der Welt und der Gesellschaft darüber hinaus.

Nun setzt man sich mit diesem Kind vor einen Fernseher und jedes mal wenn ein Hund auf dem Bildschirm zu sehen ist ruft man Oh, ein Hund und ermutigt das Kind das nachzumachen. Nach einiger Zeit lässt man das Kind alleine weiter machen – quasi als menschlicher Hunde-Detektor.

Das ist in etwa wie KI- und Maschinenlernen-Technologien arbeiten – abgesehen davon natürlich, dass die technologischen Implementierungen natürlich dem menschlichen Gehirn bei dieser Arbeit oft immer noch unterlegen sind. Aber das ist nur ein gradueller Unterschied der mit der Zeit schrumpfen dürfte.

Das Wichtige dabei ist zu verstehen, dass das etwas vollkommen anderes ist als wie Menschen üblicherweise intellektuelle Arbeit vollführen.

Um ein Beispiel zu verwenden, welches näher an der kartographischen Anwendung liegt – man stelle sich das selbe Szenario mit dem Kind vor für die Erkennung von Gebäuden auf Satellitenbildern. Und dann stelle man sich vor, wie ein gewissenhafter und fähiger Mensch, wie der typische erfahrende OpenStreetMap-Mapper, diese Arbeit durchführen würde.

Das trainierte Kind hat noch nie ein echtes Gebäude von Außen gesehen. Es hat kein mentales Bild, welches mit dem Wort Gebäude verbunden ist, welches der Trainer verwendet, wenn auf dem Satellitenbild ein solches zu sehen ist.

Erfahrene OSM-Mapper haben hingegen eine ziemlich weitreichende Erfahrung dazu was ein Gebäude ist – sowohl in der realen Welt als auch hinsichtlich der abstrakten Klassifikations-Systeme in OpenStreetMap. Bei einem leeren Schwimmbecken auf dem Bild erkennt so jemand aufgrund der Schatten, dass dies kein Gebäude sein kann – und zwar selbst wenn der Mapper noch nie ein Schwimmbecken gesehen hat. Dieses qualifizierte Verständnis eines Bildes basiert auf einem tiefer gehenden Verständnis dessen, was man in dem Bild sehen kann, welches wiederum auf der umfassenden Lebens-Erfahrung basiert, die ein Mensch typischerweise hat. Hierdurch sind Menschen in der Lage, Probleme zu lösen, mit denen sie konkret noch nie konfrontiert waren, indem sie auf universelle Prinzipien aus Ihrer Erfahrung zurückgreifen wie Logik oder die Gesetze der Physik.

Wie im Titel dieses Beitrages schon angedeutet ist das was KI und Maschinenlernen machen im Grunde die Imitation von Problemlösung in einer Cargo-Kult-artigen Form. Wie das Kind im Beispiel oben, welches keinerlei Verständnis dafür hat, was ein Hund oder ein Gebäude sind und welches im Grunde nur versucht, die Handlungen des Trainers zu imitieren. Das sieht man auch an den lustigen Fehlern, welche solche Systeme meist produzieren – meist lustig deshalb, weil sie aus der Perspektive eines Menschen recht dumm und offensichtlich sind.

Die Leute in Entscheidungs-Positionen bei Unternehmen wie Facebook und Mapbox, welche versuchen, KI und Maschinenlernen in die Kartographie zu bringen (siehe hier und hier), sind sich dieser Einschränkungen im Grundsatz bewusst. Wenn sie tatsächlich glauben würden, dass KIs beim Mappen menschliche Intelligenz ersetzen können, dann würden sie nicht versuchen, diese Methoden in OSM zu etablieren, sie würden einfach ihre eigenen Geo-Datenbank auf Grundlage solcher Methoden aufbauen – ohne die unpraktischen Regeln und Einschränkungen, die es bei OSM so gibt. Der Grund, weshalb diese Unternehmen solche Methoden in OSM forcieren liegt darin, dass diese Methoden für sich genommen in kartographischen Anwendungen meist recht nutzlos sind. Wie oben ausgeführt produzieren diese Methoden aus prinzipiellen Gründen ziemlich blöde und eklatante Fehler und selbst wenn die Fehlerrate gering ist, macht dies das Ergebnis für die meisten Anwendungen ungeeignet. Was würde man von einer Karte halten, wo ein Prozent der Gebäude zum Beispiel in der Mitte von Straßen oder Flüssen eingezeichnet sind? Wer würde einem selbstfahrenden Auto vertrauen, das eine Straßen-Datenbank verwendet, wo 0.1 Prozent der Straßen in einen See oder durch eine Wand führen?

Was Facebook & Co. hoffen ist dass indem sie diese KI-Methoden in OSM etablieren die OSM-Community dazu bringen können, die Fehler ihrer mechanisch trainierten Kinder – welche diese unvermeidbar produzieren – zu korrigieren und dadurch die durch diese Fehler für sich genommen erst einmal ziemlich wertlosen Daten, die die KI ausspuckt, in etwas von praktischem Wert zu verwandeln. Oder, um es noch deutlicher zu sagen: Man versucht OSM von einer Karte von Menschen für Menschen in ein Projekt für das Crowdsourcing von Sklavenarbeit unter der Leitung von Unternehmens-gesteuerten KIs umzuwandeln.

Wer mein Blog regelmäßig liest weiß, dass ich alles andere als abgeneigt gegenüber automatischen Methoden in der Kartographie bin. Ich bevorzuge in den meisten Fällen analytische Methoden gegenüber KI-basierten Algorithmen, weil dies für die Probleme, mit denen ich zu tun habe, meist zu besseren Ergebnissen führt. Eines meiner wichtigsten Prinzipien dabei, an welches ich mich recht strikt halte, ist wenn irgend möglich niemals die Ergebnisse automatischer Methoden per Hand nachzubearbeiten. Der große Vorteil voll automatischer Methoden liegt darin, dass man sie sehr gut skalieren kann. Dieser Vorteil geht jedoch sofort verloren, wenn man eine manuelle Nachbearbeitung einführt, denn diese skaliert natürlich nicht in dieser Form. Wenn man dies ignoriert, da die Arbeit der OSM-Community ja kostenlos ist, dann demonstriert dies eine recht problematische und arrogante Einstellung zur Community. Computer sollten für Menschen arbeiten, nicht anders herum.

Wer sich mit KI und Maschinenlernen beschäftigt und OSM in diesem Bereich unterstützen möchte, für den gibt es eine Reihe von Möglichkeiten, dies in konstruktiver Form zu tun:

  • Sie sollten ihre Methoden als Open Source zur Verfügung stellen, damit die OSM-Community sie so einsetzen kann, wie es ihr am besten passt.
  • Teilen sie Ihre Erfahrungen mit diesen Methoden indem Sie Dokumentation und Anleitungen dazu schreiben.
  • Sie sollte Daten dafür wie Satellitenbilder unter einer Lizenz und in einer Form verfügbar machen, die für eine automatische Analyse gut geeignet ist. Das bedeutet insbesondere:
    • ohne Artefakte aus verlustbehafteter Kompression
    • mit ordentlicher radiometrischer Kalibrierung
    • mit allen verfügbaren Spektralbändern
    • mit vollständigen Metadaten
  • Sie sollten Methoden entwickeln, die den Mapper bei praktisch relevanten Problemen seiner Arbeit unterstützen und nicht versuchen, den Mapper dazu zu bringen, die Defizite in den Ergebnissen der Algorithmen auszubessern.

In anderen Worten: Sie sollten genau das Gegenteil von dem tun, was Facebook und Mapbox in diesem Bereich machen.

Ich möchte diesen Beitrag abschließen mit einer kurzen Bemerkung zu der Frage, ob wir denn in der Zukunft Maschinen haben werden, die Intelligenz-Arbeit deutlich oberhalb des Niveaus eines trainierten Kindes verrichten können. Die Antwort darauf ist: Das haben wir schon längst in Form von Computerprogrammen für spezifische Arbeiten. Der oberflächliche Reiz von KI und Maschinenlernen rührt von dem Versprechen her, dass sie helfen können, Probleme zu lösen, die man selbst nicht gut genug versteht um konkret einen Computer für diese Aufgaben zu programmieren. Ich denke nicht, dass es wahrscheinlich ist, dass dies tatsächlich in der vorhersehbaren Zukunft passieren wird, denn dies würde es nicht nur erfordern, den lebenslangen Lernprozess eines einzelnen Menschen zu reproduzieren, sondern auch die Jahrtausende dauernde kulturelle und technologische Evolution der menschlichen Gesellschaft als Ganzes.

Was jedoch durchaus möglich ist, dass wir für alltägliche Aufgaben zunehmend auf derartige Imitate von Lösungen durch KI vertrauen und dadurch immer mehr die Fähigkeit verlieren, diese Probleme wie oben beschrieben auf Grundlage eines tiefer gehenden Verständnisses zu analysieren und zu lösen. Falls dies eintritt wären wir dann natürlich auch nicht mehr in der Lage, den Unterschied zwischen der imitierten Lösung und einer tatsächlichen Lösung eines Problems zu erkennen. Am Ende ist ein Gebäude dann halt definiert als das, was eine KI als ein Gebäude erkennt.

Hinterlassen Sie eine Antwort

Pflichtfelder sind mit * markiert.

*

CAPTCHA

*