fbpx

Künstliche Intelligenz: Maschinen mit Commonsense


Maschinen, die sich in alltäglichen Situationen wie Menschen verhalten. Das ist das Ziel der KI-Forschung. Aber der gesunde Menschenverstand kann manchmal ziemlich ungesund sein.

Die jüngste Geschichte künstlich intelligenter (KI-)Systeme ist zweifellos beeindruckend. Mit den neuronalen Netzwerken und dem Maschinenlernen hat die Forschung einen entscheidenden Schritt in Richtung eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-, Mustererkennungsysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend hochgeschraubt sind die Erwartungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont die sogenannte allgemeine künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine Maschine mit «gesundem künstlichem Verstand».

Erste sozusagen infantile Formen probiert man ja zurzeit bei selbstfahrenden Autos aus. Die Artefakte beginnen zu lernen, sich an Situationen anzupassen, sie werden also wie die natürlichen Kreaturen adaptiv. Und damit bekommen wir es nicht bloss mit technischen Problemen zu tun, sondern auch mit philosophischen. Eines lautet: Was bedeutet es eigentlich, in Alltagssituationen mit Common Sense zu reagieren?

Descartes’ Vorbehalte

Die Frage beschäftigte schon Descartes. In einem berühmten Abschnitt seines «Discours» spricht er von der Universalität der Vernunft, die sich in allen Lebenslagen zu behaupten weiss. Wenn Maschinen «auch viele Dinge ebenso gut oder vielleicht besser als einer von uns machten», würden sie «doch unausbleiblich in einigen anderen fehlen und dadurch zeigen (. . .), dass sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln. Denn während die Vernunft ein Universalinstrument ist, das in allen möglichen Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere Disposition haben, und deshalb ist es moralisch (praktisch, Anm. d. Verf.) unmöglich, dass in einer Maschine verschiedene Organe genug sind, um sie in allen Lebensfällen so handeln zu lassen, wie unsere Vernunft uns zu handeln befähigt.»

Schon der französische Philosoph René Descartes, hier in einem Porträt des Künstlers Frans Hals, machte sich Gedanken über die Vernunft von Maschinen.

Schon der französische Philosoph René Descartes, hier in einem Porträt des Künstlers Frans Hals, machte sich Gedanken über die Vernunft von Maschinen.

PD

Das sind frappant moderne Worte, und sie zielen genau auf den Kern der heutigen Problematik lernender Maschinen. Setzen wir für «Organ» «neuronales Netz» ein und für «Disposition» «Lernalgorithmus», liest sich Descartes’ Text als Vorbehalt gegen einen künstlichen Common Sense. Lernende Maschinen werden nie aus Einsicht handeln, weil ihr Bauprinzip keine universelle Vernunft ermöglicht. Bis dato sind Computer jedenfalls Idiots savants.

Computeringenieure würden Descartes entgegenhalten, dass sie ja gar nicht viele Organe benötigten, sondern einen potenten Algorithmus plus eine immense, womöglich bereits vorstrukturierte Datenmenge, die er durchpflügen könne. Deep Learning funktioniert eigentlich nach überraschend einfachen Prinzipien, deshalb ist auch das Fernziel des künstlichen Common Sense «im Prinzip» erreichbar.

Die Betonung liegt auf «fern». Bisher exzellierten die neuartigen künstlichen Systeme in Spielen, also in klar definierten Rahmen mit vorgegebenen Regeln und einem primären Ziel: gewinnen. Ein selbstfahrendes Auto kann aber nicht einfach gewinnen. Sein Funktionieren hängt von zahlreichen Eventualitäten ab – vom pünktlichen Abliefern der Passagiere an der richtigen Destination über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetterverhältnissen und Strassen­zuständen bis zu Unwägbarkeiten wie unerlaubten Strassenüberquerungen von Fussgängern, nicht funktionierenden Ampeln, Staus oder Unfällen.

Ein selbstfahrendes Auto hat zum Beispiel im Laufe seines Trainings unzählige Rotsignale registriert und in seinem neuronalen Netz so etwas wie ein Konzept von Rot gespeichert. Unter normalen Bedingungen funktioniert das recht gut, aber immer wieder ist mit anormalen Situationen zu rechnen. Und wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen und womöglich fatalen Fehlklassifikation zu verleiten.

Ungesunder Maschinenverstand

Genau diese Offenheit der realen Situation stellt bis anhin das grosse Hindernis auf dem Weg zur künstlichen Intelligenz mit Common Sense dar. Das mag ein weiteres Beispiel veranschaulichen. Youtube entwickelte einen Algorithmus mit der Vorgabe, die Zeit zu maximieren, die der Nutzer am Videoportal verbringt. Der Algorithmus bewerkstelligte dies, indem er Videos mit immer extremerem Content empfahl, nach dem Prinzip «upping-the-ante»: Erhöhe den Einsatz. Eine Nutzerin berichtet etwa, wie sie ein paar Videos über den Wahlkampf von Donald Trump anschaute, und daraufhin mit rassistischem, verschwörungstheoretischem und anderem anrüchigem Material überhäuft wurde. Der Algorithmus «interpretiert» also seine Aufgabe in höchst eigenwilliger, ja, sturer Weise, die zu nicht beabsichtigten Effekten wie Radikalisierung und Polarisierung führt. Kaum ein Zeichen «gesunden» Maschinenverstandes.

Die Designer suchen Abhilfe mit einem neuen Ansatz. Er stammt vom Computerwissenschafter Stuart Russell und nennt sich «humankompatible Maschinen». Solche Maschinen fangen sozusagen bei null an. Statt ein vorgegebenes Ziel zu enkodieren und zu maximieren, lernen sie selbst, aus menschlichem Verhalten ein solches Ziel zu dekodieren und das Verhalten anschliessend zu verbessern. Inverses Verstärken nennt sich das. Daran knüpft sich die Erwartung, dass die Orientierung an menschlichem Verhalten die Maschine auch kompatibler – also mit mehr Common Sense – agieren lasse.

Die Skepsis bleibt. Erstens stellt sich die Frage, ob der Mensch sich als Vorbild für ein KI-System eignet. Er ist im Grunde kein logisches Wesen. Sein Verhalten speist sich aus einem dichten impliziten Netz von Erwartungen, Vorlieben, Meinungen, Motiven, das sich wohl kaum je vollständig in einem expliziten Formalismus entflechten lässt. Zweitens ändern sich unsere Vorlieben und Wünsche ständig, und zwar sind sie häufig nicht von rational rekonstruierbaren Gründen geleitet, sondern von irrationalen Stimmungen und Launen, die oft vage oder gar widersprüchlich sind. Und drittens: Was, wenn der Mensch sich im Tiefsten von schlechten Gründen leiten lässt? Sollen die Maschinen dann lernen, diese Schlechtigkeit zu optimieren? Erfahrungen wie jene von Youtube und anderen schändlichen Algorithmen nähren eine nicht eben optimistische Zukunftsvision.

Zurück zur Urfrage

Der gesunde Computerverstand wirft uns eigentlich auf die Urfrage zurück: Was heisst es, sich wie ein Mensch zu verhalten, ja, ein Mensch zu sein? Wir lernen zum Beispiel nicht auf die gleiche Weise wie KI-Systeme. Wir müssen nicht 10 000 Katzenbilder sehen, um daraus eine verlässliche Kategorie «Katze» zu bilden. Eher entwickeln wir Erwartungshaltungen, wie die Dinge ablaufen könnten, und auf dieser Basis treffen wir Vorhersagen. Wir schliessen in unserer Wahrnehmung natürlicherweise auf versteckte Partien eines Dinges, ohne entsprechende Daten darüber zu haben. Oder wir entwickeln eine Intuition für den Unterschied zwischen Korrelation und Kausalität. Der Regen ist nicht Ursache dafür, dass die Leute den Schirm aufspannen; ihr Wunsch, trocken zu bleiben, dagegen schon.

Es sind solche kognitiven Aspekte, die wesentlich zu unserem gesunden Menschenverstand beitragen, sozusagen unserem verkörperten Geistigsein. Das beginnt nicht wenigen KI-Forschern zu dämmern. Kein Geringerer als Rodney Brooks vom MIT, Koryphäe auf diesem Gebiet, zog kürzlich eine Kernannahme des ganzen KI-Projekts in Zweifel: Womöglich stossen künstliche Systeme an eine Grenze der Komplexität, weil sie aus dem falschen Stoff bestehen. Das heisst, die Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen hat. Das Rätsel des menschlichen Geistes liegt in seiner Inkarniertheit.

Und deshalb wird die KI-Forschung ihr Augenmerk mehr auf diesen spezifischen Stoff legen müssen, aus dem wir gemacht sind. Sie wird biologischer denken müssen. Bereits beginnen die Robotiker mit Tierzellen zu experimentieren, die sich nach Vorgabe eines Programms entwickeln – Xenoboter. Hüten wir uns, hier voreilig ein Zukunftsszenario mit smarten organoiden Geräten auszumalen. Fassen wir vielmehr das wirkliche Problem ins Auge. Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz allen Bemühungen, wahrscheinlich nicht unserem Alltag angleichen. Eher passen wir unseren Alltag ihnen an. Das Problem sind also nicht superschlaue Maschinen, sondern subschlaue Menschen.

Folgen Sie der Wissenschaftsredaktion der NZZ auf Twitter.





Source link

Leave a Reply

Your email address will not be published. Required fields are marked *