19. September 2019
Künstliche Intelligenz (KI) gilt wahlweise als nächster Quantensprung der Digitalisierung, der unser Leben leichter, effizienter und sicherer macht, oder aber als Untergang der Menschheit, da sie uns alle eines Tages abschaffen wird. Was KI tatsächlich heute schon kann, wie die Systeme lernen und wo die Gefahren der künstlichen Intelligenz liegen könnten, klären wir im Gespräch mit dem Physiker und Neurobiologen Christoph von der Malsburg.
#explore: Wo begegnet uns künstliche Intelligenz denn schon heute im Alltag?
Christoph von der Malsburg: Am nächsten kommt uns künstliche Intelligenz wahrscheinlich, wenn wir mit unserem Smartphone sprechen – wenn also das Handy Sprache versteht, in Text umsetzen und auch darauf reagieren kann. Diese vergleichsweise junge Entwicklung geht zurück auf Sepp Hochreiters Diplomarbeit von 1991 an der Technischen Universität München. Er hat das Prinzip der sogenannten Long Short-Term Memory (LSTM) erfunden und 1997 dann auch veröffentlicht.
Sie arbeiten seit über 50 Jahren zur künstlichen Intelligenz. Wie haben sich die Systeme im Verlauf der Zeit entwickelt?
Die Ideen, die das Gebiet dominieren, sind eigentlich schon 50 bis 60 Jahre alt. Inhaltlich stagniert das Feld der künstlichen Intelligenz also. Aber vor einigen Jahren hat sich unter dem Namen „Deep Learning“ eine technologische Explosion ereignet. Auch das ist eine alte Idee und geht zurück auf den US-amerikanischen Informatiker Frank Rosenblatt, der sie 1962 erstmals publizierte. Deep Learning funktioniert heute, weil wir mittlerweile über sehr potente Computer und vor allem über riesige Datenmengen verfügen: beispielsweise Fotografien, auf denen Menschen notiert haben, welche Objekte darauf zu sehen sind. Mit Millionen solcher Bilder und Millionen von Trial-and-Error-Versuchen werden die künstlichen neuronalen Netzwerke trainiert, bis ihre Verschaltung so ist, dass sie in den meisten Fällen die richtige Antwort geben kann. Das Lernprinzip beruht also völlig auf der Statistik von Antworten, die von außen durch den Menschen vorgeben werden.
Wie ähnelt oder unterscheidet sich das von unserer Art, zu lernen?
Das ist tatsächlich grundverschieden. Kinder saugen ja in den ersten drei Lebensjahren die Welt förmlich in sich auf: Sie lernen in rasantem Tempo neue Worte, Vorgänge, Objekte und deren Verwendung, sie agieren und sie verstehen ihre unmittelbare Umgebung. Unser Gehirn vollbringt diese Leistung auf der Basis von rund einem Gigabyte genetischer Information und wenigen Gigabyte an Umgebungsinformationen. Um die Verbindungsmatrix des menschlichen Gehirns zu beschreiben, benötigt man aber ein Petabyte – also eine Million Mal mehr. Das Gehirn muss folglich über ein sehr potentes Mittel verfügen, um sich selbst zu strukturieren. Nerven mit Selbstorganisation – das ist die einzige sinnvolle Erklärung für diese Diskrepanz und aus meiner Sicht für 99,99 Prozent der Hirnstruktur verantwortlich. Dadurch arbeitet unser Gehirn um Größenordnungen effizienter, als es jede KI heute auch nur ansatzweise vermag. Bislang ist diese aus meiner Sicht zentrale Erkenntnis aber noch nicht in die Entwicklung der künstlichen Intelligenz eingeflossen.
„Heutige KI ist noch nicht eigentlich intelligent.“
Für welche Einsatzzwecke ist KI schon heute besonders gut geeignet und für welche weniger?
In allen Situationen, die vorhersehbar sind oder die Routinecharakter haben, kann heutige künstliche Intelligenz bereits gut eingesetzt werden – also immer dort, wo es Datensätze gibt, in denen der Mensch der Maschine vormachen kann oder vorgemacht hat, wo es langgeht. Objekterkennung aus Bildern oder Sprachübersetzung funktioniert heute bereits gut. Zumindest bei Standardtexten – bei komplizierten Argumentationsketten stoßen die Systeme an ihre Grenzen.
Bei Situationen, die man nicht im Detail voraussehen kann, sieht die Sache völlig anders aus. Ein sehr brisantes Beispiel sind etwa die autonomen Autos: Auf der Autobahn zu fahren, Abstand zu halten oder die Spur zu wechseln ist für die Systeme überhaupt kein Problem und war prinzipiell schon vor 20 Jahren möglich. Aber im Stadtverkehr ist jede Situation irgendwie neu – da versagen die Datensätze. Heute versucht man krampfhaft, dieses Problem in den Griff zu bekommen, indem man solche außergewöhnlichen Situationen – die sogenannten corner cases oder edge cases – mit computergrafischen Mitteln in allen Varianten nachstellt. Weil diese Systeme aber nur Statistik können, benötigt man für jede Verkehrssituation 10.000 Beispiele, in denen etwa die Farbe des Autos oder die genaue geometrische Anordnung variiert, damit die KI in der Lage ist, die Situation zu erkennen. Die Wirklichkeit hat jedoch so viel Fantasie, dass man dieses Problems so niemals vollständig Herr wird.
Heutige KI ist also noch nicht eigentlich intelligent. Denn echte Intelligenz bedeutet, allgemeine Ziele in wechselnden Situationen realisieren zu können. Im Straßenverkehr wäre das etwa: „Erzeuge keinen Schaden, weder bei dir noch bei anderen.“ Gegenwärtige KI ist nicht fähig, solche abstrakten Prinzipien und Konzepte zu verstehen und anzuwenden. Während also etwa schon Grundschüler im Mathematikunterricht Transferaufgaben bewältigen, kann KI das überhaupt noch nicht.
Wie und in welchen Feldern wird sich die KI in den kommenden Jahren entwickeln?
Diese künstlichen neuronalen Netze sind ein weiteres Werkzeug auf dem Weg der Digitalisierung. Digitalisierung und künstliche Intelligenz sind aber heute noch sehr teuer, weil jedes Problem in viel zu kleinteiliger Weise von kostspieligen IT-Experten mit der Hand angefasst werden muss. Das würde man natürlich gern vermeiden. Der nächste logische Entwicklungsschritt wäre daher die Automatisierung der Automation: Dass das System etwa eine Smart City erzeugen kann, indem man ihm auf abstrakter Ebene Ziele setzt, die es dann eigenständig realisiert: flüssiger Verkehr, niedriger Energieverbrauch, saubere Straßen. Wenn etwa ein großes Fußballspiel ansteht oder ein Unglück passiert, würde eine solche Smart City autonom die Verkehrsströme umlenken und die Menschen alarmieren. Voraussetzung dafür wäre aber eben, dass die KI nicht nur dem Namen nach, sondern auch faktisch über Intelligenz verfügt.
„Die gegenwärtige Entwicklung wird von einigen hartnäckigen Vorurteilen blockiert.“
Beim Stichwort „KI“ denken viele Menschen an eine Art Superhirn, das alles besser, schneller und fehlerloser kann als wir Menschen, sich in rasender Geschwindigkeit selbst Dinge beibringt, ein Selbstbewusstsein entwickelt und uns eines Tages ersetzt. Wie realistisch ist ein solches Szenario aus Ihrer Sicht?
Der US-amerikanische Autor und Futurist Ray Kurzweil behauptet – und andere behaupten –, dass solch eine höhere Intelligenz in den nächsten 20 Jahren Realität sein wird. Ich halte das jedoch für sensationsheischende Vorhersagen von Spinnern, die von der Materie keine Ahnung haben.
Seriöse Experten gehen davon aus, dass wir noch über 200 Jahre von einer echten künstlichen Intelligenz entfernt sind. Auch Fachleute, die an autonomen Autos arbeiten, schätzen, dass es 30 bis 40 Jahre dauern wird, bis die Systeme Verkehrssituationen tatsächlich verstehen – es sei denn, es passiert ein konzeptioneller Durchbruch. Ich bin der Meinung, dass die gegenwärtige Entwicklung von einigen hartnäckigen Vorurteilen blockiert wird. Das erste Vorurteil würde man im Englischen als „Intelligent Design“-Haltung bezeichnen: Wenn man Intelligenz in der Maschine haben will, muss der Mensch sie mit seiner Intelligenz dazu befähigen. Das ist das algorithmische Prinzip, das das Rückgrat der Digitalisierung bildet. Hier löst ein Mensch einen Problembereich in seinem Kopf und programmiert diese Lösung über einen Algorithmus in die Maschine. Das muss ersetzt werden mit einem Konzept, durch das in der Maschine die intelligenten Strukturen selbst organisiert wachsen.
Das andere Vorurteil ist die bisher ungenügende Antwort auf die Frage, wie die Nervenzellen in unserem Gehirn dieses Theater erzeugen, das wir tagtäglich von innen heraus erleben – wie ich etwa gerade die Szene hier in meinem Büro. Die aktuell dominierende Antwort lautet: Jede Nervenzelle ist ein elementares Symbol, also: rote Farbe, senkrechte Kante, meine Großmutter, ein Bleistift oder ein Hund. Was an der Theorie der Elementarsymbole fehlt, ist das, was wir benutzen, um aus Buchstaben Worte und aus Worten Sätze zusammenzusetzen: nämlich eine Anordnung. Ich habe das bereits vor 40 Jahren als das „Bindungsproblem“ beschrieben. Aber wenn diese Frage nach der Struktur des Gehirns richtig beantwortet wird, kann die Vision der intelligenten und bewussten Maschine, die über sich und über die Welt nachdenken kann, sehr schnell Realität werden.
Eine echte Intelligenz in der Maschine würde also auch über Selbstbewusstsein, Motivationen und selbst gesetzte Ziele verfügen?
Wir sind ja alle auf die Welt gekommen mit vorgegebenen abstrakten Zielen: Wir wollen nicht frieren, nicht hungern, wir wollen bei Mama sein, wollen Gefahren aus dem Weg gehen und uns fortpflanzen. In diesem Sinne würde man zumindest in eine erste Generation von solchen künstlichen Intelligenzwesen auch Ziele einbauen müssen – denn die entwickeln sich ja nicht von selbst. Und dann wird die künstliche Intelligenz darüber nachdenken können und in einer zweiten Generation neue Ziele definieren. Und dann könnten wir irgendwann die Kontrolle verlieren.
Sollten wir dann nicht ab sofort die Finger von der Weiterentwicklung der KI lassen, um möglichst nicht eine potenzielle Gefahr zu erzeugen?
Das ist ein schöner Gedanke. Allerdings ist unser gesamtes Gesellschafts- und Wirtschaftssystem darauf ausgelegt, immer besser und effizienter zu werden. Die Wirtschaft soll wachsen, Kosten sollen gesenkt, menschliche Arbeit soll erleichtert oder ersetzt werden. Diese Zielsetzung ist in unserem Wirtschaftssystem tief verankert. Und das logische Mittel, um dieses Ziel zu erreichen, ist eben Automation – also Prozesse und damit Menschen überflüssig zu machen. Wenn man das zu Ende denkt, führt das in eine entsetzliche Dystopie.
„Ich sehe eine viel größere Gefahr darin, dass unser menschliches Leben zunehmend sinnentleert wird.“
Noch ist eine echte künstliche Intelligenz nicht Realität. Müssen wir gegenwärtig Angst vor der KI haben oder eher davor, was Menschen mit KI anstellen können?
Tatsächlich sind die Übeltäter heute Menschen und nicht die Maschinen. Die gegenwärtige Technik eröffnet schon heute die Möglichkeit der Manipulation jedes Einzelnen und der Gesellschaft im Ganzen. Angefangen bei der personalisierten Werbung auf Basis der Beobachtung unseres Such- und Klickverhaltens bis hin zur Beeinflussung von Wahlen, wie es ja im Zusammenhang mit Cambridge Analytica und der Wahl Donald Trumps vermutet wurde. Und natürlich können und werden mit der gegenwärtigen künstlichen Intelligenz auch automatisierte Kriegswaffen entwickelt.
Können wir als Gesellschaft sicherstellen, dass KI nur „zum Wohle der Menschheit“ eingesetzt wird?
Natürlich kann der Gesetzgeber Einfluss nehmen. Für den Datenschutz ist die Datenschutz-Grundverordnung (DSGVO) auf europäischer Ebene ja bereits ein erster Schritt in die richtige Richtung. Und man kann natürlich internationale Abkommen schließen, um die Entwicklung automatischer Waffen einzuhegen. Die Atombombe hat uns ja auch nicht flächendeckend ausgelöscht, sondern wahrscheinlich eher den Krieg verhindert. Insofern habe ich vor den automatischen Waffen auch weniger Angst.
Ich sehe eine viel größere Gefahr darin, dass unser menschliches Leben zunehmend sinnentleert wird. Unsere Entwicklung ist im Moment völlig darauf ausgerichtet, die Lebensqualität des Einzelnen zu verbessern. Und zwar in einem völlig fehlgeleiteten Sinn – nämlich mehr Konsum, weniger Arbeit, mehr Freizeit, mehr Überflüssig-Sein. Von unserem Instinktkostüm sind wir aber dafür gebaut, von Tag zu Tag den Lebenskampf zu führen, in sozialem Zusammenhang mit anderen, mit denen wir vertrauensvoll umgehen. Diese Art der Lebensführung wird zunehmend wegrationalisiert.
Wird durch künstliche Intelligenz diese Entwicklung weiter vorangetrieben, würde unser Leben endgültig zur Sinnlosigkeit ausgehöhlt. Wenn sich eines Tages tatsächlich eine höhere Intelligenz entwickelt, könnte man in dieser Hinsicht beinahe hoffen, dass sie uns zu unserem Besten zwingt – indem sie dafür sorgt, dass wir uns wieder stärker anstrengen müssen, um unsere Ziele zu erreichen. Selbstverständlich könnte diese Intelligenz aber auch zu dem Schluss kommen, dass wir eine Pest am Leibe des Erdballs sind und in der Zahl reduziert werden müssen. Ich werde das nicht mehr erleben und Sie wahrscheinlich auch nicht. Aber es könnte sich so dystopisch entwickeln, wenn wir hier nicht regulativ und auf gesellschaftlicher Ebene gegensteuern.
Das könnte Sie auch noch interessieren
Inspired by nature: Bionische Roboter
Was die Robotik von der Natur lernen kann.
Artikel lesen
ZUR PERSON
© TÜV NORD / Henning Scheffen
Der Physiker, Neurobiologe und Hochschullehrer Christoph von der Malsburg ist ein Pionier der technischen Gesichtserkennung und zählt zu den profiliertesten deutschen Forschern im Bereich der künstlichen Intelligenz. Er war unter anderem tätig in der Abteilung Neurobiologie am Max-Planck-Institut für biophysikalische Chemie in Göttingen, an der University of Southern California in Los Angeles und ist Mitbegründer des Instituts für Neuroinformatik an der Ruhr-Universität Bochum. Aktuell erforscht er als Senior Fellow am Frankfurt Institute for Advanced Studies neuronale Netzwerke und Computer Vision.