12. März 2020
Technik macht unser Zimmer hell, die Wohnung warm, bringt uns zügig von A nach B und die Welt auf unsere Smartphones. Dabei hat sie aber oftmals gravierende Konsequenzen für Mensch und Umwelt. Wie man mögliche Folgen von Technologien im Vorfeld auslotet und warum wir technischen Entwicklungen häufig mit Hoffnungen oder Ängsten begegnen – darüber spricht #explore mit Armin Grunwald, Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse in Karlsruhe.
#explore: Herr Grunwald, was sind die grundsätzlichen Ziele der Technikfolgenabschätzung?
Armin Grunwald: Das Wort Technikfolgenabschätzung ist ja ziemlich sperrig, beschreibt aber im Kern, was wir machen: Wir schätzen Technikfolgen ab – also Folgen, die es noch gar nicht gibt. Wenn es sie bereits gäbe, könnte man sie messen, könnte etwa Veränderungen der Umwelt oder des Arbeitsmarktes empirisch ermitteln. Daher stellen wir auch keine Prognosen darüber auf, wie die Zukunft wird. Wir beschreiben vielmehr, welche „Zukünfte“ möglich sind. Damit Gesellschaft, Politik und Wirtschaft sich heute darüber verständigen können: Wollen wir das, wollen wir das nicht? Was können wir tun, um Risiken zu vermeiden und Chancen zu stärken?
An wen wenden sich Ihre Untersuchungen: an die Politik oder an die breite Öffentlichkeit?
Als wissenschaftliches Institut ist ein wesentlicher Adressat unserer Arbeit immer die Wissenschaft selbst. Aber die Beratungstätigkeit, die sich daran anschließt, ist sehr divers: Bei uns im Institut steht die Politikberatung an erster Stelle – prominent vertreten durch unsere Tätigkeit beim Deutschen Bundestag im Büro für Technikfolgenabschätzung seit nunmehr 30 Jahren. Aber auch für viele Ministerien oder die EU-Kommission. In den vergangenen 15 Jahren haben wir uns außerdem den Zweig der Gesellschaftsberatung aufgebaut. Hier geht es darum, Bürgerinnen und Bürger zur Meinungsbildung anzuregen und gemeinsam mit ihnen Fragen und Lösungsansätze zu diskutieren. Dabei gehen wir auch in die konkrete Gestaltung: In einem Stadtteil in Karlsruhe haben wir zum Beispiel ein Reallabor initiiert. Gemeinsam mit den Menschen vor Ort betreiben wir hier Projekte für mehr Nachhaltigkeit, etwa im Verkehr. Ein weiterer Bereich ist die direkte Beratung bei technischen Entwicklungen, die von Forschern im Karlsruher Institut für Technologie (KIT) oder außerhalb vorangetrieben werden. Ziel ist es dabei, die Technikentwicklung von vorneherein in eine möglichst gute Richtung zu leiten. Damit man sich nicht hinterher mit Folgen herumschlagen muss, die man hätte verhindern können.
© Bernardo Cienfuegos/ITASDas ITAS in der Karlstraße 11 in Karlsruhe.
Kaum jemand hätte erwartet, wie schnell beispielsweise das Internet unseren Alltag verändert. Wie lässt sich denn überhaupt abschätzen, welche Folgen eine Technologie haben könnte, bevor sie entwickelt und verbreitet ist?
Das ist extrem unterschiedlich und hängt stark vom Reifegrad und Kontext einer jeweiligen Technologie ab: Wenn man etwa heute Kraftwerke entwickelt, die vielleicht erst in zehn Jahren einsetzbar sind, können wir deren Emissionsverhalten, entstehende CO2-Vermeidungskosten und die Konkurrenzsituation zu anderen Vorhaben bereits sehr gut einschätzen. Denn wir kennen das heutige Energiesystem sehr gut. Geht es aber um ein System, das sich gerade erst boomartig entwickelt und innerhalb kurzer Zeit eine Eigendynamik entfaltet, stößt dieses Prinzip an seine Grenzen. Dann kann man nur versuchen, möglichst früh eine Ahnung von den positiven wie negativen Folgen zu bekommen. Anfang der 2000er-Jahre haben wir eine Studie für den Bundestag zur politischen Kommunikation im Internet angefertigt. Shitstorms, Hatespeech und Fake News konnten wir damals natürlich noch nicht vorhersehen. Aber wir haben bereits darauf hingewiesen, dass man die seinerzeit hochfliegenden utopischen Hoffnungen, nach denen das Internet automatisch zu mehr Demokratie führt, mit Skepsis betrachten sollte. Ein spezieller Fall ist der Hype um bestimmte Technologien, die für die einen die Welt retten und sie für die anderen in den Untergang führen. Das waren vor 20 Jahren die Nanotechnologien, später die Steigerung menschlicher Leistungsfähigkeit durch sogenannte Human Enhancements und ist heute die künstliche Intelligenz. Bei diesen Zukunftserzählungen zwischen Paradies und Apokalypse geht es nicht mehr um die Frage, wer recht hat und was das über die Zukunft in 30 Jahren aussagt. Wir fragen vielmehr, was Menschen heute dazu bringt, dieses oder jenes anzunehmen, ob das plausibel, begründet oder einfach Unsinn ist, welche Ängste, Sorgen, Diagnosen, vielleicht auch Wissensbestände oder sogar Interessen dahinterstecken. In einem weiteren Schritt geht es dann auch darum, welche Entscheidungen anstehen, um die Entwicklung etwa der KI heute zu steuern: Welche Sicherheitsstandards, Redundanzen, Ethikleitlinien benötigen wir, um zu verhindern, dass bestimmte Systeme außer Kontrolle geraten?
„Bei Zukunftserzählungen zwischen Paradies und Apokalypse geht es nicht mehr um die Frage, wer recht hat und was das über die Zukunft in 30 Jahren aussagt.“
Warum neigen wir dazu, Technik mit positiven beziehungsweise negativen Erwartungen zu belegen?
Die negative Erwartung ist das Resultat einer historischen Erfahrung: Es kommt immer wieder vor, dass Technik entweder nicht hält, was sie verspricht, oder nicht intendierte Folgen mit sich bringt. Der Klimawandel entsteht ja gerade nicht aus einer defekten, sondern aus einer perfekt funktionierenden Technik – die nur dummerweise dabei diese gravierenden Umweltfolgen produziert. Auf der anderen Seite haben wir eine Idealvorstellung von reibungslos funktionierender Technik; das gilt besonders für Menschen, die sich mit Technik nicht auskennen. Wenn das Auto dann mal nicht anspringt – was heute ja kaum noch vorkommt –, sind wir sauer. Und wenn wir sehen, dass der Roboterbus an seine Grenzen stößt, sind wir enttäuscht. Diese eigenartige Ambivalenz in unserem Verhältnis zu Technologien spitzt sich in der Öffentlichkeit immer zu auf die Frage: „Technik – Fluch oder Segen?“ Diese Frage ist völliger Unsinn, da Technik meistens beides ist.
Wissen wir einfach zu wenig, um Technologien wirklich beurteilen zu können?
Natürlich kann nicht jeder Bürger Fragen zur Energiewende oder zur Digitalisierung im Detail einschätzen. Das ist aber auch gar nicht nötig. Dazu haben wir eine gesellschaftliche Arbeitsteilung zwischen Experten, Kontrollinstanzen und der Öffentlichkeit. Wesentliches Bindemittel ist das Vertrauen der Bürger in die entsprechenden Instanzen. Nun erwarten manche Experten, dass man ihnen glaubt, nur weil sie eben Experten sind. Das ist zu einfach gedacht, denn dieses Vertrauen muss man sich selbstverständlich erarbeiten. In unsere Studien für den Bundestag nehmen wir daher Kommentargutachten mit auf. Wir lassen also die Befunde eines Gutachters durch einen weiteren Gutachter mit einer anderen Perspektive prüfen, um eine differenzierte Einordnung zu ermöglichen.
Wie gehen Sie konkret vor, wenn Sie etwa die möglichen Folgen des autonomen Fahrens bewerten wollen?
Zunächst erstellen wir immer einen State of the Art der jeweiligen Technik. Dazu kooperieren wir mit technischen Fachleuten der entsprechenden Disziplinen, etwa aus der Informatik oder aus der Automobiltechnik hier am KIT. Im nächsten Schritt geht es darum, die Zukunftserzählungen der Forscher kennenzulernen: Was ist in der Mache in den Labors? Wann sollen die Technologien marktreif sein? Wir wissen natürlich, dass solche Selbsteinschätzungen immer zu optimistisch ausfallen: Da müssen Prototypen entwickelt und Zulassungsverfahren durchlaufen werden – und das dauert. Auch hier ziehen wir wieder Experten hinzu, die einen Entwicklungsstand einschätzen können. In gewisser Weise sind wir also unter anderem eine Art Informationsbroker, der verschiedene Wissensstände zusammenführt. Unsere genuine Kompetenz besteht in der Beurteilung dieses Zukunftswissens in Bezug auf Validität, Grenzen und mögliche Einseitigkeiten, indem wir mittels bestimmter Verfahren dessen Belastbarkeit testen. Auf dieser Basis stellt sich dann die große Frage, was das alles heute für uns bedeutet. Besteht beispielsweise beim autonomen Fahren noch Regulierungsbedarf, müssen kritische Lücken in der Forschung geschlossen werden, um die Systeme sicher, aber auch sozialverträglich zu machen? Voraussetzung, um diese grundsätzlichen Fragen stellen zu können, ist ein fundiertes Verständnis davon, wie die Koevolution von Technik und Gesellschaft abläuft, wo Risiken und Sensibilitäten bestehen und welche Faktoren Innovationsprozesse fördern oder hemmen können.
Was sind weitere zentrale Themen, mit denen Sie sich aktuell beschäftigen?
Also, natürlich das ganze Feld der Digitalisierung: von Maschinenlernen, Cybersecurity und Privatheit bei Big Data über Pflegerobotik bis zum autonomen Fahren. Auch die Veränderung des Arbeitsmarktes und die Energiewende sind für uns große Themen. Intensiv beschäftigen wir uns zudem mit den Bereichen Medizin und Genetik – insbesondere mit den neuen technischen Möglichkeiten, DNA-Bausteine im Erbgut zu verändern, um etwa Tiere und Pflanzen zu „verbessern“. Das sogenannte genetische Editieren rückt mittlerweile auch näher an den Menschen heran. Wir hatten ja hier den Fall des chinesischen Arztes He Jiankui, der Zwillinge genetisch verändert haben will.
„Das sogenannte genetische Editieren rückt näher an den Menschen heran.“
Sie haben zunächst Physik, Mathematik und später Philosophie studiert. Braucht man als Technikfolgenabschätzer ein Grundverständnis sowohl für technisch-physikalische Zusammenhänge als auch für Fragen der Ethik?
Mein Vorgänger war Volkswirtschaftler, mein Nachfolger könnte Ingenieur sein. Dass ich jetzt als Leiter des Instituts Philosoph bin, ist also Zufall. Aber tatsächlich sind eine grundlegende Offenheit und eine breite Kenntnis verschiedener Lebensbereiche wichtige Voraussetzungen für die Technikfolgenabschätzung. Ich habe meinen Weg in die Technikfolgenabschätzung nicht geplant – das hat sich sukzessive entwickelt. Viele meiner Mitarbeiterinnen und Mitarbeiter in Karlsruhe und Berlin haben ähnlich verschlungene Ausbildungspfade absolviert.
Zeitreisegeschichten der Science-Fiction denken die Zukunft meist deterministisch: Tauscht man ein Glied in der Kausalitätskette aus, ändert sich die gesamte Geschichte. Wie würden Sie Ihre Vorstellung von Zukunft beschreiben?
Gerade bei der Digitalisierung trifft man häufig auf eine solch deterministische Sichtweise. Nach dem Motto: Wir müssen uns fit machen für die Digitalisierung. Dabei ist ja die Art und Weise, wie sich die Digitalisierung vollzieht, von Menschen gemacht und könnte eben auch von Menschen anders gestaltet werden. In diesem Sinne ist die Zukunft für mich ein weißes Blatt Papier, das wir erst beschreiben müssen. Und wir als Technikfolgenabschätzer zeichnen Möglichkeitslinien auf dieses Blatt, die in die Zukunft hineinragen. Wir sagen etwas über die Bedingungen, Implikationen, die Kosten, Chancen und die Risiken dieser Möglichkeiten. Wir sagen nicht, Möglichkeit 3 b) ist die beste, um etwa die Energiewende voranzubringen. Denn eine objektive „optimale“ Lösung kann es in einer demokratischen Gesellschaft nicht geben. Die sieht für Parteien, Gruppen und Menschen mit unterschiedlichen Wertvorstellungen, Interessen und Positionen jeweils anders aus. Unser Mandat besteht also darin, Wissen bereitzustellen und dieses Wissen einzuordnen. Die Entscheidung für eine dieser Möglichkeiten ist Sache der Politik und der Gesellschaft.
ZUR PERSON
© KIT
Armin Grunwald ist Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) und Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT). Als Leiter des Büros für Technikfolgenabschätzung beim Deutschen Bundestag berät der Physiker, Mathematiker und Philosoph die Politik zu den möglichen Folgen von Technologien.