02. März 2023
Seit Langem hat keine Entwicklung aus dem Silicon Valley so hohe Wellen geschlagen wie ChatGPT. Der KI-gestützte Chatbot gibt Antworten auf komplexe Fragen und kann auch Referate, wissenschaftliche Aufsätze und auf Wunsch Gedichte oder Rezepte generieren. Microsoft verspricht sich viel von dem Sprachmodell und wird es in seine Suchmaschine Bing integrieren. Wir haben mit Carsten Becker vom TÜV NORD Corporate Center Innovation über die Möglichkeiten und Risiken von ChatGPT gesprochen.
Der Hype um ChatGPT ist enorm. Aber was macht das System überhaupt anders als bisherige Chatbots?
Carsten Becker: Aktuelle Chatbots sind auf sehr spezifische und eingegrenzte Prozesse ausgelegt. Man kann mit ihnen etwa einen Flug buchen oder die Kreditkarte sperren lassen. Die Systeme müssen dazu nicht sonderlich smart sein – sie arbeiten sich anhand der Eingaben der Nutzenden Stück für Stück über einen Entscheidungsbaum vor bis zum Ziel. Mit ChatGPT kann man nun tatsächlich frei „sprechen“ beziehungsweise schreiben. Das System versteht dann kontextbezogen die Ausrichtung der gestellten Frage und generiert Antworten auf einem verblüffend hohen sprachlichen Niveau, was beides in dieser Form bislang nicht möglich war.
In welchen Bereichen könnte der KI-Chatbot zum Einsatz kommen?
Carsten Becker: Zunächst in jeder Form der Recherche, ob für Privatpersonen oder in professionellen Kontexten. Auch E-Learning kann durch ChatGPT viel interaktiver und natürlicher werden, da man wie in einer analogen Lernsituation immer wieder mit Fragen nachhaken kann, wenn man einen Aspekt noch nicht verstanden hat oder vertiefende Informationen benötigt. Das KI-System eröffnet außerdem für die Kommunikation von Unternehmen mit ihren Kundinnen und Kunden ganz neue Möglichkeiten, die weit über bisherige Chatbots hinausgehen. Und nicht zuletzt könnte ChatGPT für uns lästige und sich wiederholende administrative Aufgaben übernehmen, also etwa Berichte auf Basis erhobener Daten erfassen. Dabei müssen wir uns als Gesellschaft darüber verständigen, welche Aufgaben und Arbeitsbereiche wir an die KI übertragen wollen.
Bei aller Euphorie: ChatGPT wurde bereits wiederholt bei Fehlern ertappt. Wie steht es denn um die Verlässlichkeit solcher Systeme?
Carsten Becker: ChatGPT formuliert seine Antworten ausführlicher, als es bei einer normalen Internetsuche der Fall ist, und präsentiert sie mit großem „Selbstbewusstsein“. Bei Nutzenden entsteht so leicht der Eindruck, korrekte und wesentliche Informationen zu einem Thema bekommen zu haben. Das ist allerdings nicht immer der Fall. Einige Fehler ergeben sich daraus, dass ChatGPT mit Daten bis 2021 trainiert wurde, bei jüngeren Themen also nicht auf dem neuesten Stand ist. Letzteres will Microsoft durch die Einbindung der KI in seine Suchmaschine Bing beheben, was jedoch nach ersten Tests zumindest aktuell noch nicht immer zu fehlerfreien Antworten führt. Teilweise scheint das System auch zu schummeln und etwa Quellenangaben einfach zu erfinden. Hier liegt natürlich eine enorme Gefahr für die Verbreitung von Falschinformationen, wenn ein KI-System Behauptungen aufstellt, die plausibel wirken, aber schlichtweg nicht stimmen.
Zur Person
Carsten Becker ist Leiter des Corporate Center Innovation im TÜV NORD-Geschäftsbereich Industrie Service. Mit seinem Team beschäftigt sich der diplomierte Wirtschaftsingenieur und Industrial Engineer mit künstlicher Intelligenz, IT-Security, Sensorik und dem Internet der Dinge.
Wie kann man solche Systeme sicherer und damit verlässlicher machen?
Carsten Becker: Wenn ich mit einer KI rede, möchte ich, dass sie möglichst umfänglich trainiert wurde, dass sie unvoreingenommen und ausgewogen ist, also etwa in gesellschaftlichen und politischen Fragen keine Schlagseite hat. Und nicht zuletzt möchte ich jederzeit erkennen können, ob eine Antwort oder ein Artikel von einer KI generiert wurde. Es geht also um Vertrauenswürdigkeit – um „Digital Trust“, wie wir das nennen. Um diese Vertrauenswürdigkeit zu gewährleisten und Fehlinformationen ebenso wie Missbrauch zu verhindern, halte ich eine gesetzlich verankerte Kontrolle solcher Systeme durch unabhängige Prüforganisationen für unerlässlich.
Wer und was steckt hinter ChatGPT?
GPT steht kurz für „Generative Pre-training Transformer“ und ist ein Sprachmodell der US-Firma OpenAI, das mittels künstlicher Intelligenz Texte generiert. Nutzende können dem Sprachassistenten Fragen stellen, die dieser dann auf Grundlage von Daten aus dem Internet eigenständig beantwortet. Microsoft ist bereits jetzt ein wichtiger Geldgeber des Unternehmens und will in den kommenden Jahren weitere zehn Milliarden Dollar in OpenAI investieren.
Unter diesen Gesichtspunkten: Wie und mit welchen Daten werden diese Systeme trainiert, wie werden Datenschutz, Urheberrecht, Diskriminierungsfreiheit und allgemeiner Zugang gewährleistet und gesichert? Auf einer ersten Ebene könnte man so überprüfen, ob das System die erwarteten Ergebnisse liefert. Also ob die Antworten inhaltlich in Ordnung und diskriminierungsfrei sind. In einem weiteren Schritt würde man dann tiefer in das System hineinschauen: Wie ist der Code gebaut? Sind die Trainingsdaten nachvollziehbar gewählt und von hoher Qualität? Lückenlose Sicherheit ist natürlich bei keiner Technologie zu erreichen. Das gilt umso mehr für so komplexe Modelle wie ChatGPT. Aber wir sollten alle Möglichkeiten ausschöpfen, um sie so sicher wie möglich zu machen.
Aktuell ist Google unangefochtener Marktführer bei den Suchmaschinen. Kann Microsoft durch die Integration von ChatGPT das Rennen um die Vorherrschaft der Suchmaschinen nun unter anderen Vorzeichen neu eröffnen?
Carsten Becker: Google ist Bing seit Jahren um Längen voraus, was sich nicht von einem Tag auf den anderen ändern dürfte. Aber die Einbindung von ChatGPT wird Bing qualitativ sicherlich deutlich aufwerten und so wieder für mehr Nutzende interessant machen. Dass Microsoft hier offenbar einen Nerv getroffen hat, zeigt sich ja in Googles nervöser und schneller Reaktion: Das Unternehmen hat bereits einen eigenen KI-Chatbot vorgestellt, der jedoch bei der Präsentation prompt einen Fehler produziert hat, woraufhin der Aktienkurs des Konzerns abgerutscht ist. Doch auch bei Microsoft läuft noch nicht alles glatt. Einige Nutzende haben anscheinend die Grenzen von ChatGPT ausgereizt, worauf der Bot teils unsinnige, teils beleidigende Antworten gegeben hat. Bing hat daher vorübergehend die Zahl der Fragen pro Sitzung beschränkt, bis das Problem behoben ist. Wovon man sicher ausgehen kann: Google verfügt fraglos über das Geld, das Know-how und die Köpfe, um über kurz oder lang zu ChatGPT aufschließen zu können. Letztlich werden wir alle von diesem KI-Wettlauf profitieren, weil die Systeme und die Suchmaschinen dadurch in immer kürzerer Zeit immer besser werden. Fast noch interessanter als die Einbindung von KI-Bots in den Browser dürfte nach meiner Einschätzung aber eine Implementierung von ChatGPT in Microsofts Cloud-Dienst Azure sein. Wenn Unternehmen so auf einfachem Wege auf KI-Funktionalitäten zugreifen können, um Geschäftsmodelle und Lösungen umzusetzen, wird das volkswirtschaftlich gewaltige Auswirkungen haben.
Wie könnte ChatGPT die Internetsuche verändern?
Carsten Becker: Statt wie heute eine Linkliste könnte die Suchmaschine der Zukunft eine fix und fertig ausformulierte Antwort liefern. Einzelne Webseiten anzusteuern wäre damit überflüssig. Was für Nutzende praktisch klingt, wäre für Medienverlage natürlich ein großes Problem. Schließlich müsste niemand mehr ihre Artikel lesen, aus denen der KI-Chatbot seine Antworten generiert. Deutsche Presseverlage wollen daher Lizenzgebühren verlangen, wenn sich die KI von Microsoft oder Google aus ihren Inhalten bedient.