cnt
«Generative KI wird ganz viel verändern, auch das Verhalten der Menschen»
Quelle: ZHAW

«Generative KI wird ganz viel verändern, auch das Verhalten der Menschen»

Professor Mark Cieliebak forscht an der ZHAW zu Generativer KI. Im Interview erklärt er den Hype um ChatGPT, was GenAI im Unternehmensumfeld bereits leisten kann und warum er keine Sorge vor dem maschinellen Jobkonkurrenten und faulen Menschen hat.

Artikel erschienen in Swiss IT Magazine 2023/12

     

«Swiss IT Magazine»: Herr Cieliebak, Generative KI ist vor allem durch ChatGPT seit dem vergangenen Jahr in aller Munde. Ist dieser Hype denn gerechtfertigt? Immerhin sind vergleichbare Technologien schon länger am Markt erhältlich.
Mark Cieliebak:
Mit ChatGPT stand schlagartig ein grösseres, viel mächtigeres Modell zur Verfügung, das sich im Vergleich zu den Vorgängermodellen deutlich weiterentwickelt hat. Es verfügt über die Chatkomponente, mit der ich einen Dialog führen kann. Zudem hat es durch ein spezielles Training gelernt, Aufgaben und Befehle auszuführen. Und das Dritte, was meiner Meinung nach zu dem ganzen Hype geführt hat, ist das einfache User Interface, das plötzlich für alle zugänglich war. Zuvor galt das nur für Programmierer. Es war also keine wirkliche technische Revolution, sondern die Technologie stand vielmehr plötzlich allen zur Verfügung. Sie konnten sie ausprobieren und haben gesehen: Wow, da geht einiges. Technisch war das zuvor auch schon möglich, mit GPT2 und GPT3. Vom Erfolg von ChatGPT sind wir dann aber überrascht worden. Damit hat keiner gerechnet, meiner Meinung nach auch OpenAI nicht.

War es dann aus Ihrer Sicht positiv, dass in der Öffentlichkeit diese Aufmerksamkeit für die Technologie generiert wurde?
Wir sind im Februar, März überrannt worden mit Anfragen für Interviews und für Schulungen dazu, was möglich ist und was nicht. Das hat aktuell wieder ein bisschen nachgelassen. Aber die Zeit war sehr intensiv, es hat natürlich einen Quantensprung für die Aufmerksamkeit gebracht und neue Tools sind entwickelt worden, nicht nur im Bereich Text, sondern auch bei Bildern und Audio. Der Boost war in der Forschung zu spüren. Jetzt folgen aber eine Konsolidierungsphase und die Frage, wie man die Technologie produktiv einsetzen kann für einen tatsächlichen Business-Nutzen.


Folgt dem anfänglichen Hype also eine Ernüchterung?
Es ist sicherlich nicht das eingetreten, was viele befürchtet haben, nämlich dass die Welt untergeht oder dass die Welt von ChatGPT revolutioniert wird und wir alle nicht mehr arbeiten müssen. Jetzt wird alles etwas realistischer gesehen im Hinblick darauf, was aktuell geht und was nicht.

Was geht denn aktuell in der Wirtschaft? Wo wird Generative KI bereits eingesetzt?
Sehr viele Menschen nutzen ChatGPT, um beim Schreiben Formulierungen zu finden oder um Bullet Points in ganze Texte zu verwandeln. Das sind die Standardanwendungen, bei denen es meist um das reine Texten geht. Es gibt aber auch tatsächliche Business-Anwendungen. Ein Beispiel sind Schulungen von Mitarbeitenden in der Gesprächsführung. Das kann ein Verkaufsgespräch sein, ein Interview mit einem Wissenschaftler (lacht) oder ein schwieriges Personalgespräch. Hier kann ChatGPT den Gesprächspartner simulieren und ihm zum Beispiel verschiedene Persönlichkeitsmerkmale wie schüchtern, enttäuscht oder explosiv verleihen. Wir machen zurzeit ein Projekt, wo wir so ein System für Polizisten entwickeln, die damit trainieren können, wie sie Kinder nach einer Straftat befragen. Dabei muss man darauf achten, dass man zum Beispiel keine Suggestivfragen stellt, da sonst die Befragung rechtlich nicht mehr zulässig ist. Solche Gespräche kann man nicht mit echten Kindern üben, daher eignen sich Dialogsysteme mit Generativer KI dafür hervorragend. Darüber hinaus gibt es verschiedene Anwendungen im Bereich Marketing und Werbung. Logos lassen sich jetzt einfach über die Bildgenerierung erstellen, oder Anzeigenkampagnen mit Slogans. Prozesse werden sich künftig stark verändern, weil ich keinen Designer oder Texter mehr brauche. Stattdessen lasse ich mir 20 Vorschläge generieren und wähle die zwei coolsten aus. Das heisst, da brechen einfach ganze Zweige weg, die jetzt vollständig übernommen werden können.

Es werden also Mitarbeitende ersetzt?
Ja, natürlich. Vorher waren der Designer und der Texter zwei Wochen beschäftigt. Jetzt bekomme ich das in kürzester Zeit geliefert.
Also doch die KI als Konkurrenz zum Menschen?
Natürlich. Es ist ein Automatisierungs-Tool und es wäre naiv zu glauben, dass wir irgendwas automatisieren und dann nicht auch Jobs wegfallen. Ich glaube aber auch, dass es auf der anderen Seite ganz viele Jobs gibt, die erzeugt werden – aber auf einem anderen Level. Man muss die KI trainieren, man muss die KI optimieren. Software-Entwickler können zwar kleine Code-Snippets erzeugen lassen und so schneller programmieren. Auf der anderen Seite müssen sie den erzeugten Code aber bewerten und einbauen können. Sie müssen sich aber nicht mehr um so viele Details kümmern. Ob das mittelfristig dazu führt, dass wir weniger Software-Entwickler brauchen oder dass wir einfach mehr Software bauen mit der gleichen Menge an Software-Entwicklern, ist eine andere Frage. Aber ja, es werden sicherlich Jobs angepasst oder auch ersetzt werden oder wegfallen. Dafür werden aber neue entstehen.

Wie finden Unternehmen wiederum ihre Use Cases? Wie können sie herausfinden, ob sie bereits Nutzen aus der Technologie ziehen können?
Was es braucht, das sind zwei Sachen. Die Unternehmen müssen ihr Business einerseits wirklich verstehen und wissen, welche Daten verfügbar sind, die man nutzen kann. Alles, was noch auf Papier passiert, ist derzeit nicht wirklich brauchbar. Und auf der anderen Seite braucht es jemanden, der einschätzen kann, was möglich ist und was nicht. Anschliessend heisst es: Zusammenkommen, brainstormen, Prozesse durchgehen und schauen, wo man die Technologie einsetzen kann. Ich glaube, in ganz vielen Unternehmen gibt es bereits Potenzial, vor allem, wenn es um die Verarbeitung von Dokumenten oder das Generieren von Texten und Ideen geht. Die grosse Lösung, also ich werfe alle Dokumente meines Unternehmens rein und habe dann die eierlegende Wollmilchsau, die gibt es noch nicht. Aber da arbeiten Firmen wie OpenAI und AlpineAI dran. Was es aber geben wird, ist, dass man Fragen über diese Dokumente stellen kann, dass man Analysen dazu machen kann, beispielsweise einen ­automatischen Abgleich des Finanzreports mit den Personalzahlen. Spannend ist aber auch das Konservieren von Fachwissen, wenn ein Kernmitarbeiter das Unternehmen verlässt und die Nachfolger Zugriff auf dieses Wissen haben müssen. Aber wenn man jetzt wirklich einen Businessprozess mit Gen AI optimieren will, dann muss man wissen, wo man eigentlich ansetzen kann. Und das geht nur zusammen. Da reicht es auch nicht, wenn jemand mal eine halbe Stunde über KI gelesen hat und dann sagt: Ich glaube, das geht schon.


Wo sehen Sie denn andererseits die grössten Hürden?
Es ist so, dass Large-Language-Modelle noch sehr anfällig für Halluzinationen sind. Sie generieren einfach den Text, der zur Anfrage passt. Und ich sag’s mal salopp, wenn sie keine Idee haben, was sie schreiben sollen, dann schreiben sie halt irgendetwas, was sehr überzeugend klingt. Das heisst auch, dass wenn in den Daten, die dem Language-Modell vorliegen, gar keine richtige Antwort vorhanden ist, dass sie dennoch antworten. Ich frage beispielsweise, wie hoch der Umsatz im Februar 2013 war und aus irgendeinem Grunde sind die Daten nicht in den Texten vorhanden, die das Modell gesehen hat. Dann wird es trotzdem mit einer gewissen Wahrscheinlichkeit sagen, die Umsatzzahlen waren so und so gross und das wird sehr überzeugend klingen, obwohl es einfach komplett erfunden ist. Und damit umzugehen ist eine grosse Challenge. Man muss erstens verifizieren, dass die Inhalte, die generiert werden, korrekt sind. Und man muss sich auch überlegen, was passiert, wenn das Modell halluziniert, also wie geht der Prozess dann weiter. Springt dann ein Mensch ein oder gibt es eine Meldung «Das geht nicht»?

Wen sehen Sie in der Verantwortung, das zu lösen? Braucht es auch auf Nutzerseite die Awareness oder sind die Anbieter am Zug?
Ich glaube, technisch müssen wir von der Forschung das hinkriegen. Da sind weltweit aktuell ganz viele Teams dran, diese Halluzinationen zu erkennen und zu vermeiden, also an der Frage, wie man garantieren kann, dass ein Modell nicht halluziniert oder wenn es halluziniert, wie man dies im Nachhinein erkennen kann. Das sollte aber in den nächsten zwei bis drei Jahren zufriedenstellend gelöst werden.
Gibt es weitere Sorgen und Befürchtungen, denen sich Unternehmen gegenübersehen, die sich aktuell fragen, ob sie KI beziehungsweise Generative KI einsetzen sollen?
Primär sind das im Moment drei rechtliche Fragen. Ich muss nicht nur klären, wo ich es einsetzen kann, sondern auch, wo ich es einsetzen darf. Erstens muss ich wissen, ob die Modelle legal gebaut wurden und mit welchen Daten sie trainiert wurden. Bis jetzt ist noch nicht final geklärt, ob die grossen Modelle für verschiedene öffentlich zugängliche Daten gegebenenfalls Lizenzgebühren zahlen müssten. Das führt wiederum dazu, dass es mittlerweile Modelle gibt, die auf Daten trainiert worden sind, bei denen klar ist, dass man die auch nutzen durfte. Die sind dann technisch vielleicht nicht so gut, weil die Datenbasis einfach nicht so gross ist. Aber dafür weiss man, dass sie legal gebaut worden sind. Zweitens geht es aber auch um die Rechte an den Ergebnissen. Das heisst: Wenn ich etwas generieren lasse, habe ich als User die Rechte daran oder gehören die Ergebnisse dem Betreiber des Modells? Das muss in einem Lizenzvertrag geklärt sein. Typischerweise wird aber mittlerweile klargestellt, dass die Ergebnisse dem Benutzer gehören und dass er damit machen kann, was er will.

Und der dritte Punkt?
Und die dritte Frage dreht sich um den Datenschutz, also was passiert, wenn ich meine gesamten Unternehmensdaten und die Geheimformel meiner Produkte hochlade? Wer kann das sehen? Daher gibt es auch das Bedürfnis, lokale Modelle in der Schweiz zu betreiben. Was aber entsprechend aufwendig ist, selbst die kleineren Open-Source-Modelle brauchen mehrere grosse GPU-Rechenmaschinen. Und das kostet dann schnell mehrere Hunderttausend Franken in der Anschaffung und im Betrieb.


Ist es mit Blick auf diese Themen und die allgemein dynamische Entwicklung sinnvoll für Unternehmen, noch abzuwarten, bis sich der Markt etwas konsolidiert hat?
Das ist eine Frage des jeweiligen Business. Wenn ich 10’000 Arbeitsstunden pro Jahr einsparen kann, würde ich wahrscheinlich nicht lange warten und im Zweifel in drei Monaten auf ein anderes Modell setzen, das vielleicht noch effizienter ist. Aber im Moment sind es sicherlich die Early Adopter, es ist noch nicht die breite Masse und es gibt noch nicht das eine Standardprodukt, das ich für ganz viele Use Cases einfach out-of-the-box nutzen kann. Es kommen aber mehr und mehr Services, die ganz konkrete Probleme lösen. Das wird sich immer stärker etablieren. Ich muss also nicht mehr das Basismodell, das Foundation-Modell, beziehen und dann meine Lösung darauf aufbauen. Sondern ich kann eine fertige Lösung beziehen.

Sie sprechen von Early Adoptern, die sicher vor allem aus dem Konzernumfeld kommen. Wie steht es aktuell um Lösungen für den KMU-Einsatz?
Was schon relativ einfach zu machen ist, das ist eine gute Suche auf der Webseite, die über eine Stichwortsuche hinausgeht. Dafür gibt es fertige Services, die gut funktionieren und die richtigen Antworten geben. Und grundsätzlich ist Question Answering etwas, das jede Firma schon relativ hürdenlos einsetzen kann. Ich habe beispielsweise meine grosse Sammlung von FAQ-Dokumenten und baue drauf ein Retrieval-Augmented-System auf, das meinen Kunden hilft, Antworten auf ihre Fragen viel leichter und schneller zu finden.
Sprechen wir bei ChatGPT und Co. eigentlich schon von tatsächlich intelligenten Systemen?
Meine persönliche Meinung: Nein. Das ist ein statistisches Modell. Es gibt Wahrscheinlichkeiten für die verschiedenen Wörter in einen bestimmten vorgegebenen Kontext und das Modell generiert einfach ein Wort nach dem anderen. Und dann kommt die philosophische Frage: Ist das jetzt intelligent, weil es etwas generiert, das wie eine intelligente Antwort aussieht? Meiner Meinung nach nicht. Ich habe ein anderes Bild von Intelligenz. Aber das ist eher etwas, was man bei einem Bier diskutieren müsste, weil es um die Frage geht, was eigentlich intelligentes Verhalten ist. Wenn man allerdings den Turing Test anwenden würde, dann würde ich sagen, ja, nach der Definition ist es ­eigentlich Intelligenz, weil die generierten Antworten kaum von denen eines Menschen zu unterscheiden sind. Ich persönlich verbinde Intelligenz aber immer noch mit menschlichem Leben. Und eine Maschine lebt für mich nicht. Das ist aber eine sehr persönliche Einschätzung.

Auf Ihrer Website haben Sie wiederum eine Grafik, die ChatGPT in eine Reihe mit dem Rad, der Glühbirne und dem World Wide Web setzt. Ist Generative KI die grosse Revolution?
Das fragen wir uns auch jede Woche neu (lacht). Ich glaube ja, es ist mehr als nur ein Tool, es ist mehr als nur ein Taschenrechner, mit dem man irgendwie ein bisschen schneller Texte zusammenfassen und generieren kann. Und zwar wird es mehr in dem Moment, in dem ich es integriere und es auch Aktivitäten ausführen kann. Also ich rede mit dem System und sage, ich hätte gerne ein Zugticket nach Deutschland am Soundsovielten und es bucht mir das Ticket. Und es weiss, wie es meine Kreditkarte verwendet. Und es kennt meine Präferenzen und es sucht mir das richtige Ticket raus und bucht das und dadurch werden Prozesse massiv vereinfacht oder teils überhaupt erst möglich. Davon sind wir aber noch weit weg. Wir sind im Moment noch auf dem Stand einer ersten Glühbirne im Vergleich zu allem, was heute mit Elektrizität möglich ist. Ähnlich sind wir bei Generativer KI noch ganz am Anfang. Die Fortschritte sind aber gewaltig. Ich glaube aber, die Technologie wird in Zukunft ganz viel verändern, unter anderem das Verhalten der Menschen. Wir werden tendenziell fauler werden, weil wir weniger selbst machen müssen. ChatGPT gibt uns zudem die Möglichkeit, ganz anders auf Wissen zuzugreifen. Kein Mensch hat das gesamte Internet gelesen – ChatGPT hat das aber im Wesentlichen. Das schafft eine ganz andere Perspektive, ich kann als Nutzer andere Fragen stellen. Ich führe beispielsweise eine Umfrage nicht mehr unter zehn Leuten durch, sondern ich verarbeite das gesamte Weltwissen. Ich glaube, das haben wir noch gar nicht ausgelotet, was da möglich ist und sein wird.


Der Mensch wird potenziell fauler? Ist es denn gut, schlecht oder einfach eine neutrale evolutionäre Entwicklung, wenn wir gewisse Skills verlernen?
Also ich finde es natürlich. Man muss heute nicht mehr von Hand dividieren können. Das lernt man in der Schule und dann vergisst man es wieder. Und man muss vielleicht auch irgendwann nicht mehr Texte zusammenfassen können. Das ist natürlich jetzt etwas überspitzt ausgedrückt, aber ja, es werden Skills wegfallen, die wir auch nicht mehr benötigen werden, die wir nicht mehr lernen müssen. Heute weiss auch niemand mehr, wie man eine Karte richtig liest, weil wir Google Maps haben. Faul ist aber ein recht negativer Begriff. Es gibt uns einfach mehr Möglichkeiten für andere Dinge. Ich glaube, niemand ist traurig, dass wir heute nur noch 35 bis 42 Stunden pro Woche arbeiten im Vergleich zu circa 70 Stunden Ende des 19. Jahrhunderts.

Eine abschliessende Frage mit Blick auf Ihre Arbeit: Sie hatten von einer rückläufigen Nachfrage seitens der Wirtschaft gesprochen. Wie steht es um Anfragen von Unternehmen, die Ihr Kompetenzzentrum erreichen?
Wir machen im Moment viel Grundlagenforschung zu Generativer KI. Ich würde mich aber freuen, wenn wir mit Anfragen für KI-Projekte aus der Industrie überrannt würden. Ich glaube, das braucht es auch, damit wir dem Bereich in der Schweiz einen Push geben können. Aktuell sind wir etwas behäbig. Es fehlt an Leuten, die sagen, wir machen das oder wir probieren das einfach mal aus. Einerseits aus der Industrie, andererseits aus der Politik. Da sind wir noch etwas hinterher – und wir als Hochschule wären natürlich sehr gerne dabei, das Thema voranzutreiben. Sicher, das kostet, es ist nicht gratis, so ein Projekt aufzubauen. Aber ich glaube, es gibt ganz viele Bereiche, wo man viele Leute entlasten oder in ihren Prozessen unterstützen kann. Und es braucht ein paar Leuchtturmprojekte. Das muss kein Grossunternehmen sein, die Banken und Versicherungen machen das sowieso. Aber im KMU-Bereich braucht es Vorreiter, damit auch andere Unternehmen aufspringen – sonst sehe ich die Gefahr, dass wir erst in zwei bis drei Jahren anfangen. Und dann ist der Zug für viele Firmen abgefahren, weil andere mittlerweile effizienter sind. (sta)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
GOLD SPONSOREN
SPONSOREN & PARTNER