LLMs und Datensicherheit sind kein Widerspruch

Sprachmodelle (LLMs) gehören zu den spannendsten Einsatzgebieten, die ­Künstliche Intelligenz aktuell zu bieten hat. Der Einführung im Unternehmen stehen jedoch oft Sicherheitsbedenken im Weg. Aber es gibt Lösungen für diese Herausforderungen.

Artikel erschienen in Swiss IT Magazine 2024/01

     

ChatGPT verzeichnet mittlerweile weit über eine Milliarde Aufrufe pro Monat. Es wertet riesige Mengen an Informationen aus dem Internet aus, um Antworten zu praktisch jedem Thema zu geben – von der Anleitung, wie man einen Kuchen backt, bis hin zu Tipps, wie man ein Aktienportfolio ausbalanciert. Solche öffentlichen grossen Sprachmodelle (Large Language Models, LLMs) wie ChatGPT sind gut, was allgemeine Wissensfragen angeht. Doch die hohe Anzahl an Eingabe­aufforderungen macht sie fehleranfällig. Gleichzeitig erfordern Erstellung und Wartung eine riesige Menge an Rechenleistung.


Was öffentliche Sprachmodelle nicht gut können, ist die Beantwortung von Fragen, die Unternehmen betreffen. Das liegt daran, dass sie keinen Zugang zu den sensiblen Kunden-, Finanz- und anderen internen Daten haben, die Unternehmen hinter ihren Sicherheitsschleusen aufbewahren. Mit besonders sensiblen Daten arbeiten beispielsweise Banken. Während zwar nach einer Studie der Hochschule Luzern jedes zweite Finanzinstitut in der Schweiz Künstliche Intelligenz einsetzt, bleibt für rund 72 Prozent der Befragten der Datenschutz das grösste Hindernis für die Nutzung von generativer KI. Auch die schweizerischen Verbraucher selbst schenken KI-Systemen wie ChatGPT kaum Vertrauen im Hinblick auf ihren Umgang mit Kundendaten.

Sprachmodelle, die aus dem Nähkästchen plaudern?

Aufgrund der Sicherheits- und Datenschutzrisiken ist die Einspeisung von Unternehmensdaten in ein öffentliches Sprachmodell für viele Firmen keine Option. Die grössten Sorgen bestehen laut einer IDC-Umfrage darin, dass die Modelle aus Eingabeaufforderungen lernen und sensible Daten dadurch womöglich nach aussen dringen. Die Unternehmen befürchten ausserdem, dass Informationen, die sie weitergeben, online gespeichert und von Hackern eingesehen oder versehentlich veröffentlicht werden könnten. Sonst so streng bewachte Unternehmensgeheimnisse könnte ein Sprachmodell dabei ohne schlechtes Gewissen einfach ausplaudern – und Cyberkriminellen dadurch einen zusätzlichen Angriffsvektor bieten, um die Infrastruktur eines Unternehmens zu infiltrieren.

Ein weiteres Risiko, das etwa PwC Switzerland nennt, ist die algorithmische Voreingenommenheit des Sprachmodells. Gelangen verzerrte Daten in das Sprachmodell, wie stereotypische Aussagen oder unfaire Praktiken, kann das wiederum zu verfälschten Ergebnissen führen, die sich schliesslich durch das gesamte Unternehmen tragen. Die Nutzung verfälschender Informationen gefährdet möglicherweise den Ruf der Firma sowie die Kundenziehungen und kann letztlich auch rechtliche Folgen nach sich ziehen. Eine Untersuchung zu den Schweizer Wahlen im Oktober vergangenen Jahres zeigte beispielsweise, dass die Antworten von Sprachmodellen – in diesem Fall Bing Chat – oft unzuverlässig sind und teils unvollständige, veraltete oder falsche Informationen zu den Kandidierenden für den Nationalrat lieferten.


Wenn man sich mit der potenziellen Verwundbarkeit der Daten selbst beschäftigt, birgt nicht nur die Nutzung öffentlicher Sprachmodelle durch die Unternehmen selbst Risiken – es funktioniert auch in die andere Richtung: Cyberkriminelle können öffentliche Sprachmodelle bewusst manipulieren, um Unternehmen zu schaden. Es geht um gezielte Pro­pagandaoperationen, bei denen kommerziell als auch politisch motivierte Akteure falsche oder verzerrte Daten in ein Sprachmodell einspeisen. Auf diese Weise könnten sie grundlegende Muster beeinflussen und Gerüchte streuen. Da diese Art von Angriffen keinen unmittelbaren finanziellen Nutzen hat, sollte die Angst vor dieser Bedrohung jedoch nicht an erster Stelle stehen. Es bleibt der Grundsatz, dass die meisten bestehenden Sicherheitskontrollen und -praktiken auch für generative KI gelten sollten.

Das Sprachmodell zu den Daten bringen

Doch wie können Unternehmen nun Mehrwert aus Sprachmodellen ziehen und gleichzeitig die Risiken minimieren? Anstatt die eigenen Daten in ein öffentliches grosses Sprachmodell einzuspeisen, sollten Unternehmen das Sprachmodell zu ihren Daten bringen. Dieser Lösungsansatz sieht es vor, ein sogenanntes kleines Sprachmodell einzusetzen, das Unternehmen innerhalb ihrer geschützten Unternehmensumgebung betreiben und trainieren können. Einen solchen Ansatz verfolgt beispielsweise auch SwissGPT von Alpine AI, bei der das Sprachmodell auf den firmeneigenen Servern oder der Cloud implementiert wird.

Generell können kleine Sprachmodelle auf wenigen oder auch Milliarden von Parametern basieren – was immer noch recht gross ist, aber viel weniger Datensätze darstellt, als sie grosse öffentliche Sprachmodelle wie ChatGPT oder Bard nutzen. Mittlerweile gibt es eine Bandbreite von Anbietern für kleine Sprachmodelle, die bereits darauf eingestellt sind, die menschliche Sprache zu verstehen und sich entsprechend individualisieren lassen. Optionen hierfür sind etwa AI21 und Reka sowie Open-Source-Tools wie Alpaca und Vicuna.


Kleine Sprachmodelle zeichnen sich dabei durch eine viel höhere Genauigkeit aus: Schliesslich werden sie nicht mit allen öffentlich verfügbaren Daten – den guten wie den schlechten – trainiert, sondern mit sorgfältig geprüften Informationen, die genau die Anwendungsfälle abdecken, die für ein Unternehmen wichtig sind. Das bedeutet jedoch nicht, dass sie auf unternehmensinterne Daten beschränkt sind. Kleine Sprachmodelle können Daten von Drittanbietern wie volkswirtschaftliche Statistiken, Rohstoffpreise, Wetterinformationen oder beliebige andere Datensätze einbeziehen und mit ihren eigenen Datensätzen kombinieren. Diese Datenquellen sind in grossem Umfang von Datenanbietern verfügbar, die sicherstellen, dass die Informationen aktuell, genau und sauber sind.

Dabei kann es durchaus Sinn machen, die Sprachmodelle auf spezifische Anwendungsfälle zu trainieren, um den Ressourcenbedarf zu senken. In der Regel sind für domänenspezifische Sprachmodelle weniger Rechenleistung und weniger Speicherplatz erforderlich als für Modelle, die für allgemeine Anwendungsfälle oder eine grosse Vielfalt von Unternehmensanwendungen in verschiedenen Branchen und Industrien entwickelt wurden. Wenn Firmen ihre Sprachmodelle gezielt auf Anwendungsfälle in ihrem Unternehmen ausrichten, können sie sie viel kostengünstiger und effizienter betreiben.

Klein, sicher und multimodal

Fest steht aber auch: Der Einsatz eines Sprachmodells im Unternehmensumfeld ist ohne eine solide Datenstrategie nicht möglich. Dies bedeutet, Silos zu beseitigen und einfache, konsistente Richtlinien bereitzustellen, die den Teams den Zugriff auf die benötigten Daten innerhalb einer starken Sicherheits- und Governance-Struktur ermöglichen. Zugleich sind etwa 80 Prozent der weltweiten Daten unstrukturiert, darunter auch Unternehmensdaten wie E-Mails, Verträge, Bilder und Schulungsvideos – viele dieser Informationen sind damit auch in anderen Formaten als Text gespeichert.

Um Informationen aus unstrukturierten Quellen zu extrahieren und den Datenteams zur Erstellung von Sprachmodellen zur Verfügung zu stellen, werden Technologien zur Verarbeitung natürlicher Sprache benötigt. Nur mit solchen Werkzeugen ist es möglich, Beziehungen zwischen verschiedenen Datentypen zu erkennen und diese Erkenntnisse für das eigene Unternehmen aufzubereiten. Das Endziel sind verwertbare, vertrauenswürdige und leicht zugängliche Daten, die in einer sicheren und kontrollierten Umgebung mit einem multimodalen Sprachmodell genutzt werden können.


Auf dieser Grundlage kann dann das Datenteam des Unternehmens das Sprachmodell weiterentwickeln und anpassen, während Mitarbeitende im Rahmen bestehender Sicherheitsvorkehrungen mit dem Sprachmodell interagieren. Dadurch erhalten sie die Möglichkeit, auch mit sensiblen Daten in verschiedenen Formaten zu arbeiten und unternehmensbezogene Antworten zu erfragen, wie beispielsweise eine Liste mit potenziell abwandernden Kunden sowie entsprechende Lösungsvorschläge oder Kampagnenideen für eine Produkteinführung basierend auf ähnlichen Ereignissen in der Vergangenheit.

Die Balance zwischen Risiko und Nutzen

Generative KI entwickelt sich in rasanter Geschwindigkeit weiter. Für Unternehmen, die diese Technologie nutzen wollen, ist daher Vorsicht geboten. Sie sollten auf jeden Fall das Kleingedruckte der verwendeten Modelle und Tools lesen und vor allem mit seriösen Anbietern zusammenarbeiten, die explizite Sicherheitszusagen für die von ihnen angebotenen Dienste machen. Aber genauso wenig wie Sicherheitslücken können es sich Unternehmen leisten, in Bezug auf KI untätig zu bleiben: Jedes Unternehmen sollte für sich selbst herausfinden, wie KI seine Branche verändern kann. Dabei gilt es, ein Gleichgewicht zwischen Risiko und Nutzen zu finden.


Indem Unternehmen Sprachmodelle zu ihren Daten bringen und sie innerhalb ­ihres bestehenden Sicherheitsrahmens betreiben, werden sie eher in der Lage sein, die Chancen zu nutzen, die diese neue Technologie bietet. Neben den grossen Sprachmodellen wie ChatGPT und Bard wird es in Zukunft dann vielleicht Tausende von kleineren Sprachmodellen geben, die auf Unternehmens- oder Abteilungsebene arbeiten und den Mitarbeitern wertvolle Informationen liefern.

Der Autor

Daniel Metzger ist beim Data-Cloud-Unternehmen Snowflake verantwortlich für den Schweizer Markt. In seiner Funktion betreut er Kunden und Partner durch die Bereitstellung innovativer Cloud-Lösungen. Metzger verfügt über mehr als 20 Jahre Erfahrung in der Führung und im Aufbau von leistungsstarken Teams und war dabei in der Softwarebranche für Unternehmen wie Cloudera, Oracle und BMC tätig.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER