Künstliche Intelligenz (KI) wird zunehmend in die Geschäftswelt integriert und auch Schweizer KMU nutzen immer häufiger Tools wie ChatGPT, Microsoft Copilot oder Midjourney. Der Einsatz dieser Technologien wirft jedoch rechtliche Fragen auf: Was müssen Unternehmen beachten und welche Vorkehrungen müssen sie treffen, um KI-Tools für die eigene Geschäftstätigkeit nutzen zu können? Auch stellen sich viele Unternehmen die Frage, ob ihre Mitarbeitenden frei verfügbare oder privat bezahlte (KI-)Tools geschäftlich einsetzen dürfen. Hinzu kommt, dass die Vielzahl an Angeboten, die schnellen Veränderungen, die teilweise unklaren Verträge der Anbieter sowie die nicht überall klaren gesetzlichen Vorgaben es gerade kleinen Unternehmen erschweren, das Potenzial von KI auszuschöpfen.
Beim Einsatz von KI-Tools muss sich ein Unternehmen aber dringend mit Themen wie Datenschutz, Geheimhaltung, Urheberrecht und – sofern anwendbar – dem EU AI Act (europäischer Erlass zur Regulierung von riskanteren KI-Produkten) auseinandersetzen. Gleichzeitig sollte der Aufwand für die Klärung dieser Fragestellungen und für den Aufbau einer internen Governance-Struktur aber verhältnismässig sein.
Der Datenschutz
Werden in KI-Tools Personendaten bearbeitet, wie beispielsweise Namen von Kunden, die sich auf eine bestimmte oder bestimmbare Person beziehen, sind in der Schweiz die Vorgaben des Datenschutzgesetzes (DSG) einzuhalten. In einem solchen Fall muss mit dem Anbieter des Tools ein Auftragsbearbeitungsvertrag (auch Data Processing Agreement (DPA) genannt) abgeschlossen werden. Auch dann, wenn eine firmeneigene KI-Anwendung erstellt wird (z.B. ein Firmen-KI-Chat), die auf ein in der Cloud betriebenes Modell (wie z.B. von OpenAI) zugreift, ist ein solcher Auftragsbearbeitungsvertrag zwingende Voraussetzung. In dieser Hinsicht unterscheiden sich KI-Tools nicht von anderen Cloud-Lösungen, in denen Personendaten verarbeitet werden, und die von einer Drittfirma betrieben werden. Einzig wenn das Unternehmen das ganze Tool sowie das KI-Modell lokal betreibt, wäre ein DPA nicht notwendig. DPAs können mit dem Anbieter aber in der Regel nur bei kostenpflichtigen Angeboten zur kommerziellen Nutzung abgeschlossen werden. Das heisst, kostenlose und für den privaten Gebrauch bestimmte Tools lassen sich in Unternehmen nicht datenschutzkonform einsetzen.
Daneben sind alle weiteren datenschutzrechtlichen Grundsätze einzuhalten, wie beispielsweise, dass Daten nur zu dem Zweck bearbeitet werden, für den sie erhoben wurden und über den die betroffene Person auch informiert wurde. Hier gibt es keinen Unterschied zur sonstigen Verarbeitung von Personendaten – ob mit oder ohne KI.
Praxistipps
1. Weisungen und Merkblätter erlassen: Unternehmen sollten klare Richtlinien für den Einsatz von KI-Tools festlegen, einschliesslich der Verantwortlichkeiten für Prüfung und Freigabe der Tools. Es muss definiert werden, welche Daten in welchen Tools bearbeitet und welche Tools für was eingesetzt werden dürfen. Auch der Umgang mit kostenlosen und privaten Tools sollte geregelt sein.
2. Schulung der Mitarbeitenden: Mitarbeitende sollten im Umgang mit KI-Tools geschult werden, um die Einhaltung der Vorgaben sicherzustellen. Schulungen fördern das Risikobewusstsein und den verantwortungsvollen Umgang mit Personendaten und anderen vertraulichen oder für das Unternehmen wichtigen Daten.
3. Verträge und Tools prüfen: Vor dem Einsatz eines KI-Tools ist zu prüfen, ob die Verträge mit dem Anbieter akzeptabel sind. Bei der Bearbeitung von Personendaten ist ein Auftragsbearbeitungsvertrag erforderlich. Es ist dabei auf die Vertraulichkeit sowie die Rechte an den Daten und die Nutzung der Daten für eigene Zwecke des Anbieters zu achten. Ebenso ist die Datensicherheit zu prüfen und für das Unternehmen zu beurteilen.
4. Risiken einschätzen: Je nach Vorhaben sind die Risiken des Einsatzes der KI einzuschätzen und gegebenenfalls eine Datenschutz-Folgenabschätzung (bei potenziell hohen Risiken für Personen, deren Daten bearbeitet werden) zu erstellen. Auch Risiken für die eigene Reputation können relevant sein.
5. EU AI Act: Auch ausschliesslich in der Schweiz tätige Unternehmen sollten prüfen, wann der EU AI Act für sie relevant ist.
6. Transparenz schaffen: Beim Einsatz von KI-Tools sollten sich Unternehmen die Frage stellen, ob sie über diesen informieren müssen. Im Zweifelsfall kann es hilfreich sein, einmal zu viel zu informieren als einmal zu wenig.
7. Regelmässige Überprüfung: Der Einsatz von KI-Tools sollte regelmässig überprüft werden, um sicherzustellen, dass sie weiterhin den Anforderungen entsprechen. Gesetzesänderungen oder Änderungen bei Anbietern können Anpassungen erfordern. Ein Verzeichnis der KI-Vorhaben ist sinnvoll, um den Überblick zu behalten.
Transparenz
Transparenz beim Einsatz von Künstlicher Intelligenz ist ein viel diskutiertes Thema, das sowohl eine rechtliche als auch eine ethische Dimension umfasst. Während gewisse Datenschutzbehörden oft Transparenz bei jedem Einsatz von KI fordern, gibt es dafür rechtlich keine Grundlage. Selbst im EU AI Act ist Transparenz nur in bestimmten Fällen vorgeschrieben.
Transparenz soll es Betroffenen ermöglichen, Entscheidungen von KI nachzuvollziehen und gegebenenfalls dagegen vorzugehen. Allerdings ist Transparenz kein Allheilmittel und die Forderung nach vollumfänglicher Transparenz kann problematisch sein, da sie oft unrealistisch ist und zu einer Informationsflut führen kann, die wichtige Informationen untergehen lässt. Im schweizerischen Datenschutzrecht ist Transparenz nur in bestimmten Fällen vorgeschrieben, etwa im Rahmen der Informationspflicht über den Zweck der Datenbearbeitung. Bei der Verarbeitung von Personendaten zur Vertragsabwicklung oder zur Beantwortung von Kundenanfragen ändert sich der Zweck nicht, auch wenn KI-Tools eingesetzt werden. Über den Zweck der Datenbearbeitung zur Vertragsabwicklung ist schon heute zu informieren, und der Einsatz der KI muss in diesem Fall gewöhnlich nicht transparent gemacht werden.
Erst bei zusätzlichen Zwecken wie der Nutzung von Daten fürs Training eines KI-Modells, der Erhebung neuer Personendaten mittels KI oder bei automatisierten Einzelfallentscheidungen sind Anpassungen in der Datenschutzerklärung zu prüfen. Bei rein unterstützendem Einsatz von generativer KI wie ChatGPT zur Verbesserung interner Abläufe oder zur Unterstützung beim Verfassen von Texten ist eine Information in der Regel nicht notwendig. Bei einem solchen Einsatz ist jedoch wichtig, dass Mitarbeitende wissen, wie sie KI einsetzen dürfen und dass der entsprechende Output kontrolliert wird.
Unternehmen sollten eine angemessene Transparenz anstreben und überlegen, wann diese sinnvoll und notwendig ist. Dies kann etwa sein, wenn Kunden direkt mit einer KI interagieren (z.B. Chatbot auf einer Website). Beim Einsatz von KI-generierten Bildern kann es je nach Umständen ebenfalls notwendig sein, dies zu kennzeichnen. Werden KI-generierte Bilder beispielsweise im Marketing eingesetzt und Kunden gegebenenfalls getäuscht (z.B. weil etwas besser dargestellt wird als es in Wirklichkeit ist), könnte das gegen das Wettbewerbsrecht verstossen.
Berufsgeheimnisse
Selbst wenn ein DPA zum Schutz und zur Bearbeitung von Personendaten abgeschlossen werden kann, reicht dies für Unternehmen, die Berufsgeheimnissen unterliegen (wie z.B. Arztpraxen oder Anwaltskanzleien) nicht aus. Diese sind auf erweiterte vertragliche Zusicherungen angewiesen, die in den Standardverträgen der Anbieter gewöhnlich nicht vorkommen. Auch für solche Unternehmen ist der Einsatz von KI möglich, jedoch ist hier in der Regel ein spezieller Vertrag mit dem Anbieter nötig.
Wenn ein Unternehmen nicht dem Berufsgeheimnis unterliegt und keine Personendaten in der Lösung bearbeitet werden sollen, ist dennoch die Frage zu stellen, ob beispielsweise Geschäftsgeheimnisse oder andere vertrauliche Daten genügend geschützt sind. Zu diesem Zweck sollten die Verträge der Anbieter sorgfältig geprüft werden, um festzustellen, wie die Geheimhaltung geregelt ist und ob der Anbieter sich verpflichtet, den Input und/oder Output der Lösung nicht für andere Zwecke zu verwenden. Auch hier zeigt sich, dass sich viele kostenlose Angebote eine Lizenz einräumen lassen, sämtliche vom Kunden eingegebenen Daten sowie auch die generierten Outputs zu nutzen. Diese Nutzung reicht vom Training und der Weiterentwicklung des KI-Modells bis hin zu vielen weiteren Nutzungsrechten inklusive der Veröffentlichung oder der Verwendung für Marketingzwecke. Gerade dies ist jedoch meist nicht im Sinne des Unternehmens. Die Nutzung eines kostenpflichtigen Business-Angebots hilft hierbei nicht in allen Fällen, da selbst diese teilweise entsprechende Rechte für den Anbieter der Lösung vorsehen.
KI-Tools, die privat oder kostenlos verfügbar sind, bieten oft unzureichenden Schutz für Personendaten und Geschäftsgeheimnisse. Zudem dürfen die Outputs solcher Tools nicht immer kommerziell genutzt werden. Unternehmen sollten daher ihren Mitarbeitenden geeignete KI-Tools bereitstellen, um zu verhindern, dass sie auf private oder kostenlose Tools zurückgreifen. Selbst wenn die Mitarbeitenden angewiesen werden, weder Personendaten noch Geschäftsgeheimnisse in den Tools zu verwenden, besteht das Risiko, dass versehentlich geheime oder nicht anonymisierte Daten offengelegt werden. Dies kann zu Datenschutzverletzungen führen oder dem Anbieter ungewollte Nutzungsrechte an einräumen.
EU AI Act
Auch wenn es sich beim EU AI Act um einen europäischen Erlass handelt, kommen Schweizer Unternehmen, ähnlich wie bei der DSGVO, nicht in jedem Fall um diesen herum. Der EU AI Act gilt beispielsweise, wenn der KI-Output in der EU verwendet wird, etwa wenn ein KI-Chatbot auf einer Webseite auch aus der EU zugänglich ist. Sobald KI nicht mehr ausschliesslich in der Schweiz und nur intern zur Unterstützung der eigenen Mitarbeitenden eingesetzt wird, sollte geprüft werden, ob der EU AI Act einzuhalten ist. Solange das Unternehmen jedoch nicht zum Provider wird, bleiben die entsprechenden zusätzlichen Pflichten begrenzt; der AI Act regelt vor allem riskantere Anwendungen.
Der Einsatz von KI bietet Schweizer KMU viele Chancen, birgt aber auch rechtliche und Governance-Herausforderungen. Mit klaren Richtlinien, Schulungen und sorgfältiger Vertragsprüfung können Unternehmen Risiken minimieren und die Vorteile der KI-Technologie voll ausschöpfen.
Der Autor
Lucian Hunger ist Rechtsanwalt im Data & Privacy Team der Schweizer Anwaltskanzlei Vischer. Er berät und begleitet nationale und internationale Klienten, insbesondere Banken sowie andere Unternehmen mit erhöhten Anforderungen bei der Einführung von Cloud- und KI-Lösungen. Zudem entwickelt er im Rahmen des Vischer Legal Innovation Lab diverse LegalTech- sowie KI-Lösungen.