Die
Digitale Gesellschaft Schweiz hat ein Positionspapier
veröffentlicht, in welchem sie aufzeigt, wie mit KI-basierten automatisierten Entscheidungssystemen umgegangen werden soll. Der Verein hält darin fest, dass ein Rechtsrahmen für den Schutz der Wirtschaft und Gesellschaft unumgänglich sei, jedoch dürften Innovationen nicht zu stark gehemmt werden. Der Schutz für Individuen sowie die Gesellschaft müsse aber stets respektiert werden.
Um dieses Ziel zu erreichen, präsentiert die Digitale Gesellschaft drei Risikokategorien. "Tiefes Risiko" bedeutet ein kleines oder kein Risiko für negative Auswirkungen, "hohes Risiko" entspricht einem signifikanten Schadenspotenzial – beispielsweise in sensiblen Bereichen wie etwa dem Gesundheitswesen – und "inakzeptables Risiko" beschreibt potenziell gefährliche Systeme wie beispielsweise biometrische Massenüberwachung.
Systeme mit tiefem Risiko sollen uneingeschränkt verwendet werden dürfen, während Systeme mit grossem Risiko bestimmten Sorgfalts- und Transparenzpflichten unterliegen sollen. Inakzeptable Systeme gehören laut dem Verein gänzlich verboten. In welche Kategorie ein System fällt, ist Sache der Urheber. Um Missbrauch zu verhindern, fordert die digitale Gesellschaft klare Sanktionen, falls ein Akteur vorsätzlich das Risiko eines Systems falsch einschätzt.
Ähnlich
klingt es seitens der Regierung. An einem Beiratstreffen unter dem Thema "Digitale Schweiz" haben sich Vertreter von Gesellschaft, Wirtschaft, Wissenschaft und Politik unter der Leitung von Bundesrat Albert Rösti getroffen und über mögliche Ansätze zur Regulierung von KI gesprochen. Am Beiratstreffen bekräftigte Rösti, dass ein Regulierungsansatz gefunden werden solle, der die Demokratie und Rechtsstaatlichkeit hochhalte und gleichzeitig die Innovations- und Wachstumsfähigkeit der Schweiz fördere. Dabei sei es wichtig, den Dialog mit allen relevanten Anspruchsgruppen zu führen.
(dok)