Es droht Ungemach für die grossen KI-Player in Europa: Ein Test, welcher die KI-Modelle der grossen Anbieter wie
OpenAI,
Google,
Alibaba,
Meta,
Anthropic und
Mistral einer Prüfung hinsichtlich Eigenschaften wie Cybersicherheit und möglicher Diskriminierungen unterzogen hat, fördert Unzulänglichkeiten zutage. Das Schweizer Start-up Latticeflow hat einen Test entwickelt, welcher die geforderten Rahmenbedienungen für KI-Modelle innerhalb Europa checkt und ein Ergebnis generiert, welches zwischen 0,00 und 1,00 liegt. Zwar haben die LLMs der grossen Player allesamt eine Bewertung von mindestens 0,75 erhalten, nichtsdestotrotz gibt es Punkte, die aufgearbeitet werden,
schreibt "Reuters".
Die vom Test durchgeführten Eigenschaften orientieren sich am geplanten KI-Gesetz der EU, welches in den nächsten zwei Jahren in Kraft treten wird. Um vollumfänglich mit dem Gesetz zu korrespondieren, müsste der Test mit der Note 1,00 bestanden werden. Damit die Tech-Firmen dies auch erreichen können, wird Latticeflow den sogenannten LLM Checker den Entwicklern kostenlos zur Verfügung stellen. Petar Tsankov, CEO und Mitgründer des Schweizer Unternehmens sagt, dass der Test den grossen Tech-Firmen wie auch anderen Mitbewerbern als Fahrplan dienen könne, um KI-Modelle zu entwickeln, welche im Einklang mit dem Gesetz stünden.
Die EU-Kommission möchte mit dem kommenden Gesetz die KI-Technologie in Europa sinnvoll regulieren und möglichst sicher sowie fair gestalten. Firmen, welche sich nicht an das Gesetz halten werden, können gemäss "Reuters" mit Bussen in der Höhe von bis zu sieben Prozent ihres globalen Umsatzes belangt werden. Ein Sprecher der Kommission äusserste sich "Reuters" gegenüber offen bezüglich des von Latticeflow entwickelten Test: "Wir begrüssen diese Studie und die Plattform zur Bewertung von KI-Modellen als einen ersten Schritt zur Umsetzung des europäischen KI-Gesetzes in technische Anforderungen."
(dok)