Die Sicherheitsspezialisten von Lasso Security, einem 2023 gegründeten Unternehmen, das sich Security für KI-Modelle auf die Fahne schreibt, haben ein bedenkliches Sicherheitsproblem gefunden: Sie haben in öffentlich zugänglichen Repositories 1681 API-Tokens gefunden, mit denen sie in der Lage waren, Zugriff auf Projekte grosser KI-Entwickler zu bekommen. Da auch eine beachtliche Anzahl von Tokens mit Schreibrechten darunter zu finden war, hätten sie damit die entsprechenden KI-Modelle verändern können. Diese werden teilweise von Millionen Nutzern heruntergeladen – ein solcher Eingriff hätte also enorm weitreichende Folgen.
Unter den betroffenen Projekten sind auch grosse Namen wie
Meta,
Microsoft,
Google und
Vmware zu finden, zu den Projekten mit Schreibrechten gehörte unter anderem denn auch Metas LLM (Large Language Model) Llama2. Theoretisch hätten Kriminelle also diese LLMs manipulieren können, etwa durch sogenanntes Training Data Poisoning, was laut Lasso Security weitreichende Folgen für die Nutzer haben könnte.
Gefunden wurden die Tokens auf Huggingface, einer mit Github vergleichbaren Plattform für KI-Projekte. Diese sollte laut Lasso selbst ständig nach solchen offenen API-Tokens Ausschau halten, derweil sollten Entwickler mit hard-coded Tokens arbeiten und Best Practices folgen.
Vor der Veröffentlichung der Ergebnisse informierten die Sicherheitsexperten die betroffenen Firmen, von denen die allermeisten sehr schnell reagiert und die API-Tokens entfernt hatten. Der ganze Bericht
ist hier einsehbar.
(win)