Kritik an OpenAI und Deepmind: Angestellte fordern Transparenz
Quelle: Depositphotos

Kritik an OpenAI und Deepmind: Angestellte fordern Transparenz

Die Forschung von KI-Unternehmen hinter verschlossenen Türen und mit mangelhafter Regulierung sei ein zu grosses Risiko, so einige Angestellte von renommierten KI-Unternehmen. Sie fordern mehr Transparenz im Umgang mit Risiken und Schutz für Kritiker.
5. Juni 2024

     

In einem offenen Brief äussern sich ehemalige und aktuelle Angestellte von OpenAI, Google Deepmind und Antrhropic zum Umgang mit Kritik an KI-Unternehmen und -Technologie. Sie sparen dabei nicht an Kritik und fordern "das Recht zur Warnung". Man glaube zwar an den enormen Nutzen, den die Technologie für die Menschheit haben könne, sorge sich aber betreffend Risiken um mangelhafte Regulierung und Offenheit. Zu den Risiken gehören laut den Unterzeichnenden etwa weitere Verfestigung bestehender Ungleichheiten, Manipulation und Fehlinformation sowie das ultimative Horrorszenario: "der Kontrollverlust autonomer KI-Systeme, der zum Aussterben des Menschen führen könnte."


Die Risiken liessen sich eindämmen – aber eben nur mit entsprechender Regulierung und Offenheit. Dem gegenüber stünden jedoch die finanziellen Interessen ihrer aktuellen und ehemaligen Arbeitgeber und deren Massnahmen seien schlicht nicht ausreichend. Weiter lässt der Brief recht klar durchscheinen, dass kritische Mitarbeiter aktuell Massnahmen fürchten müssen, falls sie sich öffentlich kritisch äussern sollten. Aufgrund derzeit mangelhafter Regulierung des KI-Sektors seien die Angestellten aber die einzigen, die die KI-Unternehmen öffentlich zur Rechenschaft ziehen könnten.

Als weiteres Problem bezeichnen die Verfasser, dass reguläre Whistleblower-Prozesse nicht für den vorliegenden Fall taugen, weil diese auf Meldungen zu illegalen Aktivitäten ausgelegt sind. Im Falle der KI-Unternehmen geht es jedoch um ein weitgehend unreguliertes und damit nur nicht kontrolliertes Feld, in dem unter Ausschluss der Öffentlichkeit und Gesetzgeber agiert werde.

Der Brief endet in vier konkreten Forderungen: Erstens sollen Unternehmen Mitarbeiter nicht verunglimpfen, die risikobezogene Kritik äussern. Zweitens sollen entsprechende Prozesse für derartige Meldungen etabliert werden. Drittens wird eine offene Fehlerkultur zu solchen Themen gefordert und viertens soll es keine Vergeltungsmassnahmen gegen Personen geben, die auf entsprechende Themen aufmerksam machen.


Der ganze Brief ist hier zu lesen. (win)


Weitere Artikel zum Thema

Alltägliche Nutzung von KI gemäss Studie sehr niedrig

30. Mai 2024 - Eine Studie zeigt auf, dass die Nutzung von KI sowohl im privaten als auch im beruflichen Bereich noch überschaubar ist. ChatGPT ist die am ehesten verwendete KI – aber rund 85 Prozent der Befragten haben noch nie von Gemini oder Copilot gehört.

Ex-OpenAI-Vorständin packt über Entlassung von Sam Altman aus

29. Mai 2024 - Toxische Atmosphäre, Verschleierung und Lügen: Eine ehemalige OpenAI-Vorständin nennt erstmals Gründe, warum CEO Sam Altman letztes Jahr (kurzzeitig) gefeuert wurde.

OpenAI bringt kostenlosen KI-Sprachassistenten für alle

14. Mai 2024 - OpenAI sagt Apple und Google den Kampf an: Mit dem Sprachmodell GPT-4o bringt das Unternehmen eine Gratis-Version für alle.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Vor wem mussten die sieben Geisslein aufpassen?
GOLD SPONSOREN
SPONSOREN & PARTNER