Microsoft zieht einem KI-Projekt, bei dem es um die Erkennung von menschlichen Emotionen geht, den Stecker. Der Grund: Man hat Bedenken hinsichtlich der Verantwortung.
In einem Blogbeitrag wird dazu geschildert, wie das Unternehmen plant, "verantwortungsvolle KI" zu bauen, um das Vertrauen der Gesellschaft in diese Technologien zu gewinnen.
Probleme gab es beispielsweise bei der Spracherkennung, bei der die Fehleranfälligkeit bei der Nutzung durch afroamerikanischen Menschen fast doppelt so hoch war wie bei weissen US-Bürgern. Ähnlich ist es bei der Sprachgenerierung, mit der Sprache imitiert werden kann – die damit verbundenen Möglichkeiten zum Missbrauch haben
Microsoft nun dazu bewegt, das Feature Custom Neural Voice auf Azure AI stark eingeschränkt für ausgewählte Partner und Kunden mit entsprechend verantwortungsvollen Anwendungsfällen freizugeben.
Noch strengere Massnahmen gibt es bei einer KI-Anwendung, die menschliche Gesichter und Emotionen lesen soll. Man habe sich dazu entschlossen, die entsprechende API nicht zugänglich zu machen, da der wissenschaftliche Konsens, was Emotionen genau sind, noch nicht einmal wirklich existiert, wie es Natasha Crampton, Chief Responsible AI Officer bei
Microsoft, im Blogbeitrag beschreibt.
Um diese Standards durchsetzen und kommunizieren zu können, hat Microsoft einen Leitfaden mit dem Titel "Microsoft Responsible AI Standard, v2" veröffentlicht, diesen gibt es
an dieser Stelle als PDF zum Download. Man wolle den Menschen und seine Ziele in den Mittelpunkt der KI-Entwicklung stellen und dafür sorgen, dass Werte wie Fairness, Zuverlässigkeit, Privatsphäre, Sicherheit, Inklusivität, Transparenz und Verantwortlichkeit in der KI-Welt hochgehalten werden.
(win)