Einem
Bericht von "CNBC" zufolge soll eine Reihe von Grosskonzernen – darunter auch Nestlé – Mitarbeiter mit einer KI-Lösung ausspionieren. Namentlich genannt werden US-Unternehmen wie
Walmart, Delta Air Lines, T-Mobile, Chevron und Starbucks. In Europa setzte neben dem Schweizer Lebensmittelriesen auch der schwedisch-britische Pharmakonzern Astrazeneca eine solche Lösung ein. Demnach werden in den genannten Betrieben die Nachrichten aus
Zoom,
Slack und
Microsoft Teams von einer KI-Lösung durchforstet und gegebenenfalls gemeldet.
Die Infos hat "CNBC" vom Anbieter der KI-Lösung selbst, dem US-amerikanischen Start-up Aware. Damit lassen sich Mitarbeiter-Chats in Echtzeit monitoren, was für ein Unternehmen etwa spannend sein kann, nachdem eine neue Richtlinie oder Marketingkampagne im Unternehmen gestartet ist. So lässt sich die Reaktion auf eine beliebige Massnahme nach Altersgruppen oder Abteilungen beurteilen. Weiter liessen sich auch Mobbing, die Verbreitung anzüglicher Inhalte oder ähnliche Probleme im Unternehmen schnell identifizieren.
Und obwohl der Aware-CEO angibt, dass das Analytics-Tool von Aware keine Mitarbeiter individuell identifizieren könne, bietet das Unternehmen mit eDiscovery jedoch auch ein Tool an, das genau dazu in der Lage ist. Es verwundert kaum, dass eine auf AI-Rechenschaftspflicht spezialisierte befragte Organisation das Vorgehen scharf kritisiert und von einem nie dagewesenen Format der Überwachung von Mitarbeitern spricht.
Aware gibt gegenüber "CNBC" denn auch an, dass die Nachrichten aus den Chats der Unternehmenskunden für das Training der KI-Modelle eingesetzt werden. Nach rund zwei Wochen Training mit den Daten eines neuen Kunden sei die KI dann so weit, dass sie in der Lage sei, normales von abnormalem Verhalten in der Kommunikation der Mitarbeiter zu erkennen. Das Ganze führt offenbar auch zu einem rechtlichen Privacy-Problem, wie eine entsprechende Expertin ergänzt: Sobald den Nachrichten Metadaten zugeordnet werden können, ist eine Identifizierung einer Person in vielen Fällen ein Leichtes. Gleichzeitig sind die Entscheidungen der KI vor allem für einen markierten und im schlimmsten Fall gefeuerten Mitarbeiter kaum zugänglich oder nachvollziehbar und damit schwer anzufechten.
(win)