So überwachen Nestlé & Co. ihre Mitarbeiter mit KI
Quelle: Depositphotos

So überwachen Nestlé & Co. ihre Mitarbeiter mit KI

Bei einigen Grosskonzernen sollen KI-Lösungen schon Teams- und Slack-Chats nach problematischen Inhalten durchforsten. Unproblematisch ist das natürlich nicht.
15. Februar 2024

     

Einem Bericht von "CNBC" zufolge soll eine Reihe von Grosskonzernen – darunter auch Nestlé – Mitarbeiter mit einer KI-Lösung ausspionieren. Namentlich genannt werden US-Unternehmen wie Walmart, Delta Air Lines, T-Mobile, Chevron und Starbucks. In Europa setzte neben dem Schweizer Lebensmittelriesen auch der schwedisch-britische Pharmakonzern Astrazeneca eine solche Lösung ein. Demnach werden in den genannten Betrieben die Nachrichten aus Zoom, Slack und Microsoft Teams von einer KI-Lösung durchforstet und gegebenenfalls gemeldet.


Die Infos hat "CNBC" vom Anbieter der KI-Lösung selbst, dem US-amerikanischen Start-up Aware. Damit lassen sich Mitarbeiter-Chats in Echtzeit monitoren, was für ein Unternehmen etwa spannend sein kann, nachdem eine neue Richtlinie oder Marketingkampagne im Unternehmen gestartet ist. So lässt sich die Reaktion auf eine beliebige Massnahme nach Altersgruppen oder Abteilungen beurteilen. Weiter liessen sich auch Mobbing, die Verbreitung anzüglicher Inhalte oder ähnliche Probleme im Unternehmen schnell identifizieren.
Und obwohl der Aware-CEO angibt, dass das Analytics-Tool von Aware keine Mitarbeiter individuell identifizieren könne, bietet das Unternehmen mit eDiscovery jedoch auch ein Tool an, das genau dazu in der Lage ist. Es verwundert kaum, dass eine auf AI-Rechenschaftspflicht spezialisierte befragte Organisation das Vorgehen scharf kritisiert und von einem nie dagewesenen Format der Überwachung von Mitarbeitern spricht.


Aware gibt gegenüber "CNBC" denn auch an, dass die Nachrichten aus den Chats der Unternehmenskunden für das Training der KI-Modelle eingesetzt werden. Nach rund zwei Wochen Training mit den Daten eines neuen Kunden sei die KI dann so weit, dass sie in der Lage sei, normales von abnormalem Verhalten in der Kommunikation der Mitarbeiter zu erkennen. Das Ganze führt offenbar auch zu einem rechtlichen Privacy-Problem, wie eine entsprechende Expertin ergänzt: Sobald den Nachrichten Metadaten zugeordnet werden können, ist eine Identifizierung einer Person in vielen Fällen ein Leichtes. Gleichzeitig sind die Entscheidungen der KI vor allem für einen markierten und im schlimmsten Fall gefeuerten Mitarbeiter kaum zugänglich oder nachvollziehbar und damit schwer anzufechten. (win)


Weitere Artikel zum Thema

Einsatz von KI bei Cyberkriminellen ansteigend

14. Februar 2024 - Die aktuellste Ausgabe des Security-Berichts Cyber Signals von Microsoft beschäftigt sich vor allem mit dem Thema KI. Diese schafft sowohl auf Angreifer- als auch auf Verteidigerseite neue Möglichkeiten.

Google verspricht Millionenförderung für europäische KI-Kompetenzen

13. Februar 2024 - Google hat angekündigt, KI-Schulungen und -Kompetenzen in ganz Europa mit 25 Millionen Euro zu fördern. Zudem plant der Konzern, KI-Start-ups mit sogenannten Growth Academies unter die Arme zu greifen.

Neue Funktionen für Copilot in Teams

13. Februar 2024 - Die KI-Funktion in Teams, der Microsoft 365 Chat, wird zu Copilot für Teams und bekommt ein paar neue Funktionen. Der Rollout startet bei Copilot-Abonnenten ab sofort.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Vor wem mussten die sieben Geisslein aufpassen?
GOLD SPONSOREN
SPONSOREN & PARTNER