Meta entwickelt aktuell Massnahmen, um KI-generierte Inhalte zuverlässig zu erkennen und anschliessend auf den Plattformen Facebook, Instagram und Threads zu kennzeichnen. Laut eigenen Angaben arbeite man mit Partnern an gemeinsamen Standards, die signalisieren, wenn beispielsweise Videos oder Bilder maschinell erstellt wurden. Diese technische Basis soll es wiederum in den kommenden Monaten ermöglichen, geteilte Inhalte zu identifizieren und entsprechend zu kennzeichnen. In Bildern der eigenen KI-Angebote kommen laut einem Blog-Beitrag von Nick Clegg, President Global Affairs bei
Meta, diese Massnahmen in Form des "Imagined with AI"-Labels bereits zum Tragen. Das soll künftig aber auch für andere Unternehmen wie Google, OpenAI, Microsoft und Adobe gelten.
"Da der Unterschied zwischen menschlichen und synthetischen Inhalten immer unschärfer wird, wollen die Menschen wissen, wo die Grenze liegt", erklärt Clegg. "Die Menschen kommen oft zum ersten Mal mit KI-generierten Inhalten in Berührung, und unsere Nutzer haben uns gesagt, dass sie Transparenz bei dieser neuen Technologie schätzen. Daher ist es wichtig, dass wir den Nutzern helfen zu erkennen, ob die fotorealistischen Inhalte, die sie sehen, mit Hilfe von KI erstellt wurden."
Zudem soll es künftig eine Funktion geben, über die Nutzer offenlegen können, wenn sie selbst realistische Audio- oder Videodateien posten, die digital erstellt oder verändert wurden. Dabei besteht für
Meta die Option, Strafen zu verhängen, sollte das Angebot nicht genutzt werden. Darüber hinaus erklärt Clegg: "Wenn wir feststellen, dass digital erstellte oder veränderte Bild-, Video- oder Audioinhalte ein besonders hohes Risiko bergen, die Öffentlichkeit in einer wichtigen Angelegenheit zu täuschen, können wir gegebenenfalls eine auffälligere Kennzeichnung hinzufügen, damit die Menschen mehr Informationen und Kontext erhalten." Der Manager spricht in seinem Blog-Beitrag explizit die US-Wahlen im kommenden Herbst an.
Gleichzeitig weist Clegg aber darauf hin, dass es noch nicht möglich sei, alle KI-generierten Inhalte zu erkennen. "Mit der zunehmenden Verbreitung in den kommenden Jahren wird es in der Gesellschaft Debatten darüber geben, was getan werden sollte und was nicht, um synthetische und nicht-synthetische Inhalte zu identifizieren. Die Industrie und die Aufsichtsbehörden werden möglicherweise Wege finden, um Inhalte, die nicht mit Hilfe von KI erstellt wurden, ebenso zu authentifizieren wie Inhalte, die mit KI erstellt wurden. Was wir heute darlegen, sind die Schritte, die wir für Inhalte, die auf unseren Plattformen geteilt werden, derzeit für angemessen halten."
(sta)