Laut Medienberichten,
unter anderem von "Techcrunch", hat
OpenAI ein Tool entwickelt, um ChatGPT-generierten Text von Worten unterscheiden zu können, die von menschlichen Autoren stammen. Das Rezept klingt einfach: Von ChatGPT erzeugte GenAI-Texte sollen mit einem Wasserzeichen versehen werden, ähnlich wie es schon bei mit KI erstellten Bildern möglich und recht weit verbreitet ist.
Laut OpenAI arbeitet das Unternehmen tatsächlich an Text-Watermarking-Möglichkeiten, wie sie
in einem Artikel des "Wall Street Journal" (Paywall) beschrieben werden. Dort heisst es, das Tool sei seit einem Jahr bereit, aber bei OpenAI sei man skeptisch, ob der Nutzen grösser sei als der Schaden – man fürchtet, dass bis zu einem Drittel der ChatGPT-Nutzer von der Anti-Cheating-Technologie abgeschreckt und ChatGPT womöglich nicht mehr nutzen würden, denn das Text Watermarking könne die Verwendung von KI als nützliches Schreibwerkzeug für Nicht-Englisch-Muttersprachler stigmatisieren.
"Die Text-Watermarking-Methode, die wir entwickeln, ist technisch vielversprechend, birgt aber erhebliche Risiken, die wir abwägen, während wir nach Alternativen suchen", sagte eine OpenAI-Sprecherin. "Wir glauben, dass der bewusste Ansatz, den wir gewählt haben, angesichts der damit verbundenen Komplexität und der wahrscheinlichen Auswirkungen auf das breitere Ökosystem über OpenAI hinaus notwendig ist." Mit anderen Worten: Das auf ChatGPT fokussierte Text Watermarking funktioniert viel besser als ähnliche, generell auf KI-Texte ausgerichtete und bisher wenig erfolgreiche Versuche. OpenAI sieht es aber eher als Möglichkeit für die Zukunft und wird es kaum schon demnächst freigeben.
Nähere Betrachtungen zum Thema hat OpenAI im Mai 2024
in einem Blogpost formuliert, der kürzlich mit den neuesten Entwicklungen aktualisiert wurde.
(ubi)