OpenAI möchte sein Large Language Model GPT-4 für die Content-Moderation einsetzen. Wie das Unternehmen in einem
Blog-Beitrag erklärt, sei die KI prädestiniert, diese Aufgabe zu übernehmen und beispielsweise die Bearbeitung von Richtlinienänderungen schneller als der Mensch umzusetzen und somit entsprechende Zyklen von Monaten auf Stunden zu verkürzen. GPT-4 ist laut
OpenAI ausserdem in der Lage, Regeln und Nuancen in langen Dokumenten zu Inhaltsrichtlinien zu interpretieren und sich sofort an Aktualisierungen anzupassen, was zu einer konsistenteren Bewertung von Inhalten führen soll.
Wir glauben, dass "KI dabei helfen kann, den Online-Verkehr gemäss den plattformspezifischen Richtlinien zu moderieren und die mentale Belastung einer grossen Anzahl menschlicher Moderatoren zu verringern", heisst es im Blogbeitrag.
Tatsächlich gehört die Content-Moderation beispielsweise auf Social-Media-Plattformen nach wie vor zu den komplexesten Aufgaben für die Anbieter. Sie erfordert laut OpenAI akribische Arbeit, Sensibilität, ein tiefes Verständnis des Kontexts sowie eine schnelle Anpassung an neue Anwendungsfälle, was sie sowohl zeitaufwändig als auch anspruchsvoll macht. Zwar setzen gerade Plattformanbieter wie Meta und Google bereits auf automatisierte Filtersysteme – nach wie vor ist aber an vielen Stellen noch eine manuelle Kontrolle durch menschliche Moderatoren notwendig. Aufgrund oftmals drastischer Inhalte kann dieser Prozess jedoch schnell zu einer psychischen Belastung führen.
Wie "The Verge"
schreibt, ist
OpenAI selbst in hohem Masse auf Clickworker und menschliche Arbeit angewiesen. Tausende von Menschen, viele von ihnen in afrikanischen Ländern wie Kenia, würden Inhalte kommentieren und kennzeichnen.
Kritisch ist der Einsatz von KI zudem bei der Moderation nutzergenerierter Inhalte in Grauzonen, beispielsweise Satire oder Dokumentationen. Was selbst für menschliche Moderatoren schwer einzuschätzen sein kann, dürfte für Lösungen wie GPT-4 schnell zur Herausforderung werden – und gegebenenfalls in Zensur münden. OpenAI schreibt darüber hinaus selbst: "Urteile von Sprachmodellen sind anfällig für unerwünschte Verzerrungen, die während des Trainings in das Modell eingebracht worden sein könnten. Wie bei jeder KI-Anwendung müssen die Ergebnisse und der Output sorgfältig überwacht, validiert und verfeinert werden, indem der Mensch in den Prozess einbezogen wird." Durch die Reduzierung der menschlichen Beteiligung an einigen Teilen des Moderationsprozesses durch Sprachmodelle könnten die menschlichen Ressourcen jedoch stärker auf die komplexen Randfälle konzentriert werden, die für die Verfeinerung der Richtlinien am wichtigsten sind, so das Unternehmen.
(sta)