Es ist erst ein paar Tage her, seit
Microsoft ChatGPT in Bing implementiert ("Swiss IT Media"
berichtete) und die Suchmaschine damit mit KI-Funktionen erweitert hat. Nun hat Microsoft ein Statement zu den ersten Erfahrungen
abgegeben und zeitgleich einige Verbesserungen kommuniziert. Microsoft sieht sich zu diesem Schritt veranlasst, da sich vermehrt Nutzer beschwert hätten, dass die KI in Bing zuweilen beleidigend gewesen ist oder sich Nutzer von ihr "emotional manipuliert" gefühlt haben. Das Unternehmen entschuldigt sich für die unangebrachten Antworten von Bing, fügt jedoch gleichzeitig an, dass sich das Entwickler-Team vorgängig nicht vorstellen konnte, wie intensiv die KI-Funktion für soziale Interaktion genutzt wird.
Wie
Microsoft weiter schreibt, könnten lange Chat-Session mit 15 oder noch mehr Fragen die KI verwirren, da der gesamte Kontext zu umfangreich wird. Deshalb wird Microsoft eine Funktion hinzufügen, um den Chatverlauf zu aktualisieren, sodass sich die KI mehr auf die aktuelle Frage fokussiert, anstatt den gesamten Kontext zu betrachten. Des Weiteren wird Microsoft eine Funktion implementieren, um die KI per Schalter mehr auf Präzision oder auf Kreativität zu trimmen, je nach User-Bedürfnis. Zu guter Letzt arbeitet Microsoft an der Tonalität des Chatbots, denn bisher übernimmt er zuweilen die Art und Weise, wie der User schreibt, sprich: Sind die Eingaben über Dauer rüde verfasst, wird auch der Ton der KI rauer. Microsoft sprich diesbezüglich von einem "nicht trivialen Szenario", setzt aber alles dran, um dem User bessere Kontrolle zu ermöglichen.
Laut Microsoft war das Feedback zur Bing-KI aber zu 71 Prozent positiv. Einige Nutzer haben sogar die Grenzen des Dienstes mit zweistündigen Chat-Sitzungen getestet.
(dok)