Taugt das KI-Labeling für Inhalte schon etwas?
Mit großem Interesse verfolge ich die Entwicklung der Kennzeichnung von Texten, die mit KI generiert wurden. Bei OpenAI gibt es eine Art Validator, mit dem man herausfinden kann, ob der Text mit einer gewissen Wahrscheinlichkeit von einem Menschen verfasst wurde oder von einem Roboter.
Ich könnte mir vorstellen, dass zum Beispiel Google künftig bei den Suchergebnissen ebenfalls ein kleines Label mit der Kennzeichnung „Dieses wurde automatisch generiert“ anzeigt. Ich bin mir nicht sicher, wie gut das ankommt, denn viele Inhaltsersteller werden natürlich jetzt mit Hochdruck so viele Inhalte wie möglich mit ChatGPT oder anderen künstlichen Intelligenzbots erstellen.
Made with AI: ist das nun gut oder eher nicht?
Was passiert aber, wenn etwa die Inhalte eines renommierten Unternehmens oder von einem Influencer plötzlich mit „AI“ markiert werden? Werden sich Leser betrogen fühlen, weil die Inhalte nicht von einem Mensch, sondern von einem künstlichen Intelligenzroboter geschrieben wurden? Oder kommt es ganz anders?
Möglicherweise sind die von Menschen erstellten Inhalte weniger wertvoll für die Leser, als wir das nun recht überheblich vermuten. Da müssen wir uns nur erinnern an ‘Made in Germany’ oder ‘Made in Japan’. Heutzutage sind das hohe Qualitätsmerkmale, aber eigentlich entstanden diese Kennzeichnungen nach dem Zweiten Weltkrieg, um vor minderwertigen Produkte aus Mangelwirtschaften zu warnen. Made in Germany? Besser Finger weg. Heutzutage schlecken sich alle nach den Produkten der selbst ernannten Qualitätsweltmeister.
Freiwillige Selbstkontrolle wird nicht funktionieren
Passiert das auch mit den KI-generierten Inhalten? Und: Sollten die Ersteller selbst freiwillig angeben, wie viel Prozent KI ist (never going to happen). Oder soll es Google oder Microsoft automatisch machen und sich die ganze Zeit mit den Inhaltserstellern herumärgern, die einen mit „überwiegend KI“ markierten Text bestreiten und behaupten werden, wohl strukturiert und „wie gedruckt“ zu schreiben. Nehmen wir mal die ganzen ethischen Grauzonen und Problemfälle heraus.
Oder was ist, wenn ein Text von einem Menschen erdacht und geschrieben wurde, aber dann mithilfe der künstlichen Intelligenz lektoriert und glatt gezogen wurde? Sollte das dann schon mit „KI“ markiert werden? Das sind alles schwierige Fragen, um die sich gerade niemand kümmert. Denn wir sind ja momentan damit beschäftigt, so viel Text wie möglich per KI zu generieren. Fühlt sich an wie Napster: zu gut um wahr zu sein; benutze es, solange es noch funktioniert und nicht von einer Klagewelle abgeschossen wird.
Erste Versuche zeigen, dass das Labeling noch nicht richtig funktionier
Wie gut ist denn die automatische Markierung? Um das herauszufinden, habe ich ein wenig herumexperimentiert. Natürlich nur auf die Schnelle und ohne wissenschaftlichen Anspruch. Für eine erste Einschätzung sollte es reichen – und die ist: Mäh. Funktioniert noch nicht.
Zum Testen habe ich einen englischen Text von meiner englischen Website einkopiert, um herauszufinden, was das System ausspuckt. Ich habe den Text selbst geschrieben und nur mit einer englischen Sprachprüfung (LanguageTools) etwas bereinigt. Wird das schon zu Misstrauen führen? Das Ergebnis, das ich erhalten habe, war ebenfalls „highly unlikely“. Da bin ich aber beruhigt, es war allerdings auch erwartbar.
Sind von KI-lektorierte Texte schon KI-generierte Inhalte?
Nun habe ich diesen Text genommen und ihn mit einem „mach es besser und schöner“ durch ChatGPT gejagt. Der Text las sich danach auf jeden anders, nicht unbedingt besser, aber glatter, langweiliger, ohne meine schrulligen Wortspiele. Das Ergebnis habe ich in den Validator einkopiert und bekomme ein ebenfalls „highly unlikely“.
Im nächsten Test habe ich einen Text von Anfang an mit ChatGPT erstellt und mehrfach mit inhaltlichen Anweisungen verfeinert. Das wäre nichts, was ich hier veröffentlichen würde. Aber es würde sehr wohl als Grundlage für einen Beitrag dienen. Wie immer sind nicht die Texte an sich spannend, sondern die überraschenden Impulse, die zum „Weiterfragen“ inspirieren. Dadurch werden die Texte sicherlich immer besser. Das Ergebnis: „likely AI written“ - obwohl ich nicht in den Text eingegriffen hatte.
KI nur mit erfahrenen „AI-Prompter“ wirkungsvoll
Was bedeutet das alles für mich als Leser? Wenn ich weiß, dass ein Text automatisch generiert wurde, dann hat das für mich persönlich ein gewisses Geschmäckle. Vielleicht, weil ich nicht weiß, welche Intelligenzbestie vor der KI-Maschine saß. Noch immer vertraue ich den von Menschen geschriebenen Beiträgen.
Je mehr ich mit ChatGPT arbeite, merke ich, dass es in den Händen von erfahrenen Knowledge-Worker zu einer weitaus besseren Entfaltung kommt. Kein Wunder, dass Verlage und Agenturen schon nach „AI-Prompter“ suchen. Hoffen wir nur, dass nicht nur blutjunge Social Media-Spezialisten eingestellt werden, sondern auch erfahrene Journalisten der alten Schule und Fact Checker vor die Maschinen kommen. In diesem Fall wäre das Prädikat „AI assisted“ möglicherweise doch ein Qualitätsmerkmal. So wie jetzt ‘Made in Germany’.