In Zeiten wie diesen, in einer Welt, in welchen immer mehr Texte vom der künstlichen Intelligenz geschrieben werden, wird es immer wichtiger das Licht im Badezimmer auszuschalten. Seltsam nicht wahr, dieser Satz. Aber wurde der nun von der KI geschrieben oder nicht? Wenn interessiert das! In diesem Beitrag wollen wir dir zwar zeigen, mit welchen Tools du derartige Texte erkennt. Schließlich warnten wir schon länger von diesen Kinder- und Kochbüchern auf Amazon, welche nicht nur eine schlechte KDP-Druckqualität haben, sondern auch vom Inhalt äußert dürftig sind. Dennoch werden wir hier auch recht radikal gegen solche Erkennungswünsche argumentieren. Denn ob es am Ende Affen, Menschen oder Maschinen geschrieben haben, interessiert doch nicht, wenn die Info nützlich ist und lesbar.
Der ständige Fortschritt in der KI-Technologie stellt neue Herausforderungen in der Erkennung von KI-generierten Texten dar. Verschiedene Methoden, mit denen versucht wird, KI-Erkennungstools zu umgehen, von der Verwendung von Synonymen und spezifischen Tonlagen bis hin zu manueller Umschreibung, haben wir getestet. Interessanterweise sind diese Techniken nicht mehr ausreichend, da fortschrittliche Erkennungsalgorithmen sie leicht identifizieren können.
Unzuverlässige KI-Erkennungstools: Zeit für einen Strategiewechsel in der Textbewertung?
Beginnen wir mit der ersten Seite der Medaille: der Erkennung von KI-generierten Texten. Es gibt zahlreiche Tools und Methoden, die behaupten, KI-generierte Inhalte zuverlässig erkennen zu können. Diese reichen von komplexen Algorithmen, die die Syntax und den semantischen Kontext analysieren, bis hin zu einfacheren Ansätzen wie der Überprüfung der Quellen und der inhaltlichen Konsistenz. In vielen Fällen zielen solche Tools darauf ab, die Qualität und Authentizität von Inhalten zu bewerten. Denn wie ich schon erwähnt habe, gibt es eine wachsende Anzahl von Texten auf Plattformen, die zwar vielleicht gut formatiert sind, aber inhaltlich dürftig oder sogar irreführend sein können.
Unser Artikel „Warum du beim Bücherkauf auf Amazon jetzt noch genauer hinschauen solltest. Die KI-Gefahr!“ stammt aus dem Februar und diskutiert die zunehmende Rolle der KI in der Bucherstellung, insbesondere im Kontext von Kinderbüchern auf Amazon. Hier sind oftmals Autoren am Werk, welche es um den Verdienst geht, schau einfach mal die einschlägigen YouTube-Tutorials an. Dabei wird sowohl die Frage der Qualität als auch die Notwendigkeit kritischer Bewertung und Expertenmeinung hervorgehoben, um durch den Dschungel an KI-generierten und menschlich verfassten Büchern zu navigieren.
Und so gibt es Versuche, um die Erkennbarkeit von KI-generierten Texten zu verschleiern. Hier eine Auflistung möglicher Tools und Ansätze:
- Uni Check: Ein Tool, das auf die Erkennung von Ähnlichkeiten und Plagiaten spezialisiert ist.
- Originality.ai: Ein spezielles Tool zur KI-Erkennung in Texten.
- Verwendung von Synonymen: Ein Ansatz, bei dem der Text mit Synonymen umgeschrieben wird, um die KI-Erkennung zu umgehen. Dieser Ansatz scheiterte im Test.
- Tonänderung: Versuch, den Text im Ton einer bekannten Persönlichkeit, in diesem Fall Albert Einstein, zu schreiben. Auch dieser Ansatz war nicht erfolgreich.
- Manuelles Umschreiben: Der Text wurde manuell umgeschrieben, um die Originalbedeutung beizubehalten, aber die KI-Erkennung zu vermeiden. Auch dies war nicht erfolgreich.
- Quill Bot: Ein Paraphrasierungstool, das auch im Test versagte.
- Umstrukturierung des Textes: Die Reihenfolge der Sätze und Absätze wurde verändert, um die KI-Erkennung zu umgehen. Auch dies war erfolglos.
- Detailreiche Prompts: Versuch, durch spezifischere Eingabeaufforderungen (Prompts) die KI-Erkennung zu erschweren. Auch dies war nicht erfolgreich.
Am Ende stellte sich heraus, dass nur „Undetectable.ai“ die Erkennungsrate signifikant senken und eine geringe Plagiatsquote aufweisen kann.
Die Unzuverlässigkeit von KI-Erkennungstools ist ein wachsendes Problem, das dringende Aufmerksamkeit erfordert, insbesondere im akademischen Kontext. OpenAI hat kürzlich sein KI-Erkennungstool AI-Classifier eingestellt, da es an Genauigkeit mangelte. Andere auf dem Markt erhältliche Tools, wie ZeroGPT und OriginalityAI, zeigten ähnlich unbeständige Ergebnisse in Tests. Es war interessant zu beobachten, dass diese Tools eine höhere Wahrscheinlichkeit aufwiesen, Texte als KI-generiert zu klassifizieren, wenn sie von der KI auf der Grundlage vorgegebener Stichpunkte erstellt wurden, im Gegensatz zu Texten, die von der KI nur modifiziert wurden. Diese Unzuverlässigkeit wirft ernsthafte Fragen über die Effizienz und Zuverlässigkeit der aktuellen KI-Erkennungsmethoden auf. Während OpenAI an effektiveren Verfahren zur Herkunftsbestimmung von Texten arbeitet, bleibt die Frage offen, ob wir nicht eine bessere Strategie brauchen, die über die bloße Erkennung von KI-generierten Texten hinausgeht und mehr Gewicht auf die Qualität und Relevanz des Inhalts legt.
Die Debatte um KI-generierte Texte: Warum die Frage der Autorenschaft weniger wichtig sein könnte, als wir denken
Nun zur zweiten Seite der Medaille: Ist es wirklich wichtig, ob ein Text von einer KI oder einem Menschen stammt? Hier wird die Diskussion besonders interessant. Der traditionelle Gedanke ist, dass menschlich erzeugte Inhalte von höherer Qualität sind, weil sie auf persönlichen Erfahrungen und Expertise basieren. Aber ist das wirklich so? Wenn der Text informativ, gut geschrieben und nützlich ist, spielt es dann eine Rolle, wer oder was ihn verfasst hat? Man könnte sogar argumentieren, dass die Besessenheit, KI-generierte Inhalte zu identifizieren und zu entlarven, von der eigentlichen Frage der Qualität und Nützlichkeit ablenkt.
In diesem Kontext könnte man sogar noch einen Schritt weiter gehen und fragen, ob diese Besessenheit mit der Erkennung von KI-generierten Texten nicht nur von der Qualität der Informationen ablenkt, sondern auch eine unnötige Hierarchie zwischen menschlichen und KI-Autoren schafft. Wenn wir den Wert eines Textes allein an seiner Nützlichkeit und Lesbarkeit messen, wird die Frage der Autorenschaft fast irrelevant.
Letztendlich stellt sich die Frage, ob die Erkennung von KI-generierten Texten wirklich das Endziel sein sollte, oder ob es nicht viel wichtiger ist, die Qualität und Nützlichkeit des Inhalts zu bewerten, unabhängig von seiner Herkunft. Diese Überlegungen könnten eine tiefgreifende Veränderung in der Art und Weise bewirken, wie wir Inhalte konsumieren und bewerten, und könnten dazu führen, dass wir die Authentizität und Urheberschaft in einem ganz neuen Licht sehen.