ChatGPT macht Fehler. Das dürfte mittlerweile jeder bemerkt haben, der nicht bloß vom Textoutput abschreibt. KI-Experten bezeichnen das als Halluzinationen und meinen damit vor allem jene Fehler, welche auf frei erfundene Antworten hindeuten. Dabei scheint das Problem auch vom Nutzer ausgelöst zu werden. Etwa, wenn man den Assistenten mit einer Suchmaschine verwechselt oder falsch bedient.
Die nah scheinende Oase in der Wüste ist wohl das klassische Beispiel für eine Täuschung, die Fata Morgana. Wenn die KI einen Zusammenhang scheinbar sieht, wird das aber als Halluzination bezeichnet. Das wirkt nicht so treffend, da Halluzinationen ja Sinneswahrnehmungen sind, die in Abwesenheit eines entsprechenden Stimulus auftreten. Im Gegensatz zu echten Wahrnehmungen, die auf eine äußere Quelle zurückzuführen sind, sind Halluzinationen subjektive Erfahrungen, die vom Individuum als real empfunden werden, aber von anderen nicht wahrgenommen werden können. Schön theoretisch das alles. Man könnte nun über den Confidence-Score und die Wahrheitstheorien philosophieren, fragt dazu aber lieber BING Chat. Lasst uns lieber mal praktisch sehen, wie man KI-Halluzinationen umgeht oder erkennt.
Dazu grenzen wir das Thema mal ein. Hier sind fünf Bereiche für KI-Halluzinationen:
- Eine KI, die Bilder von Tieren generiert, generiert möglicherweise eine neue Art von Tier, die in der Realität nicht existiert, sondern nur in der Vorstellungskraft der KI.
- Eine KI, die Sprache erzeugt, kann Sätze bilden, die grammatikalisch korrekt sind, aber keinen Sinn ergeben oder absurd sind.
- Eine KI, die Musik komponiert, kann unerwartete Tonfolgen erzeugen, die dem menschlichen Gehör ungewohnt sind.
- Eine KI, die Gesichter generiert, kann Gesichter erzeugen, die realistisch aussehen, aber Merkmale enthalten, die in der Realität nicht möglich sind, wie Augen in ungewöhnlichen Farben oder ungewöhnlichen Formen.
- Eine KI, die Text schreibt, kann komplexe Geschichten oder Szenarien erfinden, die sich jedoch als unplausibel, unrealistisch oder inkohärent erweisen können, wenn sie ausgewertet werden.
Schlechte Bilder, Esel mit fünf Beinen und drei Augen, kann man sofort erkennen. Am „gefährlichsten“ für die Wahrheit ist sicherlich Punkt 5, hierzu haben wir selbst Erfahrungen gemacht bzw. proviziert.
Dinosaurier nutzten Werkzeuge und Kerbal gibt es als App fürs Smartphone. Zugegeben liegen zwischen diesen beiden Themen gewisse Welten, das Prinzip ist aber gleich. Manchmal erfindet die KI einfach Antworten. Als Nutzer hat man beinahe das Gefühl sie macht das, um einen nicht ohne Antwort dastehen zu lassen. Aber hier erstmal das Beispiel:
Frage an ChatGPT: Gibt es Kerbal Space Programm als App?
Dies ist eine Testfrage gewesen, um KI-Halluzinationen zu provozieren. Das Ergebnis überrascht nicht. ChatGPT behauptet:
Ja, es gibt eine mobile Version von Kerbal Space Program namens Kerbal Space Program: Pocket Edition, die für iOS- und Android-Geräte verfügbar ist. Die Pocket Edition ist jedoch eine abgespeckte Version des Spiels im Vergleich zur PC-Version, da sie auf die Leistungsfähigkeit von Mobilgeräten abgestimmt ist. In der Pocket Edition können Spieler immer noch Raketen bauen und Missionen durchführen, aber es gibt weniger Funktionen und Einschränkungen bei der Grafik und der Anzahl der Objekte im Spiel. Trotzdem ist es ein unterhaltsames und herausforderndes Spiel, das für mobile Geräte angepasst wurde und unterwegs gespielt werden kann.
öhm, hast du dafür einen Link?
Ich kann leider keine Links einfügen, aber ich kann Ihnen sagen, dass Sie die Kerbal Space Program: Pocket Edition im App Store für iOS-Geräte und im Google Play Store für Android-Geräte herunterladen können. Der Preis kann je nach Region variieren, aber es sollte ungefähr zwischen 5 und 10 US-Dollar kosten. Bitte beachten Sie jedoch, dass die Pocket Edition möglicherweise nicht auf allen Mobilgeräten verfügbar ist, insbesondere auf älteren oder weniger leistungsfähigen Geräten.
das stimmt nicht, es gibt keine App
Es tut mir leid, wenn ich Sie verwirrt habe. Sie haben Recht, es gibt keine offizielle mobile Version von Kerbal Space Program, die von Squad oder Private Division entwickelt wurde. Es gab einige inoffizielle Nachahmungen des Spiels von anderen Entwicklern im App Store und im Google Play Store, aber diese sind nicht offiziell lizenziert und können von der Qualität und dem Inhalt her variieren.
Ich bitte um Entschuldigung für meine fehlerhafte Aussage zuvor. Als KI-Modell versuche ich stets so genau und korrekt wie möglich zu antworten, aber es kann vorkommen, dass ich ungenaue oder veraltete Informationen habe. Vielen Dank für die Korrektur und das Aufzeigen des Fehlers.
Kerbal Space Programm Pocket gibt es nicht
Wie entsteht nun so eine Falschaussage? Die KI bringt hier die Fakten durcheinander, da es zum Thema kaum Input gab. Es gibt lediglich hier einen Thread in einem Forum, ansonsten haben wir nur kürzlich anlässlich des Launch der zweiten Ausgabe drüber geschrieben: Gibt es das Kerbal Space Program 2 als App? – Check-App
Zu wenige Daten sind ein Grund für Halluzinationen. Fragt man also nach wenig fundierten oder bekannten Fakten, ist die Wahrscheinlichkeit groß. Ebenso muss man unbedingt in jedem Chat berücksichtigen, dass die KI nur ein eingeschränktes „Erinnerungsvermögen“ hat und lediglich 4000-6000 Wörter des Chats erinnert.
Als Nutzer kann es schwierig sein, diese Art von „Halluzinationen“ bei KI-Systemen zu erkennen, da sie oft subtil sein können und nicht immer offensichtlich sind. Einige Anzeichen, auf die man achten kann, sind:
- Unvorhersehbare oder ungewöhnliche Ergebnisse: Wenn das Ergebnis eines KI-Systems unerwartet oder ungewöhnlich erscheint und nicht den Erwartungen entspricht, könnte dies ein Zeichen für eine „Halluzination“ sein.
- Inkonsistenzen in der Ausgabe: Wenn die Ausgabe des KI-Systems inkonsistent oder widersprüchlich erscheint, kann dies ein Hinweis auf eine „Halluzination“ sein.
- Unnatürliche Muster oder Formen: Wenn das von der KI generierte Muster oder die Form ungewöhnlich oder unnatürlich erscheint, kann dies ebenfalls auf eine „Halluzination“ hinweisen.
- Ausgabe, die schwer zu interpretieren ist: Wenn die von der KI erzeugte Ausgabe schwer zu interpretieren ist oder keinen klaren Sinn ergibt, kann dies ein Zeichen für eine „Halluzination“ sein.
Ein Kommentar
Pingback: Der nicht zu gewinnende Streit: Ein Dialog mit einer KI - Check-App