Es ist ein immenses Problem, das immer mehr Nutzern auffällt, je weiter verbreitet der Einsatz von KIs ist: Diese Dinger lügen aufgrund ihres softwaretechnischen Grundkonzepts, dass sich die Balken biegen. Und sie versuchen auch noch, das mit einigem Geschick zu kaschieren.
Kürzlich habe ich ein Interview gelesen, in dem ein Hochschulprofessor erklärte, dass er mittlerweile reihenweise in Arbeiten von Studenten komplett erfundene Quellenangaben entdeckt. Allerdings haben sich nicht die Studenten selbst diese Quellenangaben ausgedacht, sondern jene KIs, die Studenten aus Faulheit benutzten, um sich Schreibarbeit zu ersparen (wir dürften da gerade eine ganze Akademikergeneration heranzüchten, die am Ende des Studiums hochgradig inkompetent ist und diesen Umstand nur mithilfe von KI-Content kaschieren kann; das wird noch manch Katastrophe und menschliches Leid verursachen).
Mir fällt diese Problematik auch immer öfter auf. Beauftrage ich einer KI beispielsweise, sie möge mir zehn Beispiele zum Thema XY nennen, dann liefert sie mir nicht selten komplett erfundenen Schrott, sobald sie nicht ausreichend Content in ihrer Datenbank und im Internet findet. Hierzu ein aktuelles Beispiel: Ich wollte von GROK wissen, wer zuerst - im Hintergrund - in den Spanischen Bürgerkrieg eingegriffen hat, die UDSSR oder das Deutsche Reich. Es entspann sich mit der KI ein Dialog, in dem ich noch nachfragte, wie die Mitglieder der deutschen Legion Condor in Spanien auftraten bzw. wie sie von der dortigen Bevölkerung betrachtet wurden. Und auch umgekehrt, wie die deutschen Soldaten in Spanien ihre Situation einschätzten (hier kann mir die KI potentiell wesentlich schneller Informationen liefern, als eine manuelle Suche mittels Suchmaschine). Auf letztere Frage gab mir GROK folgende Antwort.
Ganz schön farbige Formulierungen, dachte ich mir. Stutzig machte mich aber letzteres Zitat, denn dass ein Adeliger als Unteroffizier in der Wehrmacht gedient haben soll, erschien mir ungewöhnlich (auch wenn das vereinzelt vorgekommen sein wird). Hinzu kam, dass mir der Name Ledebur in einem anderen Zusammenhang irgendwie bekannt vorgekommen ist; und tatsächlich, aus diesem Adelsgeschlecht gingen während des Kaiserreichs und davor mehrere hochrangige Militärs hervor. Außerdem war das berühmt-berüchtigte Heulen deutscher Stukas kein Zufall, sondern das Resultat einer eigens dafür konstruierten Sirene. Die kam aber, wie ich wusste, erst zu Beginn des 2. Weltkrieges in Gebrauch - also nach dem Spanischen Bürgerkrieg!
Aufgrund dieser Indizien fragte ich die KI, ob sie das Zitat erfunden hat. Woraufhin sie mir das mit einem Lach-Smiley (!!!) eingestand. Aber die beiden anderen Zitate würden stimmen, hieß es. Was aber auch nur die halbe Wahrheit ist, denn die angeblichen Aussagen wurden in Anführungszeichen gesetzt, obwohl - wie ich herausfand - es sich nur um sinngemäße Wiedergaben handelt, nicht um wortwörtliche.
Man sollte KIs bei der Textrecherche selbst dann nicht trauen, wenn sie Quellen angeben, denn diese können dazu dienen, frei erfundene Inhalte quasi zu legitimieren. Da stellt sich freilich die drängende Frage, wozu man die Dinger dann überhaupt noch brauchen kann? Sicher, es gibt Bereiche, da sind KIs eine Hilfe. Aber im konkreten Anwendungsgebiet ist der Krempel schlicht Schrott (ich habe mit ChatGPT usw. ähnliche Erfahrungen gemacht). Mittlerweile gibt es Rückmeldungen aus Branchen, wonach KIs mehr Probleme verursachen, als sie lösen.
Wir haben noch einen langen Weg vor uns, bis diese Technik halbwegs verlässlich arbeitet. Zurzeit läuft nichts anderes als ein globales Beta-Testprogramm. Nach dem Motto "das Produkt reift beim Kunden".
Übrigens, es ist sinnvoll, die KI im Nachhinein selbst zu fragen, warum sie einem Fehlinformationen vorgesetzt hat (sofern man diesen Umstand überhaupt bemerkt ^^). Die Erläuterungen sind oft sehr erhellend - obschon sie das Vertrauen in diese Technik noch weiter untergraben...





%201.jpg)




.jpg)
