Der chatbot kennt das Konzept "Wahrheit" nicht. Die Wörter in seinen Antworten werden durch Abstandsvektoren (besser verständlich: Wahrscheinlichkeitswerte) ausgewählt.
Der Bot liefert die Antwort, die die größte Wahrscheinlichkeit bietet, den Fragesteller zufriedenzustellen.
Und das ist der entscheidende Punkt, den viele noch nicht verstanden haben.
Und ja, KI generiert auch falsche Quellen. Laut KI habe ich sogar meine Promotion abgeschlossen, mir wurde sogar der Dissertationstitel genannt. Auch wurden mir schon Quellen ausgespuckt die ich selbst verfasst haben soll, wo ich aber weiß, hab ich nicht. Entsteht alles durch den von Klinger genannten Aspekt.
Die Herausforderung für uns alle ist, dass an vielen Stellen nicht mehr erkannt werden kann, was ist echt, was ist KI. Dies betrifft insbesondere Bilder und Videos. Um so wichtiger ist es zu verstehen, warum man nicht jede x-beliebige Quelle nehmen sollte.
Leider rede ich dort aktuell bei meinen SuS gegen Wände. Und das fängt schon an, dass man auch KI durchaus mal eine weiterführende Frage stellen sollte und nicht einfach blind copy-paste die erste Antwort kopiert, nicht mal richtig durchliest und dann sagt, fertig, Frage beantwortet. Hängen bleibt dabei leider oft sehr wenig und fachliche Tiefe erreicht man so auch nicht.
Kann man an Beispielen mit ihnen durchspielen, zeigen, wie viel besser ein Ergebnis mit einer zusätzlichen Frage wird, leider scheint dies viele einfach nicht zu interessieren.
Dabei finde ich persönlich KI für allgemeines Faktenwissen durchaus ok oder nutze es selbst gern z.B. um schnell ein paar Fragen für ein Kahoot oder ähnliches zu erstellen.
Für meinen Unterricht bedeutet es, dass ich an vielen Stellen die Aufgabenstellungen/Szenarien ändern werde, so dass es viel mehr in AFBIII gehen wird. Wird allerdings auch dazu führen, dass leistungsschwächere SuS die einen AFBIII nur selten erreichen noch mehr abgehängt werden. Aber die sind ja auch jetzt schon der Meinung, dass man gewisses Faktenwissen einfach nicht braucht.