Ich weiss, aber selbst dafür finde ich die Antwort erschreckend tendentiös.
Was bedeutet KI für den Unterricht?
-
-
Ich sehe das Ganze als Chance...
Ich finde den Bot super, um Dinge zusammenzufassen. Man kann ihm auch Textstellen oder Stichpunkte geben, die er dann schick ausformuliert. Auch eignet er sich für kurze Beispieltexte etc. Je "freier", desto fehleranfälliger. Am besten gibt man dem was an die Hand.
Man kann sich auch Ideen für Unterrichtsstunden geben lassen, was z.T. gar nicht mal schlecht ist.
Es ist gekommen, um zu bleiben, und ich möchte den Bot für mich zur Arbeitserleichterung nutzen, soweit dies möglich ist. Der "prüfende Blick" wird einem aber nicht erspart bleiben.
Da zumindest in NRW Hausaufgaben nicht regulär benotet werden dürfen/sollen, da sich nicht nachprüfen lässt, ob sie selber erledigt wurden, sehe ich da nicht unbedingt das Problem.
-
Sehe ich prinzipiell auch so. Ich mag gerne Prüfungsaufgaben im Stil von "Stellen Sie die folgende Aussage richtig ...". Allein dafür ist der Bot Gold wert, er produziert nämlich sehr kreativ falsche Antworten, die mir selber gar nicht einfallen würden
Es ist aber schon auch offensichtlich, in welchem Bereich das eine weitere widerliche Fake-News-Schleuder werden wird. Langfristig bin ich da schon gespannt, wie wir als Gesellschaft mit sowas umgehen werden.
-
Bezüglich Schule sehe ich es auch gelassen, bezüglich Gesellschaft nicht. Aber natürlich lässt sich das nicht stoppen, ich kann nur versuchen, auf die Gefahr hinzuweisen.
(Zu vielen ist nicht bewusst, dass manche Menschen bewusst Lügen verbreiten, dass Russland seit mindestens 20 Jahren sehr viel Geld für Trollfabriken ausgibt, dass im Netz viel Müll steht. )
-
Ich hab den Bot mal gebeten, einen Beitrag für mich zur Diskussion auszuformulieren.
Zitat von chatGPTIch denke, dass die KI in mancher Hinsicht sehr hilfreich sein kann, aber auch ihre Grenzen hat. Zum Beispiel könnte sie eine gute Unterstützung beim Lernen von Fremdsprachen sein, aber ich denke, dass sie niemals einen menschlichen Lehrer ersetzen kann. Ein Mensch kann individuell auf die Bedürfnisse und Stärken eines Schülers eingehen, während eine KI immer nur standardisierte Antworten liefern kann.
Ich denke auch, dass es wichtig ist, den Bot als Hilfsmittel und nicht als Quelle anzusehen. Wir sollten unseren Schülern beibringen, dass es wichtig ist, ihre Quellen sorgfältig zu prüfen und nicht blind auf alles zu vertrauen, was sie im Internet finden.
Insgesamt denke ich, dass die KI eine interessante Ergänzung für unseren Unterricht sein kann, aber wir sollten uns immer bewusst machen, dass sie ihre Grenzen hat und dass der menschliche Faktor immer noch unersetzlich ist.
Prompt war:
Folgendes wurde in einem Lehrerforum gepostet. Alle Nutzer sind Lehrer. Du bist der User k_19 und hast dich schon an der Diskussion beteiligt. Formuliere einen passenden Beitrag passend zu dem Thread. Du brauchst dich dabei nicht auf einzelne Nutzer beziehen. Beachte dabei auch den von dir formulierten Beitrag im Thread. Dein Ziel ist es, viel Zustimmung zu erhalten. Orientiere dich an dem Schreibstil der Forennutzer.
-
Wer starke Nerven hat, kann sich mal durchlesen, wie ChatGPT darauf trainiert wird, keine Texte mit (sexualisierter) Gewalt zu verfassen.
-
Quittengelee Leider Paywall. Kurze Zsfg.?
-
Quittengelee Leider Paywall. Kurze Zsfg.?
Ich hoffe, ich gebe es korrekt wieder.
Um bestimmte Inhalte als rassistisch, gewaltvoll usw. zu erkennen und nicht zu reproduzieren, muss die KI mit entsprechenden Texten gefüttert werden.
Diese wiederum mussten von kenianischen Klickarbeitern für unter 2 Dollar die Stunde gelesen werden. Die Texte waren so brutal, dass die Arbeiter posttraumatische Belastungsstörungen davongetragen haben.
-
Danke. Puh.
-
Eine Sprachenkollegin hat ihren ausgewählten Text hineinkopiert und sich dazu von ChatGPT Aufgaben erstellen lassen. Es geht also auch so herum.
Die Aufgaben waren okay, aber ihre eigenen waren früher besser.
-
Einer meiner Deutschkollegen lässt die KI Hausaufgaben korrigieren. Ich weiss noch nicht, was ich davon halten soll...
-
An die KI Korrekturen abgeben zu können, wäre der einzige Einsatz, der mir wirklich gefallen würde 👍
Muss man mal ausprobieren.
-
Neulich las ich ein Interview, wie Hochschulen damit umgehen, die müssen ihre Prüfungsformen natürlich auch überdenken. Der Präsident der Karlshochschule sagte zu den positiven Aspekten:
Lepenies: GPT-3 ist ein potenziell sehr intelligenter und anregender Feedback-Partner. Je klüger man die Frage stellt und dem Modell Feedback gibt, desto intelligenter sind auch die Antworten. Meist kann die Text-KI den ersten Entwurf für jedwedes Dokument liefern.
Wir könnten zum Beispiel innerhalb von kurzer Zeit neue Modulbeschreibungen erstellen oder bestehende um neue Lernziele oder Literatur ergänzen und aktualisieren. Ein Beispiel: wir wollten in einem recht theoretischen Seminar über Ethik und Globalisierung ein paar Fallbeispiele aus dem globalen Süden einbringen – das haben wir dann einfach von der KI in der ersten Fassung ausarbeiten lassen – die uns dann Beispiele gab, zum Beispiel eine Session zu feministischen Arbeiterbewegungen in Lateinamerika. Darauf wären wir bestimmt selbst gekommen – aber nicht nach fünf Sekunden. Gleichzeitig lassen wir uns von der KI ein Bewertungsraster für Gruppenpräsentationen vorschlagen – das müssen wir dann natürlich noch einmal nachprüfen und validieren.
https://www.heise.de/news/Inte…e-veraendert-7451975.html
Es ist halt wie mit allem Neuen...
-
und wie mit allem Neuen, muss man auch vorsichtig sein: https://fediscience.org/@krist…XJVW_TBNNT_GQ-GWYHQYO49r0
Eine Studienkollegin von mir hatte Spass mit der QI. und sie (die QI) ist wohl sehr menschlich geworden und blufft und lügt ... -
Kursbeschreibungen für Sonderwochen etc, dafür ist es super. KI macht das in 5 Sekunden, ich brauche ewig dafür weil ich immer besonders eloquent klingen will
-
Bin ich da zu naiv und/oder zu gelassen?
Das ist natürlich sehr subjektiv verschieden, aber mir macht diese Entwicklung schon latent etwas Angst.
Jetzt mag man noch teilweise darüber spotten - was aber vielleicht auch damit zusammenhängen mag, dass deine Fächer recht spezifisch sind. Wenn man sich aber anguckt, dass das Ding schon jetzt komplexe mathematische Beweise führen kann und anhand kurzer Beschreibungen ganze Programme programmieren kann (die zwar nicht immer zu 100% fehlerfrei sind, aber weitgehend), dann ist das schon nicht zu unterschätzen - besonders wenn man sich vor Augen führt, dass die KI immer weiter lernt und wie das dann wohl in zehn Jahren erst aussehen wird.
Am besten macht man ne Ausbildung im Handwerk - der Job wird zumindest nicht von KI ersetzt werden.
-
Ich mache mir nicht so viele Sorgen. Auch diese Systeme müssen entwickelt und trainiert werden etc. Aber wer weiß, vielleicht bin ich da auch naiv.
Ich bin gerade genervt von SuS, bei denen ich sehe und weiß, das Programm hat die KI geschrieben. Sie verwenden Dinge, die wir noch nicht behandelt haben und können nicht mal im Ansatz ihr angeblich selbst geschriebenes Programm erklären und wollen mich dann noch für doof verkaufen. Ich kann auch die KI bedienen und mir ansehen, was die so für meine Aufgabenstellung ausspuckt. Und ich sehe auch, was man in Unterricht und Klassenarbeit hinbekommt oder nicht. Man kann die KI als Hilfe nutzen, ja, aber wenn man nicht versteht, was sie da erstellt, bringt einem das auch nichts.
Aber ich brauche kein Fachabi mehr...
-
Genau das wird in Zukunft verstärkt unsere Aufgabe sein: Jungen Menschen erklären, dass KI eben nicht den eigenen Kopf ersetzt. Ich mache mir da auch keine Sorgen, ich sehe aber schon eine Zäsur bezüglich der Prüfungskultur auf uns zukommen. Die Mündlichkeit wird (wieder) ein viel stärkeres Gewicht haben.
-
Wisst ihr, worüber ich mir aber Gedanken mache (und ich bin mir dessen bewusst, wie bescheuert und arrogant es sich anhören kann): die vielen (hoffentlich trotzdem eine Minderheit aber mir doch zu viel) Kolleg*innen, die es nicht schnallen werden bzw. selbst sowas als Vorbereitung oder was auch immer nutzen.
Ich habe jedes Jahr Nebengespräche wegen der Facharbeit (die eben ein Heranbringen an das wissenschaftliche Arbeiten sein soll, usw..), wo (zu) viele Kolleg*innen der Meinung sind, "ach, als hätte ich je gelernt zu zitieren", "ach, ich habe was Anderes zu tun, als nachzuschlagen, ob es plagiert wurde", "ach, sie sind noch in der Schule, sie können es später lernen". Und dann alle Kolleg*innen, die am Liebsten eine fertige Unterrichtsplanung hätten, weil Einlesen und anschließendes, didaktisches Reduzieren zuviel Aufwand ist. Ich spreche nicht davon, dass es im Alltag zeiteffizient(er) ist / sein kann, auf fertige Lehrmaterialien zurückzugreifen. Um Gottes Willen, dafür gibt es auch Lehrwerke und Verlage. Nein, von Kolleg*innen / Referendar*innen, die bestimmte Theorien selbst nie gelesen haben UND (das "und" ist wichtig) so wenig Wissen drum herum haben, dass sie es auch nicht einordnen können, also in der Regel nur knapp über einen Durchschnittsschüler sind und schnell ins Wanken geraten, wenn man mit ihnen eine Abiplanung macht, oder selbst kaum eine neue Klausur erstellen können, wenn es nicht schon den Erwartungshorizont dazu gibt.
Wenn die KI eh nachweislich lügt und Fehler einbaut und diese erst korrigiert, wenn man sie darauf aufmerksam macht... Wie sollen solche Menschen (Lehrkräfte / Schüler*innen) die Fehler merken? -
Ich finde das überhaupt nicht arrogant, genau das gleiche habe ich auch schon gedacht. KI wird ziemlich grausam offenbaren wer kann und wer eigentlich nicht so viel kann. Wirklich Sorgen mache ich mir um diejenigen, die intellektuell einfach echt nicht viel leisten können. Welche Jobs sollen die noch machen? Geht es doch in Richtung bedingungsloses Grundeinkommen?
Werbung