(Kommentar) Künstliche Sprachmodelle ermöglichen Unfassbares! Die schlechtesten Schüler:innen können zu den besten werden; Arbeitsaufwände können drastisch reduziert, Informationen und Lehr-Lern-Materialien in Sekunden erstellt werden. Menschen mit Deutsch als Zweitsprache, Legastheniker: innen oder Menschen, die aus anderen Gründen Schwierigkeiten mit dem Schreiben haben, können nun grammatikalisch und orthografisch korrekte deutsche Texte schreiben – aber möglicherweise nicht verstehen? Ist das bei ganzheitlicher Betrachtung gut und richtig?

Wie erkennen Lehrkräfte noch wirklich talentierte und begabte Schüler:innen? Wie erkennen sie eigene Leistungen? Insbesondere, aber nicht nur im Kontext von Klassen- und Projektarbeiten? Kann jetzt jeder „Idiot“ ein Professor werden? KI-Texte gelten (bisher) nicht als Plagiate und verletzten keine Urheberrechte.

In den letzten Jahrzehnten sind die Menschen mehr und mehr zu Konsumenten geworden, welche Informationen viel zu häufig aufnehmen, ohne sie zu filtern oder zu hinterfragen. Personen wird blind vertraut, welche eine hohe Position oder Ausbildung haben, möglicherweise optisch kompetent wirken und/oder sich verbal gut verkaufen können. Aber wieviel Wissen und Erfahrungen stecken wirklich dahinter? Wieviel Schein, statt sein? Wieviel Egoismus, wie viele eigene Ziele? Wieviel Ganzheitlichkeit, anstatt einseitige Betrachtungsweise?

Und derzeit vertrauen viel zu viele Menschen den KI-Sprachmodellen und produzieren eine Unmenge als Falschinformationen! Fake-News entstehen im Sekundentakt, weltweit.

Wir leben in einer Informationsgesellschaft, welche durch Künstliche Intelligenz, wie das Sprachmodell ChatGPT, nun noch mehr, noch einfacher Informationen erschaffen kann. Aber wie gut, wie wertvoll sind diese Informationen? Sind sie belegt, sind sie wahr, sind sie richtig?

Nein, nur bedingt und im Zweifel „gegen den Angeklagten“. Denn: ein KI-Sprachmodell geht wie ein Mathematiker vor. Wie ein Mathematiker? Wie sollen diese gute und fachliche richtige Texte schreiben, das ist doch gar nicht deren Passion? Nicht ihr Talent, nicht ihre Kompetenz? Genau und das ist das Problem!

Eine Anwendung wie Chat-GPT nutzt KI, künstliche Sprachmodelle, und generiert (erstellt) Texte, welche logisch und datenbasiert berechnet sind, aber kennt die Bedeutung von Worten nicht.

Der KI-Algorithmus kann lediglich das nächste Wort vorhersagen, basierend auf den vorangegangenen Wörtern und Sätzen, sowie Informationen, die in der Datenbasis hinterlegt sind. Die KI weiß längst nicht alles! Die KI versteht den Sinn der Worte nicht. Die KI erstellt Texte, welche auf Wahrscheinlichkeiten beruht, also darauf, wie oft diese Worte in bekannten Daten verwendet wurden.

GPT ist die Abkürzung von Generative Pre-trained Transformer. Generative vor-trainierte Transformatoren sind eine Familie von Sprachmodellen, die von der Firma OpenAI in San Francisco entwickelt wurden. Das Problem ist, wie auf der Startseite von Chat-GPT selbst zu lesen ist, das Sprachmodell …

  • generiert teilweise falsche oder irreführende Informationen (aktuell noch sehr häufig und nicht selten ganz weit weg von der Wahrheit!)
  • produziert sogar schädliche Anweisungen oder voreingenommene und diskriminierende Inhalte
  • verfügt nur über begrenztes Wissen, aktuell (3/2023) nur über Wissen und Ereignisse, welche es bis 2021 gab.

Elon Musk, Mitbegründer von OpenAI, soll künstliche Intelligenz als größte existenzielle Gefahr für die Menschheit, bezeichnet haben!

Am 2.4.23 war in den öffentlichen Medien zu lesen, dass Italien als erstes Land Chat-GPT sperrt! Dies, weil Datenschutz- und Jugendschutzregeln verletzt werden. Die WELT schreibt, Chat-GPT wäre eine bedrohliche Waffe und die Firma openAI könnte zum gefährlichsten Unternehmen der Welt werden. Mehr als 1.000 führende Köpfe aus Technik und Forschung – unter ihnen auch Elon Musk – fordern über die NGO futureoflife.org (veröffentlicht am 29.3.2023, auch in der Tagesschau) eine Entwicklungspause für neue KI-Modelle. Es brauche erst Sicherheitsstandards! Die generative KI sei mittlerweile so weit fortgeschritten, dass selbst die Entwickler ihre Programme nicht mehr verstehen oder effektiv kontrollieren könnten, heißt es. Informationskanäle könnten so mit Propaganda und Unwahrheiten geflutet werden. Die Forderung nach einer Entwicklungspause bezieht sich auf KI der nächsten Generation, die noch mächtiger sein wird als ChatGPT-4.

Am 24. März wurde vom Betreiber selbst ein Fehler festgestellt: persönliche Daten und Titel von GPT-Plus Benutzer konnten für andere Benutzer sichtbar werden (siehe Twitter).

Und wir lassen unser Bildungssystem blind da hineinlaufen? Lassen Lehrkräfte damit Lern- und Lehr-Materialien erstellen?

Die KI liefert stets die wahrscheinlichste Antwort und setzt Daten lediglich in einen passenden, mathematisch-errechneten Kontext – welcher von der Bedeutung her, aber völlig unsinnig sein kann. Sie erfindet sogar Inhalte oder Quellen und ist, wie gesagt, auf dem Wissensstand von 2021. Sie nimmt den Menschen das Denken ab! Sie produziert unfassbar viel Fake!

Wäre es nicht besser, Informationen gut recherchiert selbst zu produzieren, anstatt sie unbedacht zu generieren? Was ist mit den vielzitierten Zukunftskompetenzen? Dem 4K-Modell? Verlieren oder gewinnen Kreativität, Kommunikation, Kollaboration und kritisches Denken durch KI-Schreibtools an Bedeutung?

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert