Wenn Sie den Eindruck haben, dass die Menschen anfangen, ein bisschen wie Roboter zu sprechen, liegen Sie laut einer neuen Studie gar nicht so falsch.
Experten warnen davor, dass die Menschheit, da Milliarden von Menschen dieselben KI-Tools zur Unterstützung nutzen, immer vorhersehbarer und immer weniger kreativ wird.
Diese Chatbots standardisieren unsere Art zu sprechen, zu schreiben und zu denken – und das birgt die Gefahr, die kollektive Weisheit der Menschheit zu schmälern. Es wird daher empfohlen, dass KI-Entwickler mehr Vielfalt aus der realen Welt in ihre Technologien integrieren, um die einzigartigen Ausdrucksformen des Menschen zu bewahren.
„Die Menschen unterscheiden sich darin, wie sie schreiben, argumentieren und die Welt sehen“, sagte Hauptautor Zhivar Sourati von der University of Southern California.
„Wenn diese Variationen durch dieselben großen Sprachmodelle (LLMs) laufen, werden ihr sprachlicher Stil, ihre Perspektive und ihre Denkstrategien homogen, wodurch standardisierte Ausdrücke und Gedankengänge unter den Nutzern entstehen.“
Er warnte davor, dass die Individualität durch den übermäßigen Einsatz von KI "eingeebnet" werde, da die Menschen zunehmend denselben Tonfall, dasselbe Vokabular und denselben Grad an sprachlicher Komplexität verwendeten.
Können Sie also erkennen, welcher Text original ist und welcher von einem Chatbot verfasst wurde?
Dem Team zufolge lauten die häufigsten Eingaben der Nutzer an die KI Dinge wie „Können Sie das für mich verbessern?“ oder „Machen Sie meine Argumentation logischer.“ Zum Beispiel könnte der Satz „Ich bin so gespannt auf das, was kommt!“ von der KI so übersetzt werden: „Ich freue mich sehr auf das, was vor mir liegt, und bin sehr optimistisch, was die Zukunft angeht.“
Das Team erklärte, dass Menschen, die Chatbots zur Verbesserung ihrer Schreibfähigkeiten nutzen, oft ihre stilistische Individualität verlieren.

„Das Problem besteht nicht nur darin, dass LLM-Abschlüsse die Art und Weise beeinflussen, wie Menschen schreiben oder sprechen, sondern auch darin, dass sie unmerklich umschreiben, was als glaubwürdiger Ausdruck, zutreffende Perspektive oder gute Argumentation gilt“, fügte Sourati hinzu.
Zahlreiche Studien haben gezeigt, dass von Chatbots generierte Texte weniger vielfältig sind als die von Menschen und oft die Sprache, die Werte und die Denkweise westlicher, gebildeter, industrialisierter und demokratischer Gesellschaften widerspiegeln.
„Da LLMs darauf trainiert werden, statistische Regelmäßigkeiten in Trainingsdaten zu erfassen und zu reproduzieren, die oft dominante Sprachen und Ideologien widerspiegeln, zeigen ihre Ergebnisse häufig eine enge und verzerrte menschliche Erfahrung“, fügte er hinzu.
Innerhalb von Gruppen und Gesellschaften fördern Menschen mit unterschiedlichen Denkweisen Kreativität und Problemlösungskompetenz. Doch diese „kognitive Vielfalt“ nimmt mit zunehmender Nutzung von KI ab, schreibt das Team in Trends in Cognitive Sciences.
„Wenn viele Menschen um mich herum auf eine bestimmte Weise denken und sprechen und ich die Dinge anders angehe, verspüre ich einen Druck, mich anzupassen, weil es mir als glaubwürdigere oder gesellschaftlich akzeptablere Art erscheint, meine Ideen auszudrücken“, erklärte Sourati.
Zu den bisherigen Vorschlägen zur Unterscheidung von KI-generierten Texten gehören die Beobachtung von Ungenauigkeiten, Wiederholungen, plötzlichen Tonartwechseln oder sich wiederholenden Satzstrukturen.
Übermäßiger Gebrauch von umgangssprachlichen Wörtern oder Fachjargon kann darauf hindeuten, dass die KI Lücken mit allgemeinem Vokabular füllt. Auch sehr schnelle Antworten können ein Hinweis auf KI-generierten Text sein.
Einige Entwickler haben sogar KI-Erkennungswerkzeuge entwickelt, um von KI geschriebene oder verbesserte Texte zu identifizieren, wie zum Beispiel studentische Essays oder Bewerbungen.
Eine Vorstudie ergab, dass Personen, die regelmäßig Chatbots nutzen, in etwa 90 % der Fälle feststellen können, ob ein Artikel von einer KI generiert wurde, während diejenigen, die keine Chatbots nutzen, oft etwas besser als der Zufall abschneiden.
Im Jahr 2024 erstellte ein Forschungsteam der Universität Reading für 33 fiktive Studierende der Fakultät für Klinische Psychologie und Sprachwissenschaften vollständig mit ChatGPT verfasste Prüfungsantworten. Die Prüfungen wurden ohne Wissen der Prüfer eingereicht.
Das Ergebnis: 94 % der KI-generierten Antworten blieben unentdeckt und erzielten im Durchschnitt bessere Noten als die Antworten echter Schüler. /GazetaExpress/