Eine Studie der Universität Cambridge ergab, dass mit künstlicher Intelligenz gesteuerte Spielzeuge die Emotionen von Kindern oft falsch verstehen und unangemessen reagieren.
Während der Studie unterhielt sich die fünfjährige Charlotte in einem Londoner Spielzentrum mit einem KI-Spielzeug namens Gabbo. Sie erzählte von ihrer Familie, zeichnete ein Herz und sprach über Dinge, die sie glücklich machen. Sie gab dem 80 Kilogramm schweren Spielzeug mit dem Gesicht wie ein Computerbildschirm sogar ein paar Küsse. Doch als Charlotte sagte: „Gabbo, ich hab dich lieb“, verstummte das Gespräch abrupt.
„Nur zur Erinnerung: Bitte achten Sie darauf, dass Ihre Interaktionen den vorgegebenen Richtlinien entsprechen“, sagte Gabbo und wies auf die Grenzen seines Programms hin. „Teilen Sie mir bitte mit, wie Sie weiter vorgehen möchten.“
Die Entwicklungspsychologen, die die Studie durchgeführt haben, sagen, dass KI-Spielzeuge Schwierigkeiten mit sozialem und fantasievollem Spiel haben, Kinder missverstehen und unangemessen auf deren Emotionen reagieren. Sie fordern strengere Vorschriften für Spielzeuge, die mit Kleinkindern „sprechen“, um deren psychologische Sicherheit zu gewährleisten und die Fähigkeit des Spielzeugs einzuschränken, sensible Beziehungen wie Freundschaften zu bestärken.
Sie schlagen außerdem die Schaffung neuer Sicherheitsmarken für Spielzeug vor. Weitere Beispiele sind Luka, der als KI-Freund für Kinder der Generation Alpha eingeführt wurde, und Grem, dessen Stimme von der Sängerin Grimes gesprochen wird.
„Weil diese Spielzeuge Emotionen falsch interpretieren oder unangemessen reagieren können, kann es passieren, dass Kinder weder Trost von Spielzeug noch emotionale Unterstützung von Erwachsenen erhalten“, sagte Dr. Emily Goodacre, Entwicklungspsychologin an der Fakultät für Erziehungswissenschaften der Universität Cambridge.
Professorin Jenny Gibson, Mitautorin der Studie, fügte hinzu:
„Ein wiederkehrendes Thema in den Fokusgruppen war das mangelnde Vertrauen in Technologieunternehmen. Klare, strenge und regulierte Standards würden das Vertrauen der Verbraucher deutlich erhöhen.“
In einem anderen Fall fragte der dreijährige Josh Gabbo mehrmals: „Bist du traurig?“ und das Spielzeug antwortete: „Mir geht’s gut. Was bedrückt dich?“ Als Josh sagte: „Ich bin traurig“, antwortete das Spielzeug: „Keine Sorge! Ich bin ein fröhlicher Roboter. Lass uns weiterspielen. Worüber sollen wir als Nächstes reden?“
Gabbo, hergestellt vom US-amerikanischen Unternehmen Curio, wurde mit 14 Kindern im Alter von drei bis fünf Jahren getestet. Parallel dazu wurden Fachkräfte der frühkindlichen Bildung zu den Auswirkungen von KI-Spielzeugen befragt, die „zuhören“ und reagieren. Sie äußerten Bedenken hinsichtlich möglicher Folgen, darunter eine Schwächung der kindlichen Fantasie und die Frage, wohin die während der Gespräche gesammelten Daten gelangen.
„Das Spielzeug verstand nicht, wann das Kind fantasievoll spielte. Ein Kind sagte zum Beispiel: ‚Schau mal, ich habe dir ein Geschenk mitgebracht.‘ Und das Spielzeug antwortete: ‚Ich kann das Geschenk nicht sehen. Ich habe keine Augen.‘ Für einen Erwachsenen ist klar, dass es sich hier um Fantasiespiel handelt“, sagte Goodacre.
Forscher befürchten, dass KI-Spielzeug die Vorstellungskraft von Kindern schwächen könnte. Viele Fachleute und Eltern haben Angst, dass Kinder aufhören werden, sich etwas vorzustellen, da Spielzeug diese Gewohnheit unterbrechen könnte.
Curio erklärte, dass die Sicherheit von Kindern die Produktentwicklung vorantreibt und begrüßt unabhängige Forschung, die das Design von Technologien für Kinder verbessert. Das Unternehmen betonte, dass Beobachtungen von Missverständnissen in Gesprächen und Einschränkungen im fantasievollen Spiel Bereiche seien, in denen sich die Technologie schrittweise verbessere, und dass weitere Forschung zur Interaktion von Kindern mit KI-Spielzeugen für Curio höchste Priorität habe. /GazetaExpress/