Member Content

Stimme der Zukunft: Was ein 12-Jähriger über KI zu sagen hat

Zur Event Anmeldung
Download PDF

Wir reden viel über die junge Generation und KI. Über Chancen, Risiken, Bildungskonzepte. Aber wir reden selten mit ihnen. Oskar, 12 Jahre alt und Sohn von Freunden, wollte das ändern - und hat seine Gedanken selbst aufgeschrieben. Für DECAID Intelligence und LinkedIn. Damit ich sie hier veröffentliche.

Was dabei herauskam, ist bemerkenswert: ein Text, der zeigt, wie reflektiert junge Menschen mit dieser Technologie umgehen können. Gleichzeitig macht er deutlich, vor welchen Herausforderungen sie stehen - und wie dringend wir sie besser begleiten müssen.

Zwei Dinge sind mir beim Lesen aufgefallen: Erstens, wie klar Oskar die Ambivalenz von KI erfasst. Zweitens, wie sehr seine Generation bereits heute mit Fragen konfrontiert ist, für die wir Erwachsenen noch keine guten Antworten haben.

Deshalb: Lest selbst. Nicht über sie - von ihnen.

KI im Leben eines 12-Jährigen – Ein Erfahrungsbericht von Oskar

Guten Tag, mein Name ist Oskar und ich werde heute erzählen was für eine Rolle Künstliche Intelligenz (KI) im Leben eines 12-jährigen spielt. KI ist eine große Macht die positive, aber auch negative Aspekte zeigt. Heute werde ich einige davon nennen.

Im Alltag sind Chatbots nützlich, einfach leichter als Google, da ich zum Beispiel bei den Künstlichen Intelligenzen direkte Antworten auf eine Frage bekomme, währenddessen man bei Google viele Websites rausgeworfen bekommt. Chatbots Filtern die Informationen von Google, um eine Antwort zu finden. Sowohl in der Schule wie auch zuhause komme ich viel in Berührung mit KI. Sie ist ein immer bestehendes Werkzeug, es geht theoretisch für einen 12-jährigen Jungen gar nicht mehr ohne Chatbots. Die KI fließt im normalen Leben in vielen Weisen ein. Aber die Leute werden fauler, geben sich nicht mehr Mühe und Vertrauen einfach der KI. Teilweise überprüfen die Personen und Kinder gar nicht mehr Texte nach Falschinformationen.

Im Schulalltag repräsentiert KI eher negative Rollen, da z. B. Hausaufgaben keinen Sinn mehr ergeben. Teilweise sind Bewertungen aufgrund von KI sehr ungerecht und ohne Sinn, da sich mancher sehr viel Mühen und Zeit mit seiner Hausaufgabe gegeben hat. Während manch anderer zu ChatGPT greift, Copy-Paste macht und eine gute Note bekommt, obwohl er selbst zu seiner Schularbeit nichts beigetragen hat.

Teilweise sind die Texte sogar falsch wie die Studie der europäischen Rundfunkunion (EBU – Ebu.ch https://www.ebu.ch/Report/MIS-BBC/NI AI 2025.pdf) beweist, die zu dem alarmierenden Ergebnis kamen, dass 45 Prozent der Antworten auf 30 Kernfragen zu aktuellen Ereignissen mindestens ein signifikantes Problem aufweisen.

Was mich zu meinem nächsten Punkt bringt, "Die falsche Informationen durch Chatbots". Ich persönlich benutze Plattformen wie ChatGPT oder Copilot nur zum Erstellen von Tabellen oder zur Auswertung von Zahlen. Obwohl ich nur selten zum Chatbot greife, merke ich, dass ich fast gar nicht mehr auf solche Unterstützung verzichten möchte. Nachdem ich z. B. zahlen mit einer KI ausgewertet habe, gucke ich auf einer anderen Quellen nach, um zu überprüfen und um zu evaluieren das meine gerade gerechneten Zahlen auch stimmen. Leider tun sie das öfter nicht.

Deswegen ist meine Haltung: "KI darf zum Hilfsmittel werden, aber nicht zum Ausführenden". Damit meine ich, dass KI weiterhin benutzt werden kann, aber nicht selbst bestimmen sollte. Ein Mensch sollte immer die Information durchlesen und zur Not korrigieren.

Wenn ich mal meine Geschwister nach etwas Fragen oder sie um andere Tätigkeiten bitten, dann sagen sie: "Benutz doch ChatGPT!". Für mich ist das nicht ok! Wir können doch jetzt noch nicht bei jeder Gelegenheit, bei jeder Kleinigkeit oder minimalen Frage zum Chatbot greifen. Ich stelle mir langsam die Frage, Wenn wir schon heute bei 75 Prozent der Fragen zum Chatbot greifen, wie sieht unser Leben dann in 20, 30 oder 40 Jahren aus? Mich besorgt das wirklich. Vor allem da ich in der neuen Generation bin und wenn es Konsequenzen, wie einen Hackerangriff geben wird dann muss die junge Generation, die in dieser Zeit lebt, diese wieder ausbaden, da die vorherigen Generationen zu faul war, um vielleicht nur bei 25 Prozent der Fragen den Chatbot zu benutzen.

Ich finde, dass KI einen so großen Einfluss aufs kontinuierliche Leben eines 12-jährigen hat. Deswegen fordere ich mehr Kurse zu KI, Fake News und Cybersicherheit an Schulen, da viele die Konsequenzen des einfachen Internet-Werkzeuges nicht einzuschätzen wissen.

Ein weiter Punkt wie KI das alltägliche Leben eines jungen Menschen beeinflusst ist, indem einige Kinder, dadurch, dass sie KI nicht richtig einschätzen können, sie als Freund/Freundin sehen, mit ihr sprechen, als wäre sie eine Person, ihr Bilder schicken und private Informationen geben. Jede Information, die man ChatGPT gibt, wird gespeichert, die Chatbots verdienen ihr meistes Geld durch Verkauf von Informationen. Wenn du ihnen zum Beispiel über deinen Hund erzählst, könnte es seien das KI dir gezielt Werbung für Hundefutter oder Hundespielzeug anzeigt. Wenn du einem Chatbot ein Bild von dir schickst, ist es für immer und ewig in dem Speicher des Chatbots. Alles, was du sagst, bleibt im Chatbot, es wird nicht gelöscht, selbst wenn du es verlangst!

Ein positiver Aspekt der KI ist ihre Arbeitskapazität - vom Beantworten leichter Fragen bis zum Organisieren von Terminen. Sie arbeitet wie eine eigene Managerin, die deine Sachen erledigt. Daher muss man zugeben, dass KI ein sehr nützliches "Tool" ist und es ohne dieses Werkzeug kaum vorstellbar ist.

Zusammenfassend lässt sich sagen, dass KI viele negative Aspekte in der Schule zeigt, Fake News verbreitet, aber im Alltag auch sehr nützlich seien kann, da sie die Arbeit einfacher macht.

Melde dich an um diese Masterclass zu schauen

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Kai Hermsen
Digital Governance Experte

Kai, Digital Governance Experte & Co-Founder von DECAID.secure, revolutioniert die sichere KI-Implementierung für Unternehmen. Sein Weg führte von Führungspositionen im Konzern bis zum erfolgreichen Unternehmertum, darunter die Leitung der Charter of Trust bei Siemens und die Förderung digitaler Transformation bei Identity Valley. Als einer der führenden Köpfe im Bereich Digital Trust entwickelt er mit der twinds foundation zukunftsweisende Vertrauenslösungen. Seine Expertise bringt er aktiv im World Economic Forum und Munich Security Network ein.

Mehr von diesem Autor:
KI-Governance in den USA - Zwischen Self-Regulation und Strassen-Aktivismus
🔴 High-End KI-Content: Strategie, Qualität & die neue Kennzeichnungspflicht (EU AI Act)
Der siebte Sinn für Langdock: Warum selbst das sicherste Tool ohne deine Regeln crasht
Wenn selbst der „Director of Alignment“ die Kontrolle verliert: Warum deine KI-Agenten einen Code of Conduct brauchen