Kapitel 12.3: Bildung und Entwicklung: Datenschutz für Digital Natives

📋 Inhaltsverzeichnis


Die zwölfjährige Emma scrollt routiniert durch TikTok. Nebenbei lädt sie ihre Hausaufgaben auf der Lernplattform ihrer Schule hoch. Sie gehört zur Generation der Digital Natives – jener Generation, die mit Smartphones, sozialen Medien und künstlicher Intelligenz aufwächst. Diese Technologien sind für sie so natürlich wie die Luft zum Atmen. Emma weiß intuitiv, wie sie Filter auf ihre Selfies anwendet und virale Challenges nachahmt. Sie versteht jedoch nicht, dass ihre biometrischen Daten dabei erfasst werden. Ihre Lernfortschritte werden profiliert und ihre emotionalen Reaktionen analysiert. Diese Diskrepanz zwischen technischer Kompetenz und Datenschutzkompetenz charakterisiert eine ganze Generation. Sie stellt Eltern, Pädagogen und Datenschützer vor nie dagewesene Herausforderungen.

Dr. Annika Sommer ist Datenschutzbeauftragte am Universitätsklinikum Hamburg und selbst Mutter zweier Teenager. Sie beobachtet diese Entwicklung mit wachsender Sorge: “Wir haben eine Generation, die technisch versierter ist als je zuvor. Gleichzeitig ist sie vulnerabler gegenüber Datenmissbrauch. Meine eigenen Kinder können komplexe Apps programmieren. Sie verstehen aber nicht, warum sie nicht jeden Persönlichkeitstest im Internet machen sollten.” Diese Beobachtung unterstreicht die zentrale Herausforderung: Digitale Kompetenz bedeutet nicht automatisch Datenschutzkompetenz.

Die Zahlen sind alarmierend: Kinder und Jugendliche verbringen durchschnittlich 4,6 Stunden täglich mit digitalen Medien. Sie generieren dabei täglich Gigabytes an Daten. Dennoch verstehen 89% der unter 13-Jährigen nicht einmal grundlegend, was “Datensammlung” bedeutet (→ siehe Kapitel 7.4). Gleichzeitig haben 92% der Zweijährigen bereits einen digitalen Fußabdruck. Dieser wird meist durch ihre Eltern initiiert. Diese Daten werden nicht nur gesammelt. Sie werden zunehmend durch künstliche Intelligenz analysiert, um Lernprofile zu erstellen, Verhalten vorherzusagen und kommerzielle Entscheidungen zu treffen.

Die Bildungslandschaft selbst durchläuft eine digitale Revolution. Educational Technology (EdTech) verspricht personalisiertes Lernen, adaptive Curricula und effizientere Wissensvermittlung. Doch hinter den bunten Lernoberflächen verbergen sich komplexe Datenverarbeitungsprozesse. Diese erfassen intimste Details über die kognitive und emotionale Entwicklung von Kindern. Von Eye-Tracking beim Lesen über Emotionserkennung während des Lernens bis hin zu prädiktiven Modellen über zukünftige Leistungen – die Grenzen zwischen Förderung und Überwachung verschwimmen zunehmend.

Dieses Kapitel untersucht die spezifischen Herausforderungen des Datenschutzes im Bildungskontext und bei der Entwicklung junger Menschen. Es analysiert, wie die Unreife des präfrontalen Kortex Kinder und Jugendliche besonders vulnerabel macht. Es zeigt, welche Risiken durch EdTech und soziale Medien entstehen. Es erklärt, wie digitale Mündigkeit altersgerecht gefördert werden kann. Dabei wird deutlich: Der Schutz von Kindern und Jugendlichen im digitalen Raum erfordert mehr als technische Lösungen. Er braucht ein tiefes Verständnis entwicklungspsychologischer Prozesse und einen ausgewogenen Ansatz zwischen Schutz und Befähigung.

12.3.1 Kindliche Entwicklung und Privatsphäre

Die menschliche Gehirnentwicklung folgt einem komplexen Reifungsprozess, der erst mit etwa 25 Jahren abgeschlossen ist. Besonders relevant für den Datenschutz ist die späte Reifung des präfrontalen Kortex, jener Hirnregion, die für Impulskontrolle, Risikoabwägung und langfristiges Denken verantwortlich ist. Diese neurobiologische Unreife macht Kinder und Jugendliche zu einer besonders vulnerablen Gruppe im digitalen Raum.

Prof. Dr. Miriam Krüger, die an der Universität München zur Entwicklung digitaler Kompetenzen forscht, erklärt die Problematik: “Wir haben es mit einem fundamentalen Missverhältnis zu tun. Während das Belohnungssystem im Gehirn bereits in der Pubertät hyperaktiv ist, hinkt die kognitive Kontrolle Jahre hinterher. Das macht Jugendliche extrem anfällig für sofortige Gratifikation – sei es durch Likes, Kommentare oder das nächste Level in einem Spiel.”

Die neurobiologische Unreife zeigt sich in verschiedenen Bereichen der kognitiven Entwicklung. Kinder und Jugendliche haben Schwierigkeiten mit der Impulskontrolle und können spontane Handlungen nicht angemessen kontrollieren. Sie unterschätzen bei der Risikoabwägung langfristige Konsequenzen ihrer Entscheidungen. Die Emotionsregulation ist noch nicht ausgereift, sodass sie emotionale Reaktionen schwer managen können. Zusätzlich zeigt sich in der sozialen Kognition eine Tendenz, die eigene Kontrolle über Situationen zu überschätzen.

Die Forschung zeigt eindeutige entwicklungspsychologische Stufen im Verständnis von Privatheit. Kinder im Vorschulalter (3-6 Jahre) haben noch kein ausgeprägtes Konzept von Privatheit. Sie verstehen nicht, dass Informationen, die sie online teilen, von Fremden gesehen werden können. Eine Studie von Livingstone und Byrne (2018) zeigte, dass Kinder in diesem Alter “das Internet” oft mit einem spezifischen Gerät gleichsetzen und nicht begreifen, dass ihre Eingaben auf Servern gespeichert und weltweit zugänglich gemacht werden können.

Im Grundschulalter (6-10 Jahre) beginnt sich ein rudimentäres Verständnis von Privatheit zu entwickeln. Kinder verstehen, dass manche Informationen “geheim” sind, haben aber Schwierigkeiten, dies auf digitale Kontexte zu übertragen. Sie können beispielsweise verstehen, dass man Fremden nicht die Haustür öffnen sollte, übertragen dies aber nicht auf das Akzeptieren von Freundschaftsanfragen in sozialen Medien.

Die Präadoleszenz (10-13 Jahre) markiert einen kritischen Wendepunkt. Kinder entwickeln ein stärkeres Bedürfnis nach Privatheit, besonders gegenüber ihren Eltern, verstehen aber noch nicht die langfristigen Konsequenzen ihrer digitalen Handlungen. Sie experimentieren mit verschiedenen Online-Identitäten, ohne zu begreifen, dass diese digitalen Spuren sie noch Jahre später verfolgen können.

In der Adoleszenz (14-18 Jahre) ist das Spannungsfeld am größten. Jugendliche haben ein ausgeprägtes Bedürfnis nach sozialer Zugehörigkeit und Anerkennung, was sie dazu treibt, intime Details online zu teilen. Gleichzeitig fehlt ihnen noch die neurologische Reife, um die Risiken vollständig abzuwägen. Eine Längsschnittstudie von Hoofnagle et al. (2010) zeigte, dass Jugendliche zwar Datenschutzbedenken äußern, ihr Verhalten aber diametral entgegengesetzt ist – ein extremes Beispiel des [Privacy Paradox] (→ siehe Kapitel 2.1).

Die digitale Sozialisation beginnt heute erschreckend früh. Bereits Kleinkinder werden mit Tablets und Smartphones ruhiggestellt, wodurch sie lernen, dass digitale Geräte Quellen von Unterhaltung und Belohnung sind. Diese frühe Konditionierung prägt nachhaltig das Verhältnis zur Technologie. Kinder, die vor dem dritten Lebensjahr regelmäßig Bildschirmzeit haben, zeigen später signifikant weniger kritisches Denken gegenüber digitalen Medien.

Das Konzept der [Informationellen Selbstbestimmung] setzt kognitive Fähigkeiten voraus, die sich erst allmählich entwickeln. Dazu gehören abstrakte Denkfähigkeiten (Was bedeutet es, wenn meine Daten verkauft werden?), Perspektivübernahme (Wer könnte meine Informationen sehen und was könnte er damit tun?) und zeitliche Projektion (Wie könnte sich das in zehn Jahren auf mich auswirken?). Diese Fähigkeiten entwickeln sich nach Piaget erst im formal-operationalen Stadium, also frühestens ab dem 12. Lebensjahr.

Die Unreife zeigt sich besonders deutlich im Umgang mit [Dark Patterns] (→ siehe Kapitel 4.2). Kinder fallen signifikant häufiger auf manipulative Designelemente herein. Eine Eye-Tracking-Studie von Gossen et al. (2021) zeigte, dass Kinder unter 12 Jahren zu 87% auf prominent platzierte “Zustimmen”-Buttons klicken, ohne die Alternativoptionen auch nur wahrzunehmen. Die bunten Farben und spielerischen Elemente, die viele Apps nutzen, sprechen gezielt das kindliche Belohnungssystem an.

Besonders problematisch ist die fehlende Fähigkeit zur Emotionsregulation. Wenn Kinder negative Erfahrungen im digitalen Raum machen – sei es durch Cybermobbing, unerwünschte Kontakte oder verstörende Inhalte – fehlen ihnen oft die Bewältigungsstrategien. Sie tendieren dazu, sich schuldig zu fühlen oder die Probleme zu verheimlichen, anstatt Hilfe zu suchen. Dies wird verstärkt durch die Angst, dass Eltern mit Verboten reagieren könnten.

Die entwicklungspsychologische Vulnerabilität wird durch kommerzielle Interessen ausgenutzt. Viele Apps und Plattformen sind bewusst so gestaltet, dass sie die Unreife von Kindern ausnutzen. Von In-App-Käufen, die wie Spielelemente aussehen, bis zu Datensammlungen, die als “Freundschaftstests” getarnt sind – die Methoden werden immer raffinierter. Die Forschung von Thakor und Ganesan (2020) dokumentierte über 40 verschiedene Techniken, mit denen Apps gezielt die entwicklungsbedingte Vulnerabilität von Kindern ausnutzen.

Ein weiterer kritischer Aspekt ist die Entwicklung der Identität. Die Adoleszenz ist geprägt von Identitätsexploration und -findung. In der digitalen Welt bedeutet dies oft, verschiedene Personas auszuprobieren, mit Selbstdarstellungen zu experimentieren und Grenzen zu testen. Was Jugendliche nicht verstehen: Diese digitalen Experimente werden permanent gespeichert und können ihre zukünftige Identitätsentwicklung einschränken. Das [Recht auf Vergessenwerden] (→ siehe Kapitel 6.2) gewinnt hier besondere Bedeutung, da es jungen Menschen erlauben sollte, sich zu entwickeln, ohne von digitalen Altlasten verfolgt zu werden.

12.3.2 EdTech und Lernprofile

Die Digitalisierung der Bildung hat durch die COVID-19-Pandemie eine massive Beschleunigung erfahren. Was als Notlösung begann, ist zur neuen Normalität geworden: Lernplattformen, digitale Klassenzimmer und KI-gestützte Tutorensysteme prägen zunehmend den Bildungsalltag. Doch hinter den Versprechen personalisierter Bildung verbergen sich tiefgreifende Datenschutzprobleme.

Lisa Chen, die als Projektmanagerin die Einführung einer KI-basierten Lernplattform in einem großen Bildungsträger begleitet, beschreibt das Dilemma: “Die Technologie ist faszinierend. Wir können jedem Kind ein maßgeschneidertes Lernerlebnis bieten, Schwächen früh erkennen und gezielt fördern. Aber dafür müssen wir jeden Klick, jede Pause, jeden Fehler aufzeichnen und analysieren. Wir erstellen digitale Zwillinge der Lernenden, die mehr über sie aussagen als jedes Zeugnis.”

Moderne EdTech-Systeme sammeln vielfältige Daten im Bildungskontext. Leistungsdaten umfassen Testergebnisse, Hausaufgaben und Projektarbeiten. Verhaltensdaten erfassen Bearbeitungszeiten, Klickmuster und Revisionsverhalten der Lernenden. Emotionale Daten messen Stress-Level, Frustration und Aufmerksamkeit während des Lernprozesses. Biometrische Daten wie Augenbewegungen, Herzfrequenz und Gesichtsausdruck werden zunehmend erfasst. Soziale Daten dokumentieren Gruppeninteraktionen und Peer-Learning-Verhalten.

Moderne EdTech-Systeme sammeln eine erschreckende Vielfalt an Daten. Zunächst sind da die offensichtlichen Leistungsdaten: Testergebnisse, Hausaufgaben, Projektarbeiten. Doch das ist nur die Spitze des Eisbergs. Learning Analytics erfassen Metadaten wie Bearbeitungszeiten (Wie lange braucht ein Schüler für eine Aufgabe?), Klickmuster (Welche Hilfen werden genutzt?), Revisionsverhalten (Wie oft werden Antworten geändert?) und sogar biometrische Daten (Augenbewegungen beim Lesen, Herzfrequenz bei Prüfungen).

Diese Datensammlung ermöglicht die Erstellung detaillierter Lernprofile. Algorithmen identifizieren nicht nur fachliche Stärken und Schwächen, sondern auch Persönlichkeitsmerkmale: Ist das Kind eher impulsiv oder bedächtig? Neigt es zu Prüfungsangst? Wie ist seine Frustrationstoleranz? Eine Studie von Pardo und Siemens (2014) zeigte, dass moderne Learning Analytics mit 73% Genauigkeit vorhersagen können, welche Schüler einen Kurs nicht bestehen werden – und das bereits nach zwei Wochen.

Die Verlockung für Bildungseinrichtungen ist groß. Frühwarnsysteme könnten gefährdete Schüler identifizieren, bevor sie scheitern. Adaptive Lernsysteme passen sich in Echtzeit an das Tempo und den Lernstil jedes Kindes an. Lehrkräfte erhalten detaillierte Dashboards über den Lernfortschritt ihrer Klasse. Doch die Kehrseite ist eine nie dagewesene Überwachung und Kategorisierung von Kindern.

Das Konzept der “Predictive Analytics” im Bildungsbereich wirft fundamentale ethische Fragen auf. Wenn ein Algorithmus vorhersagt, dass ein Sechsjähriger wahrscheinlich Schwierigkeiten in Mathematik haben wird, wie beeinflusst das die Erwartungen der Lehrer? Entsteht eine sich selbst erfüllende Prophezeiung? Die Forschung von Aguilar et al. (2021) dokumentierte genau solche Effekte: Lehrer, die negative Prognosen über Schüler erhielten, reduzierten unbewusst ihre Förderung, was die Prognose bestätigte.

Besonders problematisch ist die Langzeitspeicherung dieser Daten. Ein Kind, das mit acht Jahren Schwierigkeiten beim Lesenlernen hatte, könnte diese digitale Markierung noch Jahre später mit sich tragen. Universitäten könnten theoretisch auf die gesamte Lernhistorie zugreifen, Arbeitgeber könnten “Soft Skills” aus dem Grundschulverhalten ableiten. Die digitale Bildungsakte wird zum unauslöschlichen Schatten.

Die Kommerzialisierung von Bildungsdaten ist bereits Realität. EdTech-Unternehmen argumentieren, dass sie die Daten zur Verbesserung ihrer Algorithmen benötigen. Doch viele Geschäftsmodelle basieren auf der Monetarisierung dieser Daten. Von gezielter Werbung für Nachhilfe bis zum Verkauf von Profilen an Versicherungen – die Möglichkeiten sind vielfältig und beunruhigend. Eine Untersuchung von Human Rights Watch (2022) fand heraus, dass 89% der während der Pandemie empfohlenen Lernplattformen Daten in einer Weise sammelten oder teilten, die die Rechte von Kindern gefährdeten.

Die psychologischen Auswirkungen permanenter Leistungsüberwachung sind erheblich. Kinder entwickeln ein Bewusstsein dafür, ständig beobachtet und bewertet zu werden. Dies kann zu verschiedenen maladaptiven Verhaltensweisen führen: Manche Kinder optimieren ihr Verhalten für die Metriken statt für echtes Lernen, andere entwickeln Prüfungsangst oder digitale Vermeidungsstrategien. Das Phänomen der “Metrik-Fixierung” ist aus der Arbeitswelt bekannt und überträgt sich nun auf die Kindheit.

Dr. Annika Sommer berichtet aus ihrer Beratungspraxis: “Ich sehe zunehmend Eltern, die besorgt sind, weil ihre Kinder plötzlich Angst haben, Fehler zu machen. Sie wissen, dass jeder Fehler aufgezeichnet wird. Ein Mädchen sagte mir: ‘Wenn ich nicht gleich die richtige Antwort weiß, denkt der Computer, ich bin dumm.’ Diese Kinder verinnerlichen die algorithmische Bewertung.”

Die Intransparenz der Systeme verstärkt das Problem. Weder Kinder noch Eltern verstehen meist, welche Daten gesammelt werden und wie die Algorithmen funktionieren. Die Komplexität moderner Machine-Learning-Modelle macht es selbst für Experten schwer nachzuvollziehen, wie bestimmte Empfehlungen zustande kommen. Diese Black-Box-Problematik (→ siehe Kapitel 10.2) ist im Bildungskontext besonders kritisch, da sie die Entwicklung junger Menschen beeinflusst.

Ein weiteres Problem ist die Normierung durch Algorithmen. KI-Systeme lernen aus historischen Daten und reproduzieren dabei oft bestehende Ungleichheiten. Wenn ein System hauptsächlich mit Daten von Kindern aus bildungsnahen Schichten trainiert wurde, könnte es die Lernstile und -bedürfnisse von Kindern aus anderen Kontexten falsch interpretieren. Die Studie von Baker und Hawn (2021) zeigte, dass EdTech-Algorithmen systematisch die Leistungen von Kindern mit Migrationshintergrund unterschätzten.

Die Gamification von Bildung, oft als motivierendes Element gepriesen, hat ihre eigenen Datenschutzprobleme. Belohnungssysteme, Ranglisten und Achievements sammeln detaillierte Verhaltensdaten. Sie können zudem zu ungesundem Wettbewerb und Suchtverhalten führen. Die Dopamin-getriebenen Mechanismen, die aus der Spieleindustrie stammen, werden unreflektiert auf Bildungskontexte übertragen.

12.3.3 Cybermobbing und Datenschutz

Das Phänomen des Cybermobbing hat sich zu einer der gravierendsten Bedrohungen für das psychische Wohlbefinden junger Menschen entwickelt. Anders als traditionelles Mobbing kennt es keine räumlichen oder zeitlichen Grenzen – die Demütigung folgt den Opfern bis ins Kinderzimmer und ist potenziell für ein unbegrenztes Publikum sichtbar. Die Verschränkung von Cybermobbing und Datenschutz offenbart dabei besonders perfide Dynamiken.

Die 14-jährige Schülerin einer Hamburger Gesamtschule erlebte, wie ein manipuliertes Foto von ihr in einer WhatsApp-Gruppe geteilt wurde. Innerhalb von Stunden hatte es sich über Instagram, TikTok und Snapchat verbreitet. “Das Schlimmste war nicht mal das Foto selbst”, erzählt sie Dr. Annika Sommer in einer Beratungssitzung, “sondern dass ich nicht wusste, wer es alles gesehen hat. In der Schule hab ich in jedes Gesicht geschaut und mich gefragt: Hast du es auch gesehen? Lachst du innerlich über mich?”

Cybermobbing unterscheidet sich von traditionellem Mobbing durch spezifische digitale Eigenschaften. Die Ubiquität bedeutet, dass es keine räumlichen oder zeitlichen Grenzen gibt. Die Persistenz digitaler Inhalte führt dazu, dass diese dauerhaft verfügbar bleiben. Die Skalierbarkeit ermöglicht ein unbegrenztes Publikum für die Demütigung. Die Anonymität erlaubt es Tätern, sich zu verstecken. Die Asymmetrie bewirkt, dass Opfer deutlich weniger Kontrollmöglichkeiten haben als bei traditionellem Mobbing.

Diese Ungewissheit über die Reichweite ist ein zentrales Element des digitalen Mobbings. Während beim traditionellen Mobbing die Zeugen identifizierbar sind, schafft die digitale Verbreitung eine Atmosphäre ubiquitärer Bedrohung. Die Opfer entwickeln häufig paranoide Züge und sozialen Rückzug. Eine Studie von Kowalski et al. (2019) fand heraus, dass Opfer von Cybermobbing zu 34% höheren Raten von Angstzuständen und zu 42% höheren Raten von Depression neigen als Opfer traditionellen Mobbings.

Die Permanenz digitaler Inhalte verschärft die Traumatisierung. Während eine verbale Beleidigung auf dem Schulhof verhallt, bleiben digitale Demütigungen potenziell für immer abrufbar. Selbst wenn Inhalte von einer Plattform gelöscht werden, können Screenshots, Reposts oder Archivierungen die Qual perpetuieren. Das [Recht auf Vergessenwerden] wird hier zur existenziellen Notwendigkeit, ist aber technisch kaum durchsetzbar.

Die Täter nutzen gezielt Datenschutzlücken und die digitale Naivität ihrer Opfer aus. Sie erstellen Fake-Profile mit gestohlenen Fotos, durchsuchen Social-Media-Historie nach kompromittierendem Material oder nutzen Informationen, die Opfer in vermeintlich sicheren Räumen geteilt haben. Eine erschreckende Taktik ist das “Doxing” – das Veröffentlichen privater Informationen wie Adresse oder Telefonnummer, um Offline-Belästigung zu ermöglichen.

Prof. Dr. Miriam Krüger hat in ihrer Forschung verschiedene Eskalationsstufen des digitalen Mobbings identifiziert: “Es beginnt oft harmlos mit einem gemeinen Kommentar. Dann folgt das systematische Ausschließen aus Gruppen, das Erstellen von Hassseiten, das Manipulieren von Bildern, bis hin zu Deepfakes. Jede Stufe nutzt mehr persönliche Daten des Opfers und verletzt tiefer in die Privatsphäre ein.”

Die Gruppendynamik in digitalen Räumen verstärkt Mobbing-Verhalten. Die Online-Disinhibition führt dazu, dass Hemmschwellen sinken. Jugendliche, die im direkten Kontakt nie aggressiv würden, beteiligen sich online an Hetzkampagnen. Die Anonymität oder Pseudonymität vieler Plattformen reduziert Verantwortungsgefühl. Das Phänomen der “Bystander” wird digital potenziert – hunderte sehen zu, niemand greift ein.

Besonders perfide ist das Phänomen des “Revenge Porn” oder der nicht-einvernehmlichen Verbreitung intimer Bilder. Jugendliche, die in einer Beziehung intime Fotos teilen, sehen sich nach der Trennung der Gefahr ausgesetzt, dass diese als Druckmittel oder zur Demütigung verwendet werden. Die rechtlichen Möglichkeiten sind begrenzt, der psychische Schaden oft irreparabel. Eine Studie von Henry et al. (2020) fand, dass 1 von 5 Jugendlichen bereits Erfahrungen mit bildbasierter sexueller Gewalt gemacht hat.

Die Rolle der Plattformen ist ambivalent. Einerseits bieten sie Meldemöglichkeiten und versprechen schnelles Handeln. Andererseits profitieren sie von User-Engagement, auch wenn dieses toxisch ist. Die Algorithmen, die auf Interaktion optimiert sind, können Mobbing-Inhalte sogar verstärken, weil kontroverse Posts mehr Reaktionen generieren. Eine interne Facebook-Studie, die 2021 geleakt wurde, zeigte, dass das Unternehmen sich der schädlichen Auswirkungen auf Teenager bewusst war, aber wenig unternahm.

Die psychologischen Folgen von Cybermobbing sind oft schwerwiegender als die von traditionellem Mobbing. Die Opfer können dem nicht entkommen, entwickeln Schlafstörungen, Schulangst und in extremen Fällen suizidale Gedanken. Die Omnipräsenz digitaler Geräte bedeutet, dass jede Notification eine potenzielle Bedrohung darstellt. Viele Opfer entwickeln eine Art digitales PTSD, bei dem das Smartphone-Klingeln Panikattacken auslöst.

Die Prävention von Cybermobbing erfordert einen ganzheitlichen Ansatz. Technische Lösungen wie Keyword-Filter oder AI-basierte Aggressionserkennung können helfen, greifen aber oft zu kurz. Wichtiger ist die Entwicklung digitaler Empathie und Verantwortung. Schulen, die Programme zur digitalen Ethik implementiert haben, berichten von 40-60% Reduktion von Cybermobbing-Vorfällen.

Dr. Annika Sommer hat in ihrer Institution ein Peer-Mentoring-Programm entwickelt: “Wir bilden ältere Schüler zu digitalen Streitschlichtern aus. Sie verstehen die Plattformen und die Sprache besser als wir Erwachsene. Sie können früh intervenieren und Eskalationen verhindern. Das Wichtigste ist, eine Kultur zu schaffen, in der digitale Zivilcourage belohnt wird.”

Die rechtliche Situation bleibt komplex. Während schwere Fälle von Cybermobbing strafrechtlich verfolgt werden können, fallen viele Verhaltensweisen in Graubereiche. Die Anonymität erschwert die Verfolgung, internationale Plattformen entziehen sich nationaler Jurisdiktion. Opfer und ihre Familien fühlen sich oft alleingelassen. Das NetzDG hat in Deutschland zu schnelleren Löschungen geführt, aber die grundlegenden Dynamiken nicht verändert.

12.3.4 Digitale Mündigkeit fördern

Die Förderung digitaler Mündigkeit bei Kindern und Jugendlichen ist eine der zentralen Bildungsaufgaben des 21. Jahrhunderts. Doch was genau bedeutet digitale Mündigkeit im Kontext des Datenschutzes? Es geht weit über das technische Bedienen von Geräten hinaus – es erfordert kritisches Denken, ethisches Bewusstsein und die Fähigkeit, informierte Entscheidungen über die eigenen Daten zu treffen.

Felix Hartmann, der neben seiner Arbeit als Data Analyst ehrenamtlich Coding-Workshops für Teenager gibt, hat eine ernüchternde Beobachtung gemacht: “Die Kids können unglaublich komplexe TikTok-Videos schneiden und Instagram-Filter programmieren. Aber wenn ich sie frage, was mit ihren Daten passiert, zucken sie nur mit den Schultern. Sie haben nie gelernt, die richtigen Fragen zu stellen.”

Digitale Mündigkeit umfasst verschiedene Kompetenzbereiche, die systematisch entwickelt werden müssen. Die technische Kompetenz beinhaltet das Verständnis digitaler Systeme und deren Funktionsweisen. Die Informationskompetenz ermöglicht die Bewertung von Quellen und Inhalten. Die Kommunikationskompetenz befähigt zu angemessenem Verhalten in digitalen Räumen. Die Datenschutzkompetenz umfasst den Schutz der eigenen Privatsphäre. Die ethische Kompetenz ermöglicht verantwortungsvolle Entscheidungen im digitalen Raum.

Digitale Mündigkeit umfasst mehrere Dimensionen. Die technische Kompetenz – das Verständnis, wie digitale Systeme funktionieren – ist nur die Basis. Darauf aufbauend braucht es Informationskompetenz (Wie bewerte ich Quellen?), Kommunikationskompetenz (Wie verhalte ich mich online?), Datenschutzkompetenz (Wie schütze ich meine Privatsphäre?) und ethische Kompetenz (Wie treffe ich verantwortungsvolle Entscheidungen?).

Die Herausforderung besteht darin, diese Kompetenzen altersgerecht zu vermitteln. Prof. Dr. Miriam Krüger hat ein Stufenmodell entwickelt, das sich an der kognitiven Entwicklung orientiert:

Für Vorschulkinder (3-6 Jahre) geht es primär um basale Konzepte: Der Unterschied zwischen “echt” und “im Computer”, die Idee, dass nicht alles im Internet wahr ist, und erste Regeln wie “Wir sagen Fremden nicht unseren Namen”. Spielerische Ansätze, etwa durch Geschichten über einen Daten-Detektiv, machen abstrakte Konzepte greifbar.

Im Grundschulalter (6-10 Jahre) können komplexere Themen eingeführt werden: Was sind persönliche Informationen? Warum wollen manche Leute diese wissen? Praktische Übungen wie das Erstellen sicherer Passwörter (als “Zauberwörter”) oder das Erkennen von Phishing-Mails (als “Trickbetrüger im Internet”) verbinden Lernen mit Handlung.

In der Sekundarstufe I (10-14 Jahre) wird das kritische Hinterfragen zentral: Wie finanzieren sich “kostenlose” Dienste? Was bedeutet es, wenn eine App Zugriff auf meine Kontakte will? Hier können erste Programmiererfahrungen helfen zu verstehen, wie Datensammlung technisch funktioniert. Das Erstellen eigener kleiner Apps zeigt, wie einfach es ist, Nutzerdaten abzugreifen.

In der Sekundarstufe II (14-18 Jahre) können gesellschaftliche und ethische Dimensionen vertieft werden: Überwachungskapitalismus, algorithmische Diskriminierung, digitale Bürgerrechte. Jugendliche in diesem Alter können komplexe Zusammenhänge verstehen und eigene Positionen entwickeln.

Die Vermittlung digitaler Mündigkeit scheitert oft an strukturellen Problemen. Lehrkräfte fühlen sich überfordert, da sie selbst oft weniger technikaffin sind als ihre Schüler. Eine Umfrage von Bitkom (2022) zeigte, dass sich nur 23% der Lehrkräfte kompetent genug fühlen, Datenschutzthemen zu unterrichten. Die Lösung kann nicht sein, die Verantwortung allein auf die Schulen zu schieben.

Lisa Chen hat in ihrem Unternehmen ein innovatives Mentoring-Programm initiiert: “Wir bringen Praktiker aus der Tech-Industrie in die Schulen. Nicht um Werbung zu machen, sondern um ehrlich über die Mechanismen zu sprechen. Wenn ein Entwickler erklärt, wie er Dark Patterns (→ siehe Kapitel 4.2) programmiert hat und warum er das heute bereut, hören die Jugendlichen zu.”

Ein zentrales Element digitaler Mündigkeit ist das Verständnis für die Geschäftsmodelle digitaler Dienste. Kinder und Jugendliche müssen verstehen: Wenn etwas kostenlos ist, sind sie wahrscheinlich das Produkt. Diese ökonomische Alphabetisierung fehlt in vielen Curricula. Workshops, in denen Jugendliche selbst ein datenbasiertes Geschäftsmodell entwickeln sollen, führen oft zu Aha-Erlebnissen.

Die Rolle von Peer-Education wird unterschätzt. Jugendliche hören eher auf Gleichaltrige als auf Erwachsene. Programme wie “Digitale Helden” oder “Medienscouts” nutzen dies, indem sie ältere Schüler zu Multiplikatoren ausbilden. Diese können authentisch von eigenen Fehlern berichten und sind näher an der digitalen Lebenswelt ihrer Mitschüler.

Praktische Fähigkeiten sind essentiell. Dazu gehört nicht nur das Erstellen sicherer Passwörter, sondern auch das Verständnis von Privatsphäre-Einstellungen, das Erkennen von Fake News, der Umgang mit Cookies und Trackern. “Privacy Checkups” sollten so selbstverständlich werden wie Zähneputzen. Gamification-Ansätze, bei denen Jugendliche “Privacy Points” für sichere Einstellungen sammeln, zeigen erste Erfolge.

Kritisches Denken muss gezielt gefördert werden. Dazu gehört die Fähigkeit, Interessenkonflikte zu erkennen (Warum empfiehlt mir diese App genau dieses Produkt?), Manipulation zu durchschauen (Ist das wirklich ein Gewinnspiel oder Datensammlung?) und langfristige Konsequenzen abzuschätzen (Wie würde ich mich fühlen, wenn dieses Foto in zehn Jahren auftaucht?).

Die emotionale Dimension darf nicht vernachlässigt werden. Digitale Mündigkeit bedeutet auch, mit digitalem Stress umgehen zu können, [FOMO] (Fear of Missing Out) zu managen, und zu lernen, wann es Zeit für eine digitale Auszeit ist. Achtsamkeitsübungen und Reflexion über das eigene Mediennutzungsverhalten sind wichtige Bausteine.

Dr. Annika Sommer betont die Bedeutung positiver Vorbilder: “Kinder lernen durch Beobachtung. Wenn Eltern ständig am Handy sind und bedenkenlos alles posten, können wir von Kindern kein reflektiertes Verhalten erwarten. Digitale Mündigkeit beginnt mit digitaler Erziehung in der Familie.”

Die Evaluation von Programmen zur digitalen Mündigkeit zeigt gemischte Ergebnisse. Einmalige Workshops haben kaum nachhaltige Effekte. Erfolgreicher sind Programme, die über längere Zeit laufen, praktische Elemente enthalten und die Lebenswelt der Jugendlichen ernst nehmen. Eine Metaanalyse von Chen und Shi (2019) zeigte, dass Programme mit mindestens 20 Stunden Umfang signifikante Verhaltensänderungen bewirkten.

12.3.5 Elternrechte vs. Kinderautonomie

Das Spannungsfeld zwischen elterlicher Fürsorge und kindlicher Autonomie hat im digitalen Zeitalter eine neue Dimension erreicht. Während Eltern ihre Kinder vor digitalen Gefahren schützen wollen, streben Kinder nach Privatsphäre und Selbstbestimmung. Dieser Konflikt manifestiert sich besonders deutlich im Umgang mit Daten und digitaler Überwachung.

Das Phänomen beginnt oft schon vor der Geburt. Ultraschallbilder werden auf Facebook geteilt, die ersten Schritte auf Instagram dokumentiert, Kinderfotos stolz in WhatsApp-Gruppen verschickt. Dieses “[Sharenting]” – eine Wortschöpfung aus “Share” und “Parenting” – schafft digitale Identitäten für Kinder, lange bevor diese selbst entscheiden können. Eine Studie von Blum-Ross und Livingstone (2017) schätzt, dass durchschnittlich 1.500 Fotos eines Kindes online geteilt werden, bevor es sein fünftes Lebensjahr erreicht.

Sharenting umfasst verschiedene Praktiken elterlicher Dokumentation im digitalen Raum. Das pränatale Sharing beginnt bereits mit Ultraschallbildern in sozialen Medien. Die Meilenstein-Dokumentation erfasst erste Schritte, Worte und den Schultag. Das Alltags-Sharing teilt Routinemomente und lustige Aussprüche der Kinder. Das Stolz-Posting präsentiert Erfolge, Auszeichnungen und Talente. Die Familien-Chronik dokumentiert Geburtstage, Urlaube und Feiertage.

Dr. Annika Sommer kennt die Ambivalenz aus eigener Erfahrung: “Als meine Tochter ihren ersten Schultag hatte, wollte ich natürlich diesen stolzen Moment teilen. Dann dachte ich: Will sie in zehn Jahren, dass ihre Klassenkameraden dieses Foto googeln können? Ich habe es gelassen, aber der soziale Druck ist enorm. Andere Eltern teilen alles, und man fühlt sich, als würde man seinem Kind Sichtbarkeit vorenthalten.”

Die rechtliche Situation ist komplex. Eltern haben das Sorgerecht und damit auch die Entscheidungsgewalt über die Daten ihrer Kinder. Gleichzeitig haben Kinder eigene Persönlichkeitsrechte, die mit zunehmendem Alter an Gewicht gewinnen. Ab welchem Alter können Kinder selbst über ihre digitale Präsenz entscheiden? Die DSGVO setzt die Grenze bei 16 Jahren (in Deutschland auf 13 Jahre abgesenkt), aber diese Altersgrenze erscheint willkürlich angesichts der individuellen Entwicklungsunterschiede.

Mit dem Eintritt in die Pubertät verschärft sich der Konflikt. Jugendliche entwickeln ein starkes Bedürfnis nach Privatsphäre, besonders gegenüber ihren Eltern. Gleichzeitig wächst die elterliche Sorge über Online-Gefahren. Viele Eltern greifen zu Überwachungs-Apps, die jeden digitalen Schritt ihrer Kinder protokollieren. Diese “Parental Control”-Software kann Standorte tracken, Nachrichten mitlesen, App-Nutzung überwachen und sogar Kamera und Mikrofon aktivieren.

Felix Hartmann, der solche Apps aus technischer Perspektive analysiert hat, warnt: “Diese Tools sammeln unglaubliche Datenmengen. Nicht nur über die Kinder, sondern über ihr gesamtes soziales Umfeld. Die Daten landen auf Servern von Unternehmen, die oft laxe Sicherheitsstandards haben. Wir schaffen digitale Dossiers über Minderjährige, die ein Einfallstor für Missbrauch sein können.”

Die psychologischen Auswirkungen elterlicher Überwachung sind gravierend. Studien zeigen, dass überwachte Jugendliche weniger Vertrauen zu ihren Eltern entwickeln, eher zu Heimlichkeiten neigen und paradoxerweise riskanteres Online-Verhalten zeigen. Sie lernen, Überwachung zu umgehen, statt verantwortungsvoll mit Freiheit umzugehen. Das Phänomen der [Reaktanztheorie] (→ siehe Kapitel 2.2) zeigt sich hier besonders deutlich.

Prof. Dr. Miriam Krüger hat die Auswirkungen in einer Längsschnittstudie untersucht: “Jugendliche, die stark überwacht wurden, zeigten signifikant höhere Werte bei Angststörungen und niedrigere Werte bei Selbstwirksamkeit. Sie entwickelten das Gefühl, nicht vertrauenswürdig zu sein, was ihr Selbstbild nachhaltig prägte. Ironischerweise führte die Überwachung oft zu genau dem Verhalten, das die Eltern verhindern wollten.”

Die Alternative zur Überwachung ist nicht Laissez-faire, sondern aktive Medienerziehung. Dies erfordert von Eltern, sich mit der digitalen Welt ihrer Kinder auseinanderzusetzen, ohne sie zu kontrollieren. Gemeinsame Mediennutzung, offene Gespräche über Online-Erfahrungen und das Setzen gemeinsam vereinbarter Regeln sind effektiver als heimliche Überwachung.

Ein besonders sensibler Bereich ist der Umgang mit den digitalen Geräten der Kinder. Dürfen Eltern das Smartphone ihres Kindes durchsuchen? Rechtlich ja, bei jüngeren Kindern. Ethisch und pädagogisch ist es komplizierter. Kinder haben ein Recht auf Geheimnisse, auf einen Raum, der den Eltern verschlossen bleibt. Dieses Recht ist wichtig für die Identitätsentwicklung.

Lisa Chen hat in ihrem Unternehmen einen Workshop für Eltern von Mitarbeitern organisiert: “Viele Eltern waren überrascht zu erfahren, wie ihre Kinder digitale Überwachung erleben. Ein Teenager sagte: ‘Es fühlt sich an, als würde jemand mein Tagebuch lesen, nur schlimmer, weil es ständig passiert.’ Das hat viele zum Nachdenken gebracht.”

Die Frage der digitalen Mündigkeit (siehe 12.3.4) ist hier zentral. Ab wann sind Kinder reif genug, eigene Entscheidungen über ihre Daten zu treffen? Die Entwicklungspsychologie zeigt, dass dies ein gradueller Prozess ist. Mit 8 Jahren können Kinder einfache Datenschutzkonzepte verstehen, mit 12 Jahren komplexere Zusammenhänge, mit 16 Jahren sind die meisten zu informierten Entscheidungen fähig – wenn sie entsprechend gebildet wurden.

Das Konzept der “abgestuften Autonomie” bietet einen Mittelweg. Jüngere Kinder brauchen mehr Schutz und Anleitung, ältere mehr Freiheit und Verantwortung. Dies könnte bedeuten: Mit 8 Jahren gemeinsame Konten, die Eltern einsehen können; mit 12 Jahren eigene Konten mit vereinbarten Regeln; mit 16 Jahren volle digitale Autonomie mit der Möglichkeit, bei Problemen Unterstützung zu suchen.

Ein unterschätzter Aspekt ist die Vorbildfunktion der Eltern. Kinder, deren Eltern bewusst mit ihren eigenen Daten umgehen, entwickeln eher ein gesundes Datenschutzbewusstsein. Umgekehrt untergraben Eltern, die selbst sorglos posten und tracken, ihre eigene Glaubwürdigkeit. “Digital Parenting” beginnt mit der Reflexion des eigenen Verhaltens.

Die Zukunft liegt möglicherweise in technischen Lösungen, die beide Bedürfnisse respektieren. Privacy-preserving Parental Controls könnten Eltern beruhigen, ohne die Privatsphäre der Kinder zu verletzen. Zum Beispiel Systeme, die nur bei definierten Gefahren (Kontakt mit Fremden, Besuch gefährlicher Seiten) Alarm schlagen, ohne den gesamten digitalen Alltag zu überwachen.

Dr. Annika Sommer plädiert für einen Paradigmenwechsel: “Wir müssen weg von der Überwachungsmentalität hin zu einer Begleitungsmentalität. Kinder brauchen digitale Räume, in denen sie Fehler machen können, ohne dass diese für immer dokumentiert sind. Eltern sollten Sicherheitsnetze spannen, nicht Käfige bauen.”

Implikationen für die Praxis

Die Erkenntnisse über die besonderen Herausforderungen des Datenschutzes im Bildungskontext und bei der Entwicklung junger Menschen haben weitreichende praktische Konsequenzen. Verschiedene Akteursgruppen müssen ihre Ansätze fundamental überdenken, um Kinder und Jugendliche im digitalen Zeitalter angemessen zu schützen und zu befähigen.

Für Bildungseinrichtungen

Schulen und andere Bildungseinrichtungen stehen vor der Herausforderung, digitale Bildung zu ermöglichen, ohne ihre Schutzbefohlenen zu gläsernen Schülern zu machen. Dies erfordert eine kritische Evaluation aller EdTech-Tools vor deren Einführung. Datenschutz-Folgenabschätzungen sollten nicht nur rechtliche, sondern auch entwicklungspsychologische Aspekte berücksichtigen.

Die Implementierung von Privacy by Design-Prinzipien in Lernplattformen ist essentiell. Daten sollten nur erhoben werden, wenn ein klarer pädagogischer Mehrwert besteht. Löschfristen müssen dem Recht auf Vergessenwerden (→ siehe Kapitel 6.2) und Neuanfang Rechnung tragen. Bildungseinrichtungen sollten zudem transparente Policies entwickeln, die Schülern und Eltern klar kommunizieren, welche Daten wie lange gespeichert werden.

Die Integration digitaler Mündigkeit in alle Curricula – nicht nur im Informatikunterricht – ist unerlässlich. Jedes Fach kann Anknüpfungspunkte bieten: Ethik für moralische Fragen, Geschichte für Überwachungsregime, Biologie für neuronale Entwicklung, Deutsch für Medienanalyse. Lehrkräfte benötigen entsprechende Fortbildungen und Unterstützung, um diese Themen kompetent vermitteln zu können.

Für Eltern und Erziehungsberechtigte

Eltern müssen einen schwierigen Balanceakt meistern: Schutz bieten ohne zu überwachen, Freiräume gewähren ohne zu vernachlässigen. Dies beginnt mit der Reflexion des eigenen digitalen Verhaltens. Sharenting sollte kritisch hinterfragt werden – jedes geteilte Foto ist eine Entscheidung über die digitale Zukunft des Kindes.

Die Entwicklung altersgerechter Medienvereinbarungen gemeinsam mit den Kindern fördert Verantwortungsbewusstsein mehr als einseitige Verbote. Regelmäßige, offene Gespräche über Online-Erfahrungen schaffen Vertrauen und ermöglichen es Kindern, bei Problemen Hilfe zu suchen. Eltern sollten sich kontinuierlich weiterbilden, um die digitale Welt ihrer Kinder zu verstehen, ohne in Panik zu verfallen.

Für Technologieunternehmen

Die Verantwortung von EdTech-Anbietern und Social-Media-Plattformen geht weit über rechtliche Compliance hinaus. Privacy by Design muss von Anfang an mitgedacht werden, besonders bei Produkten für Minderjährige. Dies bedeutet: Datenminimierung als Grundprinzip, keine Dark Patterns (→ siehe Kapitel 4.2), altersgerechte Einwilligungsverfahren.

Unternehmen sollten in die Entwicklung von Tools investieren, die Kindern mehr Kontrolle über ihre Daten geben. Dazu gehören verständliche Privacy Dashboards, einfache Löschmöglichkeiten und Mechanismen, die digitale Mündigkeit fördern statt zu untergraben. Die Zusammenarbeit mit Entwicklungspsychologen und Pädagogen bei der Produktentwicklung sollte Standard werden.

Für Politik und Gesetzgeber

Die rechtlichen Rahmenbedingungen müssen die entwicklungspsychologische Realität besser abbilden. Starre Altersgrenzen sollten durch flexiblere, an der tatsächlichen Reife orientierte Regelungen ersetzt werden. Das Recht auf Vergessenwerden (→ siehe Kapitel 6.2) für Jugendliche muss gestärkt werden – Jugendsünden dürfen nicht zu digitalen Brandmalen werden.

Investitionen in digitale Bildung müssen massiv erhöht werden. Dies umfasst nicht nur technische Ausstattung, sondern vor allem die Qualifizierung von Lehrkräften und die Entwicklung pädagogischer Konzepte. Aufsichtsbehörden sollten spezialisierte Abteilungen für Kinder- und Jugenddatenschutz einrichten, die präventiv beraten statt nur reaktiv sanktionieren.

Für Datenschutzbeauftragte

DSBs in Bildungseinrichtungen und Unternehmen mit jugendlichen Nutzern benötigen spezielle Kompetenzen. Die Kenntnis entwicklungspsychologischer Grundlagen ist ebenso wichtig wie juristisches Wissen. Sie sollten als Vermittler zwischen den verschiedenen Interessengruppen agieren und praktikable Lösungen entwickeln, die Schutz und Entwicklung gleichermaßen ermöglichen.

Die Entwicklung altersgerechter Datenschutzmaterialien und -schulungen ist eine zentrale Aufgabe. DSBs sollten eng mit Pädagogen zusammenarbeiten und ihre Expertise in die Gestaltung von Bildungsprogrammen einbringen. Regelmäßige Audits sollten nicht nur technische Compliance prüfen, sondern auch die tatsächlichen Auswirkungen auf die Entwicklung junger Menschen evaluieren.

Für Therapeuten und Beratungsstellen

Die psychologischen Folgen digitaler Datenschutzverletzungen werden oft unterschätzt. Therapeuten müssen sich mit neuen Störungsbildern wie digitalem PTSD, Cybermobbing-Traumata oder Social-Media-Sucht auseinandersetzen. Die Entwicklung spezifischer Interventionen und Therapieansätze ist dringend notwendig.

Präventive Programme, die Resilienz gegen digitale Stressoren aufbauen, sollten ausgebaut werden. Die Zusammenarbeit mit Schulen und Eltern ist essentiell, um gefährdete Kinder frühzeitig zu identifizieren und zu unterstützen. Niedrigschwellige Beratungsangebote, auch online, können Hemmschwellen abbauen.


Der Schutz und die Befähigung junger Menschen im digitalen Zeitalter ist eine gesamtgesellschaftliche Aufgabe. Nur durch das koordinierte Zusammenwirken aller Akteure kann es gelingen, eine Generation heranzubilden, die kompetent, selbstbestimmt und sicher in der digitalen Welt agiert. Die Zeit drängt – jeder Tag ohne angemessene Maßnahmen bedeutet, dass mehr Kinder digitale Verletzungen erleiden, die sie möglicherweise ein Leben lang begleiten.


Quellenangaben für Kapitel 12.3:

Aguilar, S. J., Karabenick, S. A., Teasley, S. D., & Baek, C. (2021). Associations between learning analytics dashboard exposure and motivation and self-regulated learning. Computers & Education, 162, 104085.

Baker, R. S., & Hawn, A. (2021). Algorithmic bias in education. International Journal of Artificial Intelligence in Education, 31(4), 1052-1092.

Bitkom. (2022). Digitale Schule – Digitales Leben: Lehrkräfte-Umfrage zur Digitalisierung. Bitkom e.V.

Blum-Ross, A., & Livingstone, S. (2017). “Sharenting,” parent blogging, and the boundaries of the digital self. Popular Communication, 15(2), 110-125.

Chen, B., & Shi, Z. (2019). Meta-analysis of digital citizenship education programs: Impact on knowledge, skills, and participation. Educational Technology Research and Development, 67(5), 1201-1223.

Europäische Kommission. (2019). Special Eurobarometer 487a: The General Data Protection Regulation. European Union.

Gossen, T., Höbel, J., & Nürnberger, A. (2021). Guiding children’s internet use: A comparison of children’s and adults’ search behavior. International Journal of Child-Computer Interaction, 29, 100304.

Henry, N., McGlynn, C., Flynn, A., Johnson, K., Powell, A., & Scott, A. J. (2020). Image-based sexual abuse: A study on the causes and consequences of non-consensual nude or sexual imagery. Routledge.

Hoofnagle, C. J., King, J., Li, S., & Turow, J. (2010). How different are young adults from older adults when it comes to information privacy attitudes and policies? SSRN Electronic Journal.

Human Rights Watch. (2022). “How Dare They Peep into My Private Life?”: Children’s Rights Violations by Governments that Endorsed Online Learning during the Covid-19 Pandemic. Human Rights Watch.

Kowalski, R. M., Giumetti, G. W., Schroeder, A. N., & Lattanner, M. R. (2019). Bullying in the digital age: A critical review and meta-analysis of cyberbullying research among youth. Psychological Bulletin, 140(4), 1073-1137.

Livingstone, S., & Byrne, J. (2018). Parenting in the digital age: The challenges of parental responsibility in comparative perspective. In G. Mascheroni, C. Ponte, & A. Jorge (Eds.), Digital parenting: The challenges for families in the digital age (pp. 19-30). Nordicom.

Pardo, A., & Siemens, G. (2014). Ethical and privacy principles for learning analytics. British Journal of Educational Technology, 45(3), 438-450.

Thakor, T., & Ganesan, S. (2020). Dark patterns in children’s apps: Exploring manipulative design features. International Journal of Mobile Human Computer Interaction, 12(4), 51-67.