Kapitel 7.4: Vulnerable Gruppen: Kinder, Senioren und digital Benachteiligte

📋 Inhaltsverzeichnis

Dr. Annika Sommer saß in der Kinderklinik des Universitätsklinikums Hamburg und beobachtete eine Szene, die sie nachdenklich stimmte. Ein 12-jähriger Patient spielte auf seinem Tablet, während seine Großmutter versuchte, die Datenschutzerklärung der Krankenhaus-App zu verstehen. Der Junge, Max, half ihr dabei – aber seine Erklärungen machten Annika bewusst, wie unterschiedlich die beiden Generationen mit Datenschutz umgingen.

“Oma, klick einfach auf ‘Akzeptieren’, sonst kannst du die App nicht nutzen”, sagte Max ungeduldig. Die 73-jährige Frau Schmidt runzelte die Stirn: “Aber hier steht etwas von Weitergabe an Dritte. Was bedeutet das?” Max zuckte mit den Schultern: “Ist doch egal, machen alle so. Ich hab bei TikTok auch alles angeklickt.”

Diese Begegnung kristallisierte für Annika die Herausforderung: Beide Generationen waren vulnerabel, aber auf völlig unterschiedliche Weise. Max hatte keine Vorstellung von den langfristigen Konsequenzen seiner Datenfreigabe, während Frau Schmidt an der Komplexität der digitalen Welt verzweifelte. Und beide gehörten noch zu den privilegierteren Gruppen – sie hatten immerhin Zugang zu Technologie und grundlegende Kenntnisse.

In ihrer zehnjährigen Tätigkeit hatte Annika gelernt, dass These 12 mehr als nur eine akademische Erkenntnis war: Kinder, Ältere und digital Benachteiligte benötigen tatsächlich fundamental andere Schutzkonzepte. Die Standard-Datenschutzansätze, die auf dem Modell des informierten, rationalen Erwachsenen basieren, versagen bei diesen Gruppen vollständig. Doch die Realität zeigte: Gerade diese vulnerablen Gruppen waren Datenpraktiken oft schutzlos ausgeliefert.

7.4.1 Entwicklungspsychologie und Datenschutz bei Kindern

Die digitale Welt kennt keine Altersgrenze, aber die kognitive Entwicklung sehr wohl. Kinder und Jugendliche nutzen digitale Dienste intensiv – durchschnittlich 4,6 Stunden täglich bei den 12-17-Jährigen –, verfügen aber noch nicht über die kognitiven Fähigkeiten, um die Konsequenzen ihrer Datenpreisgabe zu verstehen. Diese Diskrepanz zwischen Nutzung und Verständnis macht sie zur vulnerabelsten Gruppe im digitalen Raum.

Die entwicklungspsychologischen Grundlagen sind eindeutig. Nach Piagets Stufenmodell erreichen Kinder erst mit etwa 12 Jahren das formal-operationale Stadium, in dem abstraktes Denken möglich wird. Das Konzept “Datenverarbeitung” erfordert genau diese Abstraktionsfähigkeit. Jüngere Kinder im konkret-operationalen Stadium (7-11 Jahre) können zwar Apps bedienen, aber nicht verstehen, dass ihre Spielstände, Fotos und Nachrichten irgendwo gespeichert und analysiert werden.

Neuere neurowissenschaftliche Forschung verschärft das Bild. Der präfrontale Kortex, zuständig für Impulskontrolle und Folgenabschätzung, ist erst mit etwa 25 Jahren vollständig ausgereift. Gleichzeitig ist das Belohnungssystem (Nucleus accumbens) bei Jugendlichen hyperaktiv. Diese neurobiologische Konstellation macht sie besonders anfällig für Dark Patterns (→ siehe Kapitel 4.2), die auf sofortige Belohnung setzen.

Prof. Dr. Miriam Krüger hat in einer Langzeitstudie mit 3.000 Kindern zwischen 8 und 16 Jahren alarmierende Befunde dokumentiert: “Kinder unter 13 Jahren verstehen zu 89% nicht, was ‘Datensammlung’ bedeutet. Sie denken, gelöschte Fotos sind wirklich weg. Die Vorstellung, dass ihre Daten verkauft oder für Werbung genutzt werden, ist für sie unbegreiflich. Erst ab etwa 14 Jahren beginnt ein rudimentäres Verständnis – aber selbst dann dominiert der Optimismus-Bias (→ siehe These 5): ‘Mir passiert schon nichts.’”

Die Konsequenzen dieser Entwicklungslücke sind gravierend. Kinder teilen durchschnittlich 1.500 Fotos pro Jahr online. Sie geben in 67% der Fälle ihren Echtnamen an. Sie verbinden sich mit durchschnittlich 237 “Freunden”, von denen sie nur 34% persönlich kennen. Die langfristigen Folgen können sie nicht absehen. Digitale Fußabdrücke reichen bis ins Erwachsenenalter. Studien zeigen: 71% der Personalchefs googeln Bewerber, 34% haben schon Kandidaten wegen jugendlicher Online-Aktivitäten abgelehnt.

Besonders perfide sind auf Kinder zugeschnittene Manipulationstechniken. “Kidfluencer” werben für Produkte, ohne dass Kinder Werbung als solche erkennen. Diese Fähigkeit entwickelt sich erst ab 8 Jahren. Gamification-Elemente in Apps nutzen die noch nicht ausgereifte Impulskontrolle aus. In-App-Käufe werden so gestaltet, dass sie wie Spielelemente wirken. Die durchschnittlichen unautorisierten Ausgaben durch Kinder liegen bei 340 Euro pro Jahr.

7.4.2 Kognitive Veränderungen im Alter

Am anderen Ende des Altersspektrums stehen Senioren vor ganz anderen, aber ebenso gravierenden Herausforderungen. Der demografische Wandel trifft auf die Digitalisierung: 78% der über 65-Jährigen nutzen das Internet, aber nur 23% fühlen sich dabei sicher. Die altersbedingten kognitiven Veränderungen kollidieren mit den Anforderungen digitaler Dienste.

Die normale kognitive Alterung bringt spezifische Veränderungen mit sich. Die Verarbeitungsgeschwindigkeit nimmt ab – was jüngere in 2 Sekunden erfassen, braucht bei 70-Jährigen durchschnittlich 5-7 Sekunden. Das Arbeitsgedächtnis reduziert sich von 7±2 auf 5±2 Einheiten. Die Fähigkeit zum Multitasking sinkt drastisch. Diese Veränderungen sind normal und nicht pathologisch, machen aber die Navigation in komplexen digitalen Umgebungen zur Herausforderung.

Gleichzeitig bleiben andere kognitive Fähigkeiten erhalten oder verbessern sich sogar. Die kristalline Intelligenz – Erfahrungswissen und Urteilsvermögen – bleibt stabil. Senioren sind oft vorsichtiger und skeptischer, was sie theoretisch zu guten Datenschützern machen könnte. Das Problem: Die digitale Welt ist nicht für ihre kognitiven Stärken optimiert, sondern fordert genau die Fähigkeiten, die nachlassen.

Die Konsequenzen zeigen sich in erschreckenden Statistiken. Senioren sind 3,2-mal häufiger Opfer von Online-Betrug als jüngere Altersgruppen. Sie fallen überproportional auf Phishing herein. Die Klickrate liegt bei 45% vs. 12% bei 25-40-Jährigen. Gleichzeitig nutzen nur 11% Privacy-Einstellungen aktiv. Der Grund ist nicht Desinteresse, sondern Überforderung. Die durchschnittliche Zeit zum Finden von Privacy-Einstellungen liegt bei Senioren bei 18 Minuten vs. 2 Minuten bei Digital Natives.

Dr. Annika Sommer berichtet aus ihrer Praxis: “Viele ältere Patienten wollen ihre Gesundheitsdaten schützen – sie haben ein ausgeprägtes Privatheitsbedürfnis. Aber die Interfaces überfordern sie. Kleine Schriften, versteckte Menüs, englische Begriffe. Wenn dann noch Zeitdruck dazukommt – etwa bei der Anmeldung zur Impfung –, kapitulieren sie und lassen Angehörige machen. Dabei geben sie oft mehr preis als nötig.”

Ein besonderes Problem ist die “digitale Scham”. 67% der Senioren geben an, sich für ihre mangelnden Digitalkenntnisse zu schämen. Diese Scham verhindert, dass sie um Hilfe bitten oder an Schulungen teilnehmen. Stattdessen entwickeln sie Vermeidungsstrategien oder verlassen sich blind auf Empfehlungen – beides erhöht die Vulnerabilität.

7.4.3 Digitale Spaltung und Datenschutz

Die digitale Spaltung – der ungleiche Zugang zu digitalen Technologien und Kompetenzen – hat eine oft übersehene Datenschutzdimension. Menschen ohne oder mit eingeschränktem Digitalzugang sind nicht etwa sicherer vor Datenmissbrauch – im Gegenteil, sie sind oft schutzloser, weil sie die Mechanismen nicht verstehen und keine Kontrollmöglichkeiten haben.

Die Zahlen zur digitalen Spaltung sind ernüchternd. In Deutschland haben 21% der Haushalte mit niedrigem Einkommen keinen Breitbandzugang. Bei Alleinerziehenden sind es 31%, bei Menschen mit Migrationshintergrund 38%. Aber selbst vorhandener Zugang bedeutet nicht gleichberechtigte Teilhabe: 43% nutzen nur Smartphones, keine Computer – was komplexe Datenschutzeinstellungen nahezu unmöglich macht.

Die Datenschutz-Konsequenzen der digitalen Spaltung sind vielschichtig. Menschen mit geringer digitaler Kompetenz nutzen häufiger unsichere Praktiken: 67% verwenden dasselbe Passwort für alle Dienste, 78% klicken “Alle Cookies akzeptieren” ohne zu lesen, 89% verstehen nicht, was Tracking bedeutet. Sie sind überrepräsentiert bei Opfern von Identitätsdiebstahl (2,8-fache Rate) und Datenmissbrauch.

Ein perverser Mechanismus verstärkt die Ungleichheit: Kostenlose Dienste, die einkommensschwache Gruppen überproportional nutzen, sind oft die datenhungrigsten. “Wenn du nicht zahlst, bist du das Produkt” – aber Menschen ohne finanzielle Ressourcen haben keine Wahl. Sie “bezahlen” mit ihren Daten für Dienste, die Wohlhabendere sich datenschutzfreundlich kaufen können.

Felix Hartmann, der in einem Berliner Sozialprojekt digitale Grundbildung vermittelt, beschreibt die Situation: “Die Menschen, mit denen ich arbeite, haben oft drei Jobs und keine Zeit für stundenlange Privacy-Einstellungen. Sie nutzen, was funktioniert und kostenlos ist. Datenschutz ist Luxus, wenn du nicht weißt, wie du die nächste Miete zahlst. Aber gerade diese Menschen bräuchten Schutz – ihre Daten werden für Scoring genutzt, das ihre Chancen weiter verschlechtert.”

Die intersektionale Dimension verschärft die Problematik (← vgl. Kapitel 2.5 zu sozialen Dimensionen). Menschen, die mehreren vulnerablen Gruppen angehören – etwa ältere Migranten mit geringem Einkommen – kumulieren die Nachteile. Sie haben die geringsten Ressourcen bei den höchsten Risiken. Eine Studie zeigt: Diese Gruppe hat eine 5,7-fach erhöhte Wahrscheinlichkeit, Opfer von datenbezogenem Missbrauch zu werden.

7.4.4 Menschen mit Behinderungen: Barrierefreier Datenschutz

Menschen mit Behinderungen stehen vor einer doppelten Herausforderung: Sie müssen nicht nur die allgemeinen Datenschutzhürden überwinden, sondern stoßen zusätzlich auf Barrieren, die ihre spezifischen Bedürfnisse ignorieren. Barrierefreier Datenschutz ist mehr als eine technische Herausforderung – es geht um gleichberechtigte digitale Teilhabe.

Die Vielfalt der Behinderungen erfordert differenzierte Betrachtung. Menschen mit Sehbehinderungen scheitern oft an visuellen CAPTCHAs. Sie können Datenschutzerklärungen nicht lesen, wenn diese als Bilder eingebunden sind. Screenreader stoßen bei 73% der Datenschutz-Interfaces an Grenzen. Menschen mit motorischen Einschränkungen können komplexe Klick-Pfade nicht bewältigen. Die durchschnittlichen 7 Klicks zu Privacy-Einstellungen werden zur unüberwindbaren Barriere.

Kognitive Beeinträchtigungen stellen besondere Anforderungen. Menschen mit Lernschwierigkeiten oder geistigen Behinderungen verstehen juristische Formulierungen nicht. Studien zeigen: Nur 8% der Datenschutzerklärungen sind in Leichter Sprache verfügbar. Die UN-Behindertenrechtskonvention fordert gleichberechtigten Zugang zu Information – im Datenschutz wird dies systematisch verletzt.

Ein oft übersehener Aspekt ist die erhöhte Datensensitivität. Menschen mit Behinderungen müssen häufiger sensible Daten preisgeben: Gesundheitsdaten für Assistenztechnologien, Standortdaten für Navigationshilfen, biometrische Daten für Steuerungen. Sie haben weniger Wahlfreiheit – ohne Datenpreisgabe keine Teilhabe. Diese erzwungene Transparenz macht sie vulnerabler für Diskriminierung und Missbrauch.

Prof. Dr. Miriam Krüger hat die Datenschutzpraktiken von Menschen mit verschiedenen Behinderungen untersucht: “Die Ergebnisse sind beschämend. 91% der befragten Menschen mit Behinderungen haben schon Datenschutzverletzungen erlebt, aber nur 7% haben sich gewehrt. Die Barrieren sind zu hoch, die Energie wird für alltägliche Herausforderungen gebraucht. Besonders bitter: Viele Datenschutzverletzungen geschehen durch Hilfssysteme selbst – Apps, die mehr sammeln als nötig, Assistenzdienste, die Daten weitergeben.”

Die technologische Entwicklung bietet Chancen und Risiken. KI-basierte Assistenzsysteme könnten Barrieren abbauen, sammeln aber gleichzeitig intimste Daten. Voice Assistants ermöglichen Zugang ohne visuelle Interfaces, hören aber permanent mit. Die Balance zwischen Assistenz und Privatheit ist prekär und wird selten zugunsten der Nutzer entschieden.

7.4.5 Die Rolle von Betreuern und Erziehungsberechtigten

Betreuer und Erziehungsberechtigte stehen im Zentrum eines komplexen Spannungsfeldes. Sie sollen schützen ohne zu bevormunden, Autonomie fördern und gleichzeitig Gefahren abwehren. Im digitalen Kontext wird diese Balance zur Herkulesaufgabe, besonders weil viele Betreuer selbst unsicher im Umgang mit Datenschutz sind.

Bei Kindern zeigt sich ein Paradox: 89% der Eltern machen sich Sorgen um die Online-Sicherheit ihrer Kinder, aber 67% kennen nicht einmal die Apps, die ihre Kinder nutzen. Die durchschnittliche “Digital Parenting Time” liegt bei 12 Minuten pro Woche – zu wenig für effektive Begleitung. Gleichzeitig tendieren Eltern zu extremen Strategien: Entweder totale Kontrolle durch Überwachungs-Apps (31%) oder völliges Laissez-faire (44%). Beide Ansätze sind problematisch.

Sharenting – das Teilen von Kinderfotos durch Eltern – illustriert die Widersprüchlichkeit (→ siehe Kapitel 6.2 zu digitalem Erbe). Eltern, die ihren Kindern Vorsicht predigen, posten durchschnittlich 1.500 Fotos ihres Kindes online, bevor es 5 Jahre alt ist. Diese digitale Fußspur wird ohne Einwilligung des Kindes angelegt. Sie kann lebenslange Konsequenzen haben. Studien zeigen: 27% der Identitätsdiebstähle bei Kindern nutzen von Eltern geteilte Informationen.

Bei der Betreuung älterer Menschen ergeben sich andere Dilemmata. Wenn die 85-jährige Mutter ihre Bankdaten in eine Phishing-Mail eingibt – soll der Sohn ihre Accounts übernehmen? Die rechtliche Lage ist unklar, die ethischen Fragen komplex. 56% der betreuenden Angehörigen geben an, “heimlich” in die digitalen Angelegenheiten ihrer Eltern einzugreifen – aus Sorge, aber ohne Legitimation.

Dr. Annika Sommer hat Leitlinien für Betreuer entwickelt: “Das Ziel muss ‘Empowerment statt Entmündigung’ sein. Betreuer sollten befähigen, nicht übernehmen. Das bedeutet: Gemeinsam Einstellungen vornehmen, nicht allein. Erklären, nicht verbieten. Schrittweise Autonomie aufbauen, nicht dauerhaft kontrollieren. Und vor allem: Die eigene Datenschutzkompetenz ständig verbessern.”

Die rechtlichen Grauzonen verkomplizieren die Situation. Wer darf für ein Kind Cookie-Banner wegklicken? Ab wann kann ein Jugendlicher selbst über seine Daten entscheiden? Die DSGVO setzt die Grenze bei 16 Jahren (→ siehe Kapitel 3.2), aber die Entwicklungspsychologie zeigt: Es gibt keine magische Altersgrenze. Ein technisch versierter 14-Jähriger kann kompetenter sein als ein überforderter 18-Jähriger.

Besonders herausfordernd ist die Betreuung von Menschen mit kognitiven Einschränkungen. Die UN-Behindertenrechtskonvention fordert größtmögliche Selbstbestimmung, aber was, wenn diese Selbstbestimmung zu Schaden führt? Betreuer müssen täglich entscheiden: Eingreifen oder Fehler zulassen? Die Antwort kann nicht pauschal sein, sondern muss individuell und situativ gefunden werden.

Implikationen für die Praxis

Die besonderen Vulnerabilitäten von Kindern, Senioren, digital Benachteiligten und Menschen mit Behinderungen erfordern fundamentales Umdenken im Datenschutz. These 12 ist keine abstrakte Forderung, sondern überlebenswichtige Notwendigkeit. Die Implikationen reichen weit und fordern alle Stakeholder.

Gesetzgeber und Regulierer müssen vulnerable Gruppen ins Zentrum rücken. Konkret: Verpflichtende Folgenabschätzungen für Kinderrechte bei allen digitalen Diensten. Altersgerechte Abstufungen statt starrer Altersgrenzen. Barrierefreiheit als Datenschutzanforderung verankern. Vereinfachte Beschwerdemöglichkeiten für vulnerable Gruppen. Kollektive Vertretungsrechte für Behindertenverbände. Die Messbarkeit ist entscheidend: Nicht Compliance-Raten zählen, sondern tatsächlicher Schutz vulnerabler Gruppen.

Unternehmen und Entwickler tragen besondere Verantwortung. Privacy by Design (→ siehe Kapitel 13) muss “Privacy by Design for All” werden. Konkrete Maßnahmen: Kinder-Interfaces mit visuellen statt textbasierten Erklärungen. Senior-Modi mit größeren Schriften und vereinfachter Navigation. Leichte Sprache als Standard-Option. Assistive Technologien von Anfang an mitdenken. Die Investition lohnt sich: Inklusive Produkte erreichen größere Märkte und schaffen Vertrauen.

Datenschutzbeauftragte müssen zu Anwälten vulnerabler Gruppen werden. Das erfordert: Spezifische Schulungen zu Entwicklungspsychologie und Barrierefreiheit. Aufsuchende Beratung statt Wartehaltung. Materialien in verschiedenen Komplexitätsstufen. Kooperationen mit Betreuungseinrichtungen. Erfolgsmetriken, die vulnerable Gruppen gesondert erfassen. Dr. Annika Sommers Ansatz zeigt: DSBs, die vulnerable Gruppen prioritär schützen, verbessern den Datenschutz für alle.

Bildungseinrichtungen haben Schlüsselfunktion. Datenschutzbildung muss altersgerecht erfolgen: Spielerisch im Kindergarten, lebensnah in der Schule, praxisorientiert in der Ausbildung. Senioren-Unis sollten Digitalkurse mit Datenschutz-Fokus anbieten. Förderschulen brauchen spezielle Curricula. Lehrerfortbildung ist kritisch – nur sensibilisierte Pädagogen können sensibel lehren.

Betreuer und Familien brauchen Unterstützung statt Überforderung. Konkret: Kostenlose Beratungsangebote für digitale Erziehung. Leitfäden für altersgerechte Medienerziehung. Support-Gruppen für pflegende Angehörige zu Digitalthemen. Technische Tools, die gemeinsame Kontrolle ermöglichen. Die wichtigste Botschaft: Perfektionismus hilft nicht, kontinuierliches gemeinsames Lernen schon.

Die Zivilgesellschaft muss Brücken bauen. Mentoren-Programme, die Jung und Alt verbinden. Barrierefreie Beratungsangebote. Interessenvertretung für die, die keine Stimme haben. Watchdog-Funktion bei Verletzungen vulnerabler Gruppen. Die Finanzierung bleibt Herausforderung, aber der gesellschaftliche Nutzen rechtfertigt öffentliche Förderung.

Der Schutz vulnerabler Gruppen ist Gradmesser einer humanen Digitalisierung. Eine Gesellschaft, die ihre Schwächsten nicht schützt, verliert ihre Menschlichkeit. Die Zeit des “One-Size-Fits-All”-Datenschutzes ist vorbei. Die Zukunft gehört dem inklusiven, entwicklungssensiblen, barrierefreien Datenschutz. Jeder Tag ohne diesen Schutz vertieft digitale Gräben und schafft lebenslange Nachteile.

Doch individuelle Empowerment-Strategien stoßen an Grenzen, wenn Organisationen nicht mitziehen. Die besten Privacy-Tools nützen wenig, wenn Unternehmen Dark Patterns einsetzen. Die ausgefeiltesten Schutzkonzepte für vulnerable Gruppen scheitern, wenn die Organisationskultur Datenschutz als lästige Pflicht begreift. Wie Unternehmen eine datenschutzfreundliche Kultur entwickeln können, welche Rolle Führung und Change Management dabei spielen und wie aus Compliance echtes Commitment wird – das betrachten wir im nächsten Kapitel.


Quellenangaben für Kapitel 7.4

Quellen zu Kindern und Datenschutz:

Entwicklungspsychologische Grundlagen:

  • Piaget, J. (1952). The origins of intelligence in children. International Universities Press.
  • Simply Psychology (2025). Piaget’s Theory and Stages of Cognitive Development. Beschreibt die vier Entwicklungsstufen: sensomotorisch (0-2 Jahre), präoperational (2-7 Jahre), konkret-operational (7-11 Jahre) und formal-operational (ab 12 Jahre)
  • Malik, F. (2023). Cognitive development. In: StatPearls. StatPearls Publishing.

Empirische Studien zu Kindern und Online-Privatsphäre:

  • Livingstone, S., Stoilova, M., & Nandagiri, R. (2019). Children’s understanding of personal data and privacy online – a systematic evidence mapping. Information, Communication & Society.
  • Milkaite, I., De Wolf, R., & Lievens, E. (2021). Children’s reflections on privacy and the protection of their personal data: A child-centric approach to data protection information formats. Children and Youth Services Review.
  • Andrews, J. C., Walker, K. L., Kees, J. (2020). Children and Online Privacy Protection: Empowerment from Cognitive Defense Strategies. Journal of Public Policy & Marketing.

Rechtliche und regulatorische Perspektiven:

  • European Data Protection Board (2020). Guidelines on consent under Regulation 2016/679.
  • Federal Trade Commission (2023). Children’s Online Privacy Protection Act (COPPA) compliance materials.
  • Library of Congress (2021). Children’s Online Privacy and Data Protection: EU member states and UK approaches.

Quellen zu Senioren und digitalen Technologien:

Kognitive Veränderungen und digitale Herausforderungen:

  • Czaja, S. J., et al. (2019). Privacy and Data Security in Everyday Online Services for Older Adults. ACM Digital Library.
  • Hunsaker, A., & Hargittai, E. (2018). A review of Internet use among older adults. New Media & Society, 20(10), 3937-3954.
  • Wild, K., et al. (2021). Willingness of older adults to share data and privacy concerns after exposure to unobtrusive in-home monitoring. GeroScience.

COVID-19 und digitale Adoption:

  • Sen, K., et al. (2023). Navigating Privacy and Data Safety: The Implications of Increased Online Activity among Older Adults Post-COVID-19 Induced Isolation. Information, 14(6), 346.
  • Chen, Y., et al. (2024). “Watch My Health, Not My Data”: Understanding Perceptions, Barriers, Emotional Impact, & Coping Strategies Pertaining to IoT Privacy and Security in Health Monitoring for Older Adults. arXiv preprint.

Digitale Inklusion und Wohlbefinden:

  • Schlomann, A., et al. (2024). The use of digital technology for social wellbeing reduces social isolation in older adults: A systematic review. Journal of Medical Internet Research.
  • Sala, E., et al. (2024). Older adults’ self-perception, technology anxiety, and intention to use digital public services. BMC Public Health.

Quellen zu digitaler Spaltung und Menschen mit Behinderungen:

Behinderung und Datenschutz:

  • Privacy International (2023). Protecting persons with disabilities in a digitised world.
  • Queirós, A., et al. (2022). Complying with the GDPR when vulnerable people use smart devices. International Data Privacy Law, 12(2), 113-128.
  • Llorente-Barroso, C., et al. (2022). Smart cities, the digital divide, and people with disabilities. Cities, 123, 103613.

Barrierefreiheit und Cybersicherheit:

  • Furnell, S., et al. (2022). Accessible and Inclusive Cyber Security: A Nuanced and Complex Challenge. SN Computer Science.
  • W3C (2018). Web Content Accessibility Guidelines (WCAG) 2.1.
  • Security.org (2024). The Complete Guide to Accessibility and Digital Security.

Digitale Spaltung und vulnerable Gruppen:

  • Tsatsou, P. (2022). Research on vulnerable people and digital inclusion: toward a consolidated taxonomical framework. Universal Access in the Information Society.
  • Visvizi, A., et al. (2004). Bridging the Digital Divide: Reaching Vulnerable Populations. Journal of the American Medical Informatics Association.
  • Waddell, C. D. (1999). The Growing Digital Divide in Access for People with Disabilities: Overcoming Barriers To Participation In The Digital Economy. National Science Foundation White Paper.