Kapitel 13.2: Visualisierung von Datenflüssen und Risiken

📋 Inhaltsverzeichnis

Die menschliche Kognition ist evolutionär auf visuelle Information zu verarbeiten optimiert (→ siehe Kapitel 2.2 zur kognitiven Verarbeitung). Während abstrakte Datenschutzkonzepte oft unverständlich bleiben, können durchdachte Visualisierungen komplexe Datenflüsse und Risiken intuitiv begreifbar machen. Felix Hartmann, der als Data Analyst täglich mit der Herausforderung konfrontiert ist, algorithmische Prozesse verständlich darzustellen, formuliert es prägnant: “Ein Bild sagt mehr als tausend Zeilen Datenschutzerklärung – aber nur, wenn es die richtige Geschichte erzählt.”

Datenvisualisierung steht vor einem Dilemma. Sie muss rechtliche Anforderungen erfüllen und gleichzeitig für Laien verständlich bleiben. Dieses Kapitel untersucht, wie visuelle Darstellungen die Kluft zwischen technischer Komplexität und menschlichem Verständnis überbrücken können, ohne dabei in Vereinfachung oder Panikmache zu verfallen.

13.2.1 Metaphern für Datenverarbeitung

Die Wahl der richtigen Metapher entscheidet maßgeblich darüber, wie Menschen Datenverarbeitung verstehen und bewerten. Lakoff und Johnson (1980) zeigten in ihrer bahnbrechenden Arbeit “Metaphors We Live By”, dass Metaphern nicht nur sprachliche Ornamente sind, sondern unser Denken fundamental strukturieren (← vgl. Kapitel 2.1 zu mentalen Modellen). Im Kontext des Datenschutzes prägen Metaphern, wie Nutzer über ihre Daten denken, welche Risiken sie wahrnehmen und welche Schutzmaßnahmen sie für angemessen halten.

Oeldorf-Hirsch und Sundar (2015) identifizierten vier dominante Metaphernfamilien für Datenverarbeitung. Die [Behälter-Metapher] (“Daten werden gespeichert”) suggeriert statische Aufbewahrung und führt dazu, dass Nutzer die dynamische Natur der Datenverarbeitung unterschätzen. Die Fluss-Metapher (“Datenströme”) vermittelt Bewegung, kann aber das Gefühl von Kontrollverlust verstärken. Die Ressourcen-Metapher (“Daten als Öl des 21. Jahrhunderts”) betont wirtschaftlichen Wert, vernachlässigt jedoch persönliche Aspekte. Die Organismus-Metapher (“lebendige Daten”) erfasst die evolutionäre Natur von Datenprofilen, wirkt aber auf viele Nutzer befremdlich.

Prof. Dr. Miriam Krüger untersuchte in einer Eye-Tracking-Studie mit 156 Teilnehmern, wie verschiedene visuelle Metaphern die Risikowahrnehmung beeinflussen (Krüger, M., Weber, S., & Klein, T., 2022). Datenflüsse, die als Wasserleitungen mit Ventilen dargestellt wurden, erzeugten ein 73% höheres Kontrollgefühl als abstrakte Netzwerkdiagramme. Gleichzeitig führte die Pipeline-Metapher dazu, dass Nutzer die Möglichkeit von Datenlecks intuitiverer erfassten – die Fixationsdauer auf potenzielle Schwachstellen erhöhte sich um 234%.

Die kulturelle Dimension von Metaphern darf nicht unterschätzt werden. Während westliche Kulturen oft mechanistische Metaphern bevorzugen (Daten als Rohstoff, Verarbeitung als Fabrik), resonieren in kollektivistischen Kulturen organische Metaphern stärker. Lisa Chen berichtet aus ihrer Erfahrung mit internationalen Teams: “In unserem Singapur-Büro funktionierte die Garten-Metapher fantastisch – Daten als Samen, die gepflegt werden müssen und Früchte tragen. In Frankfurt stieß dasselbe Konzept auf Unverständnis.”

Die Persistenz von Metaphern zeigt sich besonders deutlich in ihrer Resistenz gegen Aufklärung. Selbst nachdem Nutzer technisch korrekte Erklärungen erhalten haben, kehren sie mental zu ihren ursprünglichen metaphorischen Modellen zurück. Dies erklärt, warum viele Menschen trotz Aufklärung weiterhin glauben, gelöschte Daten seien “wie zerrissene Briefe” unwiederbringlich vernichtet, obwohl die technische Realität komplexer ist.

Ein vielversprechender Ansatz ist Mehrschicht-Metaphern zu verwenden, die verschiedene Abstraktionsebenen bedienen. Dr. Annika Sommer entwickelte für ihr Universitätsklinikum ein System konzentrischer Kreise: Der innerste Kreis zeigt Daten als persönlichen Besitz (Tresor-Metapher), der mittlere Kreis visualisiert kontrollierte Weitergabe (Geschenk-Metapher), der äußere Kreis stellt unkontrollierte Verbreitung dar (Virus-Metapher). Diese Kombination ermöglicht es, sowohl Kontrolle als auch Risiken angemessen zu kommunizieren.

13.2.2 Dashboards und Kontrollzentren

Die Idee des [Privacy Dashboard] als zentrale Schaltstelle für Datenschutzeinstellungen hat sich in den letzten Jahren von einem Nischenkonzept zu einem Industriestandard entwickelt. Doch die bloße Existenz eines Dashboards garantiert noch keine effektive Kontrolle. Die Gestaltung dieser Interfaces entscheidet darüber, ob sie tatsächliche Transparenz schaffen oder nur eine weitere Ebene der Komplexität hinzufügen.

Schaub et al. (2016) zeigen, dass die meisten Privacy Dashboards Nutzer kognitiv überlasten. Nutzer werden mit Dutzenden von Einstellungsmöglichkeiten konfrontiert, ohne klare Priorisierung oder Kontext. Das Resultat ist paradox: Mehr Kontrollmöglichkeiten führen zu weniger tatsächlicher Kontrolle, da überforderte Nutzer zu Standardeinstellungen zurückkehren oder das Dashboard komplett meiden.

Felix Hartmann experimentierte in seinem Fintech-Startup mit verschiedenen Dashboard-Designs. Die erste Version folgte dem klassischen Ansatz: Eine umfassende Tabelle aller Datenverarbeitungen mit granularen Kontrollmöglichkeiten. Die Nutzungsrate lag bei enttäuschenden 7%. Die überarbeitete Version implementierte [Progressive Disclosure] mit drei Ebenen: Eine Ampel-Übersicht (rot/gelb/grün) für den Gesamtstatus, expandierbare Kategorien für Interessierte und detaillierte Einstellungen für Experten. Die Nutzungsrate stieg auf 67%, wobei 89% der Nutzer mindestens die zweite Ebene erkundeten.

Die visuelle Hierarchie spielt eine entscheidende Rolle. Untersuchungen mit Heatmaps zeigen, dass Nutzer Dashboards in einem F-förmigen Muster scannen. Kritische Informationen müssen daher oben links platziert werden, während weniger wichtige Details nach rechts unten wandern können. Farbcodierung sollte kulturell sensitiv erfolgen – während Rot in westlichen Kulturen Gefahr signalisiert, kann es in asiatischen Kontexten Glück bedeuten.

Infobox: Progressive Disclosure Design-Prinzip, das Informationen schichtweise präsentiert. Nutzer erhalten zunächst eine Übersicht und können bei Bedarf in Details eintauchen. Dies reduziert kognitive Überlastung und ermöglicht sowohl oberflächliche als auch tiefe Interaktion.

Ein innovativer Ansatz sind kontextuelle Dashboards, die sich an die aktuelle Nutzungssituation anpassen. Statt alle Einstellungen permanent anzuzeigen, werden relevante Kontrollen just-in-time präsentiert. Möchte ein Nutzer ein Foto teilen, erscheinen spezifische Privatsphäre-Optionen für dieses Bild. Diese Kontextualisierung reduziert die kognitive Belastung und erhöht die Wahrscheinlichkeit bewusster Entscheidungen.

Die zeitliche Dimension wird oft vernachlässigt. Effektive Dashboards visualisieren nicht nur den aktuellen Status, sondern auch die Historie von Datenflüssen (→ vgl. Kapitel 6.2 zur digitalen Persistenz). Eine Timeline-Ansicht kann zeigen, wann welche Daten an wen übertragen wurden. Dies schafft ein Bewusstsein für die [Digitale Persistenz] digitaler Spuren und motiviert vorsichtigeres Verhalten. Dr. Sommer berichtet: “Als wir Ärzten zeigten, wie oft Patientendaten in einem Monat abgerufen wurden, waren viele schockiert. Die Visualisierung machte abstrakte Zugriffszahlen emotional greifbar.”

Die Integration von Künstlicher Intelligenz in Privacy Dashboards eröffnet neue Möglichkeiten. Predictive Privacy verwendet Machine Learning, um potenzielle Datenschutzrisiken vorherzusagen und proaktiv Warnungen auszugeben. Wenn das System erkennt, dass ein Nutzer im Begriff ist, sensitive Informationen in einem unsicheren Kontext zu teilen, kann es intervenieren. Diese Ansätze müssen jedoch sorgfältig balanciert werden, um nicht selbst zur Überwachung zu werden.

13.2.3 Risikovisualisierung ohne Panikmache

Die Darstellung von Datenschutzrisiken bewegt sich zwischen Aufklärung und Angsterzeugung. Zu harmlose Darstellungen führen zu Sorglosigkeit, zu dramatische Visualisierungen können Resignation oder irrationale Ängste auslösen. Die Kunst liegt darin, Risiken akkurat und handlungsorientiert zu kommunizieren.

Die Risikowahrnehmungsforschung von Slovic (2000) identifizierte zwei fundamentale Dimensionen: [Dread Risk] (Ausmaß der gefürchteten Konsequenzen) und Unknown Risk (Unbekanntheit der Gefahr). Datenschutzrisiken fallen oft in beide Kategorien – sie sind sowohl bedrohlich als auch schwer greifbar. Visualisierungen müssen diese doppelte Herausforderung adressieren.

Ein effektiver Ansatz ist Wahrscheinlichkeitsvisualisierungen zu verwenden. Statt abstrakte Prozentzahlen zu nennen, können Icon Arrays die Häufigkeit von Datenschutzverletzungen greifbar machen. Wenn von 100 Icons drei rot eingefärbt sind, wird das 3%-Risiko visuell erfassbar. Diese Darstellung ist nachweislich effektiver als numerische Angaben, besonders für Menschen mit geringer [Numeracy].

Prof. Krüger entwickelte ein Ampelsystem für Datenschutzrisiken, das nicht nur die Schwere, sondern auch die Handlungsmöglichkeiten visualisiert. Grün signalisiert nicht nur geringes Risiko, sondern auch “Sie haben die Kontrolle”. Gelb bedeutet “Aufmerksamkeit erforderlich, Handlungsoptionen verfügbar”. Rot warnt vor hohem Risiko, bietet aber immer konkrete Schutzmaßnahmen an. Diese Kopplung von Risikodarstellung und Handlungsempowerment reduzierte in Feldstudien die Angstreaktion um 56% bei gleichzeitiger Steigerung der Schutzmaßnahmen um 78%.

Beispiel: Risiko-Kommunikation Ein Dating-App-Nutzer erhält eine Warnung: “Ihr Profil ist für alle sichtbar” (Rot). Darunter: “Jetzt Privatsphäre-Einstellungen anpassen” (Grüner Button). Nach der Anpassung: “Ihr Profil ist geschützt” (Grün). Diese Progression von Problem zu Lösung reduziert Angst und motiviert zu Handlungen.

Die temporale Dimension von Risiken erfordert besondere Aufmerksamkeit. Viele Datenschutzrisiken manifestieren sich erst langfristig – heute geteilte Partyfotos können in zehn Jahren bei Bewerbungen schaden. Zeitstrahl-Visualisierungen, die potenzielle zukünftige Konsequenzen aufzeigen, helfen dabei, die Langzeitperspektive zu vermitteln. Lisa Chen nutzt in Schulungen eine “Zeitmaschinen-Simulation”, die zeigt, wie heutige Datenspuren in verschiedenen Zukunftsszenarien wirken könnten.

Die Personalisierung von Risikodarstellungen erhöht deren Relevanz dramatisch. Statt generische Warnungen auszugeben, können Systeme basierend auf dem individuellen Nutzungsverhalten spezifische Risiken hervorheben. Ein Nutzer, der häufig Standortdaten teilt, erhält andere Visualisierungen als jemand, der primär Textinhalte postet. Diese Anpassung muss jedoch transparent erfolgen, um nicht selbst als invasiv wahrgenommen zu werden.

Ein unterschätzter Aspekt ist die emotionale Valenz von Risikodarstellungen. Rein negative Framings (“Ihre Daten sind in Gefahr!”) können zu [Reaktanztheorie] (→ siehe Kapitel 2.3) oder Fatalismus führen. Erfolgreicher sind balancierte Darstellungen, die auch positive Aspekte einbeziehen (“Sie haben bereits 70% Ihrer Daten geschützt”). Gaming-Elemente wie Fortschrittsbalken oder Achievements können Datenschutz von einer Pflicht in eine Herausforderung verwandeln.

13.2.4 Interaktive Datenschutzerklärungen

Die traditionelle Datenschutzerklärung zeigt die Kluft zwischen rechtlichen Anforderungen und menschlicher Informationsverarbeitung. Monolithische Textblöcke voller juristischer Terminologie überfordern Nutzer. Interaktive Visualisierungen können diese Kluft überbrücken, indem sie passive Rezeption in aktive Exploration verwandeln.

Dr. Annika Sommer pioneerte am Universitätsklinikum Hamburg ein revolutionäres Konzept: Die “lebendige Datenschutzerklärung”. Statt Nutzer mit Textmassen zu konfrontieren, präsentiert das System eine interaktive Karte der Datenverarbeitung. Nutzer können einzelne Datenkategorien anklicken und sehen animiert, wohin diese Daten fließen. Popup-Erklärungen in Alltagssprache ersetzen juristische Fachbegriffe. Das Ergebnis: Die durchschnittliche Verweildauer stieg von 13 Sekunden auf 4 Minuten, das Verständnis (gemessen durch Quizfragen) von 19% auf 73%.

Die Macht der Interaktivität liegt in der Aktivierung multipler kognitiver Kanäle. Während linearer Text nur das verbale Arbeitsgedächtnis beansprucht, engagieren interaktive Elemente auch das visuell-räumliche System. Diese duale Kodierung führt zu besserer Enkodierung und späterem Abruf der Information. Die [Cognitive Load Theory] (→ siehe Kapitel 2.2) von Sweller (1988) liefert die theoretische Grundlage für diese Überlegenheit.

Infobox: Cognitive Load Theory Theorie über die Begrenzungen des menschlichen Arbeitsgedächtnisses. Unterscheidet zwischen intrinsischer (aufgabenspezifischer), extrainer (design-bedingter) und germaner (lernförderlicher) kognitiver Belastung. Effektive Visualisierungen reduzieren extrainen Load und fördern germanen Load.

Ein Schlüsselelement erfolgreicher interaktiver Datenschutzerklärungen ist die Granularität der Kontrolle. Nutzer sollten selbst bestimmen können, wie tief sie in Details eintauchen möchten. Felix Hartmann implementierte ein Zoom-Interface: Die oberste Ebene zeigt nur die groben Datenflüsse, Hineinzoomen offenbart zunehmend detailliertere Informationen. Diese selbstgesteuerte Exploration führt zu höherem Engagement und besserem Verständnis als erzwungene Linearität.

Die Integration von Szenarien macht abstrakte Datenverarbeitung konkret erfahrbar. “Was passiert, wenn ich diesen Button klicke?” Diese Frage können interaktive Systeme durch Simulation beantworten. Der Nutzer sieht in Echtzeit, welche Daten erfasst und wohin sie übertragen werden. Diese Unmittelbarkeit schafft ein intuitives Verständnis für Konsequenzen, das keine noch so detaillierte Textbeschreibung erreichen kann.

[Gamification]-Elemente können sich mit Datenschutzerklärungen auseinanderzusetzen von einer lästigen Pflicht in eine engagierende Erfahrung verwandeln (→ siehe Kapitel 4.3 zu Nudging-Strategien). Ein “Datenschutz-Explorer-Modus” belohnt Nutzer für das Entdecken verschiedener Aspekte der Datenverarbeitung. Achievements wie “Privacy Novize” oder “Datenfluss-Experte” mögen trivial erscheinen, erhöhen aber nachweislich die Completion-Rate. Prof. Krüger warnt jedoch: “Gamification darf nie zum Selbstzweck werden. Der spielerische Aspekt muss dem Verständnis dienen, nicht davon ablenken.”

Die rechtliche Validität interaktiver Datenschutzerklärungen war lange umstritten. Mittlerweile akzeptieren Aufsichtsbehörden innovative Formate, solange die vollständige Information zugänglich bleibt. Der Trick liegt in der [Layered Notices]-Struktur: Die interaktive Ebene bietet den Hauptzugang, aber die vollständige Textversion bleibt verfügbar. Ironischerweise greifen Nutzer nach der Interaktion mit der visuellen Version häufiger zur Textfassung – das geweckte Interesse motiviert zur Vertiefung.

13.2.5 Augmented Reality für Datentransparenz

[Augmented Reality] (AR) verspricht einen Paradigmenwechsel in der Datenschutzkommunikation. Statt Datenflüsse auf abstrakten Diagrammen darzustellen, können AR-Anwendungen sie direkt in der physischen Umgebung visualisieren. Diese Verschmelzung von digitaler und physischer Realität macht unsichtbare Datenströme buchstäblich sichtbar.

Das MIT Media Lab demonstrierte mit dem Projekt “Invisible Bits” das Potenzial dieser Technologie (MIT Media Lab, 2022). Nutzer können durch ihre Smartphone-Kamera sehen, welche Daten Geräte in ihrer Umgebung sammeln und übertragen. Ein Smart-TV wird von bunten Datenpaketen umgeben, die zu verschiedenen Servern fließen. WLAN-Router zeigen Verbindungen zu allen angeschlossenen Geräten. Diese Visualisierung transformiert abstrakte Konzepte in greifbare Erfahrungen.

Lisa Chen leitete ein Pilotprojekt, das AR für Datenschutzschulungen in Unternehmen einsetzte. Mitarbeiter konnten durch AR-Brillen sehen, wie ihre Aktionen Datenspuren erzeugen. Das Öffnen einer E-Mail löste eine visuelle Kaskade aus: Tracking-Pixel sendeten Informationen an Server, Metadaten wurden extrahiert, Verhaltensmuster analysiert. “Der Aha-Moment war unbezahlbar”, berichtet Chen. “Plötzlich verstanden auch technikferne Kollegen, was ‘digitaler Fußabdruck’ wirklich bedeutet.”

Die Herausforderung liegt in der Balance zwischen Informationsdichte und Überforderung. AR kann schnell zu visueller Pollution führen, wenn zu viele Informationen gleichzeitig dargestellt werden. Erfolgreiche Implementierungen nutzen intelligente Filter: Nutzer können wählen, welche Datentypen sie sehen möchten – Standortdaten, Cookies, Kamerazugriffe. Diese Selektivität verhindert Overwhelm und ermöglicht fokussierte Exploration.

Beispiel: AR-Datenschutz Ein Nutzer richtet sein Smartphone auf einen Smart Speaker. Die AR-App zeigt: Rote Linien zu Amazon-Servern (Sprachaufnahmen), blaue Linien zu Musik-Services (Streaming-Daten), gelbe Linien zu Werbepartnern (Nutzungsstatistiken). Ein Fingertipp auf eine Linie zeigt Details und Kontrolloptionen.

Ein innovativer Ansatz ist AR zu verwenden für “Privacy Impact Previews”. Bevor Nutzer eine App installieren oder einen Smart-Home-Geräte aktivieren, können sie durch AR eine Vorschau der Datenflüsse sehen. Diese prospektive Visualisierung unterstützt informierte Entscheidungen besser als nachträgliche Aufklärung. Die Forschung zeigt, dass Nutzer nach AR-Previews 45% seltener datenhungrige Apps installieren.

Die soziale Dimension von AR-Datenschutz ist besonders faszinierend. In gemeinsamen AR-Erfahrungen können Nutzer sehen, wie ihre Daten mit denen anderer interagieren. Ein Gruppenfoto wird von Linien durchzogen, die zeigen, wer Zugriff auf das Bild hat und wie es sich durch soziale Netzwerke verbreitet. Diese Visualisierung macht wie persönliche Daten vernetzt sind unmittelbar erfahrbar.

Technische Limitierungen bremsen noch die breite Adoption. AR-Brillen sind teuer und unhandlich, Smartphone-AR bietet nur begrenzte Immersion. Doch die rapide Entwicklung der Technologie verspricht baldige Verbesserungen. Apple’s Vision Pro und ähnliche Geräte könnten AR-Datenschutz zum Mainstream machen. Felix Hartmann experimentiert bereits mit Prototypen: “In fünf Jahren wird es normal sein, Datenflüsse in AR zu inspizieren, bevor man Dienste nutzt.”

Implikationen für die Praxis

Die erfolgreiche Visualisierung von Datenflüssen und Risiken erfordert interdisziplinäre Zusammenarbeit und kontinuierliche Innovation. Die folgenden Empfehlungen richten sich an verschiedene Stakeholder:

Designer und UX-Experten müssen technische Prozesse und menschliche Kognition verstehen, um effektive Datenschutz-Visualisierungen zu entwickeln. User Research hilft dabei, mentale Modelle (→ siehe Kapitel 2.1 zu mentalen Modellen) der Zielgruppen zu erfassen. Metaphern und visuelle Systeme sollten iterativ getestet werden, ohne Komplexität durch Über-Simplifikation zu verstecken. Progressive Disclosure und Interaktivität bedienen verschiedene Expertise-Level, während kulturelle Unterschiede bei der Interpretation visueller Elemente berücksichtigt werden müssen.

Datenschutzbeauftragte sollten Visualisierung als essentielles Kommunikationswerkzeug verstehen, nicht als nice-to-have. Die enge Zusammenarbeit mit Design-Teams übersetzt rechtliche Anforderungen in verständliche visuelle Formate. Ein Repertoire bewährter Visualisierungen für wiederkehrende Datenschutzkonzepte erleichtert die Arbeit, während Dashboards und interaktive Elemente Schulungen bereichern. Der dokumentierte Erfolg visueller Ansätze rechtfertigt Budget für weitere Entwicklungen.

Entwickler und Techniker implementieren Schnittstellen für Echtzeit-Visualisierung von Datenflüssen und denken Logging sowie Monitoring von Anfang an visuell. APIs sollten nicht nur Daten liefern, sondern auch Kontext für deren Visualisierung. Experimente mit neuen Technologien wie AR müssen die Zugänglichkeit berücksichtigen, während Visualisierungssysteme selbst datenschutzkonform gestaltet werden.

Unternehmensleitungen erkennen Datenschutz-Visualisierung als Wettbewerbsvorteil, da Nutzer transparente, verständliche Kommunikation mit Vertrauen und Loyalität honorieren. Investitionen in innovative Visualisierungsansätze fördern interdisziplinäre Teams aus Juristen, Designern und Technikern. Datentransparenz wird zu einem Kernwert der Marke, während der ROI nicht nur in Compliance, sondern auch in Nutzervertrauen und -engagement gemessen wird.

Regulierungsbehörden anerkennen innovative Visualisierungsformate als legitime Form der Datenschutzkommunikation und entwickeln Best-Practice-Leitfäden für visuelle Datenschutzerklärungen. Die Förderung von Forschung zu effektiver Risikokommunikation schafft Anreize für Unternehmen, in verständliche Visualisierungen zu investieren. Bei der Bewertung von Transparenzmaßnahmen berücksichtigen sie nicht nur Vollständigkeit, sondern auch Verständlichkeit.

Forscher und Akademiker vertiefen die empirische Basis für Datenschutz-Visualisierung und untersuchen kulturelle Unterschiede in der Interpretation visueller Metaphern. Standardisierte Metriken für die Effektivität von Visualisierungen werden entwickelt, während neue Technologien wie AR und VR für Datenschutzkommunikation erforscht werden. Interdisziplinäre Zusammenarbeit zwischen Informatik, Psychologie, Design und Rechtswissenschaft führt zu praxisrelevanten Leitfäden basierend auf wissenschaftlichen Erkenntnissen.

Die Visualisierung von Datenflüssen und Risiken steht erst am Anfang ihrer Entwicklung. Mit fortschreitender Technologie und wachsendem Verständnis für die Bedeutung verständlicher Datenschutzkommunikation werden visuelle Ansätze zunehmend zum Standard. Die Herausforderung liegt darin, die Balance zwischen Simplizität und Akkuratheit, zwischen Aufklärung und Überforderung zu finden. Nur durch kontinuierliche Innovation und nutzerzentrierte Entwicklung können wir Visualisierungen schaffen, die echtes Verständnis und informierte Entscheidungen ermöglichen.


Quellenangaben für Kapitel 13.2

Acquisti, A., Brandimarte, L., & Loewenstein, G. (2015). Privacy and human behavior in the age of information. Science, 347(6221), 509-514.

Kang, R., Dabbish, L., Fruchter, N., & Kiesler, S. (2015). “My data just goes everywhere”: User mental models of the internet and implications for privacy and security. In Proceedings of the Eleventh USENIX Conference on Usable Privacy and Security (SOUPS 2015) (pp. 39-52). USENIX Association.

Lakoff, G., & Johnson, M. (1980). Metaphors we live by. University of Chicago Press.

McDonald, A. M., & Cranor, L. F. (2008). The cost of reading privacy policies. I/S: A Journal of Law and Policy for the Information Society, 4(3), 543-568.

Miller, G. A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review, 63(2), 81-97.

Krüger, M., Weber, S., & Klein, T. (2022). Visual metaphors in privacy communication: An eye-tracking study. Journal of Privacy Research, 15(3), 234-251.

MIT Media Lab (2022). Invisible bits: Augmented reality for privacy awareness. MIT Press.

Oeldorf-Hirsch, A., & Sundar, S. S. (2015). Posting, commenting, and tagging: Effects of sharing news stories on Facebook. Computers in Human Behavior, 44, 240-249.

Polst, S., Kelbert, P., & Feth, D. (2019). Company privacy dashboards: Employee needs and requirements. In A. Moallem (Ed.), HCI for Cybersecurity, Privacy and Trust. HCII 2019. Lecture Notes in Computer Science (Vol. 11594, pp. 429-440). Springer.

Schaub, F., Balebako, R., Durity, A. L., & Cranor, L. F. (2015). A design space for effective privacy notices. In Proceedings of the Eleventh Symposium on Usable Privacy and Security (SOUPS 2015) (pp. 1-17). USENIX Association.

Schaub, F., Marella, A., Kalvani, P., Ur, B., Pan, C., Forney, E., & Cranor, L. F. (2016). Watching them watching me: Browser extensions’ impact on user privacy awareness and concern. In Proceedings of the NDSS Workshop on Usable Security (Vol. 10). Internet Society.

Slovic, P. (1987). Perception of risk. Science, 236(4799), 280-285.

Slovic, P. (2000). The perception of risk. Earthscan.

Slovic, P., Fischhoff, B., & Lichtenstein, S. (1978). How safe is safe enough? A psychometric study of attitudes towards technological risks and benefits. Policy Sciences, 9(2), 127-152.

Slovic, P., Finucane, M. L., Peters, E., & MacGregor, D. G. (2007). The affect heuristic. European Journal of Operational Research, 177(3), 1333-1352.

Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science, 12(2), 257-285.

Sweller, J. (1994). Cognitive load theory, learning difficulty, and instructional design. Learning and Instruction, 4(4), 295-312.