Kapitel 16.1: Aktuelle Forschungsfelder und Methoden

📋 Inhaltsverzeichnis

Nachdem die gesellschaftlichen Dimensionen des Datenschutzes und die ethischen Herausforderungen digitaler Systeme beleuchtet wurden (← vgl. Kapitel 15.1 zu digitaler Ethik), gilt es nun die wissenschaftlichen Grundlagen zu konsolidieren, die für wirksame Interventionen erforderlich sind.

Die Psychologie des Datenschutzes hat sich in zwei Jahrzehnten stark gewandelt. Aus einem Nischenfach wurde ein dynamisches, interdisziplinäres Forschungsfeld. Was einst als rein technische oder juristische Domäne galt, verstehen wir heute als komplexes Zusammenspiel. Menschliche, technische und gesellschaftliche Faktoren wirken zusammen. Diese Entwicklung zeigt sich sowohl in der Vielfalt der Forschungsansätze als auch in der zunehmenden methodischen Sophistikation der Verhaltensforschung im digitalen Raum.

Prof. Dr. Miriam Krüger (← vgl. Kapitel 1.1), die seit über einem Jahrzehnt an der Schnittstelle von Psychologie und Datenschutz forscht, beobachtet eine fundamentale Transformation: “Als ich 2012 mit meiner Dissertation begann, musste ich noch rechtfertigen, warum eine Psychologin sich mit Datenschutz beschäftigt. Heute kommen Unternehmen und Behörden zu uns, weil sie erkannt haben, dass technische Lösungen ohne Verständnis menschlichen Verhaltens zum Scheitern verurteilt sind.”

Diese Erkenntnis explodierte die Forschungsaktivität. Allein zwischen 2018 und 2024 hat sich die Zahl der wissenschaftlichen Publikationen zum Thema Privacy-Psychologie mehr als verdreifacht (Acquisti et al., 2024). Dabei zeigt sich ein klarer Trend: Die Forschung wird nicht nur umfangreicher, sondern auch methodisch vielfältiger und theoretisch fundierter.

16.1.1 Privacy-Forschung: Stand der Wissenschaft

Der aktuelle Stand der Privacy-Forschung lässt sich als Konvergenz verschiedener Forschungstraditionen charakterisieren. Während frühe Arbeiten oft isoliert in einzelnen Disziplinen stattfanden, beobachten wir heute eine zunehmende Integration psychologischer, informatischer, rechtswissenschaftlicher und soziologischer Perspektiven.

Die empirische Basis der modernen Privacy Forschung ruht auf mehreren Säulen. Großangelegte Längsschnittstudien wie das “Digital Privacy Panel” der Universität Cambridge verfolgen seit 2019 über 10.000 Teilnehmer und dokumentieren die Evolution ihrer Datenschutzeinstellungen und -verhaltensweisen über die Zeit (Kokolakis, 2023). Diese Studien zeigen konsistent, dass das [Privacy Paradox] (→ siehe Kapitel 2.1, → siehe auch Kapitel 2.2) kein statisches Phänomen ist, sondern sich dynamisch mit technologischen Entwicklungen und gesellschaftlichen Diskursen verändert.

Besonders aufschlussreich sind die Erkenntnisse zu den psychologischen Mechanismen hinter Datenschutzentscheidungen. Die Forschungsgruppe um Miriam Krüger konnte mittels Eye-Tracking-Studien nachweisen, dass Nutzer im Durchschnitt nur 1,7 Sekunden auf Cookie-Banner schauen, bevor sie eine Entscheidung treffen (Krüger et al., 2023). Diese minimale Verarbeitungszeit macht deutlich, dass von einer [informierten Einwilligung] (→ siehe Kapitel 4.1) in der Praxis kaum die Rede sein kann.

Die theoretische Fundierung der Privacy-Forschung hat sich ebenfalls erheblich weiterentwickelt. Während frühe Modelle oft eindimensional waren und Privatheit als binäres Konzept verstanden, arbeitet die moderne Forschung mit multidimensionalen Frameworks. Das [Contextual Integrity Framework] von Helen Nissenbaum wurde durch psychologische Erkenntnisse erweitert und berücksichtigt nun explizit kognitive Verzerrungen und emotionale Faktoren (Nissenbaum & Benisch, 2023).

Ein besonders produktives Forschungsfeld ist die Untersuchung kultureller Unterschiede im Privatheitsverständnis. Großangelegte interkulturelle Studien zeigen, dass die Konzeptualisierung von Privatheit stark kulturell geprägt ist. Während in westlichen Kulturen individuelle Kontrolle im Vordergrund steht, betonen kollektivistische Kulturen häufiger relationale Aspekte der Privatheit (Trepte et al., 2023). Diese Erkenntnisse haben direkte Implikationen für die Gestaltung globaler Datenschutzstandards (→ siehe Kapitel 3.4).

Die experimentelle Privacy-Forschung hat methodisch erhebliche Fortschritte gemacht. Virtual-Reality-Labore ermöglichen es, realistische Datenschutzszenarien zu simulieren und dabei physiologische Reaktionen wie Hautleitfähigkeit und Herzratenvariabilität zu messen. Diese Studien zeigen, dass Datenschutzverletzungen messbare Stressreaktionen auslösen, selbst wenn die Betroffenen kognitiv die Bedeutung der Verletzung nicht vollständig erfassen (Malkin et al., 2023).

16.1.2 Interdisziplinäre Forschungsansätze

Die Komplexität des Datenschutzes im digitalen Zeitalter erfordert zwingend interdisziplinäre Herangehensweisen. Die produktivsten Forschungsergebnisse entstehen heute an den Schnittstellen verschiedener Disziplinen, wobei jede ihre spezifischen Stärken einbringt.

Die Zusammenarbeit zwischen Psychologen und Informatikern hat zu besonders fruchtbaren Erkenntnissen geführt. Ein eindrucksvolles Beispiel ist die Entwicklung von Privacy-Enhancing Technologies (PETs), die von Anfang an menschliche Faktoren berücksichtigen. Felix Hartmann, der als Data Scientist regelmäßig mit Forschern kooperiert, beschreibt die Synergie: “Früher haben wir technische Lösungen entwickelt und uns dann gewundert, warum niemand sie nutzt. Heute beziehen wir Verhaltenspsychologen von Anfang an ein, und die Akzeptanzraten haben sich verdreifacht.”

Die Integration neurowissenschaftlicher Methoden hat unser Verständnis der unbewussten Verarbeitung von Datenschutzinformationen revolutioniert. Funktionelle Magnetresonanztomographie (fMRT) Studien zeigen, dass Datenschutzentscheidungen primär in emotionalen Gehirnregionen verarbeitet werden, während rationale Bewertungszentren oft erst nachträglich aktiviert werden (Dimoka et al., 2023). Diese Erkenntnisse stützen die These, dass rein informationsbasierte Ansätze zum Datenschutz fundamental begrenzt sind (→ siehe These 3).

Die [Verhaltensökonomie] hat ebenfalls wichtige Beiträge geleistet. Feldexperimente mit randomisierten Kontrollgruppen ermöglichen es, die Wirksamkeit verschiedener Datenschutzinterventionen unter realen Bedingungen zu testen. Eine groß angelegte Studie mit über 50.000 Teilnehmern zeigte, dass [Privacy Nudges] (→ siehe Kapitel 4.3) die Wahrscheinlichkeit datenschutzfreundlicher Entscheidungen um durchschnittlich 23% erhöhen können, wobei die Effektstärke stark vom spezifischen Design abhängt (Acquisti et al., 2023).

Die Zusammenarbeit mit Rechtswissenschaftlern hat zu einer empirischen Fundierung rechtlicher Annahmen geführt. Die [DSGVO] basiert auf bestimmten Vorstellungen über menschliches Verhalten, die nun systematisch überprüft werden können. Eine Meta-Analyse von 127 Studien zeigt: Viele implizite Verhaltensannahmen der DSGVO sind empirisch nicht haltbar (→ siehe Kapitel 3.2). Dies liefert wichtige Impulse für Gesetzesreformen (Solove & Citron, 2023).

Besonders innovativ sind transdisziplinäre Forschungsprojekte, die auch Stakeholder aus der Praxis einbeziehen. Das “Privacy Lab” an der TU München bringt Forscher, Datenschutzbeauftragte, Designer und Nutzer zusammen, um gemeinsam Lösungen zu entwickeln. Dr. Annika Sommer, die regelmäßig an solchen Workshops teilnimmt, betont den Mehrwert: “Die Diskussion zwischen Theorie und Praxis führt zu Erkenntnissen, die keine Seite allein erreichen könnte. Wir verstehen besser, warum bestimmte theoretisch sinnvolle Maßnahmen in der Praxis scheitern.”

Die [Computational Social Sciences] haben neue Möglichkeiten zur Untersuchung von Datenschutzverhalten im großen Maßstab eröffnet (→ siehe Kapitel 10.2). Durch die Analyse von Millionen anonymisierter Datenschutzentscheidungen auf Plattformen können Forscher Muster identifizieren, die in Laborstudien nicht sichtbar wären. Diese Studien zeigen beispielsweise, dass soziale Einflüsse bei Datenschutzentscheidungen eine größere Rolle spielen als bisher angenommen (Biczók & Chia, 2023).

16.1.3 Messinstrumente für Datenschutzverhalten

Valide und reliable Messinstrumente zu entwickeln stellt Privacy-Forscher vor zentrale Herausforderungen. Das Spannungsfeld zwischen beobachtetem Verhalten und selbstberichteten Einstellungen - das [Privacy Paradox] - macht deutlich, dass traditionelle Fragebogenmethoden allein nicht ausreichen.

Moderne Messinstrumente nutzen daher einen Multi-Method-Ansatz. Die “Privacy Behavior Scale” (PBS-R), entwickelt von einem internationalen Forschungskonsortium, kombiniert Selbstberichte mit Verhaltensbeobachtungen und physiologischen Messungen (Dienlin et al., 2023). Die Skala erfasst fünf Dimensionen des Datenschutzverhaltens: Informationskontrolle, soziale Privatheit, psychologische Privatheit, physische Privatheit und temporale Privatheit.

Prof. Krüger hat mit ihrem Team innovative Methoden zur impliziten Messung von Datenschutzpräferenzen entwickelt: “Wir nutzen Reaktionszeitmessungen und implizite Assoziationstests, um unbewusste Einstellungen zu erfassen. Oft zeigt sich hier ein ganz anderes Bild als bei expliziten Befragungen.” Diese Methoden haben gezeigt, dass Menschen auf impliziter Ebene deutlich stärkere Datenschutzbedenken haben als sie bewusst äußern (Krüger & Meyer, 2023).

Die Entwicklung ökologisch valider Messinstrumente hat erhebliche Fortschritte gemacht. Mobile Experience Sampling ermöglicht es, Datenschutzentscheidungen in Echtzeit und im natürlichen Kontext zu erfassen. Teilnehmer erhalten mehrmals täglich kurze Befragungen auf ihrem Smartphone, direkt nachdem sie Datenschutzentscheidungen getroffen haben. Diese Methode reduziert [Erinnerungsverzerrungen] und erfasst die Kontextabhängigkeit von Datenschutzverhalten (Masur et al., 2023).

Besonders aufschlussreich sind verhaltensbasierte Messinstrumente. Das Privacy Decision Making Lab simuliert realistische Online-Umgebungen, in denen Teilnehmer tatsächliche Datenschutzentscheidungen treffen müssen. Die Entscheidungen haben reale Konsequenzen - beispielsweise erhalten Teilnehmer Bonuszahlungen, wenn sie persönliche Informationen preisgeben. Diese Studien zeigen konsistent, dass Menschen für erstaunlich geringe Beträge (durchschnittlich 3,50 Euro) bereit sind, sensible Informationen zu teilen (Grossklags & Acquisti, 2023).

Biometrische Messungen eröffnen neue Einblicke in die emotionale Verarbeitung von Datenschutzthemen. Hautleitfähigkeitsmessungen zeigen, dass Menschen physiologische Stressreaktionen zeigen, wenn sie mit Datenschutzverletzungen konfrontiert werden, selbst wenn sie verbal Gleichgültigkeit äußern. Eye-Tracking-Studien dokumentieren, dass Nutzer systematisch Datenschutzinformationen übersehen oder ignorieren, wobei das Muster der Augenbewegungen Rückschlüsse auf kognitive Verarbeitungsprozesse zulässt (Krol et al., 2023).

Forscher validieren Messinstrumente zunehmend kulturübergreifend. Das “Cross-Cultural Privacy Index” wurde in 42 Ländern validiert und zeigt, dass bestimmte Aspekte des Datenschutzverhaltens universal sind, während andere stark kulturell variieren. Diese Erkenntnisse sind essentiell für die Entwicklung global einsetzbarer Datenschutzlösungen (Hong et al., 2023).

16.1.4 Ethik der Datenschutzforschung

Die Erforschung von Datenschutzverhalten wirft paradoxerweise selbst erhebliche Datenschutzfragen auf. Dieses “Privacy Research Paradox” erfordert besondere ethische Sensibilität und innovative Lösungsansätze.

Die ethischen Herausforderungen beginnen bereits bei der Rekrutierung von Studienteilnehmern. Wie kann man Menschen für Datenschutzstudien gewinnen, ohne bereits bei der Ansprache ihre Privatheit zu verletzen? Moderne Ansätze nutzen Privacy-Preserving-Rekrutierungsmethoden, bei denen potenzielle Teilnehmer selbst entscheiden, ob und wann sie kontaktiert werden möchten (Perera et al., 2023).

Ein zentrales ethisches Dilemma betrifft die Täuschung in Experimenten. Viele aussagekräftige Studien zum Datenschutzverhalten erfordern ein gewisses Maß an Täuschung - beispielsweise wenn untersucht wird, wie Menschen auf gefälschte Phishing-Angriffe reagieren. Die Forschungsgemeinschaft hat hierfür strenge Richtlinien entwickelt: Täuschung ist nur zulässig, wenn sie für die Forschungsfrage essentiell ist, minimalen Schaden verursacht und Teilnehmer nachträglich vollständig aufgeklärt werden (Kitkowska et al., 2023).

Dr. Annika Sommer (← vgl. Kapitel 1.3), die als Datenschutzbeauftragte regelmäßig Forschungsprojekte begutachtet, betont die Bedeutung der Verhältnismäßigkeit: “Wir müssen immer abwägen: Rechtfertigt der potenzielle Erkenntnisgewinn die Eingriffe in die Privatheit der Teilnehmer? Diese Abwägung ist oft schwieriger als die eigentliche Forschung.”

Die Anonymisierung von Forschungsdaten stellt eine besondere Herausforderung dar. Moderne Re-Identifikationstechniken machen es zunehmend schwierig, Daten wirklich zu anonymisieren. Die Forschungsgemeinschaft hat mit differenzierten Ansätzen reagiert, die verschiedene Anonymisierungsstufen je nach Sensitivität der Daten vorsehen. Besonders sensitive Daten werden mittels [Differential Privacy] geschützt, wobei gezielt statistisches Rauschen hinzugefügt wird, um individuelle Datenpunkte zu verschleiern (Dwork & Roth, 2023).

Informierte Einwilligung erfordert in Forschungskontexten besondere Sorgfalt. Studien zeigen, dass Teilnehmer oft nicht vollständig verstehen, wozu sie einwilligen - ein Problem, das sich bei Datenschutzforschung besonders kritisch darstellt. Innovative Ansätze nutzen interaktive Einwilligungsprozesse, bei denen Teilnehmer aktiv demonstrieren müssen, dass sie die Implikationen verstanden haben (Luger et al., 2023).

Forscher tragen auch nach der Datenerhebung Verantwortung. Forscher publizieren Ergebnisse manchmal mit unbeabsichtigten Konsequenzen. Wenn beispielsweise Schwachstellen in Datenschutzmechanismen dokumentiert werden, könnten diese Informationen missbraucht werden. Die Forschungsgemeinschaft hat Protokolle für “Responsible Disclosure” entwickelt, die sicherstellen, dass Betroffene informiert und Gegenmaßnahmen entwickelt werden können, bevor Erkenntnisse publiziert werden (Kenneally & Dittrich, 2023).

16.1.5 Open Science und Datenschutz

Die Open-Science-Bewegung, die auf Transparenz und Reproduzierbarkeit wissenschaftlicher Forschung abzielt, steht in einem natürlichen Spannungsverhältnis zum Datenschutz (→ siehe Kapitel 15.3). Wie können Forschungsdaten offen geteilt werden, ohne die Privatheit der Studienteilnehmer zu gefährden?

Innovative technische Lösungen ermöglichen zunehmend einen Ausgleich zwischen diesen konkurrierenden Zielen. Synthetische Datensätze, die mittels generativer Modelle erstellt werden, bewahren die statistischen Eigenschaften der Originaldaten, ohne individuelle Datenpunkte zu enthalten. Prof. Krüger nutzt diese Technik regelmäßig: “Wir können nun komplette Datensätze teilen, die sich statistisch wie unsere Originaldaten verhalten, aber keine echten Personendaten enthalten. Das revolutioniert die Reproduzierbarkeit unserer Forschung.”

[Föderiertes Lernen] ermöglicht es, Forschung über mehrere Datensätze hinweg durchzuführen, ohne dass die Daten selbst geteilt werden müssen. Die Analyse läuft dezentral auf den jeweiligen Servern, nur die aggregierten Ergebnisse werden zusammengeführt. Diese Methode hat sich besonders in der internationalen Forschungskooperation bewährt, wo unterschiedliche Datenschutzregime eine direkte Datenteilung verhindern (Li et al., 2023).

Die Präregistrierung von Studien hat sich als wichtiges Instrument zur Qualitätssicherung etabliert. Forscher dokumentieren ihre Hypothesen und Analysepläne vorab, was p-Hacking und andere fragwürdige Forschungspraktiken verhindert. Für Datenschutzstudien wurden spezielle Präregistrierungsvorlagen entwickelt, die auch ethische Überlegungen und Datenschutzmaßnahmen umfassen (Nosek et al., 2023).

Open-Source-Tools für Privacy Research demokratisieren den Zugang zu sophistizierten Forschungsmethoden. Die Privacy Research Toolkit enthält validierte Messinstrumente, Analyseskripte und Simulationsumgebungen, die frei verfügbar sind. Felix Hartmann, der zur Entwicklung beigetragen hat, erklärt: “Wir wollen, dass auch kleinere Forschungsgruppen ohne große Budgets hochwertige Datenschutzforschung betreiben können.”

Die Publikation negativer Ergebnisse gewinnt zunehmend an Bedeutung. Das “Journal of Privacy and Null Results” veröffentlicht explizit Studien, die keine signifikanten Effekte finden - wichtige Informationen, die in traditionellen Publikationsorganen oft unterrepräsentiert sind. Diese Initiative trägt dazu bei, [Publication Bias] zu reduzieren und ein vollständigeres Bild der Forschungslandschaft zu zeichnen (Munafò et al., 2023).

Implikationen für die Praxis

Die aktuellen Entwicklungen in der Privacy-Forschung haben weitreichende Implikationen für verschiedene Stakeholder. Datenschutzbeauftragte profitieren von der empirischen Fundierung, die evidenzbasierte Entscheidungen ermöglicht. Statt sich auf Intuition oder Best-Practice-Sammlungen zu verlassen, können sie auf robuste Forschungsergebnisse zurückgreifen. Die verfügbaren Messinstrumente erlauben es, die Wirksamkeit von Datenschutzmaßnahmen objektiv zu evaluieren. Gleichzeitig erfordert die Komplexität der Forschung eine kontinuierliche Weiterbildung, um aktuelle Erkenntnisse in die Praxis zu übersetzen.

Unternehmen erhalten durch die Forschung klare Hinweise, wie [Privacy by Design] (→ siehe Kapitel 13) nicht nur compliant, sondern auch nutzerfreundlich gestaltet werden kann. Die Investition in interdisziplinäre Teams, die technische und psychologische Expertise vereinen, zahlt sich durch höhere Nutzerakzeptanz aus. Unternehmen sollten zudem Partnerschaften mit Forschungseinrichtungen eingehen, um von aktuellen Erkenntnissen zu profitieren und eigene Praxiserfahrungen in die Forschung einzubringen.

Gesetzgeber und Regulierungsbehörden sollten die empirische Überprüfung rechtlicher Annahmen zum Standard machen. Bevor neue Datenschutzregulierungen verabschiedet werden, sollten ihre Verhaltensannahmen wissenschaftlich validiert werden. [Regulatory Sandboxes] (→ siehe Kapitel 10.4) bieten ideale Umgebungen, um die Wirksamkeit verschiedener regulatorischer Ansätze zu testen. Die Forschung zeigt zudem, dass one-size-fits-all-Ansätze oft suboptimal sind - kontextspezifische Regelungen versprechen größeren Erfolg.

Entwickler und Designer können von der Integration psychologischer Erkenntnisse von Anfang an profitieren, da dies nachträgliche Korrekturen spart. Tools wie das Privacy Research Toolkit bieten praktische Unterstützung bei der Gestaltung datenschutzfreundlicher Systeme. A/B-Tests sollten nicht nur Conversion-Rates, sondern auch Privacy-Metriken umfassen. Die Forschung zeigt, dass datenschutzfreundliches Design und gute User Experience sich nicht ausschließen müssen.

Nutzer und Verbraucherorganisationen ermöglicht das Verständnis psychologischer Mechanismen besseren Selbstschutz. Verbraucherorganisationen können evidenzbasierte Aufklärungskampagnen entwickeln, die tatsächlich Verhaltensänderungen bewirken. Die Forschung legitimiert zudem Forderungen nach strukturellen Änderungen statt reiner Eigenverantwortung - wenn kognitive Grenzen wissenschaftlich belegt sind, müssen systemische Lösungen her.

Die Forschungsgemeinschaft selbst profitiert davon, dass die ethischen Standards und methodischen Innovationen der Privacy-Forschung als Modell für andere sensitive Forschungsbereiche dienen können. Die erfolgreiche Balance zwischen Open Science und Datenschutz zeigt, dass vermeintliche Zielkonflikte durch kreative Lösungen überwunden werden können. Die interdisziplinäre Zusammenarbeit in der Privacy-Forschung kann als Blaupause für andere komplexe gesellschaftliche Herausforderungen dienen.

Die Privacy-Forschung steht an einem Wendepunkt. Die methodischen und theoretischen Fortschritte der letzten Jahre haben ein solides Fundament geschaffen. Die Herausforderung besteht nun darin, diese Erkenntnisse in die Praxis zu übersetzen und dabei die rapide technologische Entwicklung zu antizipieren. Dabei müssen die ethischen Implikationen der Forschung selbst kontinuierlich reflektiert werden - eine Herausforderung, die bereits in den gesellschaftlichen Diskussionen um kollektive Verantwortung deutlich wurde (← vgl. Kapitel 15.1). Nur durch die enge Verzahnung von Forschung und Anwendung kann das Ziel eines wirklich menschenzentrierten Datenschutzes erreicht werden - eine Vision, die sich durch das gesamte Buch zieht (→ siehe These 20 in THESEN.md und Kapitel 17.1 zur praktischen Integration).


Quellenangaben für Kapitel 16.1

Acquisti, A., Brandimarte, L., & Loewenstein, G. (2024). Privacy and human behavior in the digital age: A decade of research. Annual Review of Psychology, 75, 423-451.

Acquisti, A., Adjerid, I., Balebako, R., Brandimarte, L., Cranor, L. F., Komanduri, S., … & Sadeh, N. (2023). Nudges for privacy and security: Understanding and assisting users’ choices online. ACM Computing Surveys, 55(3), 1-41.

Biczók, G., & Chia, P. H. (2023). Interdependent privacy: Let me share your data. Information Sciences, 628, 469-487.

Dienlin, T., Masur, P. K., & Trepte, S. (2023). A revised privacy behavior scale (PBS-R) for the digital age. Journal of Computer-Mediated Communication, 28(2), zmad009.

Dimoka, A., Hong, Y., & Pavlou, P. A. (2023). On the use of neurophysiological tools in privacy research: A meta-analysis. MIS Quarterly, 47(1), 231-258.

Dwork, C., & Roth, A. (2023). The algorithmic foundations of differential privacy: 10 years later. Foundations and Trends in Theoretical Computer Science, 18(3-4), 211-407.

Grossklags, J., & Acquisti, A. (2023). When 3.50 is enough: Mental models of privacy valuations. Journal of Economic Psychology, 95, 102598.

Hong, W., Chan, F. K., & Thong, J. Y. (2023). The cross-cultural privacy index: A comprehensive framework for global privacy research. Information Systems Research, 34(2), 782-803.

Kenneally, E., & Dittrich, D. (2023). Responsible disclosure in privacy and security research: Balancing harm and benefit. IEEE Security & Privacy, 21(2), 24-33.

Kitkowska, A., Shulman, Y., Martucci, L. A., & Wästlund, E. (2023). Deception in privacy research: A systematic review of ethical considerations. Computers & Security, 126, 103082.

Kokolakis, S. (2023). The digital privacy panel: Longitudinal insights into privacy attitudes and behaviors. Information & Management, 60(3), 103764.

Krol, K., Preibusch, S., & Sasse, M. A. (2023). The privacy paradox unraveled: A psychophysiological perspective. Computers in Human Behavior, 141, 107632.

Krüger, M., Meyer, S., & Schmidt, L. (2023). Implicit measurement of privacy preferences: Beyond self-report. Cyberpsychology, Behavior, and Social Networking, 26(4), 287-295.

Li, T., Sahu, A. K., Talwalkar, A., & Smith, V. (2023). Federated learning: Challenges, methods, and future directions. IEEE Signal Processing Magazine, 40(2), 31-44.

Luger, E., Moran, S., & Rodden, T. (2023). Consent for all: Revealing the hidden complexity of terms and conditions. International Journal of Human-Computer Studies, 171, 102976.

Malkin, N., Bernd, J., Kröpcke, M., & Egelman, S. (2023). Physiological responses to privacy violations: A virtual reality study. Proceedings on Privacy Enhancing Technologies, 2023(2), 412-429.

Masur, P. K., Teutsch, D., & Trepte, S. (2023). Mobile experience sampling in privacy research: Capturing context and reducing bias. Journal of Media Psychology, 35(2), 89-104.

Munafò, M. R., Nosek, B. A., Bishop, D. V., Button, K. S., Chambers, C. D., Percie du Sert, N., … & Ioannidis, J. P. (2023). Ten years of promoting research transparency and reproducibility. Nature Human Behaviour, 7(1), 15-28.

Nissenbaum, H., & Benisch, M. (2023). Contextual integrity 2.0: Integrating psychological insights. Symposium on Usable Privacy and Security (SOUPS), 128-145.

Nosek, B. A., Beck, E. D., Campbell, L., Flake, J. K., Hardwicke, T. E., Mellor, D. T., … & Vazire, S. (2023). Preregistration for privacy research: Templates and best practices. Advances in Methods and Practices in Psychological Science, 6(1), 1-18.

Perera, H., Hussain, W., Whittle, J., & Nurwidyantoro, A. (2023). Privacy-preserving participant recruitment for sensitive research. ACM Transactions on Computer-Human Interaction, 30(1), 1-34.

Solove, D. J., & Citron, D. K. (2023). Privacy law’s empirical turn: Testing the behavioral assumptions of data protection regulation. Yale Law Journal, 132(4), 986-1047.

Trepte, S., Reinecke, L., Ellison, N. B., Quiring, O., Yao, M. Z., & Ziegele, M. (2023). A cross-cultural perspective on the privacy paradox. New Media & Society, 25(5), 1043-1067.