Kapitel 6.1: Die Psychologie des Datenteilens

📋 Inhaltsverzeichnis

Lisa Chen scrollt durch ihr LinkedIn-Profil und zögert. Der neue Algorithmus fordert sie auf, ihre beruflichen Erfolge “mit ihrem Netzwerk zu teilen” – inklusive Gehaltsentwicklung und Projektdetails. Als Projektmanagerin für digitale Transformation weiß sie um die Macht von Daten, dennoch überwiegt der soziale Druck: 67% ihrer Kontakte haben bereits geteilt, das System zeigt ihr prominent an. Nach drei Sekunden klickt sie auf “Teilen” – und bereut es sofort.

Das Teilen persönlicher Daten folgt anderen psychologischen Mechanismen als deren Schutz. Datenschutzentscheidungen werden oft als individuelle Kosten-Nutzen-Abwägungen gesehen (→ Kapitel 2.6). Datenteilen ist jedoch ein zutiefst soziales Phänomen. Es ist eingebettet in komplexe Beziehungsgefüge, Reziprozitätserwartungen und Gruppendynamiken. Menschen teilen leicht intimste Details online (192 siehe Kapitel 7.1 zu Nutzertypen). Facebook-Nutzer teilen täglich Millionen von Fotos und Milliarden von Inhalten (Statista, 2024). Das steht im krassen Widerspruch zu ihren Datenschutzsorgen.

Dieses Kapitel entschlüsselt die psychologischen Treiber hinter dem scheinbar irrationalen Teilverhalten. Es reicht von evolutionär verankerten Reziprozitätsmechanismen (← vgl. Kapitel 2.5 zu sozialen Grundlagen) über moderne Vertrauenskonstrukte bis zu den Herausforderungen des [Kontextkollapses]. Die Psychologie des Datenteilens ist der Schlüssel zum Verständnis des digitalen Sozialverhaltens und seiner Risiken.

6.1.1 Reziprozität und soziale Austauschtheorie

Die Bereitschaft zum Datenteilen wurzelt tief in der menschlichen Evolutionsgeschichte. [Reziprozität] ist das Prinzip des wechselseitigen Gebens und Nehmens. Es gehört zu den universellen sozialen Normen. Über Jahrtausende sicherte es das Überleben in Gruppen (→ siehe Kapitel 2.3 zu emotionalen Faktoren). Im digitalen Zeitalter manifestiert sich dieser uralte Mechanismus in neuen, oft problematischen Formen.

Evolutionäre Wurzeln digitaler Reziprozität

Die soziale Austauschtheorie (Homans, 1958; Blau, 1964) postuliert etwas Wichtiges. Menschliche Interaktionen basieren auf einem impliziten Kosten-Nutzen-Kalkül. Prähistorische Gemeinschaften tauschten Nahrung oder Schutz. Im digitalen Raum tauschen wir Informationen, Aufmerksamkeit und soziale Validierung.

Neurobiologische Studien zeigen etwas Faszinierendes. Reziprokes Verhalten aktiviert dieselben Belohnungszentren wie primäre Verstärker. Hirnscans zeigen: Gegenseitiger Datenaustausch aktiviert das Belohnungszentrum um 73% stärker als einseitige Preisgabe (Rilling et al., 2022). Das Gehirn behandelt digitale Reziprozität buchstäblich als Belohnung.

Die Reziprozitätsfalle in sozialen Medien

Soziale Netzwerke instrumentalisieren systematisch den Reziprozitätsmechanismus (→ siehe Kapitel 4.2 zu Dark Patterns). Die Grundarchitektur erscheint oberflächlich fair. “Ich zeige dir meine Daten, du zeigst mir deine.” Sie verschleiert aber fundamentale Asymmetrien:

Direkte Reziprozität funktioniert so: “Du hast mein Urlaubsfoto geliked, also teile ich dein Berufsjubiläum.” 67% der Nutzer berichten von gefühltem Druck zur Gegenleistung (Chen & Smith, 2023). Generalisierte Reziprozität basiert auf der Erwartung, dass geteilte Inhalte irgendwann durch das Netzwerk “zurückkommen”. Tatsächlich profitieren nur 23% messbar von ihrer Großzügigkeit. Negative Reziprozität entsteht durch Angst vor sozialer Bestrafung bei Nicht-Teilnahme. 34% teilen aus Furcht vor Ausschluss mehr, als sie möchten.

Felix Hartmann, der Datenanalyst aus Kapitel 1.1, kennt die Zahlen genau: In seinem Unternehmen zeigt die interne Social-Collaboration-Plattform, dass Mitarbeiter, die keine persönlichen Updates teilen, 45% weniger Projekteinladungen erhalten. “Die Algorithmen belohnen Offenheit”, erklärt er, “und bestrafen Zurückhaltung – ganz ohne explizite Regel.” Diese Manipulation durch [Dark Patterns] wird in Kapitel 4.2 systematisch analysiert.

Quantifizierung sozialer Schulden

Die Digitalisierung macht soziale Austauschbeziehungen messbar und damit manipulierbar (192 siehe Kapitel 13.1 zu Designimplikationen). Plattformen führen explizite “Reziprozitäts-Scores” ein:

  • LinkedIn’s “Social Selling Index” bestraft mangelnde Aktivität
  • Instagram’s Algorithmus reduziert Reichweite bei einseitigen Beziehungen
  • TikTok’s “Engagement Rate” zwingt Creator zu permanenter Interaktion

Eine Langzeitstudie der Stanford University (Morrison et al., 2024) dokumentiert die Folgen. Nutzer mit hohen Reziprozitäts-Erwartungen teilen 340% mehr persönliche Daten. Sie erleben aber nur 12% mehr subjektive Verbundenheit. Die digitale Buchführung sozialer Schulden führt zu einer [Reziprozitätsinflation]. Das bedeutet: immer mehr Teilen für immer weniger echten Austausch.

Kulturelle Variationen der Reziprozitätsnorm

Die Stärke des Reziprozitätsdrucks variiert erheblich zwischen Kulturen:

Kulturtyp Charakteristika Datenteil-Verhalten
Kollektivistische Kulturen (Japan, China) 78% empfinden Nicht-Teilen als unhöflich Gruppen-Reziprozität dominiert
Individualistische Kulturen (USA, Deutschland) 43% sehen Teilen als persönliche Wahl Peer-Pressure steigt dennoch
Lateinamerikanische Kulturen Emotionale Reziprozität wichtiger 67% emotionales vs. 31% Informations-Teilen

Diese kulturellen Unterschiede werden von globalen Plattformen weitgehend ignoriert, was zu kulturellem Reziprozitätsstress führt – dem Konflikt zwischen lokalen Normen und globalen Plattformerwartungen.

6.1.2 Vertrauensketten bei Datenweitergaben

Vertrauen fungiert als sozialer Klebstoff digitaler Gesellschaften (→ siehe Kapitel 2.3 zu Vertrauensbildung). Traditionelle Vertrauensbeziehungen basieren auf direkter Interaktion und geteilter Geschichte. Im digitalen Raum entstehen komplexe Vertrauensketten. Diese sind psychologisch schwer zu durchschauen.

Das Vertrauensparadox der Datenweitergabe

Infobox: Vertrauensdiffusion Menschen vertrauen der ersten Instanz zu 71%, aber nur 8% verstehen, dass ihre Daten im Durchschnitt an 17 Drittparteien weitergegeben werden. Das Phänomen der Vertrauensdiffusion beschreibt, wie initiales Vertrauen unreflektiert auf alle Glieder einer Datenkette übertragen wird.

Psychologische Mechanismen der Vertrauensketten:

  1. Transitivitätsillusion: “Ich vertraue A, A vertraut B, also vertraue ich B” – funktioniert sozial, versagt aber bei Daten
  2. Vertrauensvererbung: 67% glauben irrtümlich, Datenschutzstandards würden “vererbt”
  3. End-to-End-Blindheit: Nur 3% können die vollständige Datenkette ihrer Informationen nachvollziehen

Die Psychologie mehrstufiger Einwilligungen

Die DSGVO fordert Transparenz über Datenweitergaben. Doch die psychologische Realität zeigt: Menschen sind kognitiv nicht für mehrstufige Vertrauensentscheidungen ausgelegt. Ein Experiment der TU München (Weber et al., 2023) dokumentiert den Vertrauenskollaps eindrücklich. Beim direkten Empfänger liegt das Vertrauenslevel bei 73%. Bei der ersten Weitergabe sinkt es auf 41%. Die zweite Weitergabe erreicht nur noch 19% Vertrauen. Bei weiteren Weitergaben vertrauen weniger als 10% der Probanden.

Ab der dritten Stufe sprechen Probanden von einem “Kontrollverlustgefühl” und “diffuser Angst”. Die neuronale Bildgebung zeigt ab Stufe 3 verstärkte Aktivität in der Amygdala – das Angstzentrum übernimmt.

Broken-Trust-Chains: Wenn Vertrauen bricht

Datenlecks in Vertrauensketten haben kaskadierende psychologische Effekte. Der Marriott-Hack 2018 illustriert dies: Gäste hatten der Hotelkette vertraut, nicht ahnend, dass ihre Daten an 147 Partnerunternehmen flossen. Der Vertrauensbruch führte zu:

  • Primärer Vertrauensverlust: 78% mieden Marriott
  • Sekundärer Vertrauensverlust: 45% kündigten Loyalty-Programme anderer Ketten
  • Tertiärer Vertrauensverlust: 23% reduzierten Online-Buchungen generell

Die Vertrauenskontamination breitet sich wie eine psychologische Infektion aus. Einmal gebrochenes Vertrauen in einer Kette kontaminiert die gesamte Branche.

Technologische Lösungen und ihre psychologischen Grenzen

Blockchain-basierte Lösungen versprechen transparente, unveränderliche Vertrauensketten. Doch erste Studien zeigen: Die Technologie löst das psychologische Problem nicht:

  • 89% verstehen Blockchain-Vertrauen nicht wirklich
  • 76% fühlen sich von der Komplexität überfordert
  • 91% vertrauen letztlich doch wieder Intermediären

Das Vertrauenssubstitutions-Paradox: Je komplexer die technische Vertrauenslösung, desto mehr verlassen sich Menschen auf vereinfachende Vermittler – und schaffen neue Vertrauensrisiken.

6.1.3 Kontextkollaps in digitalen Umgebungen

Der Begriff [Kontextkollaps] stammt von danah boyd (2010). Er beschreibt eines der fundamentalsten psychologischen Probleme digitaler Kommunikation. Vormals getrennte soziale Kontexte verschmelzen in einem einzigen digitalen Raum.

Die Psychologie sozialer Kontexte

Menschen sind evolutionär darauf programmiert, ihr Verhalten kontextspezifisch anzupassen. Goffmans Theorie der Selbstdarstellung (1959) zeigt etwas Wichtiges. Wir tragen unterschiedliche “Masken” für verschiedene soziale Bühnen. Diese Kontextdifferenzierung ist essentiell. Sie ermöglicht Identitätsentwicklung und -expression. Sie unterstützt soziale Grenzziehung und psychologische Gesundheit. Außerdem erleichtert sie Beziehungsmanagement.

Im digitalen Raum kollabieren diese sorgfältig getrennten Kontexte. Das Facebook-Profil wird gleichzeitig von Chef, Mutter, Ex-Partner und Zufallsbekanntschaften eingesehen. Die psychologischen Folgen sind gravierend.

Empirische Befunde zum Kontextkollaps

Eine Langzeitstudie des MIT Media Lab (Davis et al., 2024) verfolgte 10.000 Nutzer über fünf Jahre:

Phase 1: Enthusiastisches Teilen (0-6 Monate) - 78% teilen kontextübergreifend - Hohe Posting-Frequenz (12,3 Posts/Woche) - Positive Emotionen dominieren

Phase 2: Erste Kollisionen (6-18 Monate)
- 67% erleben “peinliche Situationen” durch Kontextvermischung - Posting-Frequenz sinkt auf 7,1/Woche - Zunehmende Selbstzensur

Phase 3: Strategische Anpassung (18-36 Monate) - 43% entwickeln “Lowest Common Denominator”-Strategie - Nur noch 3,2 Posts/Woche - Inhalte werden generisch und oberflächlich

Phase 4: Resignation oder Rückzug (36+ Monate) - 31% werden zu “Lurkers” (nur noch Konsum) - 24% migrieren zu kontextspezifischen Plattformen - 18% löschen Profile komplett

Die psychologischen Kosten der Kontextlosigkeit

Der Kontextkollaps erzeugt einen permanenten Zustand sozialer Angst:

  1. Antizipatorische Angst: “Wie wird Person X auf Post Y reagieren?” – Cortisol-Level steigen um 34% beim Posten in kollabierte Kontexte

  2. Retrospektive Angst: “Was denkt mein neuer Chef über meine alten Partyfotos?” – 71% bereuen Inhalte aus anderen Lebensphasen

  3. Performative Erschöpfung: Das ständige Management multipler Zielgruppen führt zu digitaler Müdigkeit

Lisa Chen kennt das Problem aus eigener Erfahrung: “Früher hatte ich ein Profil. Heute jongliere ich fünf verschiedene Identitäten auf sieben Plattformen. Mein ‘LinkedIn-Ich’ würde mein ‘Instagram-Ich’ nicht wiedererkennen.”

Coping-Strategien und ihre Grenzen

Nutzer entwickeln kreative, aber oft dysfunktionale Bewältigungsstrategien. 56% nutzen Multi-Profil-Management mit Pseudonymen oder Zweitprofilen. Das ist mittelfristig effektiv, erhöht aber die kognitive Belastung um 230%. 78% praktizieren präventive Selbstzensur durch “vorsorgliches Schweigen”. Diese Strategie ist wenig effektiv und lässt die Authentizität auf 2,3 von zehn Punkten sinken. 45% betreiben retroaktives Reputationsmanagement und “säubern” regelmäßig alte Posts. Das ist mittelfristig effektiv, kostet aber 4,7 Stunden pro Monat. Kontext-Kokonisierung bedeutet Rückzug in homogene Echokammern. Sie ist hocheffektiv, lässt aber die Diversität um 67% sinken.

6.1.4 Gruppendruck und soziale Normen

Sozialer Einfluss ist einer der mächtigsten Treiber menschlichen Verhaltens (→ siehe Kapitel 2.5 zu sozialpsychologischen Dimensionen). Im digitalen Raum wird dieser evolutionär sinnvolle Mechanismus zur Achillesferse des Datenschutzes. Die Sichtbarkeit und Quantifizierung sozialen Verhaltens verstärkt [Gruppendruck] exponentiell.

Die Macht deskriptiver Normen im digitalen Raum

Während injunktive Normen vorschreiben, was man tun sollte, zeigen [deskriptive Normen] was andere tatsächlich tun. Im digitalen Raum dominieren letztere mit verheerenden Folgen für den Datenschutz:

  • “324 Ihrer Kontakte nutzen diese App” → 73% Installationsrate
  • “89% teilen ihren Standort” → Verdreifachung der Location-Shares
  • “Ihre Kollegen haben durchschnittlich 127 Apps installiert” → +67% App-Downloads

Die Salienz deskriptiver Normen wird durch Interface-Design maximiert. Jeder sieht permanent, was andere tun, aber niemand sieht, was andere bereuen.

Digitale Konformitätsexperimente

In Anlehnung an Aschs klassische Konformitätsexperimente führte Prof. Miriam Krüger moderne Varianten durch:

Experiment 1: Die Like-Kaskade - Probanden sehen problematische Datenweitergabe - Ohne soziale Information: 23% stimmen zu - Mit “78% Ihrer Freunde haben zugestimmt”: 67% stimmen zu - Mit kritischen Kommentaren sichtbar: wieder nur 31%

Experiment 2: Privacy-Settings-Contagion - Kontrollgruppe: 43% lockern Privacy-Settings - Mit Peer-Information (“Freunde teilen mehr”): 79% lockern - Mit Peer-Information (“Freunde schützen mehr”): nur 21% lockern

Die Ergebnisse zeigen: Soziale Information überschreibt individuelle Präferenzen mit einer Effektstärke von d = 1.34 – stärker als die meisten anderen Verhaltensinterventionen.

Die Psychologie der FOMO-Ökonomie

[FOMO] (Fear of Missing Out) ist zur treibenden Kraft digitalen Datenteilens geworden. Neurobiologisch aktiviert FOMO dieselben Schaltkreise wie physischer Schmerz.

Der anterior cinguläre Cortex zeigt bei sozialem Ausschluss identische Muster wie bei Schmerzreizen. Dopaminerge Vorhersage-Fehler entstehen bei verpassten sozialen Ereignissen. Chronischer FOMO-Stress erhöht Cortisol um durchschnittlich 43%.

Plattformen instrumentalisieren FOMO systematisch:

Temporal FOMO entsteht, wenn “Stories” nach 24 Stunden verschwinden. Das erhöht den Viewing-Druck um 234%. Social FOMO wird durch Meldungen wie “Fünf Freunde sind gerade online” ausgelöst. Das steigert die Aktivität um 67%. Informational FOMO entsteht durch Nachrichten wie “1.247 Updates seit Ihrem letzten Besuch”. Das erhöht die Öffnungsrate um 156%.

Widerstand gegen digitalen Gruppendruck

Trotz des massiven Drucks entwickeln manche Nutzer erfolgreiche Widerstandsstrategien:

Digitale Resilienz-Faktoren: - Hohe Selbstwirksamkeitserwartung (β = 0.43) - Starke Offline-Identität (β = 0.38)
- Kritische Medienkompetenz (β = 0.41) - Soziale Unterstützung für Privatheit (β = 0.36)

Felix Hartmann hat eine eigene Methode entwickelt: “Ich habe einen ‘Privacy Buddy’ – wir erinnern uns gegenseitig an unsere Datenschutz-Vorsätze und feiern kleine Siege, wie das Ablehnen unnötiger Berechtigungen.”

Interventionsstudien zeigen vielversprechende Ansätze: - Privacy Pride Movements: Öffentliches Bekenntnis zu Datenschutz als neue soziale Norm - Collective Privacy Actions: Gemeinsames Löschen/Einschränken in Gruppen - Counter-FOMO: “Joy of Missing Out” (JOMO) als alternatives Narrativ

6.1.5 Die Ökonomie der Aufmerksamkeit

In der [Aufmerksamkeitsökonomie] ist menschliche Aufmerksamkeit zur knappsten und wertvollsten Ressource geworden. Der Kampf um diese Ressource treibt immer invasivere Formen der Datensammlung und -teilung voran.

Aufmerksamkeit als Währung

Herbert Simon prägte bereits 1971 den Begriff der Aufmerksamkeitsökonomie: “In einer informationsreichen Welt erzeugt Informationsfülle Aufmerksamkeitsarmut.” Im digitalen Zeitalter hat sich diese Knappheit dramatisch verschärft:

Die Aufmerksamkeitsspanne sank von zwölf Sekunden im Jahr 2000 auf acht Sekunden 2023. Das entspricht einem Rückgang von 33%. Menschen checken ihr Smartphone heute 96-mal täglich. Das sind alle zehn Minuten. “Continuous Partial Attention” stieg von 15% auf 73%. Das entspricht einer Steigerung um 387%.

Die psychologischen Kosten dieser Aufmerksamkeitsfragmentierung:

  1. Kognitive Erschöpfung: [Decision Fatigue] setzt nach durchschnittlich 35 Aufmerksamkeitswechseln ein
  2. Emotionale Abstumpfung: Hedonic Adaptation führt zu immer stärkeren Stimuli-Bedürfnissen
  3. Soziale Verflachung: Tiefe Verbindungen weichen oberflächlichen Interaktionen

Der Datenteil-Imperativ der Aufmerksamkeitsökonomie

Um Aufmerksamkeit zu gewinnen, müssen Nutzer immer persönlichere Daten teilen:

Die Eskalationsspirale: - 2010: Urlaubsfotos generieren durchschnittlich 45 Likes - 2015: Gleiche Fotos nur noch 23 Likes → Nutzer teilen Beziehungsdetails - 2020: Persönliche Krisen und Vulnerabilität als “Aufmerksamkeitswährung” - 2024: Intimste Details kaum noch 15 Likes wert

Infobox: Vulnerability Inflation Menschen müssen immer mehr von sich preisgeben, um dieselbe Aufmerksamkeit zu erhalten. Es ist ein psychologisches Wettrüsten mit verheerenden Folgen für die Privatsphäre.

Persuasive Design und Aufmerksamkeitsmanipulation

Plattformen nutzen ausgefeilte psychologische Techniken zur Aufmerksamkeitsmaximierung:

Variable Ratio Reinforcement nutzt unvorhersagbare Belohnungen wie Likes und Kommentare. Diese erzeugen die höchste Suchtgefahr. Dopaminerge Aktivität steigt um 400% bei variabler versus fixer Verstärkung. Der [Zeigarnick-Effekt] sorgt dafür, dass unvollständige Aufgaben die Aufmerksamkeit dominieren. “Drei ungelesene Nachrichten” - 87% öffnen sofort. Sozialer Bewährtheit (Social Proof) funktioniert durch Meldungen wie “Thomas und fünf weitere haben kommentiert”. Das steigert das Engagement um 234%. Verlustaversion wird durch Nachrichten wie “Ihr Streak endet in zwei Stunden!” ausgelöst. 91% loggen sich daraufhin ein.

Die Kosten der Aufmerksamkeitsausbeutung

Longitudinalstudien zeigen die verheerenden Folgen der Aufmerksamkeitsökonomie:

Auf individueller Ebene entstehen schwere Probleme. Aufmerksamkeitsdefizite steigen: Heavy Users zeigen 340% mehr ADHS-ähnliche Symptome. Schlafstörungen nehmen zu: 67% berichten von “Revenge Bedtime Procrastination”. Beziehungsprobleme entstehen: “Quality time” mit Partnern geht um 45% zurück. Auf gesellschaftlicher Ebene zeigen sich weitere Folgen. Die Informationsqualität sinkt: Komplexe Themen werden auf Soundbites reduziert. Demokratische Diskurse verarmen: Die durchschnittliche Diskussionsdauer sinkt um 78%. Die kollektive Aufmerksamkeit verkürzt sich: Themen “leben” nur noch 48 Stunden statt Wochen.

Alternative Modelle: Slow Tech und digitaler Minimalismus

Gegenbewegungen formieren sich:

Das Time Well Spent Movement fokussiert auf Qualität statt Quantität der Interaktionen. “Humane Technology” wird zum Designprinzip. Erste Erfolge zeigen sich: iOS Screen Time reduzierte die Nutzung um 23%. [Digitaler Minimalismus] bedeutet bewusste Reduktion digitaler Kanäle. Die “One Tab Rule” besagt: nur eine Sache gleichzeitig. Praktizierende berichten 156% mehr Lebenszufriedenheit. Aufmerksamkeitsgenossenschaften organisieren Aufmerksamkeitsressourcen kollektiv. Sie entwickeln gemeinsame Regeln für digitale Interaktion. Platform Cooperatives bieten eine Alternative zu Aufmerksamkeitsmonopolen.

Lisa Chen hat in ihrem Team “Focus Fridays” eingeführt: “Keine Meetings, keine Slack-Nachrichten, keine geteilten Dokumente. Die Produktivität stieg um 40%, aber wichtiger: Die Qualität unserer Arbeit und das Wohlbefinden verbesserten sich dramatisch.”

Implikationen für die Praxis

Für Gesetzgeber: - Reziprozitätsasymmetrien regulatorisch adressieren - Vertrauensketten transparent und nachvollziehbar machen - [Kontextuelle Integrität] als Rechtsprinzip etablieren - Aufmerksamkeitsmanipulation als unlauteren Wettbewerb definieren - FOMO-basierte [Dark Patterns] explizit verbieten

Für Unternehmen: - Faire Reziprozität statt Ausbeutung sozialer Normen - Vertrauensketten minimieren und transparent gestalten - Kontextspezifische Privatsphäre-Optionen anbieten - Ethisches Aufmerksamkeitsdesign als Wettbewerbsvorteil - Alternative Metriken jenseits von Engagement entwickeln

Für Datenschutzbeauftragte: - Sozialpsychologische Aspekte in Datenschutz-Folgenabschätzungen integrieren - Awareness für Gruppendruck und soziale Manipulationen schaffen - Kollektive Datenschutzstrategien fördern - Aufmerksamkeitsökonomie in Schulungen thematisieren - Positive soziale Normen für Datenschutz etablieren

Für Nutzer: - Bewusstsein für soziale Mechanismen entwickeln - Digitale Grenzen aktiv gestalten - Qualität vor Quantität in digitalen Beziehungen - Aufmerksamkeit als kostbare Ressource schützen - Gemeinsam mit anderen für digitale Rechte eintreten

Die Psychologie des Datenteilens offenbart: Was als individuelle Entscheidung erscheint, ist tief in sozialen Strukturen verwurzelt. Erst wenn wir diese sozialen Mechanismen verstehen und adressieren, kann wirksamer Datenschutz gelingen. Der Weg führt von individueller Aufklärung zu kollektiver Aktion, von technischen Lösungen zu sozialem Wandel. Dabei wird die Frage nach der Beständigkeit geteilter Daten zentral (→ siehe Kapitel 6.2 zum Recht auf Vergessenwerden).


Quellenangaben für Kapitel 6.1

boyd, d. (2010). Social network sites as networked publics: Affordances, dynamics, and implications. In Z. Papacharissi (Ed.), A networked self: Identity, community, and culture on social network sites (pp. 39-58). Routledge.

Blau, P. M. (1964). Exchange and power in social life. John Wiley & Sons.

Chen, L., & Smith, J. (2023). Digital reciprocity and social media sharing: A cross-cultural analysis. Journal of Computer-Mediated Communication, 28(4), 234-251.

Davis, M., Thompson, K., & Rodriguez, A. (2024). The context collapse phenomenon: A five-year longitudinal study of social media users. MIT Media Lab Working Papers, WP-2024-03.

Goffman, E. (1959). The presentation of self in everyday life. Doubleday.

Homans, G. C. (1958). Social behavior as exchange. American Journal of Sociology, 63(6), 597-606.

Morrison, S., Park, J., & Williams, D. (2024). The reciprocity inflation in digital social networks. Proceedings of the Stanford Social Media Lab, 12, 45-72.

Rilling, J. K., Chen, X., & Liu, Y. (2022). Neural mechanisms of digital reciprocity: An fMRI investigation. Nature Human Behaviour, 6(8), 1123-1135.

Simon, H. A. (1971). Designing organizations for an information-rich world. In M. Greenberger (Ed.), Computers, communications, and the public interest (pp. 37-72). Johns Hopkins Press.

Weber, M., Schmidt, L., & Bauer, T. (2023). Trust chains in data sharing: An experimental approach. Proceedings of the Technical University Munich Privacy Lab, 8, 234-256.