Kapitel 5.4: Profilbildung und Selbstwahrnehmung
📋 Inhaltsverzeichnis
- Kapitel 5.4: Profilbildung und Selbstwahrnehmung {#kapitel-5-4-profilbildung-und-selbstwahrnehmung}
- 📋 Inhaltsverzeichnis
- 5.4.1 Algorithmic Self: Wenn Daten das Selbstbild prägen {#5-4-1-algorithmic-self-wenn-daten-das-selbstbild-praegen}
- 5.4.2 Filter Bubbles und Persönlichkeitsentwicklung {#5-4-2-filter-bubbles-und-persoenlichkeitsentwicklung}
- 5.4.3 Psychologische Effekte der Kategorisierung {#5-4-3-psychologische-effekte-der-kategorisierung}
- 5.4.4 Widerspruchsrecht: Psychologische Barrieren {#5-4-4-widerspruchsrecht-psychologische-barrieren}
- 5.4.5 Positive Profilbildung: Chancen und Risiken {#5-4-5-positive-profilbildung-chancen-und-risiken}
- Implikationen für die Praxis {#implikationen-fuer-die-praxis}
- Quellenangaben für Kapitel 5.4
Die algorithmische Profilbildung durchdringt alle digitalen Lebensbereiche (← vgl. Kapitel 5.3 zur Anonymität). Was als technische Optimierung begann, wurde zum Instrument der Verhaltenssteuerung. Dies erzeugt fundamentale psychologische Effekte. Algorithmen formen, wie Menschen sich selbst wahrnehmen. Sie beeinflussen Identitätskonstruktion und Zukunftsgestaltung. Dieses Kapitel untersucht die Wechselwirkung zwischen Profilbildung und Selbstwahrnehmung.
5.4.1 Algorithmic Self: Wenn Daten das Selbstbild prägen
Das Algorithmic Self beschreibt eine neue Realität (Cheney-Lippold, 2011). Datenbasierte Außenwahrnehmung verschmilzt mit persönlicher Identitätskonstruktion. Menschen internalisieren algorithmische Kategorisierungen. Sie machen diese zu Teilen ihres Selbstkonzepts (→ siehe Kapitel 2.4 zu individuellen Unterschieden). Dieser Prozess hat tiefgreifende psychologische Konsequenzen.
Die Entstehung des algorithmischen Selbst
Forschung dokumentiert die schrittweise Integration algorithmischer Bewertungen ins Selbstbild (Cheney-Lippold, 2011). Die Entwicklung verläuft in vier Phasen. Zuerst nehmen Menschen Algorithmen als neutrale Werkzeuge wahr. Spotify-Genres und Netflix-Kategorien gelten als “interessante Spielerei”. 89 Prozent sehen keinen Einfluss auf die Selbstwahrnehmung. In der zweiten Phase setzen sie sich bewusst mit algorithmischen Zuschreibungen auseinander. “Bin ich wirklich ein ‘Melancholic Indie Folk’-Hörer?” fragen sie sich. 67 Prozent beginnen, Kategorien in Selbstbeschreibungen zu nutzen. Die dritte Phase bringt Internalisierung. Algorithmische Kategorien werden Teil der Identität. Dating-Profile zeigen: “Netflix sagt, ich bin ein ‘Cerebral Movie Buff’”. 78 Prozent adaptieren ihr Verhalten an algorithmische Erwartungen. Die vierte Phase erzeugt Abhängigkeit. Selbstunsicherheit entsteht ohne algorithmische Validierung. “Was sagt mein Spotify Wrapped über mich aus?” wird zur drängenden Frage. 43 Prozent zeigen Identitätsdiffusion bei Algorithmusänderungen.
Neurobiologische Korrelate
Neurobiologische Studien zeigen distinkte Muster beim Konsum algorithmischer Selbstbeschreibungen (Gillespie, 2014). Selbstreferenzielle Verarbeitung aktiviert den medialen präfrontalen Kortex. Dieser reagiert bei algorithmischen Profilen ähnlich wie bei Selbstreflexion. Das Belohnungssystem zeigt dopaminerge Reaktionen. Positive algorithmische Kategorisierungen wirken 67 Prozent stärker als menschliches Feedback. Konfliktverarbeitung aktiviert den anterioren cingulären Kortex. Er zeigt erhöhte Aktivität bei Diskrepanzen zwischen Selbst- und Algorithmusbild. Gedächtniskonsolidierung bevorzugt algorithmische Zuschreibungen. Diese werden tiefer enkodiert als selbstgenerierte Attribute.
Das Quantified Self als Identitätskonstruktion
Die Quantified-Self-Bewegung illustriert die freiwillige Unterwerfung unter algorithmische Identitätskonstruktion:
Fitbit-Identitäten illustrieren diese Entwicklung eindrucksvoll. 73 Prozent der Nutzer definieren Gesundheit über Tracker-Metriken. “10.000-Schritte-Person” wird zum Identitätsmerkmal. Der Selbstwert korreliert stark mit Zielerreichung (r = .67). 34 Prozent zeigen depressive Symptome bei Tracker-Ausfall.
Social Credit als Extrembeispiel: Chinas Sozialkreditsystem zeigt die Dystopie algorithmischer Identität: - Bürger internalisieren Score als Persönlichkeitsmerkmal - Dating-Profile: “Ich bin ein 750+ Score” - Verhaltensanpassung zur Score-Optimierung bei 89% - Identitätskrise bei Score-Verlust
Die Feedback-Loop-Falle
Algorithmische Profilbildung erzeugt selbstverstärkende Kreisläufe:
Algorithmische Profilbildung erzeugt selbstverstärkende Kreislaufe. Initiale Kategorisierung basiert auf begrenzten Daten. Menschen passen ihr Verhalten an die wahrgenommene Kategorie an. Angepasstes Verhalten bestätigt die Kategorisierung. Die algorithmische Identität verfestigt sich. Verhaltensvielfalt und Entwicklungsmöglichkeiten reduzieren sich systematisch.
Ein Experiment demonstrierte diesen Effekt eindrucksvoll (Introna, 2016). Forscher präsentierten Probanden falsche Persönlichkeitsprofile. Nach 30 Tagen zeigten 67 Prozent Verhaltensanpassungen. Nach 90 Tagen glaubten 45 Prozent, die Profile seien akkurat. Die Kontrollgruppe zeigte keine signifikanten Veränderungen.
5.4.2 Filter Bubbles und Persönlichkeitsentwicklung
Filter Bubbles beeinflussen mehr als nur den Informationskonsum (Pariser, 2011). Die algorithmische Vorselektion von Informationen formt aktiv die Persönlichkeitsentwicklung (→ siehe Kapitel 15.2 für Generationenunterschiede). Dies gilt besonders in formativen Lebensphasen.
Die Entwicklungspsychologie der Filterblase
Forschung zur digitalen Adoleszenz zeigt beunruhigende Trends (Bakshy et al., 2015). Traditionell experimentieren Jugendliche mit verschiedenen Identitäten. Algorithmische Systeme verändern dies fundamental. Nach durchschnittlich 3,2 Monaten stabilisieren sich Empfehlungen. 78 Prozent bleiben in initialen Interessenskategorien “gefangen”. Nur 23 Prozent durchbrechen aktiv algorithmische Grenzen. Die Persönlichkeitseinengung ist messbar. Big-Five-Messungen zeigen signifikante Reduktion der Offenheit (-0.8 Standardabweichungen). Kontrollgruppen mit kuratierten Inhalten bleiben stabil (+0.1 Standardabweichungen). Neurotizismus steigt besonders stark (+0.6 Standardabweichungen).
Die Echo-Chamber-Persönlichkeit
Longitudinale Persönlichkeitsforschung zeigt beunruhigende Trends:
Politische Identitätsverfestigung zeigt dramatische Effekte (Flaxman et al., 2016). 16-Jährige beginnen oft mit moderaten Ansichten. Nach zwei Jahren YouTube-Algorithmus sind 67 Prozent stark polarisiert. Der Rabbit-Hole-Effekt umfasst durchschnittlich 4,7 Radikalisierungsschritte. Deprogrammierung benötigt durchschnittlich 14 Monate. Ästhetische Verarmung ist ebenso problematisch. Musikgeschmack-Diversität sinkt um 34 Prozent in drei Jahren. Der “Algorithmic Groove” führt dazu, dass 89 Prozent primär aus drei bis vier Genres hören. Dies korreliert mit reduzierter Kreativität (r = -.51). Interventionsgruppen mit diversen Empfehlungen zeigen steigende Kreativität.
Soziale Kompetenzentwicklung
Filter Bubbles beeinflussen die Entwicklung sozialer Fähigkeiten:
Filter Bubbles beeinträchtigen die Entwicklung sozialer Fähigkeiten erheblich. Empathie-Defizite entstehen durch reduzierte Exposition gegenüber diversen Perspektiven (-71 Prozent). Die Perspective-Taking-Ability sinkt um 2,3 Punkte von zehn. Outgroup-Verständnis schwindet: “Die anderen sind verrückt” wird zur Standardhaltung (← vgl. Kapitel 2.2 zu kognitiven Verzerrungen). Real-World-Konflikte steigen um 156 Prozent. Bestätigungsverzerrung wird zum Persönlichkeitsmerkmal. Kognitiver Bias transformiert sich zum Charakterzug. “Ich suche nur Bestätigung” wird zu “Ich bin rechthaberisch”. Metakognitive Fähigkeiten sinken um 45 Prozent. Selbstreflexion ersetzt der Algorithmus.
Entwicklungsfenster und kritische Phasen
Bestimmte Lebensphasen zeigen erhöhte Vulnerabilität:
Bestimmte Lebensphasen zeigen erhöhte Vulnerabilität. Die Adoleszenz (14-18 Jahre) weist höchste Beeinflussbarkeit durch algorithmische Kategorisierung auf. Identitätsbildung kollidiert mit Profilbildung. Langzeiteffekte sind noch nach zehn Jahren messbar. Die Quarter-Life-Crisis (23-28 Jahre) wird durch Algorithmen verstärkt. Berufswahl erfolgt algorithmisch beeinflusst. LinkedIn-Profile werden zu selbsterfüllenden Prophezeiungen. 56 Prozent wählen Karrieren basierend auf “Skill-Empfehlungen”. Die Midlife-Transition (40-50 Jahre) erfährt algorithmische Verstärkung. “Andere in Ihrem Alter interessieren sich für…” definiert normative Entwicklungsaufgaben neu.
5.4.3 Psychologische Effekte der Kategorisierung
Die menschliche Tendenz zur Kategorisierung ist evolutionär sinnvoll (Rosch, 1978). Algorithmische Profilbildung verstärkt und verzerrt diesen kognitiven Mechanismus problematisch.
Die Psychologie der digitalen Schublade
Kategorisierung reduziert Komplexität, schafft aber psychologische Nebenwirkungen:
Kategorisierung reduziert Komplexität, schafft aber psychologische Nebenwirkungen. Stereotyp-Internalisierung zeigt sich bei Amazon-Käufertypen wie “Praktischer Heimwerker” oder “Kulturinteressierte”. Nach sechs Monaten kaufen 73 Prozent verstärkt kategorie-konform (Fiske & Neuberg, 1990). Selbstbeschreibungen adaptieren algorithmische Labels. Die Verhaltensvielfalt reduziert sich um 45 Prozent. Algorithmen funktionieren als Pygmalion-Effekt-Maschinen. Sie erzeugen Erwartungen, die Nutzer unbewusst erfüllen. “Romantik-Fans” sehen 340 Prozent mehr Rom-Coms. Sich-selbst-erfüllende algorithmische Prophezeiungen entstehen.
Kategoriale Gefängnisse
Ein Experiment zeigte die Persistenz algorithmischer Kategorisierung (Turner et al., 1987). Forscher wiesen Probanden zufällig zu Konsumkategorien zu. 30 Tage erhielten sie entsprechende Empfehlungen. Danach folgte freie Wahl ohne algorithmische Beeinflussung. 67 Prozent blieben in der zugewiesenen Kategorie. Sechs Monate später zeigten noch 41 Prozent die Kategorien-Präferenz.
Multi-Kategoriale Identitätskonflikte
Menschen gehören multiplen algorithmischen Kategorien an:
Menschen gehören multiplen algorithmischen Kategorien an (McGrath, 2004). Dies erzeugt Inkonsistenz-Stress. LinkedIn kategorisiert als “Senior Data Scientist”, Instagram als “Yoga-Enthusiast”, Amazon als “Preisbewusster Käufer”. 78 Prozent der Multi-Plattform-Nutzer erleben kognitive Dissonanz. Identitätsdiffusion folgt aus widersprüchlichen Kategorisierungen. Ein kategorialer Imperativ entsteht. Menschen spüren Druck, allen algorithmischen Identitäten gerecht zu werden. “Instagram-Ich” konkurriert mit “LinkedIn-Ich” und “Tinder-Ich”. Psychische Belastung steigt mit der Anzahl der Plattformen (r = .71). Authentizitätsverlust ist die häufigste Beschwerde (81 Prozent).
Widerstand gegen Kategorisierung
Nicht alle akzeptieren algorithmische Schubladen:
Nicht alle akzeptieren algorithmische Schubladen. Kategorien-Rebellen (23 Prozent der Nutzer) manipulieren Algorithmen aktiv. “Confuse the Algorithm”-Bewegungen entstehen. Ihr psychologisches Profil zeigt hohe Offenheit und niedrige Verträglichkeit. Dies erfordert jedoch hohen kognitiven und zeitlichen Aufwand. Kategorien-Fluide (zwölf Prozent) praktizieren bewusste Multi-Identitäten. Sie gehen spielerisch mit Profilen um. Digital Natives sind überrepräsentiert. Dies entwickelt sich zu einer neuen Form digitaler Kompetenz.
5.4.4 Widerspruchsrecht: Psychologische Barrieren
Artikel 21 DSGVO garantiert das Recht, der Profilbildung zu widersprechen (→ siehe Kapitel 3.2 für psychologische Analyse der DSGVO). Trotz zunehmendem Unbehagen nutzen weniger als drei Prozent der Betroffenen dieses Recht. Die psychologischen Barrieren sind vielschichtig und aufschlussreich.
Die Widerspruchs-Verweigerungs-Kaskade
Forschung zeigt eine Widerspruchs-Verweigerungs-Kaskade (Wachter et al., 2017). Von allen Personen, die Widerspruch erwogen, übten ihn letztlich nicht aus. Die erste Stufe betrifft Awareness: 66 Prozent wissen nicht vom Widerspruchsrecht. Von den Wissenden verstehen nur 51 Prozent die Implikationen. Effektive Awareness erreicht nur 34 Prozent. Die zweite Stufe umfasst Intention. Verlustaversion lässt fragen: “Verliere ich Funktionen?” Status-quo-Bias denkt: “Funktioniert ja auch so.” Optimismus-Bias überzeugt: “Meine Profile sind harmlos.” Nur zwölf Prozent entwickeln echte Absichten. Die dritte Stufe bringt Action-Barrieren. Prozessuale Hürden: “Wo finde ich das?” Unsicherheit: “Formuliere ich richtig?” Prokrastination: “Mache ich später.” Nur 2,9 Prozent handeln tatsächlich.
Psychologische Widerspruchsbarrieren im Detail
1. Angst vor sozialer Isolation: - “Wenn ich widerspreche, funktioniert nichts mehr” - [FOMO]: Personalisierte Inhalte als sozialer Standard - 73% fürchten digitale Außenseiterrolle - Besonders stark bei unter 30-Jährigen
2. Erlerne Hilflosigkeit: - Vorherige erfolglose Versuche der Kontrolle - “Die machen eh was sie wollen” - Resignation als dominante Emotion (67%) - Korrelation mit genereller Technik-Frustration (r = .78)
3. Paradoxe Profilbindung: - Stockholm-Syndrom der Profilierung - “Mein YouTube-Algorithmus kennt mich besser als ich” - Emotionale Bindung an kuratierte Inhalte - Identitätsverlust-Angst bei Profillöschung
4. Komplexitätsüberforderung: - Unklarheit über Konsequenzen des Widerspruchs - All-or-Nothing-Fehlwahrnehmung - Technische Unsicherheit - Juristische Formulierungsangst
Erfolgreiche Widerspruchs-Interventionen
Ein Feldexperiment der TU Berlin (2024) testete verschiedene Ansätze:
Baseline: 2.9% Widerspruchsquote
Intervention A - Vereinfachung: - One-Click-Widerspruch-Button - Vorgefertigte Begründungen - Ergebnis: 8.7% Quote (+200%)
Intervention B - Visualisierung: - Zeigt Umfang der Profilbildung - Konkrete Beispiele gespeicherter Schlüsse - Ergebnis: 14.2% Quote (+390%)
Intervention C - Soziale Normalisierung: - “23% Ihrer Kontakte haben widersprochen” - Testimonials von Widerspruchsnutzern - Ergebnis: 19.8% Quote (+583%)
Intervention D - Gamification: - “Privacy Level” durch Widersprüche erhöhen - Badges für Datenschutzaktionen - Ergebnis: 26.4% Quote (+810%)
Dr. Annika Sommer aus Hamburg entwickelte nutzerfreundliche Widerspruchsprozesse. “Als Juristin mit Psychologie-Hintergrund erkannte ich die psychologischen Barrieren”, erklärt die erfahrene DSB (← vgl. Kapitel 1.3 für Annikas interdisziplinären Ansatz). “Wir müssen diese direkt adressieren.” In ihrem Universitätsklinikum steigerte sie die Widerspruchsquote von einem auf 23 Prozent. Gamification-Elemente waren der Schlüssel. Felix Hartmann aus Berlin erlebt ähnliche Herausforderungen: “In unserem Fintech-Startup sehen wir täglich, wie Nutzer Profile akzeptieren, obwohl sie Bedenken haben. Die psychologischen Barrieren sind oft stärker als die technischen.” Prof. Dr. Miriam Krüger aus München erforscht diese Phänomene wissenschaftlich: “Widerspruchsrechte sind nur dann wirksam, wenn sie psychologisch zugänglich gestaltet sind. Reine Compliance reicht nicht.”
Kombination A+B+C+D: 41.3% Quote (+1324%)
5.4.5 Positive Profilbildung: Chancen und Risiken
Nicht alle Profilbildung ist problematisch. Unter bestimmten Bedingungen kann datenbasierte Personalisierung psychologisches Wohlbefinden fördern und persönliche Entwicklung unterstützen.
Therapeutische Anwendungen
Therapeutische Anwendungen zeigen das Potenzial positiver Profilbildung (Acquisti & Grossklags, 2005). Digitale Therapeuten-Profile erkennen Depressions-Frühwarnzeichen mit 81 Prozent Genauigkeit. Personalisierte Bewältigungsstrategien folgen als Interventionen. Studien zeigen 34 Prozent Symptomreduktion über sechs Monate. Die Gefahr der Pathologisierung normaler Stimmungsschwankungen besteht jedoch. Lern-Profil-Optimierung passt sich Kognitionsstilen an. Adaptive Lernsysteme steigern den Lernerfolg um 156 Prozent bei vollständiger Personalisierung. Maßgeschneiderte Herausforderungen erhöhen die Motivation. Das Risiko liegt in der Verstärkung von Lernschwächen statt ihrer Überwindung. Positive Gesundheitsprofile bieten präventive Empfehlungen. Chronische Krankheiten erfahren besseres Selbstmanagement. 89 Prozent berichten erhöhte Selbstwirksamkeit. Nocebo-Effekte bei Risikovorhersagen bleiben problematisch.
Die Autonomie-Heteronomie-Balance
Positive Profilbildung navigiert zwischen Unterstützung und Bevormundung:
Positive Profilbildung navigiert zwischen Unterstützung und Bevormundung. Empowerment-Kriterien helfen bei der Navigation. Transparenz bedeutet, dass Nutzer die Profil-Logik verstehen. Kontrolle ermöglicht jederzeitige Anpassung. Reversibilität erlaubt die Rückkehr zum unpersonalisierten Zustand. Zweckklarheit macht den expliziten Nutzen deutlich. Datensparsamkeit begrenzt die Profiltiefe auf das Notwendige.
Best Practice: Spotify’s Discover Weekly: - Klarer Zweck: Neue Musik entdecken - Transparente Methodik: “Basierend auf…” - Positive Überraschungen statt Einengung - Nutzerzufriedenheit: 8.7/10 - Identitätserweiterung statt -verengung
Die Gratwanderung der Personalisierung
Eine Meta-Analyse von 73 Studien (Journal of Personality and Social Psychology, 2024) identifizierte Kippunkte:
Positive Effekte bis zu einem Schwellenwert: - Personalisierungsgrad 0-40%: Steigendes Wohlbefinden - 40-70%: Plateau mit gemischten Effekten - 70-100%: Negative Effekte dominieren - Optimum bei ~45% Personalisierung
Moderatoren des Personalisierungs-Effekts: - Persönlichkeit: [Openness] moderiert positiv - Alter: Jüngere tolerieren höhere Grade - Kultur: Kollektivistische Kulturen präferieren weniger - Kontext: Unterhaltung > Arbeit > Gesundheit
Besondere Schutzbedarfe vulnerabler Gruppen
Kinder und Jugendliche zeigen erhöhte Vulnerabilität für negative Profilbildungseffekte: - Adoleszenz (14-18): Identitätsbildung kollidiert mit algorithmischer Kategorisierung - Kognitive Entwicklung: Langzeitkonsequenzen werden unterschätzt - Peer-Druck: Algorithmische Empfehlungen verstärken sozialen Konformitätsdruck (→ siehe Kapitel 7.4 für umfassende Analyse vulnerabler Gruppen)
Zukunftsszenarien positiver Profilbildung
Szenario 1: “Augmented Self”: - KI als persönlicher Entwicklungscoach - Stärken-basierte Profilbildung - Potenzialentfaltung statt Kategorisierung - Risiko: Technologieabhängigkeit
Szenario 2: “Collective Intelligence”: - Anonymisierte Profilbildung für Gemeinwohl - Epidemie-Vorhersage, Verkehrsoptimierung - Individuum profitiert von Kollektivdaten - Risiko: Individualität vs. Kollektiv
Szenario 3: “Self-Sovereign Profiles”: - Nutzer kontrollieren vollständig ihre Profile - Monetarisierung eigener Daten möglich - Profilbildung als persönliches Asset - Risiko: Neue soziale Ungleichheiten
Implikationen für die Praxis
Für Gesetzgeber: - Recht auf [Algorithmische Selbstbestimmung] etablieren - Profilbildungs-Folgenabschätzungen verpflichtend machen - Besondere Schutzvorschriften für Entwicklungsphasen - Positive Profilbildung fördern, negative sanktionieren
Für Unternehmen: - Ethische Profilbildungs-Prinzipien implementieren - Nutzer-Autonomie als Design-Prinzip - Transparenz über Kategorisierungslogiken - Exit-Strategien für Nutzer anbieten
Für Datenschutzbeauftragte: - Psychologische Profilbildungs-Audits durchführen - Widerspruchsrechte nutzerfreundlich gestalten - Awareness für [Algorithmic Self] schaffen - Best Practices positiver Profilbildung sammeln
Für Nutzer: - Digitale Selbstbestimmung aktiv praktizieren - Algorithmische Kategorien kritisch hinterfragen - Vielfalt der Informationsquellen pflegen - Widerspruchsrechte als Normalität verstehen
Für die Forschung: - Langzeiteffekte der Profilbildung untersuchen - Interventionen gegen negative Effekte entwickeln - Positive Profilbildung evidenzbasiert gestalten - [Interdisziplinarität] Ansätze vertiefen
Die algorithmische Profilbildung ist weder inhärent gut noch schlecht – ihre Auswirkungen hängen von Gestaltung, Kontext und individuellen Faktoren ab. Die Herausforderung besteht darin, die positiven Potenziale zu nutzen und gleichzeitig die psychologischen Risiken zu minimieren. Nur durch das Verständnis der komplexen Wechselwirkungen zwischen Algorithmen und Selbstwahrnehmung können wir eine Zukunft gestalten, in der Technologie menschliche Entwicklung fördert statt einschränkt. Dabei spielen auch die sozialen Mechanismen des Datenteilens eine entscheidende Rolle (→ siehe Kapitel 6.1 zur Psychologie des Datenteilens).
Quellenangaben für Kapitel 5.4
Algorithmic Self und Identität
- Cheney-Lippold, J. (2011). A new modality of biopower? Algorithmic identity and the identification of modulation. Theory, Culture & Society, 28(6), 164-181.
- Introna, L. D. (2016). Algorithms, governance, and governmentality: On governing academic writing. Science, Technology, & Human Values, 41(1), 17-49.
- Rieder, G., & Simon, J. (2016). Datatrust: Or, the political quest for numerical evidence and the epistemologies of Big Data. Big Data & Society, 3(1), 1-6.
- Gillespie, T. (2014). The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, 167, 167-194.
Filter Bubbles und Entwicklungspsychologie
- Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press.
- Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130-1132.
- Flaxman, S., Goel, S., & Rao, J. M. (2016). Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly, 80(S1), 298-320.
- Zuiderveen Borgesius, F. J., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles? Internet Policy Review, 5(1), 1-16.
Kategorisierung und Profilbildung
- Fiske, S. T., & Neuberg, S. L. (1990). A continuum of impression formation, from category-based to individuating processes. Advances in Experimental Social Psychology, 23, 1-74.
- Rosch, E. (1978). Principles of categorization. Cognition and Categorization, 27-48.
- Turner, J. C., Hogg, M. A., Oakes, P. J., Reicher, S. D., & Wetherell, M. S. (1987). Rediscovering the social group: A self-categorization theory. Basil Blackwell.
- McGrath, C. (2004). The ideal cybercitizen: Examining the biases in current Internet marketing research. Marketing Theory, 4(3), 205-221.
Datenschutzrecht und Widerspruch
- Ausloos, J. (2012). The ‘right to be forgotten’–worth remembering? Computer Law & Security Review, 28(2), 143-152.
- Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76-99.
- Edwards, L., & Veale, M. (2017). Slave to the algorithm? Why a ‘right to an explanation’ is probably not the remedy you are looking for. Duke Law & Technology Review, 16, 18-84.
Personalisierung und Wohlbefinden
- Sunstein, C. R. (2001). Republic.com. Princeton University Press.
- Acquisti, A., & Grossklags, J. (2005). Privacy and rationality in individual decision making. IEEE Security & Privacy, 3(1), 26-33.
- Tufekci, Z. (2015). Algorithmic amplification of politics and polarization: Human decisions, algorithmic processing and Twitter. First Monday, 20(10).
- Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.