Schwerpunkt

4/2014 - Steuerung, Kontrolle, Disziplin/Medienpädagogische Perspektiven auf Medien und/der Überwachung

Die Kunst des Reg(istr)ierens mit Big Data

Ein Versuch über Digitale Selbstverteidigung und Aktive Medienarbeit mit Daten

AutorIn: Valentin Dander

Valentin Dander versucht sich an Antworten auf die Frage, wie Medienpädagogik auf Big Data und die Leaks von Edward Snowden reagieren kann. Dander schlägt so einen Bogen von der theoretischen Reflexion hin zur konkreten didaktischen Umsetzung ...

Abstract

Der Beitrag gibt Einblick in den Zusammenhang von Big Data Analytics und digitalen Überwachungspraktiken. Davon ausgehend werden mögliche Antworten auf die Frage nach medienpädagogischen Konsequenzen in Theorie und Praxis gegeben. Vorgeschlagen wird dabei eine Verschränkung von kritischer Analyse und aktiver Medienarbeit mit Daten.

This article provides readers with an overview on the complex of Big Data and digital surveillance practices. In a second step practical as well as theoretical consequences for media education are being asked for. It is suggested to answer this question by an entanglement of critical analysis and productive involvement with data.


"Jedermann hat, insbesondere auch im Hinblick auf die Achtung seines Privat- und Familienlebens,
Anspruch auf Geheimhaltung der ihn betreffenden personenbezogenen Daten,
soweit ein schutzwürdiges Interesse daran besteht."
(Österr. Grundrecht auf Datenschutz, DSG 2000, §1)

"Nach dem Bundesdatenschutzgesetz (BDSG) sind die
Erhebung, Verarbeitung und Nutzung
personenbezogener Daten verboten, es sei denn [...]"
(Bundesdatenschutzgesetz Deutschland)

1. Big Data als Gegenstand und Methode

Bis zum Jahr 2011 blieb das Schlagwort Big Data in der breiten Öffentlichkeit weitestgehend unbeachtet.[1] So verzeichnet Google Trends[2] bis zu diesem Zeitpunkt eine konstant geringe Zahl an Suchanfragen im Umfang von weniger als einem Zehntel des kürzlich erreichten Höhepunkts. 2011 steigt die Kurve rasant an und seit 2013 lässt sich anhand der Darstellung von Google annehmen, dass dieses neue Phänomen auch außerhalb der IT-Branche weite Beachtung findet. Auf welchen Daten(mengen) die Darstellung von Google Trends beruht, bleibt dabei ungeklärt, wir dürfen aber vermuten, dass die prozentuale Aufstellung der Suchanfragen im Zeitverlauf auf etwas gründet, was durchaus mit Big Data bezeichnet werden könnte.[3] Gleichermaßen gilt dieser Anstieg des Interesses für das wissenschaftliche Feld: Alleine in den letzten beiden Jahren sind drei (überwiegend) deutschsprachige Publikationen erschienen, deren Titel nicht anders lauten als Big Data (vgl. Geiselberger/Moorstedt 2013; Mayer-Schönberger/Cukier 2013; Reichert 2014b).

Was genau mit Big Data bezeichnet wird, bleibt bislang allerdings eher vage. Der Ausdruck krankt an einer ähnlichen Unschärfe wie die Bezeichnung 'Neue Medien' (vgl. Swertz 2006). Was zu einem historischen Zeitpunkt als 'neu' empfunden wurde, kann –  gerade, wenn es sich um technologische Entwicklungen handelt – bereits in kürzester Zeit als alltäglich wahrgenommen werden. Insofern stellt sich auch in Bezug auf Big Data die Frage, ob die Größe von Daten, Datensätzen und Datenbanken das entscheidende definitorische Kriterium sei, ob darunter also jeweils zu einem gegebenen historischen Zeitpunkt die Datenmenge verstanden wird, die von gegenwärtig marktüblicher Soft- und Hardware nicht verarbeitet werden kann. Auf eine solche Definition berief sich z. B. der Medientheoretiker Lev Manovich in einem Text über "Big Social Data" (vgl. 2011)[4] und zitiert dabei den zugehörigen Wikipedia-Artikel. Aktuell liest sich der Eintrag in der Wikipedia etwas unbestimmter, was auf die seither ausdifferenzierten Diskurse verweist. Big Data bezeichne demzufolge

"Daten-Mengen, die zu groß, oder zu komplex sind, oder sich zu schnell ändern, um sie mit händischen und klassischen Methoden der Datenverarbeitung auszuwerten. Der Begriff 'Big Data' unterliegt als Schlagwort derzeit einem kontinuierlichen Wandel; so wird mit Big Data ergänzend auch oft der Komplex der Technologien beschrieben, die zum Sammeln und Auswerten dieser Datenmengen verwendet werden" (Wikipedia 2014).

Danah boyd und Kate Crawford (vgl. 2013: 188f) schreiben über das Phänomen Big Data, dass es nicht nur auf den beiden Aspekten "Technologie" und "Analyse" beruhe, sondern auch auf einer spezifischen "Mythologie", einer "Aura der Objektivität, der Wahrheit und der Genauigkeit" (ebd.: 189). Dieser Nimbus äußere sich nicht nur in utopischen, sondern auch in dystopischen Be- und Zuschreibungen. Boyd und Crawford betonen dabei, anstatt wie Wikipedia und Manovich auf reine Mengenangaben abzuheben, den funktionalen Charakter von Big Data, der insbesondere in der Fähigkeit bestehe, solche Daten zu sammeln, zu speichern und nach je spezifischen Gesichtspunkten zu analysieren (vgl. ebd.). Bei einem solchen, operativ-methodischen Fokus bietet es sich m. E. an, von Big Data Analytics zu sprechen.

Aus diesem Blickwinkel formulieren die beiden Sozialwissenschaftlerinnen in der Folge ihre methodologische und forschungsethische Kritik, indem sie Schwachstellen von Big Data als Quelle der Erkenntnis aufzeigen (vgl. ebd.). Die Grenzen ebendieser Erkenntnis bestehen etwa darin, dass digitale Daten nur zu bestimmten Domänen und Zeitabschnitten des sozio-kulturellen Lebens vorliegen, und müssten entsprechend reflektiert werden. Wie die Herausgeberin des Sammelbandes " 'Raw Data' is an Oxymoron" (vgl. Gitelman/Jackson 2013), kritisieren auch boyd und Crawford (vgl. 2013: 195ff) den mit Big Data (Analytics) verbundenen Objektivitätsglauben und betonen die Relevanz von Fragestellung und Interpretation für den Output von Datenanalysen. Weiter geben sie zu bedenken, dass mehr Daten nicht automatisch zu besseren oder valideren Daten führen. Darüber hinaus seien die Datenquellen und die Selektionspraktiken – etwa bei Twitter-Schnittstellen – vielfach nicht transparent. Wie Manovich (2014: 70) problematisieren sie diesen eingeschränkten Zugang zu Daten, da zwischen IT-Konzernen und unabhängiger Wissenschaft eine "neue digitale Kluft" (boyd/Crawford 2013: 209ff) entstehe. Dass nicht die gesamte Menschheit, sondern nur ein gewisser Ausschnitt auf Twitter aktiv ist, scheint zwar offensichtlich, wird aber oftmals nicht expliziert. Schließlich stellen sich auch forschungsethische Fragen im Anschluss an die Anonymität von Daten. Welche (scheinbar) öffentlichen Daten dürfen zu Forschungszwecken herangezogen werden? Wie anonym sind (scheinbar) anonymisierte Daten bzw. Datensätze? Ist ein informed consent überhaupt möglich, wenn ProbandInnen die Möglichkeiten von Big Data Analytics nicht oder nicht adäquat einzuschätzen wissen? Und sind Ethikkommissionen überhaupt in der Lage dazu (vgl. ebd.: 205ff)?

Auf diese Fragen bieten die Autorinnen keine eindeutigen Antworten, eröffnen und vertiefen aber eine wichtige kritisch-reflexive Diskussion über die Bedeutung dieser jungen Methoden. Dass diese Fragen aufgrund leistungsfähigerer Hard- und Software nicht nur für die Gegenwart, sondern auch für zukünftige Auswertungsmöglichkeiten gestellt werden müssen, kompliziert die Sachlage zusätzlich.

2. Big Data within an even bigger Data Environment

Dass digitale Daten insgesamt erheblich an Bedeutung gewonnen haben, ist unbestritten. Egal, welche Metaphern gewählt werden – sei es Gold, Öl oder ähnlich wertvolle Äquivalente (vgl. etwa Raley 2013: 123) – sie verleihen dieser Entwicklung deutlich Ausdruck. Da allerdings selten Differenzierungen verschiedener Arten von Daten vorgenommen werden,[5] sollen an dieser Stelle zumindest kurz Platz Unterscheidungen, Überschneidungen und Unschärfen expliziert werden. Analoge Daten werden dabei allerdings von vornherein vernachlässigt, da sie, wie etwa im Bereich der Digital Humanities,[6] computergestützten Analyseformen erst über den Umweg der Digitalisierung zugänglich gemacht werden können.

Die Bezeichnung Big Data wird überwiegend für solche Daten gewählt, die in so großer Menge vorliegen, dass damit neue algorithmische Operationen funktional werden. Personenbezogene Daten hingegen sind solche, die im Hinblick auf Privatsphäre und Datenschutz problematisch sind, da sie auf einzelne Personen rückgeführt werden können. Über anonyme, statistische Analysen hinaus, können Einzelfälle ausgewertet werden. Der Ausdruck Open Data wiederum bezieht sich ausschließlich auf die Verfügbarkeit und freie Lizenzierung von Daten.[7] Mit Linked (Open) Data werden solche (Offenen) Daten genannt, die, grob vereinfacht, über vereinheitlichte Metadaten miteinander verknüpft werden können (vgl. Berners-Lee 2009). Metadaten wiederum heißen solche Daten, die andere Daten und Datensätze näher bezeichnen, kategorisieren und entsprechend auffind- und kombinierbar machen.

Die angeführten Beschreibungskategorien – mit Dirk Baecker könnten auch diese als Metadaten bezeichnet werden[8] – sind nicht exklusiv, sondern fast durchwegs rekombinierbar. So sind Big Data umso wertvoller für Analysen, wenn möglichst viele der Daten auf einzelne Personen rückgeführt werden können, möglichst alle Daten fehlerfrei erhoben bzw. präpariert wurden – d. h. mit für Rechenoperationen funktionalen Metadaten versehen und somit miteinander verknüpft (linked) werden können. Einzig die Kategorie der Offenheit sperrt sich reziprok gegen diese Kombinatorik des Tauschwerts von Daten, da auch in der Datenbewirtschaftung Exklusivität und Monopolstellungen den Wert steigern können. Offene Daten sind hingegen für alle mit entsprechender Soft-, Hardware und den nötigen Fähigkeiten zugänglich, widersprechen also teils der genannten neuen digitalen Kluft. Zudem können (oder: sollten) Daten nicht zugleich open und personenbezogen sein. Allerdings kann die Anonymität von Daten ab einer gewissen verfügbaren Datenmenge nicht mehr garantiert werden (vgl. etwa Mayer-Schönberger/Cukier 2013: 152ff).

Gleichzeitig müssen personenbezogene Daten nicht notwendigerweise problematisch sein, wie das Beispiel des Self Tracking bzw. der Quantified Self-Bewegung zeigt. Kathrin Passig verteidigt diese Praxis der Selbstkontrolle und -überwachung mit den aufklärerischen Worten "Habe Mut, dich deiner eigenen Daten zu bedienen" (2013: 96) und ergänzt um einen leicht ironischen Erklärungsversuch:

"Und wahrscheinlich hat die Hinwendung zum privaten Datensammeln auch damit zu tun, dass mittlerweile die halbe Welt uns bis auf die Knochen durchleuchtet und über detailliertere Daten aus unserem Privatleben und Konsumverhalten verfügt, nur wir selbst nicht" (ebd.: 99f).

Gleichwohl bleiben hierbei zwei grundlegende Fragen unbeantwortet: Wie selbstbestimmt ist diese Form der Datenverwendung wirklich und muss dieser 'aufklärerische Akt' damit verbunden sein, den Anbieter von Geräten und Plattformen gleichermaßen Zugriff auf die je eigenen Daten zu gewähren? Es scheint schier unmöglich, sich von diesem Zugriff zu emanzipieren, ohne gänzlich auf denkbare positive Effekte der Datennutzung zu verzichten.

Während sich also positive Lesarten von Big Data durch die algorithmische Auswertung großer Datenmengen völlig neuartige Erkenntnisse über alle nur erdenklichen Felder des Wissens oder auch schlichtweg ein lukratives Feld für neue Geschäftsmodelle erhoffen, dockt die Kehrseite davon an die durch den NSA-Skandal befeuerten Diskurse über Kontrolle und Überwachung an. Hier werden durch die Möglichkeiten von Big Data (Analytics) in Händen von Geheimdiensten und IT-Konzernen etablierte Werte wie Datenschutz und Privatsphäre, das Recht auf informationelle Selbstbestimmung oder auch die bis zu einer rechtlich bindenden Verurteilung geltende Unschuldsvermutung in Gefahr gesehen (vgl. Mayer-Schönberger/Cukier 2013: 150ff).

3. Disziplinargesellschaft re-revisited

Nicht zum ersten (vgl. bspw. Bauman/Lyon 2013: 70ff; Wunderlich 1999)[9] und bestimmt nicht zum letzten Mal werden hier die "Disziplinargesellschaft" und der "Panoptismus" als Beschreibungsformel für ubiquitäre digitale Überwachung aufgerufen, die Michel Foucault in seinem Buch 'Überwachen und Strafen' (vgl. 1994: 251ff) analysiert. Foucault beschreibt zunächst die möglichst umfassende Disziplinierung der Körper (der einzelnen wie auch des Gesellschaftskörpers insgesamt) bei drohender Pestgefahr im auslaufenden 17. Jahrhundert als ein starres, auf räumliche Fixierung fokussiertes System: "Der Raum erstarrt zu einem Netz von undurchlässigen Zellen. Jeder ist an seinen Platz gebunden. Wer sich rührt, riskiert sein Leben: Ansteckung oder Bestrafung." (Foucault 1994: 251f). Das System der Überwachung habe auf einem zentralen, "lückenlose[n] Registrierungssystem" (ebd.: 252) basiert, um das Pathologische, das Abweichende vom Gesunden und Normalen scheiden zu können: "[J]edes Individuum [wird] ständig erfaßt, geprüft und unter die Lebenden, die Kranken und die Toten aufgeteilt [...] – dies ist das kompakte Modell einer Disziplinierungsanlage" (ebd.: 253).[10]

Während es in diesem Beispiel noch um die Analyse der Menschen und das Aufspüren des Pathologischen geht, zielt das bekannte Modell von Jeremy Benthams Panopticon vielmehr auf deren Verwaltung und Erziehung. Die architektonische Anordnung dürfte bekannt sein: Die Zellen eines Gefängniskomplexes sind ringförmig um einen Wachturm angeordnet, sodass vom Turm aus alle Zellen einsehbar sind, während ein Wächter umgekehrt von den Inhaftierten nicht gesehen werden kann. Die zentrale Wirkung bestehe nun nach Foucault in der

"Schaffung eines bewußten und permanenten Sichtbarkeitszustandes beim Gefangenen, der das automatische Funktionieren der Macht sicherstellt. [...] Die Anlage ist deswegen so bedeutend, weil sie die Macht automatisiert und entindividualisiert. Das Prinzip der Macht liegt weniger in einer Person als vielmehr in einer konzertierten Anordnung von Körpern, Oberflächen, Lichtern und Blicken; in einer Apparatur, deren innere Mechanismen das Verhältnis herstellen, in welchem die Individuen gefangen sind" (ebd.: 258f).

Wenn wir die genannten Beispiele als Kontrastfolie für zeitgenössische Disziplinar- und Kontrollpraktiken[11] unter den Vorzeichen von Big Data heranziehen, werden einige Ähnlichkeiten, aber auch bedeutsame Unterschiede deutlich.

4. Big Data Analytics und die Regierung der Subjekte

In der Disziplinargesellschaft wie auch bei Big Data Analytics geht es um eine möglichst umfassende Erhebung, Speicherung und Auswertung von Informationen und Daten. Allerdings ist die Fixierung der Körper in dafür vorgesehenen Räumen nicht mehr zwingend nötig. Im Fall einer Einreiseverweigerung hingegen kann das scheinbar ungreifbare Regime von Big Data allerdings physische Konsequenzen entfalten.

Die Maßnahmen gegen die Ausbreitung der Pest richteten sich primär gegen diejenigen, die bereits von der Krankheit befallen waren. Big Data Analytics wird darüber hinaus eine prognostische Aussagekraft anhand von Wahrscheinlichkeitsmodellen zugeschrieben, was an mehreren Stellen zum Vergleich mit dem Hollywood-Blockbuster Minority Report und zur Warnung vor problematischen Konsequenzen geführt hat (vgl. etwa Mayer-Schönberger/Cukier 2013: 157ff). Die Kategorien (Metadaten), die im Kontext von Big Data erhoben werden, gestalten sich daher wesentlich flexibler und "flüchtiger" (Bauman/Lyon 2013: 73) als je zuvor. Bei der Erhebung muss noch nicht feststehen, in welcher Form und unter welcher Fragestellung diese Daten analysiert werden. Diese Prognosetechniken können somit "immer auch als Machttechniken angesehen werden" (Reichert 2014a, S. 52).

Die Instanz der Überwachung ist in Foucaults Beispielen die Obrigkeit. Es handelt sich dabei ausschließlich um Agenten der herrschenden Regierungsmacht. Diese Rolle fällt im Kontext von Big Data nach einer ersten Verschiebung global tätigen IT- und Telekommunikationskonzernen zu, die nicht nur Hard- und Software, Plattformen und Netzwerke zur Verfügung stellen, sondern zu großen Teilen auch die materielle Infrastruktur des Internet. Fusionen und Firmenübernahmen bedeuten nicht nur einen Transfer von Ideen, sondern zugleich potenziell eine Transaktion von Daten. Die AGBs von WhatsApp galten, solange es ein eigenständiges Unternehmen war. Nach der Übernahme durch Facebook ist die Frage nicht eindeutig geklärt (Curved 2014). Eine zweite Verschiebung stellt sich ein, wenn sich etwa die NSA Zugriff auf die Datenströme von Google, Facebook & Co verschafft. So gesehen steht erneut die Obrigkeit am Ende der digitalen Nahrungskette.

Für Häftlinge in einem panoptischen Gefängnis ist die Möglichkeit des Überwacht-Werdens augenscheinlich; ähnliches gilt für Videoüberwachung (Dieses Gebäude wird zu Ihrer Sicherheit videoüberwacht!). Big Data Analytics tendiert hingegen zur Klandestinität: "Das futurische Wissen [...] ist konstitutiv aus der Anwendungsschicht ausgeschlossen und den NutzerInnen nicht zugänglich" (Reichert 2014c,449).[12] Gleichwenn das Ausmaß des digitalen Datensammelns öffentlich bekannt wurde und diskutiert wird, haben die Leaks über Geheimdiensttätigkeiten alltägliche Nutzungspraktiken nicht flächendeckend verändert. Angesichts der Faktenlage fällt es schwer, den Optimismus von Annika Richterich zu teilen, die in dieser Hinsicht von einer "Umbruchsphase" schreibt (2014a: 359).

Eine zentrale Frage, die an die scheinbare Nicht-Wahrnehmbarkeit datenförmiger Überwachung anschließt, richtet sich auf die Subjektivierungseffekte: Die Inkorporation der Überwachung durch die Häftlinge im Panopticon, d. h. ihre Selbstdisziplinierung, resultiert aus dem Bewusstsein über die permanent mögliche Überwachung. Entfällt dieses Bewusstsein, müsste gleichermaßen dieser Effekt auf die Überwachten entfallen. Selbst wenn einer Person bewusst ist, dass ihre Online-Kommunikation nicht immer privat abläuft, lässt sich für Nicht-ExpertInnen kaum einschätzen, welche Rechenoperationen zu welchen Ergebnissen führen können – und dies gilt nicht nur für gegenwärtige Möglichkeiten, sondern für alle potenziellen Analysen, die zukünftig an bereits gespeicherten Daten durchgeführt werden können.

Die umgekehrte These wäre noch wesentlich ernüchternder. Wenn wir davon ausgehen, dass "Datenschatten" (Reißmann 2014) jenseits der Internetnutzung auch aus den Spuren bestehen, die bei Kartenzahlungen, als Bewegungsprofile anhand von Chips und Sensoren in "Geomedien" (Manovich/Thielmann 2009) oder Kraftfahrzeugen, in elektronischen Gesundheitsdatenbanken, Flug- und Fahrgastdatenbanken usw. verzeichnet werden (vgl. bspw. Reißmann 2014; bzw. Spitz 2014), und wenn wir weiter davon ausgehen wollten, dass über dieses flächendeckende, ubiquitäre Tracking ein gewisses Maß an Bewusstsein vorhanden ist, sind lediglich drei Reaktionen in graduellen Abstufungen denkbar: (1) der weitestmögliche Verzicht auf die Nutzung digitaler Geräte, (2) die Selbstbegrenzung und Selbstzensur im alltäglichen (Medien-)Handeln sowie (3) die Resignation, d. h. das widerstandslose Anerkennen einer umfassenden Kultur digitaler Überwachung. Das Wissen um das Überwacht-Werden sowie die gleichzeitige Unsicherheit über die Spielarten, das exakte Ausmaß und die Folgen dieser Überwachung führen zu einer von dieser gouvernementalen[13] Anordnung induzierten, ausufernden Selbstregierung der Subjekte. Jede der drei Handlungsoptionen stellt eine gravierende Restriktion der subjektiven Handlungsmacht dar. Nun stellt sich für Theorie und Praxis der Medienpädagogik die Frage, wie mit dieser dilemmatischen Konstellation umgegangen werden kann.

5. Daten als Gegenstand aktiver Medienarbeit?

Aktive Medienarbeit als "wesentlicher methodischer Ansatz einer handlungsorientierten Medienpädagogik" (Schell 2005: 9) kann als ein dominantes Paradigma der medienpädagogischen Praxis bezeichnet werden: Soll über Fotografie oder Film gelernt werden, werden Videos oder Fotos produziert. Soll über Hörmedien gelernt werden, wird idealiter ein Hörspiel oder eine Radiosendung erstellt. Soll über digitale Medien gelernt werden, wird mit Weblogs, Homepages oder anderen Agglomeraten medienkonvergenter Bedeutungsproduktion gearbeitet. Bernd Schorb (2008: 83) kondensiert die zugrunde liegenden Überlegungen in seinem Handbuch-Artikel über handlungsorientierte Medienpädagogik:

"Entscheidend ist in all diesen aktiven Verwendungsweisen von Medien der Prozess der Herstellung eines medialen Produktes. In ihm erfolgt die Auseinandersetzung mit dem Gegenstandsbereich, sei es aus der gesellschaftlich-sozialen oder der persönlichen Umwelt. Hier finden also Lernprozesse statt."

Nun möchte zwar niemand, dass als mediale Produkte aktiver Datenarbeit umfassende Datenprofile entstehen, die Ausrichtung der medienpädagogischen Beschäftigung mit Daten fokussiert allerdings überwiegend auf defensive Strategien – Datenschutz und "digitale Selbstverteidigung"[14] stehen symbolisch dafür – und vernachlässigt dabei den produktiven Umgang mit Daten selbst. Während technologische Entwicklungen digitaler Medien allgemein gleichzeitig zu einer Steigerung der Leistungsfähigkeit und zu einer Reduktion der Kosten führen und damit Medienproduktion inner- wie außerhalb medienpädagogischer Settings erheblich vereinfachen, stehen wir im Feld der Big Data vor einem Big Problem: Sofern wir von der lapidaren Definition von Big Data ausgehen, die diese als solche Daten und Datensätze beschreibt, die marktübliche Geräte und Programme nicht verarbeiten können, bleibt der aktiven Medienarbeit dieser Zugriff auf den Gegenstand verwehrt. Natürlich werden in der Videoarbeit eher Kurzfilme statt abendfüllenden Spielfilmen produziert und trotzdem lässt sich dadurch über den Gegenstand Film vieles lernen. Wenn nun aber gerade die Datenmengen das entscheidende, qualitative Kriterium von Big Data sind, kann dieselbe Logik in diesem Fall nicht greifen. Was abschließend in diesem Beitrag angeboten wird, ist ein zweifacher Lösungsweg: Erst wird eine stärkere Verschränkung von Medienkritik und Mediengestaltung eingefordert, um dann Szenarien möglichst aktiver Datenarbeit zu skizzieren.

6. Datenkritik in Theorie und Praxis

Wenn es nicht möglich ist, direkt und konkret mit Big Data zu arbeiten, um damit eigene Erfahrungen zu machen, sollte eine betont kritische Analyse revitalisiert und angewandter Medienpraxis als prominente Methode in Lernszenarien beigestellt werden. Weniger als Medienpädagoge denn mit einem an der Kritischen Theorie geschulten, theoretischen Blick auf "Lernpotenziale" im Umgang mit Videoüberwachung plädierte Lutz Ellrich (2006: 140) dafür, "die heute mögliche Kombination unterschiedlicher Medienanalysen und Medienpraktiken zur Einübung demokratischer Souveränität auf[zu]zeigen." Je ungreifbarer und unsichtbarer ein Gegenstand erscheint, desto schärfere Instrumente der Analyse sind gefordert, um diesen möglichst durchdringend verstehen zu können.

Eine kritische Medienpädagogik US-amerikanischer Prägung (vgl. etwa Kellner/Share 2005; Winter 2010: 679), die Elemente sowohl der Kritischen Theorie als auch der Cultural Studies aufgreift und eine Dialektik von Medien-/Ideologiekritik einerseits und populären Medienkulturen und -praktiken andererseits wagt, könnte dieser Herausforderung begegnen. Der Fokus auf "Botschaften, Ideologien und Werte[n] in medialen Texten" (Winter 2010: 679) müsste zu diesem Zweck in eine Nomenklatur der Daten, Algorithmen, Protokolle und Netzwerke übersetzt werden, deren mediale Formgebungen möglicherweise noch mehr als beim Fernsehen die eigentliche Botschaft darstellen. Erste Überlegungen zur Bestimmung und Möglichkeit von Datenkritik wurden bereits angestellt (vgl. Burkhardt/Gießmann 2014; bzw. aus Sicht der Medienpädagogik Dander 2014b), weitere Konkretisierungen innerhalb der Medienpädagogik verbleiben vorerst Desiderate.

So wichtig ein wissens- und analysebasierter Zugang zum Phänomen Big Data auch sein mag, so ist ein erfahrungsbasiert-gestalterischer ebenso zentral, denn, wie Rita Raley (2013: 139) feststellt,

"dataveillance and countervailance coexist not in a dialectical struggle but rather are so fundamentally entangled that the line separating the one from the other is unstable. Positioned as we are within the dataveillance regime, we cannot but employ the tactics of immanent critique, which [...] depends simply on ordinary action itself."

Worin besteht nun der angekündigte Workaround in der pädagogischen Praxis? Zumindest einzelne Elemente lassen sich aus dem Big Data-Komplex herauslösen, um Einblicke in seine Strukturen, Funktionalitäten, Machteffekte und Politische Ökonomie zu erlauben.

Die Arbeit mit den eigenen Daten Lernender ist zwar hinsichtlich der Privatsphäre äußerst delikat, kann aber zumindest für diese selbst eine Konfrontation mit den digitalen Speicherungspraktiken von staatlichen und unternehmerischen Akteuren erfahrbar machen. Als Beispiel könnte das Vorgehen von Malte Spitz dienen, der in seinem Buch "Was macht ihr mit meinen Daten?" (2014) beschreibt, welche über ihn gespeicherten Daten er auf Grundlage des deutschen Bundesdatenschutzgesetzes (BDSG) von diversen Instanzen erhalten konnte. Auf die damit korrespondierende Visualisierung auf Spiegel Online wurde oben bereits verwiesen (vgl. Reißmann 2014). Einen ähnlichen Versuch unternahm der Journalist Dennis Horn für den WDR (vgl. 2014) und dokumentiert nicht nur die Ergebnisse, sondern bietet auch Links, Anleitungen und Vorlagen.[15] Auf diese Weise kann nicht nur nachvollzogen werden, welche personenbezogenen Daten in welchen Mengen und in welcher Form gespeichert werden; die gesetzliche Grundlage der Aufforderung zur Datenherausgabe verbindet diese Erfahrungen direkt mit BürgerInnenrechten und kann somit zu einer Reflexion über die Bedeutung des Datenschutzes und der Privatsphäre für demokratisch verfasste Staaten führen. Wenngleich Facebook und Google ihren NutzerInnen eine Option anbieten, die über sie gespeicherten Daten direkt gesammelt herunterzuladen, hat sich mittlerweile gezeigt, dass diese Auskünfte unvollständig sind (vgl. ebd.).[16]

Ein zweiter Zugang zum Gegenstand wird über Rollenspiele eröffnet. Manche mögen sich an die Folge der Sendung mit der Maus erinnern, in der das Internet erklärt wird.[17] Die einzelnen menschlichen und nicht-menschlichen Akteure im Netzwerk werden darin von handelnden Menschen in konkreten Räumen repräsentiert. Dazu wird in bekannter Manier von einer Off-Stimme erläutert, was vor sich geht. Auf ähnliche Weise könnte mit Kindern oder Jugendlichen in verteilten Rollen nachgespielt werden, was mit digitalen Daten passiert und wie diese in Interaktion gebracht werden können.[18] Eine zweite, digitale Variante wurde in den MEDIENIMPULSEN bereits in einem Beitrag erwähnt: der Einsatz von Data Dealer[19] (vgl. Wegmann/Roth-Ebner 2013), einem parodistischen Serious Game, in welchem Spielende selbst in die Rolle von mit Daten Handelnden (im doppelten Sinne) schlüpfen. Die Spielmechanik basiert auf einer Wirtschaftssimulation (das Ziel besteht darin immer mehr Geld zu verdienen) und stellt einzelne Figuren und Zusammenhänge schonungslos satirisch dar. Spielinhärent ist keine explizite technische oder ethische Ebene eingezogen, diese kann aber über Anschlussdiskussionen eingebracht werden.

Was die Subjektivierungseffekte von Daten (weniger von Big Data) betrifft, ließe sich z. B. ein Schulversuch starten, der im Self-Tracking der Lernenden besteht. Um der digitalen Speicherung durch Anbieterfirmen zu entgehen, kann dies durchaus auch analog und in Tagebuchform durchgeführt werden. Wie viel bewege ich mich? Wie viel Kalorien esse und verbrauche ich? Wie lange habe ich geschlafen und wieviel Zeit in der Schule bzw. mit Hausaufgaben verbracht? Die konkreten Ergebnisse einer solchen Selbsterhebung sind dabei weniger wichtig als die Mechanismen der Selbstkontrolle und -regierung, die Lernende dabei möglicherweise erfahren und über gemeinsame Diskussionen reflektieren und hinterfragen können.

Im Kontext von E-Learning und (Big) Data ist immer öfter von Learning Analytics die Rede. Nun ist es kein Zufall, dass Foucault im Abschnitt zum Panoptismus (vgl. 1994: 293) auch explizit das Erziehungssystem nennt, spielen doch das Überwachen und Strafen, das Disziplinieren und Kontrollieren seit jeher eine tragende Rolle in Institutionen der Bildung und Erziehung. Mit digitalen Lernsystemen lassen sich die Spuren der Lernenden wesentlich einfacher nachvollziehen:

"To take advantage of Big Data and learning analytics, it is almost a requirement that transaction processing be electronic rather than manual. [...] [T]o move into the more extensive and especially time-sensitive learning analytics applications, it is important that instructional transactions are collected as they occur. This would be possible in the case of a course management/learning management system (CMS/LMS)." (Picciano 2012: 13)

Auch diese erhobenen Daten bieten sich an, in anonymisierter Form zum Gegenstand von gemeinsamen Analysen, Interpretationen, Diskussionen und Kritik gemacht zu werden. (Inwiefern) ändern Lernende ihr Verhalten, wenn sie wissen, dass Lehrende umfassenden Einblick in Klick-Verhalten, Arbeitszeiten und Interaktionen von SchülerInnen oder Studierenden haben?

Eine datenschutzrechtlich unproblematischere Alternative dazu stellt die praktische Arbeit mit Open (Government) Data dar, welche in immer größeren Mengen digital und frei verfügbar auf Online-Portale gestellt werden (vgl. Dander 2014, S. 15ff; Brombach 2014).

7. Fazit

Nachdem weder der Verzicht auf die Nutzung digitaler Medien, noch die Resignation angesichts der grassierenden Überwachung für eine zeitgenössische, kritische Medienpädagogik akzeptable Wege darstellen können, muss ein Mittelweg zwischen diesen Polen gefunden werden. In diesem Artikel wurde vorgeschlagen, dass ein solcher Mittelweg über eine Kombination von kritischer Analyse mit der praktischen Arbeit mit Daten erreicht werden könne. Wie konkret Lernszenarios für unterschiedliche Zielgruppen aussehen können und ob sich ein solches Vorgehen bewährt, sind Fragen, die über Anspruch und Reichweite dieses Texts hinausweisen. In jedem Fall wird sich die Medienpädagogik diesen Fragen auf theoretischer und praktischer Ebene stellen müssen. Denn bevor das Phänomen Big Data mit all seinen Potenzialen und Fallstricken sowie Daten allgemein als bedeutsame mediale Form für Lernende greif- und angreifbar gemacht werden können, muss, so scheint es, ein solcher Lernprozess innerhalb der Disziplin selbst stattfinden.


Anmerkungen

[1] In dieser Zeit wurde natürlich bereits die Macht von Suchmaschinen im Allgemeinen und Google im Speziellen untersucht und diskutiert. Es ist durchaus nicht undenkbar, dass die Konferenz Deep Search angesichts ihres Gegenstandes drei Jahre später unter einem '(Big) Data-Titel' stattgefunden hätte (vgl. dazu die zugehörige Publikation von Becker/Stalder 2010).

[2] Vgl. dazu die Grafik auf https://www.google.com/trends/explore#q=big%20data (letzter Zugriff: 17.12.2014).

[3] Zur Problematik der Nutzung von Google Trends vgl. den Artikel von Annika Richterich (2014b).

[4] Online – der Upload wird mit dem 28.04.2011 datiert – steht eine englischsprachige Version des Textes "Trending. The Promises and the Challenges of Big Social Data", wobei das angeführte Zitat nicht belegt wird. Kürzlich erschien eine deutsche Übersetzung des Aufsatzes (vgl. Manovich 2014), in der die Passage direkt übersetzt und mit "Wikipedia, 'Big Data'" referenziert wird.

[5] Auch hier muss die Darstellung kurz gehalten werden. Für tiefergehende Überlegungen zu Daten allgemein vgl. etwa den historisierenden Zugang von Daniel Rosenberg (2013) im exzellenten Sammelband ''Raw Data' is an Oxymoron'(Gitelman 2013), die Folgepublikation zur letztjährigen Tagung 'Was ist Datenkritik?' (dazu die Einführung von Burkhardt/Gießmann 2014) oder auch einen anderen Artikel des Verfassers (Dander 2014a).

[6] Vgl. dazu etwa die Analysen von zwei Filmen des russischen Filmemachers Dziga Vertov (Manovich 2014: 74f).

[7] Mehrfach ist mir die Verwechslung oder Vermischung von Big Data und Open Data begegnet. Diese Ungenauigkeit unterläuft durchaus auch kundigen AkteurInnen der digitalen Gesellschaft wie Mercedes Bunz (vgl. 2012: 149f), woran sichtbar wird, dass die Differenzierung in diesem Text erforderlich ist. Open Data können zwar in sehr großen Mengen vorliegen – und werden das vmtl. zunehmend –, die großen Massen an Big Data liegen aber mit (und unter) großer Sicherheit auf zugangsbeschränkten Serverfarmen.

[8] Baecker (vgl. 2013) schlüsselt das selbstreferenzielle und komplexe Verhältnis von Big Data, Metadaten und den (gesellschaftlichen wie soziologischen) Diskursen darüber in einem empfehlenswerten Aufsatz aus systemtheoretischer Perspektive auf. Dank für den Hinweis gilt Dan Verständig.

[9] David Lyon, einer der prominentesten Vertreter der Surveillance Studies, erwähnt gar, dass die bloße Erwähnung des Panopticons denjenigen, "die schon länger zum Thema Überwachung forschen, [...] ein verärgertes Stöhnen [entlockt]" (Bauman/Lyon 2013: 70). Kurz darauf betont Zygmunt Bauman hingegen die andauernde Relevanz des Modells.

[10] Interessant ist dieses Pest-Beispiel u a. auch deshalb, weil eine der ersten, für die breite Öffentlichkeit wahrnehmbaren Big Data Analysen die Grippe-Prognose von Google Flu Trends war, die u. a. Mayer-Schönberger und Cukier in ihrem Buch zu Big Data als Ankerbeispiel dient (vgl. 2013: 1ff). Detailliert zur Grippe-Analyse vgl. Richterich (2014a).

[11] Wer an dieser Stelle u. a. Deleuzes "Postskript zur Kontrollgesellschaft" (1992) im Anschluss an Foucault sowie das zugehörige "Präludium über die Kontrollgesellschaften" von Aldo Legnaro (2003) vermisst, muss für ausführliche Darstellungen auf andere Texte verwiesen werden: etwa in den Surveillance und Gouvernmentality Studies (für die deutschsprachige Diskussion vgl. etwa Bröckling et al. 2000; mit Fokus auf Videoüberwachung vgl. Widersprüche 2003). Deleuze beschreibt die Kontrollgesellschaft im Gegensatz zur Disziplinargesellschaft als eine, die nicht mehr über räumliche Begrenzungen und körperliche Disziplinierung funktioniert, sondern über weniger greif- und sichtbare Instrumente der numerischen Repräsentationen und Verdatung. Die Entsprechung zum Panopticon wären dem- und ihm zufolge "electronic collars" (1992: 7). Bei Legnaro werden diese Ausführungen gut zehn Jahre später um eine "Kontrollgesellschaft zweiter Ordnung" (2003: 298) erweitert, indem er die Analysen der Gouvernmentality Studies in die Gesellschaftsdiagnose einbezieht. "Forderungen nach Eigenverantwortlichkeit und Selbstunternehmertum" (ebd.) verlagern die Mechanismen der Kontrolle noch stärker in die Verantwortung der Einzelnen zur Selbstregierung. Das Internet of Things und Smart living sowie Programme und Algorithmen werden hier bereits als digitale Werkzeuge der 'Freiwilligen Selbstkontrolle' angeführt. Die Idee der "Totalarchivierung" (ebd.: 300) des menschlichen Lebens wird zwar erwähnt, allerdings ohne Nationale Sicherheitsagenturen oder große IT-Konzerne als potente und potenzielle Instanzen der Kontrolle zu berücksichtigen.

[12] Allerdings muss diese Aussage zweifach ergänzt werden: erstens konzentriert sich Reichert in seinem Text auf die Aktivitäten des Facebook Data Teams und zweitens kommuniziert dieses durchaus einige der Ergebnisse in Form "globale[r] Bildikonen mit hohem Wiedererkennungswert" (2014b, S. 444) – wie etwa der Hitliste und dem Index.  Er schreibt unternehmerisch ausgerichteten DatenanalystInnen dabei immerhin zu, den Geheimdiensten in der Sorgfalt ihrer Methoden kaum nachzustehen (vgl. ebd.: 448).

[13] Michel Foucault (2005, S. 171f) versteht unter Gouvernementalität drei Aspekte einer ' Regierungskunst', nämlich "die Gesamtheit, gebildet aus den Institutionen, den Verfahren, Analysen und Reflexionen, den Berechnungen und den Taktiken, die es gestatten, diese recht spezifische und doch komplexe Form der Macht auszuüben, die als Hauptzielscheibe die Bevölkerung, als Hauptwissensform die politische Ökonomie und als wesentliches technisches Instrument die Sicherheitsdispositive hat. Zweitens verstehe ich unter 'Gouvernementalität' die Tendenz oder die Kraftlinie, die im gesamten Abendland unablässig und seit sehr langer Zeit zur Vorrangstellung dieses Machttypus, den man als 'Regierung' bezeichnen kann, gegenüber allen anderen – Souveränität und Disziplin – geführt und die Entwicklung einer ganzen Reihe spezifischer Regierungsapparate einerseits und einer ganzen Reihe von Wissensformen andererseits zur Folge gehabt hat. Schließlich glaube ich, dass man unter Gouvernementalität den Vorgang oder eher das Ergebnis des Vorgangs verstehen sollte, durch den der Gerechtigkeitsstaat des Mittelalters, der im 15. und 16. Jahrhundert zum Verwaltungsstaat geworden ist, sich Schritt für Schritt 'gouvernementalisiert' hat."

[14] Vgl. dazu etwa die Angebote des Bielefelder Vereins Digital Courage: https://digitalcourage.de/support/digitale-selbstverteidigung (letzter Zugriff: 17.12.2014). Dass Angebote wie Verschlüsselungsworkshops u. ä. ungemein wichtig sind, soll hier nicht in Abrede gestellt werden. Ganz im Gegenteil: ihre Häufung seit den ersten NSA-Leaks kann nur begrüßt werden.

[15] Ein ähnliches Angebot für Österreich mit Musterbriefen, Auskunftsbegehren etc. gemäß dem DSG 2000 bietet die ARGE Daten: http://www2.argedaten.at/php/cms_monitor.php?q=MUSTERBRIEFE (letzter Zugriff: 17.12.2014).

[16] Andere Varianten Daten zu generieren, nennt Rita Raley unter dem Schlagwort "countervailance" (2013: 128ff). So führt sie z. B. Browser-Plugins auf, mit denen sich entweder das eigene Online-Nutzungsverhalten oder auch die Tracking-Praktiken wie etwa über Cookies sichtbar machen lassen. Diese Instrumente und die korrespondierenden Praktiken hätten, so Raley, "the potential for disruptive innovation vis-à-vis the new regime of dataveillance" (S. 131).

[17] Immer noch sehenswert – mittlerweile auf YouTube: https://www.youtube.com/watch?v=8PNRrOGJqUI (letzter Zugriff: 17.12.2014).

[18] Die Idee stammt aus einer Seminardiskussion. Dank dafür gilt Melanie Abendschein.

[19] Die frei im Browser zu spielende, deutschsprachige Demo Version befindet sich unter http://demo.datadealer.net/ (letzter Zugriff: 17.12.2014).


Literatur

Baecker, Dirk (2013): Metadaten. Eine Annäherung an Big Data, in: Geiselberger, Heinrich/Moorstedt, Tobias (Hg.): Big Data: Das neue Versprechen der Allwissenheit, Berlin: Suhrkamp, 156–186.

Bauman, Zygmunt/Lyon, David (2013): Daten, Drohnen, Disziplin. Ein Gespräch über flüchtige Überwachung, Berlin: Suhrkamp.

Becker, Konrad/Stalder, Felix (Hg.) (2010): Deep Search. Politik des Suchens jenseits von Google, Bonn: Lizenzausgabe für die Bundeszentrale für politische Bildung.

Berners-Lee, Tim (2009): Linked Data - Design Issues. w3.org, online unter: http://www.w3.org/DesignIssues/LinkedData.html (letzter Zugriff: 17.12.2014).

boyd, danah/Crawford, Kate (2013): Big Data als kulturelles, technologisches und wissenschaftliches Phänomen. Sechs Provokationen, in: Geiselberger, Heinrich/Moorstedt, Tobias (Hg.) Big Data: Das neue Versprechen der Allwissenheit, Berlin: Suhrkamp, 187–218.

Bröckling, Ulrich/Krasmann, Susanne/Lemke, Thomas (Hg.) (2000): Gouvernementalität der Gegenwart. Studien zur Ökonomisierung des Sozialen, Frankfurt/M.: Suhrkamp.

Brombach, Guido (2014): Opendata im Seminareinsatz. #pb21 | Web 2.0 in der politischen Bildung, online unter: http://pb21.de/2014/11/opendata-im-seminareinsatz/ (letzter Zugriff: 17.12.2014).

Bunz, Mercedes (2012): Die stille Revolution. Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen, Berlin: Suhrkamp.

Burkhardt, Marcus/Gießmann, Sebastian (2014): Was ist Datenkritik? Zur Einführung, in: Mediale Kontrolle unter Beobachtung, 2014, 3, online unter: http://www.medialekontrolle.de/wp-content/uploads/2014/09/Giessmann-Sebastian-Burkhardt-Marcus-2014-03-01.pdf (letzter Zugriff: 17.12.2014).

Curved (2014): WhatsApp und Facebook: Eine illegale Liaison? CURVED, online unter: https://curved.de/news/whatsapp-und-facebook-eine-illegale-liaison-29696 (letzter Zugriff: 14.12.2014).

Dander, Valentin (2014a): Datendandyismus und Datenbildung. Von einer Rekonstruktion der Begriffe zu Perspektiven der sinnvollen Nutzung, in: Ortner, Heike/Pfurtscheller, Daniel/Rizzolli, Michaela/Wiesinger, Andreas (Hg.): Datenflut und Informationskanäle, Innsbruck: Innsbruck University Press, 113–129, online unter: http://www.uibk.ac.at/iup/buch_pdfs/datenflut_informationskanaele.pdf (letzter Zugriff: 17.12.2014).

Dander, Valentin (2014b): Von der 'Macht der Daten' zur 'Gemachtheit von Daten'. Praktische Datenkritik als Gegenstand der Medienpädagogik, in: Mediale Kontrolle unter Beobachtung, (3), online unter: http://www.medialekontrolle.de/wp-content/uploads/2014/09/Dander-Valentin-2014-03-01.pdf (letzter Zugriff: 17.12.2014).

Deleuze, Gilles (1992): Postscript on the Societies of Control, in: October, 1992, 59, 3–7.

Ellrich, Lutz (2006): Die Überwachungstechnik als Herausforderung der Kritischen Theorie und Praxis, in: Becker, Barbara/Wehner, Josef (Hg.) Kulturindustrie reviewed. Ansätze zur kritischen Reflexion der Mediengesellschaft, Bielefeld: transcript, 127–142.

Foucault, Michel (1994): Überwachen und Strafen, Die Geburt des Gefängnisses, Frankfurt/M.: Suhrkamp.

Foucault, Michel (2005): Die "Gouvernementalität.", in:  Defert, Daniel/Ewald, François (Hg.): Analytik der Macht, Frankfurt/M.: Suhrkamp, 148–174.

Geiselberger, Heinrich/Moorstedt, Tobias (Hg.) (2013): Big Data: Das neue Versprechen der Allwissenheit, Berlin: Suhrkamp.

Gitelman, Lisa (Hg.) (2013): Raw Data is an Oxymoron, Cambridge: MIT Press.

Gitelman, Lisa/Jackson, Virginia (2013): Introduction, in: Gitelman, Lisa (Hg.): "Raw Data" is an Oxymoron, Cambridge: MIT Press, 1–14.

Horn, Dennis (2014): Was speichern Google, Facebook und Co.? WDR Fernsehen, 9th January, online unter: http://www1.wdr.de/fernsehen/ratgeber/servicezeit/sendungen/datenspeicherung112.html (letzter Zugriff: 17.12.2014).

Kellner, Douglas/Share, Jeff (2005): Media Literacy in the US. Medienpädagogik, 2006, 11, online unter: http://www.medienpaed.com/documents/medienpaed/11/kellner_share0509.pdf (letzter Zugriff: 17.12.2014).

Legnaro, Aldo (2003): Präludium über die Kontrollgesellschaften, in: Kriminologisches Journal, 2003, 35/4, 296–301.

Manovich, Lev (2011): 'Trending: The Promises and the Challenges of Big Social Data.', online unter: http://manovich.net/content/04-projects/065-trending-the-promises-and-the-challenges-of-big-social-data/64-article-2011.pdf (letzter Zugriff: 17.12.2014).

Manovich, Lev (2014): Trending. Verheißungen und Herausforderungen der Big Social Data, in: Reichert, Ramón (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld: transcript, 65–83.

Manovich, Lev/Thielmann, Tristan (2009): Geomedien: Raum als neue Medien-Plattform? Ein Interview mit Lev Manovich, in: Mediengeographie. Theorie – Analyse – Diskussion, Bielefeld: transcript, 383–396.

Mayer-Schönberger, Viktor/Cukier, Kenneth (2013): Big Data: A Revolution That Will Transform How We Live, Work, and Think, Boston & New York: Houghton Mifflin Harcourt.

Passig, Kathrin (2013): Unsere Daten, unser Leben, in: Standardsituationen der Technologiekritik, Berlin: Suhrkamp, 85–101.

Picciano, Anthony G. (2012): The Evolution of Big Data and Learning Analytics in American Higher Education, in: Journal of Asynchronous Learning Networks, 2012, 16/3, 9–20.

Raley, Rita (2013): Dataveillance and Countervailance, in: Gitelman, Lisa (Hg.): "Raw Data" is an Oxymoron, Cambridge: MIT Press, 121–145.

Reichert, Ramón (2014a): Big Data: Medienkultur im Umbruch, in: Ortner, Heike/Pfurtscheller, Daniel/Rizzolli, Michaela/Wiesinger, Andreas (Hg.) Datenflut und Informationskanäle, Innsbruck: Innsbruck University Press, 37–54, online unter: http://www.uibk.ac.at/iup/buch_pdfs/datenflut_informationskanaele.pdf (letzter Zugriff: 17.12.2014).

Reichert, Ramón (Hg.) (2014b): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld: transcript.

Reichert, Ramón (2014c): Facebooks Big Data. Die Medien- und Wissenstechniken kollektiver Verdatung, in: Reichert, Ramón (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld: transcript, 437–452.

Reißmann, Ole (2014): Mein Datenschatten als Grafik: So durchschaubar sind wir. Spiegel Online, 28.10.2014, online unter: http://www.spiegel.de/netzwelt/web/datenschutz-der-datenschatten-von-malte-spitz-a-999554.html (letzter Zugriff: 17.12.2014).

Richterich, Annika (2014a): Dataveillance: Google Flu Trends und transaktionale Big Data, in: Reichert, Ramón (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld: transcript, 333–363.

Richterich, Annika (2014b): Google Trends: Using and Promoting Search Volume Indicators for Research, in: Mediale Kontrolle unter Beobachtung, 2014, 3, online unter: http://www.medialekontrolle.de/wp-content/uploads/2014/09/Richterich-Annika-2014-03-01.pdf (letzter Zugriff: 17.12.2014).

Rosenberg, Daniel (2013): Data before the Fact, in: Gitelman, Lisa (Hg.): "Raw Data" is an Oxymoron, Cambridge: MIT Press, 15–40.

Schell, Fred (2005): Aktive Medienarbeit, in: Hüther, Jürgen/Schorb, Bernd (Hg.): Grundbegriffe Medienpädagogik, 4., vollständig neu konzipierte Auflage, München: kopaed, 9–17.

Schorb, Bernd (2008): Handlungsorientierte Medienpädagogik, in: Sander, Uwe/von Gross, Friederike/Hugger, Kai-Uwe (Hg.): Handbuch Medienpädagogik, Wiesbaden: Verlag für Sozialwissenschaften, 75–86.

Spitz, Malte (2014): Was macht ihr mit meinen Daten? Hamburg: Hoffmann und Campe.

Swertz, Christian (2006): Neue Medien, in: Dzierzbicka, Agnieszka/Schirlbauer, Alfred (Hg.): Pädagogisches Glossar der Gegenwart. Von Autonomie bis Wissensmanagement, Wien: Löcker, 199–207.

Wegmann, Konstanze/Roth-Ebner, Caroline (2013): Medienpädagogik peer-to-peer: Das Praxisbeispiel "Digital Teens", in: MEDIENIMPULSE. Beiträge zur Medienpädagogik, 2013, 2, online unter: http://www.medienimpulse.at/articles/view/551 (letzter Zugriff: 17.12.2014).

Widersprüche. Zeitschrift für sozialistische Politik im Bildungs-, Gesundheits- und Sozialbereich (2003): Safety first – Smile you're on camera, Bielefeld: Kleine Verlag.

Wikipedia (2014): Big Data, online unter: https://de.wikipedia.org/wiki/Big_Data (letzter Zugriff: 17.12.2014).

Winter, Rainer (2010): Cultural Studies und kritische Pädagogik [2004], in: Kleiner, Marcus S. (Hg.): Grundlagentexte zur sozialwissenschaftlichen Medienkritik, 1. Aufl., Wiesbaden: VS Verlag für Sozialwissenschaften, 673–681.

Wunderlich, Stefan (1999): Vom digitalen Panopticon zur elektrischen Heterotopie, in: Maresch, Rudolf/Werber, Niels (Hg.) Kommunikation, Medien, Macht, Frankfurt am Main: Suhrkamp, 342–367.

Tags

daten, big data analytics, überwachung, selbstregierung, aktive medienarbeit