big data - small problems? ethische dimensionen der forschung mit online-kommunikationsspuren

21
Empfohlene Zitierung: Heise, N. (2015). Big Data – small problems? Ethische Dimensionen der Forschung mit Online-Kommunikationsspuren. In A. Maireder, J. Ausserhofer, C. Schumann, & M. Taddicken (Hrsg.), Digitale Methoden in der Kommunikationswissenschaft (S. 39-58). doi: 10.17174/dcr.v2.3 Zusammenfassung: Kaum ein Thema hat in den vergangenen Jahren derart kon- troverse Debatten in akademischen Kreisen hervorgerufen wie Big Data. Die auto- matisierte Verarbeitung riesiger Datenmengen für sozialwissenschaftliche Zwe- cke wirft nicht nur neue methodologische und theoretische Fragen auf – auch die ethischen Implikationen dieses datengetriebenen Forschungsansatzes geraten zusehends in den Blick. Der Beitrag diskutiert einige Besonderheiten von Big-Da- ta-Analysen, insbesondere in Social Media, und welche Herausforderungen sich für die Umsetzung forschungsethischer Standards ergeben. Im Fokus steht auch die Frage, welchen Status die Nutzerinnen – die Menschen hinter den Daten – bei dieser Art der Forschung haben. Zudem sollen einige generelle Implikationen von Big-Data-Verfahren für Praxis und grundlegende Prinzipien sozialwissenschaft- licher Forschung beleuchtet werden. Ziel des Beitrages ist es, Forscherinnen für forschungsethische Fragen zu sensibilisieren sowie eine Verständigung der scien- tiic community zum Umgang mit Big Data anzuregen. Lizenz: Creative Commons Attribution 4.0 (CC-BY 4.0) Digital Communication Research.de

Upload: rcmc-hamburg

Post on 13-May-2023

1 views

Category:

Documents


0 download

TRANSCRIPT

Empfohlene Zitierung: Heise, N. (2015). Big Data – small problems? Ethische

Dimensionen der Forschung mit Online-Kommunikationsspuren. In A. Maireder,

J. Ausserhofer, C. Schumann, & M. Taddicken (Hrsg.), Digitale Methoden in der

Kommunikationswissenschaft (S. 39-58). doi: 10.17174/dcr.v2.3

Zusammenfassung: Kaum ein Thema hat in den vergangenen Jahren derart kon-

troverse Debatten in akademischen Kreisen hervorgerufen wie Big Data. Die auto-

matisierte Verarbeitung riesiger Datenmengen für sozialwissenschaftliche Zwe-

cke wirft nicht nur neue methodologische und theoretische Fragen auf – auch die

ethischen Implikationen dieses datengetriebenen Forschungsansatzes geraten

zusehends in den Blick. Der Beitrag diskutiert einige Besonderheiten von Big-Da-

ta-Analysen, insbesondere in Social Media, und welche Herausforderungen sich

für die Umsetzung forschungsethischer Standards ergeben. Im Fokus steht auch

die Frage, welchen Status die Nutzerinnen – die Menschen hinter den Daten – bei

dieser Art der Forschung haben. Zudem sollen einige generelle Implikationen von

Big-Data-Verfahren für Praxis und grundlegende Prinzipien sozialwissenschaft-

licher Forschung beleuchtet werden. Ziel des Beitrages ist es, Forscherinnen für

forschungsethische Fragen zu sensibilisieren sowie eine Verständigung der scien-

tiic community zum Umgang mit Big Data anzuregen.

Lizenz: Creative Commons Attribution 4.0 (CC-BY 4.0)

DigitalCommunicationResearch.de

Nele Heise

Big Data – small problems?

Ethische Dimensionen der Forschung mit Online-Kommunikationsspuren

Im März 2014 publizierte das US-Journal PNAS eine Studie, in der die Timeline

von fast 690.000 Nutzerinnen1 der sozialen Netzwerkplattform Facebook experi-

mentell beeinlusst wurde, um die Theorie der emotionalen Ansteckung zu un-

tersuchen (Kramer et al., 2014). Nicht nur die immens hohe Zahl an verarbeiteten

Daten und die Manipulation der Nutzungsoberläche erregte die Gemüter: Vor al-lem das Zustandekommen der Studie ohne das explizite Einverständnis der Unter-

suchungsteilnehmerinnen führte international zu heftig geführten Diskussionen

um die Rolle von Unternehmen wie Facebook, wissenschaftliche Standards und

ethische Aspekte bei der Nutzung von Big Data (Deterding, 2014).

Die kontroversen Debatten um das „Facebook-Experiment“ verdeutlichen, dass

es im Hinblick auf Big-Data-Analysen in der (sozial-)wissenschaftlichen Forschung

noch großen Verständigungsbedarf gibt. Zugleich wirft der Fall zahlreiche Fragen

nach den ethischen Implikationen dieses neuen, datenintensiven Forschungsansat-

zes auf. Vor diesem Hintergrund diskutiert der vorliegende Beitrag zunächst einige

39

DOI 10.17174/dcr.v2.3

1 Zur leichteren Lesbarkeit wird auf die Aufführung des männlichen Begriffsäquiva-lents verzichtet.

N. Heise

40

Besonderheiten von Big-Data-Forschung und welche Herausforderungen sich dar-

aus für die Umsetzung forschungsethischer Standards ergeben. Im Fokus steht da-

bei auch die Frage, welchen Status die beforschten Nutzerinnen, also die Menschen

hinter den Daten, bei dieser Art der Forschung haben. Darüber hinaus sollen auch

generelle Implikationen von Big-Data-Verfahren für die Praxis und grundlegende

Werte sozialwissenschaftlicher Forschung beleuchtet werden.

1 Big Data und ethisch relevante Besonderheiten online­

basierter Forschung

1.1 Was Big-Data-Forschung ist

Um den Begriff Big Data gibt es viele Diskussionen: Ist er lediglich ein Mar-

keting-Buzzword, ein generalisierter und daher unpräziser Begriff, oder verweist

er auf ein gänzlich neues Forschungsparadigma im Sinne einer datengetriebenen

Wissenschaft? In der einschlägigen sozialwissenschaftlichen Literatur ist man

aufgrund dieser Unbestimmtheit um alternative Begriffe bemüht, wie etwa „tra-

ceable information“ oder „massiied research“ (Neuhaus & Webmoor, 2012). Im Folgenden meinen wir damit ganz pragmatisch die Erfassung, Speicherung und

Verwertung von „massive quantities of information produced by and about peo-

ple, things, and their interactions“ (boyd & Crawford, 2012, S. 662).

Vereinfacht ausgedrückt geht es bei Big Data im kommunikationswissen-

schaftlichen Kontext also um große Datensätze von Online-Kommunikationspu-

ren und deren Verwendung für datenbasierte Forschung. Ein wesentliches

Merkmal „datenintensiver“ Ansätze ist die weitgehende Automatisierung des

wissenschaftlichen Prozesses „von der Datenerfassung über die Verarbeitung

bis hin zur Modellbildung“, so dass die Wissenschaftlerinnen „erst ziemlich spät

einen Einblick in ihre Daten“ (Pietsch, 2013, S. 58-59) erhalten. Erhoben werden

die Daten meist automatisiert, beispielsweise mittels der APIs2 von sozialen Netz-

werkplattformen wie Facebook oder Twitter. Auch die Verarbeitung, Auswertung

2 Die Abkürzung API steht für „application programming interface“, also Program-mierschnittstellen eines Softwaresystems, die eine Anbindung an das System ermöglichen, zum Beispiel für Zugriffe auf Datenbanken.

Big Data – small problems?

41

und Darstellung der meist sehr großen Datensätze erfolgt bei Big-Data-Verfahren

weitgehend automatisiert über verschiedene Software-Tools, mit deren Hilfe

kausale Zusammenhänge, Korrelationen und Abhängigkeiten zwischen einer

großen Zahl an Variablen und Indikatoren ermittelt werden können. Während

so genannte „predicitive analytics“ in Bereichen wie der Informatik, Medizin,

Wirtschaft oder Politik bereits vor Jahren Einzug hielten, sind Big-Data-Analysen

in den Sozialwissenschaften ein noch eher junges Phänomen. In der Sozialfor-

schung werden sie unter anderem zur Beobachtung der Dynamiken öffentlicher

Meinungsbildung in Echtzeit genutzt, zum Beispiel anhand politischer Diskussio-

nen auf Twitter (Kaczmirek et al., 2014; Zeller, 2014).

Der Stellenwert solcher Analysen ist in den Sozialwissenschaften angesichts

zahlreicher methodologischer und theoretischer Herausforderungen jedoch

nicht unumstritten (siehe Mahrt in diesem Band).3 Zum einen stören sich Kri-

tikerinnen an der Annahme, dass durch große Datensätze allein Ergebnisse mit

höherem Anspruch an Wahrheit, Objektivität oder Genauigkeit erzielt werden (boyd & Crawford, 2012). Zum anderen widerstrebt einigen die mit Big-Data-Ana-

lysen einhergehende „Mathematisierung gesellschaftlicher Zusammenhänge“

(Pietsch, 2013, S. 62), weil sie hierin die Gefahr einer positivistisch-reduktionisti-schen Sozialforschung sehen (Uprichard, 2013).

Seltener indes werden die forschungsethischen Implikationen von Big-Data-

Forschung dezidiert in den Blick genommen. Zunächst wird daher im Folgenden

diskutiert, inwieweit Besonderheiten onlinebasierter Kommunikation(sdaten)

sowie Rahmenbedingungen onlinebasierter Forschung für Big-Data-Analysen

forschungsethisch relevant sind, denn: „the information generated by users of

social media platforms and services cannot be considered equivalent to conven-

tional types of ofline information collected by social researchers“ (Neuhaus & Webmoor, 2012, S. 46). Die Übertragung gängiger Standards gestaltet sich bei Big-

Data-Analysen vor allem deshalb schwierig, weil Status und Identität der Teilneh-

merinnen und der „Daten“ sowie die Bedingungen, unter denen Forscherinnen

mit ihnen interagieren, weniger eindeutig sind als bei ofline durchgeführter Forschung (Neuhaus & Webmoor, 2012). Insbesondere die (räumlich-zeitliche)

3 Nähere Ausführungen dazu in Mahrt und Scharkow (2013), Tinati, Halford, Carr und Pope (2014) oder Zeller (2014).

42

De-Kontextualisierung und Entgrenzung privater und öffentlicher Kommunika-

tion sowie die Anonymität und kommunikative Distanz zwischen Forscherin und

Forschungssubjekten können die Prozesse ethischer Entscheidungsindung bei Big-Data-Analysen erschweren.

1.2 De-Kontextualisierung und (kommunikative) Distanz als Ursachen ethischer

Dilemmata

„Taken out of context, Big Data loses its meaning“ (boyd & Crawford, 2012,

S. 670). Mit dieser Aussage bringen die Autorinnen ein zentrales Merkmal von

Big-Data-Analysen auf den Punkt: Daten oder vielmehr Spuren sozialer Kommu-

nikation werden bei Big-Data-Analysen aus dem Kontext ihrer Entstehung ge-

griffen. Dies ist forschungsethisch insofern relevant, als der Entstehungskontext

und damit verknüpfte Annahmen über die Privatheit/Öffentlichkeit der Kom-

munikation die Erwartungen der Nutzerinnen, wer die von ihnen mitgeteilten

Informatio nen wahrnehmen soll, beeinlussen. Insbesondere die Kommunikation in Social Media ist jedoch von einer gewissen Entgrenzung oder Vermischung

privater und öffentlicher Kontexte geprägt (Zeller, 2014). Da längst nicht alle

Nutzerinnen den Zugang zu ihren Proilen mithilfe von Privacy-Einstellungen regulieren, können Forscherinnen nicht per se davon ausgehen, dass die Vor-

stellungen der Nutzerinnen mit der tatsächlichen Reichweite der Kommunikati-

on übereinstimmen (Heise & Schmidt, 2014). Die Erfassung und Verwertung von

explizit/implizit produzierten Inhalten kann daher mitunter die „kontextuelle

Integrität“ (Nissenbaum, 2004) verletzen, das heißt einen Bruch der Handlungs-

und Erwartungszusammenhänge hinsichtlich der Frage darstellen, was mit die-

sen Informationen geschehen soll – und was nicht:

„Data are most often not produced with the intention that it be used as raw research material. Additionally, the original data are, in the process of mining and visualizing, taken out of its context of production and assembled as a new instance” (Neuhaus & Webmoor, 2012, S. 58).

In diesem Zusammenhang weist boyd (2010) darauf hin, dass es sich bei der

Aggregation, Zusammenführung und Weiterverarbeitung gesammelter Daten

letztlich um eine Art Zweckentfremdung handelt, die potenziell eine Verletzung

N. Heise

43

der Privatheit bedeuten kann (siehe Abschnitt 2). Auch das „frictionless sharing“

– das Teilen von Inhalten über verschiedene Plattformen hinweg – stellt eine Her-

ausforderung dar, da die Daten teils automatisch von einem Kontext in einen an-

deren überführt werden, beispielsweise von einem öffentlichen Twitter- auf ein

nicht-öffentliches Facebook-Proil.In solchen Fällen ist fraglich, auf welchen Kontext oder welche Online-Umge-

bung sich die Erwartungen der Nutzerinnen beziehen. Dies wirkt sich auch auf

die Berechtigung der Forscherinnen aus, deren Daten in ihre Analysen einzube-

ziehen, „because people have different values or expectations in different online

settings“ (Eynon, Schroeder & Fry, 2009, S. 188). Hierfür gilt es also Beurteilungs-

kriterien zu entwickeln, die sich etwa an der Zugänglichkeit und Sensibilität der

Informationen bemessen können (Heise & Schmidt, 2014); vor allem, da vielen

Nutzerinnen die unterschwellige Erhebung ihrer Daten mitunter gar nicht be-

wusst ist: „Many are not aware of the multiplicity of agents and algorithms cur-

rently gathering and storing their data (…) [they] are not necessarily aware of all

the multiple uses, proits, and other gains that come from information they have posted” (boyd & Crawford, 2012, S. 673).

Eine weitere forschungsethische relevante Herausforderung onlinebasierter

Forschung ist der im Vergleich zu Ofline-Forschung geringere Grad an sozialer Präsenz und wechselseitiger Sichtbarkeit (Heise & Schmidt, 2014). So kann die

Anonymität der Beziehung zwischen Forscherin und Beforschter bei Big-Data-

Analysen insbesondere im Hinblick auf Verantwortlichkeit problematisch sein:

“In terms of accountability, the issue of (researcher) anonymity now becomes a

problem rather than being a solution for minimizing risk to the individual” (Neu-

haus & Webmoor, 2012, S. 57).

Hinzu kommt die große kommunikative Distanz bei Big-Data-Verfahren. Den

gängigen reaktiven sozialwissenschaftlichen Forschungsmethoden ist ein unter-

schiedlicher Grad an Austauschprozessen und Interaktionen inhärent, über die kommunikative Beziehungen zwischen Forscherin und Forschungssubjekten

hergestellt werden (Russel & Kelly, 2002; Ziegaus, 2009). Bei gewissen onlineba-

sierten Forschungsverfahren erfolgt diese Kommunikation, im Rahmen derer die

Teilnehmerinnen in der Regel bei der Kontaktaufnahme oder zu Forschungsbe-

ginn über den Kontext einer Erhebung (Ziele, involvierte Akteurinnen oder Ähn-

liches) informiert werden, technisch vermittelt und (a-)synchron. Dadurch ha-

ben die Teilnehmerinnen ein gewisses Maß an Selbstbestimmung und Kon trolle

Big Data – small problems?

44

darüber, inwieweit sie ihr Einverständnis zur Erhebung, Auswertung und Veröf-

fentlichung bestimmter Daten geben (Heise & Schmidt, 2014).

Bei Big-Data-Analysen ist es nun möglich (oder angesichts hoher Fallzahlen

so gar notwendig), auf einen kommunikativen Austausch mit den beforschten In-

dividuen zu verzichten: „a researcher can conveniently collect data from his/

her computer without the knowledge of the data producer or the ‘participant’“

(Neuhaus & Webmoor, 2012, S. 57). Das heißt, bei automatisierten Erhebungen

indet eine Interaktion zwischen beiden Parteien kaum oder nicht mehr statt. Dies unterminiert zum einen ein basales kommunikationsethisches Prinzip: Re-

ziprozität, also die Wechselseitigkeit der Kommunikation, die als eine Maßgabe

der Interaktion zwischen Forscherin und Nutzerin im Online-Kontext verstanden

werden kann (Wolff, 2007; Heise, 2013). Eine solche Wechselseitigkeit ist unter

den Bedingungen von Big-Data-Forschung nicht mehr gegeben oder aufgrund

der großen Anzahl involvierter Nutzerinnen gar unmöglich, was vor allem Fol-

gen für das Einholen einer informierten Einwilligung (siehe Abschnitt 2) hat. Zum

anderen hat sich der Austausch verlagert und indet nun vorrangig in Form ei-nes Datenaustauschs zwischen Forscherin und Plattformbetreiberin statt. Durch

derartig automatisierte Datenzugänge werden aber nicht nur die Nutzerinnen

– als Produzentinnen der Daten – um- oder vielmehr übergangen. Ethisch prob-

lematisch ist es auch, dass die Nutzerinnen und ihr Handeln aufgrund der Nicht-

Interaktion als Individuen „verschwinden“ und nur als maschinenlesbarer Text

wahrnehmbar sind.

1.3 Big Data: Bits und Bytes oder Spuren kommunikativen Handelns?

Der Status und die Identität der Teilnehmerinnen sind bei Big-Data-Analysen

weniger eindeutig als bei ofline durchgeführter Forschung (Neuhaus & Webmoor, 2012). Dabei stellt die kommunikative Distanz der Forscherin zu den Nutzerinnen

insofern eine forschungsethische Herausforderung dar, als sie zu einem gewissen

Wahrnehmungsparadox führt: Die Forscherinnen haben es bei Big-Data-Analysen

oftmals nur mit Datensätzen oder (Text-)„Objekten“ zu tun, wodurch die Nutze-

rinnen für sie vor allem als „einrollende Datensätze“ und nicht mehr als Einzel-

personen wahrnehmbar sind. In dieser Distanz zum betroffenen „actual human“

bestehe, so Zimmer (2012), einerseits das Risiko, dass Forscherinnen ihre Arbeit

N. Heise

45

nicht oder nur bedingt als „‘human subject‘ research“ begreifen, was die Verlet-

zung oder Nicht-Einhaltung ethischer Standards im Umgang mit Forschungsteil-

nehmerinnen befördern könne.

Andererseits ist fraglich, inwieweit dabei das kommunikationsethische Prinzip

der Personalität als eine Norm onlinebasierter Forschung Berücksichtigung indet (Heise, 2013). Bezugnehmend auf das Grundrecht der Menschenwürde postuliert dieses Prinzip die Anerkennung des Personseins und das Verbot einer Verding-

lichung, Objektivierung oder Instrumentalisierung anderer Nutzerinnen (Wolff,

2007). In dieser Hinsicht hält McFarland (2012) die Prozesse der automatisierten

Datenerhebung und -verarbeitung im Rahmen von Big-Data-Analysen für ethisch

bedenklich, „because it dehumanizes those being judged (…) and thus threats those

proiled objects as collections of facts, rather than as persons“. Auch die Masse von Daten könne dazu führen, dass Risiken für einzelne involvierte Nutzerinnen falsch

eingeschätzt werden:

„the individual disappears in the mass, but the issue and potential risk remain on the scale of the individual. (…) [it is] important for both researchers and institutions to accept the fact that this kind of large-scale data mining still involves human subjects” (Neuhaus & Webmoor, 2012, S. 58-59).

Dies verweist auf ein zentrales Problem im Zusammenhang mit Big-Data-Ana-

lysen: Und zwar die Frage, ob es sich bei den gewonnenen Daten um Spuren so-

zialer Kommunikation, also Handlungsakte, oder Artefakte/Texte handelt – eine

Unterscheidung, die bei der Beurteilung ethischer Fragen hochgradig relevant

ist. Während Big-Data-Analysen als Erhebungsmethode zwar nicht-reaktiv und

Verfahren wie der Inhaltsanalyse durchaus ähnlich sind, untersuchen sie häuig nicht publizistische Inhalte, sondern Nutzerhandeln („moments of people“), für

das bestimmte Standards wie das Einholen der informierten Einwilligung gelten

(Heise & Schmidt, 2014).

2 Forschungsethische Standards – wie umgehen mit den Menschen

hinter den Daten?

Wir gehen hier von der Prämisse aus, dass Big-Data-Analysen in Abhän-

gigkeit zum Inhalt nicht mit Inhaltsanalysen gleichzusetzen sind, da es sich ins-

Big Data – small problems?

46

besondere bei Daten aus Social-Media-Diensten immer auch um Spuren sozialer

Kommunikation handelt. Daher müssen auch ethische Standards berücksichtigt

werden, die den Umgang mit Forschungsteilnehmerinnen regulieren und sich

insbesondere auf deren Persönlichkeits- und Datenschutzrechte beziehen. Dazu

gehören neben der Freiwilligkeit die informierte Einwilligung („informed consent“),

die Wahrung der Anonymität und der Schutz der Privatsphäre sowie die Nicht-Schä-

digung der Teilnehmerinnen (Diener & Crandall, 1978; Hopf, 2009; Strohm Kitche-

ner & Kitchener, 2009).

Ein zentraler ethischer Standard besagt, dass die Einwilligung zur Teilnahme

an wissenschaftlicher Forschung freiwillig von Personen erteilt wird, die dafür

kompetent sind und in der Regel im Vorfeld angemessen informiert wurden. Die

informierte Einwilligung zählt zu den „primary technical and procedural steps

for minimizing risks to human subjects in non-medical research contexts” (Neu-

haus & Webmoor, 2012, S. 45). Sie liegt einmal in der Freiheit des Individuums

begründet, selbst darüber zu entscheiden, unter welchen Umständen es anderen

Personen Einstellungen, Überzeugungen oder Meinungen mitteilt. Und zum an-

deren im Recht auf informationelle Selbstbestimmung, also der Kontrolle einer

Person über die von ihr selbst mitgeteilten, über sie gesammelte bzw. sie betref-

fende, von anderen mitgeteilte Daten.4

Bei Big-Data-Analysen sind herkömmliche Consent-Verfahren angesichts

der Größe der Datensätze und der Anzahl beteiligter Individuen oft nur schwer oder gar nicht umsetzbar. Adäquate Verfahren sind bislang nicht entwickelt.

Ungeklärt ist zudem, wie etwa mit einzelnen Postings auf sozialen Netzwerk-

plattformen umgegangen werden soll, die nach der Datenerhebung von den

Nutzerinnen wieder gelöscht wurden. Oder wie man beispielsweise mit Postings

verfahren soll, in denen sich Personen nicht selbst äußern, sondern von anderen

Nutzerinnen erwähnt werden. Derartige Inhalte können bei einigen Fragestel-

lungen, etwa zu politischen Einstellungen, als durchaus sensibel eingestuft wer-

den (Kaczmirek et al., 2014).

Da es zudem fraglich ist, ob die Kommunikation auf bestimmten Diensten per

se als öffentlich einzustufen ist, sofern sie öffentlich zugänglich ist, können wir

4 Dabei handelt es sich laut Schmidt (2012) nicht nur um ein normatives Konzept, sondern auch eine Kompetenz im praktischen Handlungsvollzug.

N. Heise

47

nicht automatisch von einer impliziten Zustimmung der Nutzerinnen zur Samm-

lung und Auswertung ihrer Daten ausgehen, denn: „In light of current research

(…), it is questionable whether users can effectively distinguish private from pub-

lic messages and behaviour” (Mahrt & Scharkow, 2013, S. 26).

Ebenfalls nicht geklärt ist, ob die Zustimmung zu den AGBs einzelner Dienste als impliziter informed consent gewertet werden kann bzw. eine explizite Ein-

willigung „überlagert“ oder gar ersetzt. Die empörten Reaktionen auf das „Face-

book-Experiment“ zeigen, dass diese Lesart aus Nutzerinnensicht problematisch

ist und die Forscherinnen keinesfalls von der Umsetzung des informed consent

entbinden sollte: „Individuals may (…) have agreed to the service conditions of a

third party. However, this cancels neither the responsibilities of the researcher

nor the institutions that undertake such research” (Neuhaus & Webmoor, 2012,

S. 59).

Die bereits in Abschnitt 1.2 angesprochene Frage nach der Öffentlichkeit/Pri-

vatheit bestimmter Daten oder Kommunikationsformen ist auch in Bezug auf die

Standards der Anonymisierung und Nicht-Schädigung relevant (boyd & Crawford,

2012). Der forschungsethische Standard der Nicht-Schädigung postuliert die Ver-

meidung möglicher Risiken oder Gefährdungen. Das heißt die an der Forschung beteiligten Personen/-gruppen dürfen keinen Nachteilen oder Gefahren ausge-

setzt werden, die das Maß des im Alltag Üblichen überschreiten, und müssen über

etwaige Risiken aufgeklärt werden (Hopf, 2009). Zur Vermeidung möglicher Schä-

den, wie der Verletzung der Privatsphäre der Teilnehmerinnen durch die Weiter-

gabe und mangelhafte Sicherung personenbezogener Daten oder unzureichend

anonymisierte Publikationen, sind die Daten zu anonymisieren, insbesondere im

Hinblick auf die Sensibilität bestimmter Informationen.5

Bei Big-Data-Analysen ist die Frage umstritten, was konkret unter persönli-

chen/sensiblen Informationen zu verstehen ist und welche Schädigungen für

Individuen potenziell auftreten können. Einige Autorinnen argumentieren, dass

5 Der Datenschutz zählt zum rechtlich bindenden Kontext empirischer Forschung. So treffen das Bundesdatenschutz- oder das Telemediengesetz Regelungen zur Erhe-bung, Verarbeitung und Nutzung sowie sicheren Verwahrung von Daten. Demnach dürfen personenbezogene Daten besonderer Art, wie etwa ethnische Herkunft oder religiöse Überzeugungen, nur dann erhoben und verwendet werden, wenn sie zur Durchführung der Forschung unerlässlich sind.

Big Data – small problems?

48

über die Analyse oder Zusammenführung von Datensätzen völlig neue Formen

persönlich identiizierender Informationen entstehen:

„By (…) analysing metadata, such as a set of predictive and aggregated indings, or by combining previously discrete data sets, Big Data approaches are not only able to ma-nufacture novel PII [personally identiiable information; Anm. d. Verf.], but often do so outside the purview of current privacy protections.” (Crawford & Schultz, 2013, S. 94)

Individuen sollten daher das Recht haben, zu erfahren, wie persönliche In-

formationen konkret genutzt werden. Dies scheint umso drängender angesichts

der Tatsache, dass Nutzerinnen dazu tendieren, über mehrere Dienste hinweg

ähnliche „Identiier“ zu verwenden. Über die (Re-)Kombination oder das „cross screening“ verschiedener Datensätze lassen sich so sekundäre Informationen

generieren, über die Einzelpersonen identiizierbar sind: „This is especially the case if traces are available over a longer period of time or in greater quantity so

that a more comprehensive picture about an individual may be pieced together“

(Neuhaus & Webmoor, 2012, S. 58). Diesbezüglich argumentieren Crawford und

Schultz, dass das Sammeln von Informationen über das Verhalten Einzelner eine

neuartige Form der Verletzung von Privatsphäre („predictive privacy harms“)

darstellen und durchaus persönliche Schädigungen zur Folge haben könne: „Per-

sonal harms emerge from the inappropriate inclusion and predictive analysis of

an individual’s personal data without their knowledge or express consent” (Cra-

wford & Schultz, 2013, S. 94).6 Ein weiteres Problem bei der Umsetzung des Ano-

nymisierungsstandards ist die potenzielle De-Anonymisierung von Datensätzen

nach der Veröffentlichung (siehe Abschnitt 4.1).7

6 Ein Beispiel für unberechtigte Privatsphäreneingriffe ist der Fall Target: Das Un-ternehmen hatte mittels der Analyse verschiedener (Meta-)Daten schwangere Nutzerinnen identiiziert und deren Kontaktdaten ohne Zustimmung an Marke-tingirmen weitergegeben. Einige Betroffene hatten ihre Schwangerschaft noch nicht öffentlich gemacht, wodurch es möglicherweise auch zu persönlichen Schädi-gungen kam (Crawford & Schultz, 2013).

7 Zimmer (2010) zeigte am Beispiel des US-amerikanischen Forschungsprojekts T3, dass sich selbst größere Datensätze de-anonymisieren lassen: Nachdem die auf Facebook gesammelten Daten eines ganzen Studierendenjahrgangs online gestellt wurden, konnte die betreffende Universität anhand des öffentlich einsehbaren Codebuchs der Studie identiiziert werden, womit die Anonymisierung des Daten-satzes hinfällig war.

N. Heise

49

Insgesamt zeigt sich, dass forschungsethische Standards auch bei Big-Data-Analy-

sen relevant sind, insbesondere im Kontext der Kommunikation auf sozialen Netz-

werkplattformen. Und auch wenn deren konkrete Umsetzung noch ausgehandelt

werden muss, scheint klar: „Concerns over consent, privacy and anonymity do not

disappear simply because subjects participate in online social networks; rather,

they become even more important“ (Zimmer, 2010, S. 324).

3 Was Big Data für Praxis und Grundwerte sozialwissenschaftlicher

Forschung bedeutet

Neben forschungsethischen Standards, die den Umgang mit Akteurinnen

außerhalb der Wissenschaft, insbesondere den Untersuchungsteilnehmerinnen

regeln, gehören auch normative Leitlinien zur Wertbasis wissenschaftlicher Tä-

tigkeit, die das Handeln innerhalb der Wissenschaft steuern. Darunter fallen for-

schungstechnische Mindeststandards und Grundsätze wissenschaftlichen Arbei-tens sowie höhere Prinzipien, die Forscherinnen bei der Beurteilung ihrer Arbeit

und der ethischen Entscheidungsindung im Hinblick auf grundlegende Werte, Ziele und Verantwortung von Forschung helfen sollen (Diener & Crandall, 1978;

Strohm Kitchener & Kitchener, 2009; Fenner, 2010). Im Folgenden soll diskutiert

werden, inwieweit Big-Data-Verfahren eine Herausforderung für die Praxis und

grundlegende Werte sozialwissenschaftlicher Forschung darstellen.

3.1 Big Data als Herausforderung für sozialwissenschaftliche Praxis

In der konkreten Anwendungspraxis berührt Big-Data-Forschung einige

Grundsätze guten wissenschaftlichen Arbeitens, wie sie etwa die Deutsche For-

schungsgemeinschaft (DFG, 2013) formuliert, beispielsweise den Grundsatz der Nachvollziehbarkeit aller Forschungsschritte. Im Vergleich zu anderen Verfah-

ren sind bei Big-Data-Analysen die weitgehend automatisierten Arbeitsschritte

und algorithmische Modellierung, bei denen die Ergebnisse unter Berücksichti-

gung einer großen Anzahl von Parametern und Daten erlangt werden, zum Teil

nur schwer und auch nicht für alle nachvollziehbar (Pietsch, 2013): „the advent

of Big Data makes it easier for those with programming skills and knowledge of

Big Data – small problems?

50

social media APIs to ask social questions” (Tinati, Halford, Carr & Pope, 2014, S. 5).

Derzeit verfügen nur wenige Forscherinnen über das notwendige Wissen oder die

Ressourcen, um etwa die Qualität von Big-Data-Analysen beurteilen zu können.

Dies kann ein Problem für innerwissenschaftliche Kontrollprozesse, wie peer

feedback und die Beurteilung der Qualität des Vorgehens darstellen: „instead of

(…) [an] information silo, we potentially have instead the information scientist

silo“ (Neuhaus & Webmoor, 2012, S. 59).

Auch bei der Veröffentlichung von Ergebnissen sind der Offenlegung algo-

rithmischer Datenerhebung und -auswertung aufgrund ihrer Komplexität und

Datenmenge Grenzen gesetzt. Zwar werden, ähnlich wie bei Codebüchern zu In-

haltsanalysen, häuig Hashtag- oder Schlagwortlisten publiziert – die Abbildung des zugrunde liegenden Codes oder Algorithmus ist aber weitaus problemati-

scher bis unmöglich. Ein aus ethischer Perspektive schwerwiegendes Problem

bei der Veröffentlichung ganzer Datensätze ist zudem die potenzielle De-Anony-

misierung, weshalb laut Mahrt und Scharkow (2013) nur noch wenige Anbieter

zur Kooperation und Weitergabe anonymer Datensätze bereit seien. Neben da-

tenschutzrechtlichen Problemen besteht beim (internationalen) Austausch und

der Bereitstellung von Forschungsdaten ein nachträgliches Risiko darin, dass sich

Content-Providerinnen oder einzelne Nutzerinnen gegen die Veröffentlichung

ihrer Daten aussprechen: „The post-hoc withdrawal (…) makes replications of the

indings impossible and therefore violates a core principle of empirical research” (Mahrt & Scharkow, 2013, S. 26; siehe auch Zeller, 2014).

Aus diesen und anderen Gründen sollten Big-Data-Forscherinnen als Teil guter wissenschaftlicher Praxis verstärkt Maßnahmen zur Gewährleistung von Trans-

parenz, Sicherheit und „Accountability“ (Verantwortlichkeit/Zurechenbar keit)

ergreifen (Wen, 2012). Einerseits trägt dies zur Qualitätssicherung und Güte wissenschaftlichen Arbeitens bei. Andererseits können Maßnahmen, die Zure-

chenbarkeit und einen verantwortungsvollen Umgang mit den Daten (Stichwort:

Datenschutz) anzeigen, das Vertrauen in die Forschung steigern. Bei der Veröf-

fentlichung von Datensätzen und Graiken könnte dies über Erklärungen zur Au-

torinnenschaft bei der Datenerhebung und -verarbeitung erfolgen: „This would

both break the spell of anonymity (…) surrounding these data sets and assign a

claimed responsibility“ (Neuhaus & Webmoor, 2012, S. 59).

N. Heise

51

3.2 Big Data und ethische Grundprinzipien

Neben der Umsetzung der Grundsätze wissenschaftlichen Arbeitens stellt sich auch die Frage, inwieweit Big-Data-Analysen ethische Grundprinzipien wis-

senschaftlicher Forschung berühren. Dazu gehören laut Strohm Kitchener und

Kitchener (2009) die vier Dimensionen Non-Maleicence (Nicht-Schädigung/Scha-

densvermeidung), Beneicence (Fürsorge), Justice (Gleichheit/Gerechtigkeit) und Fidelity (Vertrauen), aber auch Grundwerte wie Forschungsfreiheit. Für uns sind hier zunächst das Gerechtigkeitsprinzip (das Ideal einer Gleichbehandlung aller) und das Prinzip der Beneicence interessant, welches besagt, dass wissenschaft-

liche Forschung nicht nur um das Wohlergehen aller bemüht sein soll, sondern

auch die Autonomie und Selbstbestimmung sowie die Werte und Entscheidungen

der Teilnehmerinnen anerkennen und respektieren soll.

Im Hinblick auf diese Prinzipien stellt sich bei Big-Data-Analysen zum einen die

Frage, wer in den Datensätzen repräsentiert ist und welche Menschen davon aus-

geschlossen sind, etwa weil sie bestimmte soziale Netzwerkplattformen nicht nut-

zen. Dabei geht es nicht nur um demographische Diskrepanzen, sondern auch um

Unterschiede in der Nutzung einzelner Angebote, die die Generalisierbarkeit der Ergebnisse erheblich einschränken. So erlaubt ein Dienst wie Twitter unterschied-

lichste Beziehungsgelechte und eine breite Vielfalt an Kommunikationsmodi, von denen die Nutzerinnen in verschiedener Weise Gebrauch machen. Die Aussage-

kraft von Analysen einzelner Hashtags oder @-replies ist daher oft fraglich:

„users take advantage of these communicative facilities in different ways. Some may enjoy the increased ability to speak, whilst others may appreciate merely the wider array of content available to consume. (…) analysing only tweet data may not offer a fair overview of Twitter usership per se, let alone a national population more generally” (Cowls, 2014).

Angesichts dieser dateninhärenten „biases“ ist fraglich, inwieweit Big-Data-

Forschung überhaupt den Grundprinzipien einer Gleichbehandlung und der För-

derung des Wohlergehens aller genügen kann. Hier sollte auch in den Sozialwis-

senschaften eine Debatte zu den gesellschaftlichen Folgen von Big-Data-Analysen

stattinden, etwa zum Einluss so genannter „predictive analytics“ (Wen, 2012)

Big Data – small problems?

52

auf politische Entscheidungen.8 Zudem sollten Sozialwissenschaftlerinnen ein

Bewusstsein dafür entwickeln, dass die Interpretation von Big-Data-Analysen,

wie bei jeder anderen Forschung auch, gewisse Nachteile für gesellschaftliche

Gruppen nach sich ziehen kann, zum Beispiel durch die Erzeugung oder Verstär-

kung von Stereotypen (Hopf, 2009). Letztlich stellt das algorithmenbasierte Erfas-

sen, Auswerten und Darstellen von Daten immer auch eine Klassiikation sozialen Handelns dar, die durchaus (schwer abschätzbare) gesellschaftliche Folgen haben

kann: „How we shape the social through our counting and classifying are highly

political and ethical issues” (Uprichard, 2013).

Neben dieser gesellschaftlichen Ebene spielen ethische Grundprinzipien bei Big-Data-Analysen auch auf individueller Ebene der Nutzerinnen eine Rolle, insbe-

sondere im Hinblick auf die Wahrung und Anerkennung ihrer Autonomie. Dies be-

trifft nicht nur ihr Recht auf informationelle Selbstbestimmung (siehe Abschnitt

2), sondern auch die Machtverhältnisse zwischen Forscherinnen und Nutzerin-

nen, die bei Big-Data-Forschung hinsichtlich der Kontrolle und des Zugangs zu

den Daten häuig verschoben sind: “researchers have the tools and access, while social media users as a whole do not“ (boyd & Crawford 2012, S. 673).

Die Frage nach Handlungsmacht betrifft aber nicht nur die Beziehung zwi-

schen Forscherin und Beforschten, da bei Big-Data-Analysen eine dritte Partei

hinzukommt: die „Besitzerinnen“ der Daten. Bei sozialwissenschaftlichen Studi-

en handelt es sich hier meist um Dienste wie Twitter, Facebook oder Google, also kommerzielle Unternehmen, die als Intermediäre die zur Forschung genutzten

Informationen in ihren Datenbanken bereithalten und (partiell) bereitstellen. Die-

se Mittler-Position der Intermediäre trägt nicht nur zur kommunikativen Distanz

zwischen Forscherinnen und Nutzerinnen bei (siehe Abschnitt 1), sondern macht

sie auch zu einer neuartigen Anspruchsgruppe ethischer Entscheidungsindung, vor allem bezüglich der informierten Einwilligung (siehe Abschnitt 2).

Fraglich ist, inwieweit dadurch neue Abhängigkeiten entstehen und ein zen-

trales wissenschaftliches Grundprinzip, nämlich die innere und äußere Freiheit der Forscherinnen in der Deinition ihres Untersuchungsgegenstandes, der Wahl

N. Heise

8 Dass Big-Data-Analysen durchaus realweltliche Folgen haben, zeigte sich 2013 in den USA: Dort erfolgte die Zuteilung von Notversorgungsgütern nach dem Hurri-kan Sandy unter anderem auf Basis einer Analyse der Twitter-Kommunikation aus betroffenen Gebieten (Crawford, 2013).

53

ihres Forschungsweges sowie das Recht auf Veröffentlichung der Ergebnisse be-

einträchtigt wird. Dies betrifft zum einen die Datenerhebung: Viele Plattform-

betreiberinnen schließen die automatisierte Erfassung von Nutzerinneninfor-

mationen/ -interaktionen in ihren AGBs aus oder knüpfen sie im Sinne ihres „Hausrechtes“ an bestimmte Bedingungen. Facebook etwa fordert von Forsche-

rinnen explizit, die betroffenen Nutzerinnen über Art und Zweck der gesammel-

ten Informationen in Kenntnis zu setzen und ihre Zustimmung einzuholen (Heise

& Schmidt, 2014). Mitunter sind Wissenschaftlerinnen daher auf Kooperationen

mit Plattformbetreiberinnen angewiesen, die aber eher selten sind und, wie das

„Facebook-Experiment“ zeigt, aus forschungsethischer Perspektive nicht immer

glücklich verlaufen. Da die Unternehmen in der Regel auf datenschutzrechtliche

Absicherung und den Schutz ihrer Geschäftsmodelle – zu denen auch Datenban-

ken gehören – bedacht sind, können solche Kooperationen zudem mit Einschrän-

kungen für die Forscherinnen verbunden sein, beispielsweise bezüglich der Pub-

likation von Daten (siehe Abschnitt 4.1).

Auch über die Art und Form der verfügbaren Daten haben die Forscherinnen

häuig keine unmittelbare Entscheidungsgewalt, was die Bandbreite an mög-

lichen Fragestellungen bzw. ihre Forschung generell einschränken kann: „the

tools we use can limit the range of questions that might be imagined, simply be-

cause they do not it the affordances of the tool. (…) This then introduces seri-ous limitations in terms of the scope of research that can be done“ (Vis, 2013).

Entscheidungen über die Gestaltung von Nutzungsoberlächen oder bestimmte Nutzungsoptionen werden von den Intermediären gemäß eigener Zielvorstellun-

gen (wie Proit- oder Reichweitenmaximierung) implementiert und sind daher nicht wertneutral. Mit Blick auf das Prinzip der Forschungsfreiheit gilt es bei Big-

Data-Analysen daher die Rolle der Plattformbetreiberinnen zu berücksichtigen

und zugleich kritisch zu relektieren, inwieweit sie den Möglichkeitshorizont der Forscherinnen (mit-)bestimmen.

4 Ausblick

Im öffentlichen Diskurs um Big Data wurden zuletzt immer wieder eine

gesellschaftliche Diskussion sowie politische Entscheidungen darüber eingefor-

dert, für welche Bereiche derartige Analysen eingesetzt werden dürfen – und für

Big Data – small problems?

welche nicht. An diesen Diskussionen sollten auch wir Sozialwissenschaftlerin-

nen uns beteiligen: „We need to think about what it means to measure the social

world and how our models of causality are constructed (…), how these counts and

measurements are used and for whom? These answers are not trivial and social

scientists need to be part of those conversations” (Uprichard, 2013). Die kont-

roversen Debatten um das „Facebook-Experiment“ machen deutlich, dass auch

eine Relexion der ethischen Implikationen und ein Verständigungsprozess über unseren Umgang mit Big-Data-Forschung stattinden muss – gerade jetzt, da die Forschung mit „traceable information“ zögerlich, aber unumkehrbar Einzug in

unsere Forschungsfelder erhält.

Dabei gilt es nicht, den Wert sozialwissenschaftlicher Big-Data-Forschung

grundsätzlich anzuzweifeln, sondern „to examine exactly what is known through

such totalizing inquiries (…), to query the discursive horizon they construct, as

well as what vanishes beyond that horizon” (Baym, 2013). Zugleich gilt es auch

den Nutzen von Big-Data-Analysen und ihren Beitrag zum Gemeinschaftswohl klar herausstellen, um den Eindruck zu vermeiden, Daten würden schlichtweg

aufgrund ihrer Verfügbarkeit oder rein um des Datensammeln-Willens erhoben.

Nicht zuletzt führen uns die Enthüllungen von Abhör- und Big-Data-Zugriffstak-

tiken verschiedener Regierungsinstitutionen und die dadurch erneut angesto-

ßene Datenschutzdebatte einmal mehr vor Augen: Es ist wichtig, datenintensive

Forschung klar vom auch nur ansatzweisen Verdacht der verdeckten Beobach-

tung oder „Überwachung“ abzugrenzen, um das gesellschaftliche Vertrauen

in Wissenschaft nicht aufs Spiel zu setzen. Denn selbst wenn die kommerzielle

Verwendung von Nutzungsdaten durch die Plattformbetreiberinnen fragwürdig

erscheint, so beruht sie doch auf einem „exchange or transaction of mutual be-

neit between service providers and customers. However, for academics (…) who deploy such data, the ethical implications must be carefully evaluated“ (Neuhaus

& Webmoor, 2012, S. 57).

Die Absicht des vorliegenden Beitrags war es, einige ethische Dimensionen

und Herausforderungen von Big-Data-Forschung aufzuzeigen, um die Sensibili-

tät für forschungsethische Fragen zu schärfen und die Annahme zu entkräften,

diese Art der Forschung sei „disconnected from ethics“ (Neuhaus & Webmoor,

2012, S. 60). Da es sich insbesondere bei Social-Media-Analysen um die Untersu-

chung menschlich-sozialer Ausdrucksformen handelt, müssen auch in Big-Data-

Studien sozialwissenschaftliche ethische Grundprinzipien greifen (Zeller, 2014).

54

N. Heise

Angesichts vieler offener Fragen und Handlungsunsicherheiten braucht es eine

Verständigung innerhalb der Scientiic Community zum Umgang mit ethischen Dilemmata: „Big Data research has to solve the problem of guaranteeing privacy

and ethical standards while also being replicable and open to scholarly debate”

(Mahrt & Scharkow, 2013, S. 26).

Die Ergebnisse einer solchen Aushandlung sollten bestenfalls in der For-

mulierung von Richtlinien münden, die zur Orientierung im Prozess ethischer

Entscheidungsindung, der wissenschaftlichen Selbstkontrolle sowie der Legi-timation gegenüber Akteurinnen außerhalb der Wissenschaft dienen können.

Aufgrund der Besonderheiten onlinebasierter Kommunikation stoßen Forsche-

rinnen bei der Übertragung ethischer Standards bislang häuig an Grenzen und gängige formalisierte Verfahrensweisen erweisen sich oft als ineffektiv

oder impraktikabel. Es braucht daher praxisorientierte Handlungsleitlinien,

die lexibel für die jeweiligen Forschungsvorhaben adaptierbar sind. Neuhaus und Webmoor (2012) etwa schlagen eine „agile ethics for massiied research and visualization“ vor, bei der es weniger um standardisierte Ethik-Protokolle,

sondern um situativ anzupassende „working solutions“ und eine Sensibilität für

gute Praxis geht. Letztlich tragen ein verantwortungsvoller Umgang mit den

Daten sowie Transparenz und Zurechenbarkeit nicht nur zur Sicherung der

Qualität und Güte wissenschaftlichen Arbeitens bei, sondern steigern auch das Vertrauen in Big-Data-Forschung.

Die im Beitragstitel aufgeworfene Frage „Big Data – small problems?“ muss

angesichts der vielschichtigen forschungsethischen Herausforderungen ver-

neint werden. Wieder einmal stehen Wissenschaftlerinnen vor der Aufgabe,

technische Machbarkeit und ethische Vertretbarkeit ihres Handelns abzuwä-

gen. Das Aufkommen einer „data-driven science“ sollte auch als Erinnerung an

die besondere Verantwortung sozialwissenschaftlicher Forschung verstanden

werden. Denn, wie Diener und Crandall bereits vor über dreißig Jahren anmahn-

ten, „the social sciences can (…) have a tremendous impact on society, even to

the point of revolutionizing our conceptions of human nature, society, and cul-

ture. (…) [We] must accept responsibility for its social consequences” (Diener &

Crandall, 1978, S. 195).

Nele Heise, M.A. ist wissenschaftliche Mitarbeiterin an der Universität Hamburg und Doktorandin an der Graduate School Media and Communication Hamburg

55

Big Data – small problems?

Quellenverzeichnis

Baym, N. (2013). Data not seen: The uses and shortcomings of social media

metrics. First Monday, 18(10). doi: 10.5210%2Ffm.v18i10.4873

boyd, d. (April 2010). Privacy and Publicity in the Context of Big Data. Vortrag

auf der WWW. Raleigh: North Carolina. Abgerufen von http://www.danah.

org/papers/talks/2010/WWW2010.html

boyd, d., & Crawford, K. (2012). Critical questions for Big Data. Information,

Communication & Society, 15(5), 662-679. doi: 10.1080/1369118X.2012.678878

Crawford, K. (1. April 2013). The Hidden Biases in Big Data. Harvard Business

Review. Abgeru fen von http://blogs.hbr.org/cs/2013/04/the_hidden_biases_

in_big_data.html

Crawford, K., & Schultz, J. (2013). Big Data and Due Process: Toward a Framework

to Redress Predictive Privacy Harms. Boston College Law Review, 55(1), 93-128.

Abgerufen von http://lawdigitalcommons.bc.edu/bclr/vol55/iss1/4/

Cowls, J. (28. Januar 2014). “Twitter says...” – Can big social data tell us about

public opinion? Abgerufen von http://joshcowls.com/2014/01/28/twitter-

says-can-big-social-data-tell-us-about-public-opinion/

Deterding, S. (9. Juli 2014). The Facebook Loophole. Abgerufen von http://

codingconduct.tumblr.com/post/91239582975/the-facebook-loophole

DFG (2013). Vorschläge zur Sicherung guter wissenschaftlicher Praxis. Weinheim:

Wiley-VCH. Abgerufen von http://www.dfg.de/download/pdf/dfg_im_

proil/reden_stellungnahmen/download/empfehlung_wiss_praxis_1310.pdfDiener, E., & Crandall, R. (1978). Ethics in Social and Behavioral Research. Chicago:

University of Chicago Press.

Eynon, R., Schroeder, R., & Fry, J. (2009). New Techniques in Online Research.

Challenges for Research Ethics. 21st Century Society, 4(2), 187-199. doi:

10.1080/17450140903000308

Fenner, D. (2010). Einführung in die Angewandte Ethik. Tübingen: Francke.

Heise, N. (2013). ‘Doing it for real’ – Authentizität als kommunikationsethische

Voraussetzung onlinebasierter Forschung. In M. Emmer, A. Filipovic, J.-H.

Schmidt, & I. Stapf (Hrsg.), Echtheit, Wahrheit, Ehrlichkeit. Authentizität in der

computervermittelten Kommunikation (S. 88-109). Weinheim: Juventa.

56

N. Heise

Heise, N., & Schmidt, J. (2014). Ethik der Onlineforschung. In M. Welker, M.

Taddicken, J.-H. Schmidt, & N. Jackob (Hrsg.), Handbuch Online-Forschung

(S. 532-553). Köln: Herbert von Halem.

Hopf, C. (2009). Forschungsethik und qualitative Forschung. In U. Flick, E. Kardoff,

& I. Steinke (Hrsg.), Qualitative Sozialforschung (S. 589-600). Reinbek: Rowohlt.

Kaczmirek, L., Mayr, P., Vatrapu, R., Bleier, A., Blumenberg, M., Gummer, T., et al. (2014). Social Media Monitoring of the Campaigns for the 2013 German Bun-

destag Elections on Facebook and Twitter. Gesis Working Papers (31). Abgerufen

von http://www.gesis.org/ileadmin/upload/forschung/publikationen/gesis_reihen/gesis_arbeitsberichte/WorkingPapers_2014-31.pdf

Kramer, A. D. I., Guillory, J. E., & Hancock, J. T. (2014). Experimental evidence of massive-scal emotional contagion through social networks. Proceedings of the

National Academy of Sciences, 111(24), 8788-8790. doi: 10.1073/pnas.1320040111

Mahrt, M. & Scharkow, M. (2013). The Value of Big Data in Digital Media

Research. Journal of Broadcasting & Electronic Media, 57(1), 20-33. doi:

10.1080/08838151.2012.761700

McFarland, M. (2012). Ethical Implications of Data Aggregation. Abgerufen unter

http://www.scu.edu/ethics/practicing/focusareas/technology/internet/

privacy/data-aggregation.html

Neuhaus, F., & Webmoor, T. (2012). Agile ethics for massiied research and visualization. Information, Communication & Society, 15(1), 43-65. doi:

10.1080/1369118X.2011.616519

Nissenbaum, H. F. (2004). Privacy as Contextual Integrity. Washington Law Review,

79(1), 119-158.

Pietsch, W. (2013). Big Data – über Chancen und Risiken einer neuen

Wissenschaft des Komplexen. Universitas, 806.

Russel, G., & Kelly, N. (2002). Research as Interacting Dialogic Processes: Implications for Relexivity. Forum: Qualitative Social Research, 3(3). urn:

urn:nbn:de:0114-fqs0203181

Schmidt, J. (2012). Persönliche Öffentlichkeiten und informationelle

Selbstbestimmung im Social Web. In J. Schmidt & T. Weichert (Hrsg.),

Datenschutz (S. 215-225). Bonn: Bundeszentrale für politische Bildung.

Strohm Kitchener, K., & Kitchener, R. F. (2009). Social Research Ethics. Historical

and Philosophical Issues. In D. Mertens, & P. Ginsberg (Hrsg.), The Handbook of

Social Research Ethics (S. 5-22). Thousand Oaks: Sage.

57

Big Data – small problems?

Tinati, R., Halford, S., Carr, L., & Pope, C. (2014). Big Data: Methodological

Challeng es and Approaches for Sociological Analysis. Sociology, 48(4), 663-681.

doi: 10.1177/0038038513511561

Uprichard, E. (1. Oktober 2013). Big Data, Little Questions? Discover Society. Abge-

rufen von http://www.discoversociety.org/focus-big-data-little-questions/

Vis, F. (2013). A critical relection on Big Data: Considering APIs, researchers and tools as data makers. First Monday, 18(10). doi: 10.5210%2Ffm.v18i10.4878

Wen, H. (21. Juni 2012). The Ethics of Big Data. Forbes. Abgerufen von http://

www.forbes.com/sites/oreillymedia/2012/06/21/the-ethics-of-big-data

Wolff, O. (2007). Kommunikationsethik des Internets: eine anthropologisch-theologische

Grundlegung. Hamburg: Dr. Kovač.Zeller, F. (2014). Online-Forschung und Big Data. In M. Welker, M. Taddicken, J.-

H. Schmidt, & N. Jackob (Hrsg.), Handbuch Online-Forschung (S. 453-480). Köln:

Herbert von Halem.

Ziegaus, S. (2009). Die Abhängigkeit der Sozialwissenschaften von ihren Medien.

Grundlagen einer kommunikativen Sozialforschung. Bielefeld: transcript.

Zimmer, M. (2010). ‘But the data is already public’: on the ethics of research

on Facebook. Ethics and Information Technology, 12(4), 313-325. doi: 10.1007/

s10676-010-9227-5

Zimmer, M. (26. Mai 2012). New media, new ethics. How social media-based

research demands new attention to research ethics. Vortrag auf der 62.

Jahrestagung der International Communication Association (ICA). Phoenix:

Arizona. Abgerufen von http://de.slideshare.net/michaelzimmer/new-

media-new-ethics-ica-2012

58

N. Heise