← Band 2: Digitale Methoden in der Kommunikationswissenschaft

 

Digitale Methoden in der Kommunikationswissenschaft

Ansätze zur Analyse öffentlicher Kommunikation im Internet

Christina Schumann, Julian Ausserhofer, Axel Maireder & Monika Taddicken
 

Berlin, 2015
DOI 10.17174/dcr.v2.1 (SSOAR)
 

 

1 Zum Begriff „digitale Methoden“

Tagtäglich werden unzählige Mitteilungen auf Sozialen Netzwerkseiten und Online-Foren abgesetzt, Blogbeiträge und Webseiten veröffentlicht, Fotos, Videoclips und Dokumente über mobile und stationäre Geräte hochgeladen, bewertet, verlinkt und geteilt. Verstanden als Artefakte vermittelter Kommunikation liegt in ihrer Analyse sowie in der Analyse der Akteure, Objekte, Infrastrukturen und ihrer Relationen zueinander ein immenses Potenzial für reichhaltige Erkenntnisse zur Struktur und Kultur unserer Gesellschaft. Für die Sozialwissenschaften ergeben sich daraus zahlreiche methodologische, forschungspraktische und ethische Herausforderungen. Dabei handelt es sich vielfach um neue, zuvor noch nicht diskutierte Problematiken.

Die Kommunikationswissenschaft erscheint für eine Auseinandersetzung mit den neuen methodischen Problemen prädestiniert. Zum einen beschäftigt sie sich seit Jahrzehnten mit medienvermittelter, zuletzt auch computervermittelter Kommunikation; zum anderen manifestieren sich hier Indikatoren für jene sozialen Prozesse, die für den Kernbereich kommunikationswissenschaftlicher Theoriebildung maßgeblich sind: die Entwicklung von Öffentlichkeit und öffentlicher Meinung. Tatsächlich befassen sich inzwischen zahlreiche Forschungsprojekte mit der Analyse der Akteure, Artefakte und Infrastrukturen sozialer Kommunikation im Internet. Dabei werden sowohl datenintensive quantitative Methoden angewandt als auch qualitative, zum Beispiel medienethnografische Zugänge oder semantische Analysen. In den vergangenen Jahren taucht in der Literatur in diesem Zusammenhang immer öfter der Begriff der digitalen Methoden auf.

„Digitale Gesellschaft“, „digitale Moderne“, „digitale Demenz“, „digitale Revolution“, „digitaler Journalismus“, „digitale Demokratie“. Nun also auch noch „digitale Methoden“? In den vergangenen Jahren wurde häufig der Versuch unternommen, durch die Verwendung des Adjektivs „digital” zusätzliche Aufmerksamkeit für ein Thema herzustellen: Ein in sich breit angelegter Begriff, der mit Wandel assoziiert ist (oder damit assoziiert werden soll), wird mit dem Zusatz „digital“ versehen. Im Optimalfall beginnt der Begriff noch mit einem „D“, so dass eine sprachlich attraktive Alliteration entsteht. Dabei hatte der Zusatz „digital“ dann seine Berechtigung, wenn damit tatsächlich ein Umstand charakterisiert wurde, der sich in seiner Form vom „analogen Zeitalter“ (ein weiterer aufgeladener Ausdruck) unterschied. Oft aber war das Adjektiv überflüssig, denn „digital“ erklärte einzig und allein, dass es um „irgend etwas mit Computern“ ging – und nicht mehr. Heute haben wir in unserem Verständnis „digital“ die digitalen Offline- Medien hinter uns gelassen und verbinden den Ausdruck nur mehr mit Phänomenen aus dem Internet beziehungsweise dem World Wide Web.

„Digital“ ist also ein Modewort, ähnlich wie es „cyber“ oder „virtuell“ ab Ende der 1990er Jahre war. Heute klingen Worte wie „Cyberspace“, „Cyberwar“, „Cyber Monday“ oder „virtuelle Realität“ altbacken, auch wenn sie noch in Verwendung sind. Digital macht da nach wie vor einen dynamischeren Eindruck. Wie steht es also um das „digital“ als Addendum zu „Methoden“? Handelt es sich dabei auch um nicht mehr als um ein „Buzzword“, das wenig klärt, aber modern klingt? Gibt es überhaupt so etwas wie „analoge Methoden“ in der Erforschung computervermittelter Kommunikation?

Der Begriff „digitale Methoden“ ist eng mit Richard Rogers (2013) und seiner Digital Methods Initiative an der Universität Amsterdam verknüpft. Rogers stellt digitale Methoden dem Begriff der„virtuellen Methoden“ (Hine, 2005) gegenüber. Der methodologische Unterschied liegt dabei im Detail: Während Forschungen, die virtuelle Methoden einsetzen, darauf abzielen, die Dynamiken und Kulturen von Online-Umgebungen zu ergründen, erfassen digitale Methoden gesamtgesellschaftliche Phänomene durch die Analyse computervermittelter Kommunikation. Auf der einen Seite geht es also stärker darum, das Virtuelle als Raum zu verorten und diesen durch Methoden wie Online-Diskursanalyse oder -Ethnograie auszuloten. Auf der anderen Seite sollen Dynamiken des Webs untersucht werden, um bessere Einblicke in gesamtgesellschaftliche Diskurse entwickeln zu können.
 

2 Rahmenbedingungen digitaler Methodenentwicklung

Digitale Methoden haben in den vergangenen Jahren einen großen Aufschwung erlebt. Diese Popularisierung hängt nicht zuletzt mit dem starken Plattformfokus des Ansatzes zusammen. Die Konzentration auf Plattformen kommt auch uns Erforschenden dieser Dynamiken gelegen, weil diese Infrastrukturen und ihre Metriken leichter zu operationalisieren sind als die Akteure, die an diesen Kommunikationsprozessen beteiligt sind. Im Unterschied zu analoger Massenkommunikation ist in der vernetzten Plattformkommunikation oft nicht klar, wer mit wem kommuniziert: Individuen, Kollektive, Institutionen, Prois, Laien, Algorithmen und viele andere Akteure sind voneinander abhängig und interagieren miteinander. Die Diversität ist groß, empirisch fundierte Rollen­ und Urheberzuschreibungen werden schwierig.

Die Erforschung dieser Dynamiken inmitten solcher verschwimmenden Grenzen ist mit traditionellen kommunikationswissenschaftlichen Methoden in vielen Fällen nur mehr schwer bis gar nicht zu bewerkstelligen. Deshalb müssen Methoden weiterentwickelt und an den Forschungsgegenstand angepasst werden. Dabei lassen sich die Rahmenbedingungen, an denen sich die Entwicklung digitaler Methoden orientieren, unserer Ansicht nach in folgende fünf Dimensionen zusammenfassen:
 

1. Methodenanpassungen aufgrund der Datenmenge

Mediale Pluralität und Diversität haben dazu geführt, dass die Anzahl potenziell relevanter Daten ins vermeintlich Unmessbare steigen kann: Sei es die Menge an Mitteilungen, die auf Twitter, Facebook oder in Kommentarbereichen zu einem Thema abgesetzt wird und die sich sekündlich verändert, sei es die Menge an unterschiedlichen Akteuren, die zu einem Thema Stellung beziehen, oder sei es die Vielzahl an unterschiedlichen Plattformen, die zur öffentlichen Kommunikation genutzt werden – Big Data unterscheiden sich in vielerlei Hinsicht von „herkömmlichen“ Daten (boyd & Crawford, 2012; Burrows & Savage, 2014). In der empirischen Forschung führt dies in erster Linie zu Problemen bei a) der Stichprobenziehung, b) der Speicherung und Verarbeitung und c) der Auswertung und Aufbereitung von Datenmengen dieser Größe: Müssen überhaupt noch Stichproben aus diesem Material gezogen werden und wenn ja, welche Verfahren sind hier anzuwenden? Manuell jeden zehnten Tweet aus einer sekündlich steigenden Menge an Twitter-Nachrichten zu einem Thema abzuspeichern ist zeitraubend und unökonomisch. Wie können diese riesigen Mengen an Daten überhaupt gesichert und verarbeitet werden? Denn die „herkömmliche“ Speicherung auf dem Rechner des Forschers stößt hier schnell an Grenzen. Und wie können und sollen Daten dieser Menge ausgewertet und deren Ergebnisse visualisiert werden? An welchen Stellen benötigen wir Automatisierung? Und lassen sich die bekannten, statistischen Verfahren überhaupt auf solche Datenmengen übertragen (Stich­ wort „Signifikanztests“)?
 

2. Methodenanpassungen aufgrund der Unstrukturiertheit von Kommunikationsartefakten

Unmittelbar verknüpft mit dem Mengenproblem ist die Frage, wie die Vielfalt der Artefakte, die durch soziale Kommunikationsprozesse im Netz entsteht, einzuordnen ist und wie sie analysierbar gemacht werden kann. Das methodische Hauptproblem liegt dabei in der Unstrukturiertheit der Daten. Während beispielsweise „herkömmliche“ Nachrichten leicht anhand ihrer Merkmale beispielsweise in Meldung, Kommentar oder Glosse eingeordnet werden können, werfen Artefakte sozialer Kommunikationsprozesse neue Fragen auf: Wer ist der Kommunikator eines von einer Privatperson über Facebook geteilten Links zu einer Tagesthemen-Nachricht? Die Privatperson oder „die Tagesthemen“? Und welche Auswirkungen hat es, wenn die Privatperson den Inhalt des Beitrags kommentiert? Ist der Beitrag dann Meldung oder Kommentar? Problematisch ist das Fehlen dieser Systematisierungsansätze insbesondere deshalb, weil die Analyse großer Datenmengen manuell nicht mehr zu leisten ist. Doch gerade Computerprogramme benötigen verlässliche Kriterien, durch die die Daten automatisiert aufbereitet und systematisiert werden können. Die empirische Kommunikationswissenschaft wird sich daher zunehmend solchen Systematisierungsansätzen widmen müssen.
 

3. Methodenanpassungen aufgrund von Individualisierung

Auch das zunehmend individualisierte Nutzungsverhalten im Netz stellt Herausforderungen an die empirische Kommunikationswissenschaft. Dieses wirkt sich insbesondere auf die nutzerseitige Analyse von Rezeptionsprozessen aus. Bei einer Untersuchung zur politischen Informiertheit von Bildzeitungs- und SZ-Leserinnen und -Lesern können Forschende mit hoher Wahrscheinlichkeit auf den Medien-Input schließen, den diese beiden Gruppen bekommen haben und muss „nur“ die Unwägbarkeit der Selektion und gegebenenfalls einige situative Faktoren wie zeitliche Restriktionen in Kauf nehmen. Im Gegensatz dazu kann der Input, den Rezipientinnen und Rezipienten auf einer Webseite oder auch in den Suchergebnissen von Suchmaschinen erhalten, erheblich von Person zu Person variieren. Insbesondere bei den großen Anbietern sorgen Personalisierungsstrategien dafür, dass jeder Nutzerin und jedem Nutzer ein individuelles Potpourri an Informationen zusammengestellt wird – und somit auch den Forschenden, deren Analyseobjekte sich von denjenigen unterscheiden können, die den Rezipientinnen und Rezipienten in ihrer seiner Stichprobe präsentiert wurden.
 

4. Methodenanpassungen aufgrund der Nicht-Zugänglichkeit von Daten

Ein Resultat dieser Individualisierung ist, dass viele Daten den Forschenden nicht oder nur schwer zugänglich sind. Wie erhält man beispielsweise Einsicht in die hochgradig individualisierten Newsfeeds der Facebook­-User? Wie kann man wissen, welche Inhalte einem User auf einer Website angezeigt wurden, die mit Personalisierungsstrategien arbeitet? Sicherlich verfügen die Anbieter und Plattform-Betreiber über diese Daten, doch selbst wenn diese für die Wissenschaft zugänglich gemacht werden – inwieweit kann man diesen Daten vertrauen? Und ist die Nutzung solcher Daten in methodisch-ethischer Hinsicht überhaupt angemessen? Was würde es für die Reputation und die Akzeptanz der Wissenschaft bedeuten, solche Daten zu verwenden?
 

5. Methodenanpassungen aufgrund der Nicht-Beobachtbarkeit sozio-technischer Determinanten

In der digitalen Kommunikation greifen neue „Akteure“ in soziale Kommunikationsprozesse ein: Algorithmen wirken sich zunehmend auf den Informationsfluss im Netz aus, zum Beispiel indem der Algorithmus einer Suchmaschine darüber entscheidet, welche Informationen einem suchenden Nutzer präsentiert werden oder wenn Facebooks News-Feed-Ranking-Algorithmus festlegt, welche Neuigkeiten aus dem individuellen Netzwerk ein User in seiner Timeline angezeigt bekommt. Für die empirische Kommunikationswissenschaft ist die Beforschung dieser „neuen Akteure“ zentral und herausfordernd zugleich. Das methodische Hauptproblem liegt darin, dass die Funktionsweise dieser Algorithmen nicht offen liegt und sie sich damit weder inhaltsanalytisch noch durch Beobachtung erforschen lassen. Auch sind mit ihnen enorme wirtschaftliche Interessen verbunden, weswegen eine Befragung ihrer Programmierer bestenfalls von geringer Validität wäre. Damit stehen die empirischen Wissenschaften vor der Frage, wie sich die Funktionsweise dieser Algorithmen analysieren lässt und ob dies mit dem bekannten Methodenkanon überhaupt zu realisieren ist.
 

3 Interdisziplinarität und ethische Standards

Die Kommunikationswissenschaft steht allerdings nicht alleine vor diesen Herausforderungen. Auch Disziplinen wie die Informatik, die Informationswissenschaft, die Linguistik, die Medienwissenschaft oder Data Science sind in ihren Forschungen mit den oben beschriebenen Problemen konfrontiert. In den Geisteswissenschaften hat sich mit den Digital Humanities in den vergangenen Jahren eine fächerübergreifende Interessensgemeinschaft gebildet, die sich über die Anwendung technologieintensiver Methoden definiert und austauscht. Diese Parallelentwicklungen bedeuten für die Kommunikationswissenschaft eine große Chance zur Verbesserung der eigenen Forschungsstrategien und -methoden.

Bei all dem Fokus auf technologiezentrierte Methoden sollten wir nicht aus den Augen verlieren, dass sich auch andere Domänen abseits der Wissenschaft für das Erfassen öffentlicher Online-Kommunikationsprozesse interessieren: Plattformbetreiber nutzen Ansätze, die digitalen Methoden ähneln, um ihre Pro­dukte zu verändern und etwa Effekte von Werbung zu perfektionieren. Auch in diversen praxisnäheren Feldern wie zum Beispiel dem Datenjournalismus und der Marktforschung kommen digitale Methoden zum Einsatz. Und nicht zuletzt werden diese Methoden skaliert und hinter verschlossenen Türen von Geheimdiensten zur Überwachung großer Bevölkerungsteile eingesetzt, wie wir seit den Enthüllungen durch Edward Snowden wissen. Es liegt an uns Forschenden, die Ethik­ und Privatssphäre-Standards hoch zu setzen und gegen das „anything goes“, das vielerorts praktiziert wird, Position zu beziehen. Etwa bedeutet die Öffentlichkeit von Kommunikationsinhalten nicht automatisch, dass sie akquiriert und analysiert werden dürfen.
 

4 Dieser Band: Theoretische, ethische und forschungspraktische Perspektiven auf digitale Methoden

Dieser Band versammelt 13 Aufsätze, die sich der Anwendung digitaler Methoden und den damit verknüpften Herausforderungen und Problemfeldern widmen. Es finden sich sowohl theoretische und ethische Auseinandersetzungen mit der Thematik wie auch Aufsätze, die empirische Forschungsarbeiten dokumentieren. Bei letzteren gehen die Autorinnen und Autoren ausführlicher als üblich auf ihre Methoden ein. Sie beschreiben ihre Auseinandersetzungen mit digitalen Objekten und ihre Schwierigkeiten, in diverse Blackboxes zu blicken. Selbstreflexiv erklären sie, wo sie an Grenzen stoßen und wofür sich digitale Methoden gut eignen.
 

Abschnitt 1: Theoretische und ethische Perspektiven auf digitale Methoden

Merja Mahrt diskutiert in ihrem Beitrag die Frage, in welchem Verhältnis Theorie und Empirie angesichts von „Big Data” zukünftig stehen werden. Dabei fokussiert sie sowohl die Perspektive der Skeptiker, die befürchten, dass Big-Data-Analysen zu einer Theorielosigkeit der Forschung führen könnten, als auch die der Verfechter von Big-Data-Studien. Als Synopsis erarbeitet sie Vorschläge für eine fundierte Einbindung von Theorie in die empirische Big-Data-Forschung und erläutert ihre Ausführungen an Beispielen des Agenda-Setting sowie der Sozialkapital- und Diffusionsforschung.

Mit dem Thema Big Data befasst sich auch der Beitrag von Nele Heise. Allerdings beleuchtet sie die ethischen Implikationen und geht insbesondere der Frage nach, welchen Status die Nutzenden in dieser neuen Forschungsrichtung haben. Mit Big Data werden die forschungsethischen Probleme nicht gerade kleiner.

Ethische Aspekte stehen ebenfalls bei Christian Pentzold im Fokus. Am Beispiel der teilnehmenden Beobachtung zeigt er auf, mit welchen forschungsethischen Prämissen und Problemfeldern die qualitative Forschung zu Kommunikationsprozessen auf Online-Plattformen verknüpft ist. Besonderes Augenmerk liegt dabei auf den Spannungsfeldern, die sich zwischen der (bedingten) Öffentlichkeit der Daten auf solchen Plattformen und der Zusicherung von Anonymität in der empirischen Forschung, sowie der auf manchen Plattformen zugesicherten Anonymität der Autoren und dem Einholen der informierter Zustimmung der Beforschten ergeben können.

Julian Ausserhofer befasst sich in seinem Beitrag mit dem Datenjournalismus. Er zeigt auf, dass Digital Methods in diesem zunehmend bedeutender werdenden Zweig des Journalismus fester Bestandteil der alltäglichen Arbeitsroutinen sind. Im Mittelpunkt seines Beitrags steht die Frage, ob und was von den Erfahrungswerten der Praktikerinnen und Praktikern in die kommunikationswissenschaftliche Methodenentwicklung übertragen werden kann. In elf semistrukturierten Interviews mit DatenjournalistInnen untersucht er die im Datenjournalismus eingesetzten digitalen Methoden und leitet aus ihnen Implikationen für die Weiterentwicklung des sozialwissenschaftlichen Methodenkanons ab.
 

Abschnitt 2: Strukturanalysen mittels digitaler Methoden

Hier analysieren Axel Maireder und Stefan Schlögl zunächst die Struktur der Follower-Verknüpfungen von TwitternutzerInnen. Verdichtungen innerhalb von Twitter verstehen die Autoren hier als (Teil­)öffentlichkeiten, deren Analyse Einblicke in die Partizipationsstrukturen in öffentlichen Kommunikationsprozessen ermöglicht. Anhand zweier Beispiele aus dem Feld der politischen Kommunikation legen sie die Vorgehensweise bei der Datensammlung, -aufbereitung und -analyse dar und diskutieren sie vor dem Hintergrund des methodologischen Konzepts.

Um Twitter geht es auch in der Studie von Axel Bruns und Theresa Sauter. Sie zeigen auf, wie bestehende Netzwerkanalysemethoden ergänzt werden können, um Erfassung, Analyse und Visualisierung von Retweet-Ketten zu ermöglichen. Am Beispiel eines Videos zu einer Wutrede der australischen Premierministerin Julia Gilliard zeichnen sie die Diffusion des Videos auf Twitter nach. Hierzu sammeln sie automatisiert Daten der jeweiligen Twitter-Nutzerinnen und -Nutzer, die an der Weiterleitung des Videos beteiligt waren und verdeutlichen, wie sich unter Zuhilfenahme von automatisierten Methoden auch der zeitliche Verlauf der Dissemination nachzeichnen lässt.

Jürgen Grimm und Christiane Grill stellen Aspekte einer Methode vor, die sie Twitter-Aggregatanalyse nennen. Das Ziel dieses Ansatzes ist es unter anderem, zusammenhängende Konversationen auf Twitter besser erfassen zu können. Durch den kombinierten Einsatz automatisierter und manueller Sampling-Methoden versuchen sie, zur Standardisierung in der Twitterforschung beizutragen.

Am Beispiel des deutschen Kinomarktes stellen Felix Sattelberger und Wolfgang Seufert die Frage, ob sich mittels Social-Media-Analysen die Absatzprognosen für Vertrauensgüter verbessern lassen. Zur Beantwortung erarbeiten sie ein methodisches Design, in dem sie automatisiert Screenshots von Social-Media-Kommunikation sowie klassischer Pressekritiken (=institutionalisierter Kommunikation) über demnächst anlaufende Filme erheben. Die Dynamik dieser beiden Kommunikationsformen modellieren sie mithilfe latenter Wachstumskurven. Die so gewonnenen Daten integrieren sie in einem nächsten Schritt in ein Pfadmodell zur Beurteilung der Wechselwirkungen beider Kommunikationsprozesse. Ihre Ergebnisse zeigen unter anderem, dass zwischen der Social-Media-Kommunikation und der institutionalisierten Kommunikation vielfältige Wechselbeziehungen bestehen.
 

Abschnitt 3: Digitale Experimente

Christin Hildebrandt, Christina Schumann und Jens Wolling gehen der Frage nach, wie sich mithilfe sozialwissenschaftlicher Methoden Erkenntnisse über die Funktionsweise von Suchmaschinenalgorithmen generieren lassen. Am Beispiel der Social Signals – das sind Links, die durch Empfehlungen in sozialen Netzwerken entstehen – entwerfen sie ein digitalisiertes Experiment, mit dem sie untersuchen, ob und wie diese Social Signals von der Suchmaschine Google als Rankingkriterium verwendet werden. Ihre Studie zeigt, dass sich mit digitalisierten, sozialwissenschaftlichen Methoden durchaus Erkenntnisse über die Funktionsweise von Algorithmen gewinnen lassen.

Im Beitrag von Pascal Jürgens, Birgit Stark und Melanie Magin stehen Personalisierungsalgorithmen im Mittelpunkt. In einem ersten Schritt demonstrieren sie, wieso Personalisierungsstrategien von Online-Anbietern für die kommunikationswissenschaftliche Forschung ein Problem darstellen. Danach stellen sie die Vorgehensweise eines automatisierten Online-Experiments am Beispiel der Google-Suche vor, das Erkenntnisse über Funktionsweise und Inhalte personalisierter Angebote liefert.
 

Abschnitt 4: Probleme und Herausforderungen digitaler Text- und Inhaltsanalysen

Martin Emmer und Christian Strippel befassen sich mit der Stichprobenziehung für Online-Inhaltsanalysen. Sie zeigen, dass hier in der kommunikationswissenschaftlichen Forschungspraxis häufig Suchmaschinen zum Einsatz kommen. Sowohl anhand einer theoretischen Argumentation als auch auf Basis einer empirisch-koordinierten Google-Suche von 16 Accounts verdeutlichen sie, welche Probleme bezüglich der Konstruktion von Öffentlichkeit sowie der Personalisierungsstrategien der Suchmaschinenbetreiber mit der bisherig gängigen Vorgehensweise verknüpft sind und zeigen Lösungsansätze für diese Probleme auf.

Katrin Jungnickel und Axel Maireder widmen sich in ihrer Studie der nutzerseitigen Analyse der Facebook-Timeline. Dem bereits thematisierten Problem der Nicht-Zugänglichkeit dieser Inhalte begegnen sie in einem Methodendesign, das Befragung und Inhaltsanalyse kombiniert: Insgesamt 557 Facebook-Nutzer haben ihnen dazu bis zu fünf externe Links aus ihrer Facebook-Timeline, die sie zuletzt erhalten hatten, in einen Fragebogen kopiert und weitere Fragen, zum Beispiel zur Beziehungsqualität zum jeweiligen Sender beantwortet. Die Links wurden dann inhaltsanalytisch analysiert. Neben der Ergebnisdarstellung fokussiert das Autorenteam auf die methodischen Besonderheiten der Studie, zum Beispiel zur Schwierigkeit der inhaltsanalytischen Link-Klassifikation.

Um Audio-Mining-Technologies geht es im Beitrag von Michael Eble und Daniel Stein. Angesichts der kontinuierlich steigenden Verbreitung und Bedeutung audio­visueller Online-Inhalte zum Beispiel in publizistischen Medien wie auch auf Social-Media-Plattformen verdeutlichen die Autoren, dass die manuelle Datensammlung und Aufbereitung zunehmend an Grenzen stößt. Sie erläutern daher, wie dieser Arbeitsschritt anhand automatisierter Verfahren der Sprachanalyse (Audio-Mining) unterstützt und vereinfacht werden kann.
 

Abschließende Hinweise und Danksagung

Die Beiträge, die dieser Band versammelt, wurden auf der Jahrestagung der Fachgruppe Computervermittelte Kommunikation der Deutschen Gesellschaft für Publizistik­ und Kommunikationswissenschaft (DGPuK) präsentiert. Sie fand vom 7. bis 9. November 2013 an der Universität Wien zum Thema „Digital Methods“ statt. Die ursprünglichen Abstracts sind unter http://www.univie.ac.at/digitalmethods/ abrufbar. Die Einhaltung geschlechtergerechter Formulierungsstandards wurde den Autorinnen und Autoren selbst überlassen. Kathrin Braun war für den organisatorischen Support dieses Sammelbands verantwortlich. Mark Dang-Anh übernahm die Begutachtung eines Beitrags. Joseph Robinson lektorierte die englischen Übersetzungen der Zusammenfassungen. Vielen Dank an alle Beitragenden!

 

Quellenverzeichnis

boyd, d., & Crawford, K. (2012). Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon. Information, Communication & Society, 15(5), 662-679. doi: 10.1080/1369118X.2012.678878

Burrows, R., & Savage, M. (2014). After the Crisis? Big Data and the Methodological Challenges of Empirical Sociology. Big Data & Society, 1(1), 2053951714540280. doi: 10.1177/2053951714540280

Hine, C. (2005). Virtual Methods. Oxford: Berg.

Rogers, R. (2013). Digital Methods. Cambridge: MIT Press.

 


Dr. Christina Schumann ist wissenschaftliche Mitarbeiterin am Fachgebiet „Empirische Medienforschung und Politische Kommunikation“ der Technischen Universität Ilmenau

Mag. (FH) Julian Ausserhofer ist wissenschaftlicher Mitarbeiter am Institut für Journalismus und Public Relations der FH Joanneum Graz und Doktorand am Institut für Publizistik­ und Kommunikationswissenschaft der Universität Wien

Dr. Axel Maireder ist wissenschaftlicher Leiter des Social Media Intelligence Center der GfK und war bis Ende 2014 Mitarbeiter am Institut für Publizistik­ und Kommunikationswissenschaft der Universität Wien

Prof. Dr. Monika Taddicken ist Professorin für Kommunikations­ und Medienwissenschaften an der Technischen Universität Braunschweig


Schumann, C., Ausserhofer, J., Maireder, A., & Taddicken, M. (2015). Digitale Methoden in der Kommunikationswissenschaft: Ansätze zur Analyse öffentlicher Kommunikation im Internet. In A. Maireder, J. Ausserhofer, C. Schumann, & M. Taddicken (Hrsg.), Digitale Methoden in der Kommunikationswissenschaft (S. 9­19). doi: 10.17174/dcr.v2.1


Diese Publikation erscheint Open Access und ist lizensiert unter Creative Commons Attribution 4.0 (CC-BY 4.0).
Die persistente Langzeitarchivierung erfolgt mit Hilfe des Social Science Open Access Repository sowie der Registrierungsagentur für Sozial- und Wirtschaftsdaten da|ra.