Tagungsbericht: Jahrestagung der Sektion Methoden der Politikwissenschaft der DVPW „Big Data? New Data!“ 23.-24. Mai 2014 in Duisburg

Merve VardarDie Sektion „Methoden der Politikwissenschaft“ der Deutschen Vereinigung für Politikwissenschaft (DVPW) tagte am 23.05.2014 und 24.05.2014 in Duisburg zum Thema „Big Data? New Data!“. Insgesamt umfasste die Tagung sieben Panels mit 18 Vorträgen. Die Arbeit der Sektion stützt sich auf drei Pfeiler.

Einerseits konzentriert sie sich auf die kontinuierliche Verbesserung politikwissenschaftlicher Forschung, andererseits geht es um die Zusammenarbeit hinsichtlich qualitativer und quantitativer Methoden sowie der konzeptuellen Beschaffenheit der Methodenlehre.

Tagungsbericht: „Big Data? New Data!“

Jahrestagung der Sektion Methoden der Politikwissenschaft der DVPW „Big Data? New Data!“ 23.-24. Mai 2014 in Duisburg

Von Merve Vardar

Merve Vardar ist Promotionsstipendiatin der Stiftung Mercator und Promotionsstudentin an der NRW School of Governance, Universität Duisburg-Essen, zum Thema „Politische Kultur des Ruhrgebiets“.

Die Sektion „Methoden der Politikwissenschaft“ der Deutschen Vereinigung für Politikwissenschaft (DVPW) tagte am 23.05.2014 und 24.05.2014 in Duisburg zum Thema „Big Data? New Data!“. Insgesamt umfasste die Tagung sieben Panels mit 18 Vorträgen. Die Arbeit der Sektion stützt sich auf drei Pfeiler. Einerseits konzentriert sie sich auf die kontinuierliche Verbesserung politikwissenschaftlicher Forschung, andererseits geht es um die Zusammenarbeit hinsichtlich qualitativer und quantitativer Methoden sowie der konzeptuellen Beschaffenheit der Methodenlehre. Diese Stränge ziehen sich in der zum zweiten Mal stattfindenden Jahrestagung, die sowohl durch die NRW School of Governance als auch dem Profilschwerpunkt „Wandel der Gegenwartsgesellschaft“ unterstützt wurde, so der Organisator der Tagung Andreas Blätte (Universität Duisburg), durch.

Paradaten und Netzwerkanalysen als ‚Big Data‘?

Die Moderation für das erste Panel „Jenseits der großen Daten“ übernahm Kai-Uwe Schnapp (Universität Hamburg), in dem die Vorträge von Sabine Sattelberger (Universität Mainz), Simon Franzmann (Universität Düsseldorf) sowie Thomas Metz und Sebastian Jäckle (beide Universität Freiburg) eingereiht wurden. Frau Sattelberger untersucht unter dem Titel „Wie reagieren Befragte auf eine informierte Einwilligung zur Auswertung von Paradaten? Ergebnisse aus dem kombinierten Einsatz von qualitativer und quantitativer Testmethodik“ die Auswirkungen verschiedenster Timings des Hinweises von Paradatenerhebung wie Antwortzeit, -dauer und -reihenfolge. Dabei machen die ethischen Bedenken einen wesentlichen Teil ihres Vortrages aus. Generell will sie mit ihrer Arbeit einen Beitrag dazu leisten, wie es möglich wird, die informierte Einwilligung von Befragten so zu gestalten, dass wenige bis keine Einflüsse bezüglich der Antwortverzerrung vorhanden sind. Thomas Metz und Sebastian Jäckle befassten sich dagegen mit der Beschaffenheit von Netzwerken bei der Opposition. Dies ergibt sich daraus, dass kleine Anfragen meist ein beliebtes Instrument dieser sind. Mittels der Dokumente aus der Legislaturperiode 2009-2013 ist es somit möglich zu untersuchen, welche Abgeordnete wesentliche Antragsschreiber sind und durch wen sie in der Regel Unterstützung finden. Abgeordnete bilden dabei die Knoten, wobei sich Kanten aus der Unterstützung bei Anfragen ergeben. Der Grad eines Knotens ist die Anzahl seiner Unterstützungen (Kanten). Bezüglich des Grades wurden sowohl die In-Degree (Kanten, die zu einem Knoten führen) als auch Out-Degree (Kanten, die von einem Knoten wegführen) berücksichtigt. Simon Franzmann erörterte in seinem Beitrag „Messäquivalenz von Links-Rechts-Indizes auf der Basis von Manifesto-Daten“ Schwierigkeiten der Nutzung der inhaltsanalytischen Wahlprogrammdaten für die Links-Rechts-Dimensionierung in der internationalen Forschung. Denn der Datensatz des Comparative Manifestos Project – der als einziger Zeitreihen an Wahlprogrammdaten zur Verfügung stellt – bringt eine mitgelieferte starre Skala mit, die weder zeitliche noch länderübergreifende Unterschiede berücksichtige.

Analyse von großen Textmengen

Das zweite Panel „Pressetexte als Big Data“ wurde von Andreas Blätte (Universität Duisburg-Essen) moderiert, unter dem sich die Vorträge von Florian Bader (Zeppelin Universität) sowie Sebastian Dumm (Helmut-Schmidt-Universität), Andreas Niekler (Universität Leipzig) und Gary S. Schaal (Helmut-Schmidt-Universität) subsumierten. Florian Bader beschäftigt sich mit der „Bewertung von Politikern in Onlinemedien“ und vergleicht dafür Artikel und Kommentare auf Spiegel Online für „Peer Steinbrück“ bzw. „Angela Merkel“ im Zeitraum vom 01.01.2012 bis zum 31.12.2013. Dafür wurde mit einem Scraper (Programm zur Extraktion von Daten aus Webseiten) das Datensample zusammengetragen. Mittels der Sentimentanalyse werden die Kontexte der Dokumente betrachtet, um automatisch positive oder negative Haltungen bestimmen zu können. Zur Validierung werden die Daten mit den Bewertungen der Kandidaten in Bevölkerungsumfragen herangezogen. Es zeigt sich, dass die Ergebnisse für Steinbrück relativ passgenau sind, während bei Merkel ein „Kanzlerin-Bias“ vorzufinden sei. Sebastian Dumm stellte das vom BMBF finanzierte interdisziplinäre Forschungsprojekt „ePol – Postdemokratie und Neoliberalismus“ vor, in dem es – angestoßen durch den attestierten Wandel demokratischer Strukturen in westlich modernen Demokratien – darum geht, den Wandel von Argumentationsmustern zur Legitimierung von Politik zu untersuchen. Der Zeitraum der Analyse umfasst 55 Jahre (1949-2011), welcher mit unterschiedlichen Verfahren des Text-Minings wie Machine Learning, Topic-Modellen sowie Konkurrenz- und Frequenzanalysen untersucht wird. Für die 3,5 Millionen Artikel werden qualitative und quantitative Inhaltsanalysen herangezogen, wobei an erster Stelle eine Identifikation der relevanten Dokumente stattfindet. Bei diesen findet dann eine manuelle Annotation von Argumenten statt, die dann abschließend eine automatische Argumentidentifikation ermöglicht. Ein wesentlicher Aspekt, dem sich noch gestellt werden müsse, sei das Endogenitätsproblem, also die Bestimmung von Ursache-Wirkungs-Ketten.

Das Pool der sozialen Netzwerke

Die Moderation des Panels „Social Media“ wurde von Claudius Wagemann (Goethe-Universität Frankfurt) übernommen. Wesentliche Inhalte waren die Nutzbarmachung von sozialen Netzwerken bei der Analyse politischer Phänomene. Der erste Vortrag „Zur Nutzbarkeit von Social Media Daten für die Wahlforschung: Konzeptionelle, methodische und interdisziplinäre Herausforderungen“ von Tobias Gummer, Lars Kaczmirek und Manuela S. Blumenberg (alle GESIS Mannheim) zeigte auf, welche Schwierigkeiten bei der Nutzung von Social-Media-Daten bestehen. Auch in der anschließenden Diskussion wurde darauf verwiesen, dass die Archive größtenteils in privaten Händen sind und somit eine steigende Abhängigkeit der Scientific Community befürchtet werden könne. Auch bleibt die Umsetzbarkeit problematisch, dass erhobene Daten zur Beantwortung verschiedener Fragestellungen eingesetzt werden können, da durch die Suchkriterien eine enorme Selektion vorhanden sei, die zudem aufgrund der fehlenden Standards keine Qualitätssicherungsmerkmale ermöglichen. Das Paper „Capturing real-time political evaluations using Twitter“ von Dominic Nyhuis und Thorsten Faas (beide Universität Mainz) zeigt ein praktisches Beispiel der Nutzbarmachung von Twitter für die politikwissenschaftliche Forschung. Durch semi-automatisierte Codings wurden Hashtags pro Minute während des TV-Duells der Bundestagswahl 2013 zwischen Angela Merkel und Peer Steinbrück erfasst und mittels einer Sentiment-Analyse untersucht. Des Weiteren wurden sogenannte ‚real-time response measures‘ (RTR, auch Echtzeit-Reaktionsmaßnahmen) herangezogen, um mit dem Vergleich der Daten die Qualität im Sinne der Wissenschaftlichkeit bestimmen zu können. Sowohl die Validität und Reliabilität der Daten sei vorhanden, die Repräsentativität sei allerdings mit 1000 Twitternutzern beim TV Duell nicht gegeben.

Selbsthilfegruppe der Methodenlehrenden

Ziel des Panels „Beiträge der Methodenlehre“ war es, Schwierigkeiten und Möglichkeiten in der Methoden- und Statistiklehre auszutauschen. In der Selbstbeschreibung wurde dieses Panel daher auch als die Selbsthilfegruppe der Methodenlehrenden bezeichnet. In diesem Rahmen wurden unter der Moderation von Andreas Blätte (Universität Duisburg-Essen) vier Vorträge referiert. Der Beitrag von Simon Munzert (Universität Konstanz) mit dem Titel „Automatisierte Datenerhebung Im World Wide Web: Erfahrungen aus der Lehre und ein Vorschlag zur Erweiterung der künftigen Methodenausbildung“ plädiert für den frühestmöglichen Erwerb von Programmierkenntnissen bei Studierenden. Das World Wide Web ermögliche das Hinzuziehen unterschiedlichster Datentypen als Quellengrundlage, deren Aneignung jedoch besondere Kompetenzen erfordere. „Studienbegleitende Onlineprüfung“ stellt ein Poster von Kai-Uwe Schnapp (Universität Hamburg) dar, welches das Ziel verfolgt, eine kontinuierliche Beschäftigung mit den Lehrinhalten bei den Studierenden zu ermöglichen.

Denkbar wäre die Etablierung von gemeinsamen Fragetools, in denen die Antwortkategorien nicht mit reinem Zufall beantwortet werden können und unterschiedliche Testformen wie etwa Fehlertexte, Rankings, Freitexte, Zuordnungsaufgaben und Lückentexte sowie Multiple-Choice-Fragen Verwendung finden. Ein wesentliches Problem besteht in der prüfungsrechtlichen Verankerung der Onlinetests, was dazu führe, dass die Onlineprüfung lediglich als eine begleitende Leistung der Studierenden möglich wäre. Sean Careys (Universität Mannheim) Vortrag „Keeping it real – engaging politics students with real-world data“, könnte auf die kurze Formel „data needn’t be good“ gebracht werden. Worauf es wirklich ankäme, sei die Nutzung von tatsächlichen Daten und deren Variation. Vorschläge, die er mitteilte, waren neben den klassischen politikwissenschaftlichen Phänomenen beispielsweise das Hinzuziehen von Popkultur sowie von Events wie dem Eurovision Song Contest. Achim Goerres (Universität Duisburg-Essen) präsentierte Erfahrungen mit der Lehrmethode ‚Flipped Classroom‘ unter dem Titel „Flipped Classroom: wenn die Studierenden zu Lehrenden werden“. Dabei werden die Inhalte der Vorlesung durch Online-Videos ausgelagert und ermöglichen ein gemeinsames Lösen von Arbeitsblättern in der Vorlesung, die dann am Ende der Sitzung präsentiert werden. Der Vorteil dessen sei vielschichtig, da die Methodenlehre für die Studierenden meist einen abstrakten Gegenstand darstelle und sie daher passive Zuhörer seien. Das aktivierte Lernen fördere ein Empowerment bei den Studierenden, wobei es bisher positive Resonanzen gegeben habe. Ein Nachteil dieser Lehrmethode ist allerdings die doppelte Vorbereitung und die Notwendigkeit der Einbeziehung von mehreren Lehrpersonen bei Gruppengrößen über 50 Personen.

Möglichkeiten im Datenerhebungsprozess

Das letzte Panel der Tagung wurde mit „Data Collection 2.0“ betitelt. Unter der Leitung von Achim Goerres (Universität Duisburg-Essen) gab es einen Beitrag von Christian Rubba (Universität Zürich) und Holger Döring (Universität Bremen) mit Sven Regel (WZB Berlin) sowie einen weiteren Vortrag von Holger Döring. Christian Rubba präsentierte in seinem Vortrag „RWebdriver – Ein Scraping-Framework für sozialwissenschaftliche Datenprojekte“ ein von ihm entwickeltes R-Paket, welches den Datensammlungsprozess sowohl vereinfachen, transparenter und reproduzierbarer gestalten als auch Fehleranfälligkeit beseitigen soll. Der Vortrag umfasste die Einführung in das Web-Scraping mit Selenium aus R und eine Case Study, anhand dieser der Funktionsumfang dargestellt wurde. Die anderen beiden Beiträge präsentierten eine neue internetbasierte Dateninfrastruktur. In dem Paper „‚Data collection 2.0: Ein moderner Parteien Almanach“ von Döring und Regel wurde das Ziel dargestellt, auf der Grundlage etablierter Datensätze und durch Nutzerbeteiligung einen Katalog über politische Parteien zu erstellen. Nutzer können dabei sowohl unterschiedliche Parteien, Länder und Zeiträume wählen. Zudem bestünde ein wesentlicher Vorteil darin, dass die Informationen wenig „spamlastig“ seien. „ParlGov. Eine Dateninfrastruktur über Parteien, Wahlen und Regierungen“ lautete das zweite Paper von Holger Döring, in dem er seine Erfahrungen mit dem ParlGov Projekt (ebenfalls eine internetbasierte Dateninfrastruktur) darstellt. Er zeigt auf, welche Kenntnisse und Fähigkeiten erworben werden müssen, um solche Projekte eigenständig zu entwickeln.

Big Data mal anders

Am zweiten Tag fanden weitere zwei Panels statt. In dem ersten Panel „Big Data jenseits des Mainstreams“ wurden die Vorträge von Melanie Möbius und Christian Hoops (Trendtest / Ipsos Public Affairs) sowie Patrick M. Kuhn (Princeton University) und Nils B. Weidmann (Universität Konstanz) eingereiht. Das Paper „Big Data in der Datenerhebung. Mit Bayes-Schätzern und Wettervorhersagen zu höheren Ausschöpfungen“ stellte eine Möglichkeit dar, Interviewerleistungen zu evaluieren. Dabei geht es um das Erreichen der Ausschöpfungsquote, da diese wichtig für die Repräsentativität von Daten ist. Als wesentliche Teilaspekte, die bei einem Interview von Bedeutung sind, werden Erreichbarkeit und Teilnahmebereitschaft genannt. Im Bereich der Teilnahmebereitschaft würden die Qualifikationen eines Interviewers deutlich. Durch die Klassifizierung des Mitarbeiters wäre es möglich, seine Entwicklung zu betrachten. Dabei könne frühzeitig bei abschwächender Leistung beispielsweise ein Gespräch gesucht oder Schulungen empfohlen werden. In die Thematik Big Data passt der Vortrag insoweit, dass 30 Millionen Kontaktprotokolle (2009-2013) evaluiert werden. Nils B. Weidemann stellte das zweite Paper „Unequal we Fight: Between- and Within-Group Inequality and Ethnic Civil War“, in dem er zeigte, wie geographische Daten für die Politikwissenschaft fruchtbar gemacht werden können. Die zentrale Frage dabei ist, warum und wann gewisse ethnische Gruppen rebellieren oder eben nicht. Aus theoretischer Perspektive werden daher die Überlegungen zur Ungleichheit herangezogen. Zur Erfassung werden meist Umfragedaten verwendet, deren Aggregation allerdings auf der Gruppenebene (in diesem Fall) schwierig ist, da die Motive der Mitglieder sehr divergent sind. Als Problemlösung wird das Konzept mittels räumlicher Schätzansätze auf die Makroebene übertragen. Um diese Frage beantworten zu können, werden hochauflösende Satellitenbilder von Lichtemissionen, räumlichen Bevölkerungsdaten und geokodierten ethnischen Siedlungsgebieten herangezogen.

Und wie sieht es aus?

Abgerundet wurde die Tagung mit dem Panel „Datenerhebung und Visual Analysis“, in dem die Vorträge von Andreas Blätte (Universität Duisburg-Essen) und Valentin Gold (Universität Konstanz) ihren Platz fanden. Andreas Blätte referierte zum Thema „Das parlamentarische Diskursverhalten von Abgeordneten und die Kohäsion der Bundestagsfraktionen 1996‐2013: Plenarprotokollkorpora als Grundlage von Wordscore und Wordfish“ die zentrale Frage, die ihn dabei beschäftigt ist, wie kohäsiv Bundestagsfraktionen sind, welche Veränderungen zwischen Wahlperioden und im Electoral Cycle feststellbar sind. Zur Beantwortung dieser Fragen bedient er sich des PolMine-Plenarprotokollkorpus. Dieser umfasst 80 Millionen Worte in dem Zeitraum von 1996-2013. Sowohl Wordscore als auch Wordfish sind Programme, die es erlauben, eine große Menge an Text auszuwerten. Wordscore ist im Vergleich zu Wordfish klarer strukturiert und flexibler. Der Nachteil von Wordscore ist jedoch die Notwendigkeit eines Referenztextes, welches bei Wordfish nicht mehr notwendig ist. Wordfish ist allerdings aufgrund seines iterativen Verfahrens ein sehr rechen- und damit zeitintensives Programm. Blätte stellte daher zu Analyse des Korpus das von ihm geschriebene R-Paket ‚driller‘ vor, welches durch die Verwendung einer Term-Dokument-Matrix den Korpusstrukturen ähnlich sei. Valentin Gold stellte in seinem Vortrag „Visual Analytics of Political Texts and Discourses through Lexical Episodes Plots“ eine Möglichkeit vor, um die theoretischen Überlegungen von Habermas empirisch zu überprüfen. In dem Paper ging es darum, einen neuen visuell-analytischen Ansatz zu verfolgen, welcher für die Analyse großer Mehrparteiengespräche herangezogen werden kann. Das Ziel ist dabei, Argumente und Argumenttypen zu extrahieren. Dafür wurden drei unterschiedliche Möglichkeiten festgelegt: kausale Argumente (wenn-dann oder je-desto), unabänderbare Fakten (Fakt ist, dass …) und gemeinsames Wissen (wie bekannt …). Durch das Betrachten von Argumenten ist es demnach möglich, diskursive Verfahren sowie die Struktur des Diskurses zu überprüfen und zu untersuchen.

Zuwachs durch qualitative Sozialforscher

Wird die Tagung rückblickend betrachtet, so kann festgehalten werden, dass eine klare Definition für Big Data erforderlich ist. Diesem wird sich in einem geplanten Sammelband von Wagemann, Behnke und Schnapp, der im VS Verlag auf deutscher Sprache erscheinen soll, gewidmet. Die Beiträge zeichneten sich durch die klare Thematisierung von methodischen Problemen, einer großen Bandbreite an Methoden und dem damit verbundenen Informationsgehalt aus. Die Tagung zeigte, dass vermehrt qualitative und qualitative Sozialforscher zueinander respektive zur Methodentagung finden. Diese Kooperation soll weiter verfolgt werden, um die Methodenvielfalt der Sektion aufrechterhalten zu können.

Zitationshinweis

Vardar, Merve (2014): Tagungsbericht: Jahrestagung der Sektion Methoden der Politikwissenschaft der DVPW „Big Data? New Data!“ 23.-24. Mai 2014 in Duisburg. Erschienen in: regierungsforschung.de. Online verfügbar unter: https://regierungsforschung.de/tagungsbericht-jahrestagung-der-sektion-methoden-der-politikwissenschaft-der-dvpw-big-data-new-data-23-24-mai-2014-in-duisburg/

Teile diesen Inhalt:

Artikel kommentieren

* Pflichtfeld