Logo weiterlesen.de
Qualitative Medienforschung

utb 8314utb.

 

Eine Arbeitsgemeinschaft der Verlage

Böhlau Verlag · Wien · Köln · Weimar

Verlag Barbara Budrich · Opladen · Toronto

facultas · Wien

Wilhelm Fink · Paderborn

A. Francke Verlag · Tübingen

Haupt Verlag · Bern

Verlag Julius Klinkhardt · Bad Heilbrunn

Mohr Siebeck · Tübingen

Ernst Reinhardt Verlag · München · Basel

Ferdinand Schöningh · Paderborn

Eugen Ulmer Verlag · Stuttgart

UVK Verlagsgesellschaft · Konstanz, mit UVK / Lucius · München

Vandenhoeck & Ruprecht · Göttingen · Bristol

Waxmann · Münster · New York

Die Herausgeber:

image

Prof. Dr. Lothar Mikos lehrt im Studiengang Medienwissenschaft der Filmuniversität Babelsberg Konrad Wolf. Er hatte Gastprofessuren in Aarhus, Barcelona, Glasgow, Göteborg, Klagenfurt, London und Tarragona. Er ist Vorsitzender des Kuratoriums der Deutschen Kindermedienstiftung Goldener Spatz. Er gründete die Television Studies Section der European Communication Research and Education Association (ECREA). Seine Arbeitsschwerpunkte: Fernsehen und Digitalisierung, Transnationale Medienkultur, Rezeptionstheorie und -forschung, Populärkultur, qualitative Methoden der Medienforschung, Film- und Fernsehanalyse, Film- und Fernsehtheorie, vergleichende Geschichte von Film und Fernsehen.

image

Seit 2007 lehrt Prof. Dr. Claudia Wegener in den Studiengängen Digitale Medienkultur und Medienwissenschaft an der Filmuniversität Babelsberg Konrad Wolf. Sie ist zweite Vorsitzende im Kuratorium des »Kinder- und Jugendfilmzentrums in Deutschland« (seit 2004) und Mitglied im Aufsichtsrat der Medienboard Berlin-Brandenburg GmbH (seit 2010). Ihre Arbeitsschwerpunkte: digitale Medienkultur, Mediensozialisation, Kinder- und Jugendmedienkultur, Kommunikationstheorie, qualitative Medienforschung.

Lothar Mikos
Claudia Wegener (Hg.)

Qualitative
Medienforschung

Ein Handbuch

2., völlig überarbeitete und erweiterte Auflage

UVK Verlagsgesellschaft mbH · Konstanz
mit UVK Lucius · München

Inhalt

Einleitung

1   Grundlagen qualitativer Medienforschung

Wissenschaftstheorie und das Verhältnis von qualitativer und quantitativer Forschung
UWE FLICK

Gütekriterien qualitativer Sozialforschung
JO REICHERTZ

Kohärenz und Validität
UWE FLICK

Forschungsethik und Datenschutz
MATTHIAS RATH

Medien
RALF VOLLBRECHT

2.1   Theoretischer Hintergrund qualitativer Medienforschung

Wissenssoziologische Verfahren der Bildinterpretation
JO REICHERTZ

Kommunikative Gattungen
ANGELA KEPPLER

Cultural Studies
RAINER WINTER

Handlungstheorien
FRIEDRICH KROTZ

Habitus und Lebensstil
MICHAEL MEYEN

Medienhandeln und Medienerleben: Agency und »Doing Media« 112
SUSANNE EICHNER

Strukturanalytische Rezeptionsforschung
KLAUS NEUMANN-BRAUN / ANJA PELTZER

Diskursanalyse
RAINER DIAZ-BONE

2.2   Medienforschung – Alltagsforschung

Alltagshandeln mit Medien
LOTHAR MIKOS

Der Domestizierungsansatz
JUTTA RÖSER / KATHRIN FRIEDERIKE MÜLLER

Kommunikative Figurationen
UWE HASEBRINK / ANDREAS HEPP

Medienökologie
SONJA GANGUIN / UWE SANDER

Der medienbiographische Ansatz
EKKEHARD SANDER / ANDREAS LANGE

Mediensozialisation in semiotischen Kontexten unserer disparaten Kultur
BEN BACHMAIR

Konvergierende Medienumgebungen
CORINNA PEIL / LOTHAR MIKOS

3   Forschungsdesign

Wie lege ich eine Studie an?
CLAUDIA WEGENER / LOTHAR MIKOS

Das Babelsberger Modell
LOTHAR MIKOS / ELIZABETH PROMMER

Medienproduktion (Production Studies)
HANS-DIETER KÜBLER

Rezeptionsforschung
ELIZABETH PROMMER

Inhaltsanalyse
CLAUDIA WEGENER

Triangulation
KLAUS PETER TREUMANN

Forschung mit Kindern und Jugendlichen
INGRID PAUS-HASEBRINK

Kulturvergleichende Studien
MIRIAM STEHLING

Einzelfallanalyse
NINA BAUR / SIEGFRIED LAMNEK

4   Erhebungsmethoden

Qualitatives Interview
SUSANNE KEUNEKE

Experteninterview
DAGMAR HOFFMANN

Das narrative Interview in der Biographieforschung
FRIEDERIKE TILEMANN

Qualitative Onlinebefragungen
ULF-DANIEL EHLERS

Die mobile Onlinebefragung
ANDREAS FAHR / VERONIKA KARNOWSKI

Gruppendiskussion
BURKHARD SCHAFFER

Teilnehmende Beobachtung
LOTHAR MIKOS

Medientagebücher
YULIA YURTAEVA

Kinderzeichnungen als Erhebungsmethode
NORBERT NEUSS

Szenisches Spiel
FRIEDERIKE TILEMANN

Experiment
VOLKER GEHRAU / HELENA BILANDZIC

Lautes Denken
HELENA BILANDZIC

5   Aufzeichnung qualitativer Daten

Protokollierung
ELIZABETH PROMMER

Transkribieren
RUTH AYASS

Sequenzprotokoll
HELMUT KORTE

Datenbeschreibung
MAREIKE HUGGER / CLAUDIA WEGENER

Codierung
ELIZABETH PROMMER / CHRISTINE LINKE

6   Auswertung

Konversationsanalyse
RUTH AYASS

Dokumentarische Methode
RALF BOHNSACK / ALEXANDER GEIMER

Diskursanalyse und Filmanalyse
THOMAS WIEDEMANN

Onlinediskurs-Analyse
STEFAN MEIER

Qualitative Inhaltsanalyse
PHILIPP MAYRING / ALFRED HURST

Computerunterstützte Inhaltsanalyse
UDO KUCKARTZ

Film- und Fernsehanalyse
LOTHAR MIKOS

Videospielanalyse
SUSANNE EICHNER

Analyse von Filmmusik und Musikvideos
CLAUDIA BULLERJAHN

Videographie und Videoanalysen
ANJA SCHÜNZEL / HUBERT KNOBLAUCH

Webformat-Analyse
MARTINA SCHUEGRAF / ANNA JANSSEN

Netzwerkanalyse und Onlineforschung
CHRISTIAN NUERNBERGK

Typenbildung
FLORIAN REITH / UDO KELLE

Objektive Hermeneutik
JÖRG HAGEDORN

Interpretative Ethnographie
RAINER WINTER

Grounded Theory
CLAUDIA LAMPERT

Heuristische Sozialforschung
ISABEL SCHLOTE / CHRISTINE LINKE

Anhang

Autorinnen und Autoren

Allgemeine Bibliographie

Index

Einleitung

LOTHAR MIKOS/CLAUDIA WEGENER

Qualitative Medienforschung versteht sich als qualitative Sozialforschung, die sich über ihren Gegenstand, die Medien, definiert. Allerdings geht es nicht ausschließlich um die Medien, sondern um ihre Nutzung und Aneignung in der Lebenswelt und um die Rolle, die sie im Alltag der Menschen spielen. Denn: »Nicht das Medium ist die Message, sondern seine Rolle in der sozialen Anwendung« (Hienzsch/Prommer 2004, S. 148). Medien leisten einen wesentlichen Beitrag »zur gesellschaftlichen Konstruktion von Wirklichkeit« (Peltzer/Keppler 2015, S. 14). Sie sind Teil der sozialen und kulturellen Praxis der Menschen. Qualitative Medienforschung folgt damit dem Anspruch, den Flick, von Kardorff und Steinke (2015, S. 14) generell für qualitative Forschung markiert haben: »Qualitative Forschung hat den Anspruch, Lebenswelten ›von innen heraus‹ aus der Sicht der handelnden Menschen zu beschreiben. Damit will sie zu einem besseren Verständnis sozialer Wirklichkeit(en) beitragen und auf Abläufe, Deutungsmuster und Strukturmerkmale aufmerksam machen.« Die Offenheit für die Erfahrungen der Menschen ist ein wesentliches Merkmal dieser Forschung. Das unterscheidet sie von der quantitativen Forschung, die auf generalisierbare Merkmale Wert legt und nicht in die Tiefenstruktur sozialer Wirklichkeit eindringt.

Qualitative und quantitative Medienforschung werden von uns jedoch nicht als Gegensätze begriffen, die sich ausschließen. Beide Verfahrensweisen haben ihre erkenntnistheoretischen und empirischen Möglichkeiten und Grenzen. Daher ergänzen sie sich (→ Flick, S. 18 ff.). Während die quantitative Forschung in der Lage ist, statistisch verwertbare Daten zu liefern, z. B. über den Medienkonsum in Form des Marktanteils von Fernsehen, Zeitungen oder Zeitschriften, kann die qualitative Forschung Auskunft über tieferliegende Motive und Strukturen der Mediennutzung liefern, da sie mit ihren Verfahren den Alltag und die Lebenswelt der Mediennutzer »von innen heraus« zu verstehen sucht. Sie hat ihren eigenen Stellenwert. Qualitative Forschung passt die Methoden ihren Fragestellungen und zu untersuchenden Gegenständen an. Bei ihr stehen nicht große Zahlen und Datenmengen im Mittelpunkt, sondern sie sieht ihre Aufgabe darin, kleinere Fallzahlen intensiv auszuwerten (→ Baur/Lamnek, S. 290 ff.). Die Reflexivität bezüglich der Methoden, der Subjektivität des Forschers, des Forschungsprozesses und der Darstellung der Ergebnisse zeichnet sie aus. Charakteristisch für die qualitative Medienforschung ist nicht nur ein häufig theoretisch interdisziplinärer Ansatz, sondern ebenso methodische Integration. Die Begrenztheit bzw. Reichweite ihres methodischen Ansatzes ist qualitativen Forschern bewusst, eine Kombination von quantitativen und qualitativen Verfahren schließen sie in ihren Untersuchungen von komplexen Kommunikations- und Medienphänomenen nur selten aus.

Die qualitative Medienforschung hat seit den 1980er Jahren immer mehr an Bedeutung gewonnen. Zwar werden qualitative Methoden der Datenerhebung und Datenauswertung in zahlreichen Studien, die sich mit der Nutzung und Aneignung von Medien befassen, eingesetzt, doch können sie weder in der traditionellen Publizistik- und Kommunikationswissenschaft noch in der sich weitgehend analytisch und theoretisch definierenden Medienwissenschaft als etabliert gelten. Ihr umfassender Einsatz findet eher in Disziplinen wie Erziehungswissenschaft, Psychologie, Sprachwissenschaft und Soziologie statt, die auf eine längere Tradition qualitativer Forschung zurückblicken können. Erst in der zweiten Dekade des 21. Jahrhunderts haben sich einige Vertreter der Kommunikationswissenschaft mit qualitativen Methoden auseinandergesetzt (vgl. Averbeck-Lietz/Meyen 2016; Meyen/ Löblich/Pfaff-Rüdiger/Riesmeyer 2011).

Wie sinnvoll qualitative Verfahren in der Medienforschung sind, zeigt sich beispielsweise im Rahmen medienpädagogischer Forschung, die sich mit der Untersuchung kindlicher Mediennutzung beschäftigt (→ Paus-Hasebrink, S. 276 ff.). Hier kommt man mit standardisierten Untersuchungen nicht weit, methodische Kreativität ist gefordert. Eine wichtige Methode bei der Untersuchung von kindlichem Medienumgang und kindlicher Mediennutzung sind neben teilnehmender Beobachtung und verschiedenen Spielformen, in denen Themen aus den Medien, insbesondere dem Fernsehen, zum Gegenstand gemacht werden, vor allem Kinderzeichnungen (→ Neuß, S. 380 ff.). Wenn Kinder ihre Medienerlebnisse und -erinnerungen bildlich darstellen, haben Forscher manchmal Schwierigkeiten, sie auf den ersten Blick zu verstehen. Denn für die Kinder sind an den Bildern auch Dinge wichtig, die dem Auge des erwachsenen Betrachters ohne Erklärung verborgen bleiben. Ist einmal mithilfe der Kinder ein Zugang gefunden, lassen sich zahlreiche Hinweise auf den Medienalltag der Kinder, ihre häusliche Umgebung sowie die Strukturen der Familien, in denen die Kinder aufwachsen, finden.

Qualitativer Medienforschung geht es vor allem darum, das Medienverhalten und den Umgang mit Medien in seiner ganzen Komplexität zu erfassen oder, wie es Dieter Baacke und Hans-Dieter Kübler einmal formuliert haben, »die Ganzheit einer Kommunikationssituation ins Auge zu fassen«, denn: »Nicht die präzise Isolation von Variablen zur methodisch sauberen Erfassung ist das primäre Ziel dieses Ansatzes, sondern eine möglichst angemessene Annäherung an die Wirklichkeit« (Baacke/Kübler 1989, S. 5). Dazu dürfen keine künstlichen Laborwelten geschaffen werden, sondern die Forscher gehen in den Alltag der Menschen, um die dort vorhandenen Muster und Strukturen zu beschreiben, zu analysieren und zu erklären.

Qualitative Medienforschung ist nicht gleich qualitative Medienforschung. So unterscheiden sich in den entsprechenden Studien nicht nur der Bezug zu den Medien und die Methoden der Datenerhebung, die Arten der Datenaufzeichnung und die Strategien der Auswertung. Auch der Forschungskontext und die damit verbundene Absicht divergieren. Drei Arten können in diesem Sinne idealtypisch unterschieden werden:

Angewandte Medienforschung, die von zahlreichen Instituten im Auftrag von Fernsehsendern oder anderen Medieninstitutionen durchgeführt wird. Sie ist im Wesentlichen auf schnelle Verwertung angelegt, steht sie doch im Dienste der Programmplanung. Moderationsformen, Sendungskonzepte und Serien werden mit qualitativen Methoden getestet. Dabei bleibt selten Zeit, sich grundlegenderen Forschungsfragen zu widmen.

Grundlagenforschung, die sich im Wesentlichen auf grundsätzliche Fragen der Mediennutzung konzentriert und von Universitäten und Forschungseinrichtungen wie zum Beispiel dem Deutschen Jugendinstitut oder dem Hans-Bredow-Institut geleistet wird.

Angewandte medienpädagogische Forschung, die von einigen Instituten wie zum Beispiel dem Institut für Medienpädagogik in Forschung und Praxis (JFF) in München sowie von einigen Wissenschaftlerinnen und Wissenschaftlern im Auftrag vor allem der Landesmedienanstalten durchgeführt wird. Daher konzentriert sich das Forschungsinteresse hier auf medienpädagogische Probleme und Fragen des Jugendschutzes.

In der Medienforschung haben qualitative Verfahren ihren eigenen Stellenwert, der sich nicht aus der Konkurrenz zur quantitativen Forschung ergibt, sondern aus den ihnen zugrunde liegenden Forschungsfragen und den je spezifischen Forschungsabsichten, die lebensweltliche Einbindung und sinnhafte Deutung zu entdecken versuchen. Und sie haben ihre eigenen Gesetze von Repräsentativität, die sich weniger an großen Fallzahlen orientieren als vielmehr an der Intensität des Forschungsprozesses und der Überprüfbarkeit der Ergebnisse. Qualitative Medienforschung erschöpft sich nicht allein in der Anwendung so genannter qualitativer Forschungsmethoden. Dahinter steht vielmehr eine grundsätzlich andere Haltung dem Forschungsprozess und den erforschten Menschen gegenüber. Denn es geht in erster Linie darum, das Medienhandeln der Menschen in alltäglichen Strukturen zu verstehen und seine Bedeutung in lebensweltlichen Zusammenhängen nachzuzeichnen (→ Sander/Lange, S. 183 ff.; → Eichner, S. 112 ff.; → Hasebrink/Hepp, S. 164 ff.; → Mikos, S. 146 ff.; → Röser/Müller, S. 156 ff.). Dazu gehört, dass man die Zuschauer, auch die kindlichen und jugendlichen Zuschauer, in ihrem alltäglichen Verhalten ernst nimmt und sich auf sie einlässt. Denn in der qualitativen Forschung können Ergebnisse nur gemeinsam mit den Untersuchten erzielt werden.

Qualitative Medien- und Kommunikationsforschung ist nicht der »Königsweg«. In Zeiten pluraler Lebenswelten kann es den auch nicht geben – sie bietet aber verschiedene Möglichkeiten und Wege, sich der Wirklichkeit gesellschaftlicher Kommunikationsverhältnisse und dem alltäglichen Medienumgang zu nähern. Qualitative Forschung ist grundsätzlich im Zusammenhang mit hermeneutischen und ethnographischen Verfahren (→ Hagedorn, S. 580 ff., → Winter, S. 588 ff.) sowie mit einem Selbstverständnis der Forscher zu sehen, die davon geleitet werden, den Gegenstand ihrer Forschung, die handelnden Subjekte in ihren alltäglichen Lebensäußerungen zu verstehen. Denn der Gegenstand der Forschung ist die subjektive Deutung von medialen Kommunikationsverhältnissen und kulturellen Praktiken, die in ihrem Sinn für die Zuschauer, Nutzer bzw. das Publikum sinnhaft zu verstehen sind. Da generalisierte Medien der Lebenswelt verhaftet bleiben und kulturelle Praktiken nur im Rahmen von Sozialwelten denkbar sind, muss sowohl der Kultur als auch der Alltagsund Lebenswelt der handelnden Subjekte in der qualitativen Medienforschung große Bedeutung beigemessen werden. Qualitative Forschung ist eine Form kommunikativer Praxis.

Die Geschichte qualitativer Medien- und Kommunikationsforschung in Deutschland zeigt, dass sie – sind diese Prämissen erfüllt – auch eine gewisse Bedeutung erlangt. Noch trifft das kaum auf die klassische Publizistik- und Kommunikationswissenschaft zu, auch wenn sich dort im Jahr 2016 ein Netzwerk Qualitative Methoden gegründet hat. Größere Bedeutung hat sie in der medienpädagogischen Forschung, der sprachwissenschaftlichen und linguistischen Medienforschung sowie der wissenssoziologischen Medien- und Kulturforschung erlangt. Die Rezeption der so genannten »British Cultural Studies« in der Medienwissenschaft hat einen wesentlichen Beitrag zur qualitativen Wende der Medienforschung geliefert, da ethnographische Verfahren in den Cultural Studies eine wesentliche Rolle spielen. Zugleich gehen die Cultural Studies (→ Winter, S. 86 ff.) von einem theoretischen Selbstverständnis aus, das ähnlich wie in der Handlungs- bzw. Aktionsforschung Partei für die handelnden Subjekte ergreift. Arbeiten der Cultural Studies zielen darauf ab, die kulturellen und sozialen Praktiken der handelnden Subjekte nicht nur sinnhaft zu verstehen und deutend zu interpretieren, sondern diese Praktiken zugleich zu kontextualisieren, d.h. sie in den Zusammenhang von ökonomischen, sozialen, politischen und anderen Strukturen zu stellen. Grundlage ist dabei aber immer, dass es die Forschenden mit symbolischen Äußerungen und Handlungen der Subjekte zu tun haben, mit einem von den Subjekten selbstgesponnenen Bedeutungsgewebe, das es nicht zu entschlüsseln gilt, wie häufig fälschlich angenommen wird, sondern das es sinnhaft zu verstehen gilt. Der Anthropologe Clifford Geertz hat deshalb für den Prozess der ethnographischen Forschung gefordert, die Bedeutungsstrukturen, in die Menschen verstrickt sind, herauszuarbeiten und anschließend eine »dichte Beschreibung« dieser Strukturen zu liefern (Geertz 1987). Dabei geht es nicht allein darum, die beobachteten kulturellen und sozialen Praktiken in eine konsistente Interpretation und kohärente, ethnographische Erzählung (→ Winter, S. 588 ff.) zu verwandeln, sondern auch die Inkonsistenzen anzuerkennen. In seinem Grundlagenwerk zur interpretativen Soziologie, die viele Gemeinsamkeiten mit dem Projekt der Cultural Studies aufweist, hat Anthony Giddens (1984, S. 181; H. i. O.) auf diesen Aspekt besonders hingewiesen: »Was aber für Konsistenzen innerhalb von Bedeutungsrahmen gilt, trifft auch auf Inkonsistenzen und auf strittige oder umkämpfte Bedeutungen zu, d.h. diese müssen ebenfalls hermeneutisch verstanden werden.«

Gerade deshalb hat Lawrence Grossberg (1994) für die Cultural Studies auch gefordert, sich durch Theorien nicht den Blick auf die alltäglichen Praktiken der Subjekte verstellen zu lassen, sondern die alltäglichen Praktiken als Anregung für die Theorieentwicklung zu begreifen. Für die qualitative Medienforschung heißt dies, ihre Methoden dem Gegenstand anzupassen, offen für die Erfahrungen der untersuchten Menschen zu sein, um so Anregungen für die Theorieentwicklung zu erhalten und weitere empirische Forschungen zu generieren.

Das Ziel, kulturelle und soziale Praktiken zu verstehen, oder anders ausgedrückt: das Alltagsleben und die Sozialwelt in ihrem sinnhaften Aufbau für die handelnden Subjekte – und damit die verschiedenen Medienpublika – zu verstehen, bedeutet für die qualitative Forschung eine eigenständige Etablierung und einen gleichberechtigten Platz neben der quantitativen Forschung. Für die Medienforschung heißt dies insbesondere, dass qualitative Forschung nicht nur als methodisches Vorgehen, sondern als sozial- und kulturwissenschaftliches Verfahren der Erkenntnisgewinnung und als theoretisches Selbstverständnis einen besonderen Stellenwert erhält. Dies gilt umso mehr, als Medien und Medienprodukte ihre Bedeutung erst im alltäglichen Handeln und der sozialen und kulturellen Praxis der Menschen entfalten (→ Eichner, S. 112 ff.; → Ganguin/Sander, S. 175 ff.; → Hasebrink/ Hepp, S. 164 ff.; → Keppler, S. 77 ff.; → Krotz, S. 94 ff.; → Meyen, S. 104 ff.; → Mikos, S. 146 ff.; → Röser/Müller, S. 156 ff.).

Qualitative Medienforschung ist weitgehend mit qualitativer Rezeptionsforschung gleichgesetzt worden (→ Peltzer/Neumann-Braun, S. 122 ff., → Prommer, S. 249 ff.). Die Analyse der Produktion (→ Kübler, S. 237 ff.) sowie von Produkten, Texten und Diskursen erlebt in der Medienforschung zu Beginn des 21. Jahrhunderts einen neuen Aufschwung. Das mag damit zusammenhängen, dass insbesondere die strukturalistische Variante der qualitativen Forschung ganz im Sinne quantitativer, aber auch qualitativer Inhaltsanalyse bemüht ist, einen manifesten oder latenten Sinn in medialen Produkten oder Texten ausfindig zu machen (→ Mayring/Hurst, S. 494 ff. und Wegener, S. 200 ff.). In der Folge poststrukturalistischer Debatten und als Konsequenz interaktionistischer Konzepte hat sich in Teilen der Medienwissenschaft und in den Cultural Studies ein anderer Textbegriff durchgesetzt, der davon ausgeht, dass Texte keine freizulegende Bedeutung haben, sondern dass sie erst im Rahmen sozialer und kultureller Diskurse Sinn machen. Daher bedarf die Medienanalyse auch der Erweiterung in eine Diskursanalyse (→ Diaz-Bone, S. 131 ff.).

Ein Problem ist dabei nach wie vor, dass es die Analyse von medialen und populärkulturellen Texten nicht nur mit diskursiven, sondern auch mit präsentativen Symbolen zu tun hat (→ Bullerjahn, S. 534 ff., Eichner, S. 524 ff., Korte, S. 432 ff.). Es gilt also nicht nur Sprache und Schrift zu analysieren (→ Ayaß, S. 421 ff.), sondern vor allem die Bilder in ihrem Zusammenspiel mit Tönen, Sound, Sprache, Schrift und Musik. Im Ansatz der »struktur-funktionalen Film- und Fernsehanalyse« wird dies miteinander verbunden (→ Mikos, S. 516 ff.). Im Mittelpunkt der Analyse steht nicht die Frage, welche Bedeutung der Inhalt von Filmen oder Fernsehsendungen hat, sondern in welcher Weise sich Inhalt, Narration und formale Gestaltung von medialen Produkten mit dem Wissen der Zuschauer und den sozialen und kulturellen Diskursen verbinden, um so audiovisuelle Produkte auch wirklich als Material symbolischer Kommunikation im Rahmen des Alltags und der Lebenswelt der als Zuschauer handelnden Subjekte sinnhaft verstehen zu können (vgl. Mikos 2015).

Patentrezepte und einfache Lösungen gibt es sicher nicht: Die qualitative Medien- und Kommunikationsforschung muss anhand ihrer Gegenstände ihr innovatives und kreatives Potenzial entfalten, um neue methodische Wege einzuschlagen. Dann kann sie ihre Ergebnisse verfeinern, weil sie noch näher am Alltag ist, ihre Untersuchungsobjekte noch ernster nimmt und mit ihnen in einen intensiven kommunikativen Prozess tritt. Qualitative Medienforschung richtet den genauen Blick auf die alltäglichen Bemühungen der Menschen, ihrem Leben einen Sinn zu geben – auch mit Medien. Darin liegt ihre große Stärke. Sie zeigt, wie das Leben wirklich ist. Und dieses Leben gehorcht keinen einfachen Wirkungsmechanismen. Es ist erheblich komplexer und widerständiger als mitunter angenommen wird. Die qualitative Medienforschung ist bemüht, diese Komplexität und Widerständigkeit zu beschreiben und zu erklären. Sie überzeugt durch Plausibilität, Reflexivität und Validität → Reichertz, S. 27 ff., → Flick, S. 36 ff.). Das macht ihre Ergebnisse nicht nur für den Diskurs der Medien- und Kommunikationswissenschaft attraktiv, sondern auch für Medienmacher und -Produzenten, denn in den Äußerungen von Zuschauern scheint alltägliche Medienkompetenz im Umgang mit Medienprodukten deutlicher hervor als in Angaben zu Marktanteilen.

Die zunehmende Bedeutung der qualitativen Medienforschung hängt auch mit den gesellschaftlichen Veränderungen zu Beginn des 21. Jahrhunderts zusammen. Der für die Gesellschaft konstatierten Pluralisierung von Lebenswelten und Lebensstilen, die als Ausdruck der Individualisierung gesehen wird, entspricht die Aufsplitterung des Publikums in vielfältige Zielgruppen. Die Fernseh- und Kinoprogramme, die verschiedenen Zeitungs- und Zeitschriftentitel haben kein beliebiges Publikum mehr im Visier, sondern spezifische Zielgruppen. Mit der Digitalisierung haben diese Praktiken einen neuen Schub bekommen. Algorithmen passen die Inhalte an die Nutzungsmuster von Konsumenten an, und mit Big-Data-Analysen kann man deren Verhalten bis in kleinste Verästelungen aufspüren. Diese quantifizierenden Methoden können aber eins nicht, den subjektiven Sinn verstehen, den die Konsumenten ihrer Mediennutzung geben. Dazu bedarf es dann der qualitativen Forschung, denn deren besondere Stärke liegt darin, die Vielfältigkeit der Medien im Lebensalltag des einzelnen Rezipienten zu berücksichtigen, ihre je spezifische Bedeutung im Kontext von individuellem Umgang und Aneignung erfassen zu können und gleichzeitig auch Aspekte von Globalisierung sowie deren Sinndeutung im Medienalltag des Individuums nachzuzeichnen (→ Stehling S. 283 ff.).

Die qualitative Untersuchung von Medienprodukten sowie deren Verwendung im Alltag und der Lebenswelt der Menschen leistet einen wesentlichen Beitrag zum Verständnis sozialer Wirklichkeit. Ihre Stärke liegt in ihrem offenen Charakter und ihrer Zielsetzung als eine »entdeckende Wissenschaft« (Flick/von Kardorff/Steinke 2015), die nicht theoretische Vorannahmen zu bestätigen sucht, sondern sich gerade von der Nähe zur sozialen und kulturellen Praxis der Menschen zu neuen theoretischen Einsichten inspirieren lässt.

Das Handbuch ist als fundierte Einführung gedacht, die nicht nur theoretische Grundlagen bietet und einen Einblick in die zentralen Anwendungsfelder qualitativer Medienforschung gibt, sondern darüber hinaus als detaillierte Anleitung zum qualitativen Forschen verstanden werden kann. Das kreative Potenzial qualitativer Methoden, sowohl in ihrer singulären Anwendung als auch im methodischen Verbund herauszustellen, dabei auch den Stellenwert neuer Medien im Forschungsund Auswertungsprozess aufzuzeigen und klassische Erhebungsmethoden ebenso wie innovative und außergewöhnliche Vorgehensweisen im qualitativen Forschungsprozess darzulegen, ist ein wesentliches Anliegen des Buches.

Es soll Forschenden und Studierenden verschiedener Disziplinen, die Medienforschung betreiben, ein Hilfsmittel sein, um Studien zu planen und die ihrem Gegenstand angemessenen Methoden zu finden. Es ist als Bestandsaufnahme, Überblick und Positionsbestimmung der qualitativen Medienforschung gedacht.

Das Handbuch gliedert sich in sieben Bereiche. Im ersten Teil werden die Grundlagen qualitativer Forschung dargestellt, von der wissenschaftstheoretischen Verortung über Gütekriterien und Kohärenz bis hin zum Begriff der Medien und Fragen der Forschungsethik und des Datenschutzes. Der zweite Bereich widmet sich den theoretischen Hintergründen der qualitativen Medienforschung, der noch einmal unterteilt ist: Im ersten Teil werden theoretische Ansätze vorgestellt, die für die qualitative Medienforschung wichtig sind; im zweiten Teil werden Aspekte der alltagsnahen Medienforschung dargestellt – von der Mediensozialisation bis hin zur Mediennutzung in konvergierenden Medienumgebungen. Der dritte Teil widmet sich der Konzeption, Planung und dem Design von qualitativen Medienforschungsprojekten und berücksichtigt dabei die klassischen Bereiche der Medienforschung ebenso wie einzelne spezifische Themenfelder. Im vierten Teil werden verschiedene Erhebungsmethoden beschrieben, die zahlreiche Möglichkeiten der Generierung von Aussagen darstellen. Der fünfte Teil stellt Verfahren zur Aufzeichnung und Dokumentation qualitativer Daten vor. Der sechste Teil setzt sich mit den verschiedenen Auswertungsmethoden auseinander. Im siebten Teil schließlich, dem Anhang, werden neben dem Autorenverzeichnis, einer allgemeinen Bibliographie, welche Bücher zur qualitativen Medien- und Sozialforschung enthält, auch Fachzeitschriften und Websites aufgelistet, die sich der qualitativen Forschung widmen. Ein umfangreiches Register erleichtert die Arbeit mit dem Handbuch. Verweise auf Beiträge innerhalb des Handbuchs sind mit Pfeilen gekennzeichnet.

Seit der ersten Auflage dieses Handbuchs sind zwölf Jahre vergangen, in denen sich die Medienlandschaft teilweise rasant gewandelt hat. Daher wurden in die Neuauflage zahlreiche neue Beiträge aufgenommen, die einerseits theoretische Entwicklungen reflektieren und andererseits auf neue methodische Herausforderungen eingehen, die auf Grund der Digitalisierung entstanden sind.

Die Zusammenstellung eines so umfangreichen Handbuchs braucht seine Zeit. Dank gilt allen Autorinnen und Autoren, besonders jenen, die ihre Beiträge frühzeitig lieferten und daher umso länger auf das Erscheinen warten mussten. Dank gilt auch allen Leserinnen und Lesern und den Kolleginnen und Kollegen, die uns nach der ersten Auflage mit Kommentaren aller Art erfreuten. Sie haben auch die neue Auflage ermöglicht. Für Korrekturen gebührt der Dank der Herausgeber Simone Neteler und Jessy Lee Noll, sowie Sonja Rothländer und Rüdiger Steiner, die das Projekt beim Verlag mit Geduld und Nachdruck betreuten.

Aarhus/Potsdam, im März 2017

Literatur

Averbeck-Lietz, Stefanie/Meyen, Michael (Hrsg.) (2016): Handbuch nicht standardisierte Methoden in der Kommunikationswissenschaft. Wiesbaden.

Baacke, Dieter/Kübler, Hans-Dieter (1989): Zur Einführung. In: Dies. (Hrsg.): Qualitative Medienforschung. Konzepte und Erprobungen. Tübingen, S. 1–6.

Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (2015): Was ist qualitative Forschung? Einleitung und Überblick. In: Dies. (Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbek (11. Auflage), S. 13–29.

Geertz, Clifford (1987): Dichte Beschreibung. Bemerkungen zu einer deutenden Theorie von Kultur. In: Ders.: Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. Frankfurt, S. 7–43.

Giddens, Anthony (1984): Interpretative Soziologie. Eine kritische Einführung. Frankfurt.

Grossberg, Lawrence (1994): Cultural Studies. Was besagt ein Name? In: IKUS Lectures, 3, 17/18, S. 11–40.

Hienzsch, Ulrich/Prommer, Elizabeth (2004): Die Dean-Netroots: Die Organisation von interpersonaler Kommunikation durch das Web. In: Hasebrink, Uwe/Mikos, Lothar/Prommer, Elizabeth (Hrsg.): Mediennutzung in konvergierenden Medienumgebungen. München, S. 147–169.

Meyen, Michael/Löblich, Maria/Pfaff-Rüdiger, Senta/Riesmeyer, Claudia (2011): Qualitative Forschung in der Kommunikationswissenschaft. Eine praxisorientierte Einführung. Wiesbaden.

Mikos, Lothar (2015): Film- und Fernsehanalyse. Konstanz. (3. überarbeitete und aktualisierte Auflage).

Peltzer, Anja/Keppler, Angela (2015): Die soziologische Film- und Fernsehanalyse. Eine Einführung. Berlin/ Boston.

Grundlagen qualitativer Medienforschung

Wissenschaftstheorie und das Verhältnis von qualitativer und quantitativer Forschung

UWE FLICK

In diesem Beitrag wird zunächst die wissenschaftstheoretische Grundlage qualitativer Forschung in den verschiedenen Varianten des sozialen bzw. radikalen Konstruktivismus verortet. Dabei soll deutlich werden, dass qualitative Forschung sich der Untersuchung von Wissensherstellung auf unterschiedlichen Ebenen widmet. Im zweiten Teil wird die aktuelle Diskussion um die Verbindung qualitativer und quantitativer Forschung vor diesem Hintergrund skizziert und beleuchtet.

Einleitung

Im Folgenden soll zunächst kurz auf die wissenschaftstheoretische Grundlage qualitativer Forschung eingegangen werden, die sich an verschiedenen Varianten des Konstruktivismus festmachen lässt. Im zweiten Teil wird die zunehmend an Aktualität gewinnende Verknüpfung qualitativer und quantitativer Forschung kurz behandelt werden. Die methodische Diskussion qualitativer Methoden stand lange Zeit im Zeichen der Kritik an quantifizierenden Methoden und Forschungsstrategien. Einerseits sind die Auseinandersetzungen um das jeweilige Wissenschaftsverständnis noch nicht beigelegt (vgl. Becker 1996). Andererseits hat sich auch in der Medienforschung in beiden Bereichen eine umfängliche Forschungspraxis entwickelt, die jeweils für sich steht, unabhängig davon, dass es gute und schlechte Forschung in beiden Bereichen gibt. Ein Zeichen dafür, dass qualitative Forschung unabhängig von quantitativer Forschung und von Grabenkämpfen gegen diese geworden ist, lässt sich auch darin sehen, dass etwa das Handbuch von Denzin und Lincoln (2000) ohne ein eigenes Kapitel über die Beziehungen zu quantitativer Forschung auskam und dass es kaum Bezüge dazu in seinem Stichwortverzeichnis gab. Jedoch gewinnt die Kombination beider Strategien eine Perspektive, die in unterschiedlicher Gestalt diskutiert und praktiziert wird, zunehmend an Reiz (vgl. etwa Tashakkori/Teddlie 2010; Flick 2011, 2017). Für eine solche Auseinandersetzung ist es jedoch hilfreich, kurz die wissenschaftstheoretischen Grundlagen qualitativer Forschung zu betrachten.

Wissenschaftstheoretische Grundlagen qualitativer Forschung

Qualitative Forschung ist in ihren unterschiedlichen Spielarten verschiedenen Leitfragen verpflichtet. Sie interessiert für den Nachvollzug subjektiv gemeinten Sinns, die Beschreibung der Herstellung sozialen Handelns und sozialer Milieus und der Rekonstruktion tiefer liegender Strukturen sozialen Handelns (vgl. hierzu Lüders/Reichertz 1986). In diesen drei Perspektiven wird mit unterschiedlicher Akzentuierung die Konstruktion sozialer Wirklichkeiten fokussiert. Damit schließt qualitative Forschung wissenschaftstheoretisch an Ansätze des Konstruktivismus an. Unter der Bezeichnung »Konstruktivismus« werden Programme mit unterschiedlichen Ansatzpunkten zusammengefasst. Gemeinsam ist allen konstruktivistischen Ansätzen, dass sie das Verhältnis zur Wirklichkeit problematisieren, indem sie konstruktive Prozesse beim Zugang zu dieser behandeln. Konstruktionsleistungen werden auf verschiedenen Ebenen angesiedelt:

1) In der Tradition von Jean Piaget (1937) werden das Erkennen, das Wahrnehmen der Welt und das Wissen über sie als Konstruktionen verstanden. Der radikale Konstruktivismus (Glasersfeld 1996) führt diesen Gedanken dahingehend fort, dass jede Form der Erkenntnis schon aufgrund der neurobiologischen Prozesse, die dabei involviert sind, nur zu den Bildern von der Welt und der Wirklichkeit, nicht jedoch zu beidem direkt Zugang habe.

2) Sozialer Konstruktivismus in der Tradition von Schütz (1971), Berger und Luckmann (1969) sowie Gergen (1994) fragt nach den sozialen (z. B. kulturellen oder historischen) Konventionalisierungen, die Wahrnehmung und Wissen im Alltag beeinflussen.

3) Konstruktivistische Wissen(schaft) ssoziologie in der als »Laborkonstruktivismus« (Knorr-Cetina 1984) bezeichneten Forschung untersucht, wie soziale, historische, lokale, pragmatische etc. Faktoren wissenschaftliche Erkenntnis so beeinflussen, dass wissenschaftliche Fakten als soziale Konstruktionen (»lokale Erzeugungen«) aufzufassen sind.

Konstruktivismus ist kein einheitliches Programm, sondern entwickelt sich parallel in verschiedenen Disziplinen. Von den drei angesprochenen Richtungen sind vor allem die ersten beiden für qualitative Forschung relevant. Das empirische Programm des (Labor-) Konstruktivismus wurde bislang noch nicht auf qualitative Forschung angewendet. Im Folgenden ist der Gedanke leitend, dass der Konstruktivismus damit beschäftigt ist, wie Wissen entsteht, welcher Wissensbegriff angemessen ist und welche Kriterien zur Bewertung von Wissen herangezogen werden können. Für qualitative Forschung ist dies in doppelter Hinsicht relevant, da sie wie jede Forschung Wissen produziert und dabei (häufig zumindest) an spezifischen Wissensformen empirisch ansetzt – z. B. biographisches Wissen, Experten- oder Alltagswissen etc.

Erkenntnistheoretische Annahmen zum Charakter sozialer Wirklichkeit

Alfred Schütz hat festgehalten, dass Tatsachen erst über ihre Bedeutungen und ihre Interpretationen relevant werden:

»Genau genommen gibt es nirgends so etwas wie reine und einfache Tatsachen. Alle Tatsachen sind immer schon aus einem universellen Zusammenhang durch unsere Bewusstseinsabläufe ausgewählte Tatsachen. Somit sind sie immer interpretierte Tatsachen: entweder sind sie in künstlicher Abstraktion aus ihrem Zusammenhang gelöst, oder aber sie werden nur in ihrem partikulären Zusammenhang gesehen. Daher tragen in beiden Fällen die Tatsachen ihren interpretativen inneren und äußeren Horizont mit sich« (Schütz 1971, S. 5).

Von den verschiedenen Konstruktivismen von Schütz bis Glasersfeld wird in Frage gestellt, dass die äußere Realität unmittelbar zugänglich sei – d. h. unabhängig von Wahrnehmungen und Begriffen, die wir verwenden und konstruieren. Wahrnehmung wird nicht als passiv-rezeptiver Abbildungsprozess, sondern als aktiv-konstruktiver Herstellungsprozess verstanden. Dies hat Konsequenzen für die Frage, ob eine Repräsentation (der Wirklichkeit, eines Prozesses oder Gegenstandes) auf ihre Richtigkeit hin am »Original« überprüft werden kann. Diese Form der Prüfbarkeit wird vom Konstruktivismus allerdings in Frage gestellt, da das Original nur über andere Vorstellungen (oder Konstruktionen) zugänglich ist. Deshalb können nur die verschiedenen Vorstellungen oder Konstruktionen miteinander verglichen werden. Für konstruktivistische Erkenntnistheorie und darauf basierende empirische Forschung werden Wissen und die enthaltenen Konstruktionen der relevante Zugang zu den Gegenständen, mit denen sie sich beschäftigen.

Konstruktion des Wissens

An drei zentralen Autoren lässt sich verdeutlichen, wie das Zustandekommen von Wissen und seine Funktion konstruktivistisch beschrieben wird.

Schütz (1971, S. 5) geht von folgender Prämisse aus: »Unser gesamtes Wissen von der Welt, sei es im wissenschaftlichen oder im alltäglichen Denken, enthält Konstruktionen, das heißt einen Verband von Abstraktionen, Generalisierungen, Formalisierungen und Idealisierungen, die der jeweiligen Stufe gedanklicher Organisation gemäß sind.« Für Schütz wird jede Form des Wissens durch Selektion und Strukturierung konstruiert. Die einzelnen Formen unterscheiden sich nach dem Grad der Strukturierung und Idealisierung, der von ihren Funktionen – konkreter als Basis alltäglichen Handelns oder abstrakter als Modell in der wissenschaftlichen Theoriebildung – abhängt. Schütz benennt verschiedene Prozesse, denen gemeinsam ist, dass die Bildung des Wissens über die Welt nicht als reine Abbildung gegebener Fakten zu verstehen ist, sondern die Inhalte in einem aktiven Herstellungsprozess konstruiert werden.

Dieses Verständnis wird im radikalen Konstruktivismus weiterentwickelt, dessen »Kernthesen« Glasersfeld (1992, S. 30) formuliert:

»1. Was wir ›Wissen‹ nennen, repräsentiert keineswegs eine Welt, die angeblich jenseits unseres Kontaktes mit ihr existiert. […] (Der) Konstruktivismus führt ähnlich wie der Pragmatismus ein modifiziertes Konzept von Erkennen/Wissen ein. Danach bezieht sich Wissen auf die Art und Weise wie wir unsere Erfahrungswelt organisieren.

2. Der Radikale Konstruktivismus leugnet keineswegs eine äußere Realität. […]

3. Mit Berkeley stimmt der Radikale Konstruktivismus darin überein, dass es unvernünftig wäre, etwas die Existenz zu bescheinigen, was nicht oder nicht irgendwann wahrgenommen werden kann/könnte. […]

4. Von Vico übernimmt der Radikale Konstruktivismus die grundlegende Idee, dass menschliches Wissen eine menschliche Konstruktion ist. […]

5. Der Konstruktivismus gibt die Forderung auf, Erkenntnis sei ›wahr‹, insofern sie die objektive Wirklichkeit abbilde. Stattdessen wird lediglich verlangt, dass Wissen viabel sein muss, insofern es in die Erfahrungswelt des Wissenden passen soll […].«

Wissen organisiert demnach Erfahrungen, die erst die Erkenntnis der Welt außerhalb des erkennenden Subjekts oder Organismus ermöglichen. Erfahrungen werden durch die Begriffe und Zusammenhänge, die das erkennende Subjekt konstruiert, strukturiert und verstanden. Ob das dabei entstehende Bild wahr oder richtig ist, lässt sich nicht beantworten. Jedoch lässt sich seine Qualität durch seine Viabilität bestimmen, das heißt inwieweit das Bild oder Modell dem Subjekt ermöglicht, sich in der Welt zurechtzufinden und in ihr zu handeln. Dabei ist ein Ansatzpunkt die Frage, wie die »Konstruktion von Begriffen« (Glasersfeld 1996, S. 132 ff.) funktioniert.

Für den sozialen Konstruktivismus erhalten die sozialen Austauschprozesse bei der Entstehung von Wissen, insbesondere der verwendeten Begriffe, eine spezielle Bedeutung. In diesem Sinne formuliert Gergen (1994, S. 49 ff.) folgende »Annahmen für eine sozialkonstruktionistische Wissenschaft«:

»Die Begriffe, mit denen wir die Welt und uns selbst erklären, werden nicht von den angenommenen Gegenständen solcher Erklärungen diktiert […]. Die Begriffe und Formen, mittels derer wir ein Verständnis der Welt und von uns selbst erreichen, sind soziale Artefakte, Produkte historisch und kulturell situierter Austauschprozesse zwischen Menschen. […]. Inwieweit eine bestimmte Erklärung der Welt oder des Selbst über die Zeit aufrechterhalten wird, hängt nicht von der objektiven Validität der Erklärung, sondern von den Eventualitäten sozialer Prozesse ab. […] Sprache leitet ihre Bedeutung in menschlichen Angelegenheiten aus der Art, in der sie in Beziehungsmustern funktioniert, ab. Die Bewertung vorhandener Diskursformen heißt Muster kulturellen Lebens zu bewerten; solche Bewertungen verschaffen anderen kulturellen Enklaven Gehör.«

Wissen wird in sozialen Austauschprozessen konstruiert, basiert auf der Rolle von Sprache in sozialen Beziehungen und hat vor allem soziale Funktionen. Die angesprochenen Eventualitäten sozialer Prozesse beeinflussen, was als gültige oder brauchbare Erklärung überdauert.

Fazit

Indem sich qualitative Forschung wissenschafts- und erkenntnistheoretisch am Konstruktivismus orientiert, gibt sie verschiedene Annahmen auf, die für standardisierte empirische Forschung leitend sind: Es geht bei empirischer Forschung weniger um die Abbildung von Fakten als um die Analyse von Bedeutungen und Herstellungsleistungen in Bezug auf die untersuchte Wirklichkeit. Diese kann weder als gegeben noch als unmittelbar zugänglich aufgefasst werden. Objektive Fakten werden damit zu sozialen Konstruktionen in bestimmten Kontexten – seitens der untersuchten Personen, aber auch durch die Forschung selbst. Dieses Wirklichkeitsverständnis hat einerseits Konsequenzen für die Gestaltung qualitativer Forschungsstrategien und ihr Verhältnis zur untersuchten Wirklichkeit (vgl. hierzu Flick 2016, Kap. 8). Andererseits wird es für die Gestaltung des Verhältnisses zu quantitativer Forschung relevant, die von einem anderen Verständnis der Beziehung von Forschung und untersuchter Wirklichkeit ausgeht.

Zum Verhältnis von qualitativer und quantitativer Forschung

Das Verhältnis von qualitativer und quantitativer Forschung lässt sich auf verschiedenen Ebenen behandeln bzw. realisieren:

• hinsichtlich der Erkenntnistheorie und Methodologie (sowie erkenntnistheoretische bzw. methodologische Unvereinbarkeiten),

• in Forschungsdesigns, die qualitative und quantitative Daten und/oder Methoden kombinieren bzw. integrieren,

• über Forschungsmethoden, die sowohl qualitativ als auch quantitativ sind,

• durch die Verknüpfung von Ergebnissen qualitativer und quantitativer Forschung,

• in Bezug auf die Verallgemeinerung oder

• bezüglich der Bewertung der Forschungsqualität: Anwendung von Kriterien aus der quantitativen Forschung auf qualitative Forschung oder vice versa.

Auf der Ebene von Erkenntnistheorie und Methodologie werden qualitative und quantitative Forschung unterschiedlich in Beziehung gesetzt. Es findet sich die Betonung der Inkompatibilitäten qualitativer und quantitativer Forschung in ihren erkenntnistheoretischen und methodologischen Prinzipien (z. B. Becker 1996), in ihren konkreten Zielen oder in den Zielsetzungen, die mit Forschung generell verfolgt werden sollen. Dies wird häufig mit unterschiedlichen theoretischen Positionen verknüpft wie Positivismus versus Konstruktivismus (s. o.) oder (im englischen Sprachraum) Postpositivismus. Gelegentlich werden diese Unvereinbarkeiten als unterschiedliche Paradigmen bezeichnet und beide Seiten in »Paradigmen-Kriege« verstrickt gesehen (z.B. Lincoln/Guba 1985). Eine Lösung in dieser Diskussion zielt auf das getrennte Nebeneinander der Forschungsstrategien, abhängig von Gegenstand und Fragestellung der jeweiligen Forschung. Wer etwas über das subjektive Erleben bei der Rezeption bestimmter Fernsehsendungen wissen will, sollte offene Interviews mit einigen Nutzern führen und detailliert analysieren. Wer etwas über die Häufigkeit und Verteilung solcher Nutzungsweisen von Medien in der Bevölkerung wissen will, sollte eine Studie auf der Basis der Einschaltquoten durchführen. Für die eine Fragestellung sind qualitative Methoden zuständig, für die andere sind quantitative Methoden eher geeignet.

Seit einigen Jahren sind mehrere Trends zu beobachten, die eine strikte Trennung zwischen qualitativer und quantitativer Forschung überwinden sollen. Ausgangspunkt ist die sich langsam durchsetzende Erkenntnis, »dass qualitative und quantitative Methoden eher komplementär denn als rivalisierende Lager gesehen werden sollten« (Jick 1983, S. 135). Solche Trends laufen auf die Verbindung qualitativer und quantitativer Forschung hinaus. Allgemeiner unterscheidet Bryman (2001) zwei Ebenen, auf denen das Verhältnis von qualitativer und quantitativer Forschung diskutiert wird: Auf der Ebene der »epistemology« geht es eher um die grundsätzliche Unvereinbarkeit beider Zugänge, gelegentlich unter Rückgriff auf die jeweils spezifischen Paradigmen. In der »technical version« der Diskussion werden dagegen diese Unterschiede gesehen, aber nicht als unüberwindbar oder zumindest nicht als unmöglich zu berücksichtigen betrachtet. Vielmehr geht es hierbei mehr um den Nutzen und Beitrag des einen Ansatzes für den anderen. In eine ähnliche Richtung argumentiert Hammersley (1996, S. 167 f.), der drei Formen der Verknüpfung qualitativer und quantitativer Forschung unterscheidet: Die Triangulation beider Ansätze setzt den Akzent auf die wechselseitige Überprüfung der Ergebnisse; die Facilitation betont die unterstützende Funktion des jeweils anderen Ansatzes – z. B. liefert der eine Ansatz Hypothesen und Denkansätze für die Weiterführung der Analysen mit dem anderen Ansatz; und schließlich können beide Ansätze als komplementäre Forschungsstrategien kombiniert werden.

Bryman (1992) identifiziert elf Varianten der Integration quantitativer und qualitativer Forschung. Die Logik der Triangulation (1) sieht er in der Überprüfung etwa qualitativer durch quantitativer Ergebnisse. Qualitative kann quantitative Forschung unterstützen (2) und vice versa (3), beides wird zur Herstellung eines allgemeineren Bildes des untersuchten Gegenstandes (4) verknüpft. Strukturelle Aspekte werden durch quantitative und Prozessaspekte durch qualitative Zugänge erfasst (5). Die Perspektive des Forschers ist die treibende Kraft in quantitativen Zugängen, während qualitative Forschung die subjektive Sicht der Akteure in den Vordergrund stellt (6). Das Problem der Generalisierbarkeit (7) lässt sich für Bryman vor allem durch die Hinzuziehung von quantitativen Erkenntnissen für die qualitative Forschung lösen, wohingegen qualitative Erkenntnisse (8) die Interpretation von Zusammenhängen zwischen Variablen quantitativer Datensätze erleichtern können. Die Beziehung zwischen Mikro- und Makroebene in einem Gegenstandsbereich (9) kann durch die Kombination qualitativer und quantitativer Forschung geklärt werden, die wiederum in verschiedenen Phasen des Forschungsprozesses (10) eingesetzt werden können. Schließlich sind noch Hybridformen (11) – etwa die Verwendung qualitativer Forschung in quasiexperimentellen Designs – zu nennen (vgl. Bryman 1992, S. 59 ff.).

Insgesamt gibt diese Übersicht eine breite Palette von Varianten wieder. Dabei sind die Varianten 5, 6 und 7 davon bestimmt, dass qualitative Forschung andere Aspekte als quantitative Forschung erfasst und deren Kombination sich in dieser Unterschiedlichkeit begründet. Kaum eine Rolle in den genannten Varianten spielen theoretische Überlegungen, der gesamte Ansatz von Bryman ist stark der Forschungspragmatik verpflichtet.

Darüber hinaus ist häufig von der Integration qualitativer und quantitativer Verfahren (Kluge/ Kelle 2001) oder von »Mixed Methodologies« (Tashakkori/Teddlie, 2010), aber auch von der Triangulation von qualitativen und quantitativen Methoden (Kelle/Erzberger 2000; Flick 2011, 2018; → Treumann, S. 264 ff.) die Rede. Die Wortwahl zeigt jeweils schon, dass diese Ansätze unterschiedliche Ansprüche verfolgen. Bei den »Mixed Methodologies« geht es vor allem darum, eine pragmatische Verknüpfung von qualitativer und quantitativer Forschung zu ermöglichen, wodurch die »paradigm wars« beendet werden sollen. Dieser Ansatz wird zu einem »third methodological movement« (Tashakkori/Teddlie 2003, S. ix), wobei die quantitativen Methoden als erste, die qualitativen Methoden als zweite Bewegung verstanden werden. Die Zielsetzung einer methodologischen Auseinandersetzung mit diesem Ansatz dient der Klärung von Begrifflichkeiten (»Nomenclature«), von Design- und Anwendungsfragen der »Mixed-Methodology«-Forschung sowie der Fragen des Schlussfolgerns darin. Unter methodologischen Gesichtspunkten geht es um die »paradigmatische Begründung« für eine »Mixed-Methodology«-Forschung. Durch die Verwendung des Paradigma-Begriffs in diesem Zusammenhang wird jedoch von zwei geschlossenen Ansätzen ausgegangen, die wiederum differenziert, kombiniert oder jeweils abgelehnt werden können, ohne dass eine Auseinandersetzung mit den konkreten methodologischen Problemen der Verknüpfung realisiert werden muss. Die Ansprüche an »Mixed-Methodology«-Forschung werden wie folgt umrissen:

»We proposed that a truly mixed approach methodology (a) would incorporate multiple approaches in all stages of the study (i. e., problem identification, data collection, data analysis, and final inferences) and (b) would include a transformation of the data and their analysis through another approach« (Tashakkori/Teddlie 2003b, S. xi).

Diese Ansprüche sind sehr weitgehend, vor allem wenn man die Überführung (Transformation) von Daten und Analysen (qualitative in quantitative und vice versa) berücksichtigt. Mittlerweile hat sich der Ansatz der Mixed Methods stärker etabliert, ist aber auch im eigenen Lager in die Kritik geraten (vgl. Flick 2017 für einen Überblick).

Der Ansatz der Integration qualitativer und quantitativer Verfahren geht noch einen Schritt weiter. Dabei wird vor allem an der Entwicklung integrativer Forschungsdesigns (Kluge 2001) und an der Integration von qualitativen und quantitativen Ergebnissen (Kelle/Erzberger 2015) angesetzt, wobei allerdings der Begriff der Integration nicht ganz klar formuliert wird. Seipel und Rieker (2003) leiten daraus den Ansatz der Integrativen Sozialforschung ab, der vor allem auf die Lehre in einem integrierten Methodencurriculum abzielt.

Dieser knappe Überblick zeigt, in welchen Kontexten die Verbindung qualitativer und quantitativer Ansätze aktuell diskutiert wird.

Verknüpfung in der Forschungspraxis

In der Literatur zur qualitativen Forschung finden sich unterschiedliche Vorschläge zur praktischen Verknüpfung qualitativer mit quantitativen Methoden – in unterschiedlicher Reihenfolge oder parallel, mit jeweils unterschiedlicher Gewichtung. So werden Barton und Lazarsfeld (1979) immer wieder als Beispiel dafür angeführt, wie qualitative Forschung auf Vorstudien für die eigentliche, d. h. quantitative Forschung reduziert wird (für eine Auseinandersetzung mit dieser Lesart vgl. Flick 2011, Kap. 5). Miles und Huberman (1994) haben verschiedene Designs zur sequenziellen und parallelen Verknüpfung von qualitativer und quantitativer Forschung vorgestellt.

Verknüpfung qualitativer und quantitativer Ergebnisse

Häufiger wird die Kombination beider Zugänge realisiert, indem Ergebnisse qualitativer und quantitativer Forschung verknüpft werden, die aus einem oder aus verschiedenen Projekten stammen, die wiederum parallel oder nacheinander durchgeführt wurden (vgl. Kluge/Kelle 2001). Ein Beispiel kann die Verknüpfung einer Umfrage mit einer Interviewstudie sein. Diese Kombination kann mit verschiedenen Zielen realisiert werden:

Erkenntnisse über den Gegenstand der Studie zu gewinnen, die umfassender sind als diejenigen, die der eine oder der andere Zugang erbracht hätten, oder die Ergebnisse beider Zugänge wechselseitig zu validieren.

Im Wesentlichen können drei Erträge durch diese Kombination erzielt werden (vgl. auch Kelle/Erzberger 2015, S. 304):

1) Qualitative und quantitative Ergebnisse konvergieren, das heißt, sie stimmen tendenziell überein und legen dieselben Schlussfolgerungen nahe.

2) Die Ergebnisse beider Zugänge fokussieren unterschiedliche Aspekte eines Gegenstandes (z. B. die subjektive Bedeutung einer Krankheit und ihre soziale Verteilung in der Bevölkerung). Damit verhalten sie sich komplementär zueinander, das heißt, sie ergänzen sich gegenseitig.

3) Qualitative und quantitative Ergebnisse divergieren, das heißt, sie widersprechen einander.

Wenn das Interesse an der Verbindung qualitativer und quantitativer Forschung darin begründet ist, mehr (breiteres, besseres, vollständigeres etc.) Wissen über den Forschungsgegenstand zu gewinnen, sind alle drei Erträge hilfreich. Im dritten (möglicherweise auch im zweiten) Fall wird eine theoretisch fundierte Interpretation oder Erklärung der Divergenzen und Widersprüche notwendig. Wenn beide Zugänge mit dem Ziel der Validierung von Ergebnissen miteinander kombiniert werden, sind der dritte und möglicherweise auch der zweite Fall Hinweise für die Grenzen dieser Validität. Dass dieser Ansatz der Validierung durch unterschiedliche Methoden nicht unproblematisch ist, wird ausführlicher in der Literatur zur Triangulation diskutiert (Flick 2011, 2018).

Praktische Probleme der Verknüpfung qualitativer und quantitativer Forschung

Verschiedene praktische Fragen sind mit der Verknüpfung qualitativer und quantitativer Methoden in einer Studie verbunden. Zunächst einmal stellt sich die Frage, auf welcher Ebene die Verbindung konkret ansetzt. Hier lassen sich zwei Alternativen unterscheiden: Eine Triangulation qualitativer und quantitativer Forschung kann am Einzelfall ansetzen. Dieselben Personen, die interviewt werden, gehören auch zu der Gruppe, die einen Fragebogen ausfüllt. Ihre Antworten auf die Fragen in beiden Methoden werden auch auf der Ebene des Einzelfalles miteinander verglichen, zusammengeführt und in der Auswertung aufeinander bezogen. Sampling-entscheidungen werden in zwei Schritten getroffen. Dieselben Fälle werden für beide Teile der Untersuchung ausgewählt, aber im zweiten Schritt wird entschieden, welche der Teilnehmer an der Umfrage für ein Interview herangezogen werden.

Die Verbindung kann jedoch auch zusätzlich oder ausschließlich auf der Ebene der Datensätze hergestellt werden. Die Antworten auf den Fragebögen werden in ihrer Häufigkeit und Verteilung über die ganze Stichprobe analysiert. Die Antworten in den Interviews werden interpretiert und verglichen, und es wird beispielsweise eine Typologie erstellt. Dann werden die Verteilung der Fragebogenantworten und die Typologie in Beziehung gesetzt und verglichen (vgl. Abb. 1).

image

Fazit

Die Kombination von qualitativer und quantitativer Forschung wird immer häufiger eingesetzt. Verschiedene methodische Fragen sind bislang noch nicht befriedigend gelöst. Bei einer Reihe von Ansätzen der Kombination tritt teilweise die Systematik auf der methodischen Ebene hinter eine Forschungs- oder Konzeptpragmatik zurück. Versuche der Integration beider Ansätze laufen häufig auf ein Nacheinander (mit unterschiedlichem Vorzeichen), Nebeneinander (mit unterschiedlichem Ausmaß der Unabhängigkeit beider Strategien) oder eine Über- bzw. Unterordnung (ebenfalls mit unterschiedlichem Vorzeichen) hinaus. Die Integration konzentriert sich meist auf die Ebene der Verknüpfung von Ergebnissen oder bleibt oft auf die Ebene des Forschungsdesigns begrenzt – die kombinierte Verwendung verschiedener Methoden mit unterschiedlichem Ausmaß der Bezugnahme aufeinander. Weiterhin bestehen die Unterschiede in den beiden Strategien hinsichtlich der angemessenen Designs und Formen der Bewertung von Vorgehen, Daten und Ergebnissen weiter. Die Frage, wie dem bei der Kombination beider Strategien Rechnung getragen werden kann, bleibt weiter zu diskutieren.

Abschließend lassen sich jedoch einige Leitfragen für die Einschätzung von Beispielen der Kombination qualitativer und quantitativer Forschung formulieren.

• Wird beiden Zugängen gleiches Gewicht eingeräumt (in der Planung des Projekts, in der Relevanz der Ergebnisse und in der Bewertung der Forschung beispielsweise)?

• Werden beide Zugänge lediglich getrennt angewendet, oder werden sie tatsächlich aufeinander bezogen? So werden in vielen Studien qualitative und quantitative Methoden eher unabhängig voneinander angewendet, und die Integration beider Teile beschränkt sich auf den Vergleich von deren Ergebnissen.

• Was ist die logische Beziehung von beiden? Werden die Methoden nur sequenziell verknüpft und wie? Oder werden sie tatsächlich integriert in einem Multi-Methoden-Design?

• Welche Kriterien werden zur Bewertung der Forschung insgesamt genutzt? Dominiert ein traditionelles Verständnis von Validierung, oder werden beide Arten der Forschung mit jeweils angemessenen Kriterien bewertet?

• Und schließlich: Wie wird mit den epistemologischen Inkompatibilitäten zwischen qualitativer Forschung und ihrem konstruktivistischen Wirklichkeitsverständnis und quantitativer Forschung, die häufig eher auf einem abbildtheoretischen Zugang zur Wirklichkeit basiert bei der Kombination von Methoden, Daten und/oder Ergebnissen umgegangen?

Literatur

Barton, Alan H./Lazarsfeld, Paul F. (1955/1979): Einige Funktionen von qualitativer Analyse in der Sozialforschung. In: Hopf, Christel/Weingarten, Elmar (Hrsg.): Qualitative Sozialforschung. Stuttgart, S. 41–89.

Becker, Howard S. (1996): The Epistemology of Qualitative Research. In: Jessor, Richard/Colby, A./Shweder, Richard A (Hrsg.): Ethnography and Human Development. Chicago, S. 53–72.

Berger, Peter L./Luckmann, Thomas (1969): Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Frankfurt a. M.

Bryman, Alan (1992): Quantitative and qualitative research: further reflections on their integration. In: Brannen, Julia (Hrsg.): Mixing Methods: Quantitative and Qualitative Research. Aldershot, S. 57–80.

Bryman, Alan (2001): Social Research Methods. Oxford.

Denzin, Norman K./Lincoln, Yvonna S. (Hrsg.) (2000): Handbook of Qualitative Research – Second Edition. Thousand Oaks/London.

Flick, Uwe (2011): Triangulation – Eine Einführung, 3. Auflage. Wiesbaden.

Flick, Uwe (2016): Qualitative Sozialforschung – Eine Einführung. Völlig überarbeitete Neuauflage, Reinbek.

Flick, Uwe (2017): Mantras and Myths: The Disenchantment of Mixed-Methods Research and Revisiting Triangulation as a Perspective. In: Qualitative Inquiry 23 (1): 46–58.

Flick, Uwe (2018): Triangulation. In: Denzin, Norman/Lincoln, Yvonna S. (Hrsg.): Handbook of Qualitative Research (5th edn). Thousand Oaks, CAS, S. 444–461.

Gergen, Ken J. (1994): Realities and Relationships. Soundings in Social Construction. Cambridge.

Glasersfeld, Ernst v. (1992): Aspekte des Konstruktivismus: Vico, Berkeley, Piaget. In: Rusch, Gebhard/Schmidt, Siegfried J. (Hrsg.): Konstruktivismus: Geschichte und Anwendung. Frankfurt a. M., S. 20–33.

Glasersfeld, Ernst v. (1996): Radikaler Konstruktivismus: Ideen, Ergebnisse, Probleme. Frankfurt a. M.

Hammersley, Martyn (1996): The Relationship between qualitative and quantitative research: paradigm loyalty versus methodological eclecticism. In: Richardson, John T.E. (Hrsg.): Handbook of Qualitative Research Methods for Psychology and the Social Sciences. Leicester, S. 159–174.

Jick, Thomas (1983): Mixing Qualitative and Quantitative Methods: Triangulation in Action. In: Maanen, John van (Hrsg.): Qualitative Methodology. London/Thousand Oaks/New Delhi, S. 135–148.

Kelle, Udo/Erzberger, Christian (2015): Quantitative und Qualitative Methoden – kein Gegensatz. In: Flick, Uwe/Kardorff, Ernst v./Steinke, Ines (Hrsg.): Qualitative Forschung – Ein Handbuch, 11. Auflage. Reinbek, S. 299–309.

Kluge, Susann (2001): Strategien zur Integration qualitativer und quantitativer Erhebungs- und Auswertungsverfahren. Ein methodischer und methodologischer Bericht aus dem Sonderforschungsbereich 186 »Statuspassagen und Risikolagen im Lebensverlauf«. In: Kluge, Susann/Kelle. Udo (Hrsg.): Methodeninnovation in der Lebenslaufforschung. Integration qualitativer und quantitativer Verfahren in der Lebenslauf- und Biographieforschung. Weinheim/München, S. 37–88.

Kluge, Susann/Kelle, Udo (Hrsg.) (2001): Methodeninnovation in der Lebenslaufforschung. Integration qualitativer und quantitativer Verfahren in der Lebenslauf- und Biographieforschung. Weinheim/München.

Knorr-Cetina, Karin (1984): Die Fabrikation von Erkenntnis. Frankfurt a. M.

Lincoln, Yvonna S./Guba, Egon G. (1985): Naturalistic Inquiry. London, Thousand Oaks, New Delhi.

Lüders, Christian/Reichertz, Jo (1986): Wissenschaftliche Praxis ist, wenn alles funktioniert und keiner weiß warum. Bemerkungen zur Entwicklung qualitativer Sozialforschung. In: Sozialwissenschaftliche Literaturrundschau, 12, S. 90–102.

Miles, Matthew B./Huberman, A. Michael (1994): Qualitative Data Analysis: A Sourcebook of New Methods, 2. Auflage. Newbury Park.

Piaget, Jean (1937): La construction du réel chez l’enfant. Neuchâtel.

Schütz, Alfred (1971): Gesammelte Aufsätze, Bd. 1 – Das Problem der sozialen Wirklichkeit. Den Haag. (Original 1962: Collected papers, Bd. 1. The Problem of Social Reality. Den Haag).

Seipel, Christian/Rieker, Peter (2003): Integrative Sozialforschung. Weinheim.

Tashakkori, Abbas/Teddlie, Charles (2003): Major Issues and Controversies in the Use of Mixed Methods in Social and Behavioral Research. In: Dies. (Hrsg.): Handbook of Mixed Methods in Social & Behavioral Research. Thousand Oaks, S. 3–50.

Tashakkori, Abbas/Teddlie, Charles (Hrsg.) (2010): Handbook of Mixed Methods in Social & Behavioral Research (2nd edn.). Thousand Oaks.

Gütekriterien qualitativer Sozialforschung

JO REICHERTZ

Ausgehend von dem Befund, dass eine gegenüber der eigenen Praxis und den eigenen Methoden reflexive qualitative Sozialforschung um ihre nicht hintergehbare Perspektivenbindung weiß, werden die gängigen Muster der Rechtfertigung qualitativer Forschung mit dem Ziel untersucht, deren Nützlichkeit für eine Bestimmung von Gütestandards zu ermitteln. Abschließend werden einige Verfahren benannt, die geeignet sind, die Zuverlässigkeit, die Repräsentativität und auch die Validität qualitativer Sozialforschung zu begründen.

Was ist die Frage?

Wenn Sozialwissenschaftler sich in Ausübung ihres Berufes der sozialen Welt mit dem Ziel zuwenden, die Bedeutung von Texten, stillen Bildern, Wohnzimmereinrichtungen, Sportveranstaltungen, Heiratsbräuchen, Landschaftsparks oder Ähnlichem zu verstehen, dann müssen sie deren (gesellschaftliche) Bedeutung rekonstruieren. Für wissenschaftliche Rekonstruktion aller Art gilt nun, dass sie – wie auch alle alltäglichen Rekonstruktionen – nicht hintergehbar, vor allem perspektivengebundene, kommunikativ erarbeitete Konstruktionen sind (Keller/ Knoblauch/Reichertz 2012, Reichertz 2013b). Denn: Die Wissensproduktion für die Gesellschaft ist auch von der Gesellschaft organisiert (vgl. Berger/Luckmann 1977, Soeffner 2004; Reichertz 2016).

Eine reflexive Sozialforschung weiß um diesen Sachverhalt (Bourdieu/Wacquant 1996). Für sie gibt es keinen Durchblick auf die wirkliche Wirklichkeit, sondern alles, was ihr gegeben ist und was sie untersuchen kann, ist gesellschaftlich erbautes, gesellschaftlich verteiltes, aber auch geteiltes Wissen von Bedeutung. Auch wenn unterstellt wird, dass jenseits des gesellschaftlichen Wissens brute facts existieren, so ist es dem Wissenschaftler nicht möglich, auf sie zuzugreifen. Seine Deutung der Welt arbeitet sich an gesellschaftlich erbauten Deutungen ab, an ihnen, und vor allem: mit ihnen arbeitet er, um dann zu seiner Deutung zu gelangen.

Diese reflexive Wendung hat für die Wissenschaftler (also wissenschaftsintern) zweierlei Konsequenzen: zum einen Freisetzung, zum anderen Verunsicherung. Freisetzung deshalb, weil die Verabschiedung eines exklusiven Wegs zur Erkenntnis strukturell die Suche nach neuen Wegen und Prozeduren eröffnet und zugleich die Konzeptionierung neuer Methodologien ermöglicht. Diese Freisetzung hatte im Windschatten (ebenfalls wissenschaftsintern) zugleich aber auch eine tiefgreifende Verunsicherung zur Folge: Gemessen an dem Stand wissenssoziologisch informierter (Selbst-) Reflexion lassen sich nämlich keine verbindlichen Standards für die Erlangung von Validität mehr angeben: Denn jede Forschungsarbeit muss in dieser Perspektive mit der (weder zu leugnenden noch zu beseitigenden) Tatsache leben, selektiv und damit nur bezogen auf eine Perspektive gültig zu sein. Diese Verunsicherung findet auf Forscherseite ihren Ausdruck in der sprunghaften Zunahme von Anything-goes-Forschung und der deutlichen Bevorzugung der spritzigen Formulierung vor dem guten Argument.

Wissenschaftsextern hat die reflexiv gewordene Wissenssoziologie mit ihrer Erkenntnis wissenschaftlicher Perspektivengebundenheit, die übrigens meistens nur in Form eines kruden Wissenspluralismus (»Jede Erkenntnis ist gleich gut, deshalb auch beliebig!«) wahrgenommen wurde, ebenfalls eine tiefe Verunsicherung ausgelöst – mit dem paradoxen Ergebnis einer verstärkten Nachfrage nach Gültigkeit und dem Verlangen nach Forschungsevaluation. In dieser Situation stellt sich die Frage, wie einerseits wissenschaftsintern mit der Unsicherheit wissenschaftlicher Erkenntnis umgegangen wird (z. B. mithilfe von Methodendebatten) und wie andererseits extern die Gültigkeit wissenschaftlicher Aussagen gerechtfertigt werden kann.

Im Beitrag soll versucht werden – wohl wissend, dass die Frage nach der Gültigkeit wissenschaftlicher Ergebnisse eingebunden ist in einen sozialen Prozess der Wissenslegitimierung –, die Frage nach der Validität (→ Flick, S. 36 ff.) sozialwissenschaftlicher Rekonstruktionen dadurch anzugehen, den Diskurs über die Gültigkeit sozialwissenschaftlicher Erkenntnis nachzuzeichnen, um so gewisse Standards für die Bestimmung von Gütekriterien zu entwickeln. Es geht dabei jedoch nicht um eine Neuauflage der erkenntnistheoretischen Debatte, um die Möglichkeit von Erkenntnis und auch nicht um die Diskussion der gängigen Wahrheitstheorien, auch wenn im Weiteren immer wieder auf Erkenntnis- und Wahrheitstheorien Bezug genommen werden muss, um die Probleme bei der Entwicklung sozialwissenschaftlicher Gütekriterien sichtbar zu machen.

Typische Verfahren der Wissenslegitimierung in der Sozialforschung

Eine reflexiv gewordene Wissenssoziologie ist ein gutes Gegengift gegen gedankenlosen Empirismus, theorieloses Forschen und Messinstrumentengläubigkeit. Sie ist jedoch keinesfalls ein Vorwand oder gar eine theoretische Begründung für methodische und methodologische Beliebigkeit. Die Einsicht in den Konstruktionscharakter wissenschaftlicher Erkenntnis hat nur, wenn man zu kurz schließt, eine postmoderne Wissenschaft zur Folge, in der statt des besseren Arguments die Pointe punktet. Die Einsicht in die Perspektivität von Erkenntnis stellt nicht die Selbstaufklärung still, sondern hebt sie auf eine neue Stufe. Denn es ist keineswegs gesagt, dass mit der Unhintergehbarkeit der Perspektivität von Erkenntnis der Weg für wohl formulierte Beliebigkeit eröffnet ist. Diesseits dieser fruchtlosen Alternative von Alles-oder-Nichts erstreckt sich eine weite Region von Aussagen, die weder völlig gültig noch völlig ungültig sind, und die man durchaus als besser oder schlechter einordnen kann. Denn aus der Tatsache, dass man in Krankenhäusern keine völlig keimfreien Umgebungen herstellen kann, folgt gerade nicht, dass man Operationen genauso gut auch in Kloaken vornehmen kann (vgl. Geertz 1987, S. 42 f.).

Die verschiedenen Verfahren qualitativer Sozialforschung (vgl. Lüders/Reichertz 1986, Reichertz 2016), gleichgültig, ob sie quantitative oder qualitative Inhaltsanalyse, Dokumentarische Methode der Interpretation oder Grounded Theory, Narrations- oder Diskursanalyse, Objektive Hermeneutik oder hermeneutische Wissenssoziologie heißen (→ Wegener, S. 256 ff., Mayring/Hurst, S. 494 ff., → Lampert, S. 596 ff., → Diaz-Bone, S. 131 ff., → Hagedorn, S. 580 ff., → Reichertz, S. 66 ff.), sind mit dem Dilemma, um die eigene Perspektivengebundenheit zu wissen und gleichzeitig dem Gültigkeitsanspruch nicht abschwören zu wollen bzw. zu können, in unterschiedlicher Weise umgegangen. Betrachtet man die bisherige Geschichte der qualitativen Sozialforschung, so lassen sich drei Großstrategien unterscheiden, mit deren Hilfe man sich eine Absicherung bzw. Heiligung der Ergebnisse versprach:

• die Begründung durch persönliches Charisma,

• die Begründung durch Verfahren und

• die Begründung durch den innerwissenschaftlichen Diskurs.

Das Vertrauen auf persönliches Charisma

Die erste Großstrategie steht in der Tradition des Arguments, bestimmten Wissenschaftlern sei eine persönliche und außerordentliche Hellsichtigkeit zu eigen. Die Strategie besteht darin, dass (auch dann, wenn Daten analysiert werden) der entscheidende Erkenntnissprung, die Abduktion (vgl. Reichertz 2013a) beispielsweise, nicht als Ergebnis von Arbeitsprozessen betrachtet wird, sondern als genialischer Akt, der nur der jeweiligen Person möglich war. Hier liefert also ein (reklamiertes und oft auch inszeniertes) Charisma die Fundierung von Gültigkeit. Zugespitzt: Selbst-Charismatiker nenne ich solche Wissenschaftler, die zwar vorgeben, mit Daten zu arbeiten, ihre Forschungsergebnisse jedoch nicht mehr an eine intersubjektive Nachvollziehbarkeit binden, sondern an eine persönliche, meist exklusive Gabe. Vertreter dieser Strategie findet man in allen Varianten qualitativer Sozialforschung. Allerdings neigen Forscher, die an die Objektivität ihrer Rekonstruktionen glauben, eher dazu, diese Strategie zu wählen.

Das Vertrauen in Verfahren

Die zweite Großstrategie versucht ihre Ergebnisse mithilfe von spezifischen Verfahren zu legitimieren. Es ist nicht mehr die Person des Forschers, die aufgrund eines göttlichen Geschenks die Gültigkeit verbürgt, sondern es sind die wissenschaftlich etablierten Methoden, die Gültigkeit hervorbringen und garantieren. Gefragt nach der Basis von Validität, wird als Antwort ein spezifisches Verfahren genannt. Allerdings finden sich innerhalb dieser Großstrategie die drei folgenden Varianten:

1) Rechtfertigung mithilfe der Methode der phänomenologischen Reduktion,

2) Rechtfertigung mithilfe des Verfahrens der Methodentriangulation und

3) Rechtfertigung mithilfe der Methode datengestützter Perspektivendekonstruktion.

Die Methode der phänomenologischen Reduktion (auch Epoché genannt) möchte zu den Sachen selbst dadurch vordringen, dass man bei der Welterkenntnis die eigenen Vorstellungen von Welt von allen sozialen Einkleidungen befreit und zugleich alle Vorstellungen von Welt ihrer historischen Deutung entledigt. Ziel ist, den sozialen Schleier wegzuziehen, in der Hoffnung, auf diese Weise der Dinge selbst ansichtig zu werden. Dieses Verfahren ist insbesondere von den Vordenkern der Wissenssoziologie sehr stark favorisiert worden. Eine Auseinandersetzung mit diesem Verfahren hat in den letzten Jahren zu der Erkenntnis geführt, dass man so nicht bei den Sachen selbst, sondern vor allem und einzig in der Sprache landet, dass man also die Perspektivität keineswegs verliert.

Die zweite Unterstrategie, die ich hier Methodentriangulation nennen möchte, versucht die Erkenntnis von der wissenschaftlichen Perspektivität produktiv zu nutzen, indem sie als Gütegarant eine als positiv deklarierte Multi-Perspektivität anstrebt (vgl. Flick 2004; → Treumann, S. 264 ff.). Qualitative Verfahren werden mit quantitativen ergänzt, die Feldstudie mit Interviews und Fragebogen, die Interaktionsanalyse mit Experiment und Beobachtung. Die Grundidee (bzw. die zugrunde gelegte Metapher) dieser Strategie ist der Geometrie entlehnt: Um einen nicht erreichbaren Punkt (Erkenntnis) zu bestimmen, peile ich diesen Punkt von zwei (oder mehr) bekannten Perspektiven (Methoden) aus an, bestimme das Verhältnis der bekannten Perspektiven zueinander und deren Winkel zum angepeilten Punkt und kann dann mithilfe trigonometrischer Berechnungen den unbekannten Punkt bestimmen. Bei der Methodentriangulation geht es also nicht darum, die Perspektivität zu leugnen, sondern sie zum Programm zu erheben. Dennoch sind auch hier die realistischen Hoffnungen nicht zu überhören: Unzweifelhaft ist nämlich diesen Forschern der Glaube zu eigen, dass auf diese Weise nicht nur andere Ergebnisse erzielt werden, sondern dass diese Art der Welterkundung besser und die so gewonnenen Aussagen valide sind.

Diese letzten realistischen Hoffnungen sollen vor allem mithilfe der dritten Unterstrategie getilgt werden – der Rechtfertigung der Gültigkeit von Aussagen aufgrund datengestützter Perspektivendekonstruktion. Damit ist nicht nur, aber insbesondere die Sequenzanalyse angesprochen. Allerdings muss hier auf die methodologische Rechtfertigung geachtet werden. Favorisiert man z. B. innerhalb der Objektiven Hermeneutik die Sequenzanalyse vor allem deshalb, weil sie sich vermeintlich den Sachen selbst anschmiegt (vgl. Oevermann u. a. 1979 und 200; Garz/Raven 2015, → Hagedorn, S. 580 ff.), dann zeigt sich darin eine recht beachtliche realistische Sicht von Wissenschaft. Eine reflexive Wissenssoziologie verwendet die Sequenzanalyse jedoch gerade nicht in der Hoffnung, so dem Gegenstand nahe zu kommen, weil die Sequenzanalyse den realen Prozess der Interaktion nachzeichnet. Das wäre ein grobes realistisches Missverständnis. Die Sequenzanalyse wird dagegen von Wissenssoziologen deshalb besonders gerne angewendet, weil sie ein ausgesprochen unpraktisches Verfahren ist. Die strikte Durchführung einer Sequenzanalyse (also der extensiven hermeneutischen Auslegung von Daten in ihrer Sequenzialität) kostet nicht nur immens viel Zeit, sondern sie zerstört im Prozess der systematischen und gesteigerten Sinnauslegung alle Selbstverständlichkeiten der eigenen Perspektivik und der eigenen Sprache. Strikte Sequenzanalysen führen dazu, dass alle geltenden oder für uns gültigen Vorurteile, Urteile, Meinungen und Ansichten in der Regel schnell zusammenbrechen. Die Sequenzanalyse dient also gerade nicht dazu, sich an den Gegenstand anzuschmiegen, sondern Sequenzanalyse ist nur ein Verfahren zur Zerstörung unserer gesamten sozialen Vorurteile – auch wenn dies nicht immer gelingt. Ist die Perspektivik mittels Sequenzanalyse einmal zerstört, entwirft der Forscher abduktiv Aussagen zu dem untersuchten Gegenstandsbereich (vgl. Peirce 1976; Reichertz 2013a).

Soweit erst einmal die zweite Großstrategie der Begründung von Gültigkeit über Verfahren. Die Betrachtung der drei Unterstrategien hat gezeigt, dass die jeweils zum Einsatz gebrachten Methoden sehr unterschiedliche realistische Einfärbungen aufweisen. Aus meiner Sicht ist vor allem eine richtig verstandene Sequenzanalyse eine besonders gut geeignete Methode datengestützter Perspektivendekonstruktion und damit für Wissenssoziologen interessant.

Das Vertrauen auf den innerwissenschaftlichen Diskurs

Die dritte Großstrategie, die Gültigkeit von Aussagen zu fundieren, besteht darin, die Perspektivenvielfalt der Berufsgruppe zu nutzen – also auf den innerwissenschaftlichen Diskurs zu setzen, man vertraut auf ihn. Man rechtfertigt dann das, was man als gültige Erkenntnis vorstellt, nicht mehr damit, dass auf Verfahren oder die eigene Hellsichtigkeit verwiesen wird, sondern man tritt bescheiden zurück und sagt: »Ich habe meine Erkenntnisse in den wissenschaftlichen Diskurs eingespeist. Dort wurden sie durch die Mühlen des wissenschaftlichen Diskurses gedreht. Zwar weiß man nicht genau, welche Mühlen dort mahlen oder welche Körner zerkleinert werden, aber die Erkenntnis X ist dabei rausgekommen, und weil sie den Diskurs überstanden hat und übrig geblieben ist, muss sie auch gültig sein.« Hier zeigt sich das in diesem Ansatz eingelassene Vertrauen auf die soziale Kraft einer Professionsgruppe und in die in ihr eingelassene Perspektivenvielfalt. Die Macht, Gültigkeit zu verleihen, wird auf diese Weise nicht mehr an eine objektivierbare, kontrollierbare und intersubjektiv nachvollziehbare Prozedur (also an etwas Nicht-Subjektives) gebunden, sondern ausdrücklich dem Diskurs interessierter Wissenschaftler (und damit einem sozialen Prozess) überantwortet.

Alle drei hier besprochenen Großstrategien (Begründung durch Charisma, Verfahren oder Diskurs) versuchen mit dem Problem umzugehen, dass eine über sich selbst aufgeklärte Wissenssoziologie nicht mehr problemlos von der Gültigkeit ihrer Aussagen sprechen kann, insbesondere dann nicht, wenn sie für die Gesellschaft Planungswissen zur Verfügung stellen will bzw. soll.

Es ist nun müßig, (erneut) die Frage ernsthaft zu diskutieren, ob die o. g. Verfahren wirklich in der Lage sind, unsere Perspektivität zu beseitigen. Denn es kann keinen Zweifel daran geben, dass sie dazu nicht in der Lage sind: Keines dieser Verfahren vermag es, den Schleier von den Sachen selbst wegzuziehen, also einen Zugang zur wirklichen Wirklichkeit zu ermöglichen.

Gibt man nun aber die Utopie einer wissenschaftlichen Aufklärung bis zur letzten Konsequenz auf und akzeptiert, dass mit einem gewissen Maß an Vagheit (auch als Wissenschaftler) durchaus gut zu leben ist, dann dreht die Methodologiedebatte nicht mehr (ohne vorwärts zu kommen) durch, sondern kann durchaus gute von weniger guten Argumenten unterscheiden. Denn es gibt nicht nur die Alternative zwischen der absoluten Aufklärung auf der einen und der Blindheit auf der anderen Seite, sondern man kann auch, wenn man nicht alles sehr klar sieht, mit entsprechenden Vorkehrungen immer noch ganz gut seinen Weg finden.

Die entscheidende Frage, die wir uns stellen müssen, lautet deshalb, wie aus sozialwissenschaftlicher Perspektive explizite Qualitätskriterien für die Zuverlässigkeit der Datenerhebung, für die Repräsentativität der Datenauswahl und für die Gültigkeit der (generalisierten) Aussagen bestimmt und kanonisiert werden können, die jedoch nicht an den (zu Recht fragwürdigen) Idealen einer kontextfreien Sozialforschung orientiert sind, sondern z. B. auch das Wechselspiel von Forschern und Beforschten, Forschung und gesellschaftlicher Verwertung bzw. Anerkennung und auch die Besonderheiten der »social world« (Strauss 1991b, vgl. auch Strauss 1991a) der Wissenschaftler mit reflektieren.

Welche Bedeutung haben Gütestandards?

Angesichts einer solchen Aufgabenstellung kann man leicht mit großem Pessimismus reagieren, aber dieser Pessimismus wird erheblich verstärkt, wenn man sich auf der Suche nach Lösungen des Gültigkeitsproblems die herrschende Praxis qualitativer Forschungsarbeit, oder genauer: deren Beschreibung in Forschungsberichten ansieht. Denn ein etwas gründlicherer Überblick über die vielen Research-Reports qualitativer Forschung zeigt, dass die Anything-goes-Forschung längst Alltag qualitativen Arbeitens geworden ist: Daten werden oft zufällig eingesammelt, deren Besonderheit wird weder diskutiert noch berücksichtigt, Auswertungsverfahren werden oft ohne Rücksicht auf Gegenstand, Fragestellung und Daten fast beliebig ausgewählt (ad hoc) und aufgrund der Spezifik der Forschungssituation vor Ort reflexionsfrei modifiziert, Einzelfälle werden nicht selten ohne Angabe von Gründen zu Typen stilisiert, und immer wieder werden die Geltungskriterien für eine schillernde und kurzweilige Formulierung aufgegeben.

Dass die Lage so ist, wie sie ist, hat nur zum Teil etwas damit zu tun, dass der kämpferische Aufbruchdrang der Qualitativen, die sich ja stets im Besitz der besseren Methoden wähnten und deshalb auch stets an deren Verbesserung gearbeitet haben, angesichts ihres Erfolgs erheblich nachgelassen hat: Heute ist nicht ein zu wenig qualitativer Sozialforschung zu verzeichnen, sondern eher ein zu viel (des Unreflektierten) – es gibt nur noch sehr wenige Wirklichkeitsbereiche, die noch nicht von (manchmal auch dilettantischen) qualitativen Untersuchungen überzogen wurden. Aber diese Allgegenwart der qualitativen Forschung spricht nur auf den ersten Blick für deren Erfolg. Auch die landesweite Normalität qualitativer Methodenunterweisung innerhalb der sozialwissenschaftlichen Hochschulausbildung, deren Absegnung durch den Berufsverband der Soziologen und die Einrichtung einer eigenen Sektion »Qualitative Methoden« in der DGS (Deutsche Gesellschaft für Soziologe) erfolgt ist, sind hierfür lediglich Indizien.

Möglicherweise ist dieser Erfolg aber auch eine Ursache für die oft geringe Qualität qualitativer Arbeiten. Denn die sprunghafte und sehr schnelle Ausweitung der Methodenausbildung (noch vor der Entwicklung und Kanonisierung von Geltungskriterien) produziert nicht nur mehr gute Arbeiten, sondern naturgemäß noch mehr schlechte. Zudem findet allzu oft qualitative Forschung nur auf der Ebene selbst finanzierter Qualifikationsarbeiten innerhalb der Hochschulen statt. Hat sie sich jedoch den Ansprüchen von (wissenschaftlichen, politischen, privatwirtschaftlichen) Förderinstitutionen und deren Standards zu stellen, dann sind qualitative Forschungsanträge deutlich weniger erfolgreich – und das zunehmend.

Dies liegt nun nicht daran, dass die Verfahren der Gütesicherung bei den Qualitativen weniger hart sind als bei den Quantitativen (wenn auch die Ersten wegen der etwas jüngeren Forschungstradition gewiss noch mehr Reflexions- und Verbesserungsbedarf haben) – vorausgesetzt, man berücksichtigt bei der Anlage des Forschungsdesigns die Fragen der Gütesicherung (was vielleicht manche Qualitative noch nicht ernsthaft genug tun) und immer eingedenk des Sachverhaltes, dass die quantitative und qualitative Sozialforschung (die sich im Übrigen keineswegs ausschließen, sondern im Gegenteil: sie ergänzen einander gut) sich auf andere Gegenstandsbereiche und Fragestellungen beziehen. Zielt die erste nämlich vor allem auf die Bestimmung der mengenmäßigen Verteilung und Relation von geäußerten Meinungen und Handlungen innerhalb großer Grundgesamtheiten, so geht es der zweiten vor allem um die (Re-) Konstruktion der manifesten bzw. latenten Handlungsmotivierung sozialer Akteure (vgl. Lüders/Reichertz 1986). Schon allein deshalb, also weil strukturell verschiedene Gegenstände untersucht werden und weil der Anspruch der Ansätze sich so stark unterscheidet, können naturgemäß die Methoden der Gütesicherung bei qualitativer und quantitativer Forschung nicht identisch sein (vgl. Erzberger/Kelle 1998, Kelle 2008).

Auf dem Weg zu Gütestandards qualitativer Sozialforschung

Will man die Güte qualitativer Forschung im wissenschaftlichen Diskurs (aber vor allem auch im Diskurs mit potenziellen Bewertern) verteidigungsfähig machen (anregend hierfür: Steinke 1999; Flick 2007, 485 ff.; Reichertz 2006, Flick 2014, Przyborski/Wohlrab-Sahr 2014, 21 ff.; Reichertz 2013b), dann gelingt dies heute keinesfalls mehr durch die Berufung auf die Autorität verstorbener Säulenheiliger der Wissenschaft, auch nicht durch den empiriefreien Einsatz wissenschaftlicher Vernunft und ebenfalls nicht durch die Unterstellung persönlicher Hellsichtigkeit. Stattdessen lässt sich die Güte von Aussagen nur über empirische Forschung rechtfertigen und deren Güte wiederum über spezifische (nach Gesellschaft, Zeit und Fachgebiet variierende) Standards der Qualitätssicherung. Letztere werden sich jedoch dabei (zumindest im westlichen Wissenschaftsprogramm) auf die Fragen der Zuverlässigkeit und der Repräsentativität der Datenerhebung und auf die Gültigkeit der Generalisierung beziehen müssen – will man in dem Wettbewerb um ökonomisches Forschungskapital im Spiel bleiben.

Kann bei der Bewältigung dieser nicht einfachen Aufgabe die qualitative Forschung (im Allgemeinen) unter Zugrundelegung eines (unreflektierten) Realismus solche Verfahren favorisieren, die versprechen, näher an der Wirklichkeit zu sein, so kann dieses Kriterium innerhalb einer reflexiven Sozialforschung so nicht gelten – hat sie sich doch von der Möglichkeit der Wirklichkeitsansicht verabschiedet – allerdings verbunden mit der Hoffnung, empirische Forschung und wissenschaftlicher Diskurs produzierten, wenn schon keine guten, dann jedoch bessere Einsichten. Sozialforschung kann deshalb letztlich nur auf die systematische und organisierte Produktion von Zweifeln (in jeder Phase des Forschungsprozesses) und die dadurch erreichte Fehlerausmerzung vertrauen.

Für diesen Zweck hat sich die sozialwissenschaftliche Forschung (trotz der nicht allzu weit zurückreichenden Forschungstradition) durchaus sinnvolle und auch harte Gütekriterien erarbeitet.

• So sichert z.B. die Bevorzugung natürlicher Daten, also solcher Daten, die nicht erzeugt wurden, um von Wissenschaftlern untersucht zu werden, und deren Erhebung und Fixierung mit Medien, die möglichst viel von der Qualität der Daten und der ihnen inhärenten Zeitstruktur konservieren, die Zuverlässigkeit der Datenerhebung (Reichertz 2006). Die Vorrangstellung natürlicher Daten bedeutet nun keinesfalls, dass Interviews oder Feldprotokolle für die qualitative Sozialforschung wertlos sind, sondern sie weist darauf hin, dass solche Daten immer unter Berücksichtigung der interaktiven Einbettung analysiert werden müssen – außer man interessiert sich z. B. dafür, was Menschen in Interviews sagen.

• Die Repräsentativität des Datensamples wird in der Regel hinreichend durch das Theoretical Sampling (Glaser/Strauss 1974; Strauss/ Corbin 1996; Bryant/Charmaz 2010; Equit/ Hohage 2016) gesichert, also eine Methode, die entweder nach dem Verfahren des minimalen und maximalen Kontrasts oder theoriegeleitet solange Daten innerhalb des Untersuchungsfeldes sucht, bis alle relevanten Variablen erfasst sind. Das Sample ist dann komplett und damit auch repräsentativ, wenn durch die Aufnahme weiterer Daten die Ergebnisse nicht weiter angereichert werden können.

• Die Gültigkeit von Generalisierungen resultiert dabei einerseits aus der Überprüfung der aus den Daten (mittels Abduktion oder qualitativer Induktion) gewonnenen Hypothesen am weiteren Datenbestand mittels Sequenzanalyse (Oevermann 2000; Soeffner 2004; Reichertz 2007 und 2016). Einmal gefundene Lesarten werden dabei anhand des Datenmaterials sequenzanalytisch auf Stimmigkeit überprüft, was bedeutet, dass die jeweilige Lesart als zu testende Hypothese gilt. Findet sich im weiteren Datenmaterial eine Lesart, die mit der zu testenden Hypothese nicht vereinbar ist, gilt diese als widerlegt, finden sich jedoch nur passende Lesarten, dann gilt die zu testende Hypothese als vorläufig verifiziert (Validierung am Text).

• Neben dieser Validierung am Text stellt sich die Güte von Generalisierungen andererseits dadurch her, dass meist gemeinsam in Gruppen interpretiert wird (Reichertz 2013b), dass weitere Validierungen (1) durch Kontrollinterpretationen anderer Mitglieder der Forschergruppe und (2) den wissenschaftlichen Diskurs (auf Tagungen) herbeigeführt wird (Validierung durch Diskurs). Hierbei geht es um die systematische Kontrolle durch die Perspektivenvielfalt und zugleich um deren Einbeziehung (Flick 2014).

Absolute Gewissheit über die Validität von Generalisierungen ist jedoch auch so nicht zu erreichen. Wahrheit im strengen Sinne des Wortes findet sich auf diese Weise nicht. Was man allein auf diesem Wege erhält, ist eine intersubjektiv aufgebaute und geteilte Wahrheit.

Eine qualitativ verfahrende Datenanalyse, deren Validität sowohl durch den Datenbezug als auch durch konkurrierende Lesartenkonstruktionen und den wissenschaftlichen Diskurs gesichert werden soll, hat notwendigerweise zur Voraussetzung, dass mehrere ausgebildete Wissenschaftler das Material unabhängig von einander interpretieren und auch immer wieder ihre Ergebnisse einer wissenschaftlichen Kritik aussetzen. Die Sicherung der wissenschaftlichen Ressourcen, um eine solche Überprüfung von Lesarten, Hypothesen und theoretischen Verallgemeinerungen vorzunehmen, trägt dabei nicht unwesentlich zur Erhaltung selbstverständlicher Standards und wissenschaftlicher Anforderungen an die Validität von Untersuchungen bei – was bedeutet, dass die qualitative Forschung nicht weiter auf den Schultern von Einzelkämpfern ruhen darf, sondern die kooperative und konkurrierende Teamarbeit muss selbstverständlicher Standard werden.

Fazit

Nur wenn die Standards wissenschaftlicher Güteprüfung in der qualitativen Forschung fest etabliert und auch weiter ausdifferenziert werden, hat dieses Forschungsprogramm unter den aktuellen Bedingungen eine Chance, auf dem Markt zu bleiben und auch dort zu bestehen. Gelingt eine solche Ausarbeitung, Abwägung und Kanonisierung der Standards in absehbarer Zeit nicht, dann werden qualitative Studien zwar in den Medien ein gewisses Echo finden, aber ansonsten werden sie eine gute Chance haben, bedeutungslos zu werden: Der qualitativ ausgebildete Nachwuchs wird schwerer in einen Beruf finden, qualitative Projekte werden minimal oder gar nicht mehr finanziert werden – was schlussendlich zur Marginalisierung dieser Forschungstradition führen wird.

Qualitative Sozialforschung – egal welche spezifische Methode sie im Einzelnen favorisiert – wird nur dann überleben können, wenn es ihr gelingt, mit guten Gründen die bereits vorhandene Grundlagentheorie, Methodologie und Methode weiter aus zu buchstabieren. Sie wird dabei nicht daran vorbeikommen, sich eindringlicher als bisher mit Fragen der Gütesicherung der Forschungsarbeit auseinanderzusetzen – allerdings immer eingedenk der wissenssoziologischen Einsicht, dass alle Arten von Gütekriterien Ergebnis gesellschaftlicher Konstruktionsprozesse sind.

Literatur

Berger, Peter/Luckmann, Thomas (1977): Die gesellschaftliche Konstruktion der Wirklichkeit. Frankfurt a. M.

Bourdieu, Pierre/Wacquant, Loic (1996): Reflexive Anthropologie. Frankfurt a. M.

Bryant, Antony/Charmaz, Kathy (Hrsg.) (2010): The Sage Handbook of Grounded Theory. (Second Edition). Paperback. London.

Equit, Claudia/Hohage, Christoph (2016): Handbuch Grounded Theory. Wiesbaden.

Erzberger, Christian/Kelle, Udo (1998): Qualitativ vs. Quantitativ? In: Soziologie, Heft 3, S. 45–54.

Flick, Uwe (2004): Triangulation. Wiesbaden.

Flick, Uwe (2007): Qualitative Sozialforschung. Reinbek.

Flick, Uwe (2014): Gütekriterien qualitativer Forschung. In: Baur, Nina/Blasius, Jörg (Hrsg.): Handbuch Methoden der empirischen Sozialforschung. Wiesbaden, S. 411–424.

Garz, Detlev/Raven, Uwe (2015): Theorie der Lebenspraxis. Wiesbaden.

Geertz, Clifford (1987): Dichte Beschreibung. Frankfurt a. M.

Glaser, Barney/Strauss, Anselm (1974): The Discovery of Grounded Theory: Strategies for Qualitative Research. Chicago.

Kelle, Udo (2008): Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung: Theoretische Grundlagen und methodologische Konzepte. Wiesbaden.

Keller, Reiner/Knoblauch, Hubert/Reichertz, Jo (Hrsg.) (2012): Kommunikativer Konstruktivismus. Wiesbaden.

Lüders, Christian/Reichertz, Jo (1986): Wissenschaftliche Praxis ist, wenn alles funktioniert und keiner weiß warum – Bemerkungen zur Entwicklung qualitativer Sozialforschung. In: Sozialwissenschaftliche Literatur Rundschau, H. 12, S. 90–102.

Oevermann, Ulrich (2000): Die Methode der Fallrekonstruktion in der Grundlagenforschung sowie der klinischen und pädagogischen Praxis. In: Klaus Kraimer (Hrsg.): Die Fallrekonstruktion. Sinnverstehen in der sozialwissenschaftlichen Forschung. Frankfurt am Main, S. 58–156.

Oevermann, Ulrich/Allert, Tilman/Konau, Elisabeth/Krambeck, Jürgen (1979): Die Methodologie einer »objektiven Hermeneutik« und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In: Soeffner, Hans-Georg (Hrsg.): Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart, S. 352–434.

Peirce, Charles Sanders (1976): Schriften zum Pragmatismus und Pragmatizismus, herausgegeben von Karl-Otto Apel. Frankfurt a. M.

Przyborski, Aglaja /Wohlrab-Sahr, Monika (2014): Qualitative Sozialforschung. Ein Arbeitsbuch. München.

Reichertz, Jo (2006): Läßt sich die Plausibilität wissenssoziologischer Empirie selbst wieder plausibilisieren? In: Dirk Tänzler/Knoblauch, Hubert/Soeffner, Hans-Georg (Hrsg.): Neue Perspektiven der Wissenssoziologie. Konstanz. 293–316.

Reichertz, Jo (2007): Qualitative Sozialforschung – Ansprüche, Prämissen, Probleme. In: Erwägen – Wissen – Ethik 18 (2007) Heft 2, S. 195–208.

Reichertz, Jo (2013a): Die Abduktion in der qualitativen Sozialforschung. Opladen.

Reichertz, Jo (2013b): Gemeinsam interpretieren. Die Gruppeninterpretation als kommunikativer Prozess. Wiesbaden: Springer Verlag.

Reichertz, Jo (2016): Qualitative und interpretative Sozialforschung. Eine Einladung. Wiesbaden.

Soeffner, Hans-Georg (2004): Auslegung des Alltags – Der Alltag der Auslegung. Konstanz.

Steinke, Ines (1999): Kriterien qualitativer Forschung. Weinheim.

Strauss, Anselm (1991a): Grundlagen qualitativer Forschung. München.

Strauss, Anselm (1991b): Creating Sociological Awareness. New Brunswick.

Strauss, Anselm/Corbin, Juliette (1996): Grundlagen qualitativer Forschung. Weinheim.

Kohärenz und Validität

UWE FLICK

Die Frage der Qualität qualitativer (Medien-) Forschung wird hier für zwei Ansätze behandelt. Kohärenz meint dabei einerseits die Stimmigkeit der gefundenen Ergebnisse, andererseits die Stimmigkeit des gewählten Vorgehens und seiner Einzelschritte. Kohärenz wird zwar gelegentlich als Kriterium für die Qualität qualitativer Forschung diskutiert, hier aber eher im Sinne einer Strategie zur Steigerung dieser Qualität behandelt. Als konkrete Vorschläge zur Umsetzung werden hier die Klärung der Indikationsfrage für Methoden und Ansätze des Qualitätsmanagements skizziert. Validität ist eines der klassischen Gütekriterien standardisierter Forschung, das teilweise auf qualitative Forschung übertragen wird, teilweise mit Blick auf diese reformuliert wird. Auch hier schlagen verschiedene Autoren einen Wechsel zur Strategie der Geltungsbegründung – von der Validität zu Validierung – vor.

Zur Qualität qualitativer Forschung

Qualitative Forschung ist – nicht speziell im Bereich der Medienforschung, sondern generell – seit längerem mit der Frage konfrontiert, wie und wodurch die Qualität der Forschung, der Vorgehensweisen und Ergebnisse bestimmt werden soll. So wird versucht, einen Kriterienkatalog für qualitative Forschung zu entwickeln. Diese Kriterien sollen dann für qualitative Forschung insgesamt oder für einen bestimmten Ansatz im Spektrum qualitativer Forschung oder für eine konkrete Methode gelten. Es existieren mittlerweile eine ganze Reihe von Vorschlägen für solche Kriterien (vgl. Flick 2016, Kap. 28 und 29 für einen Überblick). Dabei sind vor allem zwei Probleme aufgetreten, die die Unterschiede zur Situation in der quantitativen Forschung deutlich machen: Keiner der Vorschläge ist bislang so allgemein akzeptiert wie die Kriterien Reliabilität, Validität und Objektivität in der quantitativen Forschung. Und die bislang vorliegenden Vorschläge für Kriterien beinhalten in der Regel keine Grenzwerte oder Markierungen zur Unterscheidung schlechter von guter Forschung. Bei der Reliabilitätsbestimmung in der quantitativen Forschung wird immer auch ein Grenzwert festgelegt, wie groß die Übereinstimmung zwischen wiederholt durchgeführten Messungen sein muss, damit diese noch als reliabel betrachtet werden können. Bei Kriterien wie Authentizität, die wiederholt für die qualitative Forschung vorgeschlagen wurden (Lincoln/ Guba 1985), lässt sich keine vergleichbare Grenzziehung vornehmen.

Andererseits wird deshalb die Frage der Qualitätsbestimmung qualitativer Forschung an bestimmten Strategien der Qualitätssicherung festgemacht. Hier sind verschiedene Ansätze zu nennen wie die Analytische Induktion, die Triangulation (vgl. Flick 2011; 2018) und Ähnliches. Kohärenz nimmt hier eine Zwischenstellung ein. Einerseits wird sie zu einem Kriterium vor einem konstruktivistischen Hintergrund (etwa bei Steinke 1999), andererseits lässt die Herstellung bzw. Erhöhung der Kohärenz im Forschungsprozess sich als eine Strategie der Qualitätssicherung bzw. -förderung im qualitativen Forschungsprozess beschreiben. Die Herstellung von Kohärenz im Forschungsprozess ist eine solche Strategie, die auf unterschiedliche Weise realisiert bzw. umgesetzt werden soll. Entsprechend werden im nächsten Schritt solche Strategien diskutiert, bevor auf Kriterien wie Validität und ihre Alternativen eingegangen wird.

Kohärenz qualitativer Forschung

Definition von Kohärenz

Kohärenz in der qualitativen Forschung kann sich auf verschiedene Aspekte beziehen: Einerseits kann im Rahmen einer Theoriebildung – etwa mit dem Ansatz der Grounded Theory von Glaser und Strauss (1979; → Lampert, S. 596 ff.) – die entwickelte Theorie an dem Anspruch gemessen werden, ein kohärentes Erklärungsmodell oder zumindest eine kohärente Beschreibung des untersuchten Phänomens zu liefern (vgl. hierzu Steinke 1999). Weiterhin kann in der Anwendung unterschiedlicher empirischer Zugänge – im Sinne der Triangulation (vgl. Flick 2011, 2017a; → Treumann, S. 264 ff.) – geprüft werden, ob sie ein kohärentes oder ein divergentes Bild des untersuchten Gegenstandes liefern. Schließlich kann unter einer Prozessperspektive auf den qualitativen Forschungsprozess analysiert werden, inwieweit die einzelnen Schritte und die darin angewendeten methodischen Zugänge ein kohärentes Bild ergeben. Konkreter ist damit gefragt, ob die gewählte Erhebungsmethode mit dem gewählten Sampling und der angewendeten Interpretationsmethoden für die erhobenen Daten zusammenpasst und schließlich die Form der Darstellung des Vorgehens und der Resultate dem angemessen ist.1

Ansätze zur Realisierung von Kohärenz

Indikation qualitativer Forschung(-sansätze): Hinsichtlich der Herstellung von Kohärenz im qualitativen Forschungsprozess ist zunächst die weitere Klärung der Indikationsfrage ein Desiderat – ähnlich wie dies in der Medizin und Psychotherapie für die Eignung von Behandlungsmethoden bei bestimmten Problemen und Personengruppen geklärt wird. Auf den hier behandelten Kontext übertragen ist damit die Frage gemeint, warum eigentlich bestimmte – und nicht andere – Methoden für die jeweilige Untersuchung verwendet wurden. Nicht nur in qualitativer Forschung, sondern in empirischer Forschung generell geben Lehrbücher kaum eine Hilfestellung für die Entscheidung, wann man sich für eine bestimmte Methode in einer Untersuchung entscheiden sollte. Die meisten dieser Bücher behandeln die einzelnen Methoden oder Forschungsdesigns separat, wenn sie ihre Eigenschaften und Probleme beschreiben. In den meisten Fällen gelangen sie nicht zu einer vergleichenden oder gegenüberstellenden Darstellung verschiedener methodischer Alternativen oder zur Formulierung von Ansatzpunkten dafür, wie eine spezielle (und nicht eine andere) Methode für einen Forschungsgegenstand ausgewählt werden sollte. Entsprechend ist für die qualitative Forschung die weitere Klärung der Frage der Indikation eine Notwendigkeit. In Medizin oder Psychotherapie wird die Angemessenheit einer spezifischen Behandlung für bestimmte Probleme und Patientengruppen – die Indikation (der Behandlung) – geprüft. Die Antwort auf diese Frage lautet, ob eine spezifische Behandlung im konkreten Fall angemessen (indiziert) für ein bestimmtes Problem ist oder nicht. Überträgt man diese Prüfung auf qualitative Forschung, heißen die relevanten Fragen: Wann sind welche qualitativen Methoden angemessen – für welchen Gegenstand? Für welche Fragestellung? Für welche Untersuchungsgruppe (Population) oder welches Untersuchungsfeld etc.? Wann sind quantitative Methoden oder eine Kombination von quantitativen und qualitativen Methoden indiziert (vgl. Abb. 1)?

Die Beantwortung dieser Fragen soll einer einseitigen Festlegung auf bestimmte qualitative Methoden (die man schon immer angewendet hat) vermeiden helfen. Ein zweiter Weg der Förderung der Konsistenz im Forschungsprozess soll hier kurz vorgestellt werden.

Qualitätsmanagement in der qualitativen Forschung: Anregend für die Weiterentwicklung von Qualitätskriterien zur Beurteilung der Daten der qualitativen Forschung (→ Reichertz, S. 571 ff.) und ihrer Interpretation kann die Diskussion zum Qualitätsmanagement (Kamiske/Brauer 1995) im Bereich der industriellen Produktion, Dienstleistungen oder im Gesundheitswesen sein. Dieser Ansatz lässt sich auf die medienwissenschaftliche Forschung übertragen, um eine Diskussion über Qualität in der Forschung voranzutreiben. Über das Konzept des Auditings ergeben sich bereits erste Anknüpfungspunkte. So wird für die Überprüfung der Verlässlichkeit qualitativer Daten von Lincoln/Guba (1985) ein Prozess des »Auditings« vorgeschlagen, der am Vorgang der Buchprüfung im Finanzwesen orientiert ist. Dafür wird ein »Überprüfungspfad« (»auditing trail«) skizziert: Ein Auditing Trail erfasst

image

• die Rohdaten, ihre Erhebung und Aufzeichnung;

• Datenreduktion und Ergebnisse von Synthesen durch Zusammenfassung, theoretische Notizen, Memos etc., Summarys, Kurzdarstellungen von Fällen etc.;

• Datenrekonstruktionen und Ergebnisse von Synthesen anhand der Struktur entwickelter und verwendeter Kategorien (Themen, Definitionen, Beziehungen), Erkenntnisse (Interpretationen und Schlüsse) sowie die erstellten Berichte mit ihren Integrationen von Konzepten und den Bezügen zu existierender Literatur;

• Prozessnotizen, d. h. methodologische Notizen und Entscheidungen auch hinsichtlich der Herstellung von Vertrauens- und Glaubwürdigkeit der Erkenntnisse;

• Materialien in Bezug auf Absichten und Anordnungen wie die Forschungskonzeption, persönliche Aufzeichnungen und Erwartungen der Beteiligten;

• Informationen über die Entwicklung der Instrumente einschließlich der Pilotversionen und vorläufigen Pläne (vgl. Lincoln/Guba 1985, S. 320 f.).

Damit ist bereits die Prozessperspektive angelegt, die alle relevanten Schritte des Forschungsprozesses umfasst, der zu den Daten und ihrer Interpretation geführt hat. Im Kontext des Qualitätsmanagements ist ein Audit »die systematische, unabhängige Untersuchung einer Aktivität und deren Ergebnisse, durch die Vorhandensein und sachgerechte Anwendung spezifizierter Anforderungen beurteilt und dokumentiert werden« (Kamiske/Brauer 1995, S. 5). Insbesondere das »Verfahrensaudit« ist für die Forschung interessant. Ein Verfahrensaudit soll sicherstellen, »dass die vorgegebenen Anforderungen eingehalten werden und für die jeweilige Anwendung zweckmäßig sind. […] Vorrang hat immer das nachhaltige Abstellen von Fehlerursachen, nicht die einfache Fehleraufdeckung« (ebd., S. 8). Solche Qualitätsbestimmungen werden nicht abstrakt – etwa an bestimmten Methoden per se – vorgenommen, sondern mit Blick auf die Kundenorientierung und die Mitarbeiterorientierung (ebd., S. 95 f., S. 110 f.). Dabei ergibt sich die Frage, wer eigentlich die Kunden medienwissenschaftlicher Forschung sind. Im Qualitätsmanagement wird zwischen internen und externen Kunden unterschieden. Während Letztere die Abnehmer des jeweiligen Produktes sind, gehören zu den Ersteren die Beteiligten an der Herstellung im weiteren Sinn (z. B. Mitarbeiter anderer Abteilungen). Für die Forschung lässt sich diese Unterteilung übersetzen in diejenigen, für die das Ergebnis nach außen produziert wird (Auftraggeber, Gutachter etc. als externe Kunden), und diejenigen, für die und an denen das jeweilige Ergebnis zu erzielen gesucht wird (Interviewpartner, untersuchte Institutionen etc. als interne Kunden). Zur Überprüfung lassen sich beide Aspekte explizit analysieren: Inwieweit ist die Untersuchung so verlaufen, dass sie die Fragestellung beantwortet (externe Kundenorientierung) und den Perspektiven der Beteiligten ausreichend Raum lässt (interne Kundenorientierung)?

Die Mitarbeiterorientierung will berücksichtigen, dass »Qualität unter Anwendung geeigneter Techniken, aber auf der Basis einer entsprechenden Geisteshaltung entsteht«, wobei die »Übertragung von (Qualitäts-) Verantwortung auf die Mitarbeiter durch die Einführung von Selbstprüfung anstelle von Fremdkontrolle« (ebd., S. 110 f.) ein weiterer Ansatzpunkt ist. Entsprechend bezeichnet Qualitätsmanagement »Tätigkeiten […], die die Qualitätspolitik, die Ziele und Verantwortlichkeiten festlegen sowie diese durch Mittel wie Qualitätsplanung, Qualitätslenkung, Qualitätssicherung/Qualitätsmanagement-Darlegung und Qualitätsverbesserung verwirklichen« (ISO 1994; zit. nach Kamiske/Brauer 1995, S. 149).

Qualität im qualitativen Forschungsprozess (→ Reichertz, S. 27 ff.; Flick 2018b) wird sich nur realisieren lassen, wenn sie mit den beteiligten Forschern gemeinsam hergestellt und überprüft wird. Zunächst wird gemeinsam festgelegt, was eigentlich unter Qualität in diesem Zusammenhang zu verstehen ist und verstanden wird:

• eine möglichst klare Festlegung der zu erreichenden Ziele und einzuhaltenden Standards des Projekts; daran müssen alle Forscher und Mitarbeiter beteiligt werden;

• eine Festlegung, wie diese Ziele und Standards und allgemeiner die angestrebte Qualität zu erreichen sind; damit sind eine Einigung über die Weise der Anwendung bestimmter Methoden und ihre Umsetzung, etwa durch gemeinsame Interviewtrainings und deren Auswertung, Voraussetzungen für Qualität im Forschungsprozess;

• die klare Festlegung der Verantwortlichkeiten für die Herstellung von Qualität im Forschungsprozess und

• die Transparenz der Beurteilung und Sicherstellung der Qualität im Prozess.

Dabei sind die Bestimmung, was Qualität ist, deren Herstellung und Sicherstellung im Prozess und die Erfahrung, dass Qualität sich nur in der Kombination von Methoden und einer entsprechenden Haltung realisieren lässt, Anknüpfungspunkte zur Diskussion um Qualitätsmanagement in der medienwissenschaftlichen Forschung. Im Unterschied zu anderen Ansätzen der Qualitätsprüfung in der qualitativen Forschung wird beim Qualitätsmanagement zunächst mit allen Beteiligten geklärt, was unter Qualität verstanden wird, welche Qualitätsziele sich daraus ableiten lassen und wie diese im Einzelnen zu erreichen sind. Hier wird der Gedanke, Forschungsqualität ließe sich allgemein, abstrakt und von außen bestimmen, zu Gunsten einer gemeinsamen Klärung des Qualitätskonzeptes und seiner Umsetzung aufgegeben (vgl. hierzu ausführlicher Flick 2016, Kap. 29; → Reichertz, S. 27 ff.).

Validität qualitativer Forschung

Validität (vgl. Kvale 1995) wird für die qualitative Forschung häufig diskutiert. Die Frage der Validität lässt sich auch darin zusammenfassen, ob »der Forscher sieht, was er […] zu sehen meint« (Kirk/Miller 1986, S. 21). Bei der Übertragung und unmittelbaren Anwendung klassischer Validitätskonzeptionen in der qualitativen Forschung ergeben sich verschiedene Probleme. Die interne Validität soll z. B. erhöht bzw. sichergestellt werden, indem man ausschließt, dass andere als die in der Untersuchungshypothese enthaltenen Variablen den beobachteten Zusammenhang bestimmen (z. B. Bortz/Döring 2001, S. 53). In diesem Verständnis liegen bereits die Probleme bei der Übertragung auf qualitative Forschung begründet: Die interne Validität soll durch eine möglichst umfassende Kontrolle der Kontextbedingungen in der Untersuchung erhöht werden. Dazu dient die weitgehende Standardisierung der Erhebungs- bzw. Auswertungssituation. Der dafür notwendige Grad an Standardisierung ist jedoch mit dem größten Teil der gängigen qualitativen Methoden nicht kompatibel bzw. stellt ihre eigentlichen Stärken in Frage. Ähnlich lässt sich für die anderen Formen der Validität aufzeigen, warum sie nicht direkt auf qualitative Forschung übertragen werden können (vgl. hierzu Steinke 1999).

Insgesamt betrachtet wird der Anspruch formuliert, qualitative Forschung müsse sich zumindest den Fragen stellen, die mit Konzepten wie Reliabilität und Validität (z. B. bei Morse 1999, S. 717) oder Objektivität (Madill u. a. 2000) verknüpft sind (vgl. hierzu Flick 2018b). In der Umsetzung überwiegt jedoch die Modifikation oder Reformulierung der Konzepte.2 Generell stellt sich bei der Übertragung der klassischen Kriterien quantitativer Forschung das Problem, dass deren Umsetzung dort wesentlich auf der Standardisierung (des Vorgehens, der Methoden und ihrer Anwendung) beruht, was sich auf qualitative (bzw. nicht-standardisierte) Forschung aufgrund ihres expliziten Verzichts auf Standardisierung nicht übertragen lässt.

Reformulierung der Validität

Daher wird Validität in verschiedener Hinsicht neu gefasst. Legewie (1987) schlägt eine spezifische Validierung der Interviewsituation (zur Methode des Interviews → Keuneke, S. 302 ff.) ausgehend von den verschiedenen Geltungsansprüchen in Habermas’ »Theorie des kommunikativen Handelns« (1981) vor. Demnach sind als Geltungsansprüche, die ein Sprecher im Interview erhebt, zu differenzieren (und damit differenziert zu überprüfen), »(a) dass der Inhalt des Gesagten zutrifft […]; (b) dass das Gesagte in seinem Beziehungsaspekt sozial angemessen ist […]; (c) dass das Gesagte in seinem Selbstdarstellungsaspekt aufrichtig ist.« Ansatzpunkt für die Validierung biographischer Äußerungen ist die Untersuchung der Interviewsituation daraufhin, inwieweit »die Voraussetzungen nicht-strategischer Kommunikation« gegeben waren und »Ziele und Besonderheiten des Interviews […] in Form eines mehr oder weniger expliziten […] ›Arbeitsbündnisses‹ […] ausgehandelt werden« (Legewie 1987, S. 145 ff.).

Zur zentralen Frage wird hier, ob Interviewpartner in der Interviewsituation einen Anlass hatten, bewusst oder unbewusst eine spezifische, d. h. verfälschende Version ihrer Erfahrungen zu konstruieren, die sich nicht (oder nur begrenzt) mit ihren Sichtweisen bzw. dem erzählten Geschehen deckt. Die Interviewsituation wird nach Hinweisen für solche Verzerrungen untersucht. Dies soll Anhaltspunkte dafür liefern, welche systematischen Verzerrungen oder Täuschungen Bestandteil des aus dem Interview entstandenen Textes sind und inwieweit und wie genau diese bei der Interpretation zu berücksichtigen sind. Dieser prüfende Ansatz des Forschers lässt sich durch die Einbeziehung der Interviewpartner weiter ausbauen.

Kommunikative Validierung in einem zweiten Termin nach Abschluss des Interviews und der Transkription (→ Ayaß, S. 421 ff.) ist hier ein entsprechender Ansatz (vgl. Scheele/Groeben 1988). Gelegentlich wird die kommunikative Validierung auch in Bezug auf die Ergebnisse der Interpretation von Texten bzw. Daten diskutiert (vgl. Heinze 1987). Aufgrund der bei der Konfrontation mit Interpretationen auftretenden ethischen Probleme (vgl. hierzu Köckeis-Stangl 1982) hat dieses Verständnis kommunikativer Validierung an Bedeutung verloren. Baumeler (2003) greift diese Verwendungsweise der kommunikativen Validierung im Kontext einer ethnographischen Studie wieder auf und demonstriert die Probleme, die sich dabei ergeben. Vor einer allgemeineren Anwendung solcher Strategien sollten Antworten auf zwei Fragen gesucht werden:

1) Wie sollte das methodische Vorgehen bei der kommunikativen Validierung gestaltet werden, damit es den untersuchten Sachverhalten und der Sicht der Subjekte tatsächlich gerecht wird?

2) Wie lässt sich die Frage der Geltungsbegründung jenseits der Zustimmung der Subjekte weitergehend beantworten? Hierzu sind andere Qualitätsprüfungen notwendig, die eine kommunikative Validierung ergänzen (vgl. als Überblick Flick 1987 und 2010).

Mit dem Konzept der Prozeduralen Validierung in der Reformulierung des Konzepts der Validität geht Mishler (1990) einen Schritt weiter. Sein Vorschlag fokussiert den Prozess der Validierung und nicht den Zustand der Validität. Mishler definiert Validierung als »soziale Konstruktion von Wissen« (1990, S. 417), durch die wir »Behauptungen über die ›Vertrauenswürdigkeit‹ berichteter Beobachtungen, Interpretationen und Verallgemeinerungen aufstellen und diese bewerten« (ebd., S. 419). Schließlich lassen sich durch »Validierung, verstanden als der soziale Diskurs, durch den Vertrauenswürdigkeit hergestellt wird, solche vertrauten Konventionen wie Reliabilität, Falsifikation und Objektivität« umgehen. Als empirische Basis für diesen Diskurs und die Konstruktion von Vertrauenswürdigkeit erörtert Mishler die Verwendung von Beispielen aus narrativen Studien.

Wolcott (1990, S. 127 f.) formuliert für den Prozess ethnographischer Forschung neun Punkte, deren Realisierung der Sicherung von Validität dienen sollen:

(1) Der Forscher soll im Feld weniger selbst reden, sondern möglichst viel zuhören. Er soll (2) möglichst genaue Aufzeichnungen erstellen und (3) frühzeitig zu schreiben beginnen, und zwar (4) in einer Form, die es dem Leser seiner Aufzeichnungen und Berichte ermöglicht, selbst zu sehen, d. h. soviel an Daten mitzuliefern, dass Leser ihre eigenen Schlüsse ziehen und die des Forschers nachvollziehen können. Der Bericht soll möglichst (5) vollständig und (6) offen sein. Der Forscher soll im Feld oder bei seinen Kollegen (7) Feedback zu seinen Ergebnissen und Darstellungen suchen. Darstellungen sollen eine Balance (8) zwischen den verschiedenen Aspekten aufweisen und (9) durch Genauigkeit im Schreiben gekennzeichnet sein.

Diese Schritte zur Sicherstellung der Validität im Forschungsprozess lassen sich einerseits als Versuch des sensiblen Agierens im Feld und andererseits als Verlagerung des Problems der Validität in der Forschung in den Bereich des Schreibens über Forschung sehen.

Altheide und Johnson (2011, S. 586 f.) formulieren das Konzept der »Validität-als-reflexive-Erklärung«. Darin setzen sie die Forscher, den Gegenstand und den Prozess der Sinnfindung in Beziehung und machen Validität am Prozess der Forschung und den verschiedenen Beziehungen fest:

1) der Beziehung zwischen dem, was beobachtet wird (Verhaltensweisen, Rituale, Bedeutungen), und den größeren kulturellen, historischen und organisatorischen Kontexten, innerhalb derer die Beobachtungen durchgeführt werden (die Materie);

2) den Beziehungen zwischen dem Beobachter, dem bzw. den Beobachteten und dem Setting (der Beobachter);

3) der Frage der Perspektive oder der Sichtweise, ob diejenige des Beobachters oder die der Mitglieder des Feldes verwendet werden, um eine Interpretation der ethnographischen Daten anzufertigen (die Interpretation);

4) der Rolle des Lesers im Endprodukt (die Leserschaft);

5) der Frage des darstellenden rhetorischen oder schriftstellerischen Stiles, der von dem oder den Autoren verwendet wird, um eine Beschreibung und/oder Interpretation anzufertigen (der Stil) (ebd., S. 586 f.).

Validierung wird hier unter der Perspektive des gesamten Forschungsprozesses und der beteiligten Faktoren behandelt. Die Vorschläge bleiben dabei jedoch eher auf der Ebene der Programmatik, als dass konkrete Kriterien oder Anhaltspunkte formuliert werden, anhand derer sich einzelne Studien oder Bestandteile davon beurteilen lassen. Versuche, Validität und Validierung in der qualitativen Forschung zu verwenden oder zu reformulieren, haben insgesamt betrachtet mit verschiedenen Problemen zu kämpfen: Formale Analysen des Zustandekommens von Daten in der Interviewsituation beispielsweise können noch nichts über Inhalte und ihre angemessene Behandlung im weiteren Verlauf der Forschung aussagen. Das Konzept der kommunikativen Validierung (oder auch: Member Checks; vgl. Lincoln/Guba 1985) ist mit dem Problem konfrontiert, dass die Zustimmung dort als Kriterium schwierig ist, wo die Sicht des Subjekts systematisch überschritten wird – in Interpretationen, die ins soziale oder psychische Unbewusste vordringen wollen oder sich gerade aus der Unterschiedlichkeit verschiedener subjektiver Sichtweisen ableiten. Entsprechend gab es hierzu eine heftige Kritik an solchen Ansätzen seitens der Vertreter der Objektiven Hermeneutik (→ Hagedorn, S. 580 ff.). Insgesamt betrachtet zeichnen sich die behandelten Reformulierungen des Validitätskonzepts durch eine gewisse Unschärfe aus. Sie bieten der Forschungspraxis durch ihre generelle Problematisierung und Programmatik nicht unbedingt eine Lösung für die Frage der Geltungsbegründung an. Als gemeinsame Tendenz bleibt jedoch eine Verlagerung von Validität zur Validierung und von der Beurteilung des einzelnen Schritts oder Bestandteils der Forschung zur Herstellung von Transparenz über den Forschungsprozess festzuhalten.

Schließlich wird die Anwendung klassischer Kriterien auf qualitative Forschung in Frage gestellt, da »das Wirklichkeitsverständnis« beider Forschungsrichtungen dafür »zu unterschiedlich« (Lüders/Reichertz 1986, S. 97) sei. Ähnliche Vorbehalte formulieren schon Glaser und Strauss (1979, S. 92).

Sie »bezweifeln, ob der Kanon quantitativer Sozialforschung als Kriterium […] auf qualitative Forschung […] anwendbar ist. Die Beurteilungskriterien sollten vielmehr auf einer Einschätzung der allgemeinen Merkmale qualitativer Sozialforschung beruhen – der Art der Datensammlung […], der Analyse und Darstellung und der […] Weise, in der qualitative Analysen gelesen werden.«

Big Tent Kriterien

Aktueller schlägt Tracy (2010) acht »Big Tent« Kriterien vor. Mit diesem Begriff bezeichnet sie, dass die Kriterien sich nicht auf einen einzelnen Schritt im Forschungsprozess beziehen. In einer Validitätsprüfung in der quantitativen Forschung wird die Gültigkeit der Messung geprüft. Andere Aspekte, werden eher außer Acht gelassen, etwa ob in der jeweiligen Studie überhaupt ein relevantes Problem (vgl. Charmaz 2014, die dies als Kriterium für Grounded Theory Forschung formuliert) untersucht wird. Tracy bezieht solche Aspekte ebenfalls mit ein und definiert ihre Kriterien wie folgt:

»[…] high quality qualitative methodological research is marked by (a) worthy topic, (b) rich rigor, (c) sincerity, (d) credibility, (e) resonance, (f) significant contribution, (g) ethics, and (h) meaningful coherence« (2010, S. 839). Dabei beschreibt sie alle Kriterien detaillierter. Bspw. bezeichnet »Worthy topic«: »The topic of the research is relevant; timely; significant; interesting«. »Rich rigor« bezieht sich auf Folgendes: »The study uses sufficient, abundant, appropriate, and complex theoretical constructs; data and time in the field; sample(s); context(s); data collection and analysis processes« (2010, S. 840; S. 841).

Im Kriterium »credibility« sind Strategien wie Triangulation, member checks und der Umgang mit abweichenden Fällen (hier unter dem Stichwort ›multivocality‹ diskutiert) zusammengefasst (2010, S. 844). Tracys Vorschläge sind aber ebenfalls mit dem Problem konfrontiert, das den Ansatz von Lincoln und Guba (1985) betrifft: Es lassen sich keine Grenzen (oder Grenzwerte) definieren, wieviel »worth«, »rigor«, »credibility« oder »sincerity« gegeben sein sollten, damit eine Studie diese Kriterien erfüllt. Ihre Kriterien sind allerdings Orientierungspunkte für eine Bestimmung der Qualität in der qualitativen Forschung.

Fazit

Es sollte deutlich geworden sein, dass die Fragen der Qualität, Qualitätssicherung und -förderung in der qualitativen Forschung noch nicht hinreichend beantwortet sind, auch wenn die Sensibilität für diese Themen in den letzten Jahren deutlich gewachsen ist. Die Antwort wird zwischen der Formulierung von Kriterien und der Entwicklung von Strategien gesucht. Sowohl Kohärenz als auch Validität werden in diesem Zusammenhang als mögliche Kriterien diskutiert (etwa bei Steinke 1999), gleichzeitig aber auch als Ausgangspunkt für die Formulierung von Strategien der Geltungsbegründung genommen. Im einen Fall lässt sich durch die Beantwortung der Indikationsfrage und durch die Anwendung von Strategien des Qualitätsmanagements (→ Reichertz, S. 27 ff.) ein Beitrag zur Kohärenz qualitativer Forschung leisten. Im anderen Fall wird der Akzent von der Validität zur Validierung verlegt, wobei ebenfalls eher der gesamte Forschungsprozess als der einzelne, einer Validitätsprüfung zu unterziehende Schritt (etwa die Durchführung eines Interviews) in den Blick gerät.

Anmerkungen

Für eine auf diese Form der Kohärenz abzielende Darstellung qualitativer Methoden und Schritte des Forschungsprozesses vgl. Flick 2016.

Für eine ausführliche Auseinandersetzung mit der Frage, ob die klassischen Kriterien auf qualitative Forschung übertragbar sind bzw. warum nicht vgl. Steinke 1999.

Literatur

Altheide David L./Johnson John M (1998): Reflections on interpretive adequacy in qualitative research. In: Denzin, Norman/Lincoln, Yvonna S. (Hrsg.): Handbook of Qualitative Research (4th edn). Thousand Oaks, CA. S. 581–594i.

Baumeler, Carmen (2003): Dissens in der kommunikativen Validierung – Eine Absage an die Güte wissenschaftlicher Forschung? In: Sozialer Sinn, 2, S. 313–329.

Bortz, Jürgen/Döring, Nicola (2001): Forschungsmethoden und Evaluation für Sozialwissenschaftler, 3. Auflage. Berlin u. a.

Charmaz, Kathy (2014): Constructing Grounded Theory: A Practical Guide Through Qualitative Analysis (2nd edn). Thousand Oaks, CA.

Flick Uwe (1987): Methodenangemessene Gütekriterien in der qualitativ-interpretativen Forschung. In: Bergold, Jarg B./Flick, Uwe (Hrsg.): Ein-Sichten. Zugänge zur Sicht des Subjekts mittels qualitativer Forschung. Tübingen, S. 246–263.

Flick, Uwe (2010): Gütekriterien qualitativer Forschung. In: Mey, Günter/Mruck, Katja (Hrsg.) Handbuch Qualitative Forschung in der Psychologie. Wiesbaden, S. 391–403.

Flick, Uwe (2011): Triangulation – Eine Einführung, 3. Auflage. Wiesbaden.

Flick, Uwe (2016): Qualitative Sozialforschung – Eine Einführung. Völlig überarbeitete Neuauflage Reinbek.

Flick, Uwe (2018a): Triangulation. In: Denzin, Norman/Lincoln, Yvonna S. (Hrsg.): Handbook of Qualitative Research (5th edn). Thousand Oaks, CA, S. 444–461.

Flick, Uwe (2018b): Managing the Quality of Qualitative Research. London/ Thousand Oaks, CA.

Glaser, Barney G./Strauss, Anselm L. (1979): Die Entdeckung gegenstandsbegründeter Theorie: Eine Grundstrategie qualitativer Forschung. In: Hopf, Christel/Weingarten, Elmar (Hrsg.): Qualitative Sozialforschung. Stuttgart, S. 91–112.

Habermas, Jürgen (1981): Theorie des kommunikativen Handelns (2 Bd.). Frankfurt a. M.

Heinze, Thomas (1987): Qualitative Sozialforschung. Opladen.

Kamiske, Gerhard F./Brauer Jan P. (1995): Qualitätsmanagement von A bis Z – Erläuterungen moderner Begriffe des Qualitätsmanagements, 2. Auflage. München.

Kirk, Jerome/Miller, Marc L. (1986): Reliability and Validity in Qualitative Research. Beverley Hills.

Köckeis-Stangl, Eva (1982): Methoden der Sozialisationsforschung. In: Hurrelmann, Klaus/Ulich, Dieter (Hrsg.): Handbuch der Sozialisationsforschung. Weinheim, S. 321–370.

Kvale, Steinar (1995): Validierung: Von der Beobachtung zu Kommunikation und Handeln. In: Flick, Uwe/Kardorff, Ernst von/Keupp, Heiner/Rosenstiel, Lutz von/Wolff, Stephan (Hrsg.): Handbuch Qualitative Sozialforschung, 2. Auflage. München, S. 427–432.

Legewie, Heiner (1987): Interpretation und Validierung biographischer Interviews. In: Jüttemann Gerd/Thomae, Hans (Hrsg.): Biographie und Psychologie. Berlin, S. 138–150.

Lincoln, Yvonna S./Guba, Egon G. (1985): Naturalistic Inquiry. London/Thousand Oaks/New Delhi.

Lüders, Christian/Reichertz, Jo (1986): Wissenschaftliche Praxis ist, wenn alles funktioniert und keiner weiß warum. Bemerkungen zur Entwicklung qualitativer Sozialforschung. In: Sozialwissenschaftliche Literaturrundschau, 12, S. 90–102.

Madill Anna/Jordan, Abbie/Shirley, Caroline (2000): Objectivity and Reliability in Qualitative Analysis: Realist, Contextualist and Radical Constructionist Epistemologies. In: British Journal of Psychology, 91, S. 1–20.

Mishler, Elliot G. (1990): Validation in Inquiry-Guided Research: The Role of Exemplars in Narrative Studies. In: Harvard Educational Review, 60, S. 415–442.

Morse, Janice M. (1999): Myth #93: Reliability and Validity are not Relevant for Qualitative Inquiry – Editorial. In: Qualitative Health Research, 9, S. 717–718.

Scheele, Brigitte/Groeben, Norbert (1988): Dialog-Konsens-Methoden zur Rekonstruktion Subjektiver Theorien. Tübingen.

Steinke, Ines (1999): Kriterien qualitativer Forschung. Ansätze zur Bewertung qualitativ-empirischer Sozialforschung. Weinheim/München.

Tracy, Sarah J. (2010): Qualitative Quality: Eight, »Big-Tent« Criteria for Excellent Qualitative Research. In: Qualitative Inquiry 16, S. 837–851.

Wolcott, Harold F. (1990): On Seeking – and Rejecting – Validity in Qualitative Research. In: Eisner, Elliot W./Peshkin, Alan (Hrsg.): Qualitative Inquiry in Education. The Continuing Debate. New York, S. 121–152.

Forschungsethik und Datenschutz

MATTHIAS RATH

»Forschungsethik« ist ein unklar verwendeter Begriff. Häufig bezeichnet er nur die kollektiv vereinbarten Wertannahmen einer Wissenschaft, die sich zwar konsensuell auf diese Regulierungen geeinigt hat, diese aber selbst nicht normativ begründen kann. Der Beitrag verweist auf die Notwendigkeit, Kriterien und Prinzipien der Forschungsethik im Sinne der philosophischen Ethik durch eine philosophische oder informierte Reflexion einzuholen, bestimmt die Medienforschung als Objekt einer solchen Forschungsethik, beschreibt dann die maßgebenden forschungsethischen Probleme der Medienforschung (informed consent, Auftragsforschung, politische Instrumentalisierung von Forschungsergebnissen) und differenziert abschließend zwischen den rechtlich obligatorischen Regelungen des Datenschutzes und den diesen voraus liegenden ethischen Fragestellungen.

1. Zum Begriff einer »Forschungsethik«

Die Bedeutung von »Forschungsethik« für Sozialwissenschaften, also auch die qualitative Medienforschung, ist häufig unklar. Definitionsversuche, wie die von Hopf (2016, S. 195)

»Prinzipien und Regeln […] in denen mehr oder minder verbindlich und mehr oder minder konsensuell bestimmt wird, in welcher Weise die Beziehungen zwischen den Forschenden auf der einen Seite und den in sozialwissenschaftliche Untersuchungen einbezogenen Personen auf der anderen Seite zu gestalten sind«, machen das Dilemma deutlich, das eine normative Reflexion auf forschendes Handeln für eine sich empirisch verstehende Forschung darstellt. Was hier (und in vergleichbarer Weise auch von anderen Autoren) als »Ethik« vorgestellt wird, ist zunächst einmal nur ein Regelkanon, der entweder »verbindlich« (juristisch) oder »konsensuell« bestimmt ist. Im Fall konsensueller Vereinbarungen haben ständische Vertretungen oder fachwissenschaftliche Verbände Standards des forschenden Handelns durch Mehrheitsentscheid für die jeweilige Profession oder Wissenschaft als verbindliche Prinzipien der Forschung festgelegt. Es handelt sich also um eine gruppenspezifisches Norm- oder Wertüberzeugung, die man auch als Gruppenmoral bezeichnen kann (vgl. Rath 2014, S. 38). Hammersley und Traianou (2011, S. 380) warnen in diesem Zusammenhang berechtigterweise vor einem »moralism«, der forschungsunabhängige Wertvorstellungen dem Forschungsprozess zuweise und/oder Forschende normativ überfordere. Aber für die Frage nach den anwendbaren und zu berücksichtigenden Werten können sie ebenfalls keine Hinweise geben, wie diese jenseits konsensueller Übereinkunft festzulegen wären. Denn die faktische Geltung dieser Regelungen, die in Gesetzestexten, dem Standesrecht oder den Kodizes für eine »gute wissenschaftliche Praxis« (vgl. z. B. DFG 2013) festgelegt ist, wird von den jeweiligen deskriptiven Disziplinen nicht selbst geleistet. Für die Findung und Kodifizierung geltender Regelungen sind außerwissenschaftliche Verfahren mit eigenen Präferenzen, z. B. politischen, weltanschaulichen oder ökonomischen Vorannahmen, maßgebend. Diese Regelungen gehören selbst nicht zum wissenschaftlichen Objekt der Disziplinen noch verfügen diese über wissenschaftliche Verfahren, um diese Regelungen über die faktische Geltung hinaus zu plausibilisieren (vgl. Rath 2006). Insofern muss man zwischen der normativen Institutionalisierung und einer im eigentlichen Sinne Normativität begründenden Disziplin wie der Ethik unterscheiden (vgl. Stapf 2006). Die Bezeichnung »Forschungsethik« ist daher irreführend.

Von dieser Geltung, die außerwissenschaftlich festgelegt werden muss, ist daher die Frage zu unterscheiden, ob solche Handlungsorientierung auch allgemeine Gültigkeit beanspruchen darf. Diese Frage ist das Thema der philosophischen Ethik, die als »Theorie rational eingeholter Normativität« (vgl. Rath 2016) die kritische Analyse und ggf. argumentative Plausibilisierung von Norm- und Wertüberzeugungen zu leisten vermag. »Forschungsethik« meint daher in einem wohlverstandenen Sinne die philosophische oder philosophisch informierte Reflexion auf Begründungsmuster oder die Frage, ob die konsensuell gesetzten Handlungspräferenzen über den faktischen Konsens hinaus auch eine argumentative Verallgemeinerung zulassen. In diesem Sinne ist Forschungsethik eine Teildisziplin der allgemeinen Ethik oder der das Forschungsfeld der jeweiligen Einzelwissenschaft betreffenden angewandten Ethik, für den Bereich der Medienforschung die Medienethik (vgl. Köberer 2015).

Hier können Ethik als wissenschaftliche Disziplin und das Kooperationsfeld von Medienforschung und Medienethik (vgl. Karmasin et al. 2013) nicht explizit dargestellt werden. Im Folgenden geht es daher primär um Medienforschung als Objekt einer Forschungsethik.

2. Medienethik als Objekt einer Forschungsethik

Wissenschaft stellt selbst ein Handlungsfeld dar. Menschliches Handeln im Rahmen der wissenschaftlichen Forschung wie auch im Rahmen der Anwendung wissenschaftlicher bzw. wissenschaftlich-technischer Erkenntnisse steht unter dem Anspruch normativer Selbstbestimmung, z. B. im Rahmen eines Berufsethos oder einer Standesmoral, und der moralischen Infragestellung. Ethische Reflexionen zur Begründbarkeit moralischer Überzeugungen in Bezug auf wissenschaftliches und wissenschaftlich-technisches Handeln sind Aufgabe und Ziel der verschiedenen Wissenschafts- und Forschungsethiken (Ströker 1984; Erwin et al. 1994). Sigrid Graumann (2006) plädiert dafür, die Begriffe »Forschungsethik« und »Wissenschaftsethik« dabei klar zu trennen. Wissenschaftsethik umfasse »die Trias Wissenschaft, Technik und Gesellschaft« (ebd., 253), Forschungsethik hingegen beschränke sich auf Forschung als wissenschaftliche Praxis. Dieser analytischen Trennung wird im Folgenden weitgehend, wenn auch nicht ausschließlich, gefolgt, zumal, wie Beispiele zeigen, Forschungspraxis sehr wohl Folgen für gesellschaftliche Diskurse und Praktiken haben kann (vgl. z. B. Milgram 1974).

Zum klassischen Bestand forschungsethischer Reflexion gehört die Medizinethik, die sowohl die Anwendung als auch die Forschungspraxis der Medizin schon lange reflektiert und ein breites Corpus an einschlägigen nationalen und internationalen Regelungen und Vereinbarungen hervorgebracht hat (vgl. Honnefelder/Rager 1994; Schmidt 2008, S. 96–128). Für die empirischen Humanwissenschaften stellte sich im Nachgang zur Medizin ebenfalls die ethische Frage, ob all das am und mit dem Menschen gemacht werden darf, was methodisch möglich ist und aus einzelwissenschaftlicher Sicht sogar wünschenswert oder notwendig erscheint (vgl. Ott 1997).

3. Ethische Probleme der Medienforschung

Die empirischen Humanwissenschaften, die zur Erhebung wissenschaftlich relevanter Ergebnisse auf empirische Methoden zurückgreifen, müssen sich demnach mit der moralischen Infragestellung ihrer Forschungspraxis auseinandersetzen. Seit den frühen 1980er Jahren wird auch für die deutschsprachige empirische Sozialforschung über Regelungen und Kodices nachgedacht. Es wurde dabei deutlich, dass eine ganze Anzahl von Maßnahmen, die zum gängigen, vor allem experimentellen Forschungsinstrumentarium der empirischen Sozialforschung gehören, unserer moralischen Intuition zuwiderlaufen bzw. sich nicht ohne weiteres ethisch rechtfertigen lassen. Diese in Kodizes und der Literatur immer wieder genannten Problembereiche sind z. B.

• die Täuschung oder Missinformation von Probanden,

• ihre psychische und/oder physische und/oder soziale Gefährdung oder gar Beeinträchtigung und Schädigung,

• die Verletzung der Privatsphäre,

• die Gefährdung des Datenschutzes.

Selbst wenn man für manche Untersuchungen die Notwendigkeit solcher moralisch intuitiv fragwürdiger Methoden bezweifeln kann und alternative Forschungstechniken anmahnt, so bleiben doch grundsätzliche methodische Erwägungen bestehen, die diese Vorgehensweisen geradezu fordern. Dieses »Dilemma zwischen ethischen und methodologischen Normen« (Schuler 1982, S. 16) weißt auf die wichtige Unterscheidung zwischen wissenschaftsinterner und externer Verantwortung (vgl. Lenk 2006) hin. Wissenschaftsintern geht es um die Berücksichtigung der als »gute wissenschaftliche Praxis« ausgezeichneten Forschungsverfahren. Externe Verantwortung berücksichtigt vor allem die von Graumann (2006) der Wissenschaftsethik zugewiesenen Themenfelder. Beide Bereiche sind analytisch auch unterscheidbar, kommen aber in der Person der Forschenden zusammen. Forschende sind immer auch »kompetente Bürger«, die Verantwortung innerhalb der Gesellschaft und im Maße ihres Einflusses für die Gesellschaft tragen. Aus dieser Überlegung folgt noch eine weitere wichtige Differenzierung. Für die genannten und mögliche weitere Themenfelder der Forschungsethik ist darauf zu achten, ob sie nicht bereits nationalstaatlich oder supranational rechtlich geregelt sind. Im Gegensatz zu innerwissenschaftlichen Verfahrens- und Methodenfragen sind gesetzliche Regelungen von der handlungsleitenden Bindung her nicht mehr optional. Ein »Dopplung« in einer Professionsregelung scheint daher prima facie unnötig, es reicht u. U. der Hinweis auf die grundsätzliche Bereitschaft der Profession geltendes Recht zu achten. Allerdings kommt aus ethischer Sicht auch einer gesetzlichen Regelung nicht per se der Charakter der allgemeinen Plausibilität und Verallgemeinerbarkeit zu. Dies führt uns zum hauptsächlichen und wichtigsten Prinzip einer forschungsethischen Begründung, der Informationspflicht der Forschenden gegenüber ihren Probanden, da diese einerseits zwar gesetzlich im Rahmen des Selbstbestimmungsrechts garantiert ist, aber konkret im Forschungsprozess ganz unterschiedlich eingeholt werden kann.

Vor allem in der medizinischen Ethik ist die Informiertheit der Probanden (informed consent), welche die Voraussetzung darstellt für eine freie Zustimmung zur Beteiligung am Forschungsprozess, durch den Übergriff und die Erfahrungen im sogenannten »Dritten Reich« zum Grundbestand der wissenschaftlichen Selbstverpflichtung geworden (vgl. Yuko/ Fisher 2015). In Forschungsverfahren, die nicht auf Experimente, sondern methodisch auf Befragung, Interview (→ Keuneke, S. 302 ff.) und daran anschließend auf qualitative Interpretation der erhaltenen Aussagen setzt (vgl. die Beiträge im Abschnitt 6 dieses Handbuchs), steht weniger die Erhebung selbst als die Intention der Forschenden und die Verwendung der erhobenen Daten im Mittelpunkt (vgl. Friedrichs 2014). Wie aber auch schon in experimentalen Forschungskontexten ist auch hier nach dem Verhältnis von Erkenntniswille, Informationsanspruch und sozialem Interesse an bestimmten Daten (z. B. dem Einkommen der Befragten) zu fragen und dieses abzuwägen. Dabei ist nicht nur die jeweilige unterschiedliche Einschätzung des Verhältnisses von Individuum und Gemeinschaft oder Gesellschaft ein Problem (vgl. Friele 2012), sondern auch das Forschungssetting als solches – ein partizipativer Ansatz, der gerade in qualitativen Forschungsvorhaben häufig anzutreffen ist, wird informed consent grundlegender fassen als eher quantitative Befragungen, die individuelle Daten anonymisiert erheben oder verarbeiten (vgl. Gelling/Munn-Gidding 2011). Unabhängig davon wird man von ethischer Seite her die individuelle Entscheidungsfähigkeit höher einschätzen als kulturelle Relativierungen. Allerdings sehen die Kodizes experimentell arbeitender Wissenschaften und auch die meisten philosophischen Ethiker hierbei die Notwendigkeit, zwischen der Gefährdung der Probanden bzw. Versuchspersonen und dem Nutzen, der aus der Forschung entstehen kann, abzuwägen (risk benefit balance).

Informed consent in qualitativer Medienforschung spielt mehr in den Bereich der Sicherung des Probandenschutzes (vgl. Jacob et al. 2013, 226–227) hinein, der formal auch dem Datenschutz und dem Schutz der Privatsphäre zuzuweisen wäre. Informed consent scheint daher entgegen der Tradition der experimentell arbeitenden Wissenschaften im Rahmen der qualitativen Sozialforschung auch die anderen oben genannten Aspekte der Forschungsethik zu tangieren bzw. den Kern qualitativer Forschungsethik auszumachen. Daher sind für die qualitative Medienforschung eigenständige Analysen (und ggf. eigene Strukturen für die Entwicklung forschungsethischer Institutionalisierungen wie Ethikkommissionen) notwendig (vgl. Burr/Reynolds 2010).

Obwohl also einerseits die unmittelbare Gefährdung des Individuums wie auch der Gesellschaft in qualitativer bzw. nichtexperimenteller und nicht primär technisch umsetzbarer Forschung gering oder z.T. auch zu vernachlässigen sind, so stehen andererseits gerade die Medienforschung und speziell die Medienwirkungsforschung unter einem sozialen und politischen Legitimationsdruck. Sie sind der Praxis ihres Forschungsobjekts sehr nahe, zum einen, weil sie Ergebnisse zeitigt, die unter Umständen dieser Praxis im Sinne handlungsleitender Imperative dienen, zum anderen, weil ihre Ergebnisse zugleich das Rohmaterial abgeben für normative Bewertungen eben dieser Praxis, z.B. auf dem Gebiet der Rahmengesetzgebung. Der erste Aspekt eröffnet der Medienforschung (und anderen anwendungsbezogenen Forschungsbereichen) das lukrative Feld der privaten Auftragsforschung, der zweite Aspekt deutet auf die Gefahr einer Verstrickung anwendungsbezogener Forschung in forschungsfremde Interessen hin.

4. Medienforschung als Auftragsforschung

Als Auftragsforschung ist die Medienforschung spätestens seit Einführung der privaten Rundfunksender in Deutschland auch außerwissenschaftlich besonders relevant. Mit dem Aufbrechen des öffentlich-rechtlichen Rundfunkmonopols Anfang der 1980er Jahre begann die Diskussion um die Qualität des privaten Rundfunks – Schlagwörter sind hierfür vor allem Pornographie und Gewalt. Die klassische Kommunikationsforschung konnte hierbei nur einen bedingten Beitrag leisten, wenn auch die klassische Bestimmung ihrer Grundfrage von Lasswell (1948, S. 37), »Who Says What In Which Channel To Whom With What Effect?«, die Wirkung bereits als Thema benennt. Von der Quotenforschung abgesehen blieb Medienforschung an einzelne Auftraggeber gebunden, private wie öffentlich-rechtliche.

Dieser Sachverhalt ist zunächst einmal nicht problematisch. Auftragsforschung ist in vielen Bereichen gang und gäbe. Für manche wissenschaftliche Institution ist Auftragsforschung Grundbestandteil der Finanzierung und damit unabdingbar. Die Finanzierungsform kann zunächst also nicht als ein ethisches Kriterium herhalten. Um die ethische Problematik zu erkennen, ist es sinnvoll, eine Unterscheidung aufzugreifen, die bereits Irle (1983) für eine andere anwendungsbezogene Sozialwissenschaft, die Marktpsychologie, erarbeitet hat. Er unterscheidet zwischen einer »quasiparadigmatischen«, theoriegeleiteten Forschung, einer problemorientierten oder »Domain«-Forschung und schließlich der praxisorientierten »technologischen« Forschung. Die technologische Forschung unterscheidet sich von den anderen Forschungsformen durch ein zusätzliches Forschungsziel. Sie soll »rationale Maßgaben dafür bereitstellen, was getan werden soll, um etwas hervorzubringen, zu vermeiden, zu verändern, zu verbessern usf.« (ebd., S. 836). Die Auftragsforschung »instrumentalisiert« also ihre Probanden zu einem außerwissenschaftlichen Zweck. Daraus ergibt sich eine erhöhte ethische Sorgfaltspflicht, vor allem im Bereich des informed consent, zum Beispiel mit der Pflicht, immer den Auftraggeber der Forschung mitzuteilen. Aber es ergibt sich im Medienbereich noch eine weitere Differenzierung. Medienforschung kann ein Instrument operativer Produktplanung oder strategischer Öffentlichkeitsarbeit sein.

4.1 Medienforschung als »in-house«-Phänomen

Als »in-house«-Phänomen dient die Medienforschung vor allem dazu, Bedeutung, Leistung, Akzeptanz und Wirkung medialer Produkte zu erheben, um dem Medienanbieter ein operatives Instrument in die Hand zu geben, seine Produkte zu optimieren. In diesem Fall hat der Auftraggeber Interesse an einer möglichst genauen und wissenschaftlich korrekten Erforschung des jeweiligen Objekts. An der Praxis medialer Vermarktbarkeit orientiert, will der Auftraggeber wissen, wie seine Produkte wirken, wo sie Defizite, gemessen an einem bestimmten Akzeptanzmaß (Einschaltquote, verkaufte Auflage, Leser pro werbeführende Seite, Klicks) haben und, im idealen Fall, wie er diese Defizite ausgleichen und seine Produkte marktgerecht optimieren kann. Für diese Forschung gelten zunächst die gleichen Prinzipien wie für »öffentlich« finanzierte Forschung: Sie muss den methodischen und ethischen Prinzipien wissenschaftlicher Forschung überhaupt entsprechen.

Der Forscher muss sich allerdings vor Augen halten, dass der Weg von der Ergebniserhebung hin zur Verwertung seiner Ergebnisse ein extrem kurzer ist. Damit stehen die aus der Anwendung der Forschungsergebnisse sich ergebenden Folgen viel mehr als in einer theoriegeleiteten oder problemorientierten Forschung in der Verantwortung des Forschenden. Denn anders als in der quasiparadigmatischen oder Domain-Forschung hat der Forschende auf die Anwendung seiner Ergebnisse unmittelbaren Einfluss. Seine Ergebnisse legen bestimmte Lösungswege nahe, orientiert an außerwissenschaftlich vorgegebenen Handlungszielen. Dies deutet auf ein grundsätzliches Problem der sich seit Max Weber werturteilsfrei verstehenden Sozialwissenschaften hin (vgl. Rath 2014, S. 150–152). Eben weil empirische Forschung kein Sollen aus dem erforschten Sein ableiten kann, ist sie instrumentalisierbar für Fremdzwecke. Vor allem bei der Nutzungsforschung können die Forschenden die vorgesehene Anwendung der Forschungsergebnisse absehen. Es liegt nahe, auch an diese Folgen der Forschung ähnliche Faustregeln anzulegen wie an empirische (Human-) Forschung überhaupt. Wenn der informed consent der »Zielgruppe« gegeben ist, z. B. im Falle einer verdeckten Manipulation der Wahrnehmung bei Mediennutzern, oder die »risk benefit balance« sich einseitig zugunsten eines Medienanbieters verschiebt, dann sind die Medienforschenden, wenn nicht als Wissenschaftler, so doch als kompetente Bürger, ethisch in der Pflicht.

4.2 Medienforschung in der strategischen Kommunikation

Anders stellt sich die Auftragsforschung ethisch dar, wenn sie als ein Instrument strategischer Öffentlichkeitsarbeit dient. In diesem Fall ist der Auftraggeber nicht oder nicht nur an einer möglichst genauen und wissenschaftlich korrekten Erforschung des jeweiligen Objekts oder Problembereichs interessiert. Vielmehr soll die Berechtigung einer bestimmten, meist im politischen Kontext formulierten Position des Auftraggebers nachgewiesen werden. Ethisch relevant ist dabei nicht nur die Frage, ob diese Ergebnisse nach den methodischen Regeln des wissenschaftlichen Forschens entstanden sind, sondern auch, ob die zu stützenden Positionen des Auftraggebers ethisch vertretbar sind. Dies mag unproblematisch sein, wenn es um Tatsachenbehauptungen geht, z. B. bestimmte Medienprodukte seien nicht gewaltverherrlichend oder der inhaltsanalytisch zu erhebende Anteil bestimmter Programmgenres (z. B. Information, Unterhaltung und Bildung) habe eine bestimmte Größe. Ethisch relevant wird es dann, wenn die wissenschaftlichen Ergebnisse eingebettet sind in strategische Forderungen. In diesem Fall muss der Forschende abwägen, ob er sich in den Dienst bestimmter, z. B. medienpolitischer Interessen nehmen lässt.

Allerdings kann grundsätzlich jede veröffentlichte wissenschaftliche Position aufgegriffen und normativ interpretiert werden. Im Gegensatz zu dieser klassischen Form der »Finalisierung« (Böhme/Daele/Krohn 1973) wissenschaftlicher Forschung ist die Auftragsforschung in strategischer Absicht jedoch häufig nicht in der Lage, ihre Ergebnisse eigenständig, z. B. in wissenschaftlichen Organen, zu veröffentlichen. Die Publikation wissenschaftlicher Forschung im Kontext strategischer Öffentlichkeitsarbeit steht immer im Konflikt zwischen Objektivität und Parteilichkeit. Diesen Konflikt gegenüber dem Auftraggeber zu formulieren und gegenüber der Öffentlichkeit auflösen zu können, ist eine zentrale ethische Aufgabe der Auftragsforschung. Dabei ist es zunächst gleichgültig, ob die betroffenen Forscher als kompetente Bürger die zu stützende Position des Auftraggebers teilen. Hier verschiebt sich der Schwerpunkt zwischen Experte und Bürger im Gegensatz zur inhouse-Forschung. Als Wissenschaftler sind sie verpflichtet, auf eine objektive, sachliche und vor allem differenzierte Darstellung ihrer Ergebnisse zu drängen, auch wenn auf dem »Markt der Meinungen« die griffige Formel, das verkürzende Schlaglicht häufig die angemessene Form zu sein scheint.

4.3 Medienforschung zwischen Forschung und Politik

Anders liegen die ethischen Problemlagen politischer Instrumentalisierung durch gesellschaftlich relevante Gruppen bzw. die politischen Eliten. Gerade die Diskussion um Gewalt und Pornographie im Fernsehen in den letzten 30 Jahren zeigt, wie stark Ergebnisse der Medienforschung zu diesen Themenfeldern in das medienpolitische Alltagsgeschäft Eingang gefunden haben. Stärker noch als in der Auftragsforschung stehen in der politischen Auseinandersetzung mit Ergebnissen vor allem der Medienwirkungsforschung normative und ideologische Überzeugungen im Vordergrund. Eine von Kerlen (2005, S. 42) als »Medienmoralisierung« bezeichneter Grundzug der Medienbewertung in Deutschland seit dem Kaiserreich bedient sich einer selektiven Rezeption der Medienforschung, die Forschende meist nur zur Kenntnis nehmen können – eine relativierende, differenzierende Klarstellung über Reichweite, Bedeutung und Interpretierbarkeit der Ergebnisse bleibt, wenn sie überhaupt Eingang in die öffentliche Diskussion findet, marginal. Der politischen Instrumentalisierung ist jedoch im Vorfeld kaum wirklich zu begegnen. Hier ist nicht der einzelnen Forschende, sondern die scientific community in Verbänden und Institutionen verpflichtet, sich aufklärend an der öffentlichen Diskussion zu beteiligen.

Doch die Verpflichtung der Medienforschung zur medialen Aufklärung über mediale Zusammenhänge liegt auch in ihrem eigenen Selbstverständnis als Wissenschaft begründet. Mag auch eine totalitäre Instrumentalisierung der Medienforschung östlicher (vgl. Gansen 1997) bzw. »Finalisierung« westlicher Provenienz nicht bzw. nicht mehr akut zu befürchten sein – die Tendenz zur »symbolischen Politik« (Sarcinelli 1987), die nur noch inszeniert (vgl. Meyer et al. 2000), d. h. medial vollzogen wird, erhöht die Gefahr, dass Ergebnisse der wissenschaftlichen Forschung in simplifizierender Form im Sinne normativer politischer Überzeugungen genutzt werden.

5. Forschungsethik und Datenschutz

Die Feststellung von Unger et al. (2014, S. 6), dass forschungsethische Themen im öffentlichen Raum »eng mit datenschutzrechtlichen Fragen verknüpft« seien, ist um so verständlicher, als dieser Aspekt in modernen, mediatisierten Gesellschaften zu den sensiblen Bereichen politischer Regelungen zählt. Die informationstechnischen Zugriffsmöglichkeiten auf Datennetze haben diese Sensibilität nicht nur allgemein politisch, sondern auch forschungsethisch in den Fokus gerückt. Dabei erfährt wiederum der informed consent eine breite Diskussion, da digitalisiert vorliegende, häufig online zugängliche Daten den Forschungsprozess in weiten Teilen auf die Sicherung der Privatsphäre der Probanden fokussiert (vgl. Miller/Boulton 2007; Appelbaum 2015).

Allerdings stellt der Datenschutz, obwohl er so breit und intensiv diskutiert wird, kein eigentliches forschungsethisches Problem dar. Denn im Gegensatz zu allgemeinen Fragen des informed consent sowie eines Auftraggebereffekts ist der Datenschutz keine Frage der normativen Orientierung der Forschenden, sondern ist selbst juristisch verbindlich geklärt. Hier bedarf es keiner eigenständigen forschungsethischen Abwägung möglicher Handlungspräferenzen, sondern die vorliegenden Regelungen geben das Maß ab für das konkrete Vorgehen im Forschungsprozess (vgl. Häder 2009). Die Anwendung dieser rechtlichen Vorgaben zum Datenschutz ist eher praktischer als ethischer Natur. Die Information der Probanden über die maßgebenden Aspekte (vgl. (Jacob et al. 2013, S. 230) Freiwilligkeit, Anonymität, »Folgenlosigkeit der Nicht-Kooperation« für die Beteiligten entspricht zwar dem Prinzip des informed consent, ist aber in der Ausgestaltung lediglich eine Konkretion der Rechtsnorm.

Ethisch relevante Überlegungen betreffen vielmehr die der Datenerhebung vorausliegenden Entscheidungen, zum einen in Bezug auf die Zumutbarkeit der Befragung für den Probanden, zum anderen in Bezug auf die Forschenden selbst, z. B. in Bezug auf die Pflicht, sich ausreichend und sorgfältig mit den Regelungen des Datenschutzes vertraut zu machen.

Literatur

Appelbaum, Paul S. (2015): Informed Consent of Research Subjects. In: International Encyclopedia of the Social & Behavioral Sciences (2. Aufl.), Vol. 12, S. 110–115

Böhme, Gernot/Daele, Wolfgang van den/Krohn, Wolfgang (1973): Die Finalisierung der Wissenschaft. In: Zeitschrift für Soziologie, Jg. 2, H. 2, S. 128–144.

DFG (2013): Sicherung guter wissenschaftlicher Praxis. Safeguarding Good Scientific Practice. Denkschrift Memorandum. Weinheim.

Erwin, Edward/Sidney, Gendin/Kleiman, Lowell (Hrsg.) (1994): Ethical Issues in Scientific Research. An Anthology. New York.

Friedrichs, Jürgen (2014): Forschungsethik. In: Baur, Nina/Blasius, Jörg (Hrsg.): Handbuch Methoden der empirischen Sozialforschung. Wiesbaden, S. 81–91.

Friele, Minou B. (2012): Sowohl als auch? Zur Koppelung des Informed Consent und des Community Consent Prinzips in kulturübergreifenden klinischen Forschungsvorhaben. In: Ethik in der Medizin, Jg. 24, H. 4, S. 313–322.

Gansen, Petra (1997): Wirkung nach Plan. Sozialistische Medienwirkungsforschung in der DDR – Theorien, Methoden, Befunde. Opladen.

Gelling, Leslie/Munn-Gidding (2011): Ethical review of action research: the challenges for researchers and research ethics committees. In: Research Ethics, Jg. 7, H. 3, S. 100–106.

Graumann, Sigrid (2006): Forschungsethik. In: Düwell, Marcus/Hübenthal, Christoph/Werner, Micha H. (Hrsg.): Handbuch Ethik. Stuttgart, Weimar: Metzler: S. 253–258.

Häder, Michael (2009): Der Datenschutz in den Sozialwissenschaften: Anmerkungen zur Praxis sozialwissenschaftlicher Erhebungen und Datenverarbeitung in Deutschland (RatSWD Working Paper Series 90). Berlin. https://nbn-resolving.de/urn:nbn:de:0168-ssoar-419490.

Hammersley, Martyn/Traianou, Anna (2011): Moralism and research ethics: a Machiavellian perspective. In: International Journal of Social Research Methodology, Jg. 14, H. 5, S. 379–390.

Honnefelder, Ludger/Rager, Günther (Hrsg.) (1994): Ärztliches Urteilen und Handeln. Zur Grundlegung einer medizinischen Ethik. Frankfurt am Main.

Hopf, Christel (2016): Forschungsethik und qualitative Forschung. In: Hopf, Wulf/Kuckartz, Udo (Hrsg.): Christel Hopf. Schriften zu Methodologie und Methoden qualitativer Sozialforschung. Wiesbaden, S. 195–205.

Irle, Martin (1983). Marktpsychologische Forschung: Ethik und Recht. In Ders. (Hrsg.). Marktpsychologie, 2. Halbband: Methoden und Anwendungen in der Marktpsychologie (Handbuch der Psychologie, Band 12; 2). Göttingen, S. 835–859.

Jacob, Rüdiger/Heinz, Andreas/Décieux, Jean Philippe (2013): Umfrage. Einführung in die Methoden der Umfrageforschung. München.

Karmasin, Matthias/Rath, Matthias/Thomaß, Barbara (Hrsg.): Die Normativität in der Kommunikationswissenschaft. Wiesbaden.

Kerlen, Dietrich (2005): Jugend und Medien in Deutschland. Eine kulturhistorische Studie. Hrsg. von Matthias Rath und Gudrun Marci-Boehncke. Weinheim.

Köberer, Nina (2015): Medienethik als angewandte Ethik – eine wissenschaftssystematische Verortung. In: Prinzing, Marlis/Rath, Matthias/Schicha, Christian/Stapf, Ingrid (Hrsg.): Neuvermessung der Medienethik – Bilanz, Themen und Herausforderungen seit 2000. München, S. 99–113.

Lasswell, Harold Dwight (1948): The Structure and Function of Communication in Society. In: Bryson, Lyman (Hrsg.). The Communication of Ideas. A series of addresses. New York, S. 37–51.

Lenk, Hans (2006): Verantwortung und Gewissen des Forschers. Innsbruck.

Meyer, Thomas /Rüdiger Ontrup/Christian Schicha (2000): Die Inszenierung des Politischen. Zur Theatralität von Mediendiskursen. Wiesbaden.

Milgram, Stanley (1974): Obedience to authority. New York.

Miller, Tina/Boulton, Mary (2007): Changing constructions of informed consent: Qualitative research and complex social worlds. In: Social Science & Medicine, Jg. 65, S. 2199–2211.

Ott, Konrad (1997): Ipso facto. Zur ethischen Begründung normativer Implikationen wissenschaftlicher Praxis. Frankfurt am Main.

Rath, Matthias (2006): Medienforschung zwischen Sein und Sollen: Wissenschaftstheoretische Überlegungen zu einem komplexen Verhältnis. In: Marci-Boehncke, Gudrun/Rath, Matthias (Hrsg.): Jugend – Werte – Medien: Der Diskurs. Weinheim, S. 183–199.

Rath, Matthias (2014): Ethik der mediatisierten Welt. Wiesbaden.

Rath, Matthias (2016): The Innovator’s (Moral) Dilemma – zur Disruptionsresistenz der Medienethik. In: Litschka, Michael (Hrsg.): Medienethik als Herausforderung für MedienmacherInnen. Ethische Fragen in Zeiten wirtschaftlicher und technologischer Disruption. Brunn am Gebirge, S. 5–10.

Sarcinelli, Ulrich (1987): Symbolische Politik. Zur Bedeutung symbolischen Handelns in der Wahlkampfkommunikation der Bundesrepublik Deutschland. Opladen.

Schmidt, Matthias C. (2008): Griff nach dem Ich? Ethische Kriterien für die medizinische Intervention in das menschliche Gehirn. Berlin.

Schuler, Heinz (1982): Ethische Probleme des psychologischen Forschungsprozesses: Der Stand der Diskussion. In: Kruse, Lenelis/Kumpf, Martin (Hrsg.) (1981): Psychologische Grundlagenforschung: Ethik und Recht. Wien, S. 13–39.

Stapf, Ingrid (2006): Medien-Selbstkontrolle. Ethik und Institutionalisierung. Konstanz.

Ströker, Elisabeth (Hrsg.) (1984): Ethik der Wissenschaften? Philosophische Fragen (Ethik der Wissenschaften, Band 1). München.

Unger, Hella von/Narimani, Petra/M’Bayo, Rosaline (Hrsg.) (2014): Forschungsethik in der qualitativen Forschung. Reflexivität, Perspektiven, Positionen. Wiesbaden.

Yuko, Elizabeth/Fisher, Celia B. (2015): Research Ethics: Research. In: International Encyclopedia of the Social & Behavioral Sciences (2. Aufl.), Vol. 20, S. 514–522.

Medien

RALF VOLLBRECHT

Die meisten Menschen assoziieren mit Medien vermutlich Massenmedien wie Fernsehen, Radio und Zeitungen, vielleicht auch Social Media oder Geräte wie DVD-Player, Computer oder Smartphones und eventuell sogar Institutionen wie Fernsehanstalten und Verlage. Lehrer und Erwachsenenbildner denken bei Medien bestimmt auch an Unterrichtsmedien wie Tafel, Smartboards oder computergestützte Lernprogramme. In den Naturwissenschaften versteht man unter einem Medium auch einen Träger physikalischer oder chemischer Vorgänge. So ist Luft zum Beispiel ein Medium für die Schallübertragung und damit auch der Sprache. Verstehen wir Medien als Träger von Kommunikation, so wäre die Sprache das entscheidende Medium, über das wir uns verständigen. Der erste Lexikoneintrag des Begriffs »Medium« findet sich angeblich in Meyers Konversationslexikon von 1888, wo neben der lateinischen Herkunft (Mittel, etwas Vermittelndes) auf die spiritistische Bedeutung des Begriffs verwiesen wird (vgl. Faulstich 1991, S. 8 f.).

Ein derart weiter Medienbegriff, unter den so Unterschiedliches subsumiert werden kann, ist für wissenschaftliche Zwecke wenig sinnvoll. Die mit Medien befassten Fachwissenschaften, vor allem die Kommunikationswissenschaft, haben daher verschiedene Definitionen hervorgebracht, die den Medienbegriff enger zu fassen versuchen. Diese Definitionen konkurrieren teilweise miteinander und manche überschneiden sich auch. Sie lassen sich also nicht auf einen gemeinsamen Nenner bringen, denn dafür sind die Medienverständnisse und erkenntnisleitenden Perspektiven in den Medienwissenschaften zu unterschiedlich. Ohne Anspruch auf Vollständigkeit werden im Folgenden die wichtigsten Begriffsverständnisse dargestellt, wobei die in der Pädagogik verwendeten stärker berücksichtigt werden.

Allgemeine und universelle Medienbegriffe

Noch immer gilt, was Schanze bereits vor knapp vierzig Jahren beobachtet hat: Der Begriff »Medium« tritt meist in Komposita auf (Massenmedien, Medienwirkung, Medienkompetenz), wird fast immer im Plural (»Medien-«, »Media-«) gebraucht und teilweise in angloamerikanischer Aussprache verwendet, »was dem Benutzer offenbar eine gewisse Exklusivität verleihen soll. Die Komposita steuern zur Begriffsschärfe wenig bei. Nicht von einem einheitlichen Begriffsgebrauch ist deshalb auszugehen, sondern eher von einer bunten Vielfalt von Medienbegriffen« (Schanze 1976, S. 25). Auch in Fachtexten werden Medien häufig mit Massenmedien (publizistische Medien) gleichgesetzt – zumindest bis dem Web 2.0 –, der Medienbegriff umstandslos vorausgesetzt oder Medien sehr allgemein als Objekt, Träger und/oder Mittler von Information oder im Sinne eines Zeichen- und Informationssystems aufgefasst.

Kübler weist darauf hin, dass in philosophischen, kulturgeschichtlichen und kunstbezogenen Diskursen (zu Letzterem siehe z. B. Weibel 1990) sowie in poststrukturalistischen Wirklichkeitskonzepten und kulturwissenschaftlichen Medientheorien universelle Medienbegriffe immer wieder auftauchen. Ein bekanntes Beispiel ist der Medienbegriff von Marshall McLuhan, der Medien als »Erweiterung des Menschen« auffasst und dabei auf das »Mängelwesen Mensch« aus Arnold Gehlens philosophischer Anthropologie rekurriert (und bereits 1964 den Computer als Medium und nicht als bloße Rechenmaschine gesehen hat; McLuhan 1968, 71). Obwohl der Begriff sich nicht durchsetzte, finden sich noch immer ähnliche Sichtweisen wie z. B. bei Wolfgang Coy, für den Computer »zu global vernetzten Prothesen der Sinne« werden (Coy 1994, S. 37). Kübler (2003, S. 91) konstatiert mit Verweis auf Baltes u.a. (1997), Ludes (1998, S. 77 ff.) und Kloock/Spahr (2000, S. 39 ff.) – zu ergänzen wäre Meder (1995, S. 9) – sogar eine »Tradition des McLuhanismus«.

Umfassender ist Werner Faulstichs Medienbegriff, der »der vom schlichten ›Mensch-Medium‹ bis zu komplexen systemtheoretischen Kategorien wie Kanal, Organisation, Leistung und gesellschaftlicher Dominanz alles einzuschließen vorgibt« (Kübler 2003, S. 91). Empirisch ebenso schwer fassbar und wohl eher als Metapher zu bezeichnen ist das von Dieter Baacke in der Auseinandersetzung mit mediendidaktischen Modellen erwähnte Mycelium-Modell des Kommunikationswissenschaftlers Marten Brouwer: »Das Geflechtswerk unter der Erde soll das unvermittelte System der Interkommunikation symbolisieren, während der daraus gebildete Pilz über dem Boden das Massenkommunikationssystem bezeichnen soll. Das Modell ist insofern glücklich, als es in der vegetativen Analogie die Lebendigkeit und Unübersichtlichkeit der ständig neu entstehenden oder sich gegenseitig ersetzenden Kommunikationskanäle des sozialen Lebens plastisch macht und dieses nicht lediglich als eine technisch-kybernetische Apparatur verstehen lässt« (Baacke 1973, S. 7).

Kittler unterscheidet in seiner Geschichte der Kommunikationsmedien technische Medien von Schriftmedien:

»Technische Medien, anders als Schrift, arbeiten nicht auf dem Code einer Alltagssprache. Sie nutzen physikalische Prozesse, die die Zeit menschlicher Wahrnehmung unterlaufen und nur im Code neuzeitlicher Mathematik überhaupt formulierbar sind« (Kittler 1993, S. 180).

Technische Medien (»Aufschreibsysteme«) werden dabei funktional definiert als historisch sich verändernde Mittel zum Speichern, Übertragen und Verarbeiten (Berechnen). Mit dem Computer ist für Kittler das Mediensystem geschlossen, denn »Speicher- und Übertragungsmedien gehen beide in einer Prinzipschaltung auf, die alle anderen Informationsmaschinen simulieren kann, einfach weil sie in jeder einzelnen Programmschleife speichert, überträgt und berechnet« (Kittler 1989, S. 196).

Aus kommunikationswissenschaftlicher Sicht halten es Bentele und Beck für sinnvoll, folgende Typen von Medien zu unterscheiden:

• »materielle Medien wie Luft, Licht, Wasser, Ton, Stein, Papier, Zelluloid;

• kommunikative Medien oder Zeichensysteme wie Sprache, Bilder, Töne;

• technische Medien wie Mikrofone, Kameras, Sende- und Empfangseinrichtungen;

• Medien als Institutionen, also die einzelnen Medienbetriebe (bestimmte Zeitung oder Fernsehanstalt) und die ›Gesamtmedien‹, z. B. ›der Film‹, ›der Hörfunk‹, ›das Fernsehen‹« (Bentele/Beck 1994, S. 40).

Eine Unterscheidung in primäre, sekundäre und tertiäre Medien geht auf Harry Pross (1972) zurück. Primäre Medien sind für ihn »menschliche Elementarkontakte« wie die non-verbale Sprache der Körperhaltung, Mimik, Gestik und ebenso auch die Verbalsprache. Zwischen Sender und Empfänger ist kein Gerät geschaltet. Dagegen benötigen sekundäre Medien auf Seiten des Senders Geräte für die Herstellung von Mitteilungen (Flaggensignale, Grenzsteine, Rauchzeichen, Schreib- und Druckkunst). Als tertiäre Medien bezeichnet Pross jene Vermittlungsprozesse, die technische Erstellung, technische Sender und technische Empfänger erfordern (Rundfunk, Telefon etc.), also auf Empfänger- wie Senderseite technische Geräte benötigen.

Nach heutigem Verständnis wird in Kommunikationswissenschaft und Medienpädagogik die Sprache in der Regel nicht zu den Medien gerechnet. Neuere Definitionen gehen beim Medienbegriff immer von einer technischen Vermittlung aus. Die Doppelseitigkeit des allgemeinen Medienbegriffs wie auch von Sprache, die nicht nur das Mittel der Verständigung im jeweiligen einzelnen sprachlichen Akt (pa-role) ist, sondern selber auch System, das Verständigung überhaupt ermöglicht (langue), bleibt jedoch grundlegend für jeden Medienbegriff in den unterschiedlichen fachspezifischen Ausformungen (vgl. Schanze 1976, S. 26).

Der technische Medienbegriff

Der technische Medienbegriff verweist auf die Materialität der Kommunikation, beginnend bei der Schrift, manchmal auch erst bei der mechanischen Vervielfältigung durch die Druckerpresse (etwa Hiebel u.a. 1999). Zu Verwechselungen kommt es dadurch, dass sowohl Trägermaterialien (CD-ROM) als auch Vervielfältigungsfaktoren (CD-Player) unter diesen Begriff fallen.

Ausgangspunkt aller kommunikationstheoretischen Medienbegriffe ist das technisch-mathematische Modell der Nachrichtenübertragung zwischen technischen Systemen (Shannon/Weaver 1949), das man generell auf die Strukturierung des Problembereichs Kommunikation zu übertragen versuchte. Das informationstechnische Medienmodell sieht (je nach Autor) mindestens vier Elemente vor: Sender, Empfänger, Kanal und Code. Entscheidend für den Medienbegriff ist der Kanal als Übertragungssystem für Signale sowie der Code, also die verwendete Zeichenkonvention. Während es nachrichtentechnisch in erster Linie um die Frage der (Vermeidung von) Kanalstörungen geht, also um Übertragungsfehler, ist medienbegrifflich relevant, dass der Kanal auch den Möglichkeitsraum für Signale und verwendete Codes bestimmt: »Eine Nachricht muss kanalgerecht kodiert werden – das ist die erste Bedingung, die ein technischer Code erfüllen muss. Die Morse-Schrift ist für die Telegrafie ein kanalgerechter Code, sie ist es aber auch für optische und akustische Signale. Dagegen ist eine gesprochene Nachricht für die telegrafische Übertragung nicht kanalgerecht, sie muss umkodiert werden« (Flechtner 1966, S. 21).

Obwohl die Metapher der Übertragung suggeriert, dass der Übertragungsweg (abgesehen von Störungen) keinen Einfluss auf die Inhalte hat, zeigt sich hier, dass er sogar ein bestimmendes Element der Nachrichtenübertragung ist. In Bezug auf neue Medien wird auch deutlich, dass sich jeweils erst ein Code entwickeln oder vereinbart werden muss, um ein Medium kommunikativ zu nutzen.

Zur Beschreibung menschlicher Kommunikation reicht dieses klassische Modell der Kommunikationstheorie nicht aus. Da der Zusammenhang zwischen übertragenen Signalen nicht mitübertragen wird, sind Bedeutungen grundsätzlich nicht mitteilbar, sondern nur generierbar. Begriffe wie »Störung« oder »kanalgerechte Codierung« erfassen weder die zeitliche Dynamik von Kommunikation, noch kann der Sender als ausschließlich aktiv und der Empfänger als ausschließlich passiv modelliert werden, da er Empfänger Sinnstrukturen rekonstruieren (Bedeutungen zuschreiben) muss. Ferner sind Kommunikationsprozesse eingebettet in sich verändernde gesellschaftliche Strukturen und historische Kontexte – Medien können daher nicht unabhängig von der jeweiligen gesellschaftlichen Wirklichkeit gesehen werden (vgl. Baacke 1973, S. 7). Die disziplinär zuständigen Fachwissenschaften haben daher erweiterte und spezielle Medienbegriffe entwickelt.

Der organisationssoziologische Medienbegriff

Medientechnologien und ihre Vermarktung bedürfen ausdifferenzierter Organisations- und Arbeitsformen. Die »Doppelnatur des Systems Medium« (Saxer 1975, S. 209) besteht darin, dass jedes (publizistische) Medium einerseits ein bestimmtes kommunikationstechnisches Potenzial aufweist, sich andererseits bestimmte Sozialsysteme um diese Kommunikationstechnologie herum bilden. Im Anschluss an Saxer (1998) zählt Burkart (2002) folgende für einen »medienwissenschaftlich angemessenen« Begriff von »Medium« charakteristischen Begriffsbestandteile auf:

• Medien sind Kommunikationskanäle, die auditive, visuelle bzw. audiovisuelle Zeichensysteme transportieren bzw. vermitteln;

• bei Medien handelt es sich zumeist um (arbeitsteilige) Organisationen, die vielfältige Leistungen und Funktionen für die Gesellschaft (bzw. jeweilige Zielgruppen) erbringen;

• Medien bilden für Herstellungs-, Bereitstellungs- und Empfangsprozesse mehr oder weniger komplexe soziale Systeme;

• Medien stellen Institutionen dar, da Medien um ihres umfassenden Funktionspotenzials willen in das jeweilige gesellschaftliche Regelsystem eingefügt, institutionalisiert (Saxer 1998, S. 55) werden (vgl. Burkart 2002, S. 42 ff.).

Begrifflich unterscheidet man auch zwischen Medien erster Ordnung, die gewissermaßen eine technische Infrastruktur mit bestimmter (publizistischer) Potenzialität darstellen, und Medien zweiter Ordnung, die unter Beteiligung institutionalisierter Kommunikatoren Massenkommunikation ermöglichen (Kubicek/Schmid/Wagner 1997, S. 32 ff.). Medien erster Ordnung dürfen dabei nicht als neutral oder kulturell beliebig missverstanden werden, sondern sind wie jede Technik immer auch schon Kulturobjekt, »kodierte Bedeutung« (Hörning 1989, S. 100).

In der sozialwissenschaftlichen Technikgeneseforschung hat sich eine institutionelle Perspektive durchgesetzt, der zufolge um technische Innovationen herum Institutionen entstehen. Die Implementierung neuer Medientechniken erscheint aus dieser Perspektive im weitesten Sinne als ein Prozess der Organisationsentwicklung technisch vermittelter Kommunikationssysteme (vgl. Kubicek/Schmid 1996).

Medienentwicklung lässt sich auch als ein Prozess der »Technisierung symbolischer Prozesse« (Rammert 1993, S. 307) beschreiben. Medien sieht Rammert als technische Interaktionssysteme, die bestimmte soziale Interaktionsund Kommunikationsprozesse reproduzieren oder ermöglichen. Kommunikation kommt freilich nur zustande, wenn »jemand sieht, hört, liest – und so weit versteht, dass eine weitere Kommunikation anschließen könnte« (Luhmann 1996, S. 14). Diese für die Entwicklung einer neuen Medientechnik zu einem sozialen Medium notwendige Verständigung erfordert den Aufbau sozialer Regelsysteme und Instanzen, durch die die Verwendungsweisen des Mediums in einem bestimmten Kontext definiert werden durch gemeinsam geteilte Codes und Regeln sowie Wissens- und Sinnbezüge, in die das medienbezogene Handeln eingebettet ist.

Massenmedien

Der Begriff Massenmedien ist von allen Medienbegriffen der wohl am besten definierte und auch in der Forschung noch immer geläufigste. »Massenmedien«, »Medien der Massenkommunikation« oder schlicht »Verbreitungsmittel« sind austauschbare Bezeichnungen für »technische Instrumente oder Apparate, mit denen Aussagen öffentlich, indirekt und einseitig an ein disperses Publikum verbreitet werden« (Maletzke 1963, S. 35). Diese in einer Studie zur Psychologie der Massenkommunikation entwickelte Definition ist weithin rezipiert worden und bis heute anerkannt. Synonym gebraucht wird manchmal der Begriff publizistische Medien. Nicht durchgesetzt haben sich die Bezeichnungen Programm-Medien oder Öffentliche Medien, die beispielsweise Baacke statt Massenmedien vorgeschlagen hat, da Masse (im Gegensatz zum Publikum der Massenmedien) »eher an ein ungegliedertes, unstrukturiertes Miteinander einander fremder Menschen denken lässt« (Baacke 1994, S. 315).

Maletzke (1963) differenziert den klassischen Medienbegriff, indem er drei Unterscheidungen vornimmt: zwischen direkter und indirekter Kommunikation, gegenseitiger und einseitiger Kommunikation sowie privater und öffentlicher Kommunikation. Massenkommunikation ist immer indirekte Kommunikation. Während direkte Kommunikation im Gespräch, also face to face stattfindet, gibt es bei indirekter (beispielsweise schriftlicher) Kommunikation eine »räumliche oder zeitliche oder raumzeitliche Distanz zwischen den Kommunikationspartnern« (ebd., S. 28). Anders als im Gespräch, bei dem die Sprecherrolle ständig wechselt (gegenseitige Kommunikation), sind bei Massenkommunikation die Rollen von Kommunikator und Rezipient durch das Medium klar verteilt: »Alle Massenkommunikation verläuft einseitig« (ebd., S. 28). Private Kommunikation definiert Maletzke als »ausschließlich an eine bestimmte Person oder an eine begrenzte Anzahl von eindeutig fixierten Personen« gerichtet. Bei öffentlicher Kommunikation ist der Adressatenkreis weder begrenzt noch definiert, da »die Aussage in der Intention des Aussagenden für jeden bestimmt ist, der in der Lage ist, sich Zugang zur Aussage zu verschaffen, und der willens ist, sich der Aussage zuzuwenden«. Massenkommunikation ist »immer öffentlich in diesem Sinne« (ebd., S. 28).

Dem so definierten Bereich der Massenmedien ordnet Maletzke zunächst vier Medienbereiche zu: Presse, Film, Hörfunk und Fernsehen. Den Begriff der Presse verwendet Maletzke dabei »in seiner weitesten und ursprünglichsten Bedeutung« und versteht darunter »alles veröffentlichte Gedruckte« (Maletzke 1963, S. 36). Neben Zeitung und Zeitschrift, also gedruckten Periodika, sind mit diesem Pressebegriff auch »Buch und Flugblatt, Groschenheft und Werbeprospekt« (ebd.) erfasst (vgl. Abb. 1).

Das entscheidende Kriterium zur Unterscheidung von Massenmedien und »Medien überhaupt« ist das »disperse Publikum« der Massenmedien, das sich vom Präsenzpublikum dadurch unterscheidet, dass Orts- und Zeitfixierung nur auf Letzteres zutrifft. Theater, Zirkus oder Vorträge sind demzufolge keine Massenmedien, dagegen die Schallplatte (ähnlich CD, Video, DVD, Musikstreamingdienste etc.) »als zusammenfassender Begriff für alle zur Veröffentlichung bestimmten Schallaufzeichnungen« (Maletzke 1963, S. 32) sehr wohl. Das Beispiel zeigt, dass bei den Trägermedien die Abgrenzung schwer fällt, da sie sowohl für ein Massenpublikum als auch von einzelnen Nutzern individuell für kleine private Kreise produziert werden können.

Der Begriff »technisches Verbreitungsmittel« schließt die direkte Gesprächssituation aus und dient als Oberbegriff zur genaueren Definition des Mediums, wobei die »Technik« die Unterschiede der Massenmedien begründet. Schanze weist darauf hin, dass Maletzkes Interesse jedoch nicht gerichtet ist auf das »Abstractum der technischen Verbreitungsmittel bzw. auf die verschiedenen Techniken, sondern gerade auf den Komplex der spezifischen Wirkungen der Massenmedien auf das disperse Publikum. Eine Isolation des Medienbegriffs verbietet sich von diesem Ansatz von selbst. Erst das Phänomen Massenmedium als Institution des öffentlichen Lebens kann Untersuchungsgegenstand werden, an dem sich die Theorie der Massenmedien bewährt« (Schanze 1976, S. 34).

image

An seine Grenzen kommt der Begriff »Massenkommunikation« durch Hybridmedien wie das Internet. In den Computernetzwerken wird Individualkommunikation ebenso praktiziert wie interpersonale Kommunikation in virtuellen Gemeinschaften oder auch Massenkommunikation (vgl. z.B. Höflich 1994, 1995). Angesichts der definitorischen Zuordnungsschwierigkeiten stellt sich daher die Frage, ob man überhaupt noch von Massenmedien reden sollte oder neue Begriffe wie »Massen-Individual-Medien« schaffen müsste.

Wenn man Netzwerke unter Medien subsumiert, lässt sich jedenfalls nicht mehr materialreich nach Medienfeldern (Zeitung, Rundfunk), sondern nur unscharf nach medialen Funktionen differenzieren. Versteht man andererseits Netzwerke nicht als Medien, steht man »den Reichweiten binärer Netze, den verteilten Informationsknoten, den spezifischen Formen informationeller Selbstversorgung, der Mensch-Medien-Interaktivität u.v.a.m. ohne adäquate Beobachtersprache gegenüber« (Faßler 2000).

Medien aus Sicht der Kritischen Theorie

Vor allem in der (Medien-) Pädagogik sind bis in die achtziger Jahre die Medienanalysen und Medienthesen der Kritischen Theorie ebenso einflussreich gewesen wie Maletzkes Modell der Massenkommunikation. Horkheimer und Adorno diagnostizieren in ihren Thesen zur »Kulturindustrie« (1944; 1969) ein stark ungleichgewichtiges Verhältnis zwischen Medien und Publikum mit Abhängigkeiten und Bewusstseinsmanipulation der Rezipienten. Die industrielle Produktion von Kulturwaren kritisieren sie als anti-aufklärerisch, als Massenbetrug. Die Kulturindustrie spricht mit ihrem Medienbegriff eine »nach-autonome Kultur« an (Kausch 1988), die weder hohe Kunst noch Volkskunst ist, sondern prozessierende Medialität, die nach dem Muster reiner Vermittlung abläuft und einen innerhalb des Medialen nicht mehr aufzudeckenden »Verblendungszusammenhang« erzeugt (vgl. Halbach/Faßler 1998, S. 42).

Die Annahmen der Kulturindustriethese sind aus heutiger Sicht überholt (vgl. z. B. Vollbrecht 2001, S. 120 f.). Ein theoretischer Anschluss an die Fragestellungen der Kritischen Theorie ist in der von Prokop vertretenen »neuen kritischen Medienforschung« zu sehen. Unter Medien versteht Prokop ausschließlich »Massenmedien, und das sind populäre Inszenierungen aller Art – informierend wie unterhaltend –, die beim Publikum beliebt sind, sich gut verkaufen, hohe Einschaltquoten, Auflagen, Chartpositionen bringen« (Prokop 2000, S. 11).

Drei Merkmale sind nach Prokop (2001) für Massenmedien wesentlich:

»1. Medien im Sinne von Massenmedien gibt es nur dort, wo es große Publika gibt, die real oder potenziell als Öffentlichkeit agieren. Die großen Publika sind nicht die Medien, aber sie sind deren Voraussetzung. […]

2. Massenmedien gibt es nur, wenn spezielle öffentliche Anbieter vorhanden sind, die mit ihrem Angebot spezielle Interessen verfolgen: Repräsentanz von Macht, Propaganda, Profit, Aufklärung. Die Anbieter selbst sind keine Massenmedien, sondern deren infrastrukturelle Voraussetzung. […]

3. Massenmedien gibt es nur, wenn öffentlich präsentierte Produkte spezielle Inszenierungen anbieten. Diese Inszenierungen, wenn sie populär sind – d. h. bei Bevölkerungsmehrheiten beliebt sind, wahrgenommen, gekauft und debattiert werden – sind die eigentlichen Massenmedien« (Prokop 2001, S. 11 f.).

Abweichend vom Mainstream der Kommunikationswissenschaft fließen in diese Definition als Bestimmungsmomente von Massenmedien der Erfolg beim Publikum ebenso ein wie die Interessen der Anbieter und die Kopplung von Produkt und Konsumtion in der Inszenierung. Dagegen fehlt der Aspekt der technischen Vermittlung, sodass z. B. auch (erfolgreiche) Theater und Musicals als Massenmedien gefasst werden. Wesentlich ist bei Prokop der Fokus auf die Anbieterinteressen, die den »Medienkapitalismus« bzw. den »Kampf um die Medien« (so die beiden Buchtitel) letztlich entscheiden. Für ideologiekritische Analysen oder auch Polemiken ist dieser Medienbegriff wohl eher geeignet als für empirische Studien, denn schon durch die Kopplung des Medienbegriffs an den Publikumserfolg entfällt eine detailreiche Betrachtung der Medialität.

Systemischer Medienbegriff

Systemische, konstruktivistische oder auch kulturwissenschaftliche Mediendefinitionen dehnen im Bemühen um theoretische Vollständigkeit ihre Medienbegriffe weit aus und nähern sich dadurch den universellen Medienbegriffen an.

So verwendet Niklas Luhmann in seiner Systemtheorie den Medienbegriff ebenfalls in sehr weiter Bedeutung (zu Luhmanns Medienbegriff s.a. Grampp 2006). Für Luhmann ist ein Medium alles, was unterschiedliche Formen annehmen kann, die sich immer wieder neu zusammenfügen lassen und zerfallen, ohne dass das Medium verbraucht wird. »Ein Medium ist also Medium nur für eine Form, nur gesehen von einer Form aus. […] Das Gesetz von Medium und Form lautet: dass die rigidere Form sich im weicheren Medium durchsetzt« (Luhmann 1995, S. 44). In dieser operativen Bestimmung von Medien mit der Unterscheidung von Medium und Form, bezeichnet Form die Seite der beobachtbaren Kommunikate, in denen Bedeutung sich aktualisiert, während die Medien selbst unsichtbar bleiben und nur an der Kontingenz der Formbildungen erkennbar sind.

Ferner unterscheidet Luhmann drei Typen von Kommunikationsmedien:

• »Sprache ist ein Medium, das sich durch Zeichengebrauch auszeichnet. Sie benutzt akustische bzw. optische Zeichen für Sinn.«

• »Aufgrund von Sprache haben sich Verbreitungsmedien, nämlich Schrift, Druck und Funk entwickeln lassen.« Sie sind auch die Grundlage für die Massenmedien in der modernen Gesellschaft.

• Drittens gibt es die »symbolisch generalisierten Kommunikationsmedien«, die jeweils einzelnen Funktionsbereichen der Gesellschaft zugeordnet werden. »Wichtige Beispiele sind: Wahrheit, Liebe, Eigentum/Geld, Macht/ Recht« (Luhmann 1984, S. 220 ff.).

Neben diesen Medienbegriffen definiert Luhmann auch den Begriff »Massenmedien«, und zwar im Sinne technischer Verbreitungsmedien, bei denen keine Interaktion unter Anwesenden zwischen Sender und Empfängern stattfinden kann. Unter Massenmedien versteht er »alle Einrichtungen der Gesellschaft […], die sich zur Verbreitung von Kommunikation technischer Mittel der Vervielfältigung bedienen [… und dafür] Produkte in großer Zahl mit noch unbestimmten Adressaten erzeugen« (Luhmann 1996, S. 10).

Luhmanns Medienbegriff ist von systemtheoretisch und konstruktivistisch orientierten Kommunikationswissenschaftlern aufgegriffen und in unterschiedlichen Varianten weiterentwickelt worden. Als Beispiel soll hier nur der Medienbegriff von Schmidt und Zurstiege vorgestellt werden, die Medien als einen Kompaktbegriff sehen, der semiotische Kommunikationsinstrumente, Medientechnologien, sozialsystemische Institutionalisierungen medientechnischer Dispositive und Medienangebote umfasst, die unter den jeweiligen sozialhistorischen Bedingungen als Gesamtmediensystem selbstorganisatorisch und ko-produktiv zusammenwirken und auf die Entfaltung gruppen- oder gesellschaftsspezifischer Wirklichkeits- und Identitätskonstruktionen einwirken.

Zu unterscheiden sind also »vier Komponentenebenen:

• Kommunikationsinstrumente, d. h. materielle Zeichen, die zur Kommunikation benutzt werden, allen voran natürliche Sprachen;

• Medientechniken, die eingesetzt werden, um Medienangebote etwa in Form von Büchern, Filmen oder E-Mails herzustellen, zu verbreiten oder zu nutzen;

• institutionelle Einrichtungen bzw. Organisationen (wie Verlage oder Fernsehsender), die entwickelt werden, um Medientechniken zu verwalten, zu finanzieren, politisch und juristisch zu vertreten etc.;

• schließlich die Medienangebote selbst, die aus dem Zusammenwirken aller genannten Faktoren hervorgehen (wie Bücher, Zeitungen, Fernsehsendungen etc.)« (Schmidt/Zurstiege 2000, S. 170).

In der Forschungspraxis sind derart weite Medienbegriffe nicht ohne weiteres verwendbar und müssen im Hinblick auf die jeweilige Forschungsfrage eingegrenzt werden.

Pädagogische Medienbegriffe

Die Bezugswissenschaften der (vergleichsweise jungen) Medienpädagogik sind vor allem die Kommunikationswissenschaft und die Erziehungswissenschaft. Medienpädagogische Medienbegriffe entsprechen daher im Allgemeinen den kommunikationswissenschaftlichen. Unterschiedlich sind dagegen die Forschungsinteressen, die in der Medienpädagogik stärker der pädagogisch relevanteren Rezeptionsseite zuneigen. Der pädagogische Impetus zeigt sich beispielsweise in folgender Begriffsbestimmung:

»Medienpädagogik umfasst alle Fragen der pädagogischen Bedeutung von Medien in den Nutzungsbereichen Freizeit, Bildung und Beruf. Dort, wo Medien als Mittel der Information, Beeinflussung, Unterhaltung, Unterrichtung und Alltagsorganisation Relevanz für die Sozialisation des Menschen erlangen, werden sie zum Gegenstand der Medienpädagogik, wobei Sozialisation die Gesamtheit intendierter und nicht intendierter Einwirkungen meint, die den Menschen auf kognitiver und emotionaler Ebene sowie im Verhaltensbereich prägen. – Gegenstände medienpädagogischer Theorie und Praxis sind die Medien, ihre Produzenten und ihre Nutzer im jeweiligen sozialen Kontext. Medienpädagogik untersucht die Inhalte und Funktionen der Medien, ihre Nutzungsformen sowie ihre individuellen und gesellschaftlichen Auswirkungen. Sie entwirft Modelle für medienpädagogisches Arbeiten, mit dem die Nutzer über die Kompetenzstufen Wissen und Analysefähigkeit in ihren spezifischen Lebenswelten zu medienbezogenem und medieneinbeziehendem Handeln geführt werden sollen« (Neubauer/Tulodziecki 1979, S. 15).

Innerhalb der Erziehungswissenschaft grenzt sich die Medienpädagogik in ihrem disziplinären Selbstverständnis einerseits von der Sozialpädagogik und andererseits von der Schulpädagogik ab. Sowohl im sozialpädagogischen Kontext als auch immer dann, wenn von Medien als Hilfsmitteln im Unterricht (Mediendidaktik, e-learning, Erwachsenenbildung) die Rede ist, sind meist andere als kommunikationswissenschaftliche Medienbegriffe gemeint.

Als sozialpädagogische Medien bezeichnet man Mittler zur Gestaltung der pädagogischen Beziehung wie Gestalten, Bewegen, Darstellen. Dazu zählen Spiel, kreative Ausdrucksmedien wie z. B. Musik, Tanz, Theater sowie ausgewählte Gestaltungstechniken. Einbezogen werden jedoch auch technische Medien in ihren Möglichkeiten für Eigenproduktionen, z. B. Videofilme. Mit diesem sozialpädagogischen Medienbegriff werden Medien nicht einem disziplinären Gegenstandsfeld zugeschlagen, sondern einer sozialpädagogischen Handlungskompetenz, die sich richtet

1) auf die Vermittlung spezifischer Sinneswahrnehmungs- und Darstellungsqualitäten (Ästhetik),

2) auf die Ermöglichung des verbalen und nonverbalen Austauschs mit Anderen (Kommunikation),

3) auf den konzeptionell fundierten und handlungsorientierten Einsatz kreativer Kompetenzen für die sozialpädagogische Arbeit mit unterschiedlichen Zielgruppen und Problemlagen (Intervention) (vgl. Studienordnung Sozialpädagogik der FH Darmstadt).

Unübersichtlicher ist der Medienbegriff in der Schulpädagogik. Da die (Massen-) Medien und ihre sozialisatorischen und gesellschaftlichen Effekte auch zum Lehrauftrag der Schule gehören, also Lerngegenstand sind, und der erzieherische Auftrag der Schule auch Medienerziehung umfasst, werden insoweit auch hier kommunikationswissenschaftliche Medienbegriffe verwendet.

Aus schulischer Sicht des eigenen Handlungsfelds kommt jedoch – neben dieser medienpädagogischen Perspektive auf die Massenmedien – der Mediendidaktik und den Unterrichtsmedien ein ungleich höherer Stellenwert zu. Das zeigt sich beispielsweise daran, dass Medienpädagogik häufig entweder synonym mit Mediendidaktik verwendet oder darunter subsumiert wird. So ist noch 1994 im »Handbuch der Medienpädagogik« (hrsg. von Hiegemann/Swoboda) der einzige definitorische Artikel zum Medienbegriff ausschließlich der mediendidaktischen Sicht gewidmet. Dort heißt es, dass Paul Heimann (1970) in der allgemeinen Didaktik die Medien als »selbständigen Faktor der Unterrichtstheorie« (Wokittel 1994, S. 25) fasst.

Während den didaktischen Reflexionen zum Medieneinsatz hohe Bedeutung zugemessen wird, ist der Medienbegriff meist unterbelichtet. Von Tafel und Kreide über Overhead-Projektor, Lehrfilm und Landkarte bis zu Computer, Smartboard, digitalen Lernspielen und Lernprogrammen, kann alles als Unterrichtsmedium bezeichnet werden.

Überschneidungen der drei pädagogischen Medienbegriffe zeigen sich in den Begriffen individuell handhabbare Medien sowie Medienverbund. Unter individuell handhabbaren Medien versteht man in der handlungsorientierten (oder auch: aktivierenden) Medienpädagogik alle technischen Medien, mit denen ohne spezialisierte Kommunikatoren und ohne institutionellen Aufwand mediale Eigenproduktionen hergestellt werden können – in schulischen oder sozialpädagogischen Settings ebenso wie auch privat. Medienverbund bezeichnet eine Kooperation von Massenmedien und Erwachsenenbildung, bei der beispielsweise gedruckte Lehrmaterialien und Bildungssendungen im Radio oder Fernsehen aufeinander abgestimmt zum Einsatz kommen.

Davon abweichend wird manchmal auch jenseits pädagogischer Vermittlungsabsicht von Medienverbund gesprochen, wenn eine intermediale Verschränkung verschiedener Einzelmedien (treffender: Medienkonvergenz) gemeint ist. In technikzentrierter Sicht formuliert Norbert Bolz: »Menschen sind heute nicht mehr Werkzeugbenutzer, sondern Schaltmomente im Medienverbund. Deshalb setzen sich immer mehr Computermetaphern für Selbstverhältnisse durch – wir rasten in Schaltkreise ein.« (Bolz 1993, S. 116). Man könnte hier auch von Medien als einer Matrix sprechen.

Fazit

Die neueren Medienentwicklungen zeigen, dass der Mensch in der medialen Kommunikation nicht nur immer weiter in den Hintergrund tritt. Vielmehr lässt sich eine Verschränkung von Big Data und Post- bzw. Transhumanismus (vgl. Sanders 2016) konstatieren, die mit einer Immaterialisierung der Zeichen von den Körpern begann. Wer redet, redet zu anwesenden Personen. Mit der Schrift löst sich nicht nur der zeitliche und räumliche Konnex auf – auch der Adressat (insbesondere der der Massenmedien) wird zu einem unbestimmten, gedachten Publikum, das durch das Medium erst hergestellt wird. Und wenn in den Computernetzen Daten erzeugt, übertragen und gespeichert werden, bleiben die menschlichen Sinne bei der Decodierung der Medien außen vor, weil sie nicht formatkompatibel sind. Die Daten zirkulieren nicht-materiell (im Sinne des Datentransports) und gesteuert von Algorithmen, die für die menschlichen Mediennutzer in der Regel nicht durchschaubar, geschweige denn beherrschbar sind. Das Verhältnis von Mensch und Medien wird offensichtlich zunehmend komplexer.

Literatur

Baacke, D. (1994): Die Medien. In: Lenzen, Dieter (Hrsg.): Erziehungswissenschaft. Ein Grundkurs. Reinbek, S. 314–339.

Baacke, Dieter (Hrsg.) (1973): Mediendidaktische Modelle: Fernsehen. München.

Baacke, Dieter (1997): Massenmedien. In: Hüther, Jürgen/Schorb, Bernd/Brehm-Klotz, Christiane (Hrsg.): Grundbegriffe der Medienpädagogik. Ein Wörterbuch für Studium und Praxis. München, S. 205–209.

Baltes, Martin/Böhler, Fritz/Höltschl, Rainer/Reuss, Jürgen (Hrsg.) (1997): Medien verstehen. Der McLuhan-Reader. Mannheim.

Bentele, Günter/Beck, Klaus (1994): Information – Kommunikation – Massenkommunikation. In: Jarren, Otfried (Hrsg.): Medien und Journalismus 1. Opladen, S. 18–50.

Bolz, Norbert 1993: Am Ende der Gutenberg-Galaxis. Die neuen Kommunikationsverhältnisse. München.

Burkart, Roland (2002): Kommunikationswissenschaft. Grundlagen und Problemfelder, 4. Auflage. Wien u. a.

Coy, Wolfgang (1994): Aus der Vorgeschichte des Mediums Computer. In: Bolz, Norbert/Kittler, Friedrich, A./ Tholen, Christoph (Hrsg.): Computer als Medium. München.

Faßler, Manfred (2000): State of Art der Forschungen im Bereich der Medien- und Kommunikationssoziologie. Soviel Medien waren nie. Quo vadis Mediensoziologie und Kommunikationssoziologie? (1). URL://www.cyberpoiesis.net/d_1th_index1.html [18.8.2004].

Faulstich, Werner (1991): Medientheorien. Einführung und Überblick. Göttingen.

Flechtner, Hans-Joachim (1966): Grundbegriffe der Kybernetik. Stuttgart.

Grampp, Sven (2006): »McLuhmann. Niklas Luhmanns Systemtheorie und die Realität der Medien«. In: MEDIENwissenschaft, 2006, 3, S. 260–276.

Halbach, Wulf, R./Faßler, Manfred (1998): Einleitung in eine Mediengeschichte. In: Dies. (Hrsg.): Geschichte der Medien. München, S. 17–53.

Hiebel, Hans H./Hiebler, Heinz/Kogler, Karl/Walisch, Herwig (1999): Große Medienchronik. München.

Hiegemann, Susanne/Swoboda, Wolfgang H. (Hrsg.) (1994): Handbuch der Medienpädagogik. Theorieansätze – Traditionen – Praxisfelder – Forschungsperspektiven. Opladen.

Höflich, Joachim R. (1994): Der Computer als »interaktives Massenmedium«. Zum Beitrag des Uses and Gratifications-Approach bei der Untersuchung computer-vermittelter Kommunikation. In: Publizistik, 39. Jg., H. 4, S. 389–408.

Höflich, Joachim R. (1995): Vom dispersen Publikum zu »elektronischen Gemeinschaften«. Plädoyer für einen erweiterten kommunikationswissenschaftlichen Blickwinkel. In: Rundfunk und Fernsehen, 43. Jg., H. 4, S. 518–537.

Horkheimer, Max/Adorno, Theodor W. (1969) (orig. 1944): Kulturindustrie. Aufklärung als Massenbetrug. In: Dies.: Dialektik der Aufklärung. Frankfurt a. M., S. 108–150.

Hörning, Karl H. (1989): Vom Umgang mit den Dingen – eine techniksoziologische Zuspitzung. In: Weingarten, Rüdiger (Hrsg.): Die Verkabelung der Sprache: Grenzen der Technisierung der Kommunikation. Frankfurt.

Kausch, Michael (1988): Kulturindustrie und Populärkultur. Kritische Theorie der Massenmedien. Frankfurt.

Kittler, Friedrich A. (1989): Die künstliche Intelligenz des Weltkriegs: Alan Turing. In: Kittler, F.A./Tholen, Georg Christoph (Hrsg.): Arsenale der Seele. München.

Kittler, Friedrich A. (1993): Geschichte der Kommunikationsmedien. In: Huber, Jörg/Müller, Alois Martin (Hrsg.): Raum und Verfahren. Interventionen 2. Basel/Frankfurt, S. 169–188.

Kloock, Daniela/Spahr, Angela (Hrsg.) (2000): Medientheorien. Eine Einführung. München.

Kubicek, Herbert/Schmid, Ulrich (1996): Alltagsorientierte Informationssysteme als Medieninnovation. Konzeptionelle Überlegungen zur Erklärung der Schwierigkeiten, »Neue Medien« und »Multimedia« zu etablieren. URL://www.fgtk.informatik.uni-bremen.de/website/deutsch/downloads/Medieninnovation/Medieninnovation_fn.html [18.8.2004].

Kubicek, Herbert/Schmid, Ulrich/Wagner, Heiderose (1997): Bürgerinformation durch neue Medien? Opladen.

Kübler, Hans-Dieter (2003): Kommunikation und Medien. Eine Einführung. Münster.

Ludes, Peter (1998): Einführung in die Medienwissenschaft. Entwicklungen und Theorien. Berlin.

Luhmann, Niklas (1984): Soziale Systeme. Grundrisse einer allgemeinen Theorie. Frankfurt.

Luhmann, Niklas (1995): Wie ist Bewußtsein an Kommunikation beteiligt? In: Ders.: Soziologische Aufklärung 6: Die Soziologie und der Mensch. Opladen, S. 37–54.

Luhmann, Niklas (1996): Die Realität der Massenmedien. Opladen.

Maletzke, Gerhard (Hrsg.) (1963): Psychologie der Massenkommunikation. Theorie und Systematik. Hamburg.

McLuhan, Marshall (1968; amerik. OA 1964): Die magischen Kanäle. »Understanding Media«, Düsseldorf/ Wien, S. 71 f.

Meder, Norbert (1995): Multimedia oder McLuhan in neuem Licht. In: GMK-Rundbrief Nr. 37/38, S. 8–18.

Neubauer, Wolfgang/Tulodziecki, Gerhard (1979): Medienpädagogik mit ihren Aspekten: Medienkunde, Mediendidaktik, Medienerziehung, Medienforschung. In: Hagemann, Wilhelm u.a. (Hrsg.): Medienpädagogik. Köln.

Prokop, Dieter (2000): Der Medien-Kapitalismus. Das Lexikon der neuen kritischen Medienforschung. Hamburg.

Prokop, Dieter (2001): Der Kampf um die Medien. Das Geschichtsbuch der neuen kritischen Medienforschung. Hamburg.

Pross, Harry (1972): Medienforschung. Darmstadt.

Rammert, Werner (1993): Materiell – Immateriell – Medial: Die verschlungenen Bande zwischen Technik und Alltagsleben. In: Ders.: Technik aus soziologischer Perspektive. Opladen, S. 291–308.

Sanders, Olaf (2016): Zur Transformation von Körperbildern durch Posthumanismus und Big Data am Beispiel der Filme Her und Transcendence. In: Dallmann, Christine/ Hartung, Anja/ Vollbrecht, Ralf (Hrsg.): Körpergeschichten. Baden-Baden (im Erscheinen).

Saxer, Ulrich (1975): Das Buch in der Medienkonkurrenz. In: Göpfert, Herbert G./Meyer, Ruth/Muth, Ludwig/Rüegg, Walter (Hrsg.): Lesen und Schreiben. Frankfurt, S. 206–245.

Saxer, Ulrich (1998): Mediengesellschaft. Verständnisse und Missverständnisse. In: Sarcinelli, Ulrich (Hrsg.): Politikvermittlung und Demokratie in der Mediengesellschaft. Beiträge zur politischen Kommunikationskultur. Opladen, S. 52–73.

Schanze, Helmut (1976): Zum Begriff des Mediums. In: Knoll, Joachim H./Hüther, Jürgen (Hrsg.): Medienpädagogik. München, S. 25–36.

Schill, Wolfgang/Tulodziecki, Gerhard/Wagner, Wolf-Rüdiger (Hrsg.) (1992): Medienpädagogisches Handeln in der Schule. Ein Handbuch. Opladen.

Schmidt, Siegfried J./Zurstiege, Guido (2000): Orientierung Kommunikationswissenschaft. Reinbek.

Schulz, Winfried (1974): Bedeutungsvermittlung durch Massenkommunikation. Grundgedanken zu einer analytischen Theorie der Medien. In: Publizistik, 19. Jg., H. 2, S. 148–164.

Shannon, Claude E./Weaver, Warren (1949): The Mathematical Theory of Communication. Urbana.

Vollbrecht, Ralf (2001): Einführung in die Medienpädagogik. Weinheim/Basel.

Weibel, Peter (1990): Vom Verschwinden der Ferne: Telekommunikation und Kunst. In: Decker, Edith/Weibel, Peter (Hrsg.): Vom Verschwinden der Ferne. Köln, S. 19–77.

Wokittel, Horst (1994): Medienbegriff und Medienbewertungen in der pädagogischen Theoriegeschichte. In: Hiegemann, Susanne/Swoboda, Wolfgang H. (Hrsg.): Handbuch der Medienpädagogik. Theorieansätze – Traditionen – Praxisfelder – Forschungsperspektiven. Opladen, S. 25–36.

2.1 Theoretischer Hintergrund qualitativer Medienforschung

Wissenssoziologische Verfahren der Bildinterpretation

JO REICHERTZ

Der Artikel gibt zunächst einen Überblick über die methodischen und theoretischen Prämissen der hermeneutischen Wissenssoziologie, um dann die wichtigen Elemente des methodischen Vorgehens zu erläutern. Anhand der Interpretation eines Fotos (Homepage der österreichischen Beraterfirma Neuwaldegg) wird abschließend nicht nur gezeigt, wie eine solche Analyse im Einzelnen vonstattengeht, sondern auch, welche Gewinne sich erzielen lassen, wenn man dieses Verfahren für zeitdiagnostische Fragestellungen nutzt.

Methodisch-methodologische Einordnung

Die hermeneutische Wissenssoziologie, anfangs auch »Sozialwissenschaftliche Hermeneutik« genannt, ist eine wissenssoziologisch arbeitende und hermeneutisch die Daten analysierende Forschungsperspektive innerhalb der qualitativen/ rekonstruktiven Sozialforschung. Sie hat zum Ziel, die gesellschaftliche Bedeutung jeder Form von Interaktion (sprachlicher wie nichtsprachlicher) und aller Arten von Handlungsprodukten (Fotos, Filme, Denkmäler, Bauten etc.) zu (re) konstruieren (Soeffner 1989, Schröer 1994, Hitzler/Reichertz/Schröer 1999, Reichertz/Englert 2011). Die hermeneutische Wissenssoziologie hat sich in der aktuellen Form zum einen durch die Kritik an der »Metaphysik der Strukturen« der objektiven Hermeneutik, zum anderen durch die Auseinandersetzung mit der sozialphänomenologischen Forschungstradition (Berger/Luckmann 1977) herausgebildet und verortet sich in den letzten Jahren zunehmend als Teil eines kommunikativen Konstruktivismus (Reichertz 2009, Keller/Knoblauch/Reichertz 2012). Methodisch verbindet sie bei der Bildinterpretation Sequenzanalyse (→ Korte, S. 432 ff.) und Grounded Theory (Strauss 1991; → Lampert, S. 596 ff.).

Prämissen einer wissenssoziologischen Interpretation von Bildern

Bild und Bildtext

Bilder aller Art sind in gewisser Weise optische Sinfonien. Denn beim Betrachten von stehenden und bewegten Bildern (und natürlich auch bei technisch erzeugten Grafiken) trifft eine Vielzahl von Tönen gleichzeitig beim Betrachter ein. Insofern ist das Ansehen eines Fotos nur ein besonderer Fall visueller Wahrnehmung, und diese löst (ähnlich wie die Wahrnehmung von Gerüchen, Berührung, Wärme etc.) direkte Körperreaktionen aus, ohne dass die Wahrnehmung in einen Text umgewandelt werden muss. Bilder deuten kann man jedoch nur, soll zumindest eine gewisse Nachvollziehbarkeit und damit eine Überprüfbarkeit geschaffen werden, wenn man den Wahrnehmungsprozess einerseits systematisiert und andererseits den mit der Bildbetrachtung in Gang gesetzten Prozess der Sinnzuschreibung fixiert. Protokolliert man also die Wahrnehmung des Bildes, produziert man erst einmal einen Text. Und dieser Text hat notwendigerweise immer eine andere Ordnung als das Bild und deshalb auch immer eine andere Wirkung.

Ein Bild und der Protokolltext des wahrnehmenden Zugriffs auf dieses Bild unterscheiden sich strukturell. Zwar sind sowohl Bild als auch Text fixiert und damit der analytischen Arbeit beliebiger Rezipienten immer wieder verfügbar, Bild und Text sind also nicht so unaufhebbar flüchtig wie das Leben in der Welt, doch bleibt das Bild eine Sinfonie und der Text eine Reihe von sequenziell geordneten, nach den Regeln der Grammatik, Semantik und Pragmatik einer Gesellschaft ausgewählten Wörtern. Der Text zerstört unwiederbringlich die Gleichzeitigkeit des Eindrucks und schafft eine neue Ordnung des Nacheinanders, des sequenziellen Geordnetseins.

Auch wenn man einräumt, dass Bilder zeichenhaft sind, also mit den allgemeinen Regeln der gesellschaftlichen Bedeutungskonstitution arbeiten, können nur ausgemachte Optimisten unterstellen, die Bildbedeutung ließe sich identisch auf einen Bildtext abbilden. Deshalb gibt es für die Analyse von Bildern nicht nur ein Problem der Beschreibbarkeit, sondern es ist zudem zentral (siehe vor allem Müller/Raab/Soeffner 2014, auch Reichertz 2014).

Die (hermeneutische) Interpretation von Fotos (und Filmen) hat in Deutschland nach einem zögerlichen Beginn in den 1990er Jahren (Oevermann 1979, 1983, Englisch 1991; Haupert 1992; Loer 1992, Reichertz 1992, 1994, 2000) in den letzten Jahren einen enormen Aufschwung erlebt – weshalb manche von einem pictorial turn sprechen (Schade/Wenk 2011). Eine Fülle von Bildinterpretationsverfahren haben sich im deutschsprachigen Raum entwickelt: Einen guten Überblick über die Entwicklung und die einzelnen Verfahren findet sich in Netzwerk Bildphilosophie 2014. Zudem macht eine Reihe von Sammelbänden das Vorgehen und die Reichweite der einzelnen Verfahren sichtbar: Marotzki & Niesyto 2012, Lucht/Schmidt/Tuma 2013, Kauppert/Leser 2014, Przyborski/Haller 2014 und Eberle 2016. Konsens herrscht darüber, dass die Interpretation und Transkription von stehenden Bildern sich kategorial von der Interpretation und Transkription laufender Bilder unterscheidet (Corsten/Krug/Moritz 2010). Elaborierte qualitative und sozialwissenschaftliche Methoden und Methodologien zur Bildinterpretation sind bislang vor allem von der Rekonstruktiven Sozialforschung (Bohnsack 2001, 2005, 2009, Bohnsack/Michel/Przyborski 2015), der objektiven Hermeneutik (Oevermann 2014, Loer 1992, 1996, 2010, Wienke 2001, Kraimer 2014) und der hermeneutischen Wissenssoziologie (Soeffner 2000, Kurt 2008, Raab 2008, Reichertz 2000, 2010; Reichertz/Englert 2011, Reichertz/ Wilz 2016), die figurative Hermeneutik (Müller 2012) und der Segmentanalyse (Breckner 2010) vorgelegt worden.

Bild und Bildbedeutung

Bilder bedeuten etwas. Allerdings bedeuten sie nicht immer dasselbe. Die Bedeutung eines Bildes hängt nämlich davon ab, welche Frage man an das Bild stellt. Geht es (so eine Frage) um die Ermittlung der Intention des oder der Produzenten des Bildes, also um das, was einzelne Macher bewusst mit der Gestaltung eines Bildes erreichen wollten? Oder soll angezielt werden, die notwendigerweise singuläre und subjektive Zuschreibung von Bedeutung im Moment der Rezeption zu ermitteln, also das zu bestimmen, was im Augenblick der Aneignung im Bewusstsein des Rezipienten geschieht? Oder will man gar – dem Programm der Cultural Studies folgend (vgl. hierzu Bromley u. a. 1999 und Hall 1999; eine interessante, nicht nur von den Cultural Studies inspirierte Einführung in die Filmanalyse liegt mit Mikos 2015 vor) – den kommunikativen und interaktiven Umgang mit Bildern, also deren Aneignung und weitere Verwendung?

Die ersten beiden, im Kern subjektiven und von der individuellen und sozialen Biographie geformten Bedeutungsvorstellungen sind soziologisch von geringem Belang und zudem nicht zugänglich. Deshalb fallen sie hier als Zielpunkte der Analyse aus. Auch soll hier unter Bildanalyse nicht die Suche nach der dritten Bedeutung verstanden werden, also dem sozialen Umgang mit Bildern und der in der kommunikativen Aneignung erschaffenen Bedeutung, die durchaus soziologisch relevant und mittels Ethnographien prinzipiell ermittelbar ist. Weil diese Art der Bedeutungsermittlung ihre Daten außerhalb des Bildes sucht, gehört sie nicht mehr zur Bildanalyse. Insgesamt bleibt hier die Abnehmerseite eines Bildes, also die Ermittlung der Aneignung von Bedeutung in konkreten Kommunikationssituationen, außen vor.

Die wissenssoziologische Bildanalyse im engen Sinne fragt nun nach der in Bildern aller Art eingelassenen gesellschaftlichen Bedeutung.

Zur Methode einer hermeneutischen Wissenssoziologie

Gezeigte Handlung versus Handlung des Zeigens

Das hier vorgestellte Datenanalyseverfahren ist die hermeneutische Wissenssoziologie (allgemein hierzu Hitzler/Reichertz/Schröer 1999; Soeffner 1989 und Schröer 1994). Die hermeneutische Wissenssoziologie soll sinnstrukturierte Produkte menschlichen Handelns auf ihre Handlungsbedeutung hin auslegen und ist als solche in der Lage, sowohl Texte als auch Bilder, Grafiken und Fotos jeder Art auszulegen.

Die hermeneutische Wissenssoziologie interpretiert dabei ausschließlich Handlungen, also auch Sprech- und Darstellungshandlungen. Bei der Analyse von Bildern, (digitalisierten) Fotos, Filmen und Grafiken ergibt sich allerdings die Frage, welches Handeln überhaupt Gegenstand der Untersuchung sein soll. Hier gilt ganz allgemein – und dies im Anschluss an Peters 1980 und Opl 1990 –, zwischen der gezeigten Handlung (also der im Bild gezeigten Handlung) und der Handlung des Zeigens (also der mit dem Bild gezeigten) zu unterscheiden1 (ausführlich hierzu Reichertz/Englert 2011). Mit Ersterem wird das Geschehen bezeichnet, das mithilfe des Bildes aufgezeichnet und somit gezeigt wird, mit Letzterem der Akt der Aufzeichnung, also des Zeigens durch die Gestaltung des Bildes (plus die Gestaltung des von dem Bild Aufgezeichneten). Bild meint hier nicht nur ein Foto, sondern ganz allgemein einen Apparat des Aufzeichnens, Fixierens mit einer darin eingelassenen spezifischen Selektivität.

Zur Handlung des mit der Bildgestaltung Zeigens gehört also vor allem (1) die Wahl des Ortes zur Inszenierung einer Handlung vor der Kamera, (2) die Wahl der Kulissen und des sozialen Settings, (3) die Auswahl und Gestaltung des Bildausschnitts, (4) die Art und das Tempo der Schnittfolge, (5) die Kommentierung des Abgebildeten durch Filter, eingeblendete Grafiken, Texte, Töne oder Musik, (6) die Auswahl und Ausrüstung des Aufzeichnungsgeräts (Kamera) und (7) die Gestaltung der Filmkopie (Format, Qualität).

Alle Handlungen greifen in der Regel auf kulturell erarbeitete Muster und Rahmen (ikonographische Topoi) zurück, weshalb die Handlung des Zeigens sich immer auch auf andere, zeitlich frühere Handlungen des Zeigens bezieht. Da die (impliziten oder expliziten) Entscheidungen über die wesentlichen Elemente der Bildgestaltung zeitlich der Handlung im Bild meist vorangehen bzw. diese dominieren, bildet die Bildgestaltungshandlung den für die (alltägliche und wissenschaftliche) Interpretation dominanten Handlungsrahmen, in dem die Handlung im Bild unauflöslich eingebunden ist.

Allerdings findet sich oft für die Bildgestaltungshandlung bei näherer Betrachtung kein einzelner personaler Akteur, da z. B. im Falle eines Filmes der Regisseur in der Regel nicht für alle Kamerahandlungen zuständig ist. Meist sind (z. B. beim Film) an der Kamerahandlung auch Kameraleute, Maskenbildner, Tontechniker, Kulissenschieber, Ausleuchter, Kabelträger, Kreative, Text- und Songschreiber, betriebseigene Medienforscher u. v. a. m. beteiligt. Das durch Professionsstandards angeleitete Zusammenspiel all dieser Funktionen bringt schlussendlich das zustande, was als Film gesendet wird oder als Bild, Grafik, Werbeanzeige oder Homepage veröffentlicht wird. Wird im Weiteren von dem Autor der Bildgestaltung gesprochen, dann ist immer ein korporierter Akteur (= Summe aller Handlungslogiken, die an der Aufnahme und Gestaltung eines Bildes mitwirken – siehe Reichertz 2016) gemeint.

Stets kommentiert und interpretiert der korporierte Akteur durch die Handlung der Bildgestaltung die Handlung im Bild. Auch der Versuch, mit der Bild-Darstellung nur das wiederzugeben, was den abgebildeten Dingen (scheinbar von Natur aus) anhaftet, ist ein Kommentar, allerdings ein anderer als der, wenn die Kamera z. B. durch Schärfentiefe, Verzerrungen etc. auf sich selbst weist. Im ersten Fall versucht der korporierte Akteur sein Tun und die Bedeutung seiner Handlungslogik zu leugnen bzw. zu vertuschen, im zweiten Fall schiebt er sich zwischen Abgebildetem und Betrachter und bringt sich damit selbst ins Gespräch.

Aus diesem Grunde geht es bei der Analyse von Bilddaten nicht allein um die Rekonstruktion der Bedeutung des gezeigten Geschehens. Bildanalyse kann und darf sich nie auf die Bild-inhaltsanalyse bzw. auf die Analyse der vor der Kamera gesprochenen Worte beschränken, da die Kamerahandlung stets konstitutiver Bestandteil des Films ist. Sie hat sich durch eine Fülle nonverbaler Zeichen in den Film eingeschrieben, sie hat im Film einen bedeutsamen Abdruck hinterlassen. In jeder bildlichen Darstellung von Handlungen finden sich also immer zwei Komplexe von Zeichen: zum einen die Zeichen, welche auf die Regeln der abgebildeten Handlungen, zum anderen die, welche auf die Regeln der Handlung der Abbildung verweisen.

Deuten als schrittweise Sinnrekonstruktion

Methodisch verfolgt eine hermeneutische Wissenssoziologie bei der Interpretation von Bildern folgenden Weg: Die Daten werden entlang der oben vorgeschlagenen Differenzierung möglichst genau deskribiert. Der so entstandene Text enthält dann eine fixierte und nach wissenschaftlichen Standards codierte Version des beobachteten Bildes, er ist ein formalisiertes Protokoll dieser Beobachtung. Eine hermeneutische Wissenssoziologie schlägt nun vor, dieses Beobachtungsprotokoll als Feldprotokoll zu betrachten und mit dem auch von der Grounded Theory entwickelten Verfahren (vgl. z. B. Strauss 1991) zu behandeln.

In der Anfangsphase wird das Beobachtungsprotokoll, also der Bildtext, offen codiert, will sagen: das Dokument wird extensiv und genau analysiert »und zwar Zeile um Zeile oder sogar Wort für Wort« (Strauss 1991, S. 58). Entscheidend in dieser Phase ist, dass man noch keine (bereits bekannte) Bedeutungsfigur an den Bildtext heranführt, sondern mithilfe des Textes möglichst viele, mit dem Text kompatible Lesarten des Bildes konstruiert.

In der Phase des offenen Codierens sucht man nach größeren Sinneinheiten, die gewiss immer schon theoretische Konzepte beinhalten bzw. mit diesen spielen und auf sie verweisen. Hat man solche gefunden, sucht man in der nächsten Phase der Interpretation nach höher aggregierten Sinneinheiten und Begrifflichkeiten, welche die einzelnen Teileinheiten verbinden. Außerdem lassen sich jetzt im Sinne eines »T

Wollen Sie wissen, wie es weiter geht?

Hier können Sie "Qualitative Medienforschung" sofort kaufen und weiterlesen:

Amazon

Apple iBookstore

ebook.de

Thalia

Weltbild

Viel Spaß!



Kaufen






Teilen