Psychotraumatologie 2001; 2(1): 1
DOI: 10.1055/s-2001-11985
Praxis und Forschung in der Psychotraumatologie
© Georg Thieme Verlag Stuttgart · New York

Empfehlungen für den Aufbau wissenschaftlicher Beiträge. Teil II

Gottfried Fischer
Weitere Informationen

Gottfried Fischer

Institut für Klinische Psychologie und Psychotherapie, Universität zu Köln

Zülpicherstraße 45 (Rundbau)
50923 Köln

Publikationsverlauf

Publikationsdatum:
31. Dezember 2001 (online)

 
Inhaltsübersicht #

Zusammenfassung:

Damit klinische Praxis und Forschung in der Psychotraumatologie optimal verbunden werden können, werden kreative Formen des Austauschs und der wissenschaftlichen Kommunikation diskutiert, die in PSYCHOTRAUMATOLOGIE als einer online-Zeitschrift auf vergleichsweise günstige Bedingungen treffen. Für die wissenschaftlichen Originalia der Zeitschrift werden einige Regeln für Forschung und für die Mitteilung von Forschungsergebnissen vorgeschlagen. Besonderer Wert wird auf eine induktive Forschungsmethodik gelegt, die idealerweise qualitative und quantitative Daten miteinander verbindet. Die induktive Suche nach Regelhaftigkeiten begünstigt den Aufbau der Psychotraumatologie als einer jungen wissenschaftlichen Disziplin.

#

Recommendations and Guidelines for Compiling Papers on Scientific Research. Part I

The author discusses creative opportunities for participation in a scientific dialogue that might be particularly well realized in an online journal such as PSYCHOTRAUMATOLOGIE. Concerning the publicaton of original papers in this journal a few rules-of-thumb are formulated as guidelines for further research and for the communication of results. Inductive research combining qualitative und quantitative data as well as qualitative and quantitative criteria for the verificaton and credibility of the data is ideal promoting the progress of a young discipline like „psychotraumatology”.

Hinweis: KÖDOPS ist das Kölner Dokumentationssystem für Psychotherapie (Fischer 2000, S. 274 - 286).

Die Übernahme des Textes erfolgte mit freundlicher Genehmigung des Verlags des Deutschen Instituts für Psychotraumatologie, Köln.

#

Einleitung

In Teil I der Empfehlungen (Ausgabe 1/2000 der Psychotraumatologie) wurden allgemeine Regeln ausgeführt, die sich aus der Logik unterschiedlicher Forschungsfragen und -strategien für den Aufbau eines wissenschaftlichen Beitrages ergeben. Diese werden hier weiter konkretisiert. Wer in der Rubrik „Originalarbeiten” in PSYCHOTRAUMATOLOGIE veröffentlichen möchte, kann sich an diesen Vorschlägen orientieren. Die Übersicht erhebt allerdings keinen Anspruch auf Vollständigkeit oder gar Ausschließlichkeit. Immer wieder wird es spezielle Forschungsfragen geben, die in dieser Systematik noch nicht berücksichtigt sind und die eine besondere Gliederung und Darstellungsform verlangen, um das wissenschaftliche Anliegen und die Erkenntnisse authentisch ausführen zu können. Der kunstwissenschaftliche Beitrag in dieser Ausgabe von PSYCHOTRAUMATOLOGIE ist ein Beispiel dafür, dass interdisziplinäre Zusammenarbeit auch von den Darstellungs- und Forschungsmethoden profitieren kann, die in den unterschiedlichen Disziplinen entwickelt wurden.

Hier wird ein Vorschlag für Darstellung und Gliederung bei folgenden Fragestellungen und wissenschaftlichen Beiträgen unterbreitet:

  • Hypothesensuchende Arbeiten mit induktiver Methodik;

  • Hypothesenprüfende Arbeiten mit deduktiver Methodik;

  • Werkanalytische Arbeiten mit interpretativer Methodik;

  • Theoriebezogene, metatheoretische Arbeiten, die auf die mathematische, logische und/oder erkenntnistheoretische Weiterentwicklung von Konzepten, Modellen oder Theorien abzielen;

  • Übersichtsarbeiten, die einen Überblick über den Forschungsstand in einem definierten Bereich geben und offene Problemstellungen auflisten;

  • Entwicklung von Forschungsinstrumenten und -methoden;

  • Aktionsforschung

#

Empfehlungen für den Aufbau wissenschaftlicher Arbeit nach der Logik unterschiedlicher Forschungsstrategien - spezieller Teil

#

A. Hypothesensuchender Typ der wissenschaftlichen Arbeit

#

1. Definition der empirischen Domäne sowie der Stichprobe

und Begründung, weshalb das erhobene Material für die Beantwortung der Frage und die Entwicklung bzw. Weiterentwicklung der Konzepte, Modelle oder Theorien aussichtsreich erscheint. Beschreibung und Eingrenzung der untersuchten Population.

#

2. Beschreibung der Erhebungsinstrumente

wie Tests, Interviews oder Dokumentationssysteme.

#

3. Durchführung und Auswertung

Eingehen auf eventl. Besonderheiten bei der Durchführung. Kontrolle der Objektivität. Datenaufbereitung, Datenauswertung wie im vorigen Kapitel beschrieben.

#

4. Induktives Vorgehen - deskriptive Schritte

Dies kann einzelfallanalytisch geschehen oder auch in einer Kombination zwischen Einzelfällen und Fallvergleich. Beschreibung der qualitativen, induktiven Methodik. Wird beispielsweise nach Miles & Huberman (1994)[13] gearbeitet, so sollten Matrizen wiedergegeben sein, die einen „Befund” enthalten, nicht jedoch die gesamte Sequenz der Suchschritte. Die einzelnen Schritte sollten kurz kommentiert werden, so dass einmal die Entscheidung für die Auswahl der Matrizen nachvollzogen werden kann, zum anderen die Entscheidung für eine bestimmte Gruppe von Kriteriumsvariablen, die dann in weitere induktive Operationen eingehen. Wahrscheinlich werden wir in Zukunft noch weitere Verfahren entwickeln, um qualitativ möglichst genau interpersonell nachvollziehbar und für Folgeuntersuchungen reproduzierbar zu gestalten. Eine online-Zeitschrift kann hier Möglichkeiten bieten, die einem Print-Medium überlegen sind.

#

5. Induktives Vorgehen - erklärende Operationen

Auch wenn sich dieser Punkt vom vorigen nicht in jedem Einzelfall abgrenzen lässt, ist die Unterteilung sowohl für den Autor der Arbeit wie den Leser hilfreich. Der Unterschied lässt sich so definieren: Deskriptiv ist das Sammeln von „Phänomenen”, von „Auffälligkeiten”, von Mustern und Regelhaftigkeiten im Material. Wenn nach Erklärungen für die Phänomene gesucht wird, beginnt die zweite Stufe, die nach dem Verfahren des „hermeneutischen Exklusionismus” (s. u.) über die Schritte der Hypothesensammlung, Exklusion und Zusammenfassung des Hypothesensatzes transparent gemacht wird. Dieses Prozedere lässt sich leichter auf within-case-Analyse und Werkinterpretation anwenden als auf cross-case-Analyse. Wird eine erklärende Matrix im Miles & Huberman-Verfahren erfolgreich zusammengestellt, so ist der Forscher bereits auf Ebene 3 des „hermeneutischen Exklusionismus”, bei der Zusammenfassung des Hypothesensatzes, angelangt. Es erscheint überflüssig, die erfolglos durchgespielten erklärenden Hypothesen aufzuführen.

Dennoch ist sehr hilfreich, die durchgespielten Erklärungsmöglichkeiten, auch und gerade wenn sie nicht weiterführten, zu notieren und zu dokumentieren. Ein nachfolgender Forscher kann dann an einer anderen Stichprobe auch die Negativliste der Erklärungshypothesen noch einmal abarbeiten und möglicherweise bestätigen. Dies erhöht die Validität der Kausalfaktoren auch im cross-case-Vergleich durch Exklusion „unergiebiger” Alternativerklärungen.

Bei der Suche nach Regelhaftigkeiten wie auch bei deren Überprüfung können statistische Verfahren hilfreich sein, so z. B. Kreuztabellen bei einem Vergleich von Untergruppen der Stichprobe. Hier handelt es sich um „a-posteriori-quantifizierende” Schritte, welche die Suche nach relevanten Strukturen unterstützen oder gefundene Zusammenhänge absichern können. Um Verwirrung zu vermeiden, sollte sich der Leser den Unterschied zu statistischen Verfahren der automatischen Datenklassifikation, wie etwa Konfigurationssequenz-Analyse, Cluster-Analyse, Diskriminanzanalyse usf. vor Augen führen, die bis zu einem gewissen Punkt vergleichbare Operationen durchführen. Sie gestatten jedoch nicht die Ergänzung des Variablensatzes oder tragen jedenfalls aus sich heraus zu diesem Schritt nicht bei. Hier endet auch die hypothesenfindende Funktion der Korrelationsstudien, da dieses Kernstück der suchenden Forschungslogik sich nur über ein qualitatives Vorgehen realisieren lässt.

#

6. Diskussion der relevanten Gütekriterien

Als „Faustregel” gelten die Fragen:

  1. „Wie stelle ich meine Entscheidungen dar, die ich im Forschungsprozess und bei Auswertung der Ergebnisse getroffen habe? (Transparenzkriterium)

  2. Wie begründe ich sie in nachvollziehbarer (bzw. kritisierbarer) Weise? (Begründungskriterium)

Zur Beantwortung dieser beiden Fragen kann eine Liste von Gütekriterien wertvolle Hinweise bieten. Transparenz- und Begründungskriterium stellen jedoch den Maßstab dar, an dem evtl. Mängel bemessen und diskutiert werden sollten. Zentraler Maßstab bei der explorativen Methodik sind daher nicht traditionelle Gütekriterien, wie Objektivität oder Interrater-Reliabilität, eher schon die im vorigen Abschnitt dargestellten qualitativen Kriterien. Besonders sollten Triangulation und Schritte von kommunikativer, argumentativer und Handlungsvalidierung vermerkt sein. Die „klassischen” Forderungen nach interpersoneller Trennung von Erheber, Auswerter und induktivem Forscher z. B. ist für explorative qualitative Arbeiten sogar hinderlich, da z. B. der Interviewer als unmittelbarer Interaktionspartner über Informationen verfügt, die der Auswerter nicht besitzt. Er müsste daher interviewt werden von Interviewer 2, dieser von Interviewer 3 usf., ein Vorgehen, das in einen unendlichen Regress mündet, jedoch keinerlei Informationsvorteil bietet. Auch forschungsökonomisch würde der qualitativ-induktive Studientyp mit dieser Forderung nahezu unmöglich gemacht.

Ein weiterer Erkenntnisnachteil entsteht im induktiven Kontext aus dem unreflektierten Einsatz der „qualitativen Inhaltsanalyse” mit Textanalyse, Kategorienbildung und Prüfung der Intercoder-Reliabilität. Dieses Verfahren gilt manchen als das „sauberste” qualitative Vorgehen, weil es der „quantitativen Mentalität” am nächsten steht und scheinbar nur ein Minimum an Induktion impliziert. In Wirklichkeit befindet sich dieses Verfahren am Schnittpunkt zwischen Deduktion und Induktion. Nicht selten kommt bei seinem Einsatz eine unerfreuliche Verbindung von unzweckmäßiger Induktion und unbemerkter Deduktion zustande. Hier müssen wir uns vor Augen führen, dass die Annahme einer völlig voraussetzungslosen Ableitung von Kategorien aus Beobachtungsdaten einer positivistischen, „abbildtheoretischen” Illusion entspricht. Kategorien ergeben sich nicht „automatisch” aus Beobachtungsdaten, sondern gehen aus einer Entscheidung zwischen mehreren Alternativen hervor. Die Entscheidung muss im induktiven Kontext nach dem Kriterium getroffen werden, welche der möglichen Kategorien für die Beantwortung der Ausgangsfrage am meisten Relevanz besitzt und für die Lösung der Problemstellung am zweckmäßigsten erscheint. Miles & Huberman (a. a. O.) fassen dieses erkenntnistheoretisch verankerte kategoriale Element innerhalb der induktiven Forschungsstrategie zum Modell eines „transzendentalen Empirimus” zusammen, der ihrem Verfahren zugrundeliege. Während der Empirimus die Kategorien aus der Erfahrung ableitet, betrachtet sie der „transzendentale” Ansatz als unhinterfragbares A-priori und durch die Natur der „Vernunft” endgültig festgelegt, z. B. bei Kant. „Transzendentaler Empirismus” geht von einem flexiblen Wechselspiel zwischen Beobachtungsdaten und reflektierten Kategorien im induktiven Forschungsprozess aus. Diese erkenntnislogische Position entspricht auch der dialektischen „Aufhebung” des Kantschen Transzendentalismus bei Hegel. Die gleiche Erkenntnislogik findet sich im Ansatz der „grounded theory” bei Anselm Strauss (vgl. Breuer 1996, 21 ff.[1] ). Praktisch folgt daraus: Inhaltsanalytische Kategorienbildung sollte nur dann eingesetzt werden, wenn ihr Nutzen für die induktive Strategie argumentativ belegt ist, nicht aber „reflexhaft”, wie dies oft geschieht, um dann mit statistischen Klassifikationsverfahren weiterarbeiten zu können. Dieses Vorgehen behindert den Erkenntnisprozess. Zweckmäßig erscheint zunächst vielmehr ein komplexitätsreduzierendes, zusammenfassendes Verfahren, wie es auch Miles & Huberman empfehlen. Größere Datenkontingente, z. B. Textpassagen, können stichwortartig zusammengefasst und kodiert werden. Hierzu eignen sich viele KÖDOPS-Formate der Mesoebene. Es entsteht ein flexibles Notationssystem, das in Richtung der Daten wie der Kategorien so lange offen gehalten werden kann, bis die im Datensatz vorhandenen Regelhaftigkeiten erkennbar werden. Auch die verschiedenen „Kodierungsphasen” in der „grounded theory” arbeiten mit Notizen und Reduktionen.

Dieses flexible Hin-und-Her zwischen Kategorienbildung und Datenmaterial gehört zum Wesen der induktiven Strategie und braucht keineswegs in einer „Mängelliste” aufgeführt zu werden. Als Mangel genannt werden vielmehr Untersuchungsumstände oder Bedingungen, die von den Gütekriterien der induktiven Strategie (vgl. Miles & Huberman) und den zugeordneten qualitativen Gütekriterien abweichen. Die Diskussion von Mängeln ermöglicht es, in weiteren Studien auf diese Punkte genauer zu achten und verbessert so die Validität des Forschungsunternehmens insgesamt, das ja mit einer einzelnen Arbeit nicht abgeschlossen ist.

Für Prüfungsarbeiten sei hinzugefügt, dass eine detaillierte Mängelliste dieser Art den Wert der Arbeit hebt.

#

7. Darstellung der Ergebnisse

mit Bezug auf die Eingangsfrage. Konsequenz für die inkludierten Modelle und die Theorieentwicklung. Einordnung der Ergebnisse in den Kontext der bisherigen, domänespezifischen Theoriebildung. In der Regel entstehen bei diesem Arbeitstyp „heuristische” Konzepte ( = Suchkonzepte) und Modelle. Bei einer erfolgreichen Arbeit sind die Ausgangskonzepte modifiziert bzw. differenziert und bereichert worden. Sie eignen sich jetzt besser als zuvor als klinische Heuristik oder für eine Triangulation mit Daten aus anderen Methodentypen nach dem „intermethodalen Konvergenzprinzip” (Fischer & Fäh, 1998[3]).

#

8. Zusammenfassung und Ausblick

Möglichst gut überschaubare Zusammenfassung von methodischen Schritten und Ergebnis entlang der hier empfohlenen Gliederung. Benennung noch ungeklärter Forschungsfragen. Vorschläge für sich anschließende Untersuchungsschritte, entweder suchender oder prüfender Art, im Hinblick auf eine weitere Klärung der Ausgangsfrage. Da der qualitative Forscher mit dem „Gelände” besonders gut vertraut ist, ist es sehr wertvoll und wünschenswert, wenn seine Arbeit mit dem Vorschlag für eine Operationalisierung des erforschten Konzepts endet, z. B. mit einem Fragebogen oder einer Ratingskala, welche die zentralen Zusammenhänge beschreibt.

Manche Psychologiestudenten schrecken davor zurück, am Ende ihrer Arbeit einen ungeprüften Fragebogen vorzulegen. Da in Methodenseminaren manchmal nur die deduktive Methodik im Mittelpunkt steht, kommt der Schritt, die Arbeit mit einem noch ungeprüften Forschungsinstrument zu beenden, intuitiv einer Entwertung der Arbeit gleich. In Wirklichkeit ist eine gute induktive Fundierung ein entscheidender Schritt für jedes Forschungsinstrument. Durch die Prüfmethodik und Verfahren der Testkonstruktion verbessert sich meist nur die formale Messgenauigkeit (Reliabilität), nicht aber sein Gegenstandsbezug (die Validität).

#

B. Hypothesenprüfender Typ

#

1. Deduktion der zu prüfenden Hypothesen

Ableitung der Konzepte und Modelle, die geprüft werden sollen, aus den übergeordneten theoretischen Annahmen. Nachweis, dass sich die Prüfung „lohnt”. Es müssen konsistente, falsifizierbare Theorien vorliegen mit Relevanz für einen bestimmten Gegenstandsbereich. Sonst muss eine Arbeit vom Typus der Theorieprüfung und Theorieentwicklung vorgeschaltet werden.

Darstellung der Operationalisierung und des beabsichtigten Prüfverfahrens. Formulierung von Null- vs. Alternativhypothesen.

In einer Positivliste sollten Gründe aufgeführt werden, welche für die „interne Validität” der gewählten Methode sprechen. Einschränkungen werden in einer Negativliste angeführt. Hier sollte zwischen Mängeln unterschieden werden, die sich aus der Theorie ergeben, z. B. Mangel an Falsifizierbarkeit einerseits und Gesichtspunkten andererseits, die sich aus grundsätzlichen oder umständebedingten Einschränkungen der Operationalisierbarkeit ergeben, z. B. ethische Probleme oder suboptimale Registriermethoden usf.

Ein übergeordneter Gesichtspunkt ist die Frage der „Repräsentanz” der Operationalisierung für die Theorie, ein qualitatives Kriterium, dessen Forschungslogik Holzkamp (1964)[9] ausgeführt hat. Wieweit und in welcher Form lassen sich logisch zwingende Rückschlüsse aus dem Untersuchungsergebnis für Bestätigungsgrad oder Widerlegung der Theorie ableiten? „Belastetheit” bzw. Bestätigungsgrad einer wissenschaftlichen Theorie lassen sich in qualitativer und quantitativer Hinsicht abstufen, ein Gesichtspunkt bei Holzkamp, der Poppers Falsifikationskriterium ergänzt und differenziert.

#

2. Untersuchungsdesign

Wahl und Begründung der Untersuchungsanordnung, z. B. der Entscheidung zwischen Experiment und Korrelationsstudie. Beschreibung von Erhebungssituation und Registriermethoden. Festlegung der Auswertungs- und Prüfmethoden. Begründung eventueller Abweichungen vom „idealen” Design oder Prüfverfahren. Festlegung der Kontrollbedingungen bezüglich Kontrollgruppen und Versuchsleitererwartung. Diskussion der Anordnung im Hinblick auf mögliche Schlussfolgerungen deskriptiver bzw. erklärender Art.

#

3. Durchführung und Auswertung

Eingehen auf Besonderheiten bei der Durchführung. Kontrolle von Objektivität. Im Sinne einer qualitativen Auswertungsmöglichkeit sollten Einzelfalldaten, wie persönliche Kommentare von Versuchsteilnehmern und Versuchsleitern, festgehalten werden. Datenaufbereitung, Datenauswertung.

#

4. Diskussion der Gütekriterien

Darstellung von Mängeln der Arbeit in bezug auf „optimal wünschenswerte” Kriterien in Durchführung und Auswertung. In einer Mängelliste aufgeführt werden Mängel der Untersuchung, die sich entweder notwendig durch die Untersuchungsumstände oder durch Zufälle ergeben.

#

5. Darstellung und Diskussion der Ergebnisse

mit Bezug auf die Prüfhypothesen. Konsequenz für die inkludierten Modelle und die Theorieentwicklung (Bestätigungs- vs. Belastetheitsgrad). Einordnung der Ergebnisse in den Kontext der bisherigen, fragespezifischen Theoriebildung. Die „Interpretation” der Ergebnisse ergibt sich in diesem Studientyp nicht induktiv, sondern entscheidungsorientiert. In Erweiterung der prüfenden Forschungslogik können auch Beobachtungen ausgewertet werden, die nicht zur Prüflogik gehören, sondern Hinweise auf neue Hypothesen und Weiterentwicklung der Theorie im induktiven Sinne geben.

#

6. Zusammenfassung und Ausblick

Möglichst gut überschaubare Zusammenfassung von methodischen Schritten und Ergebnis. Vorschläge für sich anschließende Untersuchungsschritte, entweder suchender oder prüfender Art im Hinblick auf eine weitere Klärung der Ausgangsfrage(n). Hinweis auf die Notwendigkeit theoriebezogener Arbeiten, welche die innere Konsistenz der Theorie verbessern bzw. ihre erkenntniskritische Überprüfung fördern.

#

C. Werkanalytischer Ansatz mit interpretativer Methodik

Vorbemerkung: Die minimale Untersuchungseinheit für die Werkanalyse, wie sie z. B. in der Kunstpsychologie verwendet wird, stellt die Autor - Werk - Rezipient - Triade dar. Dieser kommunikative Rahmen, in dem ein Werk der bildenden Kunst oder ein literarischer Text sich befindet, muss weiterhin ergänzt werden durch den „Kontext” des Kommunikationssystems, z. B. durch bestimmte stilistische Traditionen, geschichtliche Epochen, in denen ein Werk geschaffen und/oder rezipiert wird. Die folgende Abbildung gibt dieses allgemeine Bezugssystem für Interpretationen wieder.

Zoom Image

Abbildung 2 Kommunikativer Bezugsrahmen der Werkinterpretation

Autor (A), Werk (W) und Rezipient (R) bilden ein kommunikatives System mit „reziproker Ko-Orientierung” (Fischer 1981). Das lässt sich näher verdeutlichen am Konzept des „impliziten Rezipienten” (R‘ und R‘‘). Dieses Symbol ist einmal beim Autor, zum anderen im Werk aufgeführt und besagt, dass der Autor bei seiner Werkproduktion eine bewusste oder auch unbewusste Vorstellung vom Rezipienten bzw. vom Publikum in sich trägt, für die er das Werk schafft (R‘). Auch im Werk selbst wird dem Rezipienten eine implizite Rolle zugewiesen (R‘‘), die sich mit R‘ mehr oder weniger decken kann. Aus dieser Repräsentanz lassen sich im literarischen Kunstwerk z. B. bestimmte sog. „Textstrategien” ableiten, die den Leser in eine besondere Rezeptionshaltung oder -lage versetzen.

Unter „Kontext” können wir einmal den aktuellen Produktions- und Rezeptionskontext fassen, die äußeren Umstände der Rezeption, z. B. eine Performance, den Kontext der übrigen Werke eines Künstlers, den Kontext der stilistischen Epoche, in der er sich bewegt usf. Diesem Modell liegt ein beziehungstheoretisches Verständnis von Werkanalyse zugrunde (vgl. Fischer 1996[5]). Aus ihm lässt sich ein Rahmen für den Aufbau werkanalytischer Arbeiten ableiten.

#

Eingrenzung der Aspekte, auf die sich die Untersuchung beziehen soll

anhand der obigen Grafik. Es wird z. B. eine Strukturanalyse des Werkes angestrebt. Die evtl. Ausgrenzung der übrigen Aspekte muss von der Ausgangsfrage und Themenstellung her begründet werden. Ebenso müssen natürlich die Schlussfolgerungen, die in der Arbeit gezogen werden, auf den gewählten Aspekt begrenzt oder aber von den übrigen Aspekten her reflektiert sein. Andererseits kann der gesamte Rahmen einbezogen werden oder auch nur ein einzelner Aspekt, wie die Werk-Rezipient-Beziehung innerhalb der Rezeptionsforschung oder die Autor-Werk-Beziehung bei biographisch orientierten Forschungsvorhaben.

#

2. Beschreibung der Untersuchungsmethode und -instrumente

wie z. B. bestimmte KÖDOPS-Formate, Strukturanalyse, Figurenanalyse usf. (für die psychoanalytische Literaturinterpretation vgl. z. B. Schönau 1991, zur „Gegenübertragungsanalyse” Pietzcker 1992[15]).

#

3. Durchführung und Auswertung

Eingehen auf eventl. Besonderheiten bei der Durchführung, z. B. Analyse der Gegenübertragung, subjektiver Zugang zum Werk.

#

4. Deskriptiver Schritt

Hier werden Strukturen, Regelhaftigkeiten, besondere Phänomene wie Widersprüche im Werk bzw. innerhalb der Autor-Werk-Rezipient-Triade dargestellt, die als Beobachtungsmaterial festgehalten werden. Es können heuristische Konzepte eingesetzt werden, die geeignet erscheinen, Zusammenhänge aufzuspüren sowie das Beobachtungsmaterial nach übergeordneten Gesichtspunkten zu gliedern, so etwa auch KÖDOPS-Formate, wie die Konfliktbögen, um konflikthafte, widersprüchliche Strukturen aufzuzeigen. Alle Methoden der Kunst- und Kulturwissenschaften, welche diese heuristische und gegenstandsstrukturierende Funktion erfüllen, sind hier angebracht.

#

5. Verstehende und/oder erklärende Operationen

Auch wenn sich dieser Punkt vom vorigen nicht in jedem Einzelfall abgrenzen lässt, ist die Unterteilung sowohl für den Autor der Arbeit wie den Leser hilfreich. Hier lassen sich nach dem Verfahren des „hermeneutischen Exklusionismus” einem deskriptiv festgehaltenen Phänomen meist mehrere verstehende oder erklärende Interpretationshypothesen zuordnen. Durch Hypothesensammlung, Exklusion und Zusammenfassung wird ein für den Leser nachvollziehbarer Hypothesensatz erstellt und argumentativ validiert. In die Phase der Hypothesenbildung können alle relevanten Theorien gewissermaßen als „Steinbruch” einbezogen werden. Bei der Hypothesenexklusion kann auch auf empirische Ergebnisse außerhalb der gegenwärtigen Studie verwiesen werden, die eine bestimmte Hypothese wahrscheinlicher machen oder ausschließen. Hier sollte allerdings die Konstruktvalidität dieses Ergebnisses und damit seine Relevanz für die gegenwärtige Interpretationshypothese explizit dargelegt werden. Das Verfahren der hermeneutischen Hypothesenexklusion wurde im Abschnitt über die qualitative Rekonstruktion psychotherapeutischer Prozessverläufe bereits ausführlich dargestellt. Am Beispiel einer Einzelfallstudie ist es in DDV (Fischer 1989[3], 1996[4], S. 140 ff.) ausgeführt.

#

6. Diskussion der relevanten Gütekriterien

Darstellung von Mängeln der Arbeit im Rahmen dieser Forschungslogik und in Bezug auf „wünschenswerte” Kriterien, z. B. Sammlung und Diskussion der Hypothesen in einer Arbeitsgruppe. Zentrales Gütekriterium einer Interpretation ist die Frage, wie vollständig die Details im Material durch die Interpretation aufgeklärt werden und wie gut sie in ihrer Gesamtheit mit allen Einzelheiten des Materials übereinstimmt (dialektisches Gütekriterium der Übereinstimmung von Teil und Ganzem, Jahoda 1995[10]). Diejenige Interpretation genießt den relativen Vorzug, welche die meisten Details aufzuklären vermag. Im Effekt ist jedoch das Unternehmen keineswegs gescheitert, wenn entweder ungeklärte Details übrigbleiben oder auch mehrere konkurrierende Interpretationshypothesen, zwischen denen aufgrund des vorliegenden Materials (noch) nicht entschieden werden kann. Für Prüfungsarbeiten sei hinzugefügt, dass auch hier eine detaillierte Mängelbeschreibung den Wert der Arbeit hebt.

#

7. Darstellung der Ergebnisse mit Bezug auf die Ausgangsfrage

Hier sollte auch der Bezug zu domänespezifischen Theorieansätzen aus dem betreffenden Wissenschaftsgebiet hergestellt werden, z. B. Kunstpsychologie verschiedener Richtungen usf. Dem induktiven Charakter der interpretativen Arbeit entsprechend sollte der Theoriebezug bzw. die Eingrenzung durch bestimmte theoretische Ansätze nicht schon der Hypothesensammlung zugrundegelegt werden. Dies würde den Wert der Interpretation wesentlich schmälern und kann leicht in dogmatische „Exegetik” übergehen. Bei der Ergebnisdiskussion sollte aber der Theoriebezug explizit hergestellt werden. Es kann sogar ein „Wettkampf” zwischen konkurrierenden Theoriesystemen über die Forschungslogik der Interpretation entschieden werden: Diejenige übergeordnete Theorie beweist die größte heuristische Erschließungskraft, die bei diesem Interpretandum die wichtigsten Beiträge zur Aufklärung von Details und zur hermeneutisch-dialektischen Abstimmung von Detail und Ganzem (dialektisches Gütekriterium) leistet. Darüber hinaus kann natürlich auf empirische Ergebnisse verwiesen werden, welche die eine oder andere Hypothese stützen bzw. widerlegen.

#

8. Zusammenfassung und Ausblick

Möglichst gut überschaubare Zusammenfassung von methodischen Schritten und Ergebnis entlang der hier empfohlenen Gliederung. Benennung noch ungeklärter Forschungsfragen. Vorschläge für sich anschließende Untersuchungsschritte.

Eine werkinterpretative Arbeit muss in ihrem Aufbau und ihrer Durchführung äußerlich nicht immer dem logischen Aufbau folgen, wie er hier umrissen wurde. Das könnte die Arbeit schematisch und schwer lesbar machen. Der Autor kann an der klassischen Darstellungsweise interpretativer Arbeiten festhalten und den Leser schrittweise an die zentralen Punkte heranführen. Ein lebendiger Vortrag sollte Vorrang haben, da oft Themen berührt sind, die sonst eher eine literarische Darstellung erfahren. Die Zusammenfassung der Arbeit sollte dann jedoch eine Übersicht enthalten, die die Forschungslogik transparent macht und sich - con variatione - an dieser Gliederung orientiert.

#

D. Theoriebezogene, metatheoretische Arbeiten

Die Gliederungsstruktur muss über die allgemeinen Gesichtspunkte der Themenwahl und -eingrenzung hinaus offener gehalten werden als bei den übrigen Studientypen. Zu unterscheiden sind:

  • Theorienvergleich

  • Theorieimmanente, metatheoretische Untersuchung

  • Phänomenologisch fundierte Theorienbildung

#

Typ a) Theorienvergleich

hat den Vergleich zweier oder mehrerer Theorien zum Ziel. Hier kommen unterschiedliche Darstellungs- und Bewertungskriterien in Frage wie innere Konsistenz, heuristischer Wert, Praxisrelevanz und empirische Bestätigung vs. Belastung einer Theorie.

#

Typ b) Theorieimmanente, metatheoretische Untersuchung

Mathematische, logische und erkenntnistheoretische Prüfkriterien werden eingesetzt, ferner sozial- und gesellschaftskritische, welche die ideologische Bedeutung einer Theorie in verschiedenen historischen und gesellschaftlichen Kontexten testen, z. B. mit der Methodik der „Diskursanalyse”. Modelle werden im allgemeinen als Repräsentation eines umgrenzten Gegenstandsbereiches verstanden und sollten einen engen Bezug zur Theorie unterhalten (zum Bezug Modell - Theorie vgl. u. a. Kühn 1976, 28. ff.[13]). Grundsätzlich kommt bei diesem Studientyp auch der sog. „deduktiv-dogmatische Erkenntnisweg” (16, passim) in Frage. Hier werden Konsequenzen aus einem theoretisch angehäuften Satz von Axiomen und/oder Dogmen abgeleitet. Geschieht dies folgerichtig, so werden für die theoretische oder empirische Bewertung der Theorie günstige Voraussetzungen geschaffen, z. B. Falsifizierbarkeit hergestellt.

Der Erkenntniswert theoretischer Arbeiten wird im allgemeinen unterschätzt. In Wirklichkeit werden epochale Fortschritte einer Disziplin oft durch diesen Studientyp herbeigeführt, wie z. B. Einsteins Relativitätstheorie. In der Philosophie handelt es sich um einen der vorherrschenden Typen wissenschaftlicher Arbeiten.

Bisweilen wird eine streng „theorieimmanente” Untersuchung von der „metatheoretischen” Weiterentwicklung der Theorie unterschieden. Hier liegen jedoch fließende Übergänge vor. Denn die gründliche Untersuchung einer Theorie bringt oft Ideen zu ihrer Weiterentwicklung mit sich. Die Arbeit beginnt jedoch immer mit einer immanenten Darstellung der Theorie auf ihrem jeweiligen Entwicklungsstand. Ein informatives Beispiel, wie dies selbst bei einer so komplexen Theorie wie der Freudschen Psychoanalyse auf vergleichsweise wenigen Seiten möglich ist, bietet die Arbeit von Kline „Fact and Phantasy in Freudian Theory” (1981[11] vgl. auch 1984[12]).

#

Typ c) Phänomenologisch fundierte Theoriebildung

Basis ist die Analyse subjektiver Lebenswelten einschließlich der „Theorien”, welche die Akteure selbst vom Aufbau ihrer Lebenswelt und ihrer eigenen Aktivität entwickelt haben. Während frühere Ansätze eher unsystematisch verfuhren, liegt mit der sog. „gegenstandsbegründeten Theorie” („grounded theory”) nach Anselm Strauss eine ausgearbeitete Technologie und Methodik vor (eine Einführung an praktischen Beispielen findet sich bei Breuer 1996[1], zur Darstellung von Forschungsergebnissen siehe S.24 ff.). Das Verfahren arbeitet mit flexiblen Kodiersystemen, die auf jeder Untersuchungsebene überarbeitet werden. Die einzelnen Schritte werden dokumentiert. Die primäre Kodierung folgt den Regeln, an denen die Handelnden selbst sich orientieren. Im nächsten Schritt transzendieren die Forscher diese immanente Ebene und suchen nach Regeln und Gesetzmäßigkeiten, denen die Akteure folgen, ohne sich ihrer notwendigerweise auch bewusst zu sein (Ebene der Handlungsvalidierung). An dieser Schnittstelle verbinden sich Phänomenologie und Strukturanalyse. Auch Konzepte des Dynamisch-Unbewußten im Sinne der Psychoanalyse können mit dieser Methodik überprüft und fortentwickelt werden. Die iterativen Kodierphasen weisen Ähnlichkeit mit dem Vorgehen von Miles & Huberman (a. a. O.) auf, das bei der hypothesensuchenden Forschungsstrategie bereits näher beschrieben wurde. Ist ein Forschungsfeld noch weitgehend unbearbeitet, so können über die „grounded theory” - Methodik erste theoretische Konzepte und Modelle entwickelt werden. Der Ansatz vermag aber auch das kritische Grundsatzprogramm der „phänomenologischen Bewegung” (Spiegelberg a. a. O.) zu erfüllen, nämlich die Kritik „gegenstands-unbegründeter” Theorien in Psychologie und Sozialwissenschaften. Nicht selten werden Theoreme aus anderen Wissenschaften, z. B. aus Physik und Mathematik, auf Psychologie und Soziologie per Analogie übertragen. Beispiele sind die allgemeine Systemtheorie oder die Chaostheorie. Dann lässt sich zunächst nicht entscheiden, ob und wieweit sie dem psychologischen Gegenstand angemessen sind. Ein „gegenstandsbegründeter” Forschungsansatz schafft hier ein wichtiges Korrektiv. Manchmal zeigt sich dann, dass in den abstrakten Theoremen der psychologische Gegenstand ideologisch verzerrt repräsentiert wird. Die „grounded theory” - Methodik beruht auf einer relativ offenen, weitgespannten Induktion (vgl. Breuer a. a. O., S. 21 ff.). Sie kann unter diesem Gesichtspunkt auch als Spezialfall der induktiven Strategie im Bereich der Theorienbildung angesehen werden.

Einen weiteren, sehr systematisch ausgearbeiteten Ansatz zur Analyse subjektiver Theorien stellt die Heidelberger Struktur-Lege-Technik (SLT) dar (Scheele & Groeben 1984[16]). Hier stehen iterative Prozesse der kommunikativen Validierung im Vordergrund. Diesem methodischen Vorgehen entsprechend kann mit der SLT die Konstruktion und Strukturierung subjektiver Lebenswelten in ihrer phänomenalen Gegebenheit differenziert erfasst werden.

Ein Beitrag des theoriebezogenen Studientyps ist die Entwicklung neuer Ideen für die Theoriebildung, Weiterentwicklung von Erkenntnistheorie und Philosophie einschließlich der Modell- und Methodenentwicklung. Die Logik der Modellbildung ist in kognitionswissenschaftlichen Beiträgen besonders stringent ausgearbeitet. Auch Simulationsstudien und Modellentwicklung im Rahmen der Forschung zur „Künstlichen Intelligenz” (artificial intelligence) sind hilfreich für die Lösung theorieimmanenter und metatheoretischer Probleme.

#

E. Übersichtsarbeiten zum neuesten Stand der Forschung - Herausarbeiten aktueller Forschungsfragen

Über Teil I der Gliederung hinaus kommt hier der Suchmethodik in qualitativer und quantitativer Hinsicht besondere Bedeutung zu. Oft gehen in die Zusammenfassung nicht näher begründete Kriterien ein, z. B. bei einer statistischen Metaanalyse. Daher muss die qualitative Kategorienbildung und Auswahl der Rezeptions- und Bewertungskriterien explizit dargelegt werden.

Da ein Teilziel darin besteht, regelhaft vorhandene Gesetzmäßigkeiten aufzuzeigen, erscheint es realistisch, wenn sich die Übersichtsarbeit von ihrem Aufbau her an Typ 1, der induktiven Strategie orientiert. Als Teilkomponente kommt auch die deduktive Logik zum Tragen, wenn etwa der relative Bestätigungsgrad einer wissenschaftlichen Theorie oder eines Modells geprüft werden soll.

Ein heuristischer Ansatz, der nach dem Konvergenzprinzip (s. d.) verfährt und Ergebnisse aus den 3 wichtigsten Methodentypen - vergleichsgruppenkontrolliertes Experiment, Korrelationsstudie und Fallsystematik - einbezieht, wurde von Grüttner (1997)[7] ausgearbeitet. Diese Systematik erscheint für die Psychotherapieforschung einmal deshalb geeignet, weil ein intermethodaler Vergleich Ergebnisse von unmittelbarer Praxisrelevanz erzielt. Zum anderen können methodenbedingte Artefakte ausgeschlossen werden, wenn konvergierende Ergebnisse aus mindestens 2 der 3 Methodentypen vorliegen. Die metaanalytische Software zum Forschungsmanual „KÖDOPS-Cross-Case” ist nach dieser Systematik aufgebaut.

#

F. Entwicklung von Forschungsmethoden und -instrumenten

Während für die Entwicklung von Fragebögen, Ratingskalen und Testverfahren relativ gut bewährte, weitgehend standardisierte Prozeduren vorliegen, sind Strategien für die Entwicklung von Softwareprogrammen und qualitativen Dokumentationssystemen noch nicht im gleichen Maße ausgearbeitet. Im Prinzip liegt hier beim systematischen Teil der Arbeit eine Kombination von hypothesensuchender und -prüfender Methodik vor. Neue Ideen sind in diesem Feld besonders gefragt. Ist ein Forschungsinstrument einmal entwickelt, so ergeben sich darüber sowohl neue Forschungsfragen wie auch neue Wege zu ihrer Beantwortung und zur Beantwortung weiterer, bislang gewissermaßen „liegengebliebener” Forschungsfragen.

Auch bei KÖDOPS handelt es sich um ein neues Forschungsinstrument, das qualitative und quantitative Vorgehensweisen kombiniert. Die Leserinnen können aus dem Aufbau von KÖDOPS Anregungen für die Systematik analoger Beiträge entnehmen.

#

G. Aktionsforschung

Wegen ihrer Nähe zu Praxis und Forschung in der Psychotherapie (sog. „on-line-Forschung” nach Moser, 1992[14]) wird die Aktionsforschung hier erwähnt. Darunter verstehen wir einen Forschungstyp, bei dem den Untersuchungsteilnehmern programmatisch Zwischenergebnisse mitgeteilt werden. Er geht historisch auf Kurt Lewin zurück. Forschungsziel sind nicht so sehr universelle Gesetzmäßigkeiten von Erleben und Verhalten, sondern Aufklärung über und eventl. Veränderung von ungünstigen (individuellen oder kollektiven) Regeln und Normen des Verhaltens. Wie im vorigen Abschnitt ausgeführt, kann Psychotherapie-Begleitforschung mit teilnehmender Beobachtung und Mitteilung der Beobachtungsergebnisse in einem weiteren Sinne dieser Forschungsstrategie zugerechnet werden. Sie lässt sich ebenfalls auf Gruppen, Institutionen und Organisationen anwenden. Eine brauchbare Übersicht, an der sich die Darstellung der Ergebnisse ausrichten kann, bietet die Methodologie „informativer Forschungsinteraktionen” bei Heeg (1996)[8].

Grundsätzlich kann informative Gruppen- und Organisationsforschung auch nach der Methodik von KÖDOPS betrieben werden. KÖDOPS folgt in seinem Aufbau der Gliederung in Ausgangslage, Verlauf und Ergebnis, an der organisationspsychologische Forschung und Interventionen ebenfalls ausgerichtet sind. Geschichtlich wurde Aktionsforschung in unterschiedlicher „Radikalität” betrieben. So wurden manchmal die Unterschiede zwischen Forschern und Untersuchungsteilnehmern soweit abgebaut, dass das Design und alle Zwischenergebnisse gemeinsam entwickelt und fortlaufend diskutiert wurden. Aus Zwischenergebnissen wurden unmittelbar soziale Aktionen abgeleitet und umgesetzt. Bei diesem „basisdemokratischen” Forschungsprozess besteht die Gefahr, das Kriterium kommunikativer Validierung zu verabsolutieren. Der „Erkenntnisfindung” nach einem „Gruppenkonsens” stehen dann nur ungenügende Ansätze externer Validierung und Falsifikation gegenüber. Weder die Gütekriterien der Such- noch die der Prüfmethodik sind berücksichtigt. Von daher ist der Erkenntniswert dieser „radikalen” Variante von Aktionsforschung vergleichsweise gering (zur kritischen Bewertung s. a. Eberhard 1987, S. 52 ff.[2]). Psychotherapie-Begleitforschung im Sinne der sog. Praxisforschung kann jedoch, wenn sie systematisch betrieben wird, weitergehende Validierungskriterien einbeziehen. Die Handlungsvalidierung beispielsweise geht über die kommunikative, konsensuelle Verständigung mit dem Patienten hinaus. An der Veränderung problematischer Verhaltensweisen und Symptome kann der Therapeut den Erfolg der gemeinsamen therapeutischen „Aktionsforschung” fortlaufend überprüfen und ihre Interventionsrichtung - im Sinne einer „adaptiven Indikation” - ggf. korrigieren.

#

Literatur

  • 1 Breuer  F. Qualitative Psychologie. Grundlagen, Methoden und Anwendungen eines Forschungsstils. Westdeutscher Verlag Opladen; 1996
  • 2 Eberhard  K. Einführung in die Erkenntnis- und Wissenschaftstheorie. Kohlhammer Stuttgart; 1987
  • 3 Fischer G, Fäh M. Zur Kritik der empirischen Vernunft in der Psychotherapie(forschung). In: Fäh M, Fischer G (1998, Hrsg.) Sinn und Unsinn in der Psychotherapieforschung 1998 a: 29-50
  • 4 Fischer G. Wechselseitigkeit: interpersonelle und gegenständliche Orientierung in der sozialen Interaktion. Huber Bern/Stuttgart/Wien; 1981
  • 5 Fischer G. Dialektik der Veränderung in Psychoanalyse und Psychotherapie: Modell, Theorie und systematische Fallstudie. Asanger Heidelberg; 1989, 2. Auflage 1996
  • 6 Fischer G. Die beziehungstheoretische Revolution. Gedanken zur Methodik der modernen psychoanalytischen Literaturwissenschaft. In: Cremerius, J., Fischer, G., Gutjahr, O., Mauser, W., Pietzcker, C, Methoden in der Diskussion. Freiburger literaturpsychologische Gespräche 1996 15: 11-32
  • 7 Grüttner R. Kriterien zur Meta-Analyse qualitativer und quantitativer Untersuchungen in der Psychotherapieforschung. Psychologische Diplomarbeit am Institut für Klinische Psychologie und Psychotherapie der Universität zu Köln 1997
  • 8 Heeg P. Informative Forschungsinteraktionen. Westdeutscher Verlag Opladen; In: Breuer F, Qualitative Psychologie. Grundlagen, Methoden und Anwendungen eines Forschungsstils 1996: 41-60
  • 9 Holzkamp, K. Theorie und Experiment in der Psychologie. De Gruyter Berlin; 1964
  • 10 Jahoda M. Freud und das Dilemma der Psychologie. Fischer Frankfurt/M; 1985
  • 11 Kline P. Fact and phantasy in Freudian Theory. Methuen London; 1981
  • 12 Kline P. Psychochology and Freudian Theory. Methuen London; 1984
  • 13 Kühn W. Einführung in die multidimensionale Skalierung. Reinhardt München; 1. Aufl.Miles, M. B., Huberman, A. M. (1994): Qualitative data analysis Sage Publications, London 1976
  • 14 Moser U. Two butterflies on my head, or, Why have a theory in psychoanalysis?. Springer Berlin; In: M Leuzinger-Bohleber, H Schneider, R Pfeifer (Hrg) Psychoanalysis in the interdisciplinary dialogue 1992: 29-46
  • 15 Pietzcker C. Lesend interpretieren. Zur psychoanalytischen Deutung literarischer Texte. Könighausen & Neumann Würzburg; 1992
  • 16 Scheele B, Groeben N. Die Heidelberger Struktur-Lege-Technik (SLT). Beltz Weinheim; 1984

Gottfried Fischer

Institut für Klinische Psychologie und Psychotherapie, Universität zu Köln

Zülpicherstraße 45 (Rundbau)
50923 Köln

#

Literatur

  • 1 Breuer  F. Qualitative Psychologie. Grundlagen, Methoden und Anwendungen eines Forschungsstils. Westdeutscher Verlag Opladen; 1996
  • 2 Eberhard  K. Einführung in die Erkenntnis- und Wissenschaftstheorie. Kohlhammer Stuttgart; 1987
  • 3 Fischer G, Fäh M. Zur Kritik der empirischen Vernunft in der Psychotherapie(forschung). In: Fäh M, Fischer G (1998, Hrsg.) Sinn und Unsinn in der Psychotherapieforschung 1998 a: 29-50
  • 4 Fischer G. Wechselseitigkeit: interpersonelle und gegenständliche Orientierung in der sozialen Interaktion. Huber Bern/Stuttgart/Wien; 1981
  • 5 Fischer G. Dialektik der Veränderung in Psychoanalyse und Psychotherapie: Modell, Theorie und systematische Fallstudie. Asanger Heidelberg; 1989, 2. Auflage 1996
  • 6 Fischer G. Die beziehungstheoretische Revolution. Gedanken zur Methodik der modernen psychoanalytischen Literaturwissenschaft. In: Cremerius, J., Fischer, G., Gutjahr, O., Mauser, W., Pietzcker, C, Methoden in der Diskussion. Freiburger literaturpsychologische Gespräche 1996 15: 11-32
  • 7 Grüttner R. Kriterien zur Meta-Analyse qualitativer und quantitativer Untersuchungen in der Psychotherapieforschung. Psychologische Diplomarbeit am Institut für Klinische Psychologie und Psychotherapie der Universität zu Köln 1997
  • 8 Heeg P. Informative Forschungsinteraktionen. Westdeutscher Verlag Opladen; In: Breuer F, Qualitative Psychologie. Grundlagen, Methoden und Anwendungen eines Forschungsstils 1996: 41-60
  • 9 Holzkamp, K. Theorie und Experiment in der Psychologie. De Gruyter Berlin; 1964
  • 10 Jahoda M. Freud und das Dilemma der Psychologie. Fischer Frankfurt/M; 1985
  • 11 Kline P. Fact and phantasy in Freudian Theory. Methuen London; 1981
  • 12 Kline P. Psychochology and Freudian Theory. Methuen London; 1984
  • 13 Kühn W. Einführung in die multidimensionale Skalierung. Reinhardt München; 1. Aufl.Miles, M. B., Huberman, A. M. (1994): Qualitative data analysis Sage Publications, London 1976
  • 14 Moser U. Two butterflies on my head, or, Why have a theory in psychoanalysis?. Springer Berlin; In: M Leuzinger-Bohleber, H Schneider, R Pfeifer (Hrg) Psychoanalysis in the interdisciplinary dialogue 1992: 29-46
  • 15 Pietzcker C. Lesend interpretieren. Zur psychoanalytischen Deutung literarischer Texte. Könighausen & Neumann Würzburg; 1992
  • 16 Scheele B, Groeben N. Die Heidelberger Struktur-Lege-Technik (SLT). Beltz Weinheim; 1984

Gottfried Fischer

Institut für Klinische Psychologie und Psychotherapie, Universität zu Köln

Zülpicherstraße 45 (Rundbau)
50923 Köln

 
Zoom Image

Abbildung 2 Kommunikativer Bezugsrahmen der Werkinterpretation