Forschungsprogramm der ersten Bewilligungsphase

Automatismen

Strukturentstehung außerhalb geplanter Prozesse in Informationstechnik, Medien und Kultur

Zusammenfassung

Automatismen sind definiert als Abläufe, die sich einer bewussten Kontrolle weitgehend ent­ziehen. Die Psychologie kennt Automatismen im individuellen Handeln; die Sozio­lo­gie unter­sucht Prozesse der Habitualisie­rung und der Konventionalisierung, Ökono­men haben den Markt als einen Automatismus beschrie­ben.

Automatismen bringen – quasi im Rücken der Beteiligten – neue Strukturen hervor; dies macht sie interessant als ein Entwicklungsmodell, das in Spannung zur bewussten Ge­staltung und zu geplanten Prozessen steht. Automatismen scheinen insbesondere in ver­teilten Systemen wirksam zu sein; Automatismen sind technische bzw. quasi-technische Abläufe; gleichzeitig stehen sie in Spannung zum Konzept des technischen Automaten.

Das Graduiertenkolleg will Dissertationsprojekte versammeln, die Automatismen im Feld der Medien, der Informationstechnik und der Kultur untersuchen, und zwar material­analytisch, mit den Mitteln der Theorie oder der ingenieurmäßigen Konstruktion. Das Kolleg ist interdisziplinär angelegt: Auf Seiten der Betreuer/innen sind Kultur- und Sozi­al­wissenschaften, Medien­wissen­schaften, Literatur- und Filmwissenschaft sowie die In­formatik beteiligt; konstitutiv ist der Brückenschlag zwischen Kulturwissenschaft und Informatik. Die Promoven­d/innen sollen ebenfalls aus den genannten Feldern kommen.

 
Forschungskonzept

Automatismen im Sinne des Graduiertenkollegs sind, wie Technologien, Praktiken der Formung und Formierung, die in Kategorien der Funktion zu denken sind, wenngleich sie sich nicht auf eine im Voraus berechenbare Rationalität reduzieren lassen. Automatismen sind unhintergehbar und über­steigen den Horizont jeder subjektiven, willentlichen Ver­füg­barkeit. Sie fügen sich zwar zu einem Regime hoch­wirksamer ‚Logiken’ zusammen, ihre Wirkungen sind aber (aufgrund der unüberschaubaren Pluralität der beteiligten Kräf­te) in gewisser Weise Zufallseffekte. Sie verdanken sich nicht dem Willen eines planvoll handelnden Subjekts, der sich in ihnen manifestiert, sondern sind Bestandteil eines wirk­mächtigen Arran­gements von Dingen, Zeichen und Subjekten.

Im so skizzierten Rahmen können konkrete Medienphänomene auf neue Weise betrachtet werden. Das Graduiertenkolleg will Dissertationsprojekte versammeln, die Automatis­men im Feld der Medien, der Informationstechnik und der Kultur untersuchen. Anknüp­fungspunkt sind aktuelle Beobachtungen im Feld der Kultur, mediale und gesellschaft­liche Phäno­mene, zu denen die These des Graduiertenkollegs einen neuen Zugang er­laubt; hier kann die Kultur­theorie etablierte Modelle und Konzepte beisteuern; gleich­zeitig ist es das Ziel, tech­nische Lösungen als Erfah­rungs­bereich, und die theoretischen Konzepte der Informatik als Dialogpartner kulturwissen­schaft­licher Ansätze zu nutzen.

 

Teilbereiche und Projekte

Der Forschungszusammenhang des Graduiertenkollegs orientiert sich an bestimmten erkennt­nis­leitenden Hypothesen, die im Vorfeld erarbeitet wurden und die, je nach Be­darf und Frage­stellung, in den Promo­tions­projekten aufgegriffen und weiterentwickelt werden sollen. Sie dienen dazu, das Konzept der Automatis­men zu konkretisieren.

1. Verteilter Charakter: Grundhypothese ist, dass Automatismen vor allem dort zum Tragen kommen, wo verschie­dene Akteure ohne zentrale Lenkung von einander unab­hängig handeln. Innerhalb der Medien scheinen es vor allem die Nutzungs­prozesse zu sein, die strukturgenerierend wirken und die ein bottom-up-Ansatz entsprechend berück­sichtigen muss. Im Feld der Technik sind es die verteilten Systeme, die hier besonders relevant sind.

2. Die Frage nach dem Selbst: Mit den Automatismen zwangsläufig verbunden – der griechische Wortstamm ‚auto-’ spricht es aus – ist die Frage nach dem Selbst und nach den Bedingungen, die es hervor­bringen. Der tradi­tionelle Verweis auf das Subjekt ist irritiert worden durch die subjekt­kritischen Ansätze der Philosophie; im Feld der Technik durch die Künst­liche Intelligenz und die Robotik, und in jüngerer Zeit durch die Technik­theorie etwa Latours, dessen Akteur-Netzwerk-These zwischen mensch­lichen und tech­nisch-apparativen Aktanten nicht mehr trennt.

In diesem Feld bestehen umfangreiche Vorarbeiten vor allem zur Frage, auf welche Weise Subjekt­konstitution und gesellschaftlich-mediale Prozesse sich wechselseitig bedin­gen. Technologien des Selbst, Selbstmanagement und Selbststilisierung haben an gesell­schaft­licher Bedeutung gewonnen und werden in soziologischem wie in medien­pädagogischem Rahmen behan­delt.

3. Akkumulation / Emergenz: Dritte Grundhypothese ist, dass innerhalb von Auto­matis­men quan­tita­tive Prozesse eine Rolle spielen. Neue Strukturen scheinen u. a. durch Pro­zes­se der Ku­mulation zu ent­stehen. Die Lastmodelle der Informatik bieten hierfür eine Grund­lage; die Kultur­wissen­schaft kann dies ergänzen z.B. durch Modelle der Ge­dächt­nistheorie und der Kon­ventionalisierung, die die konstitutive Rolle z.B. der Wieder­holung betonen.

Die drei genannten Grundhypothesen tragen den Forschungszusammenhang; das Gradu­ier­ten­kolleg wurde diesen Hypothesen entsprechend in Teilbereiche und Projekte geglie­dert. Die Projekte operationalisieren die Fragen des Graduiertenkollegs. Sie sind Teil des Forschungs­ansatzes und stellen den Rahmen für mögliche Dissertationsprojekte dar:

Der erste Teilbereich folgt der These, dass Automatismen vor allem dort zum Tragen kommen, wo dis­per­­se, dezental verteilte Handlungsträger ohne direkte Abhängigkeit von­ein­ander agieren. Wo ein strikter institutio­neller Rahmen fehlt, stiften Kommuni­kati­ons­prozesse, Tausch und Austausch, das Netz, das die Handlungsträger verbindet. Der Teil­bereich soll erforschen, wie, wo und wann Kommunikation ‚auto­matisiert’ in Struk­tur­bildung übergeht. 

 

1.1  Verteilte und mobile Systeme

Ein besonderer Denkanreiz für das Graduiertenkolleg sind ‚verteilte Systeme’, mit denen die Infor­matik sich in zunehmendem Maß beschäftigt. Zwei Mitglieder des Kollegs (Meyer auf der Heide und Karl) arbeiten speziell in diesem Bereich. Von den Netzen der Mobil­funks über so genannte ad hoc Netze bis hin zu Waren, die mittels RFID-Etiketten ‚spontan’ miteinan­der kommu­ni­zie­ren – die Ent­wickler verteilter Systeme sehen sich beson­deren Anforde­run­gen gegen­übergestellt. So sind diese mit ihrem Nutzungs­prozess auf völlig neue Weise verwoben; die Struk­tur­muster, die entstehen, entstehen weit­gehend unge­plant, als Auto­ma­tismen; die Entwickler finden sich in einer neuen Position der Beob­­ach­tung wie­der.

Ziel des Projekts ist es, verteilte Systeme analog zu sozialen Systemen neu zu be­schrei­ben. Es sollen Modelle entwickelt werden, wie unter einem verall­gemei­ner­ten Informati­onstransaktionsbegriff die Ausbreitung von Information in in­for­mel­len Netzen geschieht. Dabei sind (u. a.) ein verallge­meiner­tes Kostenmodell und ein Genauigkeitsmaß zu er­arbeiten.

Methode: Aufarbeitung sozial- und kulturwissenschaftlicher Modelle zur Weiter­­­gabe von Informa­tion zwischen dezentralen Einheiten, Unterschiede zwischen spon­tanem und zentra­lisiertem Infor­mationsaustausch, Theorien zum Gerücht, Zusammenhang zwischen Glaubwürdigkeit und Weiter­gabewahrscheinlichkeit; Entwicklung eines parametrisierten mathematischen Lastmodells.

Stand der Forschung: Das Gebiet der verteilten Systeme ist eines der zentralen Gebiete der Informatik, so dass die For­schung viele verschiedene Facetten auf­weist. Klassische Themen wie Vernetzung und Konzeption und Entwurf von ko­operierenden Anwendun­gen (Coulouris 2001) wer­den in algorith­mischer, struktu­reller und technischer Sicht erweitert. Algorithmen unter anderem für Onlinebear­beitung (Borodin 1998), für Datenmanagement in verteilten Um­gebungen (Di Ste­fano 2005, Bienkowski / Meyer auf der Heide 2005) oder für Ad hoc Kom­muni­ka­­tion (Ilyas 2002) be­rück­sichtigen die spe­zifischen Anforderungen der räumlich und zeitlich ver­teilten Aktivitäten. In struktureller Hinsicht stellt der Übergang von Client/Server zu Peer-to-Peer ba­sierten Architekturen einen Paradigmen­wechsel dar, der zu neu­artigen Anfor­de­run­­gen geführt hat (Balakrishnan 2003). Ana­log dazu erweitern techni­sche Neue­run­gen wie etwa die drahtlose Kommu­ni­ka­tion das Einsatzgebiet ver­teilter Syste­me: die ursprüngliche Mensch-Maschine-Kom­munikation wird zu­nehmend durch eine Maschinen-Maschinen Kommu­nika­tion ersetzt. Ein aktuelles Beispiel sind Sensor­netzwerke, welche weit rei­chende Überwachungs­aufgaben wahrnehmen (Karl/­Willig 2005).

Betreuung: Becker, Karl, Meyer auf der Heide, Wehner.

Querbezüge zu 1.3, 3.1, 3.2.

 

1.2  Tausch, Markt und Ökonomie

Ein Beispielraum, der sich für die Fragestellung des Graduiertenkollegs in besonderer Weise an­bietet, sind Markt und Ökonomie; Automatismen und ,spontane’ Struktur­entste­hung werden – gerade in der Öffentlichkeit – häufig am Beispiel der Ökonomie disku­tiert: Die ‚invisible hand’ des Marktes ist an die Stelle der ‚visible hand’ planender Ge­staltung getreten. Dies zeigt sich nicht nur in mit ethnographischen Methoden arbeitenden Feldstudien, in denen z.B. die Entstehung und „Verfestigung“ von Kooperation unter­sucht wird (vgl. ursprünglich Malinowski 1922), sondern auch in zahlreichen, von expe­ri­men­tell arbeitenden Ökonomen durchgeführten Laboruntersuchungen (vgl. Bowles und Gintis 2002 sowie Fehr und Gächter 2002). Obgleich die Ergebnisse vordergründig den Schluss nahe zu legen scheinen, dass der „homo oeconomicus“ bestenfalls eine kari­kie­ren­de Beschreibung menschlichen Verhaltens darstellt, zeigt sich bei genauerem Hin­sehen, dass die in diesem Kontext zentrale Annahme der neoklassischen Theorie − die in­di­vi­­du­ellen Akteure sind rationale Nutzenmaximierer, für die stets die Partizipations- und die Anreizkompatibilitätsbedingung erfüllt sein muss, damit sie überhaupt aktiv werden − durchaus mit der Vorstellung spontanen „(pro-)sozialen“ Verhaltens kompatibel ist.

In das Graduiertenkolleg kann hier ein Forschungsprojekt einge­bracht werden, das Ähn­lich­keiten zwi­schen ökono­mi­schem Tausch und dem symboli­schen Austausch der Medi­en untersucht (Wink­ler 2004.01, 2005.21). Als zweites besteht ein umfangreicher For­schungs­zusam­­men­hang zum Thema der Gabe (Ecker). Dieser Ansatz ist besonders inter­essant, weil er die Ökonomie von ihrer Grenze her reflek­tiert und damit geeignet scheint, das Modell­hafte der Ökonomie selbst zu befragen. Prof. Frick bringt wirtschaftswissen­schaft­liche Kompetenz in das Teilprojekt ein.

Ziel des Projekts ist es, kultur- und sozialwissenschaftliche Arbeiten zu Tausch, Aus­tausch und Gabe unter dem thematischen Aspekt des Kollegs neu zu betrach­ten. Gibt es Unterschiede zwischen dem Warentausch und dem symbolischen Tausch? Gibt es Auto­matismen, die in beiden Bereichen gelten? Handelt es sich beim Markt um ein ‚verteiltes System’? Und ebenso im Falle der Medien? Kön­nen Beziehungen zu den technischen Systemen hergestellt werden, wie sie das Teilprojekt 1.1 behandelt?

Methode:Aufarbeitung kulturtheoretischer Verwendungen ökonomischer Model­le.

Stand der Forschung: Zur Relevanz ökonomischer Modelle innerhalb der Medien­wissen­schaft: Innis (1950/97), Mattelart (1994/96); historische Schnittstellen zwischen Natio­nal­ökono­mie/­­Volkswirt­schaftslehre und Medientheorie: Spreen (1998), Vogl (2002), Balke (1996, 2004); zum Übergang zwischen Ökonomie und Semiotik: Goux (1973/90), Rossi-Landi (1965/83); ‚Aushandeln’ von Bedeutung: Greenblatt (1988). Ökonomische Modelle innerhalb der Psychoanalyse: Freud (1915/75), Heim (1986), Ökonomien des Begehrens: Lyotard (1974/84), Žižek (2001).

Zur Theoriedebatte über die Gabe als Sonderform des Ökonomischen, Modell der An-Ökonomie: Mauss (1924), Malinowski (1979), Strathern (1988) in der Ethno­lo­gie; Starobinski (1994) in der Kulturgeschichte; Bataille (1949), Derrida (1993), Bourdieu, Godelier (1999) in Philosophie und Psycho­analyse; Il dono (2001) in der Kunstgeschichte; Haselstein (2000), Vogl (2002), Blaschke (2004) in der Lite­ra­­turgeschichte.

Betreuung: Ecker, Frick, Winkler.

Querbezüge: 1.1, 1.3, 2.1, 3.1, 3.2.

1.3  Kooperation, Austausch, Lernen

Das dritte Projekt fragt nach Automatismen auf der Ebene von Gruppenprozessen. Ver­teil­te Systeme spielen zunehmend dort eine wichtige Rolle, wo einander unbekannte Ak­teu­re Kontakt aufnehmen und gemeinsame, auf einen bestimmten Zweck hin ausge­rich­tete Aktivitäten planen und koordinieren. Beispiele hierfür reichen von der Freizeit­gestaltung (Events) über politische Aktivitäten und spontane Protestaktionen bis hinein in Bereiche des vernetzten Lernens und Arbeitens (Wikipedia, virtuelle Wissensräume, Wissens­­netz­werke; Virtuelle Unter­neh­men). In den genannten Beispielen formie­ren sich zuvor oft unverbundene und einander unbekannte Einzelakteure zu Kollektivgebil­den, deren befristeter Zu­sammen­halt sich wesentlich dem Einsatz spezieller Medien verdankt: Mobilfunk, Web­schnitt­­­stellen, virtuelle Begegnungsstätten oder Agenten­syste­me sind hier zu nennen. Medien übernehmen u. a. die Funktion des Monitorings und der Analyse; ein Bezie­hungs­geflecht, das automatisiert entsteht und für die Beteiligten mög­licherweise opak bliebe, wird mit technischen Mitteln beobachtbar gemacht.

Ziel ist es, anhand von empirischen Fallstudien die Strukturmerkmale dieses rela­tiv neuen Typs medialer Mobilisierung und Koordination herauszuarbeiten (Spon­tanität, Verzicht auf überge­ordnete Planung, relative Unverbundenheit und Hete­rogenität der Beteiligten, weiche Bin­dungen, Internet als Ausdrucks- und Organi­sationsmedium). Die Ergebnisse dieser Untersuchungen sind in Ver­bin­dung zu setzen zu relevanten bekannten gesell­schaft­lichen und technologischen Vorläufer- und Parallelentwicklungen (z.B. Individuali­sierung, Projektförmigkeit unterneh­merischer Aktivitäten, Themenorientie­rung poli­ti­schen Engagements, kollaborati­ves Lernen, sog. ‚mobile’ und ‚nomadic computing’); weiter ist eine Einbettung in Theoriekontexte (u. a. Netzwerktheorie) zu leisten. 

Drei der beteiligten Forscher arbeiten in diesem Bereich: Keil über koope­ra­tive Medien und virtuelle Wissensräume; Meister über neue Formen des com­pu­ter­unterstütz­ten Lernens und Arbei­tens (Meister 2004, 2004a), und Wehner über elek­tronische Vernetzungen im politischen und wirtschaftlichen Umfeld (Weh­ner 2002.2; 2001.21; 2001.22; 2001.23). 

Methode: Empirische Studien zu den Fallbeispielen mittels qualitativer und quan­ti­tativer Befragung von ‚usern’, Logfile-Analysen; Theoriearbeit. Mit ‚sTeam’ liegt eine Soft­ware-Platt­form vor, die in Pader­born entwickelt wurde und die für Fallstudien in diesem Feld ein­gesetzt werden kann.

Stand der Forschung: Rheingold (2002) liefert mit Beobach­tungen spontaner Ver­net­­zun­gen (‚social swarming’) wichtige em­pi­rische An­haltspunkte, während Cas­tells (2003) große Studie zur Netzwerk­ge­sellschaft eine gesell­schaftstheoretische Rahmung bietet. Ebenso wichtig sind Stu­dien, die die Bedin­gungen von Teil­sys­te­men reflektieren; Beispiele sind hier Willkes Ausführungen zum kol­lek­ti­ven Wis­sens­manage­ment in der moder­­nen Wissensökonomie (2002), die Arbeiten von An­driessen (2003) und Issing/­Klim­sa (2001) zu For­men des koopera­tiven und kol­­la­bo­rativen Lernens, die Analysen von Eigner (2003), Möl­ler (2005) und Wein­­berger (2002) zu neuen Kommunikationsformen im In­ter­net, die Bei­träge in Well­man (1999) und Wellman/Haythornthwaite (2001) zur Re­le­vanz des Internet für die Grün­dung und Aufrechterhaltung per­sön­licher Netz­wer­ke, politik­wissen­schaft­­liche Arbeiten wie die von Putnam zum Gel­tungs­ver­lust von Parteien und Ver­bänden für die Mobilisierung gesellschaft­lichen Enga­ge­ments und schließlich Progno­sen zur Com­puterentwicklung wie die von Weiser (1999).  

Betreuung: Keil, Meister, Wehner.   Querbezüge: 2.1, 2.2, 2.3, 3.3.

Automatismen setzen ein ‚Selbst’ einerseits voraus: andererseits ist zu fragen, wie ein ‚Selbst’ entsteht, wie es sich stabilisiert und reproduziert, und welchen Anteil hieran wie­derum Automatis­men haben. Gesellschaftlich ist zu beobachten, dass Mechanismen der Selbst­konstitution zuneh­men­de Aufmerk­sam­keit zukommt: Im Zurück­treten tradi­tionaler Bindungen und der Flexibili­sie­rung von Rollenvorgaben werden Selbst­kon­sti­tution und Selbst­management zunehmend verlangt, dies wird von den Betroffenen als zuneh­mend belastend erfahren. Selbstkonstitution erscheint als auferlegt – in deutlicher Spannung zu den Kon­notationen einer positiv besetzten Autonomie, die der Begriff ebenfalls mit sich führt.

Auf Seiten der Technik kann das Konzept der Automatismen abgegrenzt werden über die Theorien zum Automaten. Hier ist es die Vorstellung einer mechanischen Selbsttätigkeit, die den Begriff be­stimmt.

 

2.1 Technologien des Selbst

Innerhalb der Sozialwissenschaften wird betont, dass Selbstkonstitution sich immer in einem Wech­sel­­verhältnis vollzieht – im Wechsel­verhältnis zwischen Subjekt und Gesell­schaft, und zweitens im Wechselverhältnis zwischen Subjekt/Gesellschaft und Technolo­gie.

Soziale Prozesse der Technisierung und Auto­mati­sierung ergreifen immer auch den Men­schen selbst. Der Begriff der ‚Automatismen’ dient auf dieser Ebene zur Beschreibung dis­parater Vorgänge, die zwar, wie körperliche und psychi­sche Haltungen, automatisch, nämlich unbewusst funktionieren und von daher gleich­sam als ‚technisch’ zu beschrei­ben sind, aber rein technische Funktionsabläufe über­schreiten.

Widerlager dieser Frage ist der Begriff des (technischen) Automaten. Kann technischen Anord­­­­nun­gen ein ‚Selbst’ zugestanden werden? Welcher Grad von Autonomie ist hierfür gefordert? Und wenn sich das Selbst der Subjekte in der Wechselbeziehung zu gesell­schaft­lich/technischen Anord­nun­gen ent­wickelt – ent­wickelt sich auch die Technologie in zykli­schen Prozessen, im Durchgang durch Gesell­schaft, Alltag, Gebrauch und Massen­kultur?

Ziel des Projektes ist es zu untersuchen, wie sich Mechanismen der Selbst­­konsti­tution im Wechsel­spiel zwischen Subjekt, Gesellschaft/Massenkultur und Tech­nologie vollziehen und wie sie sich historisch verändert haben. Hierzu bestehen umfangreiche Vor­arbeiten vor allem bei den beteiligten Sozialwissen­schaftlern; Publikationen und Fachtagungen  liegen vor zu: Identitätsfragen im Internet, Auto­matentheorien und Robotik (Becker), zu Subjekttechnologien und zur struk­turbildenden Funk­tion medien- und soziotechnischer Anordnungen in der Mas­senkultur (Bublitz).

Methode: Sozialwissenschaftliche Theoriearbeit.

Stand der Forschung: Neuere Forschungsarbeiten zur Subjekt- und Selbstkon­sti­tution bewegen sich im Spektrum poststrukturalistischer Subjektkritik. Hier sind vor allem die – macht- und subjekttheo­re­tischen – Arbeiten von Bourdieu, Butler, Foucault und Derrida zu nennen (vgl. Bourdieu 1979, 1989, 1990; Bourdieu/­Wacquant 1996; Butler 1991, 1995, 2001 und 2003; Foucault 1977, 1986, 1987, 1993, 2000; und Derrida 1972/1997, 1974/1996; vgl. zur Überschreitung des Sub­jekt­para­dig­mas auch Habermas 1986). Die Annahme, dass die Freisetzung selbst­regu­lativer Mechanismen ein wesentliches Element moderner Subjekti­vie­rung bil­det, rekurriert darüber hinaus auf Analysen zum Zusam­menhang von Indi­vidu­ali­sie­rungsprozessen und Selbstorganisation in der reflexiven Moderne (Beck 1984; 1996; Beck/Bonß 2001). Dabei geht es um Selbsttechnologien in einem um­fas­senden Sinne: Angesprochen sind damit sowohl kulturelle Muster der Selbst­konstitution, Prozesse der Selbst­steuerung und Praktiken der Selbstführung wie auch Formen der – exzessiven − Selbstthematisierung, der Selbstbeobachtung und des Selbst­managements. Aktuelle Diskurse zur Selbstkonstituierung spät­moderner Subjekte legen den Schluss nahe, dass es in technisch-medial orga­nisierten und neo­liberal verfassten Gesellschaften zu neuen Formen der Selbst­inszenierung kommt, die auf eine veränderte Praxis der Selbstkonstitution hin­weisen (Bauman 1997, 1999, 2000, 2003; Bröckling 2000; Lemke et al. 2000; vgl. zur performati­ven Produktion des Subjekts in − ritualisier­ten − Formen der öffentlichen Selbst­insze­nierung, auch in medialen Kontexten Bublitz 2005, 2006; Butler 2003; Balke/Schwering/­Stäheli 2000; Tholen 2001).

Betreuer: Becker, Bublitz, Meister, Sutter.

Querbezüge zu 1.3, 3.2 und 3.3.

 

2.2  Zyklen der Reproduktion, Systementstehung, Systemerhalt

Die Überlegungen zur Selbstkonstitution unterstellten bereits, dass sich Pro­zesse der Selbststeuerung in zyklischen Rückkoppelungsschleifen vollziehen. Zyklen der Repro­duk­tion spielen eine Rolle in der Bio­lo­gie und der Evolutions­lehre und sind von dort aus in die Kyber­netik übernommen wor­den; Basisvorstellungen wie Rück­kopplung und Regel­­kreis gehen auf die Erfahrung tech­ni­scher Apparaturen zurück; das Selbst- der Selbst­­konstitution und das Auto- der Auto­ma­tismen ent­hält die Zyklen als reflexives Moment.

Die System­theorie generalisiert das Modell im Konzept der Autopoiesis bzw. der Emer­genz. System­ent­stehung und Systemerhalt werden hier in systematischer Weise be­schrie­ben. Grund­legen­des Konzept hierbei bildet der operative Konstruktivismus, der von der selbstreferenziellen Bildung (Selbstkonstitution) und Abgrenzung von Systemen ausgeht: Systeme wer­den nicht produziert, sondern entstehen in den laufenden rekursiven An­schlüs­sen system­inter­ner Operationen. In diesem Rahmen untersucht die Systemtheorie die medien­beding­te Formung rekursiv aneinander anschließender Kommunikationen so­wie die Funk­tionen von Kommunikationsmedien in zunehmend komplexen Gesell­schaf­ten (Er­folg und Ver­brei­tung von Kommunikation, Gedächtnis-, Speicher- und Thema­ti­sie­­rungs­funktion).

Im Rahmen des Graduiertenkollegs kann dies nur als Hintergrund fungieren; im Feld der Medien­wissen­­schaft allerdings erscheint die Frage kon­kret operationalisierbar, denn hier wurden ver­gleich­­­bare Zyklen aus­führ­lich untersucht, und zwar am Beispiel oraler Kultu­ren, deren Tra­ditions­bildung auf dem Ritus, auf Zyklizität und Wieder­holung beruht. Seri­alität spielt innerhalb der Medien eine große Rolle; der für die Medienwissenschaft zen­trale Begriff der ‚technischen Reproduk­tion’ und das Infor­matik-Konzept itera­tiver bzw. rekursiver Funktionen kann hier einen wichtigen Schlüssel bilden. In der sozial­wis­sen­schaftlichen Medienforschung kann die zyklische Etablierung und Reproduktion medi­­aler Formate und Attraktoren (wie Nachrichtenwertfaktoren) als Prozess rekursiver Eigen­wertbildung untersucht werden.

Ziel des Projekts ist es zu zeigen, wie zyklische Reproduktionsprozesse in Auto­ma­tis­men münden.

Methode: zunächst wären die theoretischen Grundlagen aufzuarbeiten (Zusam­men­hänge zwischen gesellschaftlicher Ausdifferenzierung und Medien­evolution, The­orien zu Speicher und Gedächtnis, Wiederholung und Repro­duk­tion, Per­for­ma­tivi­täts­theorien, zykli­sche Modelle der Kyber­netik); zweitens wären medien­historische Darstellungen unter dem skizzierten Aspekt durch­zusehen, um die Frage an aus­gewählten historischen Zeitschnitten zu konkretisieren; drittens wären aus dieser Sicht aktuelle Analysen von Formen und Funktionen der Medien in der Gesellschaft aufzuarbeiten und zu erstellen.

Stand der Forschung: Zum gegenwärtigen Stand der Kybernetik-Debatte: Pias (2003/04), und dort insbesondere Pias (2004_2) und (Coy 2004), historisch: Wie­ner (1952, 1963) sowie Vogl (2004); zum Begriff der Reproduktion Bergermann (2002, 2002_2); zum Konzept der Autopoiesis: Luhmann (1984/93 60ff., 1997 65ff.), sowie Guwang (2000); zur gesellschaftlichen Ausdifferenzierung und Medien­evolution: Luhmann 1997 249ff., Merten (1994); zur Systemtheorie der Medien: Luhmann (1997 190ff.), Sutter (2001), Wehner (2000); Zur Oralität und der konstitu­tiven Rolle der Wie­der­­­holung: Ong (1982/87), Assmann (1988, 1991); Serialität in den Medien: Gie­sen­­feld (1994), Bippus (2000); Zur Performativität wird gegenwärtig eine ver­zweigte Debatte geführt; bei­spiel­haft: Fischer-Lichte (1998, 2001), Krämer (2004), Winkler (2004.23). Zu Formen und Funktionen der Medien in der modernen Gesellschaft: Göbel (2006), Luhmann (1996), Wehner (1997).

Betreuung: Adelmann, Eke, Sutter, Winkler.

Querbezüge ergeben sich insbesondere zu 2.1, 2.3, 3.1, 3.3.

 

2.3 Zyklen der Systementwicklung, Automatismen und Automaten

Sehr konkret stellt sich die Frage nach den Zyklen der Reproduktion für die Entwickler technischer Systeme. Softwarepakete etwa werden nach einem vereinbarten Stufenplan erstellt, und dann an den Nutzer übergeben; in der Praxis, im Gebrauch bewähren sie sich oder bewähren sich nicht, die Kritik der Nutzer wird die Nachbesserung, und damit den nächsten Entwicklungszyklus einleiten.

Dieses klassische Entwicklungsmodell setzt voraus, dass der Entwickler ein konkretes Gegenüber hat, das die Kritik (Brauchbarkeit oder Unbrauchbarkeit) kommuniziert; dies ist insbesondere bei verteilten Systemen nicht der Fall. Zudem erscheint nicht immer sichergestellt, dass das explizite Urteil, wie es etwa die Marktforschung empirisch ermit­telt, die tatsächliche Nutzerzufriedenheit/-unzufriedenheit zutreffend spiegelt. Die In­for­ma­­tik reagiert, indem sie neue Wege der Systementwicklung sucht, die dialogischer, in enger Abstimmung mit dem Nutzungsprozess vorgehen. Hierzu gibt es Vorarbeiten (Keil-Slawik 1992.11, 2000.26).

Ziel ist zum einen die Beobachtung konkreter Entwicklungsprozesse unter dem Aspekt des ‚Durchgangs’ durch den Nutzungsprozess. Ein zweiter Ansatz könnte ein Entwicklungsmodell erarbeiten, das aktuelle und erwartete technische Kenn-daten mit möglichen gesellschaftlichen Trends kombiniert und somit mögliche Er­weiterungs- oder Veränderungsszenarien aufzeigt.

Zum dritten wäre die Frage nach Automaten und Automatismen aus der beschrie-be­nen Perspektive aufzugreifen: während der Entwicklungsprozess selbst geplant ist, beginnt der ‚Automatismus’ sobald die Technologie die Labore verlässt. So kann die Nutzung eigene ‚Automatismen’ entwickeln, die jede in der Technik niedergelegte Intention übersteigen.

Methode: Material wären hier Fallstudien aus dem Fundus der Technikgeschichte, die im Licht der Fragestellung des Kollegs möglicherweise neu zu fassen wären, sowie Kategorien der aktuelleren Techniktheorie; Vorarbeiten zum ‚Missbrauch’ der Fernbedienung im Zapping (Winkler 1991), im praktischen Gebrauch die Be­deutung von Bildschirmtext und SMS, die nicht als primäre Medienfunktionen kon­zipiert waren (Austastlücke bei der Fernsehbildübertragung bzw. SMS als ‚Ab­fallprodukt’ des GSM-Standards), sondern unter Ausnutzung anderer Features der jeweiligen Technologie eigene Gebrauchsdimensionen entfalteten (Ulrich 2003), sowie zur Verschränkung von Technik und Gesellschaftstheorie (Becker, Keil-Slawik 2001.27) liegen vor.

Stand der Forschung: Erste Ar­beiten zu diesen Themen konzentrierten sich auf System­entwick­lungs­metho­den und das politisch-institutionelle Umfeld der Systementwicklung (Ny­gaard/Hand­lykken 1981,  Nygaard 1986), die im skandinavischen Raum zu­neh­mend Ein­­fluss auf Gestaltungsmethoden und Designtheorien entfalteten (zu­sam­men­­gefasst und erweitert in Ehn 1988, Andersen et al. 1990, Dahlbohm/Mathia­ssen 1993). Zum Teil anschließend an diese frühen Arbeiten ent­stand eine Serie von stärker empi­risch fundierten Untersuchungen zur Praxis des Programmierens (Naur 1992)  und zur Anpassung und Entwicklung geeigneter Projektmodelle (Floyd 1981). Mit der brei­ten Akzeptanz von Prototyping (Floyd 1984) und spiral- oder v-förmigen Projekt­­modellen (Boehm 1986) verbreiterte sich die Analyse auf an­­wen­dungs­bezogene Aspekte wie z.B. die Rolle von Feh­lern, die Nutzung von Spra­chen/Fach­sprachen und die selbstorganisierte Ausprä­gung von Hand­lungs­mustern (Keil-Slawik 1992.11). Weitere Arbeiten behandeln den Ein­fluss sozialer Fakto­ren auf die Softwarequalität (Pasch 1994) und allgemeiner die Prak­tiken von Soft­­ware-Entwicklern (Degele 1997) sowie Fragen der Wissens­sozi­o­­logie (Fun­ken 2001) und der Entwicklung offener und kooperativer Technik­gestaltungs­prozesse (Dierkes 2000). In Bezug auf die Umfeldanalyse treten verstärkt auch Gebrauchsaspekte in den Vordergrund. Ausgangspunkt sind hier Arbei­ten von ameri­ka­nischen Anthropologen zur Alltagskognition (Rogoff/Lave, 1984, Lave 1988), die später über den Begriff des situierten Handelns mit Artefakten er­weitert wurden, um frühzeitig Nutzungsmuster zu identifizieren (Suchman 1987). Mit dem Stichwort ‚Designing for un­anti­cipated Use…’ führte Robinson (1993) vier Dimen­sionen ein, die die Aus­prägung unkonventionellen Benutzungs­verhal­tens cha­rak­te­risieren sollten und die letztlich auf die Gestaltung von Artefakten zurück­geführt werden können (Prinz/Mark/Pankoke-Babatz 1998, Pekkola 2003). Ein weiterer An­satz nutzt das Kon­zept der Behaviour Settings (Barker 1968), um das Zu­sam­­menspiel von Hand­­­lungsplänen und Kontextbedingungen zu durch­leuch­ten. Einfließen sollen sol­che Erkenntnisse in die Kontextmodellierung zur Aus­­gestal­tung von Aware­ness-Komponenten in CSCW-Systemen (Pankoke-Ba­batz 2003, Pan­koke-Babatz/ Prinz/Schäfer 2004). Einen anderen Ansatz ver­folgt Bleek (2004), der für die Ent­wick­lung und Gestaltung von Infrastrukturen das Kon­zept der Arena einführt und einen Ansatz zur Integration paralleler asyn­chro­ner Ent­wick­lungs­prozesse vertritt. Ein interessanter An­satz zwischen diesen Ent­wicklungslinien stellt das Konzept des ‚Extreme Pro­gramming’ dar, das auf Kent Beck und Ward Cun­ning­ham zurückgeführt werden kann (Beck 1999 und 2000). Solche Entwicklungsansätze werden meist unter dem Oberbegriff „Agile Soft­ware­entwicklung“ zusammengefasst. Allerdings liegen hier bislang eher pro­gram­ma­tische als empirisch fundierte Veröffentlichungen vor, die noch keine an­schluss­­­fähigen Kon­zep­te für die Problematik der Ausbildung von Auto­ma­tismen anbieten.

Betreuung: Karl, Keil, Becker (eine Kooperation mit Prof. Engels und Prof. Schäfer (Soft­ware­tech­nik) ist vereinbart).

Querbezüge: 1.1, 1.3.

Automatismen im Sinne des Kollegs haben eine quantitative Seite darin, dass Phänomene der Kumulation eine Rolle spielen; Strukturentstehung in verteilten Systemen vollzieht sich häufig additiv. Gleichzeitig aber ist auch diese Seite alles andere als trivial: quantita­ti­ve Veränderungen können Ent­wick­lungs­sprünge auslösen, vor denen die Statistik ver­sagen muss; Phänomene der Verdichtung scheinen ebenso typisch wie diejenigen schlich­ter Aufhäufung zu sein. Zudem ist zu beobachten, dass die Prozesse der Kumula­tion sich wiederum in Zyklen vollziehen; Rück­kopplung, Resonanz und Selbstverstär­kung sind in diesen Zyklen wirksam.

Verschiedene Fachgebiete nutzen den Begriff der Emergenz, um Phänomene der Struk­tur­­­bildung und den Umschlag von Quantität in Qualität zu beschreiben. Hauptsächliches Kennzeichen emer­genter Pro­zes­se ist, dass sie Unerwartetes, Neues hervor­brin­gen. Das Kolleg wird den Be­griff als ein Rahmen­konzept aufgreifen, seine Konzep­tu­a­li­sie­rung z.B. in der Sys­tem­­theorie mitvollziehen und seine Verwendbarkeit im interdisziplinären Raum prü­fen (Ste­phan 1999, Stephan 2001, Alexander 1920, Morgan 1923, Morgan 1926, Sellars 1922, Broad 1925, Fromm 2004, Holland 1998, Luhmann 1996.2, Luh­mann 1997, Sutter 2006). Gleich­­­zeitig wird es darum gehen, das Konzept an den Sachfragen des Kollegs zu kon­­­kre­tisieren.

 

3.1 Kumulation, Rankings

In diesen Bereich werden zunächst Vorarbeiten eingebracht, die aus dem Habilitations­projekt eines der beteiligten Nachwuchswissenschaftler stammen. Adelmann untersucht Rank­ings als eine Form populärkultureller Ordnungssysteme, die ausgehend von den eta­blier­­ten Hitparaden und Sellerlisten inzwischen weite Teile des Internet und der Medi­en­land­schaft bestimmen. Buchempfehlungen bei Amazon und das CHE-Ranking der Uni­ver­sitäten, Ergebnislisten der Suchmaschinen und perso­na­lisierte Werbung auf­grund von Cluster­bildungen – alle diese Anwendungen verbindet, dass man verteilte, empiri­sche Pro­­­­zes­­se beobachtet, um sie statistisch versammelt in den populären Diskurs wieder ein­­zu­speisen.

Ziel des Projekts ist es, die Funktionsweise und den kulturellen Stellenwert dieser Rank­ings und kumulativen Ordnungssysteme zu zeigen. Da z.B. die Schrift­geschich­te mit ökonomischen Listen beginnt, ist zudem die Vorgeschichte solcher populärkulturellen Ordnungssysteme aufzuarbeiten. Eine Einzelstudie zur Selbst­organisation der Internet­nutzer durch Verweisungs- und Bewertungs­aktivitäten ist ebenfalls möglich. Die betei­ligten Informatiker planen Untersuchungen zum Effekt der Selbstverstärkung, sowie zu emergenten Rankings in verteilten Syste­men. Mit Analysen der Rank­ing­struktur und des Benutzerverhaltens soll eine vor­zeitige Konvergenz zu einer homogenen Dar­stellung (Selbstverstärkungseffekte aus der Ergebnisdarstellung) erkannt und soweit erforderlich begrenzt werden. Die Ergeb­nisvielfalt wird in weiteren Iterationen weiter eingegrenzt, um den spe­zi­fischen Wünschen des Benutzers gerecht zu werden.

Methode: Theoriearbeit, historische Untersuchungen und Fallstudien.

Stand der Forschung: In der kulturwissenschaftlichen Forschungslandschaft wer­den die populären Ordnungssysteme als soziokulturelle Automatismen noch kaum thematisiert. Die Veröffentlichungen zum Bestseller (Thomsen/Faulstich 1993, Faulstich 1983, 1986, Hend­ler 2001, Bloom 2002) und zu Hit und Hitlisten (Fairley 1992, Wicke 1996, Haring 2000) liefern konkretes Material. Auch die weni­gen theoretischen Überlegungen beschränken sich häufig auf ein spezifisches Feld wie die Suchmaschi­nen (Ernst/Heidenreich/Holl 2003, Lehmann/Schetsche 2005) oder eine Rezeptionshaltung (Groys 2004; Shuker 2004). In der Informatik­land­schaft überwiegen Forschungsarbeiten zur fundierten Er­zeugung (Page/Brin 1998, Ha­veliwala 2002), Präsentation (Hristidis/Papakonstantinou  2004) und Ver­­eini­gung (Rasolofo 2002) von Rankings. Ein breiter Überblick über exis­tie­ren­de Tech­­no­lo­gien findet sich beispielsweise in Nohr (2005) und Baeza-Yates/­Ribeiro-Neto (1999). Aktuelle Veröffent­lichun­gen berücksichtigen insbesondere die Kopp­­lung von ver­­schiedenen Informationsquellen unter dem Stichwort Informa­tion Fusion (Dasa­rathy 2003).

Betreuung: Adelmann, Bublitz, Karl, Meyer auf der Heide. 

Querbezüge: 1.1, 1.2, 2.2, 3.2.

 

3.2  Normalisierung, Konvention

Ein wichtiger theoretischer Bezug des Kollegs ist der Begriff der Normalisierung, wie er von Jürgen Link in die Diskussion eingebracht worden ist. Der Kern seiner These ist, dass die Subjekte sich in der Beobachtung des gesellschaftlich ‚Normalen’ zunehmend selbst adjustieren (siehe 2.1). Gesellschaftliche Normen werden durch einen ‚flexiblen Normalismus’ abgelöst.

Auch in Links Normalismus geht es um Quantitäten, insofern es Häufigkeiten sind, die das ‚Normale’ formatieren. Die Gauss-Kurve ist eine statistische Funktion und sie mar­kiert den Ort des Umschlags, an dem Quantitäten/Häufungen strukturrelevant werden. Dass Link auf eine implizite, intuitive Orientierung abhebt, verbindet den Normalismus mit der hier verfolgten Frage nach den Automatismen.

In diesem Bereich besteht ein umfangreicher Forschungszusammenhang der beteiligten WissenschaftlerInnen, der sich u. a. durch ein Forschungsprojekt zur Kulturkrise der Mo­derne und zahlreiche Publikationen ausweist (Bublitz). Zum anderen liegen hier Vor­arbeiten aus dem Habilitationsprojekt Adelmann vor.

Ziel: Das Projekt soll diese These im Hinblick auf soziokulturelle Automatismen prüfen und sie, gestützt auf den Zusammenhang des Kollegs, ausbauen. Insbeson­dere wün­schens­wert erscheint die Einbindung in ein allgemeines Modell der Schemabildung und Konventionalisierung (3.3).

Methode: Theoriearbeit; Konkretisierung am Beispiel von Rankings und kulturel­len Kon­ventionalisie­run­gen wie Genres.

Stand der Forschung: Die Forschung zur modernen Normalitätsproduktion und ihrer statistische Fundierung geht von Canguilhem (1943/1974) und den Arbeiten von Foucault (vgl. Foucault 1993, 1999, 2003) aus. An das Konzept der Normali­sie­rungsgesellschaft (Foucault 1993, 1999; vgl. auch Sohn/Mertens 1999) und das Normalismus-Konzept von Jürgen Link (Link 1997, Link/Loer/Neuen­dorff 2003) schließen sich eine Reihe von medienwissenschaftlichen Konkretisie­rungen an, so z. B. zur Visualisierung der statistischen Verdatung in Infografiken (Ger­hard/ Link/Schulte-Holtey 2001) oder zum Narrationstyp ‚(nicht) normale Fahrt’ (Ger­hard et al. 2003).

Betreuung: Adelmann, Bublitz, Winkler

Querbezüge: 1.2, 2.1, 2.2, 3.1, 3.3.

 

3.3  Automatisierung und Entautomatisierung in den Künsten

Der letzte Teilbereich nimmt die Tatsache auf, dass die skizzierten Automatismen in­ner­­halb der Kulturwissenschaften durchaus ambivalent und von einigen Ansätzen äußerst kri­tisch gesehen werden. So haben etwa der Russi­sche Formalismus und der Prager Struk­­­turalismus (Viktor Šklovskij, Jan Muka­řovs­ký) pro­­grammatisch vertreten, die Kunst habe die Aufgabe, eine Entauto­mati­sie­­rung zu leis­ten. Sind automatisierte und kon­ven­tionalisierte Prozesse einerseits ent­wick­lungs­mäch­tig, un­ver­meidbar und ‚öko­no­misch‛, sind sie gleichzeitig von einer ge­wissen Blind­heit be­stimmt; der Vorgang der Auto­ma­ti­sie­rung steht geradezu für die Schwelle zwi­schen be­wusst und unbewusst, und Konven­tio­nen bilden underlying assumptions, die sich einer bewussten Reflexion und Gestaltung weitgehend entziehen. Hier also geht es darum, die These des Gradu­ier­ten­kollegs an eine wichtige Grenze zu führen.

In das Blickfeld des Kol­legs rückt die Kunst (Lite­ra­tur, Theater, Film) als performative Praxis im Spannungsfeld zwi­schen Autogonese (Automatismen) und Heterogenese (Arte­factum), zwischen Auto­poie­sis (Epi­pha­nie) und Poiesis (Gemachtheit). Damit stellt sich die Frage, wie ästhe­tische Prozesse konzeptualisiert werden, wie diese Kon­zep­tuali­sie­run­gen in Prak­tiken der Formung und Formierung eine Über­set­zung finden und welche Be­deu­­­tung Auto­matismen in diesem Rahmen zukommt. Perfor­ma­tivitäts- und Spiel­konzepte (Schechner, Schramm, Fischer-Lichte; Caillois, Iser, Gebauer/ Wulf) bieten den theo­­re­tischen Rahmen auf Seiten der Produktionsästhetik, auf Seiten der Rezeption, im Ver­hältnis von Kunstwerk und Betrachter (Theater-/Kino-Zu­schauer, Leser, Hörer) ist eben­falls mit einer Ver­schrän­­kung von Automatisierungs- und Entautomatisierungs­prozes­sen zu rechnen.

Eine besondere Rolle spielen Automatismen im Bereich des Kinos. Das filmi­sche Dis­po­si­tiv steht im Zusammenhang mit der Erforschung psychischer, kine­ti­scher und kyber­ne­ti­sche Abläufe und Automatismen (vgl. die Bewegungsstudien Muy­bridges und Mareys sowie Charcots Hypnosestudien: Helmholtz und andere arbeiteten an Versuchen der Koppelung zwischen Nervensystem und Apparatur). In den Apparatus­theorien ent­spricht der appa­ra­ti­ven Anordnung der Maschine der psychische Apparat: Auto­matismen des Ap­pa­­­rats korrespondieren mit Automatismen im Publikum. Forma­lis­mus, Struk­tu­ra­lis­mus und Semi­o­tik prägen in der Filmtheorie deterministische Rich­tun­gen; im Kon­struk­tivismus (Bord­well, Thompson) bildet Film ein geschlossenes System, zu dem ein ‚pro­gram­mier­bares’ Publikum gehört.

Aktuelle phänomenologische und wahrnehmungsästhetische (Sobchack), psycho­analy­ti­sche und dekonstruktivistische Ansätze (Bellour, Marks) formulieren dagegen Positio­nen der Nicht-Determinierbarkeit des Verhältnisses zwischen ästhetischem Produkt und Zu­schauer. Prozesse der Entautomatisierung werden einerseits verortet in Kontingenzen der Wahrnehmungsmodi (räumliche Anordungen) und Äußerungen des Körpers: diese bewe­gen sich in einem Spannungsfeld und Wechselspiel zwischen Automatismen, un­be­rechen­baren Reaktionen bzw. Affekten (Shaviro, Massumi) und Gedächtnis (Klippel). Eine dritte Komponente unvorhersehbarer Vorgänge der Entautomatisierung sind im filmischen Material, seiner Beschaffenheit und Ästhetik lokalisiert: Körpervorgänge wie z. B. Weinen und Lachen (Marks, Schlüpmann) im Verhältnis zur Materialität des Films und im Austausch mit dem Publikum (Staiger) haben zwei Seiten: Sie sind steuerbar und individuell dennoch unberechenbar. Sie laufen automatisch ab, gleichzeitig produzieren sie Phäno­mene, die sich dem Apparat, seinen Intentionen und Automatismen wie auch Formen der Codierung entziehen.

Ziel des Projekts ist es, die Spannung zwischen Automatismen und Entautoma­ti­sie­rung in der Literaturtheorie, Theatertheorie, Filmtheorie und Ästhetik aufzu­arbeiten und in Automatismen Anteile zu untersuchen, die ‚Autonomie’ ent­fal­ten, und sich damit Strukturbildungen widersetzen, sie kontingent und unkon­trol­lier­bar unterlaufen.

Methode: Theoretisch fundierte Analysen am jeweils historischen Material.

Stand der Forschung: Formalismus und Strukturalismus: Šklovskij (1925) und Mukařovský (1967); Cultural Studies: u.a. Grossberg (1992); Greenblatt (1993, 1994, 1995). Filmerfahrung und Wahrnehmungstheorien: Marks 2000, 2002, Sobchak 1992, 2000, 2004); ‚visual fascination‛: Shaviro 1993) und der räum­lichen Projektion, Kino, Raum: Schlüpmann 1998, 2002: Gedächtnis: Klippel; (Per­formativität/Theater: Schechner 1966, 1973; Schramm 1996; Balme 1999; Fischer-Lichte 2004); Spiel: Callois 1982, Iser 1991, Gebauer/Wulf 1998)

Betreuung: Brauerhoch, Bublitz, Ecker, Eke.

Querbezüge: 1.1, 1.2, 2.2, 3.1, 3.2.

In dem Dreieck zwischen Automatismen, zyklischer Reproduktion und Strukturgenese ent­faltet sich ein Forschungsfeld, das für ein interdisziplinäres Kolleg viel verspricht.

Es ermög­licht, Dissertationsvor­haben aus verschiedenen Fächern einen gemeinsamen Rahmen zu bieten und auch solche Projekte anzuziehen, die inhaltlich unvermutet, in­no­va­tiv und deshalb besonders förde­rungs­würdig sind; gleich­zeitig ist es abgesichert in der Be­zugnahme auf in­ner­halb der beteilig­ten Wissenschaften stabil etablierte Einzel­modelle.

Die Frage nach den Automatismen, die das Graduiertenkolleg verfolgt, verbindet ver­schiedene Ebenen: Angestoßen durch konkrete Beobachtungen in einer Vielzahl ver­schie­dener Erfahrungs­räume – von den Forderungen nach Selbstmanagement und den Ich-AGs über den Mobil­funk bis hin zu Automatismen und  ‚Stereotypie’ in den Medien – beansprucht sie unmittelbare gesellschaftliche Relevanz. Sie schließt an Debatten an, die auch außerhalb der Universität kontrovers geführt werden, und sie will Querver­bin­dun­gen zeigen, die dieser Debatte notwendig entgehen. Die erzielten Ergebnisse – dies  wäre der zweite Anspruch – sollten in die Debatten wieder einfließen können. Auf der anderen Seite steht die Arbeit an den Begriffen und Kon­zepten selbst. Wenn die Aus­gangs­these richtig ist, dass immer mehr der relevanten Strukturen außerhalb bewusster Planung entstehen, dann bedeutet dies auch, dass ein begriffliches Instrumentarium zur Beschreibung solcher Prozesse noch nicht zur Verfügung steht. Hieran zu arbeiten ist Ziel der beteiligten Forscher. Das Graduiertenkolleg bietet die Möglichkeit, im Rahmen einer klaren Institutionalisie­rung auch Promovenden in diesen Prozess einzubeziehen.