Forschungsprogramm
Zentrale Forschungsidee
Automatismen
Im Mittelpunkt des Projekts stehen nach wie vor die Automatismen. Ausgangsthese des Kollegs war, dass immer mehr der gesellschaftlich relevanten Strukturen jenseits bewusster Planung entstehen. Diese These hat sich als au?erordentlich fruchtbar erwiesen und eine Vielzahl neuer Fragestellungen m?glich gemacht. So konnte in den unterschiedlichsten Beispielfeldern gezeigt werden, dass Entwicklungsprozesse, auch wenn sie nicht zentral, intentional, von ?oben‘ geregelt werden, ein hohes Ma? an Ordnung hervorbringen, und dass es m?glich ist, auf dieser Basis neue Entwicklungslogiken, neue Arten von Kausalit?t und Gesetzm??igkeiten in Wirkung zu zeigen (Bublitz et al. 2010, Bierwirth et al 2010). ?Unsichtbare H?nde‘ sind, so scheint es, in vielen Bereichen an die Stelle sichtbar ordnender Instanzen getreten (Bublitz et al. 2011). Und es bedarf einer besonderen wissenschaftlichen Aufmerksamkeit, ?bottom up‘-Prozesse als Beobachtung überhaupt ernst zu nehmen und eine Sprache zu ihrer Beschreibung zu entwickeln.
?Automatismen‘ haben hier einen systematischen Stellenwert. ?berall dort, wo Akteure in relativer Unabh?ngigkeit, dezentral oder verteilt handeln, wo Technik nicht durch ?Erfindung‘, sondern in enger Wechselbeziehung zu Nutzungsprozessen entsteht, wo sich Gewohnheiten, Schemata, Codes, Habitus oder implizite Regeln herausbilden ? überall dort kann man ?Automatismen‘ in Arbeit zeigen, in dem Sinne, dass es zwar Regeln gibt, nicht aber Regulierung, zwar Wiederholung, nicht aber ein vorab definiertes Muster, und Anteile intentionalen Handelns, nicht aber eine Intention, die das Handeln aussch?pfen würde. Beispiel w?re die unsichtbare Hand, die ein Meta-Ph?nomen über einer gro?en Anzahl intentional-zweckrational-egoistischer Einzelakte bildet.
Typisch für Automatismen ist, dass sie weder dem Bewusstsein noch dem (gesellschaftlich) Unbewussten zugerechnet werden k?nnen, sondern auf der Grenze zwischen beiden Sph?ren operieren. W?ren sie vollst?ndig bewusst, würde man nicht von Automatismen sprechen; Automatismen sind auf spezifische Weise ?blind‘; und sie funktionieren dann besonders reibungslos, wenn das Bewusstsein nicht interveniert.
Automatismen scheinen auf eine spezifische Weise ?konomisch zu sein. Ihre besondere Kraft liegt darin, dass sie Aufwand ersparen; den Aufwand, der zu einer bewussten Steuerung der Vorg?nge notwendig w?re, und denjenigen, den eine Intervention des Bewusstseins in die aktuelle Situation jeweils bedeutet. Indem die Wiederholung selbst zur Basis der Musterbildung wird, muss das Muster weder installiert noch mit Kraftaufwand durchgesetzt werden; ihre spezifische ?konomie scheint der entscheidende Motor ihres Erfolges zu sein.
All dies wurde in den Ver?ffentlichungen des Kollegs und in den Dissertationen, die in seinem Kontext entstanden sind, an einer breiten Palette konkreter Beispiele untersucht und begrifflichtheoretisch ausgearbeitet; einige der Ergebnisse sind im Arbeitsbericht dargestellt (EB 3, S. 7ff.).
Wichtig ist der Konnex zu der Fragestellung, mit der das Kolleg nun fortgesetzt werden soll: Bewusste Planung scheint umso klarer an Grenzen zu sto?en, je weiter sich die gesellschaftliche Komplexit?t steigert. Komplexit?t wirft Probleme der Steuerung auf (Beniger 1986) und droht Individuen wie Institutionen, Gesellschaft, Psyche, Technik, Codes und Medien strukturell zu überfordern. Exakt an dieser Stelle, dies ist eines der Ergebnisse des Kollegs, scheinen Automatismen einzutreten. 360直播吧 sind Ausdruck und Manifestation komplexer Situationen und zugleich Formen ihres Managements, mit dem sie ? dies w?re eine erste Hypothese ? Formen bereitstellen, die Komplexit?t reduzieren, und zwar gerade dort, wo eine bewusste Reduktion von Komplexit?t scheitern würde. Auf der Ebene des Vollzugs k?nnen Automatismen selbst durchaus komplexe/komplizierte Handlungssequenzen bilden.
Automatismen hat man h?ufig vorgeworfen, dass sie entdifferenzieren; Schemata, Gewohnheiten, Typisierungen und Stereotypisierung erscheinen als mehr oder minder gewaltf?rmige Vereinfachung (Ewen/Ewen 2006). Das Kolleg will hier Neuland betreten und eine drastische Umwertung versuchen, die Komplexit?tsreduktion nicht mehr negativ konnotiert, sondern als ein notwendiges Komplement und eine Erm?glichungsbedingung von Differenzierung und damit von gesellschaftlichen Austauschbeziehungen beschreibt.
Strukturentstehung
"Strukturentstehung jenseits geplanter Prozesse in Informationstechnik, Medien und Kultur" war der Untertitel des Projekts in der ersten Phase, und auch die Hypothese der Strukturentstehung soll in der Verl?ngerung weiterverfolgt werden. Dass Automatismen Strukturen generieren, ist die vielleicht ambitionierteste These des Kollegs; wird doch h?ufig angenommen, Automatismen rotierten auf der Stelle, stünden also eher für ein ?konservatives‘ Moment der Beharrung als ausgerechnet für die Entstehung eines Neuen.
Gerade diese These aber hat der Forschung des Kollegs neue Wege er?ffnet. Wiederholung wird nicht mehr als mechanische Repetition gefasst und ebenfalls nicht allein als Verschiebung, sondern darüber hinaus als eine generative Kraft, die hervorbringt, was sie gleichzeitig immer schon ist; Infrastruktur etwa wird nicht mehr als Voraussetzung, sondern als im Prozess der Nutzung hergestellt modelliert. Ein im Kolleg viel diskutiertes Beispiel ist der Trampelpfad; Bahn und Bahnung, Nutzung und Hervorbringung, Wiederholung und zwanglose Bündelung der Nutzungsprozesse fallen hier zusammen.
Die Frage nach den Automatismen wird auf diese Weise zu einem Entwicklungsmodell, das mit anderen Entwicklungsmodellen konkurriert. Dass es gerade Entwicklungen, Ver?nderungen sind, die sich ?automatisch‘ vollziehen, ?blind‘ oder blind gegen die Intention der Beteiligten, würde niemand bestreiten. Zu zeigen, dass dies in bestimmten F?llen auf Automatismen zurückgeht, ist die Perspektive, die das Projekt vorschl?gt.
Zum Zweiten erlaubt die These der Strukturentstehung einen Anschluss an Theorien zur Emergenz. ?Emergenz‘ meint die Entstehung einer Struktur, die aus den Eigenschaften ihrer Elemente nicht erkl?rt werden kann (Stephan 2007, Greve/Schnabel 2011). Emergenztheorien sind insofern immer mit einem R?tsel befasst: l?gen die Ursachen klar zu Tage, würde man nicht von Emergenz sprechen. Automatismen teilen diese Eigenschaft der Opazit?t. Und die Grundintuition w?re, dass das Automatismenkonzept m?glicherweise zug?nglicher als die relativ abstrakten Emergenzvorstellungen ist. Zumindest einige Typen von Emergenz w?ren konkret zu beschreiben, wenn es gel?nge zu zeigen, dass die Strukturentstehung auf Automatismen zurückgeht. Das Kolleg hat sich im Sommersemester 2009 mit Emergenzmodellen befasst (EB, S. 18, 20.), gleichzeitig hat sich erwiesen, dass hier weiterer Forschungsbedarf besteht.
Komplexit?t
Wer Komplexit?t und die Reduzierung von Komplexit?t in den Mittelpunkt stellt, um die Automatismen auf neue Weise zu fassen, betritt ein Terrain, in dem sich heterogene Theoriestr?nge schneiden. Geht die erste Assoziation m?glicherweise zur Systemtheorie, ist die tats?chliche Palette wesentlich breiter: ?bersichtsb?nde wie Mitchell (2009) oder Mainzer (2008) setzen nicht nur wesentlich früher an, etwa mit der Philosophie und einer Problematisierung des Descartes‘schen Reduktionismus (Mitchell, ixff., 16ff.), sondern versuchen gleichzeitig, eine Brücke von den Geistes-und Kulturwissenschaften hin zu den Naturwissenschaften zu schlagen.
Die erste wichtige Eingrenzung ist, dass das Kolleg seine Frage auf kulturelle und gesellschaftliche Komplexit?t einschr?nken wird. Auch diese allerdings erscheint mehr als komplex, gerade wenn die Technik als ein Mischph?nomen, das immer Natur und Kultur/Gesellschaft betrifft, prominent einbezogen werden soll.
Ausgangspunkt w?re die in Sozial-und Kulturwissenschaften weitgehend unbestrittene These, dass die Moderne durch eine rapide Zunahme von Komplexit?t gekennzeichnet ist. Innerhalb der Soziologie ? auch au?erhalb systemtheoretischer Ans?tze ? werden die Steigerung und Begrenzung von Komplexit?t und die Formen gesellschaftlicher Differenzierung in enger Verbindung zueinander gesehen.
Dies gilt für das historische Konzept der Teilung der Arbeit (Marx 1867/1972, Durkheim 1893/ 1988) und für Theorien, die Gesellschaft als Ganzes im Verh?ltnis zu seinen Teilen betrachten, als Einheit, deren Teile durch Sozialintegration zusammengehalten werden (vgl. Durkheim 1988, 118ff.). Vor allem aber für die Ans?tze, die im ?bergang zu einer funktionalen Differenzierung das Kennzeichen spezifisch moderner Gesellschaften sehen. So hat Talcott Parsons (1951/1972) Differenzierung als einen Prozess der Dekomposition konzipiert, der ein Ganzes in funktional spezifizierte Teilbereiche zerlegt, wobei er an der Vorstellung einer gesamtgesellschaftlichen Integration durch einen übergreifenden Wertekonsens festh?lt. Integration ist einer der Zentralbegriffe der strukturfunktionalistischen Theorie von Parsons, die hier, wie bei Durkheim, normativ bewertet wird. Weniger normative Ans?tze gehen davon aus, dass System- und Sozialintegration nicht per se positiv zu bewerten sind (vgl. Lockwood 1979; Habermas 1981).
Theorien der Moderne und der Modernisierung heben explizit auf Prozesse der Differenzierung ab (Lockwood 1979, Habermas 1981, Münch 1988, Degele/Dries 2005). Differenzierung ist in all diesen F?llen mit einer Zunahme von Komplexit?t und spezifischen Steuerungsleistungen zur Reduktion von Komplexit?t assoziiert. Ebenso w?re auf Elias zu verweisen, der beschreibt, dass mit der zunehmenden Komplexit?t der modernen Gesellschaft die L?nge der Interdependenzketten zunimmt; worauf die Individuen mit eigenen Mechanismen der Komplexit?tsreduktion, einer quasi automatisierten Affekt-/Distanzregulierung und der Ausbildung von Selbstzw?ngen, reagieren (Elias 1976). Und letztlich gehen auch Horkheimer/Adorno, wenn auch mit ganz anderer Konnotation, vom Komplexit?tsproblem moderner Gesellschaften aus, nicht zuletzt wenn sie die Kulturindustrie über eine ?Reproduktion des Immergleichen‘ fassen. Hier ist es die Kulturindustrie, die die Funktion der Komplexit?tsreduzierung übernimmt und die Individuen auf diese Weise entlastet.
Die Systemtheorie hat diese Frage generalisiert und gezeigt, dass sie in enger Wechselbeziehung zum Systembegriff und zur Frage steht, wie Gesellschaften insgesamt sich konstituieren. Dies gilt zun?chst historisch: Die jeweils gegebene Form der gesellschaftlichen Differenzierung bildet die Struktur und die Ordnung der Gesellschaft, die steigende Komplexit?t nur bis zu einem bestimmten Grad zul?sst. Ger?t die Gesellschaft durch weitere Komplexit?t unter Druck, ?ndert sich die Form ihrer Differenzierung. Auf diese Weise haben sich Formen der segment?ren, der stratifikatorischen und der funktionalen Differenzierung ausgebildet: Segment?r werden gleiche Einheiten differenziert, stratifikatorische Differenzierungsformen sind hierarchisch oder nach Zentrum und Peripherie geordnet, die funktionale Differenzierung bezieht gleichrangige Teilsysteme aufeinander (vgl. Luhmann 1997, S. 609ff.).
Funktionale Differenzierung bedeutet, dass sich gesellschaftliche Teilsysteme herausbilden, die eine bestimmte Funktion erfüllen und sich mit teilsystemspezifisch codierten Kommunikationen abschlie?en; als Beispiele hat Luhmann Recht, Politik, Wirtschaft, Wissenschaft usf. untersucht. "Durch Systemdifferenzierung multipliziert sich gewisserma?en das System in sich selbst durch immer neue Unterscheidungen von Systemen und Umwelten im System." (Luhmann 1997, S. 598.) Die funktional differenzierte Gesellschaft vervielf?ltigt sich intern, indem innerhalb der Gesellschaft teilsystemspezifische Beschreibungen der Gesellschaft angefertigt werden: eine Gesellschaft des Rechts, eine Gesellschaft der Politik, eine Gesellschaft der Wissenschaft usw. Die moderne Gesellschaft ist in diesem Sinne eine polykontexturale Gesellschaft. Gerade in der systemtheoretischen Gesellschaftsanalyse stellt die Zunahme und Verarbeitung von Komplexit?t deshalb eines der zentralen Bezugsprobleme dar.
Unter Bedingungen funktionaler Ausdifferenzierung ist die (prinzipiell unfassbare) Komplexit?t der gesellschaftsinternen Umwelt nur durch die Funktionssysteme selbst zu bew?ltigen. Es geht darum, welche Beobachtungs-, Resonanz- und Verarbeitungsm?glichkeiten den Funktionssystemen (etwa in ?kologischen Fragen) zur Verfügung stehen (vgl. Luhmann 1986). Diese Konstellation wird zus?tzlich dadurch komplex, dass es keine dominanten Funktionssysteme (Wirtschaft, Politik oder Massenmedien) gibt, die gewisserma?en in Führung gehen und für eine überschaubare Ordnung sorgen k?nnten.
(Funktionale) Differenzierung ist auf Komplexit?tssteigerung abgestellt – und zugleich auf Komplexit?tsreduktion (vgl. Luhmann 1984, S. 261f.). Die Systemtheorie hat ihre Theorie gesellschaftlicher Differenzierung im Rahmen einer allgemeinen Theorie der Bildung von System-Umwelt-Differenzen formuliert. Man kann den Prozess der Systembildung auf das Problem der Komplexit?t beziehen (vgl. ebd., S. 45ff.). Systeme übernehmen die Funktion, Komplexit?t zu erfassen und zu reduzieren; dies gilt systemtheoretisch (im Anschluss an Parsons) als allgemeines Funktionsprinzip sozialer Systeme. 360直播吧 bilden sich durch Abgrenzung von einer komplexen Umwelt. Die Komplexit?t der Umwelt ist für das System prinzipiell unfassbar, so dass mit der Systembildung ein Prozess der Reduktion von Komplexit?t einhergeht. Es wird ein Komplexit?tsgef?lle zwischen System und Umwelt aufgebaut und erhalten. Dabei werden systemintern Elemente auf einem Komplexit?tsnivau gebildet, das deshalb notwendig hergestellt werden muss, weil nicht alle Elemente zugleich miteinander verknüpft werden k?nnen. Komplexit?t bestimmt die systeminterne "Verknüpfungskapazit?t der Elemente" (ebd., S. 46.; vgl. auch Kneer/Nassehi 1994).
Im Kollegzusammenhang ist nun interessant, dass gesellschaftliche Differenzierung hiermit als eine Art Automatismus gefasst wird; da Luhmann das Handlungskonzept als eine Grundlage der Soziologie verwirft, kann der Prozess gesellschaftlicher Differenzierung auf Subjekte und deren Intentionen nicht zugerechnet werden; in der Folge sind es die gesellschaftlichen Vollzüge selbst, konkret die Zyklen der Kommunikation und der Anschlusskommunikation, die die Systembildung vorantreiben; funktionale Differenzierung erscheint als ein weitgehend selbstt?tiger, von einer Eigenlogik bestimmter Prozess; Differenzierung scheint einsinnig, unumkehrbar, auch wenn konkrete Systeme sich im Verlauf der gesellschaftlichen Entwicklung ? selbstverst?ndlich ? aufl?sen und restrukturieren k?nnen.
Soziologen au?erhalb der Systemtheorie argumentieren zumindest in diesem Punkt ?hnlich, wenn sie das traditionelle Handlungskonzept modifizieren und neben intentionalen Handlungen auch die spezifische Blindheit des Handelns hervorheben (Giddens 1984/1995, 57ff.; Esser 1996, 19ff.; vgl. Bublitz et. al. 2010, 110-113.).
Wenn gesellschaftliche Differenzierung Komplexit?t produziert und in der Bildung von Systemen gleichzeitig ein Mittel zu ihrer Bew?ltigung findet, wird interessant, welchen Status Entdifferenzierungsprozesse haben. Der Aussage Links "entdifferenzierende Tatsachen liebt die Systemtheorie nicht" (Link 1997, 180f.) w?re zu widersprechen, wenn die Systembildung selbst, zumindest nach einer ihrer Seiten hin, eine Entdifferenzierung bedeutet. Dies allerdings w?re zu kl?ren und k?nnte Gegenstand einer eigenen ?berlegung im Kolleg sein.
Ein v?llig anderer Ansatz ergibt sich, wenn man die Akteur-Netzwerk-Ans?tze hinzuzieht, die derzeit in der Techniksoziologie wie in der Medienwissenschaft viel diskutiert werden. Auch die ANT hat Theorien entwickelt, wie Gesellschaft mit Komplexit?t umgeht, und sie erscheint insbesondere deshalb interessant, weil sie speziell auf die Technik abhebt, und die Technik insgesamt als eine M?glichkeit des Komplexit?tsmanagements fasst. Zentral ist hier vor allem der Begriff des Blackboxing; dieser Zusammenhang wird insbesondere im Teilbereich 2: ?Automatismen der Technik‘ reflektiert werden (s.u.).
Theorien zur mathematischen Komplexit?t k?nnen allenfalls Grenzfl?che der ?berlegung sein. Einer der beteiligten Informatiker (Meyer auf der Heide) arbeitet in diesem Feld; und in der Literatur wird verschiedentlich auf mathematische Vorstellungen verwiesen; im Fokus des Projekts steht dieser Bezug nicht.
Kulturtechniken
Und schlie?lich greift der neue Untertitel den Begriff der Kulturtechniken auf. Die Forschung zur Kulturtechnik, wie sie von Kr?mer/Bredekamp (2003), Macho (2003), 360直播吧gert (o.J., 2006, 2011), Nanz/360直播吧gert (2006), Engell/360直播吧gert (2010) und Maye (2010) entwickelt und ausgearbeitet wurde, stellt innerhalb der deutschen Medien- und Kulturwissenschaft einen Durchbruch dar. Zum einen, insofern sie den Technikbegriff, der auf Ger?te und Hardware zentriert schien, von diesen l?st und den Blick auf die technischen Praktiken lenkt. Hier sieht Schüttpelz (2006, 87) eine praxeologische Wende, eine Tendenz, der man sicherlich auch die Forschung zu den Automatismen zurechnen kann. Zum Zweiten, insofern das Konzept der Kulturtechniken an den antiken Begriff der Techne anschlie?t, was vielf?ltige neue Konnotationen liefert und erlaubt, eine Brücke hin zu künstlerischen Praxen zu schlagen; etwa zum Begriff einer künstlerischen Technik, wie ihn Adorno in seiner ?sthetischen Theorie formuliert (1970, 92, 316). Und schlie?lich, insofern die Kulturtechnikforschung an die Tradition ethnologischer und anthropologischer Forschung zu Kulturpraktiken anschlie?t (Schüttpelz 2006), was für die Frage nach den Automatismen ebenfalls neue Referenzen bereith?lt.
Gleichzeitig k?nnte auch der Begriff der Kulturtechniken von der Frage des Kollegs profitieren; dann n?mlich, wenn es gel?nge zu zeigen, dass Kulturtechniken sich nicht grunds?tzlich im Hellen, unter aller Augen, vollziehen. Die These des Kollegs w?re, dass zumindest bestimmte Kulturtechniken in ihrer Funktionsweise auf das Halbdunkel einer reduzierten Bewusstheit angewiesen sind; dass es sich bei Prozessen der ?Automatisierung‘ um einen ?bergang, um ein Absinken in diesen Raum handelt. In bestimmten F?llen scheint eine reduzierte Bewusstheit gesellschaftlich produktiv zu sein, z. B. indem sie Ressourcen erspart. Wissenschaftsgeschichtlich sind die Relationen zwischen Ethnologie und Psychoanalyse ohnehin eng. Dem Begriff der Kulturtechniken würde der Aufweis solch halb-bewusster Prozesse bis dahin wenig beachtete Perspektiven hinzufügen.
Forschungsschwerpunkte und Teilbereiche
Aus der Neuakzentuierung des Themas ergeben sich vier neue Teilbereiche, die das Thema gliedern und den Rahmen für die Promotionsprojekte der Kollegiat/innen bilden:
1. Automatismen und Komplexit?tsreduktion in den Medien
2. Automatismen der Technik, Technik und Formalisierung als Komplexit?tsmanagement
3. Selbstorganisation als gesellschaftliches Ordnungsprinzip
4. Automatismen und Komplexit?t in den Künsten
Mediale Prozesse haben für die Arbeit des Kollegs eine gro?e Rolle gespielt, als Beispielsph?re, als Denkanreiz für die Begriffsbildung und als Forschungsgegenstand. Die überwiegende Anzahl der Promotionsprojekte behandelte medienwissenschaftliche Themen und auch der Dialog mit der Informatik war h?ufig über Medienfragen vermittelt.
Die Medien sind diejenige Sph?re, wo Automatismen besonders ins Auge fallen. Eine unübersehbare Neigung zur Wiederholung, rigide Konventionen und Schemata treten in den Produkten hervor; und Typisierung/Stereotypien würde zumindest der Alltagsverstand mit dem Popul?ren fast gleichsetzen. Dies aber hei?t nicht, dass die Medienwissenschaft ein klares Bild davon h?tte, worum es sich bei Prozessen der Konventionalisierung eigentlich handelt, dass diese in ihrem Vollzug, als Mechanismen und als Gesetzm??igkeiten aufgearbeitet und ausreichend untersucht w?ren. Dies gezielt anzugehen war ein Fokus in der ersten Bewilligungsphase. Und der methodische Vorschlag war, dies über den Begriff der Automatismen zu tun. Die Herausbildung von Konventionen erscheint als ein automatisch ablaufender Prozess, der nicht intendiert ist und als ein Summenph?nomen über einer unübersehbar gro?en Zahl medialer ?u?erungsakte sich vollzieht. Schemata, Konventionen erscheinen als ?Parasiten‘, die sich an den Diskursen n?hren und jenseits von ihnen ? als System ? eine Eigenlogik entfalten; etablierte Schemata wiederum wirken automatisiert/performativ auf die Folgediskurse zurück. In der Vorstellung eines quasi technischen Funktionierens, das zu einer mechanistischen Determination gleichzeitig Abstand h?lt, als ein offenes Konzept, das kulturelle Praxen ernst nimmt, ohne diese auf ?den Menschen‘ zurückrechnen zu müssen, und Technik als Korrelat, Produkt und Gegenüber, in Wechselbeziehung zu diesen Praxen neu beschreibt, erweist sich der Begriff der Automatismen als produktiv.
?Praktiken‘ waren Thema des Kollegs im Sommersemester 2010; ?Schemabildung: Konvention, Stereotypie, Normalit?t‘ im Wintersemester davor; zwei Sammelb?nde fassen die Ergebnisse zusammen (Bublitz et al. 2010, Conradi et al. 2012).
Und gleichzeitig tritt in Medienprozessen auch die produktive Seite der Automatismen hervor. Konventionen erleichtern das Verstehen medialer Produkte, Medienverstehen scheint an Konventionen gebunden, Medienkompetenz als eine F?higkeit, die sich im Umgang mit Medienprodukten langsam und akkumulativ erst herausbildet; die souver?ne Beherrschung der Mediencodes ? paradox ? als das Resultat automatisierter Habitualisierungsprozesse (Bublitz et al. 2010, 23ff.). Und dies verl?ngert sich in die Sph?re der Produktion: Wer in den Medien arbeiten und Medienprodukte selbst hervorbringen will, muss mit den g?ngigen Stereotypens?tzen vertraut sein; und dies umso mehr wenn es darum geht, diese neu zu fassen, zu reinterpretieren oder zu überschreiten; und auch in den Medien ist Automatisierung Voraussetzung für Ver?nderung und neuerliche Differenzierung.
Die Neuausrichtung des Kollegs soll an das Erreichte anschlie?en und die Automatismen der Medien nun systematisch unter dem Aspekt einer Reduzierung von Komplexit?t fassen. Die Neuausrichtung erlaubt es, das Problem zu benennen, das hinter Automatisierungs- und Habitualisierungsprozessen steht: Ungeregelte Komplexit?t würde unmittelbar in Strukturkrisen münden; ihr einsinniger Anstieg w?re angesichts begrenzter Ressourcen nicht denkbar.
Komplexit?t also bedarf, gerade wenn sie die Tendenz hat, ?naturwüchsig‘ zu wachsen, eines Komplements, das sie konterkariert, ausbalanciert und dadurch erm?glicht. Reduktion von Komplexit?t und Anstieg von Komplexit?t erscheinen verschr?nkt; Diskurse erscheinen als Austragungsort dieser Spannung; Medien, Codes und Konventionen als eine Maschinerie, die beide Momente relationiert.
Auch diese Vorstellung knüpft an Luhmann an, der sie für den Begriff des Codes, am Beispiel der Sprache, entwickelt (1984, 143ff, 208ff.), in sein Medienverst?ndnis überraschender Weise aber kaum integriert (1995). Zudem muss die Medienwissenschaft anders fragen: 360直播吧 steht vor der Aufgabe, die Ebene des einzelnen Medienprodukts (des Contents) mit der der Codes, der des Technischen, der des Sozialen usf. zu verbinden. Hierfür sind Begriffe n?tig, die eine mittlere Abstraktionsh?he haben; der Begriff der ?Automatismen‘ k?nnte ein solcher Begriff sein.
Ziel des Teilbereiches ist es, die Rolle von Automatismen innerhalb von Medien und Medienpraxen zu untersuchen. Besonderes Augenmerk gilt den Mechanismen, mit denen Medien zum Management von Komplexit?t beitragen. Modelle der Stereotypentheorie und der Konventionalisierung sollen in den Rahmen dieser Fragestellung eingebracht und mit semiotischen und techniktheoretischen Modellen verbunden werden, um auf dieser Basis ein neues Verst?ndnis medialer Entwicklungsprozesse zu finden. Konkrete medienhistorische F?lle werden auf eine neue Weise theoretisch gefasst.
Methode: Theoriearbeit, historische Untersuchungen und Fallstudien.
Stand der Forschung: Ausgehend von den klassischen Texten Lippmanns (1922) und Meads (1934/1968) hat sich die Stereotypenforschung stark ausdifferenziert: Untersuchungen zu National-, Race-? oder Geschlechterstereotypen beschreiben, ausgehend meist von empirischem Material, Mechanismen, die Stereotypen hervorbringen, stabilisieren oder auch abtragen k?nnen (u.v.a. Gilman 1985). Jüngere, st?rker theoretisch ausgerichtete Ans?tze sind bemüht, den Stereotypenbegriff von seinen pejorativen Konnotationen zu l?sen; dies beginnt bereits bei Manz (1968) und Stephan (1989) und wird bei Hinton (2000), McGarty/Yzerbyt/Spears (2002) und Ewen/Ewen (2006) zentral.
Modelle der Konventionalisierung finden sich in den unterschiedlichsten Feldern: Innerhalb der Sozialwissenschaften w?ren Bourdieu (1979/1984) oder Stemmer (2008, 199ff., 202ff.) zu nennen, im Feld der Semiotik geht man von Fragen des Codes zu einer prozessualen Sicht, zur Semiosis, über (Marell 1996, Bains 2006). Wichtige Ans?tze zu Medien und Komplexit?t finden sich bei Luhmann (1984, 46ff.) und bei Thiedecke (1997). Methodenprobleme der Mediengeschichtsschreibung werden in den Ver?ffentlichungen des Graduiertenkollegs ?Mediale Historiographien‘ (Weimar/Erfurt/Jena) und des Forschungskollegs ?Medienumbrüche‘ (360直播吧gen) verst?rkt reflektiert.
Betreuung: Adelmann, Bartz, Brauerhoch, Bublitz, Keil, Lemke, Ribbat, Weber, Winkler
Querbezüge: Ein enger Konnex besteht zu den Teilbereichen 2, ?Technik‘ und 4, ?Kunst‘; sowie zum Teilbereich 3, ?Selbstorganisation‘, wo dieser Wechselverh?ltnisse zwischen Subjektkonstitution und Kulturtechniken/Medien thematisiert.
Technology Studies und Techniksoziologie untersuchen die Entwicklung neuer Technologien ? wenn man grob unterteilt ? auf zwei Ebenen: Auf einer Makroebene geht es um Technologie insgesamt, um ihre gesellschaftliche Funktion, ihre Entwicklungstendenzen und die Frage, was Prozesse der Technologisierung vorantreibt. Eine zweite, Mikro-Ebene würde nach den Besonderheiten einzelner Techniken fragen. Auf beiden Ebenen spielen sowohl Automatismen als auch die Reduktion von Komplexit?t eine wichtige Rolle.
Das Kolleg hat vorgeschlagen, Automatismen selbst als eine ?Technologie‘ zu begreifen (Bublitz 2010: 9ff., 113ff.). Dass es sich um Praktiken handelt, die spezifische Funktion übernehmen, dürfte unstrittig sein; dies bedeutet, dass ihnen, auch wenn keine Intention zugrunde liegt, eine gewisse Finalit?t eingeschrieben ist, die ? z. B. in der Annahme von Zweck-Mittel-Relationen ? ein zentrales Kennzeichen des ?Werkzeugs‘ und des Technischen ist.
Doch die These des Technischen geht wesentlich weiter: So sind Automatismen an Wiederholung gebunden (Dolar 2010) und sie haben quasi-institutionellen Charakter (Winkler 2010: 113). Innerhalb des Felds fluider Praktiken stellen sie damit Verh?rtungen dar (ebd.: 116). Dies führt auf die These, dass Automatismen eine mittlere, vermittelnde Ebene einnehmen; zwischen der Ebene fluider, spontan ?nderbarer Praktiken einerseits, und der ganz anders gearteten, auf der Technik Hardware ist, also eine dauerhaft materielle Form findet.
Ein komplexer Technologiebegriff, der beide Ebenen ? Praktiken und Reifizierung/Hardware ? umfasst, steht immer vor der Frage, wie beide verschr?nkt sind, an welchen Punkten sie ineinander übergehen und welche Typen von Kausalit?t sie verbinden. Diese Frage hat historisch in die Konfrontation technologisch deterministischer und sozialkonstruktivistischer Techniktheorien geführt (Degele 2002; Williams 1974/1990); wenn Automatismen ihren Ort tats?chlich zwischen Praktiken und Hardware haben, k?nnte dieser Gegensatz m?glicherweise zu verflüssigen sein.
Technologie wird in unterschiedlichen Techniktheorien mit der Frage der Komplexit?t und der Komplexit?tsreduktion verbunden. Augenf?llig ist zun?chst, dass die Technologieentwicklung selbst einer Logik der Steigerung und der Differenzierung folgt, was zun?chst eine einsinnige Zunahme von Komplexit?t suggeriert (Degele 202: 13ff. 57ff.). Gleichzeitig geht Technisierung h?ufig mit drastischen Vereinfachungen ? insbesondere auf der Seite der Nutzung ? einher. Ein Beispiel ist die Fotografie, die als ein aufw?ndiges chemisch-mechanisches Verfahren, gebunden an Spezialisten, beginnt und dann schrittweise vereinfacht wird, bis sie ? one click only ? nahezu jeden in die Rolle eines aktiven Bildproduzenten bringt. Technologie also stellt drastische Mittel auch für die Reduzierung von Komplexit?t bereit; diese Seite wurde früh gesehen (Benjamin 1936/1980) und hat kürzlich unter dem Stichwort der ?Trivialisierung‘ Medien- und Kulturwissenschaftler, Künstler und Informatiker zu einer interdisziplin?ren Tagung zusammengeführt (Lüneburg 2011).
Das Kolleg will diese Frage aufnehmen und gestützt auf etablierte Ans?tze der Technikforschung als einen neuen Rahmen für die Frage nach den Automatismen nutzen. Hier sind zumindest drei Ans?tze relevant: die eher ?klassischen‘ Ans?tze Rammerts, Ropohls und Joerges'; die Akteur-Netzwerk-Theorie und die techniktheoretischen Modelle innerhalb der Systemtheorie.
Beispielhaft sei hier zun?chst nur der Ansatz der ANT kurz umrissen, und innerhalb der ANT der Begriff des Blackboxing, wie Latour und andere ihn konzipiert haben (Couldry 2006). Akteursnetzwerke werden, der praxeologischen Grundlegung der Theorie entsprechend, als zun?chst in actu, als fluide betrachtet. Gleichzeitig aber streben Akteure eine Stabilisierung ihrer Netzwerke an. Wenn dies gelingt, gewinnt das Netzwerk den Charakter einer stabilen Entit?t, mit der Folge, dass das Netzwerk in einer Art Blackbox verschwindet und sein Charakter als Netzwerk damit unkenntlich wird.
Blackboxing also impliziert eine drastische Reduzierung von Komplexit?t: Sobald es gelingt, ein Netzwerk in eine Blackbox zu bannen, kann von seiner inneren Komplexit?t abstrahiert werden. Und mehr noch: Blackboxing steht für exakt denjenigen Unterschied, der für Technik so typisch ist, und der die Perspektive eines Nutzers von der des Technikers trennt. Die Einschreibung in Technik erscheint als eine M?glichkeit, den Nutzer zu entlasten (Degele 2002); allerdings um den Preis, dass das innere Funktionieren der Technik für den Nutzer unkenntlich wird.
Interessanter noch ist die Tatsache, dass die ANT diese Perspektive umkehrt und radikalisiert, indem sie alle stabilisierten Entit?ten auf diese neue Weise betrachtet. Was ? Beispiel ist wieder die Technik, die Hardware ? als dinghaft, stabil reifiziert erscheint, ist tats?chlich eine Blackbox, in der sich jeweils ein Netzwerk verbirgt (Couldry 2006). Erst wenn eine St?rung oder andere destabilisierende Faktoren auftreten, wird das Netzwerk als Netzwerk wieder sichtbar, wieder verflüssigt oder bildet sich in andere Netzwerke um. Dies er?ffnet Perspektiven für eine allgemeinere Techniksoziologie (Degele 2002); wirft aber, wie das Problem der vielfach ineinander geschachtelten Puppen, gleichzeitig auch spezifische Probleme der Beobachtung auf.
Die skizzierte Vorstellung ist für das Kolleg in besonderer Weise brauchbar; dies hat u. a. ein 360直播吧 gezeigt, den die Kollegiat/innen im Sommersemester 2010 zu diesem Thema veranstaltet und in einem Sammelband dokumentiert haben (Conradi et al. 2011). Die Tatsache, dass die Blackbox Praktiken fixiert und das zugrundeliegende Akteursnetzwerk gleichzeitig verbirgt, hat seine Entsprechung in der spezifischen Opazit?t der Automatismen. Prozesse der Verkapselung, Verdichtung und Speicherung komplizierter Handlungssequenzen in schnell abrufbare Module lassen sich als Automatismen begreifen. Diese Prozesse bleiben weitgehend unsichtbar; die Beobachtung des Outputs – der Performanz von Automatismen ? erm?glicht keine Rückschlüsse auf deren Entstehung; ihre Genese bleibt vielmehr verborgen (black box), was sie zus?tzlich stabilisiert. Training, Schemabildung und die Ausbildung des K?rperged?chtnisses w?ren als Sonderf?lle des Blackboxing zu analysieren. Dass es Praktiken sind, auf die die ANT abhebt, und dass es um Prozesse der Verfestigung geht, w?ren weitere parallele Motive.
Das Modell erweist sich als anschlussf?hig an jene Theorien der Normalisierung (Link 1997) und der Naturalisierung, wie sie im Umfeld der Cultural Studies vertreten wurden. Normalisierung und Naturalisierung waren in der ersten Phase des Kollegs Gegenstand des achten Teilbereichs; die neue Ausrichtung auf die Reduzierung von Komplexit?t verspricht auch hier viel; Technologie und soziale Prozesse, Blackboxing, Normalisierung und Naturalisierung k?nnten in einem neuen Rahmen für die Beschreibung von Automatismen zusammengeführt werden.
Sobald man die Makro-Ebene generellerer Techniktheorien verl?sst, werden Fragen im Feld einzelner Techniken m?glich, und damit jene Konkretisierung, die den Anschluss an konkrete Promotionsprojekte erlaubt.
These der ersten Bewilligungsphase war, dass Automatismen vor allem im Fall verteilter Systeme wirksam sind; Verteilte Systeme waren Semesterthema im Sommersemester 2011, und mehrere Dissertationsprojekte sind diesem Thema gewidmet (EB). Im Mai 2011 hat das Kolleg das Verh?ltnis verteilter Systeme und sozialer Netze zum Thema eines kleineren 360直播吧s gemacht (EB, S. 10).
Verteilte Systeme stellen auch in der Fortsetzungsphase einen Schwerpunkt dar. Auch hier würde man denken, dass sich in verteilten Systemen Komplexit?t naturwüchsig steigert; gleichzeitig aber ist auff?llig, dass sie historisch bereits eine Antwort auf Probleme der Komplexit?t sind. So entstehen Netzwerke h?ufig dort, wo traditionelle Organisationsmittel – Planung, Ordnung und Hierarchie – an ihre Grenze sto?en. Und gleichzeitig bringen Netzwerke neue Komplexit?ten hervor. Wer mit Netzwerken arbeitet, hat es h?ufig mit Komplexit?tsproblemen zu tun.
Die zweite Einzeltechnologie, die mit Blick auf Automatismen und Komplexit?t untersucht werden soll, ist die Formalisierung. Wenn es dem Kolleg ? auf der Schnittstelle zwischen Medien- und Kulturwissenschaften und Informatik ? vor allem um die Informationstechnik geht, ist eine der entscheidenden Fragen, welchen Stellenwert und welche Position die Informationstechnik relativ zu anderen Medien- und Kulturtechniken hat.
Formalisierung stellt ? so komplex sie in sich ist ? sicherlich eine drastische Reduzierung von Komplexit?t dar. ?berall dort, wo es gelingt, realweltliche Vorg?nge in Modelle zu fassen, diese in einer Formalsprache zu reformulieren und an Maschinen zu übergeben, erscheint die Komplexit?t als bew?ltigt oder beherrschbar (Kleine Büning/Kastens 2005, B?hme 1998). Und mehr noch: Modell, Modellierung und Modellierbarkeit stehen für diese Reduzierung, für eine ?Skelettierung‘ des Problems (Winkler 1999); eine Beschr?nkung aufs Wesentliche, die zwischen Wesentlich und Unwesentlich trennt. Preis ist, dass das als unwesentlich Eingestufte damit notwendig ausgeschlossen wird; dies wirft weitreichende kulturwissenschaftliche Fragen auf (Adorno 1966/1982).
Das Projekt w?re, die Formalisierung mit anderen Kulturtechniken, wie der Schema- und Stereotypenbildung innerhalb der Bildmedien, ins Verh?ltnis zu setzen. Wenn all diese Kulturtechniken eine Reduzierung von Komplexit?t leisten, w?re wichtig herauszuarbeiten, was die Rolle der unterschiedlichen Medien ist und was mediale Spezifika ? bezogen auf die Reduzierung von Komplexit?t ? leisten.
Auch diese Frage bleibt eingebettet in die gr??ere nach den Automatismen. Dass Formalisierung ein luzides Universum grunds?tzlich nachvollziehbarer Strukturen behauptet, steht in Spannung zum Begriff des Automaten, der im Wortstamm Auto- immer ein Moment von Eigenlogik, Selbstregulierung oder Unabsehbarkeit mitführt. Im Kolleg wurde diese Spannung andiskutiert, als ? wieder auf der Schnittstelle zwischen Technik und Sozialem ? ?Selbsttechnologien‘ zum Thema einer Tagung gemacht wurden (EB 3, S. 12). In ihrem inneren Funktionieren sind technische Automaten deterministisch; dieser Determinismus aber endet, sobald es um Nutzungsprozesse geht; gerade Verteilte Systeme sind von ihren Machern nicht v?llig zu kontrollieren; was in der Nutzung entsteht, ist für nahezu alle Beteiligten opak.
Ziel des Teilbereiches ist es, Erkenntnisse der allgemeinen Techniktheorie, der Techniksoziologie und der Science-studies für die Automatismenforschung fruchtbar zu machen und den Begriff der Automatismen als eine Kulturtechnik neu zu fassen.
Methode: Theoriearbeit; technik- und wissenschaftshistorische Studien; System-/Softwaredesign; begleitende Beobachtung.
Stand der Forschung: Die Theoriebildung hat von traditionellen, handlungstheoretischen und teleologischen Deutungen der Technik Abstand genommen, da sich angesichts der Komplexit?t und Opakheit heutiger Technik diese kaum noch als System rational organisierter Handlungsmittel interpretieren l?sst (vgl. Gamm/ Hetzel 2005; Hubig 2006; Kogge 2008). Nun wird nicht der prim?r instrumentelle Charakter der Technik betont, sondern ihre Bestimmtheit durch eine Vielzahl programmierter Aktanten, deren Verhalten nicht unmittelbar zug?ngig ist und deren Zusammenspiel zu unvorhersehbarem Verhalten und emergenten Effekten führe – ein Verhaltem welches schwer wahrnehmbar und nur im Post-Processing rekonstruierbar ist (Hubig 2006, Carrier/Nordmann 2011, Weber 2011). Hier konfiguriert sich ein Verst?ndnis von Technik, welches sich hinter dem Rücken der Menschen ausbildet und Automatismen ausbildet, an das sich im Rahmen des Graduiertenkollegs sehr gut anschlie?en l?sst.
Aktuell lassen sich drei verschiedene Neuinterpretationen von Technik grob unterscheiden: 1.) Das ?Medienparadigma‘ deutscher Techniktheorie (Hubig, Gamm, Kr?mer) geht davon aus, dass Technik als Medium zu denken sei, dass neue Handlungs- und Erfahrungsspielr?ume konstituiert, strukturiert und transformiert. 2.) Der Diskurs der ph?nomenologisch-hermeneutischen Techniktheorie (Ihde, Gehring, Lindemann) aber auch der Techniktheorie der Cultural Studies (Hayles, Haraway, Hepp, Star) zentriert sich um ein Mediationsparadigma. W?hrend erstere auf die Beziehung zwischen Mensch und Welt fokussiert im Sinne des menschlichen Weltverh?ltnisses und mit der Idee der Lebenswelt, versteht zweitere Technik als wesentlich für die Auspr?gung eines bestimmten kulturellen Paradigmas. In dieser Logik schlie?t Technik dem Menschen Welt in einer spezifischen Weise auf. 3.) Die eher sozialwissenschaftlich orientierten Techniktheorie der Systemtheorie (Luhmann, Esposito, Halfmann) geht zwar partiell von der ?Ausl?sekausalit?t‘ und ?Durchgriffskausalit?t‘ (Luhmann) der Technik aus, spricht aber zugleich davon, dass soziale Systeme nicht nur "Technik als Medium der Simplifikation von Kommunikation" (Degele 2002, 149) nutzen, sondern zugleich mediale Entwicklungs- und Nutzungsoptionen er?ffnet. W?hrend der systemtheoretische Ansatz die Materialit?t von Technik eher vernachl?ssigt, fragt die realistisch orientierte Akteur-Netzwerk-Theorie (Akrich, Callon, Latour, Law) eher nach der Handlungsf?higkeit nicht nur von menschlichen sondern auch nicht-menschlichen Akteuren bzw. von Aktanten-Netzwerken und versucht die enge Verwobenheit von Technik und menschlichen Kollektiven zu beschreiben, wie Handlungen auf Dauer gestellt und damit das soziale Miteinander geregelt wird. Der Begriff der ?H?rtung‘ wie der ??bersetzung‘ bietet fruchtbare Anschlussm?glichkeiten für eine Theorie der Automatismen.
In allen drei Diskursen wird Technik nicht antagonistisch sondern als konstitutiv für die menschliche Kultur verstanden; den Artefakten und Objekten wird – au?er in der Systemtheorie – nicht nur Eigensinnigkeit und Materialit?t zugesprochen, sondern auch Bedeutung für die Ver?nderung der Alltagskultur (Kogge 2008).
Betreuung: Keil, Meyer auf der Heide, Sorge, Weber, Winkler
Querbezüge: über die technische Seite der Medien und die Auffassung der Medien als Kulturtechniken besteht ein enger Bezug zu Teilbereich 1; TB 3 spricht von ?Technologien des Selbst‘ und thematisiert die Wechselbeziehung zwischen Kulturtechniken und Subjektkonstitution; über den Begriff der künstlerischen Technik besteht ein Bezug zu TB 4.
Selbstorganisation ist ein Schlüsselbegriff der Steuerung komplexer Prozesse oder Systeme, gerade wo es schwer ist, diese vollst?ndig zu planen oder vorherzusehen. Kybernetische Denkmodelle stellen komplexit?tsreduzierende Steuerungspotentiale bereit (Pias 2004). Im sozial- und kulturwissenschaftlichen Diskurs spielen die Stichworte des Selbstmanagements und der Selbstregulierung eine zunehmende Rolle; kybernetische Steuerungsmodelle werden mit der Frage der Subjektkonstitution verknüpft und Subjektbildung wird als eine Art Rückkopplung zwischen Subjekt und Kulturtechniken beschrieben. Die feedbackgesteuerte Optimierung von Abl?ufen, Praktiken des Selbstmanagements, selbstreferentielle Praktiken der Selbstführung und der Selbstreflexion bilden bedeutsame Ressourcen, die es erm?glichen, mit Komplexit?t umzugehen.
Neuere Kulturen der Arbeit, die sich am unternehmerischen Selbst und am Ideal der Kreativit?t orientieren, lassen sich abgrenzen vom soziotechnischen Management, das sich u.a. in der technisch reibungslos koordinierten Maschine verk?rpert. Das Subjekt, schreibt Reckwitz, strebt "nicht nach der Sicherheit der Routine, sondern nach der motivierenden Kraft individueller Herausforderung, nach innerer Selbstverwirklichung (…). Unter dem Einfluss von Theorien systemischer Selbstorganisation, welche die Nicht-Linearit?t und Nicht-Planbarkeit sozialer und natürlicher Systeme voraussetzen, und in denen das Leitmodell der Berechenbarkeit der Mechanik durch das der Unberechenbarkeit des Quasi-Organischen, Autopoetischen abgel?st wird, pr?sentiert der Managementdiskurs den ?Markt‘, sein Subjekt und seine Organisationsformen (ganz im Gegensatz zur liberalen Ordnungsvorstellung der ?invisible hand‘) zudem als die anarchischlebendige Normalit?t eines ?Thriving on Chaos‘ (T. Peters), welches sich natürlicherweise der rationalen Steuerung entzieht" (Reckwitz 2006: 506f.). Hier geht es um ?personal growth‘, um Selbstoptimierung durch symbolische Kreation.
Auf der Ebene selbstorganisierter Subjekte werden Selbststeuerungspotenziale aktiviert, die subjektive Kompetenzen geradezu künstlich ausdifferenzieren und auf diese Weise Komplexit?tsmanagement durch Differenzierung betreiben. So wird etwa die Komplexit?t von Arbeitsm?rkten ?gemanagt‘, indem das Individuum sich selbst zum Bezugspunkt macht und deren undurchschaubaren Automatismen durch neue Kulturtechniken der Profilierung des Selbst und der kreativen Entwicklung von Subjektqualit?ten zu begegnen versucht. Es wird ein Bereich ausdifferenziert, der zur Markierung der subjektiven Differenz, der Abgrenzung und Besonderung gegenüber anderen dient; auch dies ist eine Technik der Komplexit?tsreduktion. Komplexit?t und Kulturtechniken der Entdifferenzierung greifen komplement?r ineinander. Wichtig hierbei ist, dass selbstorganisierte Praktiken keineswegs strukturell determiniert sind, sondern explorative Kreativit?t und Handlungsspielr?ume erm?glichen und unter Umst?nden imstande sind, sich dem institutionellen Zugriff zu entziehen (vgl. u.a. Br?ckling 2007, bes. S. 54ff.).
Auf der Ebene des Medialen schl?gt sich dies in neuartigen Implementierungen nieder: Ein Beispiel w?re das Profil, das Kompetenzen und Alleinstellungs-Merkmale des Subjekts sichtbar macht und einen Datenraum konfiguriert, "der die unterschiedlichen Subjektpositionen permanent in konkurrierende (…) Relationen hochrechnet" (Reichert 2008: 74). Rückmeldungen werden als Subjektivierungsanforderungen in ein motiviertes Subjekt, das immer schon an der Selbststeigerung und -optimierung interessiert sein muss, eingespeist.
Davon abzugrenzen w?ren jene Formen der Muster- und Profilbildung, die sich auf Seiten der Anbieter sozialer Netzwerke vollziehen. Hier ist die mediale Selbstdarstellung der Nutzer nur Basis; über Praktiken der Muster- und Profilbildung werden Datenstr?me und Informationsfluten gefiltert und kanalisiert; Komplexit?t wird reduziert, indem die Nutzeraktivit?ten in Algorithmen eingehen, von denen die Nutzer nichts wissen. Es stellt sich die Frage, wie sich ein selbstgesteuertes, selbstkontrolliertes Subjekt konstituiert, das sich der Wechselbeziehung zwischen geplanten und ungeplanten/ungewollten Rückkopplungsprozessen, steuerndem Eingriff und Automatismen, verdankt.
Ziel dieses Teilbereichs ist es, im kritischen Anschluss an das informationstheoretische Vokabular und an kybernetische Denkmodelle zu zeigen, welche Bedeutung ?Automatismen‘ für das Komplexit?tsmanagement in (post)modernen Gesellschaften haben.
Methode: Sozialwissenschaftliche Theoriearbeit; Fallstudien zwischen Medien- und Sozialwissenschaften.
Stand der Forschung: Untersuchungen der Gouvernemental Studies haben deutlich gemacht, dass sich Unternehmens- und Managementdiskurse auch im Alltag immer st?rker verankern. Die Individuen sehen sich aufgefordert, sich selbst zu führen und Praktiken des Selbstmanagements zu entwickeln; gesellschaftlich bilden sich die entsprechenden Psychotechniken und Technologien heraus. Auch hier werden Automatismen wirksam, mit denen sich die Individuen über feedbackgesteuerte Prozesse mit der Dynamik struktureller, gesellschaftlicher Erfordernisse – z. B. der wirtschaftlichen M?rkte – zusammenschlie?en (vgl. Br?ckling/Krasmann/ Lemke 2000; Br?ckling 2007; Reckwitz 2006). ?ber Risiko- und Sicherheitskalküle und flexible ?Subjekt-Taktiken‘ wie Selbstadjustierung und Selbstnormalisierung (Link 1997: 80) verortet sich das Subjekt feedbackgesteuert in komplexen sozialen Dynamiken, in Normalit?tszonen oder marginalisierten Segmenten; zum anderen werden soziale Regulative und Akte institutionalisierter Kontrolle ins eigene Selbst integriert. All diese Prozesse vollziehen sich au?erhalb von Intention und unreflektiert, als Automatismen.
Betreuung: Bublitz, Sutter, Weber
Querbezüge: Enger Konnex zum TB 1: Medien.
In der Kunstentwicklung der Moderne gibt es immer wieder Phasen, Umbrüche und Krisen, in denen Künstler eine radikale Reduktion von Komplexit?t vorantreiben (z.B. Abstraktion, Minimalismus, Fluxus); diese gehen h?ufig mit einer extremen Reduktion der Mittel und der Formensprache einher, und gleichzeitig sind sie mit einer ?ffnung für hoch komplexe und emergente Ph?nomene der Erfahrungswelt und/oder der Wahrnehmung verbunden. Künstlerische Produktionen k?nnen so zu Projektionsfl?chen und zum Ort der Performanz komplexer Vorstellungen und Erfahrungen werden; sie k?nnen das Unsichtbare sichtbar, aber auch die Bedingungen ihrer medialen Verfasstheit deutlich machen.
In einer auf Visualisierung ausgerichteten Kultur, die wesentlich Automatisierungs- und Schematisierungsprozessen medialer Oberfl?chen und aisthetischer Konstellationen unterworfen ist bzw. diese im Falle des (Unterhaltungs-)Kinos bewusst anstrebt, ist die Herstellung von Sichtbarkeit eine wesentliche Aufgabe und zugleich eine Problemkonstellation, der sich die Kunst stellt. Sichtbarkeit ist dabei keineswegs allein auf den Gesichtssinn bezogen, sie kann vielmehr multisensorisch wie sprachlich-intellektuell vermittelt sein; Ziel ist die Erm?glichung und Herausbildung anderer Formen der Wahrnehmung sowie der (Selbst)Reflexivit?t und Diskursivit?t.
In der neueren Kunstentwicklung ist die Steigerung von Komplexit?t verbunden mit Formen der Transgression, die auf der Ebene der Reflexivit?t in den Bereich des Diskursiven, auf der Ebene des Sensorischen in den Bereich des Atmosph?rischen tendieren. Hier stellt sich die Frage, ob diese selbst zum Komplex einer Reduktion von Komplexit?t auf einer ?h?heren’ gesellschaftlichen Ebene geh?ren.
Und auch auf dem Terrain der Kunst stellt sich die Frage der Technik. Kunst hat historisch zur Entwicklung von Kulturtechniken beigetragen, vor allem was die Entwicklung bildlicher Darstellung betrifft. Die Entwicklung und Etablierung von Darstellungsmustern korreliert dabei mit der Verwendung und Variation von Bildformeln und der individuellen künstlerischen ?inventio’. Im Bereich des Kinofilms – Vergleichbares gilt für das Theater und die Literatur – funktionieren etablierte Gattungen und Genres als produktions-wie rezeptions?sthetische Raster und Container für komplexit?tsreduzierende Gestaltungen, die im Gegenzug dazu tendieren mythische Konstruktionen zu erzeugen, die wiederum Abweichungen, Brüche und Modifikationen provozieren. In solchen "Krisen der Repr?sentation" spiegeln sich oft gesellschaftliche Umbruchsituationen (McGee, 2007, Wedel 2011).
Traditionell werden diese auf der Ebene der Ikonographie (Bildmotive und deren Variationen), der Rhetorik (Rezeptionsformeln und Leerstellen), der ?sthetischen Formensprache oder der Stilgeschichte (Stilbildung und Stilbruch) bis hin zur Moderne beschrieben und zum Teil in Ans?tzen der Semiotik und der Rezeptions?sthetik weitergeführt. Für die ?berlegungen des Kollegs fruchtbar k?nnten Ans?tze sein, die die kulturelle Einbindung und Anbindung künstlerischer Produktion in der Kunst-, Theater- und Literaturgeschichte thematisieren. So w?re es m?glich, im Licht der Automatismen und der Komplexit?tsreduktion, noch einmal auf Aby Warburg (Pathosformeln) und Erwin Panofsky (Symbolische Form) zurückzukommen, sowie daran anknüpfende Ans?tze der Kunstsoziologie und der neueren Bildwissenschaften (Bredekamp 1991 u. 2008, Belting 2001 u. 2007, Didi-Huberman 1999, Boehm, 2006, Boehme 1999) zu diskutieren. Auch Jacques Rancières Relationierung von künstlerischen und nicht-künstlerischen Darstellungs- und Handlungsformen innerhalb eines ??sthetischen Regimes’ w?re hier heranzuziehen (Rancière 2006). Gerade die Zusammensicht und Relationierung der Bildproduktion und -rezeption bezogen auf eine gemeinsame, sie verbindende ?sthetik erscheint mit Blick auf die Untersuchung von ?Automatismen’ vielversprechend.
Und schlie?lich w?re nach den Konsequenzen einer ?bernahme und Transformation etablierter Bildtechniken und Formate insbesondere in die Softwareerstellung zu fragen. Die Entwicklung der Zentralperspektive w?re hier genauso zu nennen wie die plastische Gestaltung durch Licht/ Schatten/Farbe, die auf lange Sicht als Kulturtechniken selbst in die Programme digitaler Bildgestaltung eingehen (z.B. Radiosity, Raytracing). ?hnliches k?nnte man für Aspekte der Kadrierung, Kamerafahrten etc. im Film beschreiben. Aber auch künstlerische Verfahren der Avantgarden werden zum Teil für die Anwenderebene ?automatisiert’; sehr berechtigt hat Manovich hier das Stichwort ?Avantgarde as Software’ gegeben (1999).
Für den Film ist mit Alexander Kluge darauf hinzuweisen, dass die stroboskopischen Effekte der Bildprojektion die Bildproduktion als ?Kino im Kopf“ auf Seiten des Zuschauers erzeugen. Darüber hinaus sprengt die K?rperlichkeit der Perzeption des Films in ihrer spezifischen Zeitlichkeit die Automatismen, die in der Narration angelegt sind. Wie sich dieses untrennbare Amalgam von Automatik und Traum, von stereotyper Narration und sinnlicher Wahrnehmung mit der Einführung digitaler Produktionsprozesse wie Projektionstechniken ver?ndert, bildet einen wichtigen zukünftigen Forschungsbereich (Cassetti 2008, Rodowick 2007).
Weiter w?re das Verh?ltnis von Automatismen und Komplexit?tserhaltung, bzw. -reduzierung auf dem Gebiet der Digitalisierung audiovisueller Medien zu untersuchen, und zwar einmal bezogen auf die "Automatismen" der Industrie (Komplexit?tsreduzierung der Filmgeschichte in ?konomisch und filmhistoriografisch determinierter Kanonisierung), und andererseits bezogen auf die Praxis von Archivierungs- und Restaurierungsprozessen, die sich zwischen (technisch induzierter) Reduzierung von Komplexit?t und dem Versuch der ?bersetzung von Komplexit?t des filmischen/auditiven Ausgangsmaterials bewegen. Hinsichtlich Wahrnehmung, Aufmerksamkeit und Erfahrung w?re nach ver?nderten Rezeptionsbedingungen durch Digitalisierung zu fragen.
Im Bereich der Literatur und des Theaters stellt sich das Problem von Komplexit?tssteigerung und Komplexit?tsreduzierung im Hinblick auf postmoderne Erz?hlverfahren und performancenahe Theaterformen, welche die Bühne in ein selbstreflexives Medium polyphoner Text-Bildlandschaften und asignifikanter Traumszenarien verwandeln. Solche dekonstruktivistischen Form- und Formungsverfahren bedeuten gleichzeitig Kommunikationsverdichtung und Kommunikations?ffnung. Literatur und Theater (Theatertexte, Inszenierungen, Theaterr?ume) reagieren auf sich wandelnde Bedingungen und Signifikationen (Technifizierung und physiologische Ausdifferenzierung) sinnlicher Wahrnehmung. Zu fragen ist auch hier nach der Bedeutung wertorientierter und wertsch?pfender Valorisierungs- und Kanonisierungspraxen als Modi der Komplexit?tsreduzierung. Ziel w?re, nicht nur die literarischen Texte selbst zu untersuchen, sondern auch die Prozesse ihrer Auswahl und Bewertung zu betrachten. Im kulturellen Ged?chtnis sind komplexit?tsreduzierende Automatismen zu beobachten, die spezifische Gattungen, Texte und Akteure als ?erinnerungswert‘ markieren und andere als ?vergessbar‘. Diese Automatismen wirken wiederum auf die literarische Produktion selbst ein und etablieren Stile, Gattungen, Erz?hlformen.
Ziel des Teilbereichs ist es, an Beispielen aus Kunst, Film, Theater und Literatur ?sthetische Strategien der Komplexit?tsreduktion, -erhaltung und -steigerung auszuloten.
Methode: Kunst-, literatur-, medien- oder filmwissenschaftliche Studien; theoretische und/oder historische Studien zu Kunst, Kulturwissenschaft und Popul?rkultur.
Stand der Forschung: Forschungen zur Geschichte und Ph?nomenologie der Aufmerksamkeit (Crary 2002, Waldenfels 2004) und zur ?sthetik der Atmosph?re (B?hme 1995) bieten wichtige Anschlüsse für die beschriebene Problemkonstellation von Reduktion und Steigerung von Komplexit?t im Spannungsfeld zwischen technologischer Entwicklung, Wahrnehmung und ?sthetik. Tendenzen der Steigerung von Komplexit?t konvergieren mit der Ver?nderung ?sthetischer Erfahrung im Kunstfeld,
die Martin Seel als eine "?sthetik des Erscheinens" beschrieben hat (Seel 2000). Die computergenerierte Kunst ist genuin mit dem Verh?ltnis von Programm, Information und ?sthetik vor dem Hintergrund einer gesteigerten bzw. reduzierten Komplexit?t besch?ftigt und das bezogen sowohl auf die Produktion als auch die Rezeption ihre Artefakte (Bense 1965, Nake 1974, Frank/Franke 1997, Büscher 2004, Nees 1969/2006). Ihre weiter zu verhandelnde Aktualit?t lassen die Ans?tze etwa im Bereich der digitalen Kunst vermuten, wo sich besonders vor dem Hintergrund der zunehmend komplexer werdenden technologischen M?glichkeiten Tendenzen zu einer über die Programmierung vermittelten Reduktivit?t beschreiben lassen (Nees 2010, Schmidhuber 1997).
Im Bereich des Films w?re anzusetzen bei Untersuchungen zur Digitalisierung. Im Entzug von K?rperlichkeit auf Seiten des Films wie der Zuschauer und im Verlust von Materialit?t l?sst sich eine Form von hochambivalenter Komplexit?tsreduzierung konstatieren. Die Forschung versucht gegenw?rtig eine Neueinsch?tzung von Materialit?t und Indexikalit?t im Film, mit Blick auf seine Historizit?t und Bedeutung für Geschichte und Geschichtswahrnehmung (Rosen 2001, Mulvey 2006, Bruno 2002, 2007), und lotet m?gliche Folgen für Produktion, Projektion, psychische und physische Prozesse der Wahrnehmung aus (Rosen, 2001, Cassetti 2008, Rodowick 2007).
Literatur und Theater zitieren die Dispositive der Narrativierung und des Spiels als Rahmen des Wahrnehmbaren, ordnen in diesem Rahmen aber die Wahrnehmungen neu. 360直播吧 brechen ?sthetische Begrenzungen auf, irritieren Sehgewohnheiten und institutionalisierte Codes. Innerhalb der Forschung wird dies als Komplexit?tssteigerung und Komplexit?tsreduktion (Freiheitsgewinn) gleicherma?en diskutiert (Lehmann, 1999, Fischer-Lichte u.a., 2001, Balme/Moninger 2004, Abel/Bl?dorn/Scheffel 2009). Die Untersuchung von Automatismen in Valorisierung und Kanonisierung kann an die Arbeiten des G?ttinger Forschungsschwerpunkts "Wertung und Kanon" anschlie?en und die dort erfolgte Analyse der die Literatur umgebenden kulturellen Prozesse (Stockinger/Freise, 2010). Auch in der komparatistischen Literaturwissenschaft sind durch das Konzept der "world literature" Abl?ufe in den Vordergrund gerückt, in denen literarische Texte und Ph?nomene globale Aufmerksamkeit erhalten (bzw. sie ihnen versagt wird) und die komplexe Unübersichtlichkeit international wirksamer Literaturen in nicht gesteuerten Mechanismen übersichtlich gemacht wird (Rosendahl Thomsen, 2008). In der amerikanischen Literaturwissenschaft wurde der Blick jüngst noch einmal von der Rezeption auf die Literaturproduktion selbst erweitert: auf die Funktion der "creative writing programs" in der Ausbildung von amerikanischer Literatur. In dieser "Program Era", die den Zusammenschluss von literarischen und universit?ren Praktiken bewirkt, entstehen Automatismen der erz?hlerischen Produktion, die die Komplexit?t der literarischen Welt reduzieren. Die Programme systematisieren Kreativit?t; die von ihnen ausgel?sten Prozesse allerdings sind wiederum nicht steuerbar (McGurl 2009).
Betreuung: Adelmann, Bartz, Brauerhoch, Eke, Lemke, Ribbat
Querbezüge: Schnittstelle zu TB 1: Medien, und über den Begriff der künstlerischen Technik zu TB 2.
Das im Erstantrag formulierte Erkenntnisinteresse bleibt bestehen und die dort skizzierten Fragestellungen und Teilbereiche werden ? neu akzentuiert ? weiter verfolgt. ?Verteilte Prozesse‘ (bisher Teilbereich 1) werden in den neuen Teilbereichen 1 und 2, ?Medien‘ und ?Technik‘ diskutiert; die Frage nach dem Selbst (bisher Teilbereich 2: ?Selbstkalibrierung, Selbstadjustierung, Selbstmanagement‘) geht in den neuen Teilbereich 3 ?Selbstorganisation‘ ein. Der bisherige Teilbereich 3 wird neu verteilt; 3.3: ?Automatisierung und Entautomatisierung in den Künsten‘ geht auf im Teilbereich 4; ?Normalisierung, Konvention‘ im Teilbereich 1 ?Medien‘.
Das Forschungskonzept nimmt das Erreichte auf und gibt der ?berlegung zu den Automatismen eine neue Richtung. Von dem neuen Ansatz verspricht sich das Kolleg viel. Die Frage nach der Komplexit?t schie?t an aktuelle Debatten an; die Probleme des ?information overload‘ und einer ?berforderung der Subjekte werden in der ?ffentlichkeit breit diskutiert; und begegnen ? fast unvermittelt ? Rhetoriken der ?Selbstverantwortung‘ und der ?Deregulierung‘. Technik wird gleichzeitig als komplex und als segensreiche Simplifizierung beschrieben, IT-Techniken reduzieren komplexe Interaktionen auf ?Apps‘, und gleichzeitig entwickeln sich unübersehbar vielf?ltige Arten der Nutzung. All diese Konzepte sind ambivalent; sie erscheinen mit unterschiedlichen Wertungen, Hoffnungen und ?ngsten verbunden. Dies l?sst es lohnend erscheinen, gezielter nach den Mechanismen des Umgangs mit Komplexit?t zu fragen. Automatismen haben hier einen systematischen Ort. Diesen Zusammenhang vor allem will das Kolleg zeigen.