NACHRICHTEN PUBLIKATIONEN RESSOURCEN INSTITUTIONEN ETUM-EJOURNAL NEWSLETTER-ARCHIV

PUBLIKATIONEN
Rezensionen

Annotationen

Facebook
Find us on Facebook
Suche


Suche in:

Newsletter
Email-Adresse:


 
Linktipps
Wirtschaftspsychologie

Mitteilen / Ankündigen
Veröffentlichen Sie hier Ihre eigenen Mitteilungen und Termine.
Mitarbeiten
Sie möchten in der Redaktion von Theaterforschung mitarbeiten?
Die Internetpräsenz zu Premieren
Login
Username:

Passwort:


Rezensionen

HyperKult II: Zur Ortsbestimmung analoger und digitaler Medien


Ort: Bielefeld
Verlag:
Jahr: 2005
Autor(en): Martin Warnke (Hg)
Herausgeber: Martin Warnke, Wolfgang Coy, Georg Christoph Tholen
Autor der Rezension:
ISBN: 3-89942-274-0
Umfang / Preis: 387 Seiten / EUR 28.80




Hyperkult – die seit beeindruckenden 14 Jahren alljährlich an der Universität Lüneburg stattfindende Tagung hat sich als wegweisend für die Diskussionen um den kulturellen wie technologischen Einfluss des Computers, um die Begriffe Analog und Digital sowie um Fragen der Virtualisierung und des Cyberspace und damit um die Fragen nach den Wechselwirkungen von Kultur und Technik etabliert.[1] Dabei kommen so unterschiedliche Aspekte wie etwa Musik, Unschärfe und Spiele zum Tragen, denn „die Indifferenz des digitalen Mediums gegenüber Zeichen, Tönen, Bildern, Poetiken usw. verweist auf ein In-Differenz-Sein der Technik selbst, auf ihren un-eigentlichen Zwischenraum, den die Ästhetik stets neu konfiguriert.“ [2]

Hyperkult ist bereits 1997 mit einem Band ausgewählter Beiträge dokumentiert worden. Mit „Hyperkult II – Zur Ortsbestimmung analoger und digitaler Medien“ liegt nun ein zweiter, beim transcript-Verlag erschienener Band vor, der von Martin Warnke, Wolfgang Coy und Georg Christoph Tholen herausgegeben wurde. Dabei werden zwei Thematiken besonders fokussiert. Während der erste Teil des Bandes, ‚Analog und digital’, maßgebliche und gestaltende Orientierungen für die weitere Diskussion um diese Begriffe bietet, versammelt der zweite Teil, ‚Virtualität und Intermedialität’, heterogene Beiträge, die größtenteils den bisherigen Diskurs bereichern.

So versucht sich Wolfgang Coy einleitend an der Hinleitung der Geschichte von Schrift und Zahl zur digitalen Verarbeitung. Das Zusammenfließen von (Medien-)Techniken und Kodes resultiert in den Unterschieden zwischen analoger und digitaler Kodierung. Zwar könne, so Coy, die Speicherung von digitalen Daten die Dauerhaftigkeit, Stabilität und Kopierbarkeit verbessern, ein qualitativer Unterschied zum Analogen liege hierin jedoch noch nicht. Diesen vollziehe erst die maschinelle Verarbeitung und Zusammenführung der verschiedenen Programmmöglichkeiten: Von Hypertext bis Multimedia basiere letztlich alles auf 0/1.

Entsprechend einer nicht-essentialistischen Herangehensweise wirft Jörg Pflüger materialreiche Blicke auf die Entstehung der Unterscheidung in Digital und Analog. Diese sei letztlich das Ergebnis eines technisch bedingten Vorgangs der Diskretisierung. Auf diesem Weg gelingt es Pflüger, viele Ungenauigkeiten, Paradoxien und Schwierigkeiten mit den Begriffen zumindest zu benennen, wenn nicht gar aufzulösen. Diese würden nicht zuletzt dadurch hervorgerufen, dass Computer nicht nur digitale, sondern immer schon analoge Elemente integrieren. Der Unterschied zwischen Analog und Digital sei somit kein qualitativer, sondern eben ein quantitativer.

Der Beitrag von Annett Zinsmeister bestätigt die Annahme, dass analog und digital nicht nur Eigenschaften des Computers sind. Vielmehr lassen sie sich nach seiner Einführung als Analyseinstrument verwenden, in diesem Fall für Formen der Darstellung als Kommunikation. So arbeitet Zinsmeister anhand von Leon Battista Albertis Verfahren, mittels Koordinatensystemen Landkarten anzufertigen, Ernst Neuferts heute noch in der Architektur maßgeblichen Bauentwurfslehre sowie daraus abgeleiteten CAD-Programmen heraus, dass analoge und digitale Techniken erst als sich wechselseitig bedingende Darstellungsverfahren grundlegende Modalitäten der Architektur sind.

Thomas Hölschers Beitrag erweitert die Diskussion um die Symboltheorie Nelson Goodmans. Auch diese lässt die Unterscheidung digital/analog als beobachtergebunden erscheinen und bietet die Möglichkeit, nicht nur Maschinen entsprechend zu beschreiben, sondern auch Prozesse in der Kunst. So lässt sich der Bildgebrauch von Kunst wie von Wissenschaft als Symbolgebrauch verstehen, in dem sich digitale und analoge Symbolsysteme nicht ausschließen. Es ist zu hoffen, dass Goodmans Theorien zu weiteren, auch gegenstandsgebundenen Untersuchungen Anlass bieten.

Die Doppelstruktur von Software als einerseits Programmcode (digital) und andererseits Erscheinungsform im Interface (analog) wird von Frieder Nake und Susanne Grabowski mit der Zweifachheit des Bildes als einerseits stofflicher Präsenz und andererseits Interpretation kurzgeschlossen. Letztlich mündet die anhand von Nakes frühen Werken der Computerkunst durchgeführte Argumentation in einer Verschiebung des Beobachterstandpunkts: „Etwas ist nicht analog oder digital, vielmehr betrachten wir es als analog oder digital.“ (S. 123) In einem computererzeugten Bild ließen sich nämlich sowohl analoge wie digitale Sichtweisen vereinen – in einer etwas entstellt an Benjamin angelehnten Bezugnahme sprechen die Autoren von einem dialektischen Bild.

Eine Würdigung des amüsant zu lesenden Aufsatzes Martin Warnkes über Quantum Computing und die Folgen der zukünftigen Nano-Computer-Technik, die Bits als einzelne Atome repräsentierbar machen und damit die Probleme der Quantenphysik in die Computertechnik einführen wird, möchte sich der Rezensent mangels Verständnis und Qualifikation in Sachen Quanten- und Nanotheorie enthalten.

Der zweite Teil des Bandes – Virtualität und Intermedialität – wird eröffnet durch Jochen Koubeks Kulturgeschichte des Raumes. Formuliert in den Termini der Relativitätstheorie, wird hier die jeweilige Grundlage historischer Raumvorstellungen untersucht. Letztlich wird allerdings nicht klar, worin der Gewinn dieser Darstellung liegen soll. Ähnliches gilt für Uwe Pirr, der zwar die Auswirkung von Computern auf das Filmschaffen in den Bereichen Bild- und Tonbearbeitung sowie Filmgestaltung durch Computerprogramme darstellt, aber auch dabei bleibt.

Die Aufsätze von Rolf Großmann und Michael Harenberg thematisieren in beeindruckender Weise verschiedene Aspekte von Musik als exemplarisch für Strategien der Virtualität und der Intermedialität. Während für Großmann dabei der Monitor als Intermedium zwischen Ton, Text und Bild im Mittelpunkt steht, behandelt Harenberg den Raum als Ort von Musik, der sich in den Architekturraum der Aufführung, den Symbolraum der Partitur und letztlich den virtuellen, berechenbaren Raum differenzieren lässt. Beiden Texten gemeinsam ist eine (kultur-)historische Perspektive, die damit zugleich eine Geschichte ästhetischer Strategien angesichts wechselnder, sich differenzierender und sich verzweigender Medientechniken liefert, bei denen die Offenheit für kreative Nutzungen mit dem Computer einen Höhepunkt erreicht. Dieser spiegelt sich in den Möglichkeiten von Intermedialität.

Christoph Rodatz stellt zunächst ein von ihm erarbeitetes und zum Teil zur Aufführung gekommenes Konzept für eine Inszenierung des Parzifal dar und liefert daran anschließend eine Interpretation sowie eine Darstellung der intermedialen, mit dem Computer verbundenen Positionierungen dieses Konzeptes. Die unweigerlich aufsteigende Skepsis an diesem Verfahren verfliegt nie ganz. Der Text krankt zudem an einer ungenauen Darstellung des Dispositiv-Begriffs. Dieser bezieht sich eben nicht nur auf räumliche Anordnungen, sondern seine Stärke liegt in der Verschränkung von psychologischen, apparativen, technischen, wahrnehmungstheoretischen, politischen und anderen Aspekten des Erscheinens von unter anderem Medien.[3] Die dem Dispositiv-Begriff immanente Subjektkritik verträgt sich weiterhin nicht mit dem im Aufsatz unterlegten Konzept von atmosphärischer Erfahrung, könnte aber die angestrebte Analyse von intermedialen Praxen im Theater um neue Dimensionen erweitern.

Ute Holls ansprechender Beitrag thematisiert das, was im Rauschen, das durch den Transfer von photochemischen Bildern auf Magnetbandmaterial hervorgerufen wird, erscheint, und was in Lars von Triers Film „Breaking The Waves“ zum rahmengebenden Inhalt wird. Der unadressierbare Bereich zwischen den Bildmedien adressiert so in einem sendungsbewussten Zuschnitt den Zuschauer.

Die Collage wird, so Hans-Dieter Huber – nicht zuletzt durch die Möglichkeiten von Videotechnik und Soundsampling – zu einem Bestandteil der erfolgenden oder erfolgten Auflösung der Grenzen von Hoch- und Popkultur, die sich auch in der Auflösung der Grenzen zwischen Kunst- und Kultursystem widerspiegele. Es lässt sich dabei eine Verbindungslinie zwischen dem Cut-Up als literarischer Strategie, die die Montagetechnik des Films auf die Literatur überträgt, den Flickermaschinen der 60er Jahre und letztlich der Videokunst ziehen. Hierbei bezieht sich Huber auf eine gemeinsame Verabschiedung der Sprache als integrierende Kraft der Kultur. Vielleicht würde der Begriff der Kulturtechnik hier neue Möglichkeiten eröffnen.

Der vielschichtige Aufsatz von Claus Pias fokussiert die Implementierung des Menschen in das Computerspiel im Sinne eines policeylichen Regelungsmechanismus, um daran zugleich ein transversales Verständnis von Technik zu verdeutlichen. Diese ließe sich nicht in Einzelbereiche auffällen, was somit als Unruhe der Technik bezeichnet werden könne. Technik ließe sich so als „Kraft oder Figur begreifen, die Relationen organisiert und dadurch innerhalb eines strategischen Dispositivs Neues und Unerwartetes produziert.“ (S. 339) Dieses Verständnis wiederum wird durch das Computerspiel gegenwärtig, weil dessen Materialität den Spieler akkomodiert und so den bisherigen Spieltheorien und ihrer Fokussierung auf anthropologische Aspekte widerstrebt.

Britta Schinzels abschließende Studie wirft einen Blick auf die ‚Genderlast’ der Informatik. Diese zeige sich nicht nur in den Schwierigkeiten von Informatikstudentinnen, sondern finde über die Programmgestaltung auch Eingang in die Programmwelt des Computers: „Die Kategorienbildung zur Formalisierung basiert immer auf Generalisierungen, die meist Übergeneralisierungen oder Unterspezifizierungen sind.“ So wird letztlich die Verschiebung des Arguments von einer technischen auf eine rein inhaltliche Ebene vermieden. Die Klassifizierung von bestimmten Tätigkeiten als an soft skills gebunden führe zu einer Unsichtbarmachung von Aufgaben, die den Frauen übertragen würden, letztlich aber wichtig für den Erfolg des Produktes seien. Die daran anknüpfende Forderung ist die Sichtbarmachung solcher Strukturen.

Der Computer wird nicht zuletzt durch die Beiträge von Hyperkult II als diskursbegründend beschreibbar, und macht so die Unterscheidung in digital und analog sichtbar. Damit werden zugleich aber auch Aspekte anderer technischer Objekte relevant, die auf den ersten Blick nichts mit dem Computer zu tun haben. Den Aufsätzen des ersten Teils ist es zu verdanken, dass sich diese Perspektive verschiebt, und die Unterscheidung nun auch außerhalb von Halbleitern, Ipods und Lasereinheiten relevante Unterscheidungen ermöglicht, die einen Unterschied ausmachen. Die kulturellen Auswirkungen dieser Unterschiede werden dann wiederum von den Aufsätzen des zweiten Teils beschrieben, von denen ich vor allem diejenigen herausheben möchte, die zugleich Bestimmungen dessen möglich machen, was Technik ist: Die Aufsätze von Claus Pias und Ute Holl legen, wenn auch auf verschiedenen Wegen, Rückschlüsse auf das Technische nahe, und die Beiträge von Rolf Großmann und Michael Harenberg lassen gerade im Bereich der Musik die Auswirkungen solcher Begriffsverschiebungen spürbar werden. Alles in allem bietet Hyperkult II eine gelungene Dokumentation dessen, was hoffentlich auch weiterhin alljährlich in Lüneburg diskutiert, kultiviert und diskursiviert werden wird.


[1] http://www.uni-lueneburg.de/hyperkult

[2] THOLEN, Georg Christoph Tholen (2002): Die Zäsur der Medien. Kulturphilosophische Konturen. Suhrkamp, Frankfurt/Main.

[3] Vgl. DELEUZE, Gilles: Was ist ein Dispositiv? In: EWALD, Francois/WALDENFELS, Bernhard (1991): Spiele der Wahrheit. Michel Foucaults Denken. Suhrkamp, Frankfurt/Main. S. 153–162 sowie BAUDRY, Jean-Louis: Das Dispositiv: Metapsychologische Betrachtungen des Realitätseindrucks. In: PIAS, Claus et al. (Hrsg.) (2000): Kursbuch Medienkultur. Stuttgart, DVA, S. 381–404.





Spam melden

Typ:
Sprache:
Klassifikation:
Epochale Zuordnung:


Diese Nachricht wurde redaktionell betreut von .
URL zur Zitation: http://www.theaterforschung.de/rezension.php4?ID=86
Copyright by www.theaterforschung.de
Erstellt am: 30.10.2005