Während der letzten 20 Jahre hat durch die Verbreitung von Computertechnologie eine extrem schnelle Veränderung der Produktion und Distribution von Schrift, Bild und Ton stattgefunden. In der künstlerischen Praxis werden Computer seit den 50er-Jahren des 20. Jahrhunderts eingesetzt – eine sehr kurze Zeitspanne, um das Potenzial eines neuen Instrumentariums auszuloten. Umfüllstationen von altem Wein in neue Schläuche werden überall eingerichtet: in der Kunst, in Produktion und Distribution, in der Pädagogik. Da die neuen Schläuche auch äußerst schnell altern, haben wir bald wieder alten Wein in alten Schläuchen und müssen immer schneller umfüllen. Im Mittelpunkt des Vortrags steht die Frage, wie wir eigentlich einordnen und auswählen können, wenn uns laufend neue technische Errungenschaften vor die Sinne gerückt werden. In keinem Fall erleichtert neue Technologie die Grundfähigkeit für Musik, das bewusste, hingewandte Zuhören. In manchem Fall aber kann mit neuer Technologie etwas Neues und Zuhörenswertes geschaffen werden. Damit verändert sich sowohl das Zuhören als auch die Technologie. Und es ist keine Frage des Alters und der Technologiebeflissenheit, ob man dem zuhören möchte. (Im Folgenden druckt die nmz Auszüge aus diesem Vortrag ab, den Johannes Goebel bei einem pädagogischen Kongress am 5. Oktober 2001 in Regensburg gehalten hat.)
Während der letzten 20 Jahre hat durch die Verbreitung von Computertechnologie eine extrem schnelle Veränderung der Produktion und Distribution von Schrift, Bild und Ton stattgefunden. In der künstlerischen Praxis werden Computer seit den 50er-Jahren des 20. Jahrhunderts eingesetzt – eine sehr kurze Zeitspanne, um das Potenzial eines neuen Instrumentariums auszuloten. Umfüllstationen von altem Wein in neue Schläuche werden überall eingerichtet: in der Kunst, in Produktion und Distribution, in der Pädagogik. Da die neuen Schläuche auch äußerst schnell altern, haben wir bald wieder alten Wein in alten Schläuchen und müssen immer schneller umfüllen. Im Mittelpunkt des Vortrags steht die Frage, wie wir eigentlich einordnen und auswählen können, wenn uns laufend neue technische Errungenschaften vor die Sinne gerückt werden. In keinem Fall erleichtert neue Technologie die Grundfähigkeit für Musik, das bewusste, hingewandte Zuhören. In manchem Fall aber kann mit neuer Technologie etwas Neues und Zuhörenswertes geschaffen werden. Damit verändert sich sowohl das Zuhören als auch die Technologie. Und es ist keine Frage des Alters und der Technologiebeflissenheit, ob man dem zuhören möchte. (Im Folgenden druckt die nmz Auszüge aus diesem Vortrag ab, den Johannes Goebel bei einem pädagogischen Kongress am 5. Oktober 2001 in Regensburg gehalten hat.)Alle Vorträge des heute beginnenden Kongresses wären ohne die ungeheure Geschwindigkeit in der Entwicklung der digitalen Technologie innerhalb der letzten 50 Jahre nicht denkbar. Keiner der Vorträge auf diesem Kongreß kommt ohne Wörter wie „Computer“, „Internet“, „WWW“ oder „Neue Medien“ aus. Es sollte auch keiner ohne diese Wörter auskommen, denn das ist gerade das Thema dieses Kongresses, eines „Medienkongresses“ unter dem Titel „Musik – Neue Medien – Bildung“.In den letzten zwei Jahrzehnten war die Geschwindigkeit der Verbreitung der digitalen Technologie in unserer ganzen Gesellschaft so schnell und übergreifend, dass kaum einer mitbekommen konnte oder wollte, was damit auf einer tiefer liegenden Ebene passierte. Plötzlich ist da die junge Generation der jetzigen bis 30-Jährigen, für die diese Technologie selbstverständlicher Bestandteil von Alltag und Sonntag ist, von Nichtmusik und Musik.
Diejenigen, die heute älter als 50 sind und zu denen ich auch gehöre, müssen sich bewusst der digitalen Technologie zugewandt haben, wenn sie heute etwas davon verstehen. Vor allem im kulturellen Bereich gab es in ihrer Jugend und ihrer Ausbildungszeit überhaupt nichts, bei dem sie zwangsläufig mit dieser Technologie konfrontiert worden wären.
Ich ernte bei Klavierprofessoren und Musikwissenschaftlern auch heute noch manchmal ungläubige Blicke, wenn wir auf das Wohltemperierte Klavier von Johann Sebastian Bach zu sprechen kommen und ich sage, dass es einen Unterschied zwischen „wohltemperiert“ und „gleichmäßig temperiert“ gäbe. Und dass Bach seine Stücke wohl kaum in unserer Stimmung gehört habe, in der sich ein Intervall von unterschiedlichen Tönen aus gespielt stets gleich groß anhören soll. Nein, bei ihm haben die großen Terzen veschieden groß und die kleinen Sekunden verschieden klein geklungen. Und heute haben wir nun jene digitalen Keyboards, die zum Teil auf Knopfdruck vorprogrammierte, andere Stimmungssysteme ermöglichen, die von dem Standard abweichen – wir könnten zum Beispiel einfach mal auf „Werckmeister“ umschalten, eine so genannte zirkulierenden Stimmung, in der man in allen zwölf Tonarten spielen kann, die aber alle unterschiedliche Qualitäten besitzen („wohltemperiert“ aber nicht „gleichmäßig temperiert“). Und wir könnten mit diesen „digitalen Keyboards“ alle möglichen Experimente mit dem Wohltemperierten Klavier unternehmen, ohne gleich das Klavier umstimmen zu müssen.
Können Sie sich vorstellen, der Deutsche Musikrat hätte 1962 einen Kongress zum Thema „Kreativität, Musik, Technologie“ abgehalten, zu jenem Thema dieses Kongresses? Dies Thema wäre damals in der Tat so aktuell gewesen wie heute: Künstlerische Tendenzen wurden in ihrer Bedeutung wissenschaftlich quantifiziert, die „Kreativitäts“diskussion begann die westliche Welt wie ein Sputnik zu beflügeln, Technologie ermöglichte unerhörte Töne, die „Avantgarde“ hatte sich in der Zeit seit dem Zweiten Weltkrieg wieder als „Vorhut“ etabliert.
Dieser Kongress findet statt, weil eine Technologie unter anderem Distributions- und Kommunikationsformen verändert hat und weil natürlich jede Pädagogik von einer Veränderung von Markt- und Kommunikationsformen extrem und unmittelbar betroffen ist. Leider verzögert sich aber die Reaktionszeit, bis die Pädagogen auch den „geführten Knaben“ entsprechend geschult gegenübertreten können. Denn die Geschwindigkeit der technologischen Veränderung und der durch sie verursachten politischen Veränderungen ist nun größer als eine Generation kurz ist.
Nun erhebt sich lediglich die Frage, ob denn tatsächlich eine radikale Veränderung stattgefunden habe. Oder präziser: wo Veränderungen stattgefunden haben, die „Musik“ betreffen.
Und ich antworte: Die Musik hat sich nicht radikal verändert. Die Technologie, die Gesellschaft und der Markt haben sich geändert. Merkwürdigerweise aber hat sich die Musik kaum geändert oder neue Perspektiven aufgewiesen. Die Arten der Musik, die sowohl ästhetisch als auch in ihrer gesellschaftlichen Funktion aufgrund der neuen Technologie neue musikalische Perspektiven anbieten, finden wir abseits jener breiten Wege, die uns als die eigentlichen gepriesen werden, auf denen die Technologie ihre größte Wirkung habe.
Verstehen Sie mich bitte nicht miss: Ich bin der festen Überzeugung, dass es von sehr großer Wichtigkeit ist, genau diese Arten von Musik und intermedialer Arbeit zu fördern und zu fordern, die die digitale Technologie als neue Instrumente der Musik und der Kunst begreift und ergreift – die nur jene Arten Kunst mit diesem Instrumentarium machen möchte, die eben nur aufgrund dieser neuen Möglichkeiten erschlossen werden können, die keine Imitation oder Simulation wollen. Imitation und Simulation als Produkt sind die Anzeichen von Versteinerung und Dogmatismus. Dieses Kriterium können Sie gerne auf alle Präsentationen und Vorstellungen dieses Kongresses beziehen. Wenn Ihnen etwas als „computergestützt“ angeboten wird, könnten Sie zum Beispiel die Frage danach stellen, ob hier auf die eine oder andere Art und Weise imitiert, simuliert oder ein Surrogat für etwas anderes angeboten wird.
Heute läuft alle und jede Musik, die wir nicht in einem Konzert mit akustischen Instrumenten mit unseren eigenen Ohren hören, in unserer Kultur irgendwann einmal durch einen Computer, wird digitalisiert, bearbeitet, optimiert und dann wieder hörbar gemacht. Daran ist nun im Zeitalter der technischen Produzierbarkeit und Reproduzierbarkeit überhaupt nichts zu rütteln. Im Gegenteil: Alle Musikbeflissenen sollten davon so viel wie möglich verstehen. Ebenso wie mir damals in meinem Musikstudium eigentlich der Schallplattenspieler und das Tonbandgerät hätten nahe gebracht werden sollen. Ich bin der Meinung, alle Musiklehrer heute müssten sofort den Unterschied zwischen digitaler und analoger Tonerzeugung konzeptionell darstellen können und ferner – ebenfalls nur konzeptionell – vermitteln können, wieso sich etwa der Fux’sche Kontrapunkt oder Mozarts Würfelmusik oder Talea und Color in der Ars Nova oder Band-in-a-Box hervorragend als Computerprogramm ausführen lassen. Das ist nicht schwer und überhaupt nichts im Vergleich zu all den anderen Dingen, die in einem Musikstudium verlangt werden. Natürlich ist das Motto „Hauptsache Musik“ äußerst schillernd. Im Zusammenhang mit Technologie könnte man es so interpretieren, dass alles schon okay sei, solange es doch noch um die Musik ginge. Doch: Können wir irgendetwas in der Medienwelt benennen, bei dem Musik nicht irgendeine Rolle spielt? Dann wäre ja alles in Ordnung.
In der Tat ist Musik die Hauptsache, wenn es um Musik geht. Und Musik setzt sich aus drei großen, sich gegenseitig überschneidenden Feldern zusammen: Machen, Hören, Beteiligen. Oder mit Fremdwörtern: Kreation und Produktion, Rezeption und Perzeption, Distribution und Partizipation. Da Musik keine Musik ist, wenn sie nicht erklingt und gehört wird, sollten wir ein für alle Mal festlegen, dass bei Musik das Hören im Mittelpunkt steht, in dem sich alle treffen sollten.
Musik ist die hervorragendste Möglichkeit, uns im Hören und Zuhören in der ständig sich verändernden, voranschreitenden Zeit zu erleben und darin einen Sinn jenseits von Sprache finden zu können. Je besser wir hören und zuhören können, ohne in die Spiralen des ständigen Wiederholen-Müssens zu fallen, desto mehr haben wir die Chance, uns selber und andere außerhalb von Rechtfertigungsstrategien zu erleben und wahrzunehmen. Hören und Zuhören, das zugewendete Hören sind Möglichkeiten, die allen Menschen vermittelbar sind. Es ist allerdings auch eine der am schwersten zu erlangenden Fähigkeiten.
Diese Art, Musik und Hören zu betrachten, gilt nur für eine Kultur, in der Musik eine wichtige Rolle – wenn nicht gar, die wichtigste Rolle – bei der säkularisierten Suche nach einer persönlichen Ankunft in der Gegenwart spielt. Aus diesem Blickwinkel ergeben sich vielfältige Möglichkeiten, um etwa Musikmachen, Musikspielen, Komponieren und Improvisieren zu betrachten. Und natürlich kann man von hier aus auch die ungeheure Macht analysieren, die Musik ausübt und die durch Musik ausgeübt wird. Und man kann etwa auch den Einsatz digitaler Medien in der Musik unter diesem Gesichtspunkt betrachten. Primäre Voraussetzung dafür ist nicht etwa, dass man alles verstünde, was die digitale Technologie ticken lässt. Voraussetzung sind meines Erachtens einige wenige Erkenntnisse, die für Musik in unserer Kutlur gelten:
Musik und Reden über Musik sind zwei unterschiedliche Dinge.Ohne Sprechen über Musik gibt es keine Reflexion von Musik und ohne Reflexion von Musik gibt es keine Möglichkeit, Hören und Zuhören zu entwickeln.
Lehrer, die über Musik sprechen, sollten sehr gut ihr Hören und möglichst auch ihr Zuhören auf ihnen unbekannte Musik richten können.
Musiker, die nur hören, aber nicht zuhören können, haben noch einen weiten Weg vor sich. Aber in jedem Fall sollten sie das Hören so weit wie möglich trainieren.
Hören und Musikmachen sind direkt miteinander verkoppelt.
Die Kreativität entscheidet sich am Hören und nicht am Werkzeug oder Instrument. Jedes Hören kann das ihm entsprechende Werzeug und Instrumentarium finden. Da nicht jeder zuhören kann, ist auch nicht jeder ein Künstler, der etwas für andere zum Zuhören schaffen möchte.
Hören wird am besten im Vergleich erlernt. Haben Sie zum Beispiel einmal unterschiedliche Synthesizerimitationen einer Klarinette mit der Klangproduktion eines Samplers, mit einer von CD über Lautsprecher abgespielten Klarinette und einer live gespielten Klarinette verglichen? (Der Klang der Klarinette ist einer der leichtesten, die naturidentisch synthetisiert werden können.) Oder haben Sie einmal unterschiedliche MP3-Datenreduktionsstärken miteinander verglichen? (Das kann Ihnen bestimmt einer Ihrer Schüler zaubern.) Ja, natürlich wird später einmal alles besser und schneller und damit wird eine geringere Datenreduktion notwendig. Aber das Hören wird jetzt geprägt – nicht später. Ich bin zu alt, um noch den Trägerton des Fernsehers zu hören – was bedeutet das für mich und was für jene, die ihn noch hören? Natürlich sind Flachbildschirme die Lösung – aber bis jetzt sind die Röhrenbildschirme immer noch am weitesten verbreitet. Haben Sie einmal die Schüler gefragt, wieviele diese Trägerfrequenzen im Computerraum der Schule hören, was für ein Lärm das ist, den die Lehrer meist nicht mehr hören? Und natürlich wissen wir alle, dass die kleinen PC-Lautsprecher nicht gut klingen.
Diese Fragen auf der rein klanglichen Ebene können sehr weit fortgeführt werden. Und am besten würden sie praktisch angegangen. Das ist nicht teuer und würde gleichzeitig zu einem großen Staunen darüber führen, was wir alles hören können, und was sich alles trainieren lässt. Nicht nur Quinte von Oktave unterscheiden zu können…
Johannes Goebel beendet im Sommer seine Arbeit als Leiter des Instituts für Musik und Akustik am Zentrum für Kunst und Medientechnologie (ZKM) Karlsruhe. Ab dem 1. Juli ist Goebel Direktor des neu einzurichtenden Experimental Media and Performing Arts Center (EMPAC) am Rensselaer Polytechnic Institute/Staat New York. Goebels Vortrag findet sich in voller Länge in der Dokumentation des Regensburger Medienkongresses „Musik – Neue Medien – Bildung“ vom Oktober 2001 (ConBrio Verlagsgesellschaft, Veröffentlichung Sommer 2002).