Perspektiven des Medienhandelns

Von Hermann Rotermund


Einleitung

Dieser Beitrag stellt sich die Aufgabe, die Möglichkeiten des Medienhandelns zu erkunden und dann auch konkret mit medienökonomischen und medienpolitischen Perspektiven zu verknüpfen. Trotz ihrer Beliebtheit in den öffentlichen Diskussionen herrscht tiefe Unklarheit und Unsicherheit über Begriffe wie zum Beispiel Kommunikation, Computer, Multimedia, Digitalisierung und das Internet. Die Berichte aus der schönen neuen Medienwelt oder Reportagen von Surftouren und Abstürzen im Internet, ohne die Zeitungen, Zeitschriften und das Fernsehen heute offenbar kaum einen Tag existieren können, variieren eigentlich nur das vorhandene Mischungsverhältnis an Aufklärung und Verwirrung.

Eeine ausführliche Begriffs- und Quellengeschichte soll hier unterbleiben. Ich möchte anhand historischer Beispiele in die Diskussion einiger wesentlicher aktueller Probleme einführen.

Das Medienhandeln in schriftlosen Kulturen

Stellen Sie sich vor, sie lebten in einer schriftlosen Kultur. Niemand besitzt Schriftkenntnis, es existieren keine schriftlichen Aufzeichnungen. Ohne Schrift haben die Wörter ihre visuelle Präsenz nicht mehr, die sie für viele von uns haben – sei es als ständiger „Lauftext“ vor dem sogenannten geistigen Auge, sei es als Wahrnehmung von Beschriftungen wie „Test the West!“, „Einbahnstraße“ oder „0,3 l“. Die Wörter einer schriftlosen Kultur sind ausschließlich Klänge. Sie haben eine Präsenz und verklingen. Man kann sie sich in Erinnerung „rufen“ – aber man kann sie nirgendwo „nachschlagen“.[1]

Ein Laut läßt sich nicht anhalten oder konservieren (außer mit technischen Hilfsmitteln). Ein Wort ist ein Ereignis. Wort und Ereignis haben im Hebräischen übrigens dieselbe Benennung.

Wie organisiert eine auf der Flüchtigkeit des Wortes basierende Kultur nun ihr Gedächtnis? Wie lassen sich komplexe Gedankengänge gegen die alles beherrschende Tendenz des Verklingens „über die Zeit retten“? Der erste und unabdingbare Faktor für die Aufbewahrung von Gedächtnisinhalten ist die Wiederholung im Gespräch, also die Kommunikation mit anderen. Damit man verlustfrei und ohne übermenschliche Mühe ins Gedächtnis zurückrufen kann, was man mit mühevoller Gedankenarbeit aneinandergereiht hat, müssen die Gedanken eine memorierbare Form haben.[2] Alle oralen Kulturen haben mnemonische Muster ausgebildet, die dazu dienen, Gedächtnisinhalte rhythmisch, in der Form von Satz und Gegensatz, in Formeln und Sprichwörtern, Aufzählungen, standardisierten Anordnungen (Versammlung, Festmahl, Zweikampf usw.) memorierbar zu machen und zu erhalten. Eine uns bekannte rhythmische Formel ist zum Beispiel: „Wer andern eine Grube gräbt, fällt selbst hinein.“

Der Zwang zum Memorieren legt in den oralen Gesellschaften die gesamte intellektuelle Organisation von Erfahrung fest und damit wesentliche Anteile des Mensch-Seins. Redundanz und die Bestätigung des Immergleichen ist gefragt, nicht Innovation, Originalität oder Vielfalt.

Die Organisation memorierbarer Gedanken wurde in der Antike in Form der ars memoria, der Gedächtniskunst, sehr weit ausgebildet. Die Gedächtniskunst ist eine Art inneres Schreiben und Bildererzeugen. Sie basiert auf Selbstdisziplin und unermüdlichem Training. Schon in der Antike gab es gegen diese Gedächtnisübungen Einwände, die uns durchaus vertraut vorkommen: All diese Orte und Bilder, die jemand zu memorieren sich bemüht, deckten das Wenige, was man auf spontan im Gedächtnis behält, unter einem Schutthaufen künstlicher Bilder zu, behaupten diese Einwände – die nie bewiesen werden konnten, ebenso wenig wie zum Beispiel die moderne Behauptung des verdummende Einflusses regelmäßigen ausgiebigen Fernsehens.

Die scriptographische Wende

Wahrte die Gedächtniskunst noch die Einheit von Übertragung und Speicherung an einem Ort, nämlich dem menschlichen Hirn, so begann mit der Schrift vor mehr als 5000 Jahren die Auslagerung des menschlichen Gedächtnisses in externe Speicher.

Der Übergang zu einer von Schriftlichkeit bestimmten Kultur fand nicht ohne Kämpfe statt. Plato beispielsweise wollte die schreibenden Poeten und Politiker aus seinem (von ihm ersonnenen, idealen) Staat weisen. Er argumentiert folgendermaßen:

(Die Schrift) wird Vergessenheit in den Seelen derer schaffen, die sie lernen, durch Vernachlässigung des Gedächtnisses, aus Vertrauen auf die Schrift werden sie von außen durch fremde Gebilde, nicht von innen aus Eigenem sich erinnern lassen. ... Von der Weisheit ... verabreichst du ... nur den Schein, nicht die Wahrheit ...[3]

Diese Klage Platos über den Einbruch der Schriftlichkeit in eine von mündlicher Kommunikation bestimmte Kultur wurde schriftlich verfaßt und verbreitet; so wie wir heute die Weizenbaums und Postmans mit ihren allfälligen Klagen über die Auslieferung der menschlichen Seele an den Moloch Technik als häufige Gäste in Fernsehtalkshows und mit Homepages im World Wide Web erleben können.

Das Schriftzeichen entlastet das kollektive Gedächtnis: Woran man sich nicht permanent erinnern will, das schreibt man auf, deponiert es auf Steinen, Tonscherben, Tierhäuten oder Papyri; etwas aufzuschreiben, ist eine schonende, weil nur als vorläufig empfundene und wiedergutzumachende Methode des Beiseitestellens, Abschiebens und Vergessens.

Die Schriftkultur ist gekennzeichnet durch einen Mobilitätsgewinn: sie kann auf den engen gesellschaftlichen Zusammenhang von Redenden und Zuhörenden verzichten. Die Schreibenden entwickeln sich zu willensmächtigen, allerdings streng disziplinierten und isolierten Subjekten. Die Produkte ihres Schreibens zeichnen sich aus durch Präzision, Anpassungsfähigkeit und Originalität. Erst das Schreiben kann komplizierte analytisch-planerische Prozesse adäquat wiedergeben. Es bewirkt daher einen Aufschwung der Ökonomie und des Wissenschaftsbetriebs. Die schriftliche Äußerung schließt die Anwesenheit des Lesers eher aus als ein, sie ist getrennt vom Gegenstand, von der Lebenswelt und vom Schreibenden selbst. Abstraktion und Objektivität werden gefördert.

Die typographische Wende

Der Buchdruck, die nächste medienhistorische Wende, war nicht nur eine medientechnische Umwälzung, er schuf die Voraussetzungen für die moderne Wissenschaft. Der Buchdruck war die erste vollständige Mechanisierung einer Handarbeit.

Die schnelle und billige Vervielfältigung von Büchern und die Standardisierung von Texten machten das auf der Welt vorhandene Wissen im 15. und 16. Jahrhundert überall verfügbar. Nicht nur Bibeln und religiöse und kanonische Texte wurden gedruckt, sondern alle erhaltenen Texte der philosophischen und naturwissenschaftlichen Tradition. Darüber hinaus entstanden praktische Anleitungen für gewerbliche Disziplinen, die auf diese Weise ihre Standards vor-geschrieben bekamen. Die Handelszentren zudem n einen hohen Bedarf an normgerechten schriftlichen Materialien – Rechnungen, Verträge, Ablaßzettel, täglich veränderte Verordnungen.

Die Gutenberg-Wende in der Schriftkultur war die Voraussetzung für die Wirksamkeit der kopernikanischen. Sie diente nicht nur den Wissenschaften mit der Zusammenfassung allen bekannten Wissens, sondern gab darüber hinaus den Anstoß für neue Wissenschaftszweige, z. B. die Botanik, deren Pflanzendarstellung der Buchdruck jetzt Eindeutigkeit und Genauigkeit abverlangte, während sie bislang durch die künstlerische Willkür und Beliebigkeit der Zeichner und Maler geprägt war.

Für manche war der Buchdruck ein göttliches Geschenk, mit Sicherheit jedoch war er die Voraussetzung für den Beginn der Aufklärung. Er war aber auch Anlaß zu Zensur, zur Menschenverbrennung (Giordano Bruno, 1600) oder zumindest zur Klage über die Unverdaulichkeit großer Lektüremengen. Viele Gelehrte waren zudem besorgt, weil nun jeder Tölpel aus den Wörterbüchern und Lexika sein Wissen sich zusammenklauben, kompilieren und für sein eigenes ausgeben könnte.

Diese Bedenken wurden selbstverständlich kurz nach der typographischen Wende in gedruckter Form verbreitet.

Das gedruckte Buch erst wurde zum universalen externen Gedächtnis der Menschheit. Nicht nur in dem Sinne, daß alles verfügbare Wissen gedruckt wurde, sondern auch in dem, daß jeder Wissensbestandteil nun mit Titel, Auflage, Band und Seitenzahl weltweit eindeutig referenzierbar wurde. Das Buch verweist auf die Bibliothek wie heute der einzelne Computer auf das Netz.

Dracula

Die Evolution der Medien in den letzten zweihundert Jahren ist von der Entwicklung der naturwissenschaftlichen Erkenntnisse und deren Diskussion nicht zu trennen. Mit dem Erkenntniszuwachs und den verbesserten Kommunikationsmöglichkeiten wuchs gleichzeitig die Skepsis über die seit der Aufklärung behauptete Autonomie des Subjekts. Es ist nicht nötig, zum Beleg hier philosophische Denker wie Nietzsche heranzuziehen, der – selbst schon 1882 im Besitz einer Schreibmaschine, den bemerkenswerten Satz prägte: „Das Schreibzeug arbeitet an unseren Gedanken mit.“ Wir wollen vielmehr einen Blick auf Bram Stokers Roman Dracula (1897) werfen.[4]

Eine starke Persönlichkeit, man könnte sage, ein heroisches Subjekt wie Graf Dracula, der infolge einer vor 400 Jahren geschehenen Kränkung schon eine endlose Reihe von Untoten erzeugt hat und nun London verseuchen will, kann unter den dort um 1890 herrschenden medialen Bedingungen sein Werk nicht fortsetzen. Seine Gegenspieler sind: Ein Psychiater, der durch die Hypnose des letzten von Dracula erkorenen Opfers entscheidende Aufschlüsse über dessen Aufenthaltsort erfährt (Stoker kannte unter anderem Freuds der Hypnosebehandlung gewidmeten Aufsatz Über den psychischen Mechanismus hysterischer Phänomene, 1893). Weiterhin ein Arzt, der sich dem Kokain und der Verzweiflung über den Verlust einer geliebten Person nicht so weit hingibt, daß er es versäumte, seinem Phonographen penible Protokolle über seine klinischen Beobachtungen anzuvertrauen. Schließlich eine angehende Journalistin, die diese Protokolle und anderes Material in einer Anzahl von Kopien auf der Schreibmaschine abtippt (Dracula vernichtet ein Exemplar und bemerkt dann, daß er gegen die Vervielfältigung machtlos ist). Eine Unzahl brieflicher, telephonischer und telegraphischer Verständigungen legt über die Existenz des transsilvanischen Grafen in London ein so dichtes Netz, daß ihm nur noch die Flucht zurück in die Heimat bleibt. Seine Verfolger holen ihn durch die Benutzung der Eisenbahn aber noch rechtzeitig zum Showdown in seinem Schloßhof ein. So schildert Bram Stoker in seinem Roman, der formal ein aus Medienprotokollen bestehendes Dossier bildet, die Medienlandschaft vor gut einhundert Jahren. Die technischen Speicher und die technischen Übertragungswege sind den übermenschlichen Kräften des ehemaligen Kreuzritters Dracula überlegen, er muß unter diesen Bedingungen zugrundegehen und mit ihm die Illusion der Besonderheit und der Überlegenheit einzelner Individuen.

Wenige Jahre nach der erfolgreichen Vertreibung Draculas aus der Medienmetropole London vollzog Sigmund Freud bei der Analyse des „psychischen Apparats“ die Atomspaltung des Subjekts und wies dem Ich eine nur noch bescheidene Rolle an der Oberfläche des psychischen Geschehens zu, das wesentliche Steuerungsvorgänge dem Unbewußten überlassen muß.

Auf dem Weg zum Computer als Medium

Freud fragte sich 1895 in seinem Entwurf einer Psychologie, in dem er – unmittelbar vor der Entdeckung des Unbewußten – die naturwissenschaftlichen Erkenntnisse über das Funktionieren unseres „psychischen Apparats“ zusammenfaßte, ob ein Apparat möglich sei, der gleichzeitig „Leitung“ und „Aufspeicherung“ erlaube und damit die Funktionen von „Wahrnehmung“ und „Gedächtnis“. „Einen Apparat, der diese komplizierte Leistung vermöchte, können wir vorderhand nicht ausdenken“.[5]

Der Computer in seiner heute erreichten entwickelten Form ist gleichzeitig Speicher- und Übertragungsmedium. Erste Konzepte einer programmgesteuerten und mit einem Speicher ausgerüsteten Rechenmaschine entwarf Charles Babbage Mitte des 19. Jahrhunderts.

Alan Turing ersann 1937 das Modell der Turing-Maschine, eines Universal-Rechners, der die in programmierbare Logik umsetzbaren Aufgaben aller anderen Maschinen übernehmen konnte. Er formulierte 1950 den berühmten Turing-Test: „Kann eine Maschine Äußerungen hervorbringen, die, stammten sie von einem Menschen, als Zeichen von Intelligenz angesehen werden?“ Diesen Test bestanden im Rahmen der maschinenverständlichen Formulierungsmöglichkeiten intelligenter Fragen seither die Maschinen problemlos. Turing stellte dadurch den Menschen als Symbolverarbeitungssystem auf die gleiche Stufe mit der Maschine und bringt damit diejenigen, die die Besonderheit des Menschseins behaupten, in Bedrängnis.

John von Neumann übersetzte das Modell der Turing-Maschine 1944 in die Architektur des Computers, der seine Programme und Daten in einen Arbeitsspeicher lädt und dessen Programmbefehle sequentiell abgearbeitet werden. Turing selbst war im Zweiten Weltkrieg am britischen Colossus-Computer mit der Entschlüsselung der mit dem Enigma-Apparat verschlüsselten deutschen Wehrmachts-Funksprüche beschäftigt. Die erste Colossus war 1943 betriebsbereit, ein gewaltiger Apparat mit 1500 Elektronenröhren. Die Entschlüsselungsarbeit war so erfolgreich, daß die britische Armee gelegentlich absichtlich die Bombardierung von Städten durch die deutsche Luftwaffe hinnahm, ohne das Feuer zu erwidern, um Überraschung vorzutäuschen. Von Neumann entwickelte während des Krieges mit John Eckart und John Mauchly das Konzept des ENIAC, mit dem Schockwellen-Berechnungen für die Zündung von Wasserstoffbomben ausgeführt wurden.

Colossus und ENIAC waren keineswegs als Universalmaschinen konzipiert, ganz im Gegenteil. Durch eine Reihe von Basteleien und Umwidmungen ergab sich aus ihnen aber schrittweise das Konzept des universell einsetzbaren Rechners, der heute z. B. als PC millionenfach auf der ganzen Welt verbreitet ist.

Das Internet

Das Internet ist ein Produkt des Kalten Krieges, also der atomaren Drohung und Gegendrohung. 1967 startete das ARPANET, eine zunächst experimentelle Zusammenschaltung von Computern mehrerer Universitätsinstitute.[6] Es sollten Lösungen gefunden werden, mit denen im Falle eines atomaren Schlages gegen die USA, bei dem eins oder mehrere Kontrollzentren durch direkte atomare Einwirkung oder durch den elektromagnetischen Puls (EMP) ausgeschaltet würden, eine strategische Gegenoffensive gewährleistet werden könnte. Gebraucht wurde ein Netz, das nicht sternförmig angelegt war (ein Zentrum und Peripherie), sondern rhizomartig mit Knoten ausgestattet war, an denen alle Informationen zusammenliefen. Die Ausschaltung beliebiger Teile des Netzes würde so die anderen Teile immer noch funktionsfähig belassen. Das Militär stellte also eine Aufgabe, die nur mit einem antimilitärischen, nicht-hierarchischen Konzept beantwortet werden konnte, und es stellte sie Informatikern und Programmierern, die von flower power und alternativen community-Konzepten nicht völlig unberührt waren. Das Netz wurde konzipiert und funktionierte. Das Militär realisierte seine Pläne aus Geldmangel dann nicht weiter und übergab seine Anteile an die Universitäten. Damit waren den Computernutzern an den Unis ein die USA überspannendes nicht-kommerzielles Computernetz in den Schoß gelegt worden, das seitdem mehrere Metamorphosen durchgemacht hat. Inzwischen umspannt das Netz die ganze Welt und bezieht auch kommerziell betriebene Transportwege und Schaltstellen ein. Das Rückgrat, die wesentlichen Leistungsträger des amerikanischen Internet, bilden seit 1995 kommerzielle Rechner. Dennoch hat das Netz seine nicht-hierarchische Struktur behalten, es bildet ein kaum mehr durchschaubares Wurzelwerk aus zigtausend Initiativen und Schaltstellen sowie 30-40 Millionen Benutzern, deren Verbindung untereinander auf eine in keinem Fall vorhersagbare Weise zustandekommt.

Medienhistorisch bringt das Computernetz die Auflösung der Schranken von Zeit und Raum einen entscheidenden Schritt voran. Es gibt keinen Vorgang auf der Welt mehr (sofern er an irgendeiner Stelle als Input das Netz erreicht), der nicht an jeder anderen Stelle in Echtzeit abgerufen werden kann. Alles, was jemals in diesem Netz abgelegt wurde, ist nicht mehr zurückrufbar und hat an einer oder mehreren Stellen einen quasi ewigen Bestand. Eine beängstigende Perspektive: das Rauschen nicht mehr verarbeitbarer Informationen nimmt rapide zu.

Das eigentliche Angebot des Internet, in Gestalt des World Wide Web (nicht zufällig eine Entwicklung des Spitzentechnologie-Forschungsinstituts CERN) liegt allerdings – derzeit noch – in der Ermöglichung von Spezialisierung. Das WWW stellt eine Reihe brauchbarer und präziser Such- und Auswahlwerkzeuge zur Verfügung, die das Auffinden von Details, das „Hineinbohren“ in eine spezielle Sache und das immer wieder neue Wenden von Fragen ermöglichen. Wer also noch ein Thema hat und nicht das Surfen zum Selbstzweck erhebt, kann sich stunden- und tagelang mit Material versorgen lassen, Diskussionen anzetteln und begleiten oder in vielfältiger Form Marktbeziehungen aufnehmen. Insofern ist McLuhans „globales Dorf“ Realität geworden.

Mythos Interaktivität

Insofern. Was das Internet vernetzt, sind jedoch in allererster Linie Maschinen, nicht Menschen. An den Maschinen sitzen Benutzer, die sich über jede Möglichkeit freuen, den konstanten Fluß der Maschinenkommunikation durch eigene Eingaben unterbrechen oder beeinflussen zu können. Diese Einflußnahme hat den Namen Interaktivität.

Die Aufzeichnungen der technischen Medien können von Menschen nicht mehr unmittelbar gelesen werden. Ein Programmierer, der das von ihm geschriebene Programm so vorgelegt bekäme, wie die Maschine es liest, würde es nicht mehr erkennen. Technische Medien kommunizieren ihre Informationen nicht direkt mit uns, sondern nur über ein „Interface“. Eine Mensch-Maschine-Kommunikation gelingt dann, wenn ein Mensch eine bereits existierende technische Realisation adäquat nachvollzieht.

Die digitalen Medien verarbeiten nicht nur aus Verstandesleistungen gewonnene Daten, sondern auch menschliche Sinnesleistungen, also zum Beispiel visuelle und auditive Wahrnehmungen, und verwischen damit auch die bislang sorgsam behaupteten und gehüteten Grenzen zwischen Verstand und Gefühl, Konstruktion und Kreation. Computer beenden konsequent unsere Vorstellungen über die Natur von Einfällen, Erfindungen oder „Geistesblitzen“. Sie erweisen sich als leistungsfähige Produzenten von „Einfällen“, indem sie Vorhandenes kombinieren und schnelle Verknüpfungen herstellen. Sie modulieren dabei auch die Haltungen ihrer Benutzer: Die stille Freude an der kontemplativen Betrachtung wendet sich in den puren Spaß am Mit-Machen.

In der Kommunikation, von der zum Beispiel das allgemein akzeptierte technische Kommunikationsmodell Claude E. Shannons handelt, kommen Menschen überhaupt nicht vor. Medien erfüllen keine Kommunikationsanforderungen, die vor ihnen und unabhängig von ihnen bestanden haben, sondern erzeugen höchstens die Vorgaben für diese Anforderungen. Weil etwas technisch machbar war, so lehrte uns die Geschichte unserer Medien, entstand auch das Bedürfnis, es zu machen: telephonieren, Schallplatten hören, Videokonferenzen abhalten.

Was ergibt sich daraus?

Wir können den Entwicklungsprozeß der Medien und ihre Einflüsse auf uns genauso wenig umkehren wie den Prozeß unserer Selbsterkenntnis. Die Medien sind nicht die Mittel, die uns auf geheimnisvolle Weise unserer wahren Natur entfremden, wie das Computerkritiker (Weizenbaum), aber auch Cyberspace-Gurus (Rheingold) seltsamerweise annehmen – die daraufhin tatsächlich über Möglichkeiten zur „Umkehrung“ dieses Entfremdungsprozesses spekulieren. Die Evolution ist ein unteilbarer Vorgang, in dem unsere Selbsterkenntnis, unsere Medien und die Formen unserer Kommunikation miteinander verknüpft sind. Wir entwickeln uns als Individuen nur weiter, indem wir diesen Evolutionsprozeß so bewußt wie möglich mit-machen. Die Medien sind derzeit der Ort, an dem in unserer Gesellschaft die Musik gemacht wird. Wir sollten die Chancen wahrnehmen, unsere eigenen Melodien, unseren eigenen Rhythmus in den Strom der Medien einfließen zu lassen. Sich die Musik von anderen vormachen zu lassen, ist eindeutig nur die zweite Wahl.

Multimedia-Dienste

Es gibt heute in Deutschland im Bereich der technischen Medien eine Reihe von Sparten mit zweistelligen jährlichen Zuwachsraten: Vor allem Hard- und Software der Mobiltelefone, der CD-ROM-Player und der Internet-Anschlüsse erzeugen eine unübersehbare Bewegung auf dem Markt. Der Anteil des Medien- und Kommunikationssektors am Bruttoinlandsprodukt hat 1995 10% überschritten, die Tendenz steigt weiter.

Man schätzt, daß in Deutschland bereits heute rd. 300 Mio DM im Multimedia-Service-Bereich umgesetzt werden und rechnet bis zum Jahr 2000 mit einer Steigerung auf 7 Mrd DM. Der Anteil der Telekommunikation am Bruttosozialprodukt soll sich bis zum Jahr 2000 verdoppeln, die Telekommunikation die Automobilindustrie in ihrer volkswirtschaftlichen Führungsrolle klar ablösen.

Multimediadienste sind z. B.

Der interaktive Bildschirm, sei es ein PC oder ein entsprechend ausgerüstetes Fernsehgerät, wird neben oder an die Stelle der herkömmlichen Kommunikationsmittel, wie gelbe Post, Telefon, Telefax, PC, Fernsehgerät und Pkw treten, er wird zum „Multimedia-Gerät“. [7]

Geeignete Endgeräte

Fernseher als Multimedia-Endgerät

Radio- und Fernsehgeräte sind in Deutschland heute zwar flächendeckend in fast jedem der 35,5 Mio Privathaushalte vorhanden. Sie erlauben bislang jedoch lediglich den Empfang von Information, also die unidirektionale Informationsübermittlung vom Sender zum Zuhörer und Zuschauer. Dennoch findet bereits vereinzelt zwischen Radio- und Fernsehmoderatoren auf der einen und dem Konsumenten auf der anderen Seite eine einfache Form bidirektionaler Kommunikation statt, indem der Zuhörer / Zuschauer ermuntert wird, per Telefon an der Sendung mitzuwirken.

Neue interaktive Dienste werden dem Zuschauer eine aktivere Rolle als bisher ermöglichen. Durch Zusatzgerät, die sog. Set-top-box, bekommt der Konsument neben dem Datenkanal (mit der Bild- und Toninformation für den Fernseher) auch einen Rückkanal zur Verfügung gestellt. Die Bandbreite des Datenkanals zum Empfänger über den normalen Telefonanschluß kann über kurze Entfernungen (bis ca. 3 km) bis zu 1,5 Mbit/s betragen, der Rückkanal kommt mit wenigen Kbit/s aus (daher die Bezeichnung „Asymmetrical Digital Subscriber Line“ – ADSL).

Erweiterte Nutzung des Kabel-TV

Daneben werden Techniken erprobt, die den Anschluß der Set-top-box an das TV-Kabel als bidirektionales Leitungsnetz vorsehen, d.h. ebenfalls mit Hin- und Rückkanal. Dieses hochgeschwindigkeitstaugliche Kupfer-Breitbandkabel nutzen inzwischen immerhin fast 15 Mio. Haushalte in Deutschland.

Durch Digitalisierung des TV-Kabelnetzes und durch Datenkompression ist eine immense Erweiterung der vorhandenen Übertragungskapazitäten möglich. Derzeit wird im Breitbandkabel-Netz lediglich ein Übertragungsbereich von 300 MHz für die Verteilung der analogen Rundfunk- und Fernsehprogramme genutzt. Der Bereich zwischen 300 und 540 MHz, das Hyperband, wird derzeit für weitere Kanäle zur analogen und digitalen Übertragung aufbereitet, so daß in diesem Frequenzbereich künftig bis zu 180 Programme übertragen werden können.

Die Kombination von Glasfaser- und Koax-Netz eröffnet eine kostengünstige Möglichkeit, zumindest für die am BK-Netz angeschlossenen Rundfunk- und Fernsehteilnehmer die Leitungswege für eine Versorgung mit komplexen Multimedia-Anwendungen wie Video-on-demand anzubieten.

Der PC als Endgerät

Während das Fernsehgerät noch einer Aufrüstung bedarf, steht mit dem PC durch die schnelle Verbreitung immer leistungsfähigerer Rechner in den Unternehmen und zuhause dagegen bereits heute ein preiswertes Endgerät für eine multimediale Kommunikation zur Verfügung. Die einfachste und preiswerteste, vor allem aber flächendeckende Verbindung der PCs erfolgt über das Telefonnetz, allerdings mit niedrigen Datenübertragungsraten - auch 4 gebündelte ISDN-Kanäle bieten erst ein Sechstel der für die digitale Fernsehübertragung mindestens notwendigen Bandbreite.

Während in Deutschland heute ca. 13 Mio. PCs installiert sein dürften, davon ca. 6 Mio. in Privathaushalten, die mit geringstem finanziellem Aufwand für die Telekommunikation eingesetzt werden können, werden digitale Fernsehempfänger und multimedia-fähige Set-top-Boxen zur Zeit erst gerade in Pilotprojekten getestet. Für PCs erwarten Experten bis zum Jahr 2000 eine Marktdurchdringung von etwa 40 % aller Privathaushalte in Deutschland. So dürfte kurz- und mittelfristig der PC auch für den Privathaushalt das am weitesten verbreitete und ideale Endgerät für die moderne Telekommunikation darstellen. Angesichts der stetig sinkenden Hardware-Preise könnten allerdings auch Kombinations-Geräte, gerade im Hinblick auf die Nutzung des hybriden Breitbandkabel-Netzes, eine gute Chance haben.

Medienpolitische Aspekte

Wie sieht es auf der politischen Seite aus? Wir wissen, daß es in Japan – hervorgerufen auch durch die Eigenarten der japanischen Schrift, die nur bedingt textverarbeitungstauglich ist – seit vielen Jahren eine extensive staatliche Förderung von Multimedia-Projekten gibt. Zum Beispiel hält sich der eigentliche Erfinder der Hypertext-Idee, Ted Nelson, der seit Ende der sechziger Jahre unter dem Namen „Xanadu“ eine Art Super-World-Wide-Web propagiert, seit einiger Zeit in Japan auf, um sein Projekt dort weiterzutreiben. Auch in den USA sind die politischen Verhältnisse für die Weiterentwicklung der Kommunikationsindustrie günstig – sowohl der derzeitige Vizepräsident Al Gore wie auch der republikanische Sprecher des Repräsentantenhauses, Newt Gingrich, sind ausgesprochene Experten für Medientechnologie.

In Deutschland gibt es zwar seit Jahren viele gute Worte zur Bedeutung des Zukunftsmarktes „Multimedia“, sieht man jedoch genauer hin, so gibt es eine ganze Reihe gravierender Hindernisse, die der Entwicklung zukunftssicherer Perspektiven für Unternehmen im Wege stehen.

Zum einen ist die Postreform III, also das Ende des Monopols für den sprachübermittelnden Telefondienst, nicht gleichbedeutend mit dem Ende der marktbehindernden Rolle der TELEKOM und ihrer Normen- und Preispolitik. Eine größere Bandbreite ist bei den derzeitigen Netzen nur in Stufen von 128 KB/s (zwei B-Kanäle ISDN), 2 MB/s, 34 MB/s und 155 MB/s möglich, und das alles zu horrenden Preisen. Es wird auch ab dem 1. Januar 1998 eine gewisse Zeit dauern, bis die längst realisierbaren Medientechnologien der Multimedia-Anbieter ihre kommerziellen und privaten Kunden auch zu erträglichen Preisen erreichen.

Zum anderen gibt es eine Verfassungshürde, die gerade in den letzten Tagen wieder in die medienpolitische Diskussion geraten ist: Das vom Bundesforschungsminister angekündigte Multimedia-Gesetz soll die Entwicklung der Telekommunikationswirtschaft fördern, wobei Regelungen nur in den Bereichen Verbraucherschutz, Jugendschutz, Urheberrecht und Datenschutz vorgesehen sind – ansonsten müsse es genügen, wenn sich ein Online-Anbieter einen Gewerbeschein hole (so Minister Rüttgers). Auf der anderen Seite reklamieren die Bundesländer ihre Kulturhoheit und die in Staatsverträgen mit der Grundversorgung mit Information, Kultur und Unterhaltung beauftragten öffentlich-rechtlichen Rundfunkanstalten die Festsetzung von Zulassungsvoraussetzungen für ihre künftige Konkurrenz. Um diesen Standpunkt in der Öffentlichkeit attraktiv zu machen - immerhin haben die öffentlich-rechtlichen Rundfunkanstalten neben ihren rechtlichen Privilegien auch noch die Ermächtigung zum Einzug von Gebühren – müssen sich ARD und ZDF schon noch etwas einfallen lassen. Meine These ist: Genau das werden sie auch tun. Eine erste Andeutung ist in einem Zeitungsbeitrag des Intendanten des Westdeutschen Rundfunks zu finden, der dort unter anderem verlangt: den diskriminierungsfreien Zugang aller Veranstalter zu den Netzen, „die faire Darstellung aller Programme über die elektronische Benutzerführung und die Sicherung des Zugangs aller Bürger zu den Netzen als Ausdruck ihres Grundrechts auf Information“[8].

Dieser letzte Punkt ist besonders interessant: Wie wollen die Rundfunkanstalten den Bürgern den Zugang zu den Netzen sichern? Eine, tatsächlich nicht besonders unrealistische Lösung wäre, daß die ARD, vielleicht im Verbund mit den jeweiligen Landesregierungen, als Freenet-Provider auftritt. Alle Bürger könnten sich gratis, zum Ortstarif oder gar über eine gebührenfreie Telefonnummer, Zugang zu den Angeboten der Rundfunkanstalten und der Behörden verschaffen und hätten als Nebeneffekt damit auch den Zutritt ins Internet.

Wie wenig realitätsfern dieser Gedanke ist, zeigt das Planungspapier der Bayerischen Landesregierung, das unter dem Titel „Bayern Online“ seit Mitte 1995 im Internet verfügbar ist und die feste Absicht ausdrückt, binnen weniger Jahre allen bayerischen Bürgern den freien Zugang zum Bayernnetz (und damit zum Internet) zu schaffen. Verbunden damit ist ein systematischer und ökonomisch durchdachter Aufbau von Hochgeschwindigkeitsnetzen im ganzen Land unter weitgehendem Ausschluß der TELEKOM zumindest in ihrer derzeitigen Verfassung. Ich kann Ihnen wirklich nur empfehlen, sich dieses erstaunliche Papier, das mit dem Konterfei des bayerischen Ministerpräsidenten versehen ist, im Internet unter www.bayern.de einmal anzusehen.

Ökonomische Perspektiven im deutschen Internet

Das deutschsprachige Angebot im World Wide Web hat momentan atemberaubende Wachtumsraten, wenn man es an der Anzahl der Web-Seiten und Web-Adressen mißt. Ein großer Teil dieses Angebots ist allerdings nach wie vor nicht-kommerzieller Natur oder stammt zwar von kommerziellen Anbietern, ist jedoch inhaltlich PR und kein point-of-sale. Wir wissen aus den USA, daß der im Jahr 1995 aufgestellte Rekord an Investitionen in Web-Präsentationen 1996 vermutlich nicht wieder erreicht, geschweige denn übertroffen wird, weil sich nach dem großzügigen Angebot jetzt die Frage der returns stellt. Häufig werden sozusagen die Benutzer des Internets für den mangelnden kommerziellen Erfolg verantwortlich gemacht: sie lehnten überwiegend kommerzielle Veranstaltungen ab, seien aufgrund der Datenunsicherheit nicht zu Geldtransfers zu bewegen und verbänden ohnehin mit ihren Surftouren im Internet keine seriösen Erwartungen.

Diese Aussagen sind nach meiner Überzeugung allesamt haltlos. Das Hauptproblem für einen kommerziellen Erfolg im Internet liegt in der Erzeugung und Präsentation eines für das WWW geeigneten Angebots. Die Übertragung von Strategien aus dem in anderen Medien erprobten Marketing auf das World Wide Web schlägt systematisch fehl. Zum Beispiel die sogenannte Bandenwerbung, also Werbung in einer Kopfleiste über dem inhaltlichen Angebot oder die auch aus Zeitschriften bekannte Anordnung: zwei Spalten Text, eine Spalte Werbung. Die Benutzer können – und viele tun das auch – jederzeit in ihrem Browser die Anzeige von Bildern unterbinden. Viele Benutzer haben das Gefühl, daß ihnen durch die langsam aufbauenden Bilder nur die Zeit gestohlen wird, zumal die Werbeinformation meist keinen inhaltlichen Nutzen hat. Etwas anderes ist es mit Sponsorings. Eine Tabakfirma sponsort beispielsweise eine Studienplatz-Tauschbörse, eine Bank lädt Jugendliche zu einem Ideenwettbewerb für multimediale Spiele ein usw. Oder eine Firma zieht durch eine multimediale Kundenzeitschrift allgemeinkulturellen Inhalts die Aufmerksamkeit auf sich, wie eine große amerikanische Getränkefirma.

Es gibt selbstverständlich, wenn auch noch viel zu wenig, erfolgreiche Verkaufsangebote im Internet: Antiquariate, Elektronikteileversandfirmen, Immobilienmakler und Autohändler präsentieren überschaubare und perfekt durchsuchbare Datenbanken. Auch elektronische Anforderungsformulare für gedruckte Kataloge und ähnliches sind erfolgreich und beliebt. Problematisch in ihrer Akzeptanz sind vor allem die puren Werbeeinblendungen, die sich zudem im Internet auch noch durch äußerste Witzlosigkeit auszeichnen, sie sind meist nur Wiedergaben von Allerweltslogos ohne Web-spezifische Zutaten.

Ich will meine Bewertungen hier nicht weiterführen, sondern zum Schluß meines Beitrag einige knappe Thesen zur Zukunft multimedialer Veranstaltungen formulieren.

Fünf Thesen

1. Der Schwerpunkt für die Durchsetzung von multimedialen Angeboten wird in den nächsten Jahren nicht so sehr auf dem Feld der technischen Neuentwicklungen als eher dem der Normierung und Durchsetzung liegen. Zur Durchsetzung gehört die flächendeckende Verlegung und Verschaltung von breitbandigen Netzen, ohne die viele multimediale Angebote nicht denkbar sind. Vor der allgemeinen Akzeptanz steht die Abstimmung und Festschreibung von Normen, sei es für Set-top-Boxen, sei es für Video-Kompressionsverfahren.

2. In dem Maße, in dem preislich konkurrenzfähige multimediale Angebote für Konsumenten online nutzbar sind, werden sich Videoshops und CD-ROM-Hersteller neu orientieren müssen. Die Videoshops, in denen Cassetten ausgeliehen werden, haben kaum noch eine Perspektive, die CD-ROM-Hersteller können allmählich auf Netzangebote umschwenken. (Wobei es natürlich recht viele Angebote gibt, bei denen die Verfügung über einen Datenträger sinnvoll bleibt).

3. Bei den kommerziellen Angeboten im World Wide Web wird es viel Bewegung geben. Entscheidend für Erfolg und Mißerfolg sind die für das Web geeigneten Inhalte. Die Pioniererfahrungen wagemutiger Anbieter werden Überlegungen auch bei anderen freisetzen, wie wir es derzeit bei der CD-ROM erleben: Nicht alles, was in ein Buch gehört, gehört auch auf eine CD-ROM, und umgekehrt.

4. Die Potentiale der verschiedenen Arten von Internet-Providern sind sehr unterschiedlich einzuschätzen: Reine Access-Provider haben angesichts der nicht nur von alternativen Kreisen, sondern auch von machtvollen Institutionen präferierten Freenet-Idee vermutlich überhaupt keine Überlebenschancen. Für Service-Provider aller Art (Warenhäuser à la AOL oder Spezialisten für besonders pfiffige Dinge, sagen wir: Live-Video-Angebote) wird es weitere Entfaltungsmöglichkeiten geben. Der größte und turbulenteste Markt wird allerdings der der Content-Provider sein.

5. Die derzeitigen deutschen WWW-Angebote kranken eindeutig an einer Unterprofessionalisierung. Sogar die Angebote größerer Firmen und Einrichtungen werden häufig von Amateuren mit einem gewissen Maß an HTML-Kenntnissen „gestaltet“. Professionelle Konzepte für die Struktur und das Design von Webseiten sind Mangelware. Es gibt bislang auch nur ganz wenige Einrichtungen, in denen eine Ausbildung von Redakteuren, Designern, Grafikern und Layoutern für Webseiten möglich ist. Der Erfolg von Webseiten hängt von ihrer Benutzerfreundlichkeit ab. Benutzerfreundlichkeit ist ein Produkt von Ergonomie und Ästhetik. Diese Positionen werden sich auch bei Auftraggebern, also Betreibern von Webseiten durchsetzen, wenn sich das erste Fieber des „Dabeiseinwollens“ im Internet gelegt hat.

Ursprünglich vorgetragen auf einer Veranstaltung der Multimedia-Entwicklungsfirma Trinon am 8. Mai 1996 in Frankfurt am Main.