Von Hermann Rotermund
Lassen Sie mich kurz die Thematik eingrenzen, die ich hier in einer knappen halben Stunde berühren möchte. Die Beschäftigung mit der Geschichte der Medien legt es für mich nahe, zunächst einige Grundprobleme der Konstitution der modernen Medien zu behandeln. Ich werde dann den Zusammenhang der computergestützten Medien mit der kulturellen Entwicklung thematisieren, und dabei auch versuchen, Stichworte zu verarbeiten, die ich in Ihren Diskussionspapieren gefunden habe. Schließlich möchte ich mich thesenartig zu einigen gegenwärtigen Entwicklungen im Internet äußern, womit ich nicht zuletzt auch die Diskussion anzuregen hoffe.
Die neuen Medien sind nicht erfunden worden, um den Menschen zu helfen. Diesen Satz sagte der Medienwissenschaftler Friedrich Kittler einmal über den Computer, man kann ihn jedoch auf die gesamte Palette der technischen Medien, die sich in den letzten 200 Jahren entwickelt haben, beziehen. Einige herausgegriffene Beispiele mögen Ihnen eine Vorstellung von dem meist zu wenig beachteten Zusammenhang von Medien und Krieg geben. Erkennbar wird dabei, daß die militärische Kommandostruktur, die hinter den technischen Entwicklungen stand, zunächst auch die Nutzung der Medien bestimmt hat. Diese Kommandostruktur beeinflußte, wie Untersuchungen über die Appellstruktur des Radios belegen, auch die zivile Nutzung dieser Medien.
Die Telegraphie begann ihren Siegeszug im Jahre 1794 in Gestalt des französischen Flügeltelegraphennetzes, das militärisch genutzt wurde. Sie begleitete die kriegerische Ausdehnung der französischen Republik; jeder Feldzug hinterließ eine neue Telegraphenstrecke. Der Erfinder des Flügeltelegraphen, Chappe, wollte schon um 1800 Wechselkursnachrichten und Lotterieergebnisse telegraphisch übertragen. Die Lotterieidee, an der der Staat finanziell partizipierte, wurde realisiert, andere zivile Nutzungen von Telegraphensystemen mußten noch fast 50 Jahre auf sich warten lassen.
Der elektrische Telegraph, an dessen Entwicklung der Leutnant Siemens maßgebend beteiligt war, hatte seine Bewährungsprobe im Revolutionsjahr 1848 bei der telegraphischen Fernzündung einer Seemine im Kieler Hafen (um die Bürgererhebung gegen die anrückenden Dänen zu schützen). Ein Jahr später, 1849, wurde die erste preußische Telegraphenlinie Berlin--Frankfurt--Koblenz eröffnet, dann wurden in schneller Folge militärische Linien errichtet. Siemens, diesmal die Firma Siemens, baute die Telegraphenlinien von St. Petersburg in die Krim, die Rußland 1853 im Krimkrieg gegen das Osmanische Reich und das britische Empire unterstützten. Erst danach stiegen die Siemens-Brüder in das Seekabelgeschäft ein, das mit kommerziellen Nutzungen verbunden war (London--Kalkutta, Transatlantikverbindungen).
Das Radio war eine zivile Weiterentwicklung der Funktelegraphie, die ihre Innovationsschübe immer wieder durch das Militär bekam. Marconi, der anders als sein Konkurrent, der Physiker De Forest, ein skrupelloser Geschäftsmann war, erlangte zunächst beim englischen Militär, dann während des Ersten Weltkriegs in den USA Geltung und Bedeutung. Die amerikanische Filiale seines Unternehmens floß Ende 1919 in die Gründung der RCA (Radio Corporation of America) ein, die dann die zivile Rundfunkentwicklung vorantrieb.
UKW-Funk eröffnete den Zweiten Weltkrieg: Der Vormarsch der deutschen Panzerverbände in Polen und in Frankreich wurde durch UKW geleitet, für das der Gegner keine Empfangsgeräte besaß. Der deutsche Vorsprung in der UKW-Technik spielte dann in die Nachkriegszeit hinüber: Während in den USA noch bis weit in die sechziger Jahre fast ausschließlich AM-Radio betrieben wurde, war das UKW-Klangerlebnis schon längst in die deutschen Wohnstuben eingezogen.
Hi-Fi, was ja High fidelity bedeuten soll, hieß zunächst ffrr, eine Abkürzung von full frequency range recording. Die Schallplattenfirma Decca in London erfreute in den fünfziger Jahren unter diesem Etikett ihre Hörer mit dynamischen und rauscharmen Aufnahmen. ffrr entstand im Zweiten Weltkrieg aus dem Bedürfnis der britischen Kriegsmarine, deutsche und britische U-Boote aus größerer Entfernung an ihren Maschinengeräuschen unterscheiden zu können. Das beschränkte Frequenzspektrum der bis dahin üblichen Schallaufzeichnungstechniken machte das unmöglich. 1940 beauftragte die britische Admiralität also Decca mit der Entwicklung einer besseren Aufnahmetechnik, die eine Weile nach Kriegsende dann wiederentdeckt und für die Nutzung in der Unterhaltungsproduktion umgewidmet wurde.
Der Computer ist, wie Sie wissen, ebenfalls aus militärischen Aufgabenstellungen heraus entwickelt worden. Schon die von Charles Babbage um 1850 konzipierte, aber nie fertiggestellte Analytical Engine sollte im Dampfbetrieb neben astronomischen Berechnungen auch ballistische Bahnen kalkulieren.
In den dreißiger Jahren des 20. Jahrhunderts arbeiteten verschiedene Wissenschaftler und Ingenieure an Konzepten für Elektronenrechner, unter anderen Konrad Zuse in Deutschland, Howard Aiken, George Stibitz in Amerika. Die größte Nachwirkung erzielten allerdings Entwicklungen, die auf der theoretischen Maschine Alan Turings beruhten.
Die universale Maschine Turings, 1937 in seinem Aufsatz On Computable Numbers entworfen, war ein logischer Automat, der jedes Phänomen und jeden Prozeß, der vollständig und unzweideutig beschrieben werden kann, in einer einzigen Maschine implementiert ..., die allen Maschinen ein Ende setzt. Genau das erleben wir heute in allen Lebensbereichen. Weder das Telephon noch eine Waschmaschine oder ein Formel-1-Rennwagen können mehr ohne Computer betrieben werden. Computer saugen alle trivialisierbaren Probleme an und lösen sie. Alle nicht-trivialisierbaren Probleme müssen von Menschen entschieden werden, die diese Entscheidung auch zu verantworten haben.
John von Neumann übersetzte das Turingsche Modell 1944 in die Architektur des Computers, der seine Programme und Daten in einen Arbeitsspeicher lädt und dessen Programmbefehle sequentiell abgearbeitet werden. Turing selbst war im Zweiten Weltkrieg am britischen Colossus-Computer mit der Entschlüsselung der mit dem Enigma-Apparat verschlüsselten deutschen Wehrmachts-Funksprüche beschäftigt. Die erste Colossus war 1943 betriebsbereit, ein gewaltiger Apparat mit 1500 Elektronenröhren. Die Entschlüsselungsarbeit war so erfolgreich, daß die britische Armee gelegentlich absichtlich die Bombardierung von Städten durch die deutsche Luftwaffe hinnahm, ohne das Feuer zu erwidern, um Überraschung vorzutäuschen. Von Neumann entwickelte während des Krieges mit John Eckart und John Mauchly das Konzept des ENIAC, mit dem Schockwellen-Berechnungen für die Zündung von Wasserstoffbomben ausgeführt wurden.
Colossus und ENIAC waren keineswegs als Universalmaschinen konzipiert, ganz im Gegenteil. Durch eine Reihe von Basteleien und Umwidmungen ergab sich aus ihnen aber schrittweise das Konzept des universell einsetzbaren Rechners, der heute z. B. als PC millionenfach auf der ganzen Welt verbreitet ist.
Das Internet ist ein Produkt des Kalten Krieges, also der atomaren Drohung und Gegendrohung. 1967 startete das ARPANET, eine zunächst experimentelle Zusammenschaltung von Computern mehrerer Universi-tätsinstitute. Es sollten Lösungen gefunden werden, mit denen im Falle eines atomaren Schlages gegen die USA, bei dem eins oder mehrere Kontrollzentren durch direkte atomare Einwirkung oder durch den elektromagnetischen Puls (EMP) ausgeschaltet würden, eine strategische Gegenoffensive gewährleistet werden könnte. Gebraucht wurde ein Netz, das nicht sternförmig angelegt war (ein Zentrum und Peripherie), sondern rhizomartig mit Knoten ausgestattet war, an denen alle Informationen zusammenliefen. Die Ausschaltung beliebiger Teile des Netzes würde so die anderen Teile immer noch funktionsfähig belassen. Das Militär stellte also eine Aufgabe, die nur mit einem antimilitärischen, nicht-hierarchischen Konzept beantwortet werden konnte, und es stellte sie Informatikern und Programmierern, die von flower power und alternativen community-Konzepten nicht völlig unberührt waren. Das Netz wurde konzipiert und funktionierte. Das Militär realisierte seine Pläne aus Geldmangel dann nicht weiter und übergab seine Anteile an die Universitäten. Damit war den Computernutzern an den Unis ein die USA überspannendes nicht-kommerzielles Computernetz in den Schoß gelegt worden, das seitdem mehrere Metamorphosen durchgemacht hat. Inzwischen umspannt das Netz die ganze Welt und bezieht auch kommerziell betriebene Transportwege und Schaltstellen ein. Das Rückgrat, die wesentlichen Leistungsträger des amerikanischen Internet, bilden seit 1995 kommerzielle Rechner. Dennoch hat das Netz seine nicht-hierarchische Struktur behalten, es bildet ein kaum mehr durchschaubares Wurzelwerk aus zigtausend Initiativen und Schaltstellen sowie zur Zeit ca. 70 Millionen Benutzern, deren Verbindung unterein-ander auf eine in keinem Fall vorhersagbare Weise zustandekommt.
Im Alltagsleben und -denken, ich könnte auch sagen, im Volksvorurteil, hat sich das Bild des Computers in den letzten 50 Jahren schon zweimal gewandelt. War er zunächst das Elektronengehirn, ein Zahlengenie, doch auch häufig als Fachidiot bespöttelt, und wurde er in den achtziger Jahren zur harmlosen Schreibmaschine und zum Gameboy, so erhält er heute, unter den Bedingungen seiner globalen Vernetzung, die Funktion der Agentur, die über alles Wissen und alle Erfahrungen der Menschheit verfügt. Parallel dazu scheint die Zuständigkeit für den Computer von der Mathematik zur Informatik und von dort zur Informationstheorie gewechselt zu sein.
Der Computer kommt durch das Netz erst auf seinen Begriff, wie das Buch durch die Bibliothek. Das Computernetz erscheint als eine weltumspannende Agentur, in der das menschliche Wissen und die menschlichen Erfahrungen verwaltet werden. Alle medialen Hervorbringungen, wie der Druck von Zeitungen oder Büchern, die Produktion von Rundfunk- und Fernsehprogrammen, sind heute tatsächlich bereits Teilfunktionen dieser Agentur. Die Grundversorgung unserer Republik mit Information, Bildung und Kultur kann ohne diese Agentur nicht mehr gewährleistet werden, abgesehen von den vielen Dienstleistungen wie dem Telephonieren, dem Vermitteln von Reisen oder dem Bestellen eines Ersatzteils.
Informationstheoretisch schafft ein solches Netz und damit will ich noch einmal an meinen Eingangssatz erinnern einen Handlungsraum, in dem die Anwesenheit von Menschen möglich, aber nicht notwendig ist. Das Kommunikationssystem von Claude E. Shannon, 1949 entworfen, beschreibt die Bedingungen der Reproduktion einer Nachricht innerhalb eines maschinellen Systems, die an einem anderen Ort dieses Systems entstanden ist. Diese Maschine-Maschine-Kommunikation kann Menschen über Schnittstellen englisch: Interfaces Einblicke oder Zugriffe auf Informationen verschaffen; sie funktioniert von ihrer Bestimmung her aber auch ohne diese Schnittstellen.
Eine Mensch-Maschine-Kommunikation gelingt dann, wenn ein Mensch eine bereits existierende technische Realisation adäquat nachvollzieht. Computer beenden konsequent unsere Vorstellungen über die Natur von Einfällen, Erfindungen oder Geistesblitzen. Sie erweisen sich als leistungsfähige Produzenten von Einfällen, indem sie Vorhandenes kombinieren und schnelle Verknüpfungen herstellen. Sie modulieren dabei auch die Haltungen ihrer Benutzer: Die stille Freude, die kontemplative Betrachtung wendet sich in den puren Spaß am Mit-Machen.
Mit Begriffen wie Kreativität, Aktivität und Dialogfähigkeit pflegten Künstler zum Teil sicher voller Selbstillusionen ihren Handlungsraum abzustecken. Für den Handlungsraum des Computers gelten statt dessen die Leistungsmerkmale Kombinatorik, Reaktivität (oder Konnektivität) und Interaktivität. So sehr sich die Begriffe auch ähneln, ihre semantische Verwandtschaft darf nicht darüber hinwegtäuschen, daß es sich auf der einen Seite um körperliche Aktivitäten von Menschen, auf der anderen Seite um die Aktivität digitaler Prozesse handelt. Die Akzeptanz, die das Konzept der Interaktivität derzeit vor allem bei Künstlern und Medienaktivisten erfährt, muß daher verwundern, da sie dem Selbstentwurf vieler künstlerischen Existenzen widerspricht. Faktisch geht es dabei um den Ehrgeiz, im Rahmen eines Erlebnisraums, der von einer maschinellen Kombinatorik vorgegeben ist, Mensch-Maschine-Kommunikationsakte zum Gelingen zu bringen.
Um Sie nicht zu einem Mißverständnis über meine Haltung zu verleiten, die Ihnen hier möglicherweise in die Nähe einer verbreiteten, in der Tradition von Weizenbaum und Postman stehenden humanistisch-pädagogischen Kritik an der Maschinenwelt zu geraten scheint, möchte ich an dieser Stelle einen kurzen Seitenblick auf einen auch in der Mediengeschichte noch viel zu selten beleuchteten Zusammenhang werfen.
Sigmund Freud fragte sich 1895 in seinem Entwurf einer Psychologie, in dem er unmittelbar vor der Entdeckung des Unbewußten die naturwissenschaftlichen Erkenntnisse über das Funktionieren unseres psychischen Apparats zusammenfaßte, ob ein Apparat möglich sei, der gleichzeitig Leitung und Aufspeicherung erlaube und damit die Funktionen von Wahrnehmung und Gedächtnis. Einen Apparat, der diese komplizierte Leistung vermöchte, können wir vorderhand nicht ausdenken.[1] Der informationsspeichernde und -verarbeitende Apparat, den wir heute kennen, der Computer, hat vielfach auch die Wissenschaft zur Revision von Annahmen über die Qualität des menschlichen Bewußtseins gebracht. Der physische Apparat ist nicht das Bewußtsein und auch nicht sein Sitz, das Bewußtsein ist vielmehr ein Effekt des physischen Apparats, so sagt die moderne Hirnforschung (beispielsweise John R. Searle, Die Wiederentdeckung des Geistes).
Die Kernspaltung des Subjekts durch die Psychoanalyse ergab ein Ich, dem nunmehr nur noch eine recht unbedeutende Funktion an der Oberfläche des psychischen Geschehens zugewiesen wird, und das wesentliche Steuerungsvorgänge dem Unbewußten überlassen muß. Diese rücksichtslose Sichtweise hat in der Folge weitere Illusionen über die Autonomie der Persönlichkeit und die individuelle Freiheit von Subjekten zerstört.
Die Psychoanalyse, die Quantenmechanik, die sich dem Phänomen des eindeutig vorhersagbaren Verhaltens einer Gruppe von Partikeln und des unvorhersagbaren Verhaltens eines individuellen Partikels widmet, die Demoskopie, die gleichsam die auf die Gesellschaft angewandte Quantenmechanik darstellt und die Informationstheorie finden ihren Grund in einer ähnlichen Problematik.[2] Die Wahrheiten, die früher mit den Gegenständen und Subjekten verbunden waren, werden jetzt relativiert, sie existieren nur noch in Beobachtungsprozessen. So paradox es klingen mag: die größten wissenschaftlichen Fortschritte, beispielsweise in der Hirnforschung, die in den letzten 15 Jahren gemacht wurden, fanden immer unter der Prämisse statt, daß das Gehirn eine black box darstellt, deren Verhalten auf meßbare Resultate hin zu beobachten sei.
Die modernen Medien bewältigen die Speicherung und Übertragung von Informationen inzwischen ohne menschliches Zu-tun. Menschen schaufeln Inhalte hinein, gegen die die Apparate gleichgültig sind. Die Medienanalyse und andere demoskopische Veranstaltungen sagen uns in Deutschland jährlich post festum, wie die Inhalte sich auf die Rezeption verteilt haben, und nur selten gibt es eine geringe Abweichung von den erwarteten Resultaten. Letztlich konstituieren die Medien unsere kulturelle Identität. Das ist übrigens keine Funktion, die erst den heutigen Medien zufällt. Es ist die Funktion der Medien überhaupt. Die Mythen und Fabeln und die ars memorativa der oralen Kulturen hatten sie ebenso wie die in Schriftform verbreiteten wissenschaftlichen und literarischen Werke der Schriftkultur.
Wenn wir jetzt noch einmal auf die Stichworte Kreativität und Interaktivität zurückkommen, so müssen wir zunächst vorurteilslos die Möglichkeiten und die Begrenzungen ermitteln, die in unserer Kultur für schöpferische Leistungen bestehen. Wir können und müssen davon ausgehen, daß der historische Stand der menschlichen Selbsterkenntnis und der menschlichen Artikulations- und Umgangsformen, den wir Kultur nennen, evolutionär nicht hintergehbar ist. Die von uns geschaffenen Medien sind ein von diesem evolutionären Prozeß untrennbarer Bestandteil. Wir nehmen die Welt vermittels dieser Medien war und können uns keinen neutralen Punkt außerhalb dieses Medien- und Kulturzusammenhangs wählen.
Die größte Herausforderung des traditionellen Verständnisses von Kreativität stellt die Kombinatorik der Computersysteme dar. Wenden wir dieses Computermodell auf die menschliche Kreativität an, so müßten wir sagen: Je mehr gespeicherte Elemente zur Verfügung stehen, die sich in ein kombinatorisches Spiel einbeziehen lassen, desto unvorhersagbarer ist ein einzelner Kombinationsakt. Gälte diese Definition, so wäre ein Computer einem Menschen in Sachen Kreativität in den meisten Fällen überlegen. Ein Mensch müßte zumindest die gleichen Chancen haben, Informationen zu sammeln und zu speichern wie ein Computer. Diese Chancen haben die meisten Menschen nicht, und zudem funktionieren die menschlichen Speicher nicht so wie die Computergedächtnisse sie sind vergeßlicher. Der Kreaktivitätsvorteil eines Menschen bestände höchstens darin, daß er willkürlich oder begründet Elemente aus einer Kombination ausschließt. Ein Computer kann per Zufallsprogramm Informationen übergehen oder löschen, eine begründete oder auf einer Wertung beruhende Entscheidung kann er nicht treffen.
Wenn wir versuchen wollen, aus dieser sehr knappen Darlegung eine kulturpolitische Zielstellung abzuleiten, dann könnte sie etwa so lauten: Kreativität kann gefördert werden, indem Menschen die maximale Zahl von Wahl- und Kombinationsmöglichkeiten zur Verfügung gestellt wird und indem sie ermutigt werden, eine gezielte Auswahl aus den vorhandenen Elementen zu treffen und diese Auswahl zu verantworten.
Diese Formulierung enthält jedoch einen Widerhaken, der sofort schmerzhaft wirkt, wenn die Betrachtung über einen einzelnen Kreativitätsakt hinausgeht. Die selbstverantwortete Ausgrenzung von Wahlmöglichkeiten kann zur Folge haben, daß in der Folge nicht mehr das Maximum der Optionen zur Verfügung steht, daß also der nächste kreative Akt nicht mehr auf dem gerade erreichten kulturellen Niveau stattfindet, sondern nur eine Art Iteration des vorhergehenden darstellt. Damit würde auch ein Grundsatz verletzt, den der Kybernetiker Heinz von Foerster allerdings mit einem gehörigen Maß an Ironie als sein Motto verkündete: Handle stets so, daß die Anzahl deiner Wahlmöglichkeiten wächst!
Angesichts dieses Dilemmas verstehen wir, warum es so unendlich schwierig ist, Kreativität überhaupt zu bewerten, Kreativität zu fördern, Kreativität über einzelne kreative Akte hinaus etwa zu einem Verhaltensprofil werden zu lassen.
Computer können in den meisten künstlerischen Gattungen nicht mit Menschen konkurrieren, weil wir nicht imstande sind, ihnen die komplexen, durch mehrwertige assoziative Verknüpfungen verbundenen Informationen vermitteln, aus denen wir Bewertungskriterien für künstlerische Produktionen gewinnen. In den Bereichen, die wir der Produktinnovation oder -optimierung zuschlagen können, haben die Computer jedoch die besseren Karten und den längeren Atem denken wir beispielsweise an das Design der Karosserie eines Formel-1-Autos oder eines Hochgeschwindigkeitszuges.
Interaktivität hingegen ist eine eindeutige Errungenschaft der Computerkultur. Interaktivität ist die durch Maschinenlogik definierte Wahlmöglichkeit von Menschen, die durch Mensch-Maschine-Schnittstellen mit einem informationsverarbeitenden System verbunden sind. Diese Aussage enthält keine Wertung. Die von Computerspielen gebotene Interaktivität enthält nicht nur im Wort mehr Aktivität als der Fernsehkonsum. Die von Informations-Datenbanken angebotene interaktive Abfrage legt blitzartig Wissensbestände oder Materialien frei, die früher nur durch erniedringende langwierige Suchoperationen zu finden waren. Hier wird durch Interaktivität Lebenszeit und Lebensqualität gewonnen.
Interaktivität als Modell für gesellschaftliches Verhalten anzubieten, ist ein fragwürdiges Ansinnen. Diese Tendenz ist jedoch beispielsweise bei normierten Bewerbungs- und Personalauswahlverfahren zu beobachten, mit denen den Testpersonen skills abgefordert werden, die jedes Computerkid an seinem Gameboy erwerben kann. Ob damit ein dem derzeitigen kulturellen Stand entsprechendes Persönlichkeitsprofil ermittelt werden kann, muß sehr bezweifelt werden.
Das Internet wurde wie alle technischen Medien seit 1800 nicht durch eine Nachfrage , ein Bedürfnis oder einen auf seine adäquate Kommunikation wartenden Inhalt geschaffen. Es befindet sich derzeit in einer Phase der Suche nach Inhalten zu technisch bereits vorhandenen Lösungen. Die älteren Medien, wie Rundfunk und Fernsehen, verfügen über Inhalte, die eine Nachfrage im Internet finden oder erzeugen könnten, aber nicht bzw. noch nicht über die Formate, die diesem Medium adäquat wären.
Das größte Motiv für die Fernsehsender, im Internet neue, multimediale Angebote zu präsentieren, ergibt sich übrigens aus einem Umfrageergebnis in den USA: Die Zeit, die Nutzer des Internet vor ihren PCs verbringen, stammt zu 70 Prozent aus dem Zeitbudgets ihres Fernseh-konsums.
Aus der staatsvertraglich formulierten Aufgabe der öffentlich-rechtlichen Rundfunkanstalten, die (gebührenfinanzierte) Grundversorgung mit politischen und kulturellen Informationen und mit Bildungsinhalten zu liefern, ergibt sich angesichts allgemein zugänglicher digitaler Netze für diese Institutionen die Notwendigkeit, über eine Konsequenz nachzudenken: Der freie Zugang zu ihren Angeboten in den Netzen und Online-Diensten muß sichergestellt werden. Das bedeutet: Unconditional access zu den künftigen Angeboten des digitalen Rundfunks und Fernsehens und kostenfreier Netzzugang (Freenet) auch zum Internet und anderen schmalbandigen Netzen.[3]
Das Internet ist für die bereits über Inhalte und Produktionseinrichtungen verfügenden Anbieter aus dem Kreis der älteren Medien so interessant, weil sich hier Multimedialität, Interaktivität und die Benutzerakzeptanz verschiedener Formate erproben läßt. Die Akzeptanz von Angeboten im Bereich schmalbandiger Netze ist nicht nur ein Testfall, sondern eine Vorentscheidung für den künftigen Erfolg breitbandiger Angebote (Digitales Fernsehen und Multimediadienste).
Betrachten wir einmal das World Wide Web, die entwickeltste Erscheinung in den Computernetzen oder wenn Sie so wollen im Cyberspace. Das WWW ist in der Tat der Prototyp eines neuen, universalen, interaktiven Mediums. Gehen wir zunächst von den Eigenarten des WWW aus:
Der Benutzer entscheidet über die Zusammenstellung der Angebote, die auf seinem Bildschirm erscheinen. Es gibt bislang nur wenige gültige Aussagen darüber, welche Inhalte und welche Angebotsformen das größte Interesse wecken oder in irgendeiner Weise wirksam sind. Themenbereiche wie Wirtschaft, Sex, Sport entsprechen dem sozialstatistischen Profil der Internet-Benutzer jünger, männlicher, gebildeter und besser verdienend als der Durchschnitt. Ein Internet-Angebot wird aber nicht einfach dadurch erfolgreich, daß es vorgängig beliebte Themen bedient. Die Benutzerführung, das Angebot von Navigationsmöglichkeiten, ist ein entscheidender Faktor aber auch hier liegen noch zu wenig auswertbare Erfahrungen vor, um eine Aussage über eine wirksame und Bindungen schaffende Benutzerführung machen zu können.
Das WWW ist nicht nur in seiner Ausdehnung, sondern auch in seiner technischen Funktionsweise im Prinzip universal. Es funktioniert multimedial im Rahmen der jeweiligen, durch die Bandbreite der Datenübertragung gegebenen Bedingungen, die momentan noch großen Ein-schränkungen unterliegt.
Texte, Bilder und Grafiken, Animationen, Töne, bewegte Videobilder und Virtual-Reality-Techniken (der Benutzer steuert durch eine gefilmte andschaft oder durchschreitet ein Museum) werden mit den im Internet verfügbaren Multimedia-Techniken auf eine neue Art kombiniert.
Dieses für prinzipiell alle Medientechnologien offene Feld veranlaßt derzeit eine Reihe von Firmen und Institutionen zu umfangeichen Investitionen ins WWW wobei das WWW häufig gar nicht das Ziel ist, sondern das Mittel, das Testfeld für die Entwicklung multimedialer Techniken, die in künftigen breitbandigen Netzen realisiert werden sollen. Die strategischen Bündnisse des immer mehr zu einem Multimedia-Konzern mutierenden Software-Giganten Microsoft mit den Fernsehsendern NBC und ZDF sind lebendige Beispiele für diese Tendenz.
Soviel zur Produzentenseite der Entwicklung. Eine Schlußbemerkung noch zur Benutzerseite und damit auch zum Thema Kulturpolitik:
Die Kulturpolitik wird sich ebenso wie die Wirtschaftspolitik die Frage stellen müssen, ob sie die Beteiligung der Bürger an den neuen Netzen mit allen ihren Konsequenzen fördern sollte (durch Schaffung generell freier Zugänge für Einzelpersonen), um die Anzahl der Chancen und Wahlmöglichkeiten für die Bürger in Bezug auf ihr kulturelles und ihr wirtschaftliches Handeln zu vergrößern. Wenn die strukturelle Arbeitslosigkeit nur durch mehr Eigeninitiative aufgefangen werden kann, dann ist das Computernetz einer der geeigneten Orte, an dem sich diese Eigeninitiative entfalten könnte. Von der Jobbörse über Weiterbildungsangebote bis zur Telearbeit bietet das Netz viele neue Informations- und Handlungsmöglichkeiten. Die Schwellen, die den Zugang zu kulturellen oder berufsverwertbaren Anregungen in den Netzen behindern (z. B. PC-Anschaffung, Erwerb grundlegender Computerkenntnisse) , sollten möglichst nicht durch zusätzliche Abgaben an Provider und andere Steuereinnehmer erhöht werden.
Das in Bayern und teilweise auch in Nordrhein-Westfalen beschlossene und erprobte Modell von Bürgervereinen, die als Verbund regionaler und lokaler Einrichtungen Privatpersonen und kleinen Unternehmen solche freien Zugänge geschaffen haben, könnte ein Modell auch für kulturpolitisches Handeln sein. Nur der vernetzte Bürger kann aktiver Nutznießer der auf breiter Basis entstehenden weltweiten Informations- und Kulturangebote sein. Ebenso wichtig ist aber auch der regionale oder lokale Aspekt des Netzes: Der Erfolg von kommerziellen und kulturellen Initiativen in den Netzen setzt die unmittelbare Einbeziehung von Anbietern und Klienten gleichermaßen voraus. Die neuen Netze sind ein Modellfall für die These, daß Kulturpolitik auch Wirtschaftsförderung sei: Ist der kulturell motivierte Bürger aktiver Netzteilnehmer, dann ist er es auch als Wirtschaftssubjekt.
[1. ]Sigmund Freud, Entwurf einer Psychologie. In: Gesammelte Werke, Nachtragsband. Frankfurt am Main 1987, S. 391.
[2. ]Freud, Heisenberg, Noelle-Neumann und Shannon, das wären die Namen in diesem Zusammenhang. Die wissenschaftliche Unterschätzung Noelle-Neumanns geht einher mit einer wissenschaftlichen Unterschätzung der Demoskopie allgemein.
[3. ]Ein diskussionswürdiges Freenetmodell hat bereits 1995 die bayerische Staatsregierung unter dem Namen Bayern online vorgelegt.