Eeine ausführliche Begriffs- und Quellengeschichte soll hier unterbleiben. Ich möchte anhand historischer Beispiele in die Diskussion einiger wesentlicher aktueller Probleme einführen.
Ein Laut läßt sich nicht anhalten oder konservieren (außer mit technischen Hilfsmitteln). Ein Wort ist ein Ereignis. Wort und Ereignis haben im Hebräischen übrigens dieselbe Benennung.
Wie organisiert eine auf der Flüchtigkeit des Wortes basierende Kultur nun ihr Gedächtnis? Wie lassen sich komplexe Gedankengänge gegen die alles beherrschende Tendenz des Verklingens über die Zeit retten? Der erste und unabdingbare Faktor für die Aufbewahrung von Gedächtnisinhalten ist die Wiederholung im Gespräch, also die Kommunikation mit anderen. Damit man verlustfrei und ohne übermenschliche Mühe ins Gedächtnis zurückrufen kann, was man mit mühevoller Gedankenarbeit aneinandergereiht hat, müssen die Gedanken eine memorierbare Form haben.[2] Alle oralen Kulturen haben mnemonische Muster ausgebildet, die dazu dienen, Gedächtnisinhalte rhythmisch, in der Form von Satz und Gegensatz, in Formeln und Sprichwörtern, Aufzählungen, standardisierten Anordnungen (Versammlung, Festmahl, Zweikampf usw.) memorierbar zu machen und zu erhalten. Eine uns bekannte rhythmische Formel ist zum Beispiel: Wer andern eine Grube gräbt, fällt selbst hinein.
Der Zwang zum Memorieren legt in den oralen Gesellschaften die gesamte intellektuelle Organisation von Erfahrung fest und damit wesentliche Anteile des Mensch-Seins. Redundanz und die Bestätigung des Immergleichen ist gefragt, nicht Innovation, Originalität oder Vielfalt.
Die Organisation memorierbarer Gedanken wurde in der Antike in Form der ars memoria, der Gedächtniskunst, sehr weit ausgebildet. Die Gedächtniskunst ist eine Art inneres Schreiben und Bildererzeugen. Sie basiert auf Selbstdisziplin und unermüdlichem Training. Schon in der Antike gab es gegen diese Gedächtnisübungen Einwände, die uns durchaus vertraut vorkommen: All diese Orte und Bilder, die jemand zu memorieren sich bemüht, deckten das Wenige, was man auf spontan im Gedächtnis behält, unter einem Schutthaufen künstlicher Bilder zu, behaupten diese Einwände die nie bewiesen werden konnten, ebenso wenig wie zum Beispiel die moderne Behauptung des verdummende Einflusses regelmäßigen ausgiebigen Fernsehens.
Der Übergang zu einer von Schriftlichkeit bestimmten Kultur fand nicht ohne Kämpfe statt. Plato beispielsweise wollte die schreibenden Poeten und Politiker aus seinem (von ihm ersonnenen, idealen) Staat weisen. Er argumentiert folgendermaßen:
(Die Schrift) wird Vergessenheit in den Seelen derer schaffen, die sie lernen, durch Vernachlässigung des Gedächtnisses, aus Vertrauen auf die Schrift werden sie von außen durch fremde Gebilde, nicht von innen aus Eigenem sich erinnern lassen. ... Von der Weisheit ... verabreichst du ... nur den Schein, nicht die Wahrheit ...[3]
Diese Klage Platos über den Einbruch der Schriftlichkeit in eine von mündlicher Kommunikation bestimmte Kultur wurde schriftlich verfaßt und verbreitet; so wie wir heute die Weizenbaums und Postmans mit ihren allfälligen Klagen über die Auslieferung der menschlichen Seele an den Moloch Technik als häufige Gäste in Fernsehtalkshows und mit Homepages im World Wide Web erleben können.
Das Schriftzeichen entlastet das kollektive Gedächtnis: Woran man sich nicht permanent erinnern will, das schreibt man auf, deponiert es auf Steinen, Tonscherben, Tierhäuten oder Papyri; etwas aufzuschreiben, ist eine schonende, weil nur als vorläufig empfundene und wiedergutzumachende Methode des Beiseitestellens, Abschiebens und Vergessens.
Die Schriftkultur ist gekennzeichnet durch einen Mobilitätsgewinn: sie kann auf den engen gesellschaftlichen Zusammenhang von Redenden und Zuhörenden verzichten. Die Schreibenden entwickeln sich zu willensmächtigen, allerdings streng disziplinierten und isolierten Subjekten. Die Produkte ihres Schreibens zeichnen sich aus durch Präzision, Anpassungsfähigkeit und Originalität. Erst das Schreiben kann komplizierte analytisch-planerische Prozesse adäquat wiedergeben. Es bewirkt daher einen Aufschwung der Ökonomie und des Wissenschaftsbetriebs. Die schriftliche Äußerung schließt die Anwesenheit des Lesers eher aus als ein, sie ist getrennt vom Gegenstand, von der Lebenswelt und vom Schreibenden selbst. Abstraktion und Objektivität werden gefördert.
Die schnelle und billige Vervielfältigung von Büchern und die Standardisierung von Texten machten das auf der Welt vorhandene Wissen im 15. und 16. Jahrhundert überall verfügbar. Nicht nur Bibeln und religiöse und kanonische Texte wurden gedruckt, sondern alle erhaltenen Texte der philosophischen und naturwissenschaftlichen Tradition. Darüber hinaus entstanden praktische Anleitungen für gewerbliche Disziplinen, die auf diese Weise ihre Standards vor-geschrieben bekamen. Die Handelszentren zudem n einen hohen Bedarf an normgerechten schriftlichen Materialien Rechnungen, Verträge, Ablaßzettel, täglich veränderte Verordnungen.
Die Gutenberg-Wende in der Schriftkultur war die Voraussetzung für die Wirksamkeit der kopernikanischen. Sie diente nicht nur den Wissenschaften mit der Zusammenfassung allen bekannten Wissens, sondern gab darüber hinaus den Anstoß für neue Wissenschaftszweige, z. B. die Botanik, deren Pflanzendarstellung der Buchdruck jetzt Eindeutigkeit und Genauigkeit abverlangte, während sie bislang durch die künstlerische Willkür und Beliebigkeit der Zeichner und Maler geprägt war.
Für manche war der Buchdruck ein göttliches Geschenk, mit Sicherheit jedoch war er die Voraussetzung für den Beginn der Aufklärung. Er war aber auch Anlaß zu Zensur, zur Menschenverbrennung (Giordano Bruno, 1600) oder zumindest zur Klage über die Unverdaulichkeit großer Lektüremengen. Viele Gelehrte waren zudem besorgt, weil nun jeder Tölpel aus den Wörterbüchern und Lexika sein Wissen sich zusammenklauben, kompilieren und für sein eigenes ausgeben könnte.
Diese Bedenken wurden selbstverständlich kurz nach der typographischen Wende in gedruckter Form verbreitet.
Das gedruckte Buch erst wurde zum universalen externen Gedächtnis der Menschheit. Nicht nur in dem Sinne, daß alles verfügbare Wissen gedruckt wurde, sondern auch in dem, daß jeder Wissensbestandteil nun mit Titel, Auflage, Band und Seitenzahl weltweit eindeutig referenzierbar wurde. Das Buch verweist auf die Bibliothek wie heute der einzelne Computer auf das Netz.
Eine starke Persönlichkeit, man könnte sage, ein heroisches Subjekt wie Graf Dracula, der infolge einer vor 400 Jahren geschehenen Kränkung schon eine endlose Reihe von Untoten erzeugt hat und nun London verseuchen will, kann unter den dort um 1890 herrschenden medialen Bedingungen sein Werk nicht fortsetzen. Seine Gegenspieler sind: Ein Psychiater, der durch die Hypnose des letzten von Dracula erkorenen Opfers entscheidende Aufschlüsse über dessen Aufenthaltsort erfährt (Stoker kannte unter anderem Freuds der Hypnosebehandlung gewidmeten Aufsatz Über den psychischen Mechanismus hysterischer Phänomene, 1893). Weiterhin ein Arzt, der sich dem Kokain und der Verzweiflung über den Verlust einer geliebten Person nicht so weit hingibt, daß er es versäumte, seinem Phonographen penible Protokolle über seine klinischen Beobachtungen anzuvertrauen. Schließlich eine angehende Journalistin, die diese Protokolle und anderes Material in einer Anzahl von Kopien auf der Schreibmaschine abtippt (Dracula vernichtet ein Exemplar und bemerkt dann, daß er gegen die Vervielfältigung machtlos ist). Eine Unzahl brieflicher, telephonischer und telegraphischer Verständigungen legt über die Existenz des transsilvanischen Grafen in London ein so dichtes Netz, daß ihm nur noch die Flucht zurück in die Heimat bleibt. Seine Verfolger holen ihn durch die Benutzung der Eisenbahn aber noch rechtzeitig zum Showdown in seinem Schloßhof ein. So schildert Bram Stoker in seinem Roman, der formal ein aus Medienprotokollen bestehendes Dossier bildet, die Medienlandschaft vor gut einhundert Jahren. Die technischen Speicher und die technischen Übertragungswege sind den übermenschlichen Kräften des ehemaligen Kreuzritters Dracula überlegen, er muß unter diesen Bedingungen zugrundegehen und mit ihm die Illusion der Besonderheit und der Überlegenheit einzelner Individuen.
Wenige Jahre nach der erfolgreichen Vertreibung Draculas aus der Medienmetropole London vollzog Sigmund Freud bei der Analyse des psychischen Apparats die Atomspaltung des Subjekts und wies dem Ich eine nur noch bescheidene Rolle an der Oberfläche des psychischen Geschehens zu, das wesentliche Steuerungsvorgänge dem Unbewußten überlassen muß.
Der Computer in seiner heute erreichten entwickelten Form ist gleichzeitig Speicher- und Übertragungsmedium. Erste Konzepte einer programmgesteuerten und mit einem Speicher ausgerüsteten Rechenmaschine entwarf Charles Babbage Mitte des 19. Jahrhunderts.
Alan Turing ersann 1937 das Modell der Turing-Maschine, eines Universal-Rechners, der die in programmierbare Logik umsetzbaren Aufgaben aller anderen Maschinen übernehmen konnte. Er formulierte 1950 den berühmten Turing-Test: Kann eine Maschine Äußerungen hervorbringen, die, stammten sie von einem Menschen, als Zeichen von Intelligenz angesehen werden? Diesen Test bestanden im Rahmen der maschinenverständlichen Formulierungsmöglichkeiten intelligenter Fragen seither die Maschinen problemlos. Turing stellte dadurch den Menschen als Symbolverarbeitungssystem auf die gleiche Stufe mit der Maschine und bringt damit diejenigen, die die Besonderheit des Menschseins behaupten, in Bedrängnis.
John von Neumann übersetzte das Modell der Turing-Maschine 1944 in die Architektur des Computers, der seine Programme und Daten in einen Arbeitsspeicher lädt und dessen Programmbefehle sequentiell abgearbeitet werden. Turing selbst war im Zweiten Weltkrieg am britischen Colossus-Computer mit der Entschlüsselung der mit dem Enigma-Apparat verschlüsselten deutschen Wehrmachts-Funksprüche beschäftigt. Die erste Colossus war 1943 betriebsbereit, ein gewaltiger Apparat mit 1500 Elektronenröhren. Die Entschlüsselungsarbeit war so erfolgreich, daß die britische Armee gelegentlich absichtlich die Bombardierung von Städten durch die deutsche Luftwaffe hinnahm, ohne das Feuer zu erwidern, um Überraschung vorzutäuschen. Von Neumann entwickelte während des Krieges mit John Eckart und John Mauchly das Konzept des ENIAC, mit dem Schockwellen-Berechnungen für die Zündung von Wasserstoffbomben ausgeführt wurden.
Colossus und ENIAC waren keineswegs als Universalmaschinen konzipiert, ganz im Gegenteil. Durch eine Reihe von Basteleien und Umwidmungen ergab sich aus ihnen aber schrittweise das Konzept des universell einsetzbaren Rechners, der heute z. B. als PC millionenfach auf der ganzen Welt verbreitet ist.
Medienhistorisch bringt das Computernetz die Auflösung der Schranken von Zeit und Raum einen entscheidenden Schritt voran. Es gibt keinen Vorgang auf der Welt mehr (sofern er an irgendeiner Stelle als Input das Netz erreicht), der nicht an jeder anderen Stelle in Echtzeit abgerufen werden kann. Alles, was jemals in diesem Netz abgelegt wurde, ist nicht mehr zurückrufbar und hat an einer oder mehreren Stellen einen quasi ewigen Bestand. Eine beängstigende Perspektive: das Rauschen nicht mehr verarbeitbarer Informationen nimmt rapide zu.
Das eigentliche Angebot des Internet, in Gestalt des World Wide Web (nicht zufällig eine Entwicklung des Spitzentechnologie-Forschungsinstituts CERN) liegt allerdings derzeit noch in der Ermöglichung von Spezialisierung. Das WWW stellt eine Reihe brauchbarer und präziser Such- und Auswahlwerkzeuge zur Verfügung, die das Auffinden von Details, das Hineinbohren in eine spezielle Sache und das immer wieder neue Wenden von Fragen ermöglichen. Wer also noch ein Thema hat und nicht das Surfen zum Selbstzweck erhebt, kann sich stunden- und tagelang mit Material versorgen lassen, Diskussionen anzetteln und begleiten oder in vielfältiger Form Marktbeziehungen aufnehmen. Insofern ist McLuhans globales Dorf Realität geworden.
Die Aufzeichnungen der technischen Medien können von Menschen nicht mehr unmittelbar gelesen werden. Ein Programmierer, der das von ihm geschriebene Programm so vorgelegt bekäme, wie die Maschine es liest, würde es nicht mehr erkennen. Technische Medien kommunizieren ihre Informationen nicht direkt mit uns, sondern nur über ein Interface. Eine Mensch-Maschine-Kommunikation gelingt dann, wenn ein Mensch eine bereits existierende technische Realisation adäquat nachvollzieht.
Die digitalen Medien verarbeiten nicht nur aus Verstandesleistungen gewonnene Daten, sondern auch menschliche Sinnesleistungen, also zum Beispiel visuelle und auditive Wahrnehmungen, und verwischen damit auch die bislang sorgsam behaupteten und gehüteten Grenzen zwischen Verstand und Gefühl, Konstruktion und Kreation. Computer beenden konsequent unsere Vorstellungen über die Natur von Einfällen, Erfindungen oder Geistesblitzen. Sie erweisen sich als leistungsfähige Produzenten von Einfällen, indem sie Vorhandenes kombinieren und schnelle Verknüpfungen herstellen. Sie modulieren dabei auch die Haltungen ihrer Benutzer: Die stille Freude an der kontemplativen Betrachtung wendet sich in den puren Spaß am Mit-Machen.
In der Kommunikation, von der zum Beispiel das allgemein akzeptierte technische Kommunikationsmodell Claude E. Shannons handelt, kommen Menschen überhaupt nicht vor. Medien erfüllen keine Kommunikationsanforderungen, die vor ihnen und unabhängig von ihnen bestanden haben, sondern erzeugen höchstens die Vorgaben für diese Anforderungen. Weil etwas technisch machbar war, so lehrte uns die Geschichte unserer Medien, entstand auch das Bedürfnis, es zu machen: telephonieren, Schallplatten hören, Videokonferenzen abhalten.
Man schätzt, daß in Deutschland bereits heute rd. 300 Mio DM im Multimedia-Service-Bereich umgesetzt werden und rechnet bis zum Jahr 2000 mit einer Steigerung auf 7 Mrd DM. Der Anteil der Telekommunikation am Bruttosozialprodukt soll sich bis zum Jahr 2000 verdoppeln, die Telekommunikation die Automobilindustrie in ihrer volkswirtschaftlichen Führungsrolle klar ablösen.
Multimediadienste sind z. B.
Neue interaktive Dienste werden dem Zuschauer eine aktivere Rolle als bisher ermöglichen. Durch Zusatzgerät, die sog. Set-top-box, bekommt der Konsument neben dem Datenkanal (mit der Bild- und Toninformation für den Fernseher) auch einen Rückkanal zur Verfügung gestellt. Die Bandbreite des Datenkanals zum Empfänger über den normalen Telefonanschluß kann über kurze Entfernungen (bis ca. 3 km) bis zu 1,5 Mbit/s betragen, der Rückkanal kommt mit wenigen Kbit/s aus (daher die Bezeichnung Asymmetrical Digital Subscriber Line ADSL).
Durch Digitalisierung des TV-Kabelnetzes und durch Datenkompression ist eine immense Erweiterung der vorhandenen Übertragungskapazitäten möglich. Derzeit wird im Breitbandkabel-Netz lediglich ein Übertragungsbereich von 300 MHz für die Verteilung der analogen Rundfunk- und Fernsehprogramme genutzt. Der Bereich zwischen 300 und 540 MHz, das Hyperband, wird derzeit für weitere Kanäle zur analogen und digitalen Übertragung aufbereitet, so daß in diesem Frequenzbereich künftig bis zu 180 Programme übertragen werden können.
Die Kombination von Glasfaser- und Koax-Netz eröffnet eine kostengünstige Möglichkeit, zumindest für die am BK-Netz angeschlossenen Rundfunk- und Fernsehteilnehmer die Leitungswege für eine Versorgung mit komplexen Multimedia-Anwendungen wie Video-on-demand anzubieten.
Während in Deutschland heute ca. 13 Mio. PCs installiert sein dürften, davon ca. 6 Mio. in Privathaushalten, die mit geringstem finanziellem Aufwand für die Telekommunikation eingesetzt werden können, werden digitale Fernsehempfänger und multimedia-fähige Set-top-Boxen zur Zeit erst gerade in Pilotprojekten getestet. Für PCs erwarten Experten bis zum Jahr 2000 eine Marktdurchdringung von etwa 40 % aller Privathaushalte in Deutschland. So dürfte kurz- und mittelfristig der PC auch für den Privathaushalt das am weitesten verbreitete und ideale Endgerät für die moderne Telekommunikation darstellen. Angesichts der stetig sinkenden Hardware-Preise könnten allerdings auch Kombinations-Geräte, gerade im Hinblick auf die Nutzung des hybriden Breitbandkabel-Netzes, eine gute Chance haben.
In Deutschland gibt es zwar seit Jahren viele gute Worte zur Bedeutung des Zukunftsmarktes Multimedia, sieht man jedoch genauer hin, so gibt es eine ganze Reihe gravierender Hindernisse, die der Entwicklung zukunftssicherer Perspektiven für Unternehmen im Wege stehen.
Zum einen ist die Postreform III, also das Ende des Monopols für den sprachübermittelnden Telefondienst, nicht gleichbedeutend mit dem Ende der marktbehindernden Rolle der TELEKOM und ihrer Normen- und Preispolitik. Eine größere Bandbreite ist bei den derzeitigen Netzen nur in Stufen von 128 KB/s (zwei B-Kanäle ISDN), 2 MB/s, 34 MB/s und 155 MB/s möglich, und das alles zu horrenden Preisen. Es wird auch ab dem 1. Januar 1998 eine gewisse Zeit dauern, bis die längst realisierbaren Medientechnologien der Multimedia-Anbieter ihre kommerziellen und privaten Kunden auch zu erträglichen Preisen erreichen.
Zum anderen gibt es eine Verfassungshürde, die gerade in den letzten Tagen wieder in die medienpolitische Diskussion geraten ist: Das vom Bundesforschungsminister angekündigte Multimedia-Gesetz soll die Entwicklung der Telekommunikationswirtschaft fördern, wobei Regelungen nur in den Bereichen Verbraucherschutz, Jugendschutz, Urheberrecht und Datenschutz vorgesehen sind ansonsten müsse es genügen, wenn sich ein Online-Anbieter einen Gewerbeschein hole (so Minister Rüttgers). Auf der anderen Seite reklamieren die Bundesländer ihre Kulturhoheit und die in Staatsverträgen mit der Grundversorgung mit Information, Kultur und Unterhaltung beauftragten öffentlich-rechtlichen Rundfunkanstalten die Festsetzung von Zulassungsvoraussetzungen für ihre künftige Konkurrenz. Um diesen Standpunkt in der Öffentlichkeit attraktiv zu machen - immerhin haben die öffentlich-rechtlichen Rundfunkanstalten neben ihren rechtlichen Privilegien auch noch die Ermächtigung zum Einzug von Gebühren müssen sich ARD und ZDF schon noch etwas einfallen lassen. Meine These ist: Genau das werden sie auch tun. Eine erste Andeutung ist in einem Zeitungsbeitrag des Intendanten des Westdeutschen Rundfunks zu finden, der dort unter anderem verlangt: den diskriminierungsfreien Zugang aller Veranstalter zu den Netzen, die faire Darstellung aller Programme über die elektronische Benutzerführung und die Sicherung des Zugangs aller Bürger zu den Netzen als Ausdruck ihres Grundrechts auf Information[8].
Dieser letzte Punkt ist besonders interessant: Wie wollen die Rundfunkanstalten den Bürgern den Zugang zu den Netzen sichern? Eine, tatsächlich nicht besonders unrealistische Lösung wäre, daß die ARD, vielleicht im Verbund mit den jeweiligen Landesregierungen, als Freenet-Provider auftritt. Alle Bürger könnten sich gratis, zum Ortstarif oder gar über eine gebührenfreie Telefonnummer, Zugang zu den Angeboten der Rundfunkanstalten und der Behörden verschaffen und hätten als Nebeneffekt damit auch den Zutritt ins Internet.
Wie wenig realitätsfern dieser Gedanke ist, zeigt das Planungspapier der Bayerischen Landesregierung, das unter dem Titel Bayern Online seit Mitte 1995 im Internet verfügbar ist und die feste Absicht ausdrückt, binnen weniger Jahre allen bayerischen Bürgern den freien Zugang zum Bayernnetz (und damit zum Internet) zu schaffen. Verbunden damit ist ein systematischer und ökonomisch durchdachter Aufbau von Hochgeschwindigkeitsnetzen im ganzen Land unter weitgehendem Ausschluß der TELEKOM zumindest in ihrer derzeitigen Verfassung. Ich kann Ihnen wirklich nur empfehlen, sich dieses erstaunliche Papier, das mit dem Konterfei des bayerischen Ministerpräsidenten versehen ist, im Internet unter www.bayern.de einmal anzusehen.
Diese Aussagen sind nach meiner Überzeugung allesamt haltlos. Das Hauptproblem für einen kommerziellen Erfolg im Internet liegt in der Erzeugung und Präsentation eines für das WWW geeigneten Angebots. Die Übertragung von Strategien aus dem in anderen Medien erprobten Marketing auf das World Wide Web schlägt systematisch fehl. Zum Beispiel die sogenannte Bandenwerbung, also Werbung in einer Kopfleiste über dem inhaltlichen Angebot oder die auch aus Zeitschriften bekannte Anordnung: zwei Spalten Text, eine Spalte Werbung. Die Benutzer können und viele tun das auch jederzeit in ihrem Browser die Anzeige von Bildern unterbinden. Viele Benutzer haben das Gefühl, daß ihnen durch die langsam aufbauenden Bilder nur die Zeit gestohlen wird, zumal die Werbeinformation meist keinen inhaltlichen Nutzen hat. Etwas anderes ist es mit Sponsorings. Eine Tabakfirma sponsort beispielsweise eine Studienplatz-Tauschbörse, eine Bank lädt Jugendliche zu einem Ideenwettbewerb für multimediale Spiele ein usw. Oder eine Firma zieht durch eine multimediale Kundenzeitschrift allgemeinkulturellen Inhalts die Aufmerksamkeit auf sich, wie eine große amerikanische Getränkefirma.
Es gibt selbstverständlich, wenn auch noch viel zu wenig, erfolgreiche Verkaufsangebote im Internet: Antiquariate, Elektronikteileversandfirmen, Immobilienmakler und Autohändler präsentieren überschaubare und perfekt durchsuchbare Datenbanken. Auch elektronische Anforderungsformulare für gedruckte Kataloge und ähnliches sind erfolgreich und beliebt. Problematisch in ihrer Akzeptanz sind vor allem die puren Werbeeinblendungen, die sich zudem im Internet auch noch durch äußerste Witzlosigkeit auszeichnen, sie sind meist nur Wiedergaben von Allerweltslogos ohne Web-spezifische Zutaten.
Ich will meine Bewertungen hier nicht weiterführen, sondern zum Schluß meines Beitrag einige knappe Thesen zur Zukunft multimedialer Veranstaltungen formulieren.
2. In dem Maße, in dem preislich konkurrenzfähige multimediale Angebote für Konsumenten online nutzbar sind, werden sich Videoshops und CD-ROM-Hersteller neu orientieren müssen. Die Videoshops, in denen Cassetten ausgeliehen werden, haben kaum noch eine Perspektive, die CD-ROM-Hersteller können allmählich auf Netzangebote umschwenken. (Wobei es natürlich recht viele Angebote gibt, bei denen die Verfügung über einen Datenträger sinnvoll bleibt).
3. Bei den kommerziellen Angeboten im World Wide Web wird es viel Bewegung geben. Entscheidend für Erfolg und Mißerfolg sind die für das Web geeigneten Inhalte. Die Pioniererfahrungen wagemutiger Anbieter werden Überlegungen auch bei anderen freisetzen, wie wir es derzeit bei der CD-ROM erleben: Nicht alles, was in ein Buch gehört, gehört auch auf eine CD-ROM, und umgekehrt.
4. Die Potentiale der verschiedenen Arten von Internet-Providern sind sehr unterschiedlich einzuschätzen: Reine Access-Provider haben angesichts der nicht nur von alternativen Kreisen, sondern auch von machtvollen Institutionen präferierten Freenet-Idee vermutlich überhaupt keine Überlebenschancen. Für Service-Provider aller Art (Warenhäuser à la AOL oder Spezialisten für besonders pfiffige Dinge, sagen wir: Live-Video-Angebote) wird es weitere Entfaltungsmöglichkeiten geben. Der größte und turbulenteste Markt wird allerdings der der Content-Provider sein.
5. Die derzeitigen deutschen WWW-Angebote kranken eindeutig an einer Unterprofessionalisierung. Sogar die Angebote größerer Firmen und Einrichtungen werden häufig von Amateuren mit einem gewissen Maß an HTML-Kenntnissen gestaltet. Professionelle Konzepte für die Struktur und das Design von Webseiten sind Mangelware. Es gibt bislang auch nur ganz wenige Einrichtungen, in denen eine Ausbildung von Redakteuren, Designern, Grafikern und Layoutern für Webseiten möglich ist. Der Erfolg von Webseiten hängt von ihrer Benutzerfreundlichkeit ab. Benutzerfreundlichkeit ist ein Produkt von Ergonomie und Ästhetik. Diese Positionen werden sich auch bei Auftraggebern, also Betreibern von Webseiten durchsetzen, wenn sich das erste Fieber des Dabeiseinwollens im Internet gelegt hat.
Ursprünglich vorgetragen auf einer Veranstaltung der Multimedia-Entwicklungsfirma Trinon am 8. Mai 1996 in Frankfurt am Main.