Ein Portrait von Hermann Rotermund
Sprecherin (für die wissenschaftlichen Erkenntnisse)
Sprecher (für die biografische Entwicklung)
Zitator
18 O-Ton-Einspielungen
Musik von Jean-Claude Risset: Flight and Countdown
(4’27) in Ausschnitten – produziert in den Bell Laboratories, 1968
[von: Jean-Claude Risset, Music with Computers, Wergo WER 2013-50, P 1988, Cut
4]
Musik: Track 15 (Risset, Flight and
Countdown) ca. 1:28-1:53 (oder
nur bis 1:48, oder noch früher ausblenden, kurzes Fade in – Fade
out)
Sprecherin
Kopf oder Zahl? – Wenn wir eine Münze werfen, um eine Entscheidung zwischen zwei Wahlmöglichkeiten herbeizuführen, so ist bei jedem Wurf die Wahrscheinlichkeit, Kopf oder Zahl zu erhalten, gleich groß. Das Münzenwerfen ergibt eine Informationsmenge von genau einem Bit pro Wurf.
Ansage:
Claude E. Shannon – die
Atome der Information. Ein Sendung von Hermann Rotermund.
Sprecher:
Binary Digit, kurz Bit. Claude E. Shannon, der Begründer der modernen Informationstheorie hat diesen Begriff Bit als Maß für die Information in die Wissenschaft eingeführt.
Sprecherin:
Wir können die Ergebnisse mit den Zahlen ”0” und ”1” verschlüsseln – ”0” steht für ”Zahl” und ”1” für ”Kopf”. Wenn wir nun statt der Münze einen Würfel nehmen, erhöhen wir das Informationsmaß beträchtlich, da nicht eine von zwei, sondern eine von sechs möglichen Nachrichten herauskommen kann. Die Informationsrate eines Würfels beträgt nach Shannon 2,58 Bit pro Wurf, das ist der Logarithmus aus 6.
Musik: Track 15, ca. 1:48-2:00
Sprecher:
Claude Elwood Shannon, geboren in Petoskey im amerikanischen Bundesstaat Michigan am 30. April 1916. Sein Vater war ein technikinteressierter Richter, seine Mutter Schulrektorin.
Einspielung 1: Shannon, 0:34
As a young boy …
Zitator (Voice over, Abblenden der Einspielung)
Als kleiner Junge hatte ich
Baukästen für Mechanik und Elektrotechnik. Ich baute Radios und
– soweit ich mich erinnere – hatte ich auch ein Boot mit
Funksteuerung. Ich mochte auch die Mathematik, in ihren einfachen Formen in der
Schule.
Sprecher
Claude Shannon in einem Interview,
das er dem deutschen Doktoranden Friedrich-Wilhelm Hagemeyer im Jahr 1977 gab.
– Nach dem Schulabschluß studierte er an der Universität von
Michigan Elektrotechnik und Mathematik und machte in beiden Fächern 1936
das erste Examen. Er las dann die Ausschreibung einer Stelle als
Forschungsassistent in Cambridge, am berühmten Massachusetts Institute for
Technology – M.I.T. Es ging
dabei vor allem um die Betreuung eines analogen Rechenautomaten, des
”Differential Analyzer”. Dieser Rechenautomat war zur Lösung
von Differentialgleichungen entwickelt worden. Mit solchen Gleichungen lassen
sich viele Naturvorgänge und Gesetze der Physik beschreiben.
Einspielung 2: Shannon, 0:30
I had studied a little bit
formal symbolic logic …
Zitator (Voice over, Abblenden der Einspielung)
Ich hatte etwas mathematische Logik studiert und bemerkte, daß sich die formale Logik so wundervoll auf die Relaisschaltkreise anwenden ließ, die alle symbolisch-logisch funktionieren. Danach habe ich versucht, die Logik der Booleschen Algebra auf Relais und Schaltkreise anzuwenden. Das hat mich zu meinen späteren Forschungen gebracht.
Sprecherin
Den Entwicklungsingenieuren der
damaligen Rechenmaschinen war die mathematische Denkweise unvertraut. Sie
gruppierten ihre Schalter auf eine sehr umständliche Weise, um bestimmte
Verbindungen herzustellen. Unter Shannon wurden die Schaltvorgänge nach
mathematischen Regeln umgesetzt. Die Folge waren effektivere Entwürfe.
Schließlich konnte die Leiterplattenherstellung automatisiert werden.
Einspielung 3: Hagemeyer, 1:06
Wenn man zu Shannon in diesem Zusammenhang kommt, Shannon hatte bei Vannevar Bush am MIT immer mitgearbeitet an dem berühmten ”Differential Analyzer”. Der ”Differential Analyzer” war eine Maschine, die den Weg zum General-Purpose-Computer auf analogem Weg versuchte, also mit Potentiometern und allen möglichen analogen Wegen, auch mechanisch, wenn ich da ... So, und dieser ”Differential Analyzer” hatte ganze Relaisnetzwerke, die seiner Programmierung dienten, und diese Relaisnetzwerke des Analyzers gingen laufend kaputt. Und das war einer der Hintergründe für Shannons Arbeit, die später relativ berühmt geworden ist, wie ”how to construct reliable mechanisms from unreliable components”, also wie kann man aus unzuverlässigen Komponenten zuverlässige Gesamtsysteme konstruieren.
Sprecher
Friedrich-Wilhelm Hagemeyer, der Shannon-Interviewpartner von 1977, mehr als 20 Jahre später. – So um 1940, nach seiner Magisterarbeit, begann Shannon bereits in der Nachrichtentechnik seine theoretischen Erkenntnisse zu verallgemeinern. In einem Brief an Vannevar Bush, seinen Doktorvater und späteren Vorgesetzten in den Bell Laboratorien schrieb er:
Zitator
Hin und wieder habe ich Systeme zur Nachrichtenübertragung wie Telefonie, Radio, Fernsehen, Telegraphie auf ihre grundlegenden Eigenschaften hin analysiert.
Sprecherin
Bemerkenswert ist, daß Shannon zu dieser Zeit noch nicht das englische Wort ”information” zur Bezeichnung von Nachrichten verwendete, sondern das Wort ”intelligence”, das im Amerikanischen beispielsweise auch in der allseits bekannten Central Intelligence Agency – CIA – fortlebt. Allerdings hatte der Physiker Hartley schon 1928 den Begriff ”information” in die Nachrichtentechnik eingeschmuggelt. Hagemeyer merkt zu Hartley an:
Einspielung 4, Hagemeyer, 0:48
Mir ist es gelungen, herauszukriegen, daß er sich in seinem philosophischen Anspruch für den Begriff Information, den Begriff Information mit der Telegrafie zusammenzubringen, im Gespräch mit Kollegen zu der Zeit auf Charles Sanders Peirce, also einen Philosophen, berufen hatte, der eine vage Informationsdefinition in sein Werk gebracht hatte, die eine vage Ähnlichkeit hat mit dem, was Hartley da nannte. Zu der Zeit nannte man das, also den Nachrichteninhalt, der mit der Telegrafie übertragen wurde, in den USA allgemein ”Intelligence”. Also ”Intelligence” war eigentlich der Nachrichtenbegriff, ”Information” gab’s gar nicht, diesen Begriff.
Musik: Track 15, ca. 1:55-2:00
Sprecher
Shannons Arbeit über Relais
und Schaltkreise wurde später als ”bedeutendste Magisterarbeit des
20. Jahrhunderts” bezeichnet. 1940 lieferte Shannon seine Doktorarbeit ab
auf einem mathematisch bis dahin weitgehend unerschlossenen Feld an, dem der
Genetik. Die Arbeit blieb Genetikern allerdings jahrzehntelang unbekannt.
Shannons Mentor und Förderer in all den Jahren war Vannever Bush.
Musik: Track 15, ca. 3:41-4:08
Einspielung 5: Hagemeyer,
1:08
Ja, Vannevar Bush war eine entscheidende Figur und war Chef des
NDRC, des National Defence Research Committee, d. h. auch Berater der
jeweiligen Präsidenten, und er war durch die gemeinsame Tätigkeit an
dem ”Differential Analyzer”, den Vannevar Bush erfunden und
entwickelt hatte, Mentor von Shannon. Er war also der, ja, kann man sagen, der
Pate von Shannon, der auch die Empfehlungen über die Themen gab, zu denen
sich Shannon doch widmen könnte. Das war einmal diese theoretische
Genetik, also Algebra für eine theoretische Genetik, und vor dem Krieg war
Shannon dann anschließend am Institute of Advanced Studies in Princeton
zu einer Zeit, als Gödel und von Neumann und Einstein und alle
möglichen Leute da waren, und war dann, als der Krieg ausbrach, wurde er
von Vannevar Bush auch motiviert, sich den kriegswichtigen Themen zu widmen.
Sprecher
Vannevar Bush war inzwischen – es ist das Jahr 1941 – Forschungs-Organisator in den Bell Labs des AT&T-Konzern und wurde zum wichtigsten Manager der amerikanischen Kriegsforschung. Vannevar Bush ist heute vielen als einer der Propheten des Internet bekannt. Denn er hat 1945 in einem Zeitschriftenartikel das Gedankenmodell eines mikrofilm-basierten Systems zur universalen Wissensverwaltung entworfen – das sogenannte ”Memex” -, das in seinen Eigenschaften dem World Wide Web schon recht ähnlich ist. – Shannon folgte erneut dem Ruf von Vannevar Bush und beschäftigte sich während des Krieges mit zwei Problemfeldern, der Kryptographie, also der Verschlüsselungstechnik und der Feuerleitkontrolle.
Einspielung 6: Hagemeyer, 1:42
Ein ballistischer Kurvenverlauf, den die da zu berechnen hatten, Kombination der Variablen aus den entsprechenden Kanonentypen, Munition usw., benötigte 750 Multiplikationen, um hinreichend bestimmt zu sein. Dafür wurden Leute eingesetzt, die mit ’ner Tischrechenmaschine 12 Stunden brauchten. So. Der analoge Differential-Analysator und die digitalen ersten Rechner, Relais-Rechner, die eingesetzt wurden, die brauchten dafür 10 bis 20 Minuten. Eine typische Feuerleittabelle brauchte zwischen 2.000 bis 4.000 derartiger Bahnverläufe. Das muß man sich mal vorstellen zu der Zeit, als es also noch manuell gemacht wurde. Im August 44 waren bei der entsprechenden Zentrale der US-Streitkräfte für ballistische Berechnungen, die war in Aberdeen und in Philadelphia, Ballistic Research Laboratory, 15 solche Tabellen fertiggestellt, weitere 74 waren in Arbeit und täglich gingen Anforderungen nach 6 weiteren Tabellen ein. Neue entwickelte Artillerie können nicht eher in Betrieb genommen werden, ehe nicht die ballistischen Eigenschaften getestet, die Kennwerte berechnet und solche Tabellen zusammengestellt waren. Man hatte 44 in diesem Ballistic Research Laboratory 176 Computers, also Menschen, Computoren, beschäftigt, die diese Berechnungen machten. Dann waren 10 solche analogen Differential-Analysatoren, wahre Höllenmaschinen, also in Aberdeen, und 14 in Philadelphia installiert.
Musik: Track 15, ca. 4:08-4:20
Sprecherin
Die wesentlichen technischen Entwicklungen des Zweiten Weltkriegs: Radar und Funktechnik, Computer, Atombombe und Raketentechnik sind ohne einander nicht vorstellbar. Der ingenieurstechnische Entwurf basierte nicht nur auf den neuesten Erkenntnissen der Physik, sondern immer auch auf neuen mathematischen Verfahren, die physikalische Vorgänge in Mengen ausdrückbar und berechenbar machten. Diese Reduktion von Vorgängen auf meßbare, statistisch berechenbare Zahlenwerte, umschreiben wir heute mit dem Begriff Digitalisierung.
Sprecher
Shannon arbeitete in den Kriegsjahren den größten Teil seiner Zeit in der kryptologischen Abteilung der Bell Labs. Mit seinen Arbeiten um 1940 der mit seinen Arbeiten um 1940 bereitete er die Digitalisierung der fortgeschrittensten Technologien vor. In den Bell Labs gab es ein ”Project X”, das der Verschlüsselung von digitalisierten Nachrichten gewidmet war. Die Quintessenz aus seinen kryptologischen Forschungen zog Shannon 1945 in einem Aufsatz ”A Mathematical Theory of Cryptography”. Dieser Aufsatz unterlag bis 1957 strenger Geheimhaltung und er wurde auch 1993 nicht in den Sammelband der Schriften Shannons aufgenommen. Friedrich-Wilhelm Hagemeyer beschreibt die informationstheoretischen Aspekte der Kryptographie so:
Einspielung 7: Hagemeyer, 1:06
Das war der große Schritt, den Shannon dann brachte, nämlich die Information jetzt auch zu betrachten vor dem Hintergrund gestörter Kanäle, und zwar technisch gestörter Kanäle, wie z. B. in Funkverbindungen u.a. auch, um dann zu sagen, wie muß eine Nachricht codiert sein, damit sie soviel Redundanz, der Begriff entstand dann, enthält, daß sie auch bei gestörten Kanälen immer noch eine zuverlässige Nachrichtenübertragung ergibt. Und das war eigentlich die wesentliche Aussage von Shannon, und das war überraschend für viele zu dem Zeitpunkt. Die zweite Art der Störung, die es natürlich gab, waren Störungen in Anführungsstrichen, von einer Quelle zu einem Empfänger, von dem die Quelle nicht wollte, daß er die Nachricht empfängt. Dann mußte zwischen Quelle und dem eigentlichen Empfänger eine künstliche Störung in Form einer Codierung eingeführt werden, eine Verschlüsselung, die es dem nichtberechtigten Empfänger halt nicht erlaubt, diese Nachricht zu empfangen.
Sprecher
Grundsätzlich beziehen sich
die Überlegungen Shannons aber auch auf die 1940 formulierte Spieltheorie.
Shannon merkt an:
Zitator
Die Lage, in der sich ein
Chiffrenkonstrukteur und ein Kryptoanalytiker befinden, kann als ein
”Spiel” angesehen werden, das von sehr einfacher Struktur ist
– ein Nullsummen-Zweipersonen-Spiel mit vollständiger Information
und nur zwei ”Zügen”. Der Chiffrenkonstrukteur wählt bei
seinem ”Zug” ein System. Dann wird der Kryptoanalytiker von dieser
Wahl in Kenntnis gesetzt und wählt seinerseits eine Analysemethode. Der
”Einsatz” des Spiels ist die durchschnittliche Arbeit, die
erforderlich ist, um ein Kryptogramm des gewählten Systems mittels der
gewählten Methode zu knacken.
Sprecher
Die in den Bell Labs entworfenen Verschlüsselungsmethoden waren so erfolgreich, daß sich Roosevelt und Churchill bei kriegswichtigen Telefonaten eines dort entwickelten Telefons bedienten. Bei der Konzeption des Systems half auch Alan Turing mit, der englische Vordenker digitaler Computersysteme. Jetzt im Krieg war er der Chef-Analytiker der britischen Kryptoanalyse, die mittels des Colossus-Rechners den Code der deutschen Chiffrier-Maschine, der sogenannten Enigma, lesbar machte. – Neben den ”harten” Kriegstechnologien, die zur Konstruktion von Bomben und Raketen führten, war es vor allem die ”weiche” informationstheoretische Kryptologie, die über den Zweiten Weltkrieg.
Einspielung 8: Hagemeyer, 1:04
Wenn man also die Entstehung der Kommunikationstheorie oder Informationstheorie in einen weiteren kulturgeschichtlichen Zusammenhang sieht, dann kann man natürlich sagen, die Telegrafie war ja die Geburt eigentlich der Nachrichtenagenturen und der Presse in dem Sinne, wie wir sie heute haben. Und das ist schon mal nicht verwunderlich, daß dann irgendwann das erste Mal der Begriff Information irgendwie systematisch auftaucht. Wenn man dann den 2. Weltkrieg nimmt, dann kann man sagen, das war eigentlich das größte Kommunikationsspiel gegnerischer Parteien, was die Welt bisher gesehen hat. Wenn man also da nimmt diese Tausenden von Kryptologen auf jeder Seite, die versuchten, sicherzustellen, daß der andere nicht mitkriegt, was man hat, dann ist das natürlich ein riesiges Scenario, da kann man fast erwarten, daß da irgendwie mal systematisch über Information nachgedacht werden muß.
Musik: Track 15, ca. 1:48-2:00
Sprecher
Die Informationstheorie wurde als Nebenprodukt kriegswichtiger Projekte zwischen 1943 und 1945 von Shannon entwickelt. Die wichtigste veröffentlichte Formulierung fand die Theorie allerdings erst im Oktober 1948 in dem Aufsatz ”A mathematical theory of communication” in der wissenschaftlichen Zeitschrift, die sich das kommerzielle Bell Lab leistete.
Sprecherin
Das Kommunikationssystem besteht
nach Shannon aus folgenden Komponenten:
- einer Informationsquelle, die die Rohinformation oder die Nachricht
produziert, die übertragen werden soll,
- einem Übertragungsgerät, das diese Information in eine für den
Kanal geeignete Form kodiert oder moduliert,
- dem Kanal, über den die kodierte Information oder das Signal zur
Empfangsstelle geleitet wird.
Einspielung 9: Hagemeyer 0:50
Das Informationsmodell von Shannon ist ein statistisches, das sich darauf bezieht, eine Nachricht bekommt ihren Informationswert aus der Wahrscheinlichkeit ihres Auftretens, also aus der Gesamtheit ähnlicher Nachrichten. Das ist sehr wichtig im Zusammenhang mit der Kryptographie, also mit der Verschlüsselung von Nachrichten, und das ist auch wichtig mit der Codierung, im Zusammenhang mit der Codierung von Nachrichten. Und diesem statistischen Informationsbegriff verbindet er mit dem statistischen Begriff der Störung. Er hat also die ”Information” und die ”Störung”, das sind statistische Begriffe und daraus entsteht eigentlich die Stärke seines Informationsbegriffes.
Sprecherin
Während der Übertragung
kann das Signal durch eine Störquelle verändert werden ... Das
empfangene Signal geht an den Empfänger, der es dekodiert oder demoduliert,
um die ursprüngliche Nachricht wiederherzustellen, und dann zum
letztlichen Bestimmungsort der Information. Beim Fernsehen ist die
Informationsquelle beispielsweise die aufgenommene Szene, die Nachricht ist das
Ausgangssignal der Aufnahmeröhre in der elektronischen Kamera, und das
Signal ist das Ausgangssignal des Senders.
Musik ...
Sprecher
Claude Shannon faßte seine
Theorie 1950 in einer für Nichtmathematiker faßbaren Form zusammen
und verglich das Informationssystem mit einem Transportsystem:
Zitator
Der grundlegende Gedanke der
Informationstheorie ist nun, daß die Information genauso wie eine
physikalische Mengeneinheit wie Masse oder Energie behandelt werden kann. Das
beschriebene System entspricht im großen und ganzen einem Transportsystem;
wir können uns zum Beispiel vorstellen, daß ein Sägewerk an
einem bestimmten Ort Bauhölzer herstellt und ein Transportbehälter
das Bauholz an einen zweiten Ort transportiert. In einer solchen Situation gibt
es zwei wichtige Mengeneinheiten, die Rate R, in der das Bauholz im
Sägewerk produziert wird, und das Fassungsvermögen C des
Transportbehälters. Wenn die produzierte Menge größer ist als
das Fassungsvermögen, so kann man sicher nicht die gesamte Produktion des
Sägewerks transportieren. Wenn sie kleiner oder gleich groß ist,
kann das möglich sein oder auch nicht, je nachdem, ob das Bauholz
effizient in dem Behälter verpackt werden kann. Wenn wir jedoch ein
Sägewerk als Quelle haben, kann das Bauholz in kleine Stücke
zersägt werden, die die vorhandene Transportkapazität des
Behälters zu 100 Prozent ausfüllen. In diesem Fall sollten wir
natürlich eine Tischlerei auf der Empfängerseite haben, um die
Stücke wieder in ihrer ursprünglichen Gestalt zusammenzuleimen, bevor
sie an die Verbraucher weitergereicht werden.
Sprecherin
Im allgemeinen haben die zu
übertragenden Nachrichten eine Bedeutung. Die ist jedoch für das
Problem der Übertragung völlig irrelevant. Es ist unerheblich, ob
eine Reihe von Nonsense-Silben übertragen wird oder der Text einer Sprache.
Unter dem Aspekt der Übertragung ist es ausschließlich bedeutsam,
daß eine besondere Nachricht aus einer Menge möglicher Nachrichten
ausgewählt wird.
Zitator
Die Theorie Shannons führt ein quantitatives Maß für die Information aus einer Nachrichtenquelle ein. Dazu muß die Nachrichtenquelle statistisch analysiert werden, also die Unvorhersagbarkeit ihres Nachrichtenstroms mit Wahrscheinlichkeitsmethoden ausgemessen werden. So läßt sich beispielsweise für englische Texte zeigen, daß dem Buchstaben ”q” fast immer ein ”u” folgt und daß der Buchstabe ”e” weit häufiger als der Buchstabe ”z” vorkommt.Das Wort ”the” begegnet uns im Englischen sehr viel öfter als das Wort ”elf”, während es im Deutschen gerade umgekehrt ist. Wenn sich auch solche Wahrscheinlichkeitsregeln auf manche Gesichtspunkte eines Textes anwenden lassen, ist der Text als Ganzes jedoch nicht vollständig vorhersagbar. Der Grad, mit dem die Botschaften einer Nachrichtenquelle nicht vorhersagbar sind, ist das Maß an Information, das in ihnen steckt. Dieses wird als Entropie der Quelle bezeichnet. Entropie ist eine charakteristische Eigenschaft der Nachrichtenquelle, nicht aber einer einzelnen, individuellen Nachricht.
Sprecher
So schreibt John Pierce, ein Mitarbeiter Shannons in der unmittelbaren Nachkriegszeit. Die völlig auf die Wahrscheinlichkeit formal beschreibbarer Inhalte (Buchstaben, Wörter, Signalcodes) bezogene Betrachtung der Information zog natürlich auch Kritik auf sich.
Einspielung 10: Hagemeyer, 0:36
Ein paar spätere Kritikpunkte an dieser Theory of Information waren also beispielsweise, ”to call this the theory of information is like calling the theory of grammophone recording production the theory of music”. Oder zu dem Wahrscheinlichkeitsmaß für Information, auch das war ja zunächst mal überhaupt nicht plausibel, gibt’s den Kommentar: ”Es scheint so, daß, wenn Baron Münchhausen entgegengehalten wurde, seine Geschichten seien unwahrscheinlich, daß er dann hätte antworten können, umso informativer selber wären sie ja.”
Musik: Track 15, ca. 1:30-1:41
Sprecher
Ein interessanter Anwendungsfall der Informationstheorie ist die Kodierung von Sprache. Shannon hatte sie im Zusammenhang von Information und Störung zunächst nur unter dem Aspekt der Verständlichkeit betrachtet.
Einspielung 11: Claude E. Shannon, [1:03]
It’s very interesting that you can perform the
widest distortions of speech …
Zitator (Voice over,
Abblenden der Einspielung)
Es ist sehr interessant, daß
man Sprache weitestgehend verstümmeln kann, die Frequenzen auf den Kopf
stellen, die Bänder durcheinander mischen – und dann hören Sie
sich das zerhackte Zeug einfach an, und lassen eine intelligente Person das
anhören, und die kann imstande sein, trotz allem genau wiederzugeben, was
gesprochen wurde. Das hat mich immer beeindruckt. Es verweist auf die enorme
Redundanz der Sprache. Was diese Leute wirklich hören konnten, waren in
vielen Fällen nur noch Silbenmuster, aber auch das reicht schon aus, um
aufzunehmen, was gesagt wurde. Als ob ich sagen würde:
da-daah-da-dat-dat-daa-daa-da-daaah, und sie würden sich das
sorgfältig anhören und könnten mir sagen, was ich mir dabei
gedacht habe.
Sprecher
Die Sprachkodierungsversuche in den Bell Labs wurden mit sogenannten Vocodern – abgeleitet aus Voice Coder – durchgeführt. Datenreduktionen im Verhältnis von 50 oder 100 zu 1 führen zu absolut verständlichen Ergebnissen und hören sich beispielsweise so an. Zuerst das Original – ein Satz von Friedrich-Wilhelm Hagemeyer:
Einspielung 17: Hagemeyer,
0:04
Das Informationsmodell von Shannon ist ein statistisches.
Sprecher
Nun eine Reduktion mit einer Vocoder-Software um 50 zu 1:
Einspielung 18: Hagemeyer, 0:04
Das Informationsmodell von Shannon ist ein statistisches.
Sprecher
Und hier die Reduktion um 100 zu 1:
Einspielung 19: Hagemeyer, 0:04
Das Informationsmodell von Shannon ist ein statistisches.
Sprecher
Den aktuellen Bezug zu den frühen Vocoder-Forschungen stellt heute praktisch das Internet her. Hierzu führt Hagemeyer aus:
Einspielung 20: Hagemeyer, 1:12
Eine hochinteressante technische Entwicklung, die man
vielleicht in gewisser Weise mit einigen Phasen von früher vergleichen
kann, ist die Tatsache, daß man jetzt anfängt, über das
Internet zu telefonieren. Und plötzlich, obwohl es lange Zeit keine Rolle
gespielt hat, ist es enorm wichtig, vernünftige Sprachqualität
über geringstmögliche Bandbreiten und -kapazitäten zur
Verfügung zu stellen, weil im Internet halt die Bandbreiten gering sind,
oder die Datenraten, die man da erreichen kann, gering sind, und man
möglichst viel reinpacken möchte, man möchte so ein Paketeteil.
Da das kommerzielle Interesse daran außerordentlich groß ist, wenn
man also um den Faktor 10 billiger oder für 1/10 billiger telefonieren
kann plötzlich, dann steckt da viel dahinter und möglichst auch mit
reinen Software-Lösungen. Plötzlich tauchen Themen wieder auf wie
Vocoder-Lösungen, daß man also Sprache analysiert, dafür sind
die Programme und die Prozessoren heute wahrscheinlich schnell genug, um dann
digital über die Leitungen zu übertragen und auf der anderen Seite
wieder zu synthetisieren.
Sprecher
Bei der Übertragung von
Sprache und Geräuschen kommt es aber nicht nur auf die pure Rekonstruktion
von Inhalten an. Der Versuch eine möglichst hohe Qualität dabei zu
erreichen, prägte Shannons Arbeiten Ende der vierziger Jahre. Der
dafür verwendete Begriff ”fidelity” findet sich in der heute
noch gebräuchlichen Abkürzung ”HiFi” wieder. In einem
gemeinsamen Papier ”Die Philosophie der PCM” beschreiben Bernard
Oliver, John Pierce und Claude Shannon 1948 Experimente mit der
Pulse-Code-Modulation, die heute Grundlage für jegliche digitale
Radioübertragung, für die Audio-CD und den DVD-Ton ist.
Musik ...
Sprecherin
Wie funktioniert diese digitale
Übertragungstechnik? Die Wellenform eines analogen Signals wird als Folge
von Ziffern kodiert. Die Abtastung des Wellenverlaufs geschieht bei
Musikaufnahmen in CD-Qualität gewöhnlich 44tausend100mal pro Sekunde,
wobei die ermittelten Werte in 16-stellige Binärzahlen übertragen
werden. Dabei entstehen ständig winzige Ungenauigkeiten, weil der
tatsächlich ermittelte Wert zur nächsten passenden Binärzahl
auf- oder abgerundet werden muß. Diese Ungenauigkeit wird als
Quantisierungsrauschen bezeichnet.
Sprecher
Diese Tatsachen führen heute in populären Fachzeitschriften für HiFi-Anhänger zu anhaltenden Diskussionen über den Sinn oder Unsinn der digitalen Musikaufzeichnung. Die vielbeschworene Digitalisierung – von Texten, Bildern, Sprache, Tönen und laufenden Bildern –, hat erst seit einigen Jahren die traditionellen analogen Medien im Druckbereich, in Radio und Fernsehen und neuerdings auch auf den Gebieten der Hobbyfotografie und des Amateurvideos erobert. Sie ist jedoch seit Ende der vierziger Jahre theoretisch vollständig beschrieben. Neue, grundsätzliche Probleme sind seither nicht hinzugekommen.
Einspielung 12: Claude E. Shannon, [0:48]
I just recall one thing off the topic . We were writing
music by statistical means …
Zitator (Voice over,
Abblenden der Einspielung)
Ich erinnere mich gerade nebenbei an eine andere Sache. Wir schrieben Musik nach einer statistischen Methode – zum Beispiel. John Pierce und meine Frau arbeiteten bei diesem Projekt zusammen. Dabei wurden Würfel geworfen, die ergaben, welches die nächste Note sein sollte. Einige Mitarbeiter der Abteilung, die Musikliebhaber waren, machten etwas ähnliches – man sieht bestimmte Noten und versucht dann, die nächsten Noten hinzuschreiben, und dann übernimmt jemand anderer von dort an die nächsten Noten. Das ist wie bei dem Spiel, in dem es um das Erraten des nächsten Worts in einem englischen Text geht. Da wurden viele ähnliche Dinge gemacht.
Musik: Track 15, ca. 1:48-2:00
Sprecher
Marvin Minsky (er war
Shannon-Schüler und in den fünfziger Jahren einer der ersten
Theoretiker der Künstlichen Intelligenz) sagte, Shannon habe sich von der
Informationstheorie zurückgezogen, weil er das Gefühl hatte, alle
wichtigen Thesen seien bestätigt worden. Shannon wies das zurück:
Zitator
Nein, ich habe einfach nur andere
Interessen entwickelt. Wenn das Leben weitergeht, ändert man seine
Richtung.
Sprecher
Shannon hatte 1950 einen
bahnbrechenden Aufsatz über die Möglichkeit der Programmierung eines
schachspielenden Computers geschrieben und sammelte seitdem Schach-Automaten.
Ein anderes seiner Steckenpferde war das Einradfahren, womit er in den Fluren der
Bell Labs Kollegen und Besucher verblüffte und erschreckte, zumal er
imstande war, auf dem Einrad mit drei Bällen zu jonglieren, im Stillstand
sogar mit vier. Um die Stabilität seines Jonglier-Einrades erhöhen,
hatte er ein Rad mit einer dezentrierten Achse entwickelt. Eine weitere
Erfindung war das Einrad-Tandem, das jedoch nie von einem Paar erfolgreich
benutzt worden ist. In seinem Wohnhaus sammelten sich viele selbstgebaute
Geräte, die größtenteils völlig nutzlos und aus einer
Laune heraus entstanden sind.
Einspielung 13: Hagemeyer, 0:23
Eine Maschine, die ich bei Shannon selber gesehen habe, die auch
philosophische Qualitäten hat, ist eine kleine Kiste mit einem Schalter
draußen, und wenn man den Schalter betätigt, dann rumort's in der
Kiste und man sieht, es ist eigentlich ein Sarg, und der klappt dann auf und es
kommt ein Arm raus und zieht an dem Schalter und macht ihn wieder auf Null und
dann geht der Deckel wieder zu.
Sprecher
1956 gab Shannon seine Tätigkeit bei Bell auf und ging wieder an das M.I.T. Dort wurde er 1958 Professor, hielt jedoch nur einige Jahre lang regelmäßig Vorlesungen und zog sich Mitte der sechziger Jahre nach Hause zurück. Der Legende nach entdeckte ein Kollege, der sein Arbeitszimmer nutzen durfte, auf seinem Schreibtisch einen mehr als ein Jahr alten uneingelösten Scheck in nennenswerter Höhe. Im Jahre 1978 emeritierte er. Er war durch Börsenspekulationen und Anlagen in Technik-Unternehmen wohlhabend geworden. In seinem letzten Universitätsjahr nahm Shannon eine Gastprofessur am All Souls College in Oxford an.
Sprecherin
In seiner Oxforder Vorlesung beschäftigte sich Shannon mit dem Problem, wie sich ein amerikanischer Autofahrer im britischen Linksverkehr orientieren könne. Die Lösung besteht schlicht und einfach darin, England für den amerikanischen Fahrer in der vierten Dimension um 180 Grad zu wenden. Dafür entwickelte er ein ausgeklügeltes Spiegelsystem, das dem Fahrer für jeden Blickwinkel ein Umkehrbild Englands an seine Position reflektierte.
Sprecher
Die Informationstheorie Shannons erlebt täglich unzählige praktische Beweise. Die Digitalisierung aller Rohmaterialien der traditionellen Medien vollzieht sich fast restlos. Die Dreieinigkeit von Sender, Störung und Empfänger, die eine nach statistischer Wahrscheinlichkeit hierarchisierte Informationsübertragung dirigiert, macht Menschen im Prinzip verzichtbar. Shannons Traum war es, mit fremden Intelligenzen Kontakt aufzunehmen (interessanterweise über analoge Fernsehsignale), um von ihnen zu lernen, wie sie ihr Überleben organisiert haben.
Bernard Oliver, ein Shannon-Mitarbeiter in den Bell Labs, sagte 1977 in einem Gespräch mit Hagemeyer:
Einspielung 14: Bernard M. Oliver, 0:25
You know the greatest thing that Shannon did – and
nobody has ever said this about him – the greatest thing he did was to
kill the human soul.
Zitator (Voice over, Abblenden)
Wissen Sie, was das
Größte ist, das Shannon getan hat? Niemand hat das bisher über
ihn gesagt – das Größte ist, daß er die menschliche
Seele abgeschafft hat.
Sprecher
Im Jahre 1987 antwortete Shannon
in einem Interview der Zeitschrift OMNI auf die Frage, ob er einen
grundlegenden Unterschied zwischen Leben und Nicht-Leben, zwischen Mensch und
Maschine erkennen könne -
Zitator
Ich bin Atheist – um das
vorwegzuschicken. Ich glaube an die Evolutionstheorie und daran, daß wir
im wesentlichen Maschinen sind, allerdings von sehr komplexer Art, viel
komplexer als alle Maschinen, die Menschen bisher gebaut haben. Es läuft
gleichermaßen auf ein Ja und ein Nein hinaus. Wir sind eine Art
Extremfall eines mechanischen Apparats – „mechanisch“
bedeutet natürlich nicht, daß alles aus Metall und Schaltern
bestehen muß. Es ist ein natürlicher Apparat. Ich kann keinen Gott
oder etwas Ähnliches daran beteiligt sehen.
Sprecher
Der Interviewer fragte weiter: Können Sie sich vorstellen, mit einem
Roboter befreundet zu sein?
Zitator
Ja, das könnte ich. Ich kann
mir das sehr leicht vorstellen. Ich kann bei den Fähigkeiten von Maschinen
keine Grenze erkennen. Die Mikrochips werden immer kleiner und schneller und ich
kann zusehen, wie sie besser werden als wir. Ich kann mir eine Zeit in der
Zukunft vorstellen, in der wir zu Robotern ein Verhältnis haben wie heute
Hunde zu Menschen.
Sprecher
Claude Shannon starb am 24. Februar 2001 in Medford, Massachusetts.
Musik: Track 15, ca. 4:13-4:27