Meyer-Eppler und der Vocoder

Meyer-Eppler

Kurzbiografie Meyer-Eppler

Geboren wurde Meyer Eppler am 30.4.1913 in Antwerpen. Sein Abitur erhielt er in Köln. 1936 begann er mit dem Studium der Mathematik, Physik und Chemie an der Universität Köln und dann Bonn, wobei er sich schon hier mit Sprachstudien beschäftigte. Die Universität Bonn sollte in seinem Leben noch eine Hauptrolle spielen. Am 22.2.1939 promovierte er hier im Fach Physik und ist von 1.8.1942 bis zum 31.12.1945 wissenschaftlicher Assistent am physikalischen Institut. Während dieser Zeit habilitierte er an der mathematisch-naturwissenschaftlichen Fakultät (das war am 16.9.1942). Von diesem Tag an war er auch Dozent für experimentelle Physik. Hierbei widmete er sich der Frequenzanalyse. In seiner Antrittsvorlesung hebt er die akustischen Fortschritte bis zum 2 WK hervor. Diese Vorlesung war am 15.1.1943. 1944 war das Arbeiten durch die Bombenangriffe auf Bonn kaum möglich. Die meisten Apparaturen wurden nach Gieboldhausen gebracht, wohin auch Meyer-Eppler Anfang 1945 flüchten musste, da sein Privathaus zerbombt wurde. Nach Kriegsende kehrte nach und nach alles zurück nach Bonn. Dabei informierte sich Meyer-Eppler schon einmal über den Stand der amerikanischen Forschung. 1947 wurde er von Paul Menzerath zum phonetischen Institut der philosophischen Fakultät gelockt. Dort half er zunächst beim Wiederaufbau des phonetischen Instituts. Seine 1. Veröffentlichungen galten dem Abtastverfahren des Tonfilms, womit er sich schon 1943 auseinandergesetzt hatte. Am 1.4.1949 wurde er wissenschaftlicher Assistenz am phonetischen Institut. Während dessen veröffentlicht Meyer-Eppler Aufsätze zur synthetischen Spracherzeugung und stellte die amerikanischen Erfindungen wie den Coder, den Vocoder, das Visible-Speech-Gerät und die Rückwandlungsprozesse (Playback) vor. Bonn besaß zwar ein Visible-Speech-Gerät aber nie einen Vocoder. Dafür entwickelten sie aber den Elektrolarynx, welches bis heute als Kehlkopfersatz von Sprachbehinderten verwendet wird. 1952 habilitierte Meyer-Eppler zum zweiten Mal und erhielt somit die Lehrerlaubnis für Phonetik und Kommunikationsforschung. 1954 erhielt er eine Ehrenmitgliedschaft (grob übersetzt) im französischen Komitee für Phonetik und Sprachlehre und wurde zum einzigen deutschen Vertreter in die Kommission für Informationstheorie des URSI (Union Radio Scientifique Internationale) erhoben. 1956 bekam er eine Diätendozentur bis er dann 1957 außerplanmäßiger Professor wurde und Ende 1957 als Nachfolger des 1954 verstorbenen Professor Menzerath benannt. 1959 veröffentlichte Meyer-Eppler sein Hauptwerk "Grundlagen und Anwendungen der Informationstheorie". Aber schon am 8.7.1960 verstarb Meyer-Eppler im Alter von 47 Jahren an den Folgen eines langjährigen Nierenleidens.

Meyer-Epplers Forschung zur elektronischen Musik

Wichtig für die elektronische Musik waren elektronische Musikinstrumente. Diese mussten aber einige Kriterien erfüllen, um als solche benannt zu werden. Dieser gab es drei:

1. Sie mussten eine Aufgabe besser erfüllen als die alten

2. Sie mussten neues Leisten

3. Sie sollten in einigen Teilen genauso gut wie die alten sein.

Bessere Spielbarkeit wurde hierbei zum häufigsten Argument. Man wollte ein Instrument für jedermann erreichen und dabei ungeahnte Virtuosität entwickeln. Tonhöhe, Lautstärke und besonders die Klangfarbe sollte Instrumente wieder interessant machen. Außerdem sollten die alten Instrumente auf den neuen besondere rein klingen. Dies gelang aber nur in kleinen Schritten. Trautwein war mit seinem Trautonium einer der Vorarbeiter. Varése einer der musikalischen Vertreter der elektronischen Musik mit denen Werner Meyer-Eppler auch zusammenarbeiten wird. Sein Ziel war es alle klanglichen Möglichkeiten systematisch zu erforschen mit den Mitteln der synthetischen Klangerzeugung. Letztendlich wollte er eine Systematik der Klangfarben erschaffen. Die elektrische Klangsynthese war sonst nur selten zu finden, z.B. bei Trautwein.

Den Begriff Klangfarbe definierte Meyer-Eppler wie folgt: Klangfarbe ist eine sowohl von der relativen wie auch von der absoluten Stärke der Obertöne einer periodischen Schwingung abhängige Wahrnehmungsgröße. Seine Beschreibung der Klangfarbe bleibt aber sehr ungenau und das Wort selber wird selten benannt. Nur in einem Kapitel taucht es relativ häufig auf wenn es um multiplikative, additive und reproduktive Verfahren geht. Dort werden verschiedene elektroakustische Veränderungsmöglichkeiten von Klängen vorgenommen. Aber dennoch findet keine Systematisierung der Klangfarben statt sondern nur eine Genese.

Stattdessen tritt ein ganz anderer Terminus viel häufiger auf: die Klangmodulation. Dafür wurde dieser umso detaillierter beschrieben. Die als grobe Festlegung des Charakters eines stationären Klanges ausgewiesenen Elemente der Lautstärke, Tonhöhe des (objektiven und subjektiven) Grundtones und Klangfarbe unterliegt nach Meyer-Eppler gewollten oder ungewollten zeitlichen Änderungen, die allgemein als Klangmodulation bezeichnet werden sollen. Da also die wichtigsten Klangeigenschaften die Lautstärke, Tonhöhe und Klangfarbe darstellen werden im folgende Arten der Schwingungsmodulation unterschieden werden: Modulation der Amplitude, der Frequenz oder der spektralen Zusammensetzung. Eine Amplitudenänderung kann aber auch eine Änderung der Tonhöhe und Klangfarbe bewirken und nicht nur der Lautstärke eine Frequenzänderung kann u.U. eine Klanfarbe zerstören. Die Spektralmodulation ist es möglich dass einige Klänge dunkler wirken, da das menschliche Ohr auf gleiche Schalldruckerhöhungen im unteren Hörbereich stärker reagiert als im oberen Bereich. Man müsse also demnach lautstärkeabhängige Klangfarbenregelung einführen. Das erklärt warum er das Ein- und Ausschwingen nicht in die Klangfarbendefinition einbrachte. Meyer-Eppler beschreibt hierzu auch noch die Klangelemente und das Klangmaterial, worauf ich aber nicht eingehen möchte.

Die musikalische bedeutsamen akustischen Phänomene Ton, Klang, Geräusch etc. erscheinen in Meyer-Epplers Auflistung klanglicher Modulationsprozesse als Klangmaterial, das im Prozess der elektrischen Klangsynthese im Wechselspiel zwischen Gerät und Komponist erzeugt und verändert, moduliert wird. Es gibt somit keinen qualitativen Unterschied zwischen gestalteten, sprich komponierten Mikroklangformen, etwa dem klanglichen Ausgangsmaterial, und komponierten Makroklangformen, also dem resultierenden Klangganzen.

Was ist elektronische Musik

Meyer-Eppler beschreibt erst einmal die Verschiedenen Hilfsapparaturen, die zur Erstellung elektronischer Musik wichtig sind. Vorerst waren sie alle in eine Gruppe der elektrischen Klangerzeuger zusammengefasst nun unterschied er die elektronischen Musikinstrumenten von den elektrischen und anderen Kategorien von Musikinstrumenten. Wobei elektronisch alles bezeichnet wurde, was zur Erzeugung von Schwingungen keine mechanischen Teile benötigen. Dagegen benötigen elektromechanische Instrumente mechanische Schwingungssysteme wie Seiten, Zungen und Membranen, deren Schwingungen mittels elektrostatischer, elektromagnetischer oder lichtelektrischer Tonabnehmer in elektrische Schwingungen umgewandelt werden. Die elektroakustischen Instrumente, die wie akustische Instrumente Aufgebaut sind, die aber zusätzlich Mikrophone, Verstärker und Lautsprecher zur Klanglichen Intensivierung besitzen.

Elektronische Musik schließlich resultiert nach der1954 verfasster Definition Meyer-Epplers allein aus der ausschließlichen Verwendung elektromechanischer oder rein elektronischer Klanmittel, wobei Meyer-Eppler den Verzicht auf jedes rein Akustische Zwischenstadium betont.

Das Studio des NWDR

Das Studio des NWDR in Köln wurde nach einer Tonmeistertagung 1951 in Detmold auf die Initiative von Werner Meyer Eppler, Robert Beyer und Herbert Eimert gegründet. Alle waren schließlich mit der elektronischen Klangerzeugung vertraut und waren von ihrer Wichtigkeit für die Musik überzeugt. Am 18.10.1951 war die Gründung beschlossen. Am Anfang waren die Möglichkeiten sehr Eingeschränkt, man besaß nur zwei ausgeliehene Bandmaschinen, Messgeräte und reichhaltiges Klangmaterial aus Meyer-Epplers Universität. Es waren Melochordklänge. Ab den Sommer 1952 versuchten Eimert und Beyer selbst Klänge zu erzeugen, was aber ob der wenigen Mittel schwer fiel. Im Frühjahr 1953 wurde dann das eigentliche Studio eingerichtet. Am 26.5.1953 wurde dann die ersten Studien Eimerts und Beyers der Öffentlichkeit im Sendesaal des WDR vorgeführt und war eine Initialzündung für die elektronische Musik. Nach dem Robert Beyer ausschied übernahm Eimert die Leitung des Studios. Karlheinz Stockhausen betrat das Studio Mai 1953 das erst mal. 1954 stellte Eimert 3 Faktoren für das künstlerische Schaffen im Studio auf:

1. Die wissenschaftliche Fundierung der kompositorischen Arbeit

2. Die Ablehnung metaphorischer und synästhetischer Deutung der elektronischen Musik

3. Das Heranziehen junger Komponisten.

Der Ruf dieses Studios ging weit über Granzen hinaus. Dazu trugen besonders Konzerte von Eimert und Vorträge von Eimert, Wener Meyer-Eppler und Stockhausen bei. Nachdem erst Eimert pensioniert wurde und Eppler verstorben war, übernahm 1962 Stockhausen die Leitung des Studios. Trotz Stockhausens Modernisierung wich das Studio im Zeitalter der Digitalisierung anderer Verwendungen.

Die Sprachsynthese

Die Erschaffung einer künstlichen Stimme

Zur Geschichte der Sprachsynthese

Die ersten Versuche, menschliche Sprache maschinell zu erzeugen, wurden in der zweiten Hälfte des 18. Jhdts. gemacht. Ch. G. Kratzenstein gelang es, mit an Orgelpfeifen angeschlossenen Resonanzröhren Vokale hervorzubringen (1773). Um diese Zeit hatte auch Wolfgang von Kempelen schon mit Versuchen begonnen, die ihn zum Bau einer sprechenden Maschine führten. Er wurde 1734 in Pressburg, der damaligen Hauptstadt von Ungarn, geboren und starb 1804 in Wien. Obwohl er mehr wegen anderer Taten berühmt wurde, war das Studium der menschlichen Sprachproduktion sein hauptsächliches Anliegen, wobei er auch therapeutische Anwendungen im Sinne hatte. Man hat ihn den ersten Experimentalphonetiker genannt. In seinem Buch Mechanismus der menschlichen Sprache nebst Beschreibung einer sprechenden Maschine (1791) beschrieb er auch seine Sprachmaschine ganz detailliert, damit andere sie nachbauen und verbessern mögen. Von Kempelens Maschine war die erste, mit der es möglich war, nicht nur einzelne Sprachlaute, sondern auch Wörter und kürzere Sätze hervorzubringen.

Die Maschine besteht aus einem mit dem rechten Unterarm zu betätigenden Blasebalg, der die Lungen simuliert. Ein Gegengewicht sorgt dabei für das 'Einatmen'. Außerdem existierte die 'Windlade' mit einigen Hebeln, die mit den Fingern der rechten Hand zu bedienen sind, sowie den aus Gummi angefertigten 'Mund' und die 'Nase' des Gerätes. Die beiden Nasenlöcher sind zuzuhalten, wenn nicht gerade ein Nasal hervorgebracht werden soll. Die Funktion der Stimmlippen wird durch ein aufschlagendes Rohrblatt aus Elfenbein simuliert. Die letzte Ausführung der Maschine von Kempelen ist bis zum heutigen Tage erhalten. Sie wurde bis 1906 im Konservatorium für Musik in Wien aufbewahrt und dann als Stiftung an das nur drei Jahre zuvor gegründete Deutsche Museum in München übergeben. Dort ist sie seither in der Abteilung für Musikinstrumente ausgestellt.

 

Im 19. Jhdt. wurden zwar einige weitere Maschinen ähnlicher Art konstruiert, aber grundsätzliche Neuerungen auf dem Gebiet der Sprachsynthese sind für dieses Jahrhundert eigentlich nicht zu verzeichnen. Erwähnenswert ist aber das von Joseph Faber in 1835 vorgestellte Gerät, das im Vergleich mit Kempelen Maschine insofern einen Fortschritt darstellte, als es auch eine Zunge und einen formveränderlichen Rachenraum hatte und außerdem zur Synthese von Gesang geeignet war. Sein Blasebalg wurde über ein Fußpedal getrieben, und die sonstige Bedienung erfolgte über eine Klaviatur. Noch 1937 baute R. R. Riesz (USA) ein Gerät ähnlicher Konzeption wie Kempelens, aber mit im Wesentlichen naturgetreuer Form des Ansatzrohres.

 

 

Homer Dudleys VODER

 

Die Entwicklung der Elektrotechnik am Anfang des 20. Jahrhunderts ermöglichte es, Sprachschall auf elektrischem Wege hervorzubringen. Das erste Gerät dieser Art, das einiges Aufsehen erregte, war der von Homer Dudley entwickelte VODER, der 1939 auf der Weltausstellung in New York der Öffentlichkeit vorgestellt wurde. Dieser erforderte aber eine sehr lange Übungszeit, um ihn erfolgreich bedienen zu können. Manuell bediente Sprachsynthesegeräte wie Kempelens und der VODER dienten hauptsächlich dem Zweck der Unterhaltung, aber sie hatten doch einen tiefsinnigeren Hintergrund. Kempelens Gerät entstand parallel mit seinem Studium der menschlichen Spracherzeugung, und Dudleys Gerät wurde aus dem VOCODER (Voice Coder) entwickelt, dessen Zweck es war, bei telefonischer Übertragung der Sprache die erforderliche Bandbreite zu verringern, so dass eine größere Anzahl von Ferngesprächen über eine gegebene Telefonleitung geführt werden kann.

 

Der VOCODER

Erst in den dreißiger Jahren des letzten Jahrhunderts gelang es Homer Dudley, auf elektronischem Wege eine synthetische Sprache zu erzeugen. Er nannte sein Gerät Vocoder, was die Abkürzung des englischen Ausdrucks "voice" und "coder" ist (Stimmcodierer). Da für die Bedienung und Benutzung eines solchen Gerätes, das Wissen über die Funktion und den Aufbau unverzichtbar ist, werden im Folgenden alle wichtigen Details besprochen. Da es in diesem Artikel um die Sprachsynthese geht, fangen wir mit der menschlichen Stimme an.

Die Menschliche Stimme

Unter den verschiedenartigen menschlichen Lauten gibt es zwei Hauptgruppen oder Stimmarten: stimmhafte Laute und stimmlose oder Zischlaute. Die Frequenz bestimmt die musikalische Tonhöhe des stimmhaften Lautes. Die normalen Stimmlagen bei Männer und Frauen umfassen den Bereich von etwa 90 Hz bis 400 Hz.Die Schwingungen des Kehlkopfes enthalten neben der Grundschwingung noch viele harmonische Oberschwingungen bis über 4 kHz. Die Mund-, Nasen- und Rachenhohlräume stellen ein Filter dar, das bestimmte Frequenzbereiche selektieren und den typischen Spektralverlauf der einzelnen stimmhaften Laute formen.

Die zwei Hauptfunktionsblöcke eines Vocoders

Jeder Vocoder besteht aus einem Analyse- und einem Syntheseteil.

Die Analyse

Die Analyse ermittelt aus dem eingespeisten Sprachsignal Steuersignale. Diese werden in einer geeigneten Form übertragen und steuern im Syntheseteil eine elektronische Nachbildung des menschlichen Sprechorgans, die eine künstliche Sprache liefert.Die Analyseseite besteht normalerweise aus zwei Blöcken, der Spektralanalyse und der Stimmartanalyse.Die Spektralanalyse ermittelt den jeweiligen spektralen Kurvenverlauf der Sprechlaute. Sie liefert eine größere Anzahl von Steuersignalen, die Zuordnungen für die Stellungen der Mund-, Nasen- und Rachenfilter darstellen.Die Stimmartanalyse stellt fest, ob die Stimmbänder schwingen oder ob sie den Luftstrom ungehindert passieren lassen. Es wird also zwischen stimmhaft oder stimmlos Laut unterschieden. Der Ausgang der Stimmartanalyse liefert ein Ja/Nein-Signal für die Funktionsart des Kehlkopfes.

Die Synthese

Der Syntheseteil besteht auch aus zwei einzelnen Funktionsblöcken, der Spektralsynthese und dem Stimmgenerator. Aus den Spektralwerten und dem Stimmsignal erzeugen die Spektralsynthese und der Stimmgenerator das synthetische Sprachsignal. Die Spektralsynthese und der Stimmgenerator stellt somit eine Nachbildung der menschlichen Stimmorgane dar. Die Spektralsynthese erhellt den jeweiligen spektralen Kurvenverlauf der Sprechlaute als Steuersignale von der Analyseeinheit. Mit diesen Steuersignalen werden Filter gesteuert, die die Zuordnungen für die Stellungen der Mund-, Nasen- und Rachenfilter simulieren. Die Stimmart bestimmt die Art des Signals im Stimmgenerator. Das ist bei stimmlosen Lauten ein Rauschen und bei stimmhaften Lauten eine Dreieckwelle mit einem geeigneten Obertonspektrum.

Funktionsprinzip eines Vocoders

Die Analyse

Das vom Mikrofon kommende Sprachsignal gelangt über einen Eingangsverstärker an einen Satz von Bandfiltern, die so genannte Filterbank. Jedes der Kanalfilter analysiert einen kleinen Bereich des Sprachbandes. Die Zahl der Filter von Vocodern reicht von etwa 10 bis hin zu 24. Mit der Anzahl der Kanäle erhöht sich die Genauigkeit der Analyse und damit die Wiedergabequalität aber auch der entsprechende Schaltungsaufwand.

Die Spektralanalyse

Das Sprachsignal wird also in viele Bänder unterteilt, die dann jedes für sich analysiert wird. Am Beispiel das "a": Im Bereich von 500 Hz bis 1000 Hz sind viele kräftigen Formanten. Es wird also in allen Bändern, die diesen Bereich umfassen ein Analysesignal gebildet. Dieses geschieht durch eine Gleichrichtung und durch die Beseitigung der negativen Halbwelle. Aus diesem Signal wird eine Hüllkurve gebildet, die an den Ausgangsbuchsen der Syntheseeinheit zur Verfügung steht. Die Syntheseamplituden und Hüllkurvenformen enthalten die Informationen, die es ermöglichen die Sprache später zu synthetisieren. Je mehr Bänder man hat, umso mehr Analysesignale hat man auch.

Die Stimmartanalyse

Für die bereits genannte Stimmartanalyse gibt es mehrere Verfahren. Die meisten beruhen auf einer Amplitudenauswertung des Sprachspektrums. Die Stimmartanalysen nutzen aus, dass sich die spektrale Verteilung bei den beiden Stimmarten deutlich unterscheidet. Stimmhafte Laute haben im Frequenzbereich bis 1,5 kHz immer deutlich höhere Pegel als im Bereich über 4 kHz, bei stimmlosen Lauten ist es genau umgekehrt. Diese Schaltung funktioniert sehr zuverlässig, wenn ein breitbandiges Sprachsignal anliegt, was in dem vorliegenden Anwendungsfall leicht erfüllbar ist. Es steht also ein Synthesesignal zu Verfügung gestellt, dass nur die zwei Zustände, stimmhafte und stimmlose Laute, dargestellt.

Frank Coopers Pattern Playback

Ein Sprachsynthesesystem ganz anderer Art war der Pattern Playback. Dieses Gerät wurde 1950 von Frank Cooper in den Haskins Labs fertig gestellt, und es diente der Untersuchung der Wahrnehmung der Sprache. Sein Funktionsprinzip ist das eines inversen Lautspektrografen. Eine Lichtquelle erzeugt einen Strahl, der radial auf eine rotierende Scheibe auftrifft. Die Scheibe hat 50 konzentrische Tonspuren, wie bei einem Tonfilm, durch welche 50 Teiltöne mit einer Grundfrequenz von 120 Hz abgebildet werden. Das so modulierte Licht wird auf ein Spektrogram projiziert, dessen Reflektanz oder dessen Lichtdurchlässigkeit dem Schallpegel der Teiltöne entspricht, und einer Photozelle zugeführt, mit der die Lichtschwankungen schließlich in Schalldruckschwankungen umgewandelt werden. Das Spektrogram wird dabei über Rollen am Lichtstrahl vorbeibewegt. Damit erhält man ein dem ursprünglichen Sprachsignal ähnliches, aber jedenfalls monotones Schallsignal.

Elektrische Modelle der Sprachproduktion

 

Bei den Modellen, die seit 1950 von mehreren Forschern entwickelt worden sind, wird das Signal von einer elektrisch simulierten Schallquelle durch ein Filter geschickt. Das Quellensignal ist entweder ein periodischer Klang, wie bei den Stimmhaften Sprachlauten, oder aperiodisches Rauschen.

 

 

 

Meyer-Eppler und der Vocoder

Meyer-Eppler war von dem Vocoder und seinen Möglichkeiten der spektralen Modulation begeistert. . Denn der Vocoder konnte das Spektrum eines Signals in seine Frequenzbereiche zerlegen und maß dessen Frequenz mittels eines Frequenzmessers. So konnte man einzelne Frequenzen modulieren, also genau dass was Meyer-Eppler zur Erforschung der Klanfarben benötigte. Er nahm also Experimente vor: er unterbrach die Tonhöhenverbindung und bekam eine verständliche aber monotone Stimme. Die Tonhöhe war modulierbar. Mittels Impulsgenerator und Frequenzänderung konnten die Intervalle beliebig variiert werden. Lässt man die Tonschritte Rückwärtslaufen entsteht ein fremdartiger Verlauf. Benutzt man statt eines Impulsgenerators einen Rauschgenerator bekam man ein Flüstern. Bei komplexer Musik kann man eine Dampfmaschine reden hören und Musikinstrumente mittels Impulsgenerators menschlich klingen lassen. Durch die Neuentdeckung musste Eppler seine Reihe der Klangerzeugungsinstrumente neu auferlegen. Da waren:

1. die Geräte mit lediglich elektrischer Tonabnahme, die sich an die bisherigen Instrumente anschließt

2. die Geräte mit rein elektrischer Tonerzeugung

3. und den Vorstoß in klangliches Neuland: VOCODER, VODER, Playback

Resümee

Der wissenschaftliche Lebenslauf Meyer-Epplers teilt sich in 4 Phasen auf, die wie folgt zu umschreiben sind.

Die erste Phase seines Schaffens beginnt mit der Veröffentlichung seines Buches "elektrische Klanerzeugung", dessen Inhalt es im Wesentlichen um die elektronische Modulation geht. Er tritt von einer Forschungsphase in eine Veröffentlichungsphase über. Nach seiner Untersuchung der Elektroakustischen Musikgeschichte der 20er bis 40er Jahre begann er mit seinen neuen Konzeptionen die 50er Jahre zu prägen.

Die zweite Phase ist geprägt durch seine Vorträge in dem er vor allem den Vocoder anspricht, von dessen Modulationsmöglichkeiten er Fasziniert ist. Seine Forschungen hatten ihren Schwerpunkt in der Klangfarbenproblematik der elektronischen Musik.

Die dritte Phase ist seiner Theoriebildung. In mehreren kurzen Abständen veröffentlicht er in Vorträgen und Aufsätzen den Grundstock an Kompositorischen Merkmalen und Bedingungen der elektronischen Musik. Bedeutung erfuhr vor allem die Magnetoelektrische Aufzeichnung von Klängen die durch Materielle Eingriffe wie Schneiden, Umkehren, schnellere oder langsameres Abspielen klangliche Experimente ermöglichten.

Die 4. Phase war eine Vertiefung seiner Theorien der 3 Phasen, wobei er seine Definitionen differenzierte. Erstmalig definierte er die Abgrenzung von elektronischen gegen mechanische Musikinstrumente.

Literatur

Ungeheuer, Elena "Wie die elektronische Musik ´erfunden´ wurde...", B. Schott´s Söhne, Mainz 1992

http://www.ling.su.se/staff/hartmut/kempln.htm

http://www.msc175.de/projekte/vocoder/sprachsynthese.htm


Diese Ausarbeitung machte Sonja Diesterhöft im WS 2003/04 im Rahmen des Seminars Klanganalyse und -synthese.