Vous êtes sur la page 1sur 415

Signale und Systeme

von
Prof. Dr. Uwe Kiencke,
Dr.-Ing. Holger Jkel
4., korrigierte Auflage

Oldenbourg Verlag Mnchen

Prof. Dr. Uwe Kiencke lehrt seit 1992 an der Universitt Karlsruhe (TH) am Institut fr Industrielle Informationstechnik (IIIT). Nach Studium und Promotion war er von 1972 1987 bei der
Robert Bosch GmbH, Schwieberdingen und von 1988 1992 bei Siemens Automotive, Regensburg. 1987 wurde er mit dem Arch T. Colwell Merit Award der Society of Automotive Engineers
(USA) ausgezeichnet.
Dr.-Ing. Holger Jkel (Jg. 1973) wurde 2003 an der Universitt Karlsruhe (TH), Fakultt fr
Informatik, promoviert. Er arbeitet am Institut fr Nachrichtentechnik. Seine Forschungsgebiete
sind Signalverarbeitung in der Nachrichtentechnik, Ultra Wide Band Kommunikation, Cognitive
Radio und Dynamische Ressourcenallokation.

Bibliografische Information der Deutschen Nationalbibliothek


Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet ber
<http://dnb.d-nb.de> abrufbar.

2008 Oldenbourg Wissenschaftsverlag GmbH


Rosenheimer Strae 145, D -81671 Mnchen
Telefon: (089) 4 50 51- 0
oldenbourg.de
Das Werk einschlielich aller Abbildungen ist urheberrechtlich geschtzt. Jede Verwertung auerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulssig und
strafbar. Das gilt insbesondere fr Vervielfltigungen, bersetzungen, Mikroverfilmungen und
die Einspeicherung und Bearbeitung in elektronischen Systemen.
Lektorat: Anton Schmid
Herstellung: Dr. Rolf Jger
Coverentwurf: Kochan & Partner, Mnchen
Gedruckt auf sure- und chlorfreiem Papier
Druck: Grafik + Druck, Mnchen
Bindung: Thomas Buchbinderei GmbH, Augsburg
ISBN 978-3-486-58734-0

Vorwort zur vierten Auflage


Die vierte Auflage des vorliegenden Buches brauchte inhaltlich nicht berarbeitet zu
werden. Dank vieler Anregungen von Hrern der gleichnamigen Vorlesung konnten allerdings wieder etliche Fehler korrigiert werden. Weiterhin bedanken wir uns bei Herrn
Dipl.-Ing. Thomas Weickert, der das Manuskript gepflegt hat.
Uwe Kiencke, Holger Jkel

Karlsruhe, im Mrz 2008

Vorwort zur dritten Auflage


Aufgrund der groen Nachfrage wurde schneller als erwartet eine dritte Auflage notwendig. Bei dieser Gelegenheit wird der Phasenwinkel an die in der angelschsischen
Literatur bliche Definition angepasst.
Durch Hinweise von Lesern und Hrern konnten erneut Fehler korrigiert bzw. Erluterungen verbessert werden. Besonderer Dank gilt Herrn Benedikt Merz fr wertvolle
Hinweise und die Korrektur des Manuskripts. Weiterhin danken wir dem OldenbourgVerlag fr die wiederum ausgezeichnete Zusammenarbeit.
Uwe Kiencke, Holger Jkel

Karlsruhe, im Juli 2005

Vorwort zur zweiten Auflage


In der vorliegenden zweiten Auflage wurde die Struktur des Buches Signale und Systeme beibehalten, weil sie sich im Lehrbetrieb bewhrt hat. Viele Ableitungen wurden
aber mit dem Ziel besserer Verstndlichkeit berarbeitet sowie Abbildungen und Beispiele hinzugefgt. Erweitert wurden die Abschnitte ber den Entwurf von Filtern, weil
sie eine in der Praxis wichtige Anwendung der zuvor prsentierten Grundlagen darstellen.
Die erste Auflage war unter groem Zeitdruck entstanden, um ein Textbuch zur gleichnamigen Vorlesung anbieten zu knnen. Seit dem Erscheinen der ersten Auflage dieses
Buches kamen gerade von Seiten der Studenten viele Verbesserungsvorschlge und Fehlerkorrekturen, die mglichst vollstndig aufgenommen wurden. Auerdem wurden in
vielen Abschnitten Erweiterungen eingefgt. In der nun vorliegenden zweiten Auflage
konnten viele Fehler korrigiert werden, die sich daraus ergeben haben. Den Lesern und
Hrern der Vorlesung, die durch ihre Hinweise dazu beigetragen haben, sei herzlich gedankt. Weiterhin gilt der Dank wiederum dem Oldenbourg-Verlag fr die ausgezeichnete
Zusammenarbeit.
Uwe Kiencke, Holger Jkel

Karlsruhe, im Juni 2002

VI

Vorwort
Das vorliegende Studienbuch zum Thema Signale und Systeme wendet sich an Studenten der Fachrichtung Elektrotechnik an wissenschaftlichen Hochschulen sowie an
Ingenieure und Naturwissenschaftler, die einen Einblick in dieses Gebiet gewinnen wollen. Es entstand in Zusammenhang mit der gleichnamigen Vorlesung an der Universitt
Karlsruhe. Das vorliegende Buch kann somit zur Begleitung einer etwa drei Semesterwochenstunden umfassenden Vorlesung benutzt werden.
Zur Nutzung dieses Buches werden grundlegende Kenntnisse in der Elektrotechnik, gute
Kenntnisse in der hheren Mathematik, der Wahrscheinlichkeitsrechnung und Grundkenntnisse in der Fourier- und Laplace-Transformation vorausgesetzt.
Die mathematischen Grundlagen fhren den Begri des Hilbert-Raumes ein. Auf dieser
Basis knnen Gesetzmigkeiten aus dem euklidischen Vektorraum auf den Funktionenraum bertragen werden. Bei den Transformationen geht es um deren wichtigste
Eigenschaften in praktischen Anwendungen. Die Fourier-Transformation wird blicherweise auf Signale, die Laplace- und z-Transformation auf Systeme angewendet. Die
Signale und Systeme werden dabei zuerst im kontinuierlichen und dann im diskreten
Zeitbereich betrachtet.
Gerade die erste Auflage eines Buches kann, trotz mehrmaligen Durchschauens, nicht
ohne Fehler sein. Verbesserungsvorschlge und Fehlerkorrekturen sind dem Autor jederzeit willkommen.
Abschlieend danke ich Herrn Dipl.-Ing. Ralf Schernewski, dessen groes Engagement
wesentlich zum Gelingen dieses Buches beigetragen hat; insbesondere danke ich fr die
Erstellung der LATEX-Dateien, das Durchrechnen der Beweise und die langen konstruktiven Diskussionen, in denen der klare und verstndliche Aufbau dieses Buches entstanden
ist. Auerdem mchte ich dem Oldenbourg-Verlag fr die gute Zusammenarbeit danken.
Uwe Kiencke

Karlsruhe, im November 1997

Inhaltsverzeichnis
I

Einfhrung

Einleitung

1.1

Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2

Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3

Signalverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4

Struktur des Buches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Mathematische Grundlagen

2.1
2.1.1

Rume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Metrische und lineare Rume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2
2.2.1
2.2.2

Integraltransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Integrationskerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Zweidimensionale Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.3
2.3.1
2.3.2
2.3.3
2.3.4

Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Lineare Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Typen von linearen Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Verschiebungsoperator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31
31
36
37
40

2.4
2.4.1
2.4.2
2.4.3

Holomorphe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cauchysche Integralformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Laurent-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Residuensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40
41
43
47

II

Zeitkontinuum

11

51

Zeitkontinuierliche Signale

53

3.1
3.1.1
3.1.2
3.1.3

Funktionenrume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Norm und Innenprodukt von Signalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Norm und Innenprodukt mit Belegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

53
55
56
58

VIII

Inhaltsverzeichnis

3.2
3.2.1
3.2.2

Stochastische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

3.3
3.3.1
3.3.2

Deterministische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Orthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Biorthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

3.4

Fourier-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

3.5
3.5.1
3.5.2
3.5.3
3.5.4

Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Definition der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Eigenschaften der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cosinus- und Sinus-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

89
91
94
98
99

3.6
3.6.1
3.6.2
3.6.3
3.6.4
3.6.5
3.6.6
3.6.7
3.6.8
3.6.9
3.6.10

Testsignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konstantes Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vorzeichenfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Einheitssprung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Komplexe Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rechteckfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exponentialimpuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Doppelseitige Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exponentialsignal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gau-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

101
101
103
103
104
104
105
105
106
107
108

3.7
3.7.1
3.7.2

Besonderheiten der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110


Leckeekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Gibbssches Phnomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

3.8
3.8.1
3.8.2

Allgemeine Signaleigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118


Zeitdauer-Bandbreite-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
Riemann-Lebesguesches Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

Zeitkontinuierliche Systeme

4.1
4.1.1
4.1.2

Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Lineare zeitinvariante Systeme, LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Mehrgrensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

4.2
4.2.1

Beschreibung durch Dierenzialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137


Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

4.3
4.3.1
4.3.2
4.3.3
4.3.4
4.3.5

Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konvergenz der Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Inverse Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rcktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

127

144
144
147
149
150
155

Inhaltsverzeichnis

IX

4.3.6
4.3.7

Anwendung bei der Systembeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159


Vergleich zwischen Laplace- und Fourier-Transformation . . . . . . . . . . . . . . . 162

4.4
4.4.1
4.4.2
4.4.3
4.4.4
4.4.5
4.4.6

Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Verknpfung von Systemfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bode-Diagramme fr Dmpfung und Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Strukturdarstellung kontinuierlicher LTI-Systeme . . . . . . . . . . . . . . . . . . . . . .

4.5

Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

4.6
4.6.1
4.6.2
4.6.3

Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Filtertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Entwurf normierter Tiefpsse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bestimmung der bertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4.7

Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

III

162
164
168
170
175
178
182
188
189
191
198

Zeitdiskretisierung

209

Zeitdiskrete Signale

211

5.1
5.1.1
5.1.2
5.1.3
5.1.4

Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zeitdiskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

211
211
213
217
220

5.2

Diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

5.3
5.3.1
5.3.2
5.3.3

Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . . . . . . . . . . . . . . .


Definition der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . .
Eigenschaften der Fourier-Transformation zeitdiskreter Signale . . . . . . . . .
Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5.4
5.4.1
5.4.2

Abtastfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
berabtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Unterabtastung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242

5.5
5.5.1
5.5.2
5.5.3
5.5.4
5.5.5
5.5.6
5.5.7
5.5.8

Spektralanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Diskrete Fourier-Transformation, DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Schnelle Fourier-Transformation, FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Eigenschaften der DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Auflsung im Zeit- und Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
DFT einer komplexen Schwingung ohne Leckeekt . . . . . . . . . . . . . . . . . . . . .
DFT einer komplexen Schwingung mit Leckeekt . . . . . . . . . . . . . . . . . . . . . .
Zeropadding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Periodogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

227
228
231
232

250
250
254
256
258
260
262
265
267

Inhaltsverzeichnis

X
5.6
5.6.1
5.6.2

Weitere diskrete Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267


Walsh-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Allgemeine diskrete Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271

Zeitdiskrete Systeme

6.1
6.1.1
6.1.2

Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
Lineare zeitinvariante Systeme, LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
Mehrgrensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279

6.2
6.2.1

Beschreibung durch Dierenzengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279


Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280

6.3
6.3.1
6.3.2
6.3.3
6.3.4
6.3.5

Die z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Inverse z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mglichkeiten der Rcktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

282
282
285
289
290
297

6.4
6.4.1
6.4.2
6.4.3
6.4.4
6.4.5

Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Verknpfung von Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Strukturdarstellung zeitdiskreter LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . .

301
303
304
305
314
318

6.5
6.5.1
6.5.2

Linearphasige Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324


Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
Linearphasige FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328

6.6
6.6.1
6.6.2
6.6.3
6.6.4
6.6.5

Zeitdiskrete Darstellung kontinuierlicher Systeme . . . . . . . . . . . . . . . . . . . . . .


Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Umsetzung der bertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Pol-Nullstellenbertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

332
333
333
334
335
337

6.7
6.7.1
6.7.2
6.7.3
6.7.4
6.7.5
6.7.6
6.7.7
6.7.8

Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rechteckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Dreieckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Hanning-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Blackman-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Dolph-Tschebysche-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zeitdiskretes Gau-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

340
342
343
344
345
346
346
347
348

6.8
6.8.1
6.8.2

Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350


Kausales FIR-Filter ber Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
Akausales FIR-Filter ber die DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358

273

Inhaltsverzeichnis

XI

6.8.3
6.8.4

IIR-Filter ber die zeitdiskrete bertragungsfunktion . . . . . . . . . . . . . . . . . . 363


FIR-Filter ber Transformation des Frequenzganges . . . . . . . . . . . . . . . . . . . . 367

6.9
6.9.1
6.9.2
6.9.3

Spezielle zeitdiskrete Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Zeitdiskrete Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zeitdiskreter Dierenzierer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Korrektur der Gruppenlaufzeit eines Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . .

371
371
377
379

Fourier-Transformationen

383

Laplace-Transformation

391

z-Transformation

395

Blockbilder

399

Herleitung der Spline-Interpolation

401

Symbole

403

Literaturverzeichnis

405

Index

407

Teil I

Einfhrung

Einleitung

Wenn man ein Buch ber Signale und Systeme schreibt, so stellen sich am Anfang die
Fragen:
Was sind Signale?
Was sind Systeme?
Neben der Materie und der Energie, die durch Einsteins Formel E = m c2 verknpft
sind, ist der Begri Information von groer Bedeutung. Informationen knnen, genauso
wie Materie und Energie, gewonnen, verarbeitet, transportiert, gelagert und gebraucht
werden.
Der Weg der Stahlkarosserie eines Automobiles lsst sich etwa so beschreiben: Eisenerz
wird gewonnen, dann in Hochfen zu Rohstahl verarbeitet, zum Automobilhersteller
transportiert, dort zwischengelagert und danach wird daraus die Karosserie gefertigt.
Auch fr die Energie lsst sich ein Beispiel angeben: Die potentielle Energie eines Staudamms wird in kinetische Energie des herabstrmenden Wassers umgewandelt. In der
Wasserturbine geht diese dann ber in die rotatorische Energie des Turbine-GeneratorSystems. Der Generator erzeugt daraus elektrische Energie, die hochtransformiert zum
Verbraucher transportiert wird. Es soll hier nicht darber diskutiert werden, welche
Mglichkeiten es gibt, Materie und Energie zu gewinnen, zu verarbeiten, zu transportieren, zu lagern und zu nutzen, sondern diese Kette soll auf Informationen angewandt
werden.
Unabhngig vom abstrakten Begri Information ist diese in unserer technischen Welt
immer als physikalische Gre, d.h. als Signal, dargestellt. So kann man also Signale
gewinnen (messen), verarbeiten, bertragen, speichern und nutzen (regeln und steuern). Die Signalgewinnung, d.h. das Messen physikalischer Gren, ist im Bereich der
Messtechnik behandelt. Die Signalbertragung findet ihren Platz in der Nachrichtentechnik. In der heutigen technischen Welt werden Signale zum Beispiel dazu verwendet,
um Prozesse zu regeln und zu steuern. Das Speichern von Signalen ist mehr ein interdisziplinrer Fachbereich, zumal digitale Signale uerst einfach gespeichert werden
knnen. brig geblieben ist die Signalverarbeitung. Nun sollte es einfacher sein, die
Verarbeitung gegenber den anderen Gliedern der Kette abzugrenzen.
Man versteht unter Signalverarbeitung die Aufbereitung unterschiedlichster Signale, um
bestimmte Informationen herauszufiltern. Genauso wie das Eisen erst aus dem Eisenerz gewonnen werden muss, mssen bestimmte Informationen aus dem verrauschten
Signal gefiltert werden. Des Weiteren knnen, entsprechend der Energie, Signale in andere Signale umgeformt werden. Auch hier erhlt man neue Informationen.

1 Einleitung

1.1

Signale

Um auf die Frage nher eingehen zu knnen, was Signale sind, betrachten wir als Erstes
nachfolgende Definition.
Unter einem Signal versteht man den sich zeitlich verndernden Verlauf einer
beobachteten Gre, die eine fr den Betrachter relevante Information enthlt.
Beobachtete Gren knnen unterschiedlicher Natur sein. So kommen gemessene physikalische Gren in Betracht, wie z.B. Spannung und Strom in der Elektrotechnik oder
Schalldruck und Schallschnelle in der Akustik. Die physikalische Gre braucht in vielen
Fllen gar nicht unmittelbar messbar zu sein, wenn es gelingt, sie aus anderen vorhandenen Messgren zu schtzen. Solche Schtzverfahren sind allerdings nicht Gegenstand
dieses Buches.
Die beobachtete Gre kann aber auch ganz anderer Natur sein, z.B. das Datenwort in
einem Computer oder Daten, die ber das Internet bezogen werden. So ist der zeitliche
Verlauf des Brsenkurses einer Aktie ein Signal. Die Aktienkurse schwanken bekanntlich
stark, was als Strung angesehen werden kann. Anleger sind mehr am lngerfristigen
Kurstrend interessiert. Die Strungen mssen deshalb herausgefiltert werden. Auch dazu
dient die Signalverarbeitung.
Mathematisch werden Signale durch reell- oder komplexwertige Funktionen der Zeit
dargestellt, das heit, es handelt sich um eindeutige Abbildungen von R nach R oder
nach C. Nicht jede Funktion der Zeit reprsentiert ein physikalisch erzeugbares Signal.
Es erscheint jedoch notwendig, auch physikalisch nicht realisierbare Signale als Signalmodelle fr theoretische Untersuchungen zur Verfgung zu haben.

1.2

Systeme

Unter dem Begri System versteht man eine Einrichtung, die auf ein Eingangssignal
ye (t) mit einem Ausgangssignal ya (t) antwortet, vgl. Abbildung 1.1.

ye (t)

System

ya (t)=S{ye(t)}

Abbildung 1.1: Zur Definition des


Systembegris

Mathematisch wird dieses Verhalten durch eine Operatorgleichung beschrieben:


ya (t) = S{ye (t)} .
Als Beispiele sollen ein Spannungsteiler und ein RC-Tiefpass betrachtet werden.

(1.1)

1.2 Systeme

Beispiel 1.2 (Spannungsteiler als System)


Eine Eingangsspannung ue (t) wird an einen Spannungsteiler gelegt (siehe Abb. 1.2).
Ohne groe Rechnung ergibt sich sofort, dass die Ausgangsspannung ua (t) durch
ua (t) =

R2
ue (t)
R1 + R 2

(1.3)

beschrieben wird.
R

u (t)

u (t)
a

Abbildung 1.2: Spannungsteiler

Der Spannungsteiler stellt ein System dar, das die Eingangsspannung ue (t) in eine
Ausgangsspannung ua (t) berfhrt. Will man das System mathematisch beschreiben, so dient dazu Gleichung (1.3).

Beispiel 1.4 (RC-Tiefpass als System)


Eine Eingangsspannung ue (t) wird an einen RC-Tiefpass gelegt (siehe Abb. 1.3). Mit
dem Zusammenhang zwischen Strom und Spannung an einem Kondensator,
iC (t) = C

duC (t)
,
dt

(1.5)

kann man den RC-Tiefpass als Dierenzialgleichung zwischen der Ausgangsspannung


ua (t) und der Eingangsspannung ue (t) darstellen:
(1.6)

RC u a (t) + ua (t) = ue (t) .

Benutzt man hingegen eine Zeigerdiagrammdarstellung aus den Grundlagen der


Elektrotechnik, so ergibt sich mit
Ua =

1
jC

R+

1
jC

Ue =

1
Ue
1 + jRC

R
u (t)
e

u (t)
C

Abbildung 1.3: RC-Tiefpass

(1.7)

1 Einleitung

eine andere Darstellung zwischen Ein- und Ausgangsspannung. Whrend die Darstellung des Systems RC-Tiefpass als Dierenzialgleichung fr alle mglichen Eingangsspannungen eine Lsung anbietet, gilt die Zeigerdiagrammdarstellung nur bei
sinusfrmigen Spannungen.

Anhand der beiden Beispiele zeigt sich, wie schwierig es ist, ein System mathematisch
zu beschreiben. Dabei versucht man, wie bei den Signalen, die Systeme durch eine Art
Systemfunktion zu beschreiben.

1.3

Signalverarbeitung

Die Aufgabe der Signalverarbeitung ist die gezielte Bereitstellung von Systemen zur
kontrollierten Beeinflussung von Signalen. Soll z.B. eine Spannung u(t) halbiert werden,
so kann man einen Spannungsteiler verwenden. Da sowohl die Signale als auch die
Systeme durch Funktionen dargestellt werden, sind fr die Ermittlung einer optimalen
Systemfunktion Kenntnisse der Funktionalanalysis ntig. Um die grundlegende Struktur
der Untersuchung von Signalen und die gezielte Bereitstellung von Systemen darstellen
zu knnen, wird in diesem Abschnitt statt der Funktionalanalysis die Vektoranalysis, die
aus den Grundlagen-Vorlesungen der hheren Mathematik bekannt ist, zur Motivation
herangezogen.
Dabei werden Signale als eine Art Vektoren dargestellt. Ein N -dimensionaler Vektor y
stellt einen Punkt im N -dimensionalen Raum dar, d.h. jedes Signal wird durch einen
Punkt dargestellt. Untersucht man nun eines oder mehrere Signale nach bestimmten
Eigenschaften, so untersucht man die Lage der den Signalen entsprechenden Punkte im
Raum.
Beispiel 1.8 (nderung der Basisvektoren)
Es soll untersucht werden, ob gegebene Signale auf einer Geraden liegen. Natrlich
knnte man smtliche Signalpunkte in die Geradengleichung einsetzen und berprfen, ob sie diese erfllen. Da aber im Realen Signale gemessene physikalische Gren
beschreiben, weisen die Messwerte Strungen auf, d.h. auch wenn sich die physikalische Gre auf der Gerade befand, so befinden sich die Messwerte im Allgemeinen
nicht darauf.
Eine zweite Mglichkeit bestnde darin, den Abstand zwischen den Punkten und
der Geraden zu bestimmen. berschreitet der Abstand ein bestimmtes Ma nicht,
so kann man annehmen, dass der jeweilige Punkt auf der Geraden liegt.
Die dritte, und hier weiter betrachtete Mglichkeit ist eine nderung der Basisvektoren, so dass die Gerade parallel zu bzw. senkrecht auf den Basisvektoren steht. Dann
mssen die Koordinaten, zu denen die Gerade senkrecht auf den Basisvektoren steht,
innerhalb eines bestimmten Intervalls liegen.
Die nderung der Basisvektoren soll an Abbildung 1.4 exemplarisch gezeigt werden.
Whrend der Punkt P im kartesischen Koordinatensytem die Koordinaten pT =
(1, 1) besitzt, lassen sich diese im neuen Basisvektorensystem S = {s1 , s2 },

1.3 Signalverarbeitung

2
s2
P

-1

 
2
,
s1 =
1

Abbildung 1.4: nderung der Basisvektoren

s2 =

1
2

ber
   
2
1

1
1
3
p1 =     = ,
5
2
2

1
1


  
1
1

2
1
1
=
 
p2 = 
5
1
1

2
2

berechnen. Im Allgemeinen wird die i-te Koordinate eines Vektors im neuen Basisvektorensystem S durch
pi =

p si
si si

(1.9)

angegeben. Handelt es sich bei S um ein orthonormales Basisvektorensystem, so ist


der Nenner si si = 1 und die i-te Koordinate wird durch
pi = p si

(1.10)

bestimmt. Von groer Bedeutung ist also das Innenprodukt zwischen zwei Vektoren. Mit dem Innenprodukt kann man ein Signal in eine neue Darstellungsweise
transformieren. Nach der Einfhrung eines verallgemeinerten Innenprodukts zwischen zwei Funktionen im Rahmen der Funktionalanalysis kann man mit dem Innenprodukt auch Signaltransformationen im Funktionenraum durchfhren. Hierbei
sei angemerkt, dass solch eine Transformation nicht das Signal, sondern nur seine
Darstellungsweise ndert. So liegt der Punkt P immer noch an der gleichen Stelle.
Er besitzt im neuen Basisvektorensystem S nur andere Koordinaten.

Die gesamte Signaluntersuchung verndert also ein Signal nicht, sondern versucht durch
geschickte nderung der Darstellungsweise mehr Aussagen ber das Signal zu gewinnen.

1 Einleitung

Systeme werden in der Vektoranalysis durch Matrizen S dargestellt. Die Multiplikation


eines Eingangssignals y e mit einer Systemmatrix S ergibt ein Ausgangssignal y a :
(1.11)

ya = S ye .
Dies soll mit zwei kleinen Beispielen verdeutlicht werden.
Beispiel 1.12 (Projektion auf die x-Achse)

Mchte man einen Punkt P im zweidimensionalen Raum auf die x-Achse projizieren,
so kann man dies mit Hilfe folgender Systemmatrix S tun:


10
.
S=
00
So wird zum Beispiel der Punkt (2, 3)T mit der Systemmatrix S auf den Punkt
  
  
2
10
2
=

0
00
3
projiziert.

Beispiel 1.13 (Drehung um den Winkel )


Mchte man einen Vektor zum Punkt P im zweidimensionalen Raum um den Winkel
drehen (siehe Abbildung 1.5), so kann man dies mit Hilfe folgender Systemmatrix
S tun:


cos sin
S=
.
sin cos

y
P

Abbildung 1.5: Drehung eines Vektors zum


Punkt um den Winkel

1.4 Struktur des Buches

So wird zum Beispiel der Punkt (2, 1)T bei einer Drehung von 30 mit der Systemmatrix S auf den Punkt
 
  

2 31
3
1

2
2 2
2
=

3+2
3
1
1
2

abgebildet.

Die beiden Beispiele haben gezeigt, dass ein System im Bereich der Vektoranalysis durch
eine Matrix dargestellt werden kann. Im Bereich der Funktionalanalysis werden Systeme
durch Systemfunktionen beschrieben.

1.4

Struktur des Buches

Nach einer Einfhrung in die Funktionalanalysis werden zuerst Untersuchungsmethoden


von Signalen und dann Eigenschaften, Darstellung, Untersuchung und Entwurf von
Systemen sowohl fr kontinuierliche als auch fr diskrete Zeitnderungen vorgestellt.
Im Zeitkontinuum kann man reale physikalische Prozesse und deren Signale und Systeme
beschreiben. Dabei werden die physikalischen Gren in stetige Signale abgebildet, d.h.
das Signal kann durch eine Funktion dargestellt werden.
Signalfunktion y(t) :

y : R R

(1.14)

Bei der Zeitdiskretisierung liegen die Werte der physikalischen Gre nur zu quidistanten Zeitpunkten vor, d.h. das Signal wird durch eine Folge dargestellt. Im Gegensatz
zur blichen mathematischen Folge existiert die Signalfolge auch fr negative Indizes.
Signalfolge yn :

y : Z R

(1.15)

Im Anhang findet man einen Vergleich aller Transformationen fr zeitkontinuierliche


und zeitdiskrete Signale sowie Tabellen mit Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-, Laplace- und z-Transformation.

Mathematische Grundlagen

Die Betrachtung von Signalen und Systemen kommt als Ingenieurwissenschaft ohne
mathematische Hilfsmittel nicht aus. Die Vorlesungen der Hheren Mathematik bauen
ein stabiles Fundament auf, das durch weitere Begrie der Funktionalanalysis erweitert wird. Ausgehend von linearen Vektorrumen werden die fr die Signalverarbeitung
wichtigen Hilbertrume eingefhrt und die linearen Operatoren behandelt. Von diesem
Punkt aus ergibt sich eine gute bersicht ber die verwendeten mathematischen Methoden. Die gemeinsame Basis der Verfahren wird deutlich. hnlichkeiten erscheinen
nicht zufllig, sie lassen sich begrnden. Die kurze Darstellung ist keine Einfhrung in
die Funktionalanalysis. Wer eine vollstndige und abgeschlossene Darstellung wnscht,
findet sie unter [Heu86, Heu04, HW98, KA78].
Neben den normalen vier Grundrechenarten gibt es weitere Rechenzeichen, die Operatoren. Sie beschreiben, je nach Art, eine jeweils andere Abbildung einer Definitionsmenge
in eine Bildmenge.
Im Bereich der Signalverarbeitung und Systembeschreibung werden nicht nur reellwertige Funktionen benutzt, sondern auch Funktionen, welche die reellen Zahlen in die
komplexe Ebene oder die komplexe Ebene in sich abbilden. Hierzu werden die holomorphen Funktionen in komprimierter Form wiederholt.
Beim berblttern des 2. Kapitels wird dem Leser eine recht mathematische Darstellungsweise auallen. Diese ist nicht zur Abschreckung gedacht, sondern bei der axiomatischen Vorgehensweise unumgnglich.

2.1

Rume

Man kann die hier behandelten Rume als abstrakte Erweiterung des aus unserer Erfahrungswelt wohl bekannten dreidimensionalen euklidischen Raumes R3 , in dem wir leben,
auassen. Die axiomatische Vorgehensweise der Mathematik ermglicht eine bertragung der typischen Eigenschaften dieses Raumes auf Vektoren, die jetzt aus Zufallsvariablen, Wertefolgen oder gewhnlichen Funktionen bestehen knnen. Durch diesen
Zusammenhang kann man aber fast immer auf die Visualisierung von unanschaulichen
Formulierungen durch geometrische Darstellungen zurckgreifen.
Abbildung 2.1 zeigt den Weg, der von den unstrukturierten Mengen durch die Einfhrung von algebraischen und metrischen Strukturen hin zu den Hilbert-Rumen fhrt.

2 Mathematische Grundlagen

12

unstrukturierte
Mengen








H
H

HH
j
H

Lineare Rume:
Addition, Multiplikation mit Skalaren

Metrische Rume:
Abstand d(x, y)






9
?
Normierte Rume:
Norm ||x||
Abstand d(x, y) = ||x y||

H
H

Innenproduktrume:
Innenprodukt x, y






HH
j
H




Unitre
Rume:
||x|| = x, x

?
Hilbert-Raum:
Vollstndigkeit,
Fundamentalfolge

Abbildung 2.1: Zusammenhang mathematischer Rume

2.1 Rume

13

2.1.1

Metrische und lineare Rume

2.1.1.1

Metrischer Raum

Ein metrischer Raum erlaubt die Berechnung von Abstnden zwischen den betrachteten
Elementen.

Definition 2.1 (Metrischer Raum)


Eine Menge M von Elementen heit ein metrischer Raum, wenn jedem Elementepaar
x, y M eine reelle Zahl d(x, y) mit folgenden Eigenschaften zugeordnet ist:
(M1)

d(x, y) 0,

(M2)

d(x, y) = d(y, x)

(M3)

d(x, y) d(x, z) + d(z, y)

d(x, y) = 0 x = y
(Dreiecksungleichung, Abbildung 2.2 )

Man nennt d(x, y) den Abstand zwischen x und y.

d(x, z)

x 







z
A

d(x, y)

A
A

d(y, z)
A
A y
Abbildung 2.2: Dreiecksungleichung

Beispiel 2.2 (Abstand im zweidimensionalen euklidischen Raum)


Im zweidimensionalen euklidischen Raum mit den Ortsvektoren x = (x1 , x2 )T und
y = (y1 , y2 )T wird der Abstand der durch die beiden Ortsvektoren dargestellten
Punkte durch

d(x, y) = (x1 y1 )2 + (x2 y2 )2
berechnet.

2.1.1.2

Linearer Raum

Der schon in der Schulzeit geprgte Begri des Vektors wird hier erweitert. Dabei muss
der neue Vektor nicht die Pfeilgestalt des alten Vektors besitzen. Vielmehr gilt
jetzt allgemein:

2 Mathematische Grundlagen

14
Definition 2.3 (Linearer Raum, Vektorraum)

Eine Menge V von Objekten (den Vektoren) heit Linearer Raum oder Vektorraum
ber dem Krper C (den Skalaren), wenn gilt:
1. Es existiert eine Operation, genannt Vektoraddition, die jedem Paar von Vektoren x, y V einen Vektor x + y V zuweist, so dass die Eigenschaften
(L1)

x+y =y+x

(L2)

x + (y + z) = (x + y) + z

(L3)

Es gibt einen Nullvektor 0 V , so dass x + 0 = x

(L4)

(Kommutativ)
(Assoziativ)
,x V .

Zu jedem Vektor x V gibt es einen inversen Vektor x V , so dass


gilt x + (x) = 0.

erfllt sind. Die Vektoren bilden also bezglich der Addition eine kommutative
Gruppe.
2. Es existiert eine Operation, genannt skalare Multiplikation, die jedem Skalar
c C und Vektor x V einen Vektor cx V zuweist, so dass
(L5)

1x = x

(L6)

(c1 c2 )x = c1 (c2 x)

(L7)

c(x + y) = cx + cy
(c1 + c2 )x = c1 x + c2 x

(Assoziativ)
(Distributiv)

erfllt sind. Es sind nicht nur lineare Rume ber dem Krper der reellen
Zahlen, sondern auch ber den komplexen Zahlen mglich.

Beispiel 2.4 (n-dimensionaler euklidischer Raum)


Beim n-dimensionalen euklidischen Raum werden die Skalare durch den Krper der
reellen Zahlen gebildet. Die Vektoren sind n-Tupel der Form
x = (x1 , x2 , . . . , xn )T ,
wobei die xi reelle Zahlen sind und die i-te Komponente von x genannt werden. Die
Vektoraddition und die skalare Multiplikation werden komponentenweise erklrt:
x + y = (x1 + y1 , x2 + y2 , . . . , xn + yn )T ,
cx = (cx1 , cx2 , . . . , cxn )T .
Der Nullvektor ist durch 0 = (0, 0, . . . , 0)T und das Inverse eines Vektors x durch
x = (x1 , x2 , . . . , xn )T gegeben.

Ein weiterer im Folgenden auftretender Raum ist der Raum der Funktionen einer Zeitvariablen.

2.1 Rume

15

Beispiel 2.5 (Funktionenraum)


Die Menge aller Funktionen x(t) V = {x : R R} bilden einen Vektorraum ber
dem Krper der reellen Zahlen, wenn man die Funktionenaddition und Multiplikation
mit einem Skalar wie gewhnlich punktweise definiert.

Beispiel 2.6 (Zufallsvariablen)


Wenn C = R den Krper der reellen Zahlen bezeichnet, V die Menge der Zufallsvariablen mit endlichem Mittelwert und endlicher Varianz und c1 x + c2 y fr
x, y V, c1 , c2 C in gewohnter Weise definiert ist, erhlt man ebenfalls einen
Vektorraum.
Eine Zufallsvariable ist eine Variable, die nicht explizit bekannt ist. Ein stochastischer Prozess ist eine Funktion, die von einer Zufallsvariablen abhngt, und deren
zeitlicher Verlauf nicht bekannt ist. Jedoch kann man mit Hilfe der Dichtefunktion
dieser Zufallsvariable Aussagen darber machen, wie hoch die Wahrscheinlichkeit ist,
dass der Funktionswert der Funktion innerhalb eines bestimmten Intervalls liegt. Der
Mittelwert und die Varianz einer Zufallsvariablen lassen sich aus der Dichtefunktion
ermitteln. Nimmt man zwei Elemente, d. h. zwei beliebige zufllige Funktionen, aus
diesem Raum heraus und addiert sie in einer Linearkombination miteinander, so
entsteht wieder eine zufllige Funktion mit endlichem Mittelwert und Varianz, also
eine Funktion aus V .

2.1.1.3

Normierte Rume

Die Bewertung der Lnge eines Vektors wird durch eine Norm ermglicht.

Definition 2.7 (Normierte Rume)


Ein linearer Raum V ber dem Krper C heit normierter Raum, wenn jedem Element x V eine reelle Zahl ||x||, die Norm des Elementes x, zugeordnet ist und diese
Norm folgende Eigenschaften hat:
(N1)

||x|| 0,

(N2)

||x|| = || ||x|| , C

(N3)

||x + y|| ||x|| + ||y||

||x|| = 0 x = 0

(positive Definitheit)
(Homogenitt)
(Dreiecksungleichung)

Ein normierter Raum V wird durch die Definition


d(x, y) = ||x y||

(2.8)

zu einem metrischen Raum. In einem normierten Raum sind durch (2.8) alle Eigenschaften (M1) bis (M3) einer Metrik erfllt. Die Metrik (2.8) hat noch die weiteren

2 Mathematische Grundlagen

16
Eigenschaften:
d(x + z, y + z) = d(x, y)
d(x, y) = || d(x, y)

2.1.1.4

Innenproduktraum

Als Nchstes wird der Begri des Innenproduktes eingefhrt.


Definition 2.9 (Innenproduktraum)
Ein (reeller bzw. komplexer) linearer Raum V heit Innenproduktraum, wenn jedem
Elementepaar x, y V eine (reelle bzw. komplexe) Zahl x, y, das Innenprodukt der
Elemente x und y, mit folgenden Eigenschaften zugeordnet ist:
(IP1)

x, x 0 , x, x = 0 x = 0

(IP2)

x, y = y, x

(IP3)

x + y, z = x, z + y, z

(IP4)

x, y = x, y

In einem linearen Raum mit Innenprodukt gilt


Satz 2.10 (Vertauschung des Skalars)
Aus (IP2) und (IP4) folgt:
x, y = x, y = y, x = ( y, x) =  y, x
= x, y

und
Satz 2.11 (Schwarzsche Ungleichung)
Es gilt die Schwarzsche Ungleichung
|x, y|2 x, x y, y.

2.1 Rume

17

Beweis:
Fr den Fall y = 0 ist die Aussage klar. Ist jedoch y = 0, so ergibt sich fr alle :
0 x + y, x + y = x, x + x, y + y, x + ||2 y, y
Setzt man nun
=

x, y
,
y, y

so erhlt man
0 x, x

y, xx, y x, yy, x x, yy, x

y, y.
+
y, y
y, y
|y, y|2

Die Multiplikation mit y, y ergibt die Schwarzsche Ungleichung aus Satz 2.11:
0 x, x y, y x, y y, x



|x,y|2

Bemerkung 2.12
Aus obigem Beweis ist sofort ersichtlich, dass in der Schwarzschen Ungleichung die
Gleichheit gilt, falls x + y = 0 erfllt ist, d.h. x und y linear abhngig sind.

Auf eine besondere, dem Leser jedoch wohl bekannte Eigenschaft des inneren Produktes
soll noch hingewiesen werden. Die Norm und der Abstand sind positiv und nur dann
null, wenn x = 0 bzw. x = y ist. Beim Innenprodukt x, y gibt es dagegen viele
Vektoren y, fr welche bei gegebenem Vektor x das Innenprodukt verschwindet. Dabei
sind weder x noch y gleich null.

Definition 2.13 (Orthogonalitt)


Man bezeichnet zwei Vektoren x und y mit x, y = 0 als zueinander orthogonal und
schreibt x y, falls x, y = 0 gilt.
Beispielsweise sind die Einheitsvektoren im kartesischen Koordinatensystem zueinander
orthogonal. Das Innenprodukt der Vektoren x und y ist dort gegeben durch x, y =
||x|| ||y|| cos (), wobei der von x und y eingeschlossene Winkel ist. Das Innenprodukt
fr ||x|| und ||y|| wird zu Null, wenn = 2 oder = 3
2 ist, also wenn x und y einen
rechten Winkel einschlieen.

2 Mathematische Grundlagen

18
2.1.1.5

Unitrer Raum

Fhrt man in einem linearen Raum V mit Innenprodukt die Norm



||x|| = x, x , x V

ein, dann ist V ein normierter Raum. Es ergibt sich nmlich

||x + y||2 = x + y, x + y = x, x + x, y + y, x + y, y


= x, x + x, y + x, y + y, y
x, x + 2|x, y| + y, y

= ||x||2 + 2 |x, y|2 + ||y||2

und dann mit Hilfe der Schwarzschen Ungleichung (Satz 2.11)

||x + y||2 ||x||2 + 2||x|| ||y|| + ||y||2 = (||x|| + ||y||)2


die Dreiecksungleichung
||x + y|| ||x|| + ||y||.
Alle anderen Eigenschaften einer Norm sind durch die fr ein Innenprodukt geforderten
Eigenschaften oensichtlich auch erfllt.
Definition 2.14 (Unitrer Raum)
Ein normierter Raum V heit unitr, wenn V ein Innenproduktraum
ist, in dem

Norm und Skalarprodukt durch die Beziehung ||x|| = x, x fr alle x V zusammenhngen.
Unitre Rume, also normierte Rume mit Innenprodukt, braucht man in der Technik und in der Signalverarbeitung hufig. Wie im nchsten Beispiel gezeigt, lsst sich
beispielsweise die Berechnung der Leistung in elektrischen Systemen damit beschreiben.
Beispiel 2.15 (Komplexe Leistung)
Wie schon aus den Grundlagen der Elektrotechnik bekannt, kann man sinusfrmige
Wechselspannungen und -strme als komplexe Gren darstellen. Die komplexe Leistung kann dann als Innenprodukt
S=

1
U, I
2

angegeben werden. Dabei ist die komplexe Leistung als eine Energiedichtefunktion
zu interpretieren. Das Integral von bis wrde im Allgemeinen eine unendlich

2.1 Rume

19

groe Energie ergeben, d.h. das Integral konvergiert nicht. Deshalb wird das Innenprodukt als die mittlere Leistung, d.h. als mittlere Energie pro Zeiteinheit, mit Hilfe
eines Integrals berechnet:
T

1
S =
T

u(t)i(t) dt .

T2

2.1.1.6

Hilbert-Raum

Zum Abschluss kommt nun noch die Definition der Hilbert-Rume. Fr die Definition
des Hilbert-Raums bentigt man den Begri der Vollstndigkeit. Diesen kann man im
Bezug auf metrische Rume leicht angeben.
Definition 2.16 (Vollstndigkeit in metrischen Rumen)
Ein metrischer Raum M heit vollstndig, wenn jede konvergente Folge von Punkten
aus M einen Grenzpunkt im Raum M besitzt.
Die Vollstndigkeit lsst sich anschaulich an einem kleinen Beispiel aus der Schulmathematik betrachten:

Beispiel 2.17 (Bestimmung von 2)

Es soll der Wert von 2 bestimmt werden, d.h. man sucht die Nullstelle der Funktion
f (x) = x2 2.

Mit Hilfe des Newtonschen Verfahrens lsst sich die Approximation der Nullstelle
mit der Iterationsvorschrift
xn+1 = xn

f (xn )
x2n 2

=
x
n
f (xn )
2xn

formulieren. Whlt man den Anfangswert aus den


rationalen Zahlen Q, so ist jeder
weitere Wert xn ebenfalls aus Q. Der Grenzwert 2 ist dagegen nicht aus Q, d.h. Q
ist nicht vollstndig.

In [Heu86] wird gezeigt, dass Rume endlicher Dimension immer vollstndig sind.

Mit dem Begri der Vollstndigkeit kann man die Definition des Hilbert-Raums angeben:
Definition 2.18 (Hilbert-Raum)
Jeder vollstndige unitre Raum V heit ein Hilbert-Raum.
In Abschnitt 3.1 werden die Funktionenrume eingefhrt. Hierbei handelt es sich um
Hilbert-Rume, deren Elemente Funktionen sind.

2 Mathematische Grundlagen

20
2.1.1.7

Basis

Folgender Sprachgebrauch hat sich eingebrgert: Eine Basis des R3 , z.B. die kartesischen
Koordinaten oder die Kugelkoordinaten, spannt den Raum R3 auf. Hierbei bedeutet R,
dass die Koordinaten den reellen Zahlen entnommen sind. Die natrliche Zahl N = 3
ist die Dimension des Raumes und entspricht der Zahl der Basisvektoren.
In einem Vektorraum sind verschiedene Koordinatensysteme mglich. Der Leser hat
sicher in seiner Studienzeit erlebt, wie entscheidend eine bersichtliche, elegante Rechnung von der Wahl eines geeigneten Koordinatensystems abhngt. Oensichtlich lassen
sich die Punkte im Raum durch verschiedene Koordinatensysteme beschreiben.
Durch die Wahl des Abstandes zweier Vektoren d(x, y), der Metrik, das innere Produkt
x, y und durch die Lnge der Vektoren ||x||, Norm, strukturiert man sein Koordinatensystem, d.h. die Basis.
Ein Vektor y wird im Einklang mit den Rechenregeln von Definition 2.3 als Linearkombination der Basisvektoren x1 , . . . , xN dargestellt:
y = a1 x1 + a2 x2 + . . . + aN xN .

(2.19)

Dadurch kann jeder Vektor in einem festgelegten Koordinatensystem durch seine Koordinaten a1 , . . . , aN beschrieben werden und umgekehrt. Die Frage ist, wie die Koordinaten ai bestimmt werden knnen. Dazu multipliziert man von rechts nacheinander
mit den Vektoren x1 , . . . , xN und erhlt ein in den ai lineares Gleichungssystem:
y, x1  = a1 x1 , x1  + a2 x2 , x1  + + aN xN , x1 
y, x2  = a1 x1 , x2  + a2 x2 , x2  + + aN xN , x2 
..
..
..
..
.
.
.
+ .. +
.
+
.
=
y, xN  = a1 x1 , xN  + a2 x2 , xN  + + aN xN , xN 

(2.20)

In Matrixschreibweise lsst sich Gleichung (2.20) schreiben als


y, x1 
x1 , x1 


..
..

=
.
.
y, xN 
x1 , xN 

a1
xN , x1 
..
..
..
.
.
.
aN
xN , xN 

(2.21)

oder mit geeigneten Definitionen auch als


z = G a.

(2.22)

Lsst sich die Matrix G invertieren, existiert eine eindeutige Lsung fr a. Die Bedingung fr die Invertierbarkeit von G ist bekanntlich, dass die Determinante |G| nicht
verschwindet.

2.1 Rume

21

Definition 2.23 (Basis)


Eine Basis (x1 , . . . , xN ) spannt einen N -dimensionalen Raum RN auf, wobei die
Vektoren xi linear unabhngig sein mssen. Dazu muss die Gramsche Matrix G
regulr sein, d.h. fr die Determinante gilt: det(G) = |G| =
 0.
Eine Basis als Menge eines bergeordneten Raumes R heit vollstndig, wenn die
Basisvektoren den Raum vollstndig aufspannen, d.h. jeder Punkt im Raum durch
Linearkombination der Basisvektoren erreichbar ist und somit RN = R gilt.

Satz 2.24 (Lineare Unabhngigkeit)


Aus Definition 2.23 folgt, dass die Vektoren x1 , . . . , xN linear unabhngig sind, wenn
die Matrix G mit gij = xi , xj  regulr ist.

D.h., die Linearkombination der Vektoren x1 , . . . , xN verschwindet bei linear unabhngigen Vektoren xi nur dann, wenn alle ai null sind, d.h.:
n

i=1

ai xi = 0 = ai = 0 , i {1, . . . , n} .

(2.25)

Satz 2.26 (Hermitesche Matrix)


Aus der Definition 2.9, (I2), zusammen mit der Gleichung (2.21) folgt, dass die

Gramsche Matrix die Eigenschaft gij = gji


bzw. G = GT besitzt. Solche Matrizen
heien hermitesche Matrizen.

Sehr vereinfachend bei der Berechnung der Koordinaten ai sind die so genannten orthonormalen Basen.
Definition 2.27 (Orthonormale Basis)
Eine orthonormale Basis (e1 , . . . , eN ) ist eine Basis mit den zustzlichen Eigenschaften:
(OB1) ||ei || = 1 (normiert)
(OB2) ei , ej  = ij

, wobei ij =

1 fr i = j
0 sonst

Dann ist die Matrix, die aus diesen Vektoren gebildet wird, E = (e1 , . . . , eN ), eine
orthogonale Matrix, denn wegen ei , ej  = ij folgt:
ET E = I

2 Mathematische Grundlagen

22
und somit
E 1 = E T .

Hierbei folgt die erste Eigenschaft (OB1) aus der zweiten (OB2), wird aber aus Grnden der bersichtlichkeit separat aufgefhrt. Mit Hilfe der Definition 2.27 lsst sich
Gleichung (2.20) bei orthogonalen Basisvektoren drastisch vereinfachen:
y, e1  = a1
y, e2  = a2
..
.

(2.28)

y, eN  = aN
Fr die Gramsche Matrix G gilt G = I, wodurch sich die Invertierung erbrigt.
Von unseren Erfahrungen im Raum R3 wissen wir, dass sich immer eine orthonormale
Basis schaen lsst. Dies gilt fr alle unitren Rume. Jeder Vektor y V N lsst sich
als Linearkombination von N unabhngigen Basisvektoren darstellen. Wie man von
einer Basis (x1 , . . . , xN ) zu einer orthonormalen Basis kommt, zeigt das Verfahren von
Erhard Schmidt, vgl. [HW98]:
Satz 2.29 (Schmidtsches Orthonormalisierungsverfahren)
Es sei B die Basis (x1 , . . . , xN ) mit linear unabhngigen Vektoren xi . Dann gibt es
eine orthonormale Basis E = (e1 , . . . , eN ), welche denselben Raum aufspannt. Man
findet E durch folgende Vorgehensweise:
x1
(2.30)
e1 =
||x1 ||
hk
ek =
,mit
(2.31)
||hk ||
hk = xk

k1

i=1

xk , ei ei

, k = 2, . . . , N

(2.32)

Dass der Vektor hk wirklich senkrecht zu allen bisherigen Basisvektoren el , l k 1,


steht, lsst sich einfach zeigen. Durch Multiplikation mit el von rechts ergibt sich
hk , el  = xk , el 

k1

i=1

xk , ei  ei , el  = 0.
 
il


xk , el 

Diese Formeln gestatten, das Orthonormalsystem E, mit e1 beginnend, der Reihe


nach auszurechnen. Das Verfahren wird bis k = N durchgefhrt.

2.1 Rume

23
p p
x2 , e1 e1 
*A
K p p p p
p p

A
p p

p p

A
p p

*

Y
H
p p

H
A
p p

H
h
A 2
HH
p p 
x2 , e1 e1 
A

H

H

AK
x
x2 HH


1

H A e2 
*

H 

HA
e1

Abbildung 2.3: Schmidtsches Orthonormalisierungsverfahren in der Ebene

Genauso kann man nun ein Orthonormalsystem E um eine Dimension erhhen, indem
man, ausgehend von einem zu e1 , . . . , eN orthogonalen und somit auch linear unabhngigen Vektor xN +1 , Gleichung (2.31) und (2.32) anwendet.
Abbildung 2.3 zeigt die Prozedur in der Ebene.
Beispiel 2.33 (Schmidtsches Orthonormalisierungsverfahren)
Im dreidimensionalen euklidischen Raum ist die Basis



3
2
1
x1 = 0 , x2 = 0 , x3 = 4
1
0
4

gegeben. Um aus der Basis (x1 , x2 , x3 ) eine orthonormale Basis zu konstruieren,


wendet man das Schmidtsche Orthonormalisierungsverfahren Schritt fr Schritt an.

0,6
x1
= 0
1. Mit (2.30): e1 =
||x1 ||
0,8

0,8
2. Mit (2.32): h2 = x2 x2 , e1  e1 = 0
 
0,6
2

0,8
h2
= 0
3. Mit (2.31): e2 =
||h2 ||
0,6

0
2

4. Mit (2.32): h3 = x3
x3 , ei ei = 4
i=1
0

0
h3
5. Mit (2.31): e3 =
= 1
||h3 ||
0

2 Mathematische Grundlagen

24

Man kann leicht berprfen, dass die Vektoren e1 ,e2 und e3 eine orthonormale Basis
bilden.

Am Schmidtschen Orthonormalisierungsverfahren haben wir erfahren, dass sich mit


unabhngigen Vektoren x1 , . . . , xk eine orthonormale Basis e1 , . . . , ek schaen lsst, die
einen Raum V k aufspannt. Kommen neue unabhngige Vektoren xk+1 , . . . , xk+n hinzu,
so lassen sich orthonormale Vektoren ek+1 , . . . , ek+n konstruieren, die einen Raum V n
aufspannen. Beide Rume zusammen bilden den k + n dimensionalen Raum V k+n .

Die Unterrume sind Teilrume von V k+n : V k V k+n und V n V k+n . Jeder Vektor
y V k steht senkrecht auf jedem Vektor x V n , weil wegen
y =

k


ai ei

,x =

i=1

k+n


bi ei

i=k+1

das Innenprodukt fr alle ai und bi verschwindet: x, y = 0. Man sagt deshalb auch,
der Raum V k steht senkrecht auf dem Raum V n :
Vk Vn.

(2.34)

Beispiel 2.35 (Orthogonale Rume)


Im dreidimensionalen Raum mit der orthonormalen Basis e1 , e2 und e3 in x-, y- und
z-Richtung sei V 1 der Unterraum in x-Richtung. Der zweite Unterraum V 2 ist die
yz-Ebene. Die beiden Unterrume bilden den dreidimensionalen Raum V 3 . Jeder
Vektor xe1 V 1 steht senkrecht zu jedem Vektor ye2 + ze3 V 2 .

Eine orthonormale Basis (e1 , . . . , eN ) spanne einen N -dimensionalen Raum V N auf.


V N sei ein Unterraum eines Raumes V hherer Dimension: V N V , wobei sowohl V N
als auch V unitre Rume seien. Wir betrachten einen Vektor y V und bestimmen
die Koordinaten yi = y, ei  , i = 1, . . . , N . Man erhlt mit diesen Koordinaten als
Koezienten einen Vektor
N

y =
yi ei V N .
(2.36)
i=1

Das Quadrat des Abstandes zwischen y und y ergibt sich zu:


d2 (y, y) = ||y y||2
= y

N

i=1

yi ei , y

= ||y||2 y,
= ||y||2

N

i=1

N


N

i=1

yi ei 

N
N
N



yi ei  
yi ei , y + 
yi ei ,
yj ej 
i=1

N


i=1

N
N 


j=1

yi y, ei 
yi ei , y +
yi yj ei , ej 
 






i=1
i=1
i=1 j=1
yi

yi

ij

2.1 Rume

25

d2 (y, y) = ||y||2

N

i=1

yi yi 0

(2.37)

Aus Gleichung (2.37) folgt sofort

Satz 2.38 (Besselsche Ungleichung)


Sind y V und y V N und weiter V N V , so gilt die Besselsche Ungleichung
||y||2

N


yi yi

i=1

, wobei yi = y, ei .

(2.39)

Das Gleichheitszeichen gilt, wenn das orthonormale System (e1 , . . . , eN ) den ganzen
Raum V aufspannt. Das orthonormale System heit dann vollstndig. Gleichung
(2.39) ist in diesem Fall der verallgemeinerte Satz des Pythagoras.
Das Produkt eines Vektors mit einem Vektor einer orthonormalen Basis heit verallgemeinerter Fourier-Koezient: yi = y, ei .

In den Anwendungen kommen Rume von abzhlbarer unendlicher Dimension vor. Wir
stellen Vektoren mit endlicher Norm ||y|| dar. Die Summe in Gleichung (2.39) muss
also konvergieren. Die Teilsumme
sN =

N


|yi |2

N


yi ei

i=1

muss mit wachsendem N gegen einen festen Wert oder der Vektor
yN =

i=1

gegen einen festen Punkt konvergieren:


lim y

N N

= y

lim d(
y N , y) = lim ||
y N y|| = 0 .

In Hilbert-Rumen ist das Cauchy-Kriterium eine fr die Konvergenz einer Folge yN


hinreichende und notwendige Bedingung. Das Cauchy-Kriterium fordert, dass fr jedes
> 0 gilt:
||
y N yM || < , N, M > N0 () .

(2.40)

Die Notwendigkeit von Gleichung (2.40) ist leicht zu beweisen. Schreibt man yN yM
y N y|| 2 und
umstndlicher als yN y + y yM und whlt N und M so, dass ||
||y yM || 2 fr N, M > N0 ( 2 ), so gilt mit der Dreiecksungleichung (Definition 2.1
(M3)):
y N y|| + ||y yM || < .
||
y N yM || ||
Ein wichtiger Satz ist

2 Mathematische Grundlagen

26
Satz 2.41 (Projektionstheorem)

Ein Vektor y V soll durch einen Vektor yN V N approximiert werden. Dabei sei
V N ein Unterraum des Raumes V hherer Dimension, d.h. V N V . Den kleinsten
Abstand zwischen beiden Vektoren und damit die optimale Approximation erhlt
man fr
d(y, yN ) = ||y yN || min.
Bei minimalem Abstand ist der Fehlervektor y yN orthogonal zum optimalen
Nherungsvektor yN und zu allen anderen Vektoren y N V N des Unterraumes.
Der Vektor yN heit orthogonale Projektion des Vektors y auf den Unterraum V N :
y yN , y N  = 0 , y N V N .

y yN , yN  = 0

(2.42)

Beweis:

Das Quadrat des Abstandes zwischen y V und einer mglichen Nherung y N V


ist allgemein:
||y y N ||2 =||y yN + yN y N ||2

=||y yN ||2 + y yN , yN y N 

+
y N y N , y yN  + ||
y N y N ||2

=||y yN ||2 + ||
y N y N ||2 .

Der minimale Abstand wird bei festem y fr y N = yN erreicht.


In Abbildung 2.4 ist dies fr den Raum R3 dargestellt.

IR

y
e

IR
e

Abbildung 2.4: Beispiel einer orthogonalen Projektion

2.2 Integraltransformationen

2.2

27

Integraltransformationen

Mit Hilfe von Integraltransformationen werden Signale in andere Darstellungsformen


berfhrt, vgl. [Mer96]. Diese andere Darstellung dient zur besseren Handhabung oder
zur besseren Analyse des Informationsgehaltes dieses Signals. Die zentrale und entscheidende Gre einer Integraltransformation ist deren so genannter Integrationskern,
ber welchen die Bewertung einzelner Funktionswerte gesteuert wird. Diese werden im
nchsten Abschnitt eingefhrt.

2.2.1

Integrationskerne

Bei Integrationskernen handelt es sich um Funktionen, die sowohl von der Zeitvariablen
t als auch von der unabhngigen Zielvariablen s abhngen. Durch Multiplikation des
Signals x(t) mit dem Integrationskern (s, t) und anschlieender Integration gewinnt
man daraus die Bildfunktion X(s),
X(s) =

x(t)(s, t) dt

, s S.

(2.43)

Hierbei ist T der Grundraum im Zeitbereich und S der Grundraum im Bildbereich. Um


aus einer transformierten Funktion die ursprngliche Funktion wiedergewinnen zu knnen, ist die Reziprozittsbedingung wichtig, welche im nchsten Abschnitt dargestellt
wird.
2.2.1.1

Reziprozittsbedingung

Die Hin-Transformation erfolgte mit Hilfe eines Integrationskerns (s, t), wobei t T
die unabhngige Variable vor der Transformation und s S die unabhngige Variable danach ist. Man definiert also fr eine Zeitfunktion x(t) die Transformierte wie in
Gleichung (2.43) als
X(s) =

x(t)(s, t) dt

, s S.

Mit Hilfe eines zu (s, t) reziproken Kernes (t, s) soll sich das ursprngliche Signal
rekonstruieren lassen:
!

x(t) =

X(s)(t, s) ds

,t T .

(2.44)

Um diese Bedingung zu erfllen, muss der Kern der Rcktransformation geeignet bestimmt werden. Durch Einsetzen der Definitionsgleichung in die Gleichung der Rck-

2 Mathematische Grundlagen

28
transformation
!

x(t) =

x(t )(s, t )(t, s) dt ds

S T

x(t )

(s, t )(t, s) ds dt



= (t t )

erhlt man die Reziprozittsbedingung

(s, t )(t, s) ds = (t t ).

(2.45)

Entsprechend gelangt man zur zweiten Reziprozittsbedingung

(t, s )(s, t) dt = (s s ),

(2.46)

die sich analog herleiten lsst. Diese Bedingungen stellen notwendige Forderungen fr
die Rekonstruierbarkeit eines Signals aus seiner Bildfunktion dar, was bei einer Analyse
in der Praxis sinnvoll ist.
2.2.1.2

Selbstreziproke Kerne

Bei selbstreziproken Integrationskernen handelt es sich um ein Paar (s, t), (t, s) von
Funktionen fr die Hin- und Rcktransformation, fr welche die Bedingung
(t, s) = (s, t)

(2.47)

gefordert wird. Ein Beispiel fr eine Integraltransformation mit selbstreziprokem Kern


ist die Fourier-Transformation, vgl. Abschnitt 3.5, in welcher mit T = S = R und s = f
(f, t) = exp(j2f t)
(t, f ) = exp(j2f t) = (f, t)
gesetzt wird. Die Reziprozittsbedingung ist fr die Fourier-Transformation erfllt:

2.2.1.3

(f, t )(t, f ) df =

exp(j2f (t t )) df = (t t ) .

Parsevalsches Theorem

In diesem Abschnitt beweisen wir das Parsevalsche Theorem, welches fr viele Anwendungen eine entscheidende Rolle spielt. In Abhngigkeit des transformierenden Kerns
ergeben sich zentrale Eigenschaften verschiedener Transformationen.

2.2 Integraltransformationen

29

Satz 2.48 (Parsevalsches Theorem)


Werden Signale mit Hilfe von Integrationskernen transformiert, welche selbst die
Reziprozittsbedingung erfllen, so ist das Innenprodukt zweier Signale invariant
gegenber der Integraltransformation, d.h.
(2.49)

x(t), y(t)t = X(s), Y (s)s .

Das Innenprodukt zweier Signale ist als Integral ber deren Produkt definiert, vgl.
Abschnitt 3.1.2, und bewertet deren hnlichkeit.

Beweis:

Man rechnet
X(s), Y (s)s =
=

X(s)Y (s) ds

x(t)(s, t)y (t ) (s, t ) dt dt ds

S T T

x(t)y (t )

T T

(s, t) (s, t ) ds dt dt
 
=(t ,s)



=(tt )

x(t)y (t )(t t ) dt dt =

T T

x(t)y (t) dt

= x(t), y(t)t .
Setzt man im Parsevalschen Theorem y(t) = x(t), so folgt
||x(t)|| = ||X(s)|| ,

(2.50)

da es sich bei den Energiesignalen um einen unitren Raum handelt, vgl. Abschnitt 3.1.2.
Dies bedeutet, dass eine Integraltransformation mit selbstreziprokem Kern, welche die
Reziprozittsbedingung erfllt, die Energie eines Signals nicht verndert.
2.2.1.4

Faltungskerne

Bei Faltungskernen handelt es sich um Integrationskerne, die lediglich von der Dierenz
t s bzw. s t abhngen. Dies fhrt auf vereinfachte Gleichungen fr die Hin- und
Rcktransformation:
X(s) =

x(t) =

x(t)(s t) dt = x(t) (t) ,


X(s)(t s) ds = X(s) (s) .

2 Mathematische Grundlagen

30

Durch Fourier-Transformation der beiden Faltungsintegrale folgt somit im Vorgri auf


Abschnitt 3.5 die Multiplikation der Transformierten:
(2.51)
(2.52)

Xt (f ) = Ft {x(t)} = Xs (f )(f )
Xs (f ) = Fs {X(s)} = Xt (f )(f )
Fr die Signalrekonstruktion erhlt man die Bedingung

(2.53)

(f ) (f ) = 1.

Ein Beispiel fr eine Integraltransformation mit Faltungskern ist die Hilbert-Transformation, die in Abschnitt 4.7 eingefhrt wird. Bei dieser Transformation verwendet man
(f ) = j sign(f )
(f ) = j sign(f ) = (f )
und dementsprechend
1
,
(s t)
1
(t s) =
= (s t).
(t s)
(s t) =

2.2.2

Zweidimensionale Transformationen

Die Integraltransformation eines zweidimensionalen Signals x(t1 , t2 ) ist definiert als

x(t1 , t2 )(s1 , s2 , t1 , t2 ) dt1 dt2


, s1 , s2 S.
(2.54)
X(s1 , s2 ) =
T T

Die Rekonstruktion solch eines Signals ergibt sich analog als

x(t1 , t2 ) =
X(s1 , s2 )(t1 , t2 , s1 , s2 ) ds1 ds2

, t1 , t2 T.

(2.55)

S S

Eine Erweiterung von Funktionen einer Variablen auf Funktionen von zwei Variablen
erstreckt sich ebenso auf die Intergrationskerne, welche dadurch als Funktionen von vier
Variablen zu definieren sind. Alle Eigenschaften und Gleichungen ergeben sich durch einfaches Erweitern. Somit lauten die Reziprozittsbedingungen bei Vorhandensein zweier
Variablen

!
(s1 , s2 , t1 , t2 )(t1 , t2 , s1 , s2 ) ds1 ds2 = (t1 t1 ) (t2 t2 ) , (2.56)
S S

T T

(s1 , s2 , t1 , t2 )(t1 , t2 , s1 , s2 ) dt1 dt2 = (s1 s1 ) (s2 s2 ) . (2.57)

2.3 Operatoren

31

Als Spezialfall knnen bei zwei unabhngigen Variablen die Kerne faktorisiert werden.
Sie setzen sich aus dem Produkt zweier einfacher Kerne zusammen, was sich mathematisch als
(s1 , s2 , t1 , t2 ) = 1 (s1 , t1 )2 (s2 , t2 )
(t1 , t2 , s1 , s2 ) = 1 (t1 , s1 )2 (t2 , s2 )

(2.58)
(2.59)

ausdrcken lsst. Als Beispiel eines faktorisierbaren Kerns dient die zweidimensionale
Fourier-Transformation, in der sich die Korrespondenzen
X(f1 , f2 ) =

x(t1 , t2 ) =

x(t1 , t2 )ej(2f1 t1 + 2f2 t2 ) dt1 dt2

(2.60)

X(f1 , f2 )ej(2f1 t1 + 2f2 t2 ) df1 df2

(2.61)

ergeben. Zweidimensionale Kerne finden in der Bildverarbeitung beziehungsweise allgemeiner bei der Bearbeitung optischer Reize Anwendung. Im Rahmen dieses Buches
werden sie jedoch nicht weiter vertieft.

2.3

Operatoren

Abbildungen wurden bisher durch Funktionen y = f (x) dargestellt. Dabei wurde jedem
x X eindeutig ein y Y zugeordnet. Meist ging man davon aus, dass die Mengen X
und Y Mengen etwa der Form R, C, R3 usw. sind, d.h. die Elemente x bzw. y entweder
reelle oder komplexe Zahlen oder mehrdimensionale Vektoren der reellen oder komplexen Zahlen sind. In Abschnitt 3.1 ber die Funktionenrume wird gezeigt, dass Elemente
von Rumen ohneweiteres etwas anderes sein knnen, z.B. Funktionen. Zur Abbildung
eines beliebigen Elements auf ein anderes beliebiges Element ist der Funktionsbegri zu
erweitern.

2.3.1

Lineare Operatoren

Definition 2.62 (Linearer Operator)


Ein Operator A : X Y ist eine Rechenvorschrift, die einem Element x X ein
Element y = Ax = A{x} Y zuweist, wobei X und Y jeweils Vektorrume mit
demselben Skalarkrper C sind. Lineare Operatoren haben folgende Eigenschaften:
(O1) A{x + y} = A{x} + A{y} ,

(Additivitt)

(O2) A{ax} = aA{x} , a C .

(Homogenitt)

2 Mathematische Grundlagen

32

Die Rechenregeln fr das Rechnen mit linearen Operatoren sind durch


(O3) A(BC) = (AB)C

(Assoziativ)

(O4) aAB = (aA)B = A(aB) , a C


(O5) A(B + C) = AB + AC
(O6) I{x} = x

(Distributiv)

, I : Einsabbildung

(O7) A{0} = 0 , 0 : Nullelement


gegeben, wobei AB die Hintereinanderausfhrung A nach B bezeichnet, (AB){x} =
A{B{x}}. Eine geeignete Voraussetzung fr die Hintereinanderausfhrung ist x = y.

Folgende Anmerkungen sind zu machen:


Bemerkung 2.63
1. Im Allgemeinen gilt fr Operatoren nicht das Kommutativgesetz (z.B. ist bei
der Matrixmultiplikation AB = BA ).

2. Ist die Menge Y skalar, d.h. das Element y = A{x} Y eine reelle oder
komplexe Zahl, so spricht man nicht von einem Operator, sondern von einem
Funktional.
3. Ist die Menge X skalar, d.h. das Element x X eine reelle oder komplexe Zahl,
so spricht man von einer Funktion.
4. Hufig sind die Elemente Vektoren im klassischen Sinne. Dann kann der lineare

Operator in Form einer Matrix angegeben werden.

Operator:
Funktional:
Funktion:

Menge X
Allgemein
Allgemein
Skalar

Menge Y
Allgemein
Skalar
Allgemein

Tabelle 2.1: Elemente der einzelnen


Abbildungen

Beispiel 2.64 (Funktional)


Eine Funktion x(t) wird ber das Intervall [ T2 , T2 ] gemittelt. Die Rechenvorschrift
fr den Mittelwert x ist ein Funktional:
1
x =
T

T /2

T /2

x(t) dt .

2.3 Operatoren

33

Bei der Beurteilung von Messergebnissen werden der Stichprobenmittelwert und die
Stichprobenvarianz gebildet. Die Rechenvorschriften fr x
und s2 sind Funktionale:
n

x
=

1
xi
n i=1

s2 =

1 
(xi x
)2 .
n 1 i=1

Beispiel 2.65 (Matrixoperator)


Ein sehr wichtiges und im Folgenden hufig bemhtes Beispiel fr einen Operator
ist dadurch gegeben, dass man als Vektorrume X = Rn bzw. Y = Rn whlt. Man
rechnet also mit Vektoren im blichen Sinne. Es sei eine beliebige Matrix A Rnn
vorgegeben. Man kann nun mit Hilfe der Matrix A einen Operator A : X Y
definieren, indem man
A{x} = A x
setzt. Somit ist die gewhnliche Matrixabbildung letztlich auch ein Operator. Diesen
werden wir im folgenden Text noch oft als Beispiel heranziehen.

Des Weiteren gilt fr Operatoren:


Definition 2.66 (Stetigkeit)
Ein linearer Operator A : X Y zwischen normierten Rumen X, Y heit stetig,
wenn gilt:
lim A{x0 } = lim A{x0 } = 0 , x0 X .

(2.67)

Definition 2.68 (Beschrnktheit)


Ein linearer Operator A : X Y zwischen normierten Rumen X, Y heit beschrnkt, wenn fr ein M 0 gilt:
||A{x}|| M ||x|| , x X .

(2.69)

Definition 2.70 (Adjungierter Operator)


In Hilbert-Rumen gibt es zu einem linearen Operator A einen adjungierten Operator
A+ , fr den fr alle zugelassenen x und y gilt:
A{x}, y = x, A+ {y}.

(2.71)

2 Mathematische Grundlagen

34

Ein adjungierter Operator A+ ist nicht mit der adjunkten Matrix adj(A) zu verwechseln,
die zur Invertierung herangezogen wird.
In der Matrizenschreibweise ergibt sich aus Definition 2.70 sofort die Rechenregel, wie
von einer Matrix A die adjungierte Matrix A+ gebildet wird:
A+ = AT

(aij )+ = (aji ) .

oder

(2.72)

Fr reelle Matrizen gilt


A+ = AT

oder

(aij )+ = (aji ).

(2.73)

Gleichung (2.72) und (2.73) sind mittels Gleichung (2.71) leicht zu zeigen:
A x, y = (A x)T y = xT AT y = xT (AT y) = x, AT y
!

= x, A+ y .
2.3.1.1

Eigenwerte und Eigenvektoren

In diesem Abschnitt betrachten wir einen Matrixoperator, wie er in Beispiel 2.65 eingefhrt wurde. Dieser Operator wirkt auf Vektoren x Rn durch Linksmultiplikation,
d.h. es ist A{x} = A x. Vielfach sind, auch fr allgemeine Operatoren, Vektoren von
Interesse, die bei Anwendung eines Operators A in ein Vielfaches von sich selbst bergehen. Aus diesem Grund definiert man die folgenden Begrie:
Definition 2.74 (Eigenwerte und Eigenvektoren eines Operators)
Gegeben sei ein Operator A : X Y. Ein Skalar heit Eigenwert des Operators
A, falls ein x X, x = 0 existiert mit
A{x} = x.

(2.75)

Dieses x X heit dann Eigenvektor zum Eigenwert . Ist der Operator A ein
Matrixoperator, d.h. A : Rn Rn , A{x} = A x mit A Rnn , so spricht man
auch von einem Eigenwert der Matrix A bzw. einem Eigenvektor der Matrix A.
Die Berechnung der Eigenwerte einer Matrix lsst sich auf die Bestimmung von Nullstellen einer Gleichung zurckfhren:
Satz 2.76 (Eigenwerte eines Matrixoperators)
Ist A : Rn Rn , A{x} = A x, ein Matrixoperator, so erhlt man die Eigenwerte
als die Nullstellen der Gleichung
det(A I) = 0.
Somit ist nur noch eine rein algebraische Gleichung zu lsen.

2.3 Operatoren

35

Beweis:
Die Eigenwerte erfllen nach Voraussetzung die Gleichung A x = x. Wegen
A x = x (A I) x = 0 sind genau die Werte Eigenwerte, fr die ein x = 0
existiert, welches diese Gleichung erfllt. Dieses x = 0 existiert genau dann, wenn die
Matrix (AI) nicht invertierbar ist, was mit der Bedingung det(AI) = 0 gleichbedeutend ist. Somit ist also ein Eigenwert der Matrix A, falls die behauptete
Gleichung erfllt.
2.3.1.2

Eigenvektoren adjungierter Matrixoperatoren

Ein Matrixoperator A und sein adjungierter Operator A+ haben dieselben Eigenwerte


k (vgl. [Kro91]), die aus der Gleichung
det(A I) = det(A+ I) = 0
berechnet werden. Als Nchstes sollen die unterschiedlichen Eigenvektoren von A und
A+ betrachtet werden. Wir betrachten hierzu zwei voneinander verschiedene Eigenwerte
i und k mit zugehrigen Eigenvektoren xi und y k . Dann gilt:
A xi = i xi

A+ y k = k y k .

Durch Multiplikation der ersten Gleichung mit y k von rechts und der zweiten Gleichung
mit xi von links erhlt man:
xTi AT y k = i xTi y k

xTi A+ y k = k xTi y k .

Die Dierenz der beiden Gleichungen lautet


xTi (AT A+ ) y k = (i k )xTi y k .
Die Dierenz verschwindet jedoch, da AT = A+ gilt. Daraus folgt dann:
xTi y k = 0

i = k .

(2.77)

Die Eigenvektoren y k des adjungierten Operators A+ stehen senkrecht auf den Eigenvektoren xi des Operators A, auch wenn beide dieselben Eigenwerte besitzen.

Definition 2.78 (Selbstadjungierter Operator)


Ein Operator A heit selbstadjungiert, wenn
A = A+
gilt. Ein solcher Operator wird auch als hermitescher Operator bezeichnet.

(2.79)

2 Mathematische Grundlagen

36

Satz 2.80 (Eigenvektoren selbstadjungierter Matrixoperatoren)


Bei selbstadjungierten Matrixoperatoren, d.h. A = A+ , sind die Eigenvektoren verschiedener Eigenwerte untereinander orthogonal.

Fr hermitesche Operatoren gilt A+ A = AA+ = A2 . Ein wichtiger Sonderfall ist, wenn


A+ A = I, d.h. A+ = A1 gilt.
Definition 2.81 (Unitrer Operator)
Ein Operator A heit unitr, wenn A+ A = AA+ = I bzw. A+ = A1 gilt. Es folgt
dann:
||x|| = ||A{x}||

, A{x}, A{y} = x, y .

(2.82)

Unitre Operatoren lassen die Norm und das innere Produkt unverndert.
Bei Matrixoperatoren erhlt man Gleichung (2.82) sofort:

A x, Ay = xT AT A y = xT (AAT ) y = xT y = x, y .


 
I

(2.83)

Beispiel 2.84 (Unitre Matrixoperatoren)


Standardbeispiele fr unitre Operatoren in Matrixschreibweise sind die Drehung
eines Vektors und die Koordinatentransformation in eine neue orthonormale Basis.

Nach den Eigenschaften allgemeiner Operatoren oder Matrixoperatoren folgt nun die
Vorstellung von bestimmten Typen von Operatoren.

2.3.2

Typen von linearen Operatoren

Hufig vorkommende lineare Operatoren sind beispielsweise:


2.3.2.1

Lineare Vektortransformation

Hierbei wird ein Vektor im klassischen Sinn auf einen anderen Vektor abgebildet. Technisch gesehen kann der Vektor x eine gerichtete Ursache darstellen, die eine gerichtete
Wirkung y erzeugt. Die Grundform lautet dann:
y = Ax.

(2.85)

2.3 Operatoren

37

Beispiel 2.86 (Lineare Vektortransformation)


Wenn x die elektrische Feldstrke in einem anisotropen Medium darstellt, so kann

y die dielektrische Verschiebung beschreiben.


2.3.2.2

Integraloperator

Der Integraloperator wird durch die Gleichung


y(t) =

k(t, s) x(s) ds

y = A{x}

(2.87)

dargestellt. Die Gleichung kann, je nach gewhlter Kern-Funktion k(t, s), eine Integraltransformation sein oder das Ausgangssignal eines Systems darstellen, dem das Eingangssignal x(s) zugefhrt wird.
Beispiel 2.88 (Integraloperator)
Fr die inverse Fourier-Transformation whlt man:
s=f

x(s) = Y (f ) k(t, f ) = ej2f t

a = b = .

Dann erhlt man:


y(t) =

Y (f )ej2f t df .

2.3.2.3

Dierenzialoperator

Ein Beispiel eines Dierenzialoperators ist durch die Gleichung


a0 y (n) + a1 y (n1) + . . . + an y = b0 x(n) + b1 x(n1) + . . . + bn x
A{y} = B{x}

(2.89)

mit
y (k) =

dk
y(t)
dtk

x(k) =

dk
x(t)
dtk

definiert. Solche linearen Dierenzialgleichungen sind die Grundlage fr die Beschreibung des Zeitverhaltens von Prozessen und Systemen.

2.3.3

Darstellungsmatrix

Mit Hilfe von orthonormalen Basen lassen sich lineare Operatoren in Matrixform mittels
der Darstellungsmatrix schreiben. In der Matrizenrechnung sind die Komponenten eines
Elements immer als Zerlegung mittels einer orthonormalen Basis zu verstehen.

2 Mathematische Grundlagen

38
2.3.3.1

Lineare Vektortransformation

Mittels einer orthonormalen Basis (e1 , e2 , . . . , eN ) werden die Vektoren x und y nach
Gleichung (2.28) in ihre Komponenten zerlegt:
x = (x1 , x2 , . . . , xN )T

, xi = x, ei  ,

y = (y1 , y2 , . . . , yN )T

, yi = y, ei  .

Dann lsst sich der Operator A als Darstellungsmatrix A = (aij ) angeben. Die Gleichung y = A x hat fr x nur dann eine eindeutige Lsung, wenn A1 existiert bzw.
det(A) = 0 gilt bzw. die Matrix A den vollen Rang besitzt.
2.3.3.2

Integraloperator

Beim Integraloperator werden fr die Funktionen x(s) L2 (a, b) und y(t) L2 (a, b)
jeweils eine Basis (u1 (s), u2 (s), . . .) und (v1 (t), v2 (t), . . .) gewhlt. Dann gilt:
x(s) =

xj uj (s)

, xj =

j=1

y(t) =

b
a

yi vi (t)

, yi =

i=1

b
a

x(s)uj (s) ds = x, uj  ,

y(t)vi (t) dt = y, vi  .

(2.90)

(2.91)

Setzt man Gleichung (2.87) in Gleichung (2.91) ein, so folgt

b
b
yi = k(t, s)x(s) ds vi (t) dt.

(2.92)


k(t, s)
xj uj (s) ds vi (t) dt

(2.93)

Einsetzen von (2.90) in (2.92) ergibt:

yi =

b
a

j=1

b b

xj k(t, s)uj (s) ds vi (t) dt

(2.94)

aij xj .

(2.95)

j=1


= aij

j=1

Daraus folgt die Darstellungsmatrix


A = (aij )

, i, j N.

(2.96)

2.3 Operatoren

39

Insgesamt kann man also schreiben:


y = Ax.
Der Vorteil der Darstellung des Integraloperators in Matrixform besteht darin, dass sich
ein lineares Gleichungssystem gebildet hat.
2.3.3.3

Dierenzialoperator

Ausgehend von der Dierenzialgleichung (2.89) werden die beiden Funktionen x(t) und
y(t) im Funktionenraum L2 ( T20 , T20 ) in Fourier-Reihen, vgl. Abschnitt 3.4, entwickelt:
x(t) =

xk Fk (t)

yk Fk (t)

k=

y(t) =

1
, Fk (t) = ej2kt/T0
T0

(2.97)

(2.98)

k=

Durch Einsetzen in die Dierenzialgleichung folgt:


 

dn
dn1
a0 n + a1 n1 + . . . + an
yk Fk (t)
dt
dt
k=

 

dn
dn1
xk Fk (t)
b0 n + b1 n1 + . . . + bn
dt
dt


=

(2.99)

k=

oder



dn
dn1
yk a0 n + a1 n1 + . . . + an Fk (t)
dt
dt
k=




dn
dn1
xk b0 n + b1 n1 + . . . + bn Fk (t) .
dt
dt

(2.100)

k=

Die Anwendung des Dierenzialoperators auf Fk (t) mit f0 =


di
1
Fk (t) =
i
dt
T0

2
k
T0

i

1
T0

ergibt

ej2kt/T0 = (j2f0 k)i Fk (t)

(2.101)

fr i {1, . . . , n}. Einsetzen in die Dierenzialgleichung ergibt:

k=

k=



yk a0 (j2f0 k)n + a1 (j2f0 k)n1 + . . . + an Fk (t)



xk b0 (j2f0 k)n + b1 (j2f0 k)n1 + . . . + bn Fk (t) .

(2.102)
(2.103)

2 Mathematische Grundlagen

40
Mittels Koezientenvergleich folgt:
n


yk
= gk = i=0
n

xk

bi (j2f0 k)ni
.

(2.104)

ai (j2f0 k)ni

i=0

Das heit es gilt yk = gk xk . Die Darstellungsmatrix ist eine Diagonalmatrix:


A = (aij )

2.3.4

, mit aij = ij gi .

(2.105)

Verschiebungsoperator

In abgetasteten Systemen stehen Werte nur zu ganz bestimmten Zeitpunkten zur Verfgung. So ist es mglich, einen Abtastwert um einen oder mehrere Abtastzeitpunkte
zu verschieben.
Hierbei entspricht die formale Multiplikation eines Signalwertes mit dem Verschiebungsoperator q einer Zeitverzgerung um eine Abtastzeit tA .
Analog entspricht eine Zeitverzgerung um n Schritte einer Multiplikation mit q n . Eine
negative Zeitverzgerung, d.h. ein Erscheinen eines Signalwertes um eine oder mehrere
Abtastzeiten frher, wird mittels negativer Exponenten gekennzeichnet.
Beispiel 2.106 (Zeitverzgerung)
Ein abgetastetes Signal xn = x(ntA ) wird um zwei Abtastschritte verzgert. Das
daraus entstehende Signal yn = y(ntA ) lsst sich durch
yn = q 2 xn
angeben. Besteht ein Signal zn = z(ntA ) aus der Addition des nichtverzgerten und
des um einen Abtastschritt verzgerten Signals xn , so kann man es durch
zn = xn + q xn = (1 + q) xn
charakterisieren. Entsprechendes gilt fr ein Signal
wn = (1 + 2q + q 2 + q 4 ) xn .

2.4

Holomorphe Funktionen

Da die andere Welt bei den Transformationen fast ausschlielich im komplexen Krper
C liegt, werden an dieser Stelle einige Hilfsmittel aus der Theorie der holomorphen
Funktionen wiederholt. Fr eine ausfhrliche Einfhrung in diese Theorie sei auf die
reichliche Literatur verwiesen, z.B. [Jn96].

2.4 Holomorphe Funktionen

41

Die hier vorgestellten Stze und Definitionen stellen ein Gerst dar, welches fr die in
diesem Buch bentigten Zwecke ausreichend ist. Der Vollstndigkeit halber sind fr die
Stze auch Beweise angegeben, die bei Interesse nachvollzogen werden knnen. Fr den
ausschlielich an der Systemtheorie interessierten Leser ist es jedoch ausreichend, die
zentralen Resultate und Berechnungsformeln zu kennen, die als Stze formuliert sind.

2.4.1

Cauchysche Integralformel

Mit der komplexen Gre z sei f (z) eine in einem einfach zusammenhngenden beschrnkten Gebiet G, dessen Rand stckweise glatt sei, holomorphe Funktion, die auf
G G, d.h. auf dem Gebiet G und seinem Rand G, stetig ist. Wird f (z) entlang eines
geschlossenen, stckweise glatten Integrationsweges C R aufintegriert, dann gilt der
Cauchysche Integralsatz

f (z) dz = 0.
(2.107)
C

Somit verschwindet fr eine holomorphe Funktion das Wegintegral ber einen geschlossenen Integrationsweg.
Bemerkung 2.108
1. Zur Erinnerung sei erwhnt, dass eine Abbildung : [a, b] C, (t) = R (t) +
jI (t), deren Real- und Imaginrteil stetig sind, als stckweise glatt bezeichnet
wird, falls eine Einteilung a = t0 < t1 < . . . < tn = b existiert, so dass sowohl
R (t) als auch I (t) in jedem Teilintervall [tk , tk+1 ] stetig dierenzierbar sind

(t) = t
R (t) + j t
I (t) = 0 gilt.
und t
2. Als Vorstellung kann man sich fr die spteren Anwendungen und Aussagen
beispielsweise einen Kreis-Weg mit Radius vorstellen, welcher die Darstellung
[0, 2] ejt besitzt. Die formulierten Stze lassen sich damit oft leichter

interpretieren.
Die um die Singularitt bei z = z0 , z0 Int{G}, erweiterte Funktion
f (z)
z z0

ist im gesamten Gebiet G auer in dem Punkt z0 ebenfalls holomorph, falls dies fr
die Funktion f (z) zutrit. Sei C eine stckweise glatte, positiv orientierte und einmal
durchlaufene Jordan-Kurve, die ganz in G liege, die z0 enthlt und deren Inneres Int{C}
ebenfalls in G sei. Hierbei ist eine Jordan-Kurve eine Kurve, bei der die Abbildung
W : t z(t) bijektiv ist und bei der sowohl W als auch W 1 stetig sind.

Da z0 nach Voraussetzung ein innerer Punkt von Int{C} ist, liegt der Kreis-Weg W :
|z z0 | = fr ein hinreichend kleines ganz im Inneren von C. Somit folgt


f (z)
f (z)
dz =
dz.
z z0
z z0
C

2 Mathematische Grundlagen

42
Unter Beachtung von


2j , K = 1
( z0 )K d =
0 , sonst

(2.109)

und mittels der Zerlegung

folgt

f (z)
f (z0 )
f (z) f (z0 )
=
+
z z0
z z0
z z0


f (z)
dz = 2jf (z0 ) +
z z0

f (z) f (z0 )
dz.
z z0

Da f (z) als holomorph vorausgesetzt war, ist f (z) insbesondere stetig, woraus die Existenz eines Radius = () mit |f (z) f (z0 )| < fr alle z W folgt. Somit kann man
das rechte Integral abschtzen als


 



f (z) f (z0 )


dz  2.



z z0
 W

Bei Grenzbergang 0 geht dieses Integral gegen null, woraus

f (z)
1
f (z0 ) =
dz
2j
z z0
C

folgt. Dieses Resultat wird als Cauchysche Integralformel bezeichnet und im folgenden
Satz zusammengefasst.
Satz 2.110 (Cauchysche Integralformel)
Sei f (z) eine in einem einfach zusammenhngenden abgeschlossenen Gebiet G C
holomorphe Funktion. Dann gilt fr alle stckweise glatten, positiv orientierten und
einmal durchlaufenen Jordan-Kurven G und alle Punkte z0 aus dem Inneren
von die Cauchysche Integralformel :

f (z)
1
f (z0 ) =
dz.
(2.111)
z z0
2j

Nach [BS00] gilt fr die k-te Ableitung von f (z):



f (z)
k!
f (k) (z0 ) =
dz .
2j
(z z0 )k+1

(2.112)

2.4 Holomorphe Funktionen

43

Bemerkung 2.113
Die Cauchysche Integralformel besagt, dass die Werte einer holomorphen Funktion
f (z0 ) im Inneren eines einfach geschlossenen Gebietes G vollstndig durch die Werte
von f (z) auf dem Rand bestimmt sind. Der Integrationsweg umschliet dabei den
Punkt z0 .

2.4.2

Laurent-Reihe

In diesem Abschnitt soll die Entwicklung einer komplexen Funktion in ihre LaurentReihe hergeleitet werden. Zuerst definieren wir hierzu den Begri der Laurent-Reihe.
Definition 2.114 (Laurent-Reihe)
Eine Reihe der Form
f (z) =

n=

an (z z0 )n =

n=0

an (z z0 )n +

n=1

an (z z0 )n (2.115)

heit Laurent-Reihe. Sie heit konvergent, wenn beide auftretenden Summen konvergieren.
Eine Laurent-Reihe hat, wie man sich unter Beachtung der geometrischen Reihe berlegt, einen Kreisring der Form
{z C : r+ < |z z0 | < r }
als Konvergenzgebiet. In Abschnitt 6.3.2, der sich mit dem Existenzbereich der so genannten z-Transformierten befasst, wird eine hnliche berlegung ausfhrlich vorgefhrt.
Es sei nun eine komplexe Funktion gegeben, die auf solch einem Kreisgebiet {z C :
r+ < |z z0 | < r } holomorph ist. Zuerst whlt man 1 , 2 R mit der Eigenschaft
r+ < 2 < 1 < r und definiert die positiv orientierten Wege 1 : |z z0 | = 1 und
2 : |z z0 | = 2 . Nun bezeichnen wir noch den ueren Weg mit C1 , C1 = 1 , und
die Umorientierung des inneren Weges mit C2 , C2 = 2 . Schneidet man den Kreisring
mit einer Strecke P Q, P C1 , Q C2 , auf und bezeichnet die Schnittufer mit C3 bzw.
C4 ,vgl. Abbildung 2.5, dann ist
: C2 + C3 + C1 + C4
eine stckweise glatte und mathematisch positiv orientierte Jordan-Kurve. In diesem
Fall folgt aus der Cauchyschen Integralformel

f ()
1
d.
f (z) =
2j
z

2 Mathematische Grundlagen

44
Beachtet man noch


f ()
f ()
d =
d,
z
z
C3

C4

so folgt



1 f ()
f ()
f (z) =
d +
d .

2j
z
z
C1

(2.116)

C2

Definieren wir die Funktionen w1 (z) bzw. w2 (z) als das Erste bzw. das Zweite der beiden
Integrale, so sind also noch explizite Ausdrcke dafr zu bestimmen.
1. Da die Funktion f (z) auf C1 holomorph ist, ist sie insbesondere stetig. Somit ist
w1 (z) in |z z0 | < r eine holomorphe Funktion und kann deshalb in eine Potenzreihe entwickelt werden. Durch Verwendung der geometrischen Reihe und unter
Beachtung der Tatsache, dass die Bedingungen zur Vertauschung von Integration
und Summation erfllt sind, folgt diese Potenzreihe zu
1
w1 (z) =
2j

f ()

1
d
z0 (z z0 )

f ()

1
1

d
0
z0 1 zz
z0

n


1
z z0
f ()

d
z0 n=0 z0

C1

1
2j

C1

1
=
2j

C1

1
2j

f ()

C1


(z z0 )n
d
( z0 )n+1
n=0


f ()
1
=
d (z z0 )n
n+1
2j
(

z
)
0
n=0
C1

n=0

an (z z0 )n ,

wobei sich die Koezienten aus



1
f ()
an =
d
2j
( z0 )n+1
C1

berechnen.

2.4 Holomorphe Funktionen

45
z

C1

Im{z}

C2

C3
z0
C4

r+
'

r-

Re{z}

Abbildung 2.5: Integrationswege

2. Betrachten wir w2 (z) in |z z0 | > r+ , so ist dort | z0 | < |z z0 |, wodurch unter


Anwendung der geometrischen Reihe wie im ersten Schritt


1
( z0 )n
=
z
(z z0 )n+1
n=0

im Bereich |z z0 | > r+ folgt. Analog zu obiger Vorgehensweise erhlt man hier


die Darstellung
w2 (z) =

n=1

an (z z0 )n

mit
an =

1
2j

C2

f ()
d.
( z0 )n+1

Setzen wir diese Darstellungen in die fr f (z) gezeigte Formel (2.116) ein, so folgt fr
r+ < |z z0 | < r
f (z) =

n=

an (z z0 )n

mit
an =

1
2j

f ()
d.
( z0 )n+1

Diese Resultate ergeben folgenden Satz.

2 Mathematische Grundlagen

46
Satz 2.117 (Laurent-Reihe)
Eine Funktion f (z) sei im Kreisringgebiet
G = {z : r+ < |z z0 | < r }

holomorph. Dann lsst sich die Funktion f (z) in G in eine eindeutig bestimmte
Laurent-Reihe
f (z) =

an (z z0 )n

(2.118)

f ()
d
( z0 )n+1

(2.119)

n=

mit
an =

1
2j

bezglich des Entwicklungszentrums z0 entwickeln. Hierbei ist eine stckweise


glatte, geschlossene Kurve, die mathematisch positiv orientiert in dem Kreisgebiet
die Kreisscheibe |z z0 | < r+ einmal umrundet, wie dies beispielsweise fr eine

beliebige Kurve |z z0 | = mit r+ < < r erfllt ist.


Beweis:
Zu zeigen bleibt an dieser Stelle nur noch die Eindeutigkeit der Darstellung. Um
diese nachzuweisen, nimmt man an, es gebe eine weitere abweichende Darstellung
f (z) =

n=

bn (z z0 )n .

Betrachtet man die Funktion f (z)/(z z0 )k , k Z, so ist diese in dem Kreisring


holomorph. Durch Integration lngs einer Kurve , wie sie in obigem Satz gefordert
wird, erhlt man



f ()
d =
bn ( z0 )nk1 d,
( z0 )k+1
n=

wobei ebenfalls Summation und Integration vertauscht wurden. Wegen Gleichung


(2.109) ergibt sich


f ()
d = 2jbk
( z0 )k+1

und somit bk = ak fr alle k Z.

2.4 Holomorphe Funktionen

2.4.3

47

Residuensatz

In diesem Abschnitt wird eine Herleitung des Residuensatzes gegeben, der in der Systemtheorie und somit insbesondere auch in diesem Buch Anwendung findet. Bei den
verschiedenen Transformationen vom Zeitbereich in einen wie auch immer gearteten
Bildbereich ist die Rcktransformation von entscheidender Bedeutung. Gerade diese
Rcktransformation wird durch die Verwendung des Residuensatzes nicht selten vereinfacht, was in diesen Kapiteln dann auch einige Male demonstriert wird.
Zur Einfhrung erinnern wir noch einmal an den Begri der isolierten Singularitt.
Definition 2.120 (Isolierte Singularitt)
Eine Funktion f (z) hat im Punkt z0 eine isolierte Singularitt, falls f (z) in z0 nicht
holomorph ist, es jedoch ein R > 0 gibt, so dass f (z) in der punktierten Kreisscheibe
0 < |z z0 | < R holomorph ist.
Ebenfalls von groer Bedeutung ist der Begri des Residuums, welcher der Vollstndigkeit halber noch einmal definiert wird.
Definition 2.121 (Residuum)
Es sei z0 C eine isolierte Singularitt der Funktion f (z). Die Funktion f (z) sei in
der Kreisscheibe 0 < |z z0 | < R in eine Laurent-Reihe der Gestalt
f (z) =

n=

an (z z0 )n

entwickelt. Dann heit


Res{f (z); z0 } = a1

(2.122)

das Residuum von f (z) an der Stelle z0 .


Die Residuen einer Funktion in einem vorgegebenen Punkt lassen sich durch einfache
algebraische Rechnung erhalten. Der folgende Satz gibt an, wie diese Berechnung bei
Kenntnis der Funktion f (z) erfolgen kann.
Satz 2.123 (Residuum)
Das Residuum einer Funktion f (z) an einem Pol zi ki -ter Ordnung ist durch
1
Res{f (z); zi } =
(2.124)
f (ki 1) (zi )
(ki 1)!

dki 1 
1
(z zi )ki f (z)
lim
=
k
1
i
zz
(ki 1)!
i dz

2 Mathematische Grundlagen

48
bzw. fr einfache Pole
Res{f (z); zi } = lim (z zi )f (z)
zzi

gegeben.

(2.125)

Der Residuensatz ermglicht somit die Berechnung komplizierter Wegintegrale mittels


einfacher algebraischer Kalkulation.
Satz 2.126 (Residuensatz)
Die Funktion f (z) sei in einem einfach zusammenhngenden Gebiet G mit Ausnahme
endlich vieler Singularitten z1 , . . . , zm holomorph. Weiter sei C eine stckweise
glatte Jordan-Kurve, die einmal im mathematisch positiven Sinn durchlaufen wird.
Die Kurve C liege auerdem ganz in G und alle Singularitten sollen im Inneren von
C liegen. Dann gilt


f (z)dz = 2j

m


k=1

Res{f (z); zk }.

(2.127)

Beweis:

Um die Singularitten zk seien jeweils Kreise mit Radien k > 0 gewhlt,


Ck = {z C : |z zk | = k }, deren Radien so gewhlt sind, dass die Kreise
noch ganz im Inneren von C verlaufen und paarweise disjunkt sind. (Dies ist mglich, da die Singularitten im Inneren von C liegen und nach Voraussetzung isoliert
sind.) G bezeichne nun das Gebiet, welches von C und den Kreisen C1 , . . . , Cm
berandet wird. Der Rand dieses Gebietes sei so orientiert, dass C in mathematisch
positiver Richtung verluft, whrend die Wege C1 , . . . , Cm in mathematisch negativer Richtung verlaufen mgen. Da f (z) in G holomorph ist, folgt

f (z)dz = 0
G

und somit


f (z)dz =

m 


f (z)dz.

k=1C
k

Bezeichnet nun Ck gerade den Weg, der durch Umorientierung von Ck entsteht, so
ergibt sich


f (z)dz =

m 


k=1
Ck

f (z)dz.

2.4 Holomorphe Funktionen

49

Stellt man nun f (z) im Inneren von Ck durch eine Laurent-Reihe mit Entwicklungspunkt zk dar, so folgt


Ck

f (z)dz =

l=

al

(z zl )l dz.

Ck

Unter Beachtung von Gleichung (2.109) entsteht daraus



f (z)dz = a1 2j = Res{f (z); zk } 2j,
Ck

womit die behauptete Gleichung bewiesen ist.

Teil II

Zeitkontinuum

Zeitkontinuierliche Signale

Physikalisch entstehen Signale durch den kontinuierlichen Verlauf einer beobachteten


Gre, d.h. sie lassen sich als kontinuierliche Zeitfunktion darstellen. Man bezeichnet
solche Signale als analoge Signale.
Dieses Kapitel beinhaltet die Betrachtung und Beschreibung von zeitkontinuierlichen
Signalen, deren Eigenschaften und ihre unterschiedlichen Beschreibungsformen. Hierzu
werden die aus der Funktionalanalysis vorgestellten Hilfsmittel in konkrete mathematische Anweisungen berfhrt.
Unter stochastischen Signalen sind Signale zu verstehen, deren zeitlicher Verlauf mit
Hilfe einer analytischen Beschreibung nicht vorhergesagt werden kann. Ihre Verarbeitung erfolgt mit Hilfe der Korrelationsfunktion, die ein deterministisches Signal ist
[KE05]. Im Gegensatz hierzu stehen die deterministischen Signale. Bei ihnen ist der
zeitliche Verlauf exakt beschreibbar. Leider gibt es dafr keine einheitliche Regelung,
da die beiden Klassen der Energie- bzw. Leistungssignale unterschieden werden mssen.
Die Fourier-Reihe ermglicht eine anschauliche Spektralanalyse fr periodische Signale.
Die Erweiterung fr allgemeine, zeitkontinuierliche Signale ist die Fourier-Transformation.
Anschlieend werden einige Testsignale eingefhrt, die bei der Signaluntersuchung und
-verarbeitung hufig eingesetzt werden.
Bei endlicher Beobachtungsdauer des Signals im Zeitbereich entsteht der Leckeekt.
Hierbei ergibt sich im Spektrum eine Verschmierung, d.h. die Auflsung im Frequenzbereich wird schlechter. Hat das Signal eine Unstetigkeitsstelle, so lsst sich der Signalverlauf nach einer Fourier-Transformation durch die Rcktransformation nicht mehr
exakt rekonstruieren. Diese Tatsache wird als das Gibbssche Phnomen bezeichnet.
Abschlieend wird das Zeitdauer-Bandbreite-Produkt und das Lemma von RiemannLebesgue behandelt. Diese Eigenschaften sind jeweils fr alle Signale gltig und beziehen
sich nicht, wie das Gibbssche Phnomen und der Leckeekt, nur auf bestimmte Signale.

3.1

Funktionenrume

In den einzelnen Definitionen und Stzen der Funktionalanalysis wurde in Kapitel 2 wenig ber die Art der Vektoren gesprochen. Es wurde eigentlich instinktiv angenommen,
dass es sich um Vektoren im klassischen Sinne handelt. Jedoch knnen mit allgemeinen Normen ||x||, Distanzen d(x, y) und Innenprodukten x, y sehr viele verschiedene
Rume gebildet werden.

3 Zeitkontinuierliche Signale

54

In diesem Abschnitt werden die Funktionenrume behandelt. Die Definitionen von


Norm, Abstand und Innenprodukt hngen davon ab, was die Funktionen in der realen
Welt bedeuten. Trotzdem gelten fr alle Funktionen die beiden folgenden Definitionen ber Addition und Skalarmultiplikation von Funktionen und den Abstand zweier
Funktionen.
Definition 3.1 (Addition und Skalarmultiplikation von Funktionen)
Die Addition und die Skalarmultiplikation von Funktionen werden auf nahe liegende
Weise definiert:
(F1) (f1 + f2 ) (t) = f1 (t) + f2 (t) ,
(F2) (c f1 ) (t) = c f1 (t) .
Mit diesen Definitionen wird die Funktionenmenge {f (t) : R R} ein Vektorraum
ber dem Skalarkrper R.

Definition 3.2 (Abstand von Funktionen)


Der Abstand zweier Funktionen f1 (t) und f2 (t) wird ber die Norm bestimmt:
d(f1 (t), f2 (t)) = ||f1 (t) f2 (t)|| .

(3.3)

Natrlich kann der Abstand zweier Funktionen nur dann angegeben werden, wenn
die beiden Funktionen eine endliche Norm
||fi (t)|| <
besitzen.
Hier stellt sich nun die Frage, wie das Innenprodukt und die Norm von Funktionen
berechnet werden. Dazu unterscheidet man verschiedene Signale.

3.1 Funktionenrume

3.1.1

55

Signalklassen

Bei der allgemeinen Betrachtung im Zeitintervall R unterscheidet man drei Signaltypen.

Definition 3.4 (Energiesignale)


Ein beschrnktes, stckweise stetiges Signal y(t), fr das

y(t)y (t) dt =

|y(t)| dt <

gilt, nennt man Energiesignal.

Der Name kommt von der physikalischen Interpretation, da das Integral als Energie
des Signals interpretiert werden kann. Somit sind also Energiesignale gerade diejenigen
Signale, welche eine endliche Energie besitzen. Damit die Konvergenz des Intergrals
gesichert ist, mssen die Signale fr groe Zeiten verschwinden. Eine notwendige Bedingung, damit eine Funktion y(t) berhaupt ein Energiesignal sein kann, ist also:
lim y(t) = 0.

Definition 3.5 (Leistungssignale)


Ein beschrnktes, stckweise stetiges Signal y(t), fr welches das Integral

y(t)y (t) dt

divergiert (unendliche Energie), jedoch der Grenzwert


1
lim
T 2T

1
y(t)y (t) dt = lim
T 2T

|y(t)| dt <

existiert, nennt man Leistungssignal.

Der Grenzwert lsst sich physikalisch als mittlere Leistung interpretieren. Beispielsweise
handelt es sich bei der Klasse der beschrnkten, periodischen Signale um Leistungssignale. Die mittlere Leistung von Energiesignalen ist null.

3 Zeitkontinuierliche Signale

56
Definition 3.6 (Sonstige Signale)
Alle Zeitfunktionen y(t), fr welche die Integrale

y(t)y (t) dt

bzw.
1
lim
T 2T

y(t)y (t) dt

nicht existieren, welche unstetig oder unbeschrnkt sind, werden als sonstige Signale
klassifiziert.

Auch wenn aufgrund der Definitionen die meisten Funktionen als sonstige Signale zu
klassifizieren sind, so lassen sich mit Hilfe der Energie- und Leistungssignale leistungsstarke Analyse- und Synthesemethoden in der Signal- und Systemtheorie beschreiben.
Bemerkung 3.7
Betrachtet man nicht das Zeitintervall R sondern ein endliches Zeitintervall wie z.B.
(a, b) oder [a, b], so fllt aufgrund der Endlichkeit des Zeitintervalls der Begri des
Leistungssignals weg, d.h. alle Leistungssignale werden in einem endlichen Zeitintervall zum Energiesignal, da das Integral

y(t)y (t) dt

konvergiert. Da man sich ein auf einem endlichen Intervall definiertes Energiesignal
stets periodisch wiederholt denken kann, knnte das periodisch wiederholte Signal
auch als Leistungssignal interpretiert werden.

In praktischen Anwendungen ist ein unendliches Zeitintervall zur Messung von Signalen
nicht mglich. Man wird es daher immer mit zeitbegrenzten Funktionen zu tun haben.
In spteren Anwendungen geht man implizit hufig von einer periodischen Fortsetzung
des Signals auerhalb des Zeitintervalls ber alle Zeiten aus. Dadurch lassen sich diese
Signale in die Klasse der Leistungssignale einordnen.

3.1.2

Norm und Innenprodukt von Signalen

Fr Energie- und Leistungssignale lassen sich jeweils unitre Funktionenrume mit


Norm und Innenprodukt definieren.

3.1 Funktionenrume

57

Definition 3.8 (Norm und Innenprodukt von Energiesignalen)


Die Norm und das
 Innenprodukt von Energiesignalen im Funktionenraum L2 (R) =
{y(t) : R C : |y(t)|2 dt < } werden fr y(t), y1 (t), y2 (t) L2 (R) angegeben
durch

21

||y(t)|| =
y(t)y (t) dt <
(3.9)

beziehungsweise

y1 (t), y2 (t) =

y1 (t)y2 (t) dt.

(3.10)

Bemerkung 3.11
Da in spteren Abschnitten auch Funktionen auftreten, welche von mehreren Zeitvariablen abhngen, wird bei Innenprodukten zwischen Funktionen stets die Variable
als tief gestellter Index angegeben, bezglich der das Innenprodukt gebildet wird.
Somit lautet Gleichung (3.10) in dieser ausfhrlicheren Schreibweise:
y1 (t), y2 (t)t =

y1 (t)y2 (t) dt .

(3.12)

Beispielsweise entstehen bei den Kurzzeittransformationen, welche in der Signalverarbeitung Anwendung finden, Funktionen, die von mehreren Zeit- oder Frequenzvariablen abhngen. Auch hier wird bei Faltungsoperatoren zur Verdeutlichung ein

Index angegeben.
Bedingung fr die Existenz der Norm ist die Konvergenz des Integrals. Existiert die
Norm beider Funktionen y1 (t) und y2 (t), so existiert auch ihr Innenprodukt, was sich
leicht ber die Schwarzsche Ungleichung (2.11) zeigen lsst:



|y1 (t), y2 (t)t | = 
2

y1 (t)y2 (t)

2

dt ||y1 (t)||2 ||y2 (t)||2 .

Statt des Integrationsbereiches R kann natrlich auch ein endliches Intervall gewhlt
werden, womit sich dann ein entsprechender Raum L2 (a, b) ergibt.

3 Zeitkontinuierliche Signale

58

Definition 3.13 (Norm und Innenprodukt von Leistungssignalen)


2 (R) =
Die Norm und das Innenprodukt fr Leistungssignale im Funktionenraum L

T
1
2 (R)
|y(t)|2 dt < } werden fr y(t), y1 (t), y2 (t) L
{y(t) : R C : limT 2T
T
durch

||y(t)|| = lim

beziehungsweise

1
2T

21

y(t)y (t) dt <

1
y1 (t), y2 (t)t = lim
T 2T

y1 (t)y2 (t) dt

(3.14)

(3.15)

angegeben.

3.1.3

Norm und Innenprodukt mit Belegung

In diesem Abschnitt bezeichnen X und Y reellwertige Funktionen, die man sich als
Zufallsvariablen vorstellen kann.
Definition 3.16 (Norm und Innenprodukt mit Belegung)
Mit den beiden reellen Belegungen (x) 0 und (x, y) 0, die den Wert x bzw.
(x, y) entsprechend der Abbildung X bzw. (X, Y ) gewichten, wird die Norm und das
Innenprodukt wie folgt definiert:

||X|| =
X, Y  =

21

x2 (x) dx ,

xy (x, y) dx dy .

Hierzu lsst sich folgendes Beispiel angeben:

(3.17)

(3.18)

3.2 Stochastische Signale

59

Beispiel 3.19 (Erwartungswerte)


Mit den reellen Belegungen f (x) 0 und f (x, y) 0, welche den Normierungsbedingungen

f (x) dx = 1

f (x, y) dx dy = 1

gengen, kann man die Norm als quadratischen Mittelwert


2

||X||

= E{X } =

x2 f (x) dx

(3.20)

und das Innenprodukt als Kreuzkorrelation


X, Y  = E{XY } =

xy f (x, y) dx dy

(3.21)

interpretieren. Mit Hilfe der Schwarzschen Ungleichung (2.11) lsst sich einfach eine
Abschtzung fr die Kreuzkorrelation ermitteln:



X, Y  ||X|| ||Y ||

E{XY } E{X 2 } E{Y 2 }

3.2

Stochastische Signale

Bei der Konstruktion, Berechnung oder Analyse von Systemen mit zeitkontinuierlichen
Signalen muss man im Allgemeinen das Signal kennen. So wird bei einem bestimmten
Eingangssignal das Ausgangssignal berechnet. Doch wenn wir alle Eingangssignale bereits im Voraus kennen wrden, so bruchten wir sie eventuell gar nicht. Wenn man vor
der Messung einer Lnge das Ergebnis schon kennt, so kann man sich die Messung sparen. Im Allgemeinen sind die Signale nicht vorherbestimmt, sondern unbestimmt. Wenn
bei einer Nachrichtenbertragung das Signal fr den Sender bekannt ist, so ist das Signal fr den Empfnger ein Zufallssignal oder stochastisches Signal, da das bertragene
Signal fr den Empfnger unbekannt ist sonst bruchte man es nicht bertragen
und es von zuflligen Strungen berlagert ist.
Diese zuflligen oder auch stochastischen Signale knnen aber trotzdem schon im Voraus
Informationen enthalten. So kennt man beim Wurf eines Wrfels zwar nicht die als
Nchstes erscheinende Augenzahl, trotzdem wei man, dass bei einem idealen Wrfel
jede Augenzahl gleichwahrscheinlich auftritt.
In diesem Abschnitt wird, nach kurzer Wiederholung einiger technisch wichtiger Wahrscheinlichkeitsdichten, der stochastische Prozess eingefhrt. Genauere Ausfhrungen
findet man in [BS75, Hn83, Ise74, Jon00].

3 Zeitkontinuierliche Signale

60

3.2.1

Wahrscheinlichkeitsverteilung

In der Natur zeigt sich, dass viele Ereignisse, die von einer oder mehreren zuflligen Gren abhngen, zumindest nherungsweise bestimmten Wahrscheinlichkeitsverteilungen
gehorchen. Zu den am meisten verwendeten Verteilungen gehren die Gleichverteilung,
die Normalverteilung und die Exponentialverteilung.
3.2.1.1

Gleichverteilung

Die Gleichverteilung einer Zufallsvariablen Y im Intervall [a, b] ist durch ihre Wahrscheinlichkeitsdichte
fY (y) =

1
ba

fr a y b
sonst

(3.22)

gegeben. In Abbildung 3.1 ist als Beispiel die Wahrscheinlichkeitsdichte einer Gleichverteilung im Intervall [a, b] dargestellt.
fY (y)
1
b-a

Abbildung 3.1: Wahrscheinlichkeitsdichte


bei Gleichverteilung

Der Erwartungswert E{Y }, der auch als Mittelwert bezeichnet und als y geschrieben
wird,

y = E{Y } =

y fY (y) dy =

b
a

y
1 b2 a2
1
dy =
= (a + b) (3.23)
ba
2 ba
2

und die Varianz V {Y }, die oft auch als 2 geschrieben wird,


2

(y y ) fY (y) dy =

1
ba

b
a

b 
a

2
1
1
y (a + b)
dy
2
ba

1
y 2 (a + b)y + (a + b)2 dy
4


1
1 3
1
1
=
(b a3 ) (a + b)(b2 a2 ) + (a + b)2 (b a)
ba 3
2
4

3.2 Stochastische Signale

61

1 1
(b3 3ab2 + 3a2 b a3 )
12 b a
1
=
(b a)2
12

(3.24)

folgen mittels einfacher Rechnung.


Der Quantisierungsfehler eines Analog-Digital-Wandlers wird beispielsweise nherungsweise als gleichverteilt angenommen, vgl. [KE05]. Wenn man also eine physikalische
Gre diskretisiert, so ist der Fehler zwischen dem eigentlichen Wert und dem diskreten
Wert gleichverteilt.
3.2.1.2

Normalverteilung

Die Normalverteilung einer Zufallsvariablen Y ist durch die Wahrscheinlichkeitsdichte




(y )2
1
fY (y) =
exp
(3.25)
2 2
2
mit den Parametern und 2 gegeben. In Abbildung 3.2 sieht man ein Beispiel einer
Wahrscheinlichkeitsdichte bei Normalverteilung.
fY (y)

y+

Abbildung 3.2: Wahrscheinlichkeitsdichte


bei Normalverteilung

Man kann durch Rechnung zeigen, dass der Erwartungswert E{Y } gleich
E{Y } =

1
y fY (y) dy =
2

1
2

1
=
2

(y + ) e 2 2 dy

y2
y2

2
y e 2 dy +
e 2 dy
2



(y )2
2 2 dy
ye

= 2
2

=0

y2

2
2
e
dy = 2
1
2 2
2

(3.26)

3 Zeitkontinuierliche Signale

62
und die Varianz gleich 2
2

E{(Y E{Y }) } =

(y )2 fY (y) dy

1
=
2

(y )2
2 2 dy
(y )2 e

y2
y2

2
y 2 e 2 2 dy =
y 2 e 2 2 dy
2

0
3
2
( 2)
=
4
2

1
=
2

= 2

(3.27)

ist. Ist eine Zufallsvariable normalverteilt, so wird ihre Verteilung durch diese beiden
Parameter vollstndig bestimmt. Durch Variablentransformation kann man jede Normalverteilung in eine Einheitsnormalverteilung berfhren, die den Mittelwert 0 und
die Varianz 1 besitzt und deren Wahrscheinlichkeitsdichte durch
y2
1
fY (y) = e 2
2

(3.28)

gegeben ist.
Bei mehrdimensionalen Zufallsvektoren Y = (Y1 , . . . , YN )T wird der Mittelwert von
einem Mittelwertvektor m und die Varianz 2 von der Kovarianzmatrix C Y abgelst.
Die Elemente des Mittelwertvektors entsprechen den einzelnen Mittelwerten der Zufallsvariablen
m = (1 , . . . , N )T

, i = E{Yi },

(3.29)

und die Elemente der Kovarianzmatrix werden nach folgendem Schema bestimmt:
cij = E{(Yi i )(Yj j )} .

(3.30)

Dann hat die Wahrscheinlichkeitsdichte der mehrdimensionalen Normalverteilung folgende Darstellung:


fY (y) =

1
(y m)T C 1
Y (y m)
2
.
e
1

(2)N/2 |C Y | 2

(3.31)

Die Normalverteilung kommt sehr hufig in der Natur vor. Zum Beispiel ist der Signalwert eines weien Rauschens normalverteilt [BS75].

3.2 Stochastische Signale


3.2.1.3

63

Exponentialverteilung

Die Exponentialverteilung einer Zufallsvariablen Y ist durch die Wahrscheinlichkeitsdichte



y fr y 0
fY (y) = e
(3.32)
0
sonst
charakterisiert. In Abbildung 3.3 sieht man ein Beispiel einer Wahrscheinlichkeitsdichte
bei Exponentialverteilung.
fY (y)

Abbildung 3.3: Wahrscheinlichkeitsdichte


bei Exponentialverteilung

Ihr Erwartungswert respektive Mittelwert betrgt, wie man leicht nachrechnet,


E{Y } =

(3.33)

und die Varianz lautet


2 =

1
.
2

(3.34)

Die Zeiten bis zum Ausfall gleichartiger Bauelemente werden beispielsweise als exponentialverteilt angenommen. Hierbei ist die Ausfallrate der Proportionalittsfaktor in
der Dierenzialgleichung
dN
= N
dt

N (t) = N0 et .

Die momentane Abnahme der intakten Bauelemente ist proportional zur Zahl der intakten Bauelemente. Die Vorgeschichte der Bauelementezahl bleibt dabei unbercksichtigt.

3.2.2

Stochastische Prozesse

Bei den klassischen Zufallsexperimenten werden die Elementarereignisse durch fest zugeordnete Werte gekennzeichnet, z.B. wird das Ergebnis beim Wrfeln durch eine Zahl
zwischen 1 und 6 beschrieben. Im Bereich der Signalverarbeitung knnen die Zufallsereignisse nicht einem einzelnen Zahlenwert, sondern mssen einem parameterabhngigen
Zahlenwert, also einer Funktion bzw. Folge zugeordnet werden. Dieser Parameter ist
im Folgenden die Zeit t bzw. der Zeitindex n. Im Allgemeinen darf der Parameter aber
auch eine andere Bedeutung haben.
Bei einem Zufallsexperiment, dessen Elementarereignisse durch die Zahlenwerte
einer Zufallsvariablen gekennzeichnet sind, mssen alle mglichen Zahlenwerte y () ,

3 Zeitkontinuierliche Signale

64

, einer auf einem Wahrscheinlichkeitsraum (, A, P ) definierten Zufallsvariablen Y : R zur Beschreibung des Zufallsexperimentes herangezogen werden.
Wenn den Elementarereignissen Funktionen zugeordnet sind, mssen alle bei diesem
Zufallsexperiment mglichen Funktionen zur Beschreibung dieses Zufallsexperiments
verwendet werden. Die Gesamtheit dieser Funktionen y () (t), , nennt man einen
stochastischen Prozess.
Definition 3.35 (Stochastischer Prozess)
Ein stochastischer Prozess Y : T R ist eine Familie von Zufallsvariablen,
welche durch t T indiziert ist, wobei T als diskrete oder kontinuierliche Zeit interpretiert werden kann. Die Zufallsvariablen sind ber demselben Wahrscheinlichkeitsraum (, A, P ) definiert.

Somit ist Y (t, ) fr festes t T eine gewhnliche Zufallsvariable, whrend bei festem
durch Y (t, ) eine Zeitfunktion gegeben ist. Betrachtet man Y (t, ) bei festem
t T als Zufallsvariable, so wird diese Zufallsvariable oft auch mit Y (t) bezeichnet,
wobei dann die Abhngigkeit von dadurch verdeutlicht ist, dass wie bei gewhnlichen Zufallsvariaben ein Grobuchstabe verwendet wird. Die bei festem
entstehende Zeitfunktion wird Musterfunktion des stochastischen Prozesses genannt
und mit y () (t) bezeichnet, um die Abhngigkeit von und somit die Zuflligkeit
dieser Funktion hervorzuheben.
Ein Signal, dessen Funktion mit den Mitteln eines stochastischen Prozesses untersucht werden kann, nennt man stochastisches Signal.

Gehrt zu jedem Elementarereignis nicht nur eine einzige Funktion y () (t),


()
()
sondern sind ihm m Funktionen y1 (t), . . ., ym (t) fest zugeordnet, so handelt es sich
um einen m-dimensionalen stochastischen Prozess {Y (t) = (Y1 (t), . . . , Ym (t))T }. Hier
spricht man davon, dass ein m-dimensionaler stochastischer Prozess aus m einzelnen
stochastischen Signalen besteht. Dies ist immer dann sinnvoll, wenn die m Signale im
Zusammenhang als Einheit betrachtet werden knnen.
Beispiel 3.36 (Rauschspannung)
Die Spannung u(t) an einem Widerstand R ist, bedingt durch thermisches Rauschen,
verrauscht und kann auch bei Kenntnis des durchflieenden Stromes i(t) nicht vorhergesagt werden. Hierbei handelt es sich um einen stochastischen Prozess, dessen
Funktion beliebige Werte annehmen kann. Die Schar aller mglichen Funktionen ist
unendlich gro.

Beispiel 3.37 (Elektronenspin)


Der Spin eines Elektrons
1
L(s)

z = h
2

3.2 Stochastische Signale

65

kann sich nicht nur mit der Zeit ndern, sondern ist im Allgemeinen auch nicht vorhersehbar. Hierbei handelt es sich um einen stochastischen Prozess, dessen Funktion
nur zwei diskrete Werte annehmen kann. Auch hier ist die Schar aller mglichen
Funktionen ber der Zeit unendlich gro.

Beispiel 3.38 (CD-Spieler)


Das digitale (wert- und zeitdiskrete) Ausgangssignal yn , n {1, . . . , N }, eines CDSpielers ist von der eingelegten CD abhngig und damit deterministisch. Betrachtet
man aber einen zufllig ausgewhlten CD-Spieler, so kann man das Ausgangssignal
yn , n {1, . . . , N }, nicht vorhersagen. Zwar beschrnkt sich die Schar aller mglichen Ausgangssignale auf die Anzahl aller mglichen CDs, und diese Anzahl ist
endlich. Trotzdem geht man ohne Kenntnis der eingelegten CD von einem stochastischen Signal und damit von einem stochastischen Prozess aus.

3.2.2.1

Wahrscheinlichkeitsdichte

Die Definition der Wahrscheinlichkeitsdichte folgt unmittelbar aus der klassischen Wahrscheinlichkeitsrechnung. Dazu wird als Erstes die Verteilungsfunktion definiert, die Aussagen ber das Verhalten der Amplitude zu einem Zeitpunkt t erlaubt.
Definition 3.39 (Verteilungsfunktion)
Die Verteilungsfunktion eines stochastischen Prozesses {Y (t)},
FY (y, t) = P ({Y (t) y}) ,
gibt die Wahrscheinlichkeit an, mit der der zufllige Funktionswert (Signalwert) Y (t)
zum Zeitpunkt t kleiner gleich y ist. Somit ist die Verteilungsfunktion von den beiden
Parametern y und t abhngig.
Hieraus folgt die Wahrscheinlichkeitsdichte als partielle Ableitung der Verteilungsfunktion.
Definition 3.40 (Wahrscheinlichkeitsdichte)
Die Wahrscheinlichkeitsdichte eines stochastischen Prozesses {Y (t)} ergibt sich durch
fY (y, t) =

FY (y, t)
y

ebenfalls als Funktion zweier Variablen. Dabei gilt:

fY (y, t) dy = 1 .

(3.41)

3 Zeitkontinuierliche Signale

66

Sowohl die Verteilungsfunktion als auch die Wahrscheinlichkeitsdichte hngen im allgemeinen Fall von der Zeit t ab. Die partielle Ableitung in Gleichung (3.41) ist als
verallgemeinerte Ableitung anzusehen. An Stellen, an denen in der Verteilungsfunktion
Sprnge auftreten, enthlt die Wahrscheinlichkeitsdichte -Distributionen.
Betrachtet man nun m-dimensionale stochastische Prozesse, so ist auch hier eine Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte definiert. Es bedarf lediglich einer bertragung der eindimensionalen Begrie auf mehrdimensionale Funktionen. Man betrachtet also gleichzeitig das Verhalten der eindimensionalen Zufallsgren Y1 (t), . . . , Ym (t)
zu Zeitpunkten t1 , . . . , tm . Dies wird in der folgenden Definition erfasst:
Definition 3.42 (Mehrdimensionale Verteilungsfunktion)
Die Verteilungsfunktion eines m-dimensionalen stochastischen Prozesses
{Y (t)} , Y (t) = (Y1 (t), . . . , Ym (t))T ,
FY (y1 , . . . , ym , t1 , . . . , tm ) =
P ({Y1 (t1 ) y1 } {Ym (tm ) ym }) ,
gibt die Wahrscheinlichkeit an, mit der die Funktionswerte (Signalwerte) Yi (t) zum
Zeitpunkt ti kleiner oder hchstens gleich yi sind.
Hieraus folgt die Wahrscheinlichkeitsdichte als partielle Ableitung der Verteilungsfunktion.
Definition 3.43 (Mehrdimensionale Wahrscheinlichkeitsdichte)
Die Wahrscheinlichkeitsdichte eines m-dimensionalen stochastischen Prozesses
{Y (t)}, Y (t) = (Y1 (t), . . . , Ym (t))T , ist durch
fY (y1 , . . . , ym , t1 , . . . , tm ) =

m FY (y1 , . . . , ym , t1 , . . . , tm )
y1 ym

gegeben. Dabei gilt:

fY (y1 , . . . , ym , t1 , . . . , tm ) dy1 dym = 1 .

Beim mehrdimensionalen stochastischen Prozess kommt noch der Begri der statistischen Unabhngigkeit hinzu.

3.2 Stochastische Signale

67

Definition 3.44 (Statistische Unabhngigkeit)


Die Komponenten Y1 (t), . . . , Ym (t) eines m-dimensionalen stochastischen Prozesses
{Y (t)}, Y (t) = (Y1 (t), . . . , Ym (t))T , heien statistisch unabhngig, wenn die Gleichungen
FY (y1 , . . . , ym , t1 , . . . , tm ) = FY1 (y1 , t1 ) . . . FYm (ym , tm )
bzw.
fY (y1 , . . . , ym , t1 , . . . , tm ) = fY1 (y1 , t1 ) . . . fYm (ym , tm )
gelten. Die m-dimensionale Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte ist
das Produkt der m einzelnen Verteilungsfunktionen bzw. Wahrscheinlichkeitsdichten.

Statistische Unabhngigkeit ist eine Eigenschaft, die experimentell hchstens nherungsweise nachgewiesen werden kann. Bei der Formulierung eines Modells fr ein System kann sie sofern sie nicht bereits aus den Annahmen ber die Quellen auftretender
Zufallsprozesse folgt nur als Voraussetzung formuliert werden. Dies ist in der Regel
berechtigt, wenn die stochastischen Signale verschiedene Ursachen haben. Statistische
Unabhngigkeit bedeutet immer eine wesentliche Vereinfachung der Modellanalyse. Man
wird daher oft auch dort versuchen, mit statistischer Unabhngigkeit zu arbeiten, wo
die Quellen der stochastischen Signale zwar nicht vllig unabhngig voneinander sind,
vorhandene Abhngigkeiten aber nicht interessieren oder keine allzu groe Auswirkung
auf die untersuchte Fragestellung haben.
3.2.2.2

Momente

Mit Hilfe der Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte wird ein stochastischer Prozess beschrieben. Ob man aber auf diese Weise eine vollstndige Beschreibung
aller Eigenschaften des Prozesses erlangt und wie diese vollstndige Beschreibung aussehen muss, soll hier nicht weiter vertieft werden. Schon aus rein praktischen Grnden
kann man nmlich die Genauigkeit bei der Beschreibung der Eigenschaften eines stochastischen Prozesses im Allgemeinen nicht beliebig weit treiben. Allein um einen eindimensionalen, stochastischen Prozess {Y (t)} durch seine Verteilungsfunktion FY (y, t)
zu beschreiben, muss diese Funktion fr gengend dicht gelegene Punkte t messtechnisch oder analytisch aus den Gesetzmigkeiten, denen die Musterfunktionen y () (t)
von {Y (t)} gehorchen, ermittelt werden. Dabei ist auch zu bedenken, dass meistens gar
nicht alle mglichen Musterfunktionen eines Prozesses, sondern lediglich eine geringe
Anzahl derselben gemessen werden knnen. Die Ermittlung der Verteilungsfunktion fr
zweidimensionale stochastische Prozesse {Y (t)} wird oensichtlich noch aufwndiger
werden.
Aus diesen Grnden verzichtet man auch hufig darauf, die Eigenschaften eines stochastischen Prozesses durch seine Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte
zu beschreiben. Man versucht stattdessen, die zugehrigen Momente, wie z.B. Erwartungswerte, zu ermitteln, wobei man sich in der Praxis auf die Momente erster und

3 Zeitkontinuierliche Signale

68

zweiter Ordnung beschrnkt. Mit der Kenntnis dieser Momente lassen sich viele praktische Aufgaben lsen.
Bei eindimensionalen stochastischen Prozessen werden die Momente durch folgende Definitionen beschrieben.
Definition 3.45 (Moment eines stochastischen Prozesses)
Durch
E{Y n (t)} =

y n fY (y, t)dy

(3.46)

wird das n-te Moment des stochastischen Prozesses {Y (t)} definiert, welches auch
als n (t) bezeichnet wird.
Durch eine Verschiebung der Zufallsgre auf ihren Mittelwert ergibt sich das zentrale
Moment eines stochastischen Prozesses.
Definition 3.47 (Zentrales Moment eines stochastischen Prozesses)
Durch
n

E{(Y (t) E{Y (t)}) } =

(y E{Y (t)})n fY (y, t) dy

(3.48)

wird das n-te zentrale Moment des stochastischen Prozesses {Y (t)} definiert.
Bemerkung 3.49
1. Das erste Moment ist der zeitabhngige Erwartungswert beziehungsweise der
Mittelwert (t).
2. Das zweite zentrale Moment heit Varianz 2 (t). Sie ist ein Ma fr die Streuung der Werte um den Mittelwert. Die Wurzel der Varianz heit Standardabweichung.
3. Bei der Berechnung der zentralen Momente wird vom Signalwert y der Mittelwert abgezogen. Das heit bei mittelwertfreien stochastischen Signalen ist das

i-te Moment gleich dem i-ten zentralen Moment.


Bei mehrdimensionalen stochastischen Prozessen knnen die Momente im Allgemeinen
nicht mehr berechnet werden. Nur noch bei zweidimensionalen stochastischen Prozessen
lassen sich die beiden ersten Momente berechnen.

3.2 Stochastische Signale

69

Definition 3.50 (Erstes Moment eines zweidimensionalen Prozesses)


Das erste Moment eines zweidimensionalen stochastischen Prozesses {Y (t)}, Y (t) =
(Y1 (t), Y2 (t))T , wird durch einen zweidimensionalen Vektor beschrieben. Die j-te
Komponente lsst sich durch
j (t) = E{Yj (t)} =

yj fYj (yj , t) dyj

, j = 1, 2,

(3.51)

bestimmen.

Definition 3.52 (Zweites Moment eines zweidimensionalen Prozesses)


Das zweite Moment bzw. das zweite zentrale Moment eines zweidimensionalen stochastischen Prozesses {Y (t)}, Y (t) = (Y1 (t), Y2 (t))T , wird durch eine (2 2)-Matrix
beschrieben. Die (jk)-te Komponente lsst sich beim zweiten Moment durch
rjk (t1 , t2 ) = E{Yj (t1 )Yk (t2 )} =

yj yk fY (yj , yk , t1 , t2 ) dyj dyk (3.53)

und beim zweiten zentralen Moment durch


cjk (t1 , t2 ) = E {[Yj (t1 ) E{Yj (t1 )}] [Yk (t2 ) E{Yk (t2 )}]}

=
(yj j (t1 ))(yk k (t2 ))fY (yj , yk , t1 , t2 ) dyj dyk

(3.54)

berechnen. Dabei nennt man cjk die Kovarianz und rjk die Korrelation zwischen
der j-ten und k-ten Komponente. Fr j = k spricht man von Autokorrelation bzw.
Autokovarianz, ansonsten von Kreuzkorrelation bzw. Kreuzkovarianz.
Die (22)-Matrizen bezeichnet man entsprechend als Korrelationsmatrix RY ,Y (t1 , t2 )
bzw. Kovarianzmatrix C Y ,Y (t1 , t2 ).

Bemerkung 3.55
Bei der Korrelation komplexwertiger Energie- oder Leistungs-Signale wird eines der
beiden Signale komplex konjugiert. Die hier betrachteten stochastischen Prozesse
sind jedoch stets reellwertig, weswegen die Konjugation entfllt.

Man beachte, dass die Korrelation rY2 ,Y1 (t1 , t2 ) den statistischen Zusammenhang beschreibt, der zwischen Y2 (t1 ) und Y1 (t2 ) besteht. rY1 ,Y2 (t1 , t2 ) beschreibt hingegen den

3 Zeitkontinuierliche Signale

70

Zusammenhang zwischen Y1 (t1 ) und Y2 (t2 ). Es gilt im Allgemeinen


rY2 ,Y1 (t1 , t2 ) = rY1 ,Y2 (t1 , t2 )

, falls t1 = t2 .

(3.56)

Die Korrelationsmatrix ist also fr t1 = t2 eine asymmetrische und fr t1 = t2 eine


symmetrische Matrix. Entsprechend gilt fr die Kovarianzmatrix im Allgemeinen
cY2 ,Y1 (t1 , t2 ) = cY1 ,Y2 (t1 , t2 )

, falls t1 = t2 .

(3.57)

Im Falle eines m-dimensionalen stochastischen Prozesses {Y (t)}, der durch Y (t) =


(Y1 (t), . . . , Ym (t))T definiert ist, wird die Korrelationsmatrix

rY1 ,Y1 (t1 , t2 ) rY1 ,Ym (t1 , t2 )

..
..
..
RY ,Y (t1 , t2 ) =

.
.
.
rYm ,Y1 (t1 , t2 ) rYm ,Ym (t1 , t2 )

(3.58)

bzw. die Kovarianzmatrix

cY1 ,Y1 (t1 , t2 ) cY1 ,Ym (t1 , t2 )

..
..
..
C Y ,Y (t1 , t2 ) =

.
.
.
cYm ,Y1 (t1 , t2 ) cYm ,Ym (t1 , t2 )

(3.59)

aus den Elementen des zweidimensionalen Falles gebildet.


Sowohl der Begri der Korrelationsmatrix RY ,Y (t1 , t2 ) als auch der Kovarianzmatrix
C Y ,Y (t1 , t2 ) lassen sich fr zwei m-dimensionale stochastische Prozesse {Y 1 (t)} und
{Y 2 (t)} verallgemeinern. Dann enthlt die Korrelationsmatrix RY 1 ,Y 2 (t1 , t2 ) bzw. Kovarianzmatrix C Y 1 ,Y 2 (t1 , t2 ) keine Autokorrelationen bzw. Autokovarianzen, sondern
nur Kreuzkorrelationen bzw. Kreuzkovarianzen.

3.2.2.3

Stationaritt

Allgemein sind die Verteilungsfunktionen bzw. die Wahrscheinlichkeitsdichten eines stochastischen Prozesses zeitabhngig. Dies hat zur Folge, dass die ersten Momente eine
Funktion der Zeit t bzw. die Korrelationen und Kovarianzen eine Funktion der Zeiten t1 und t2 sind. Wesentliche Vereinfachungen treten ein, wenn sich die statistischen
Eigenschaften eines Prozesses oder die gemeinsamen statistischen Eigenschaften mehrerer Prozesse bei einer Verschiebung der Zeitachse nicht ndern. Man nennt derartige
Zufallsprozesse stationr.

3.2 Stochastische Signale

71

Definition 3.60 (Stationaritt)


Ein m-dimensionaler stochastischer Prozess {Y (t)}, Y (t) = (Y1 (t), . . . , Ym (t))T , heit
stationr oder auch stationr im engeren Sinne, wenn seine statistischen Eigenschaften invariant gegenber beliebigen Verschiebungen t0 der Zeit sind, d.h. falls
FY (y1 , . . . , ym , t1 , . . . , tm ) = FY (y1 , . . . , ym , t1 + t0 , . . . , tm + t0 )

(3.61)

fY (y1 , . . . , ym , t1 , . . . , tm ) = fY (y1 , . . . , ym , t1 + t0 , . . . , tm + t0 )

(3.62)

bzw.

gilt. Zwei stochastische Prozesse heien verbunden stationr, wenn beide stationr
und ebenso ihre gemeinsamen statistischen Eigenschaften invariant gegenber der
Zeit sind.
Hieraus folgt sofort fr einen eindimensionalen stochastischen Prozess {Y (t)} wegen
FY (y, t) = FY (y, t + t0 ) = FY (y)

(3.63)

fY (y, t) = fY (y, t + t0 ) = fY (y)

(3.64)

bzw.

die Zeitunabhngigkeit der Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte. Die nten Momente


E{Y n (t)} =

y n fY (y, t) dy =

y n fY (y) dy = E{Y n }

(3.65)

hngen dementsprechend auch nicht mehr von der Zeit ab.


Bei zweidimensionalen, stationren stochastischen Prozessen
{Y (t) = (Y1 (t), Y2 (t))T }
erhlt man mit der Zeittransformation t0 = t0 t2 folgende Verteilungsfunktion:
FY (y1 , y2 , t1 + t0 , t2 + t0 ) = FY (y1 , y2 , t1 t2 + t0 , t0 ) .
Da stationre stochastische Prozesse invariant gegenber der Zeit sind, kann man die
Zeitverschiebung t0 auer Acht lassen, wodurch man mit = t1 t2
FY (y1 , y2 , t1 , t2 ) = FY (y1 , y2 , )

(3.66)

eine Verteilungsfunktion erhlt, die nur noch von der Zeitdierenz abhngt. Die absoluten Zeiten sind wegen der Stationaritt irrelevant. Entsprechend gilt fr die Wahrscheinlichkeitsdichte:
fY (y1 , y2 , t1 , t2 ) = fY (y1 , y2 , ) .

(3.67)

3 Zeitkontinuierliche Signale

72
Fr die zweiten Momente folgt, dass die Korrelation
rjk ( ) = E{Yj (t + )Yk (t)} =

yj yk fY (yj , yk , ) dyj dyk

(3.68)

bzw. die Kovarianz


cjk ( ) = E {(Yj (t + ) E{Yj }) (Yk (t) E{Yk })} =

(yj j )(yk k )fY (yj , yk , ) dyj dyk

(3.69)

auch nur noch von der Zeitverschiebung abhngen.


Neben der Stationaritt im engeren Sinne gibt es auch die schwache Stationaritt.
Definition 3.70 (Schwache Stationaritt)
Ein stochastischer Prozess heit schwach stationr oder auch im weiteren Sinne stationr, wenn die Invarianz gegenber einer Translation der Zeit nur fr die Momente
erster und zweiter Ordnung gilt.
Hierfr muss die Verteilungsfunktion bzw. die Wahrscheinlichkeitsdichte selbst nicht
invariant gegenber einer Zeitverschiebung sein. Nur die Mittelwerte, Korrelationen
und Kovarianzen sind nicht vom absoluten Zeitpunkt abhngig.
Stationaritt ist eine Eigenschaft eines stochastischen Prozesses, die nur aus der Gesamtheit aller Musterfunktionen bestimmt werden kann. Die Beobachtung endlich langer Abschnitte einzelner Musterfunktionen und nur dies ist in einem Experiment
mglich kann hchstens Hinweise darauf geben, ob die Annahme eines stationren
stochastischen Prozesses als Modell fr ein Signal oder eine Strung angemessen ist,
oder nicht. Daneben hngt es weitgehend vom Untersuchungsziel ab, ob ein Vorgang
durch einen instationren stochastischen Prozess modelliert werden muss, oder ob das
in der Regel sehr viel einfachere Modell eines stationren Prozesses wirklichkeitsnah
genug ist.
3.2.2.4

Ergodizitt

Bei der Bestimmung des ersten Moments allgemeiner stochastischer Prozesse nach Gleichung (3.46),
E{Y (t)} =

y fY (y, t)dy,

wird zu einem festen Zeitpunkt t ber die Schar aller mglichen Musterfunktionen gemittelt. Dies nennt man den Scharmittelwert. Mittelt man hingegen ber alle Zeiten t

3.2 Stochastische Signale

73

bei einer festen Musterfunktion y () (t), so spricht man vom Zeitmittelwert. Der Zeitmittelwert sagt nur etwas ber die eine Musterfunktion aus, fr die er berechnet wurde.
Er kann fr jede Musterfunktion verschieden sein. Es gibt jedoch eine Klasse von stationren stochastischen Prozessen, bei denen die Scharmittelwerte und Zeitmittelwerte
identisch sind. Man nennt derartige Prozesse ergodisch.
Definition 3.71 (Ergodizitt)
Ein stationrer stochastischer Prozess heit ergodisch, wenn die Zeitmittelwerte einer
beliebigen Musterfunktion mit der Wahrscheinlichkeit eins mit den entsprechenden
Scharmittelwerten bereinstimmen.
Stationaritt ist in jedem Fall die Voraussetzung fr Ergodizitt. Dies geht schon daraus
hervor, dass die Mittelwerte instationrer stochastischer Prozesse zeitabhngig sind und
somit nicht fr alle Zeiten mit den zeitunabhngigen Zeitmittelwerten bereinstimmen
knnen.
Bemerkung 3.72
Auch bei Ergodizitt unterscheidet man zwischen Prozessen, die streng ergodisch
oder schwach ergodisch sind. Bei streng ergodischen Prozessen gilt Definition 3.71
fr alle Momente, bei schwach ergodischen Prozessen begngt man sich damit, Aus
tauschbarkeit nur fr Momente erster und zweiter Ordnung zu fordern.
Nun ist zu untersuchen, unter welchen Voraussetzungen ein stationrer Zufallsprozess
ergodisch ist.
Der Zeitmittelwert fr eine einzelne Musterfunktion, d.h. fr ein festes ,
1
T 2T

mY () = lim

+T

y () (t) dt

(3.73)

stellt selbst eine Zufallsvariable dar. Fr mY () kann somit ein Erwartungswert berechnet werden:

+T

1
y () (t) dt .
lim
E{mY ()} = E
T 2T

Vertauscht man die Reihenfolge der Operationen,


1
E{mY ()} = lim
T 2T

+T

E{y () (t)} dt,

so folgt schlielich aufgrund der Stationaritt


E{mY ()} = E{y () (t0 )} , t0 R.

(3.74)

3 Zeitkontinuierliche Signale

74

Dieses Ergebnis besagt, dass der Mittelwert aller Zeitmittelwerte mit dem Scharmittelwert bereinstimmt. Daher ist mY () ein erwartungstreuer Schtzwert fr den Scharmittelwert (erstes Moment). Sind zustzlich alle Zeitmittelwerte mY () mit der Wahrscheinlichkeit eins einander gleich, so ist die Ergodizitt fr den Mittelwert gegeben.
Gleichheit mit Wahrscheinlichkeit eins bedeutet hier, dass die Mittelwerte einer Anzahl
von Musterfunktionen vom Scharmittelwert abweichen knnen, solange die Wahrscheinlichkeit, dass eine dieser Musterfunktionen auftritt, gleich null ist.
Der mathematisch strenge Nachweis der Ergodizitt lsst sich hchstens in Sonderfllen erbringen. Daher kann in der Regel die Eigenschaft der Ergodizitt fr einen
stochastischen Prozess nur angenommen werden. Diese Annahme bedeutet, dass aus
einer einzelnen Musterfunktion y () (t) alle statistischen Eigenschaften des Zufallsprozesses bestimmt werden knnen. Bei einem ergodischen Prozess sind somit einzelne
Musterfunktionen reprsentativ fr den stochastischen Prozess.
Beispiel 3.75 (Schwingung mit zuflliger Phase als ergodischer Prozess)
Gegeben sei der Zufallsprozess {Y (t)} mit den Musterfunktionen
y () (t) = sin(2f t + i ())
mit fester Frequenz f und einer Phase i , die auf dem Intervall [0, 2) gleichverteilt
ist.
Bei diesem Zufallsprozess erkennt man, dass sowohl der Zeitmittelwert, d.h. der Mittelwert einer Musterfunktion ber alle Zeiten, als auch der Scharmittelwert, d.h. der
Mittelwert aller Musterfunktionen zu einem Zeitpunkt, verschwindet. Durch Ausrechnen, d.h. Mittelung ber eine gleichverteilte Phase bzw. ber eine Periode einer
Schwingung, folgt:
E{y () (t)} = E{mY ()} = 0
Der Prozess ist somit ergodisch.

Betrachtet man die Einteilung der Signale in die Signalklassen gem Abschnitt 3.1.1, so
stellt sich die Frage, welche Signale Musterfunktionen ergodischer Prozesse sein knnen.
Nach Beispiel 3.75 ist eine harmonische Schwingung mit zuflliger, gleichverteilter Phase
ein ergodischer Prozess. Daraus schliet man, dass Leistungssignale Musterfunktionen
ergodischer Prozesse sein knnen. Die Bildung von Zeitmittelwerten ist also erlaubt. Es
kann sogar gezeigt werden, dass alle Musterfunktionen ergodischer Prozesse Leistungssignale sind.
Energiesignale hingegen knnen keine Musterfunktionen ergodischer Prozesse sein, da
sie nicht stationr sind:
lim y(t) = 0

lim n (t) = 0

keine Stationaritt

Da nach Voraussetzung Energiesignale fr t verschwinden, verschwinden auch


deren erste Momente. Damit ist die Zeitunabhngigkeit der Momente fr Energiesignale
verletzt.

3.2 Stochastische Signale

75

Die Momente eines ergodischen Prozesses werden nach folgenden Regeln berechnet.
Satz 3.76 (Moment eines ergodischen Prozesses)
Das n-te Moment eines ergodischen Prozesses wird bei beliebigem 0 durch
(n)

1
= lim
T 2T

+T '

(n
y (0 ) (t) dt

bestimmt.

Der Index 0 der Musterfunktion bedeutet, dass eine feste Musterfunktion zur Bestimmung herangezogen wurde.
Satz 3.77 (Zentrales Moment eines ergodischen Prozesses)
Das n-te zentrale Moment eines ergodischen Prozesses wird fr 0 durch

(n)

1
= lim
T 2T

+T '

y (0 ) (t) (n)

(n

dt

berechnet.

Die Bewertung der hnlichkeit von stochastischen Prozessen erfolgt mittels der Korrelation, vgl. Bemerkung 3.55:
Satz 3.78 (Korrelation zweier ergodischer Prozesse)

Die Korrelation zweier ergodischer Prozesse Yj (t) und Yk (t) wird bei beliebigen
0 , 1 durch
1
rjk ( ) = lim
T 2T

+T

(0 )

yj

(1 )

(t + )yk

(t) dt

bestimmt.

Satz 3.79 (Kovarianz zweier ergodischer Prozesse)


Die Kovarianz zweier ergodischer Prozesse Yj (t) und Yk (t) ist bei beliebigen 0 , 1
durch
1
cjk ( ) = lim
T 2T
gegeben.

+T
( )
( )
(yj 0 (t + ) j )(yk 1 (t) k ) dt

3 Zeitkontinuierliche Signale

76

In den Stzen 3.78 und 3.79 werden Korrelation bzw. Kovarianz zwischen einzelnen
Musterfunktionen berechnet. Da ergodische Musterfunktionen Leistungssignale sind,
knnen die Definitionen fr Korrelation und Kovarianz fr ergodische Musterfunktionen
auch bei deterministischen Leistungssignalen angewandt werden.
3.2.2.5

Korrelation fr Leistungssignale

Analog zu den ergodischen Musterfunktionen ist die Korrelation deterministischer Leistungssignale ber das Innenprodukt
1
T 2T

L
( ) = x(t + ), y(t)t = lim
Rxy

+T

x(t + )y (t) dt

(3.80)

y(t + )y (t) dt

(3.81)

als Kreuz- bzw. als


L
Ryy
( )

1
= y(t + ), y(t)t = lim
T 2T

+T

Autokorrelation definiert. Der hochgestellte Index L gibt an, dass es sich um die Korrelation von Leistungssignalen handelt.
Beispiel 3.82 (Autokorrelation eines periodischen Signals)
Das Signal
s(t) = A sin(2f0 t + )
besitzt die Autokorrelation
L
Rss
( )

1
= lim
T 2T

+T

A sin(2f0 (t + ) + )A sin(2f0 t + ) dt

A2
=
cos(2f0 ),
2
die von der Phase unabhngig ist.
3.2.2.6

Korrelation fr Energiesignale

Da Energiesignale nicht zu den ergodischen Prozessen gehren, ist die Berechnung einer
Korrelation mit obigen Mitteln eigentlich nicht mglich. Fr die wichtige Anwendung
des Signalvergleichs lsst sich aber auch fr Energiesignale eine Korrelationsfunktion
angeben, bei deren Definition das Innenprodukt Anwendung findet:
E
Rxy
( )

= x(t + ), y(t)t =

x(t + )y (t) dt < .

(3.83)

3.2 Stochastische Signale

77

Der Zusatz E kennzeichnet die abweichende Berechnungsvorschrift und die Tatsache,


dass es sich hier nicht mehr um eine Korrelationsfunktion im stochastischen Sinne handelt. Vielfach spricht man auch von Impulskorrelation.
E
Die Autokorrelation Rxx
( ) zum Zeitpunkt = 0
E
(0) = x(t), x(t)t = ||x(t)||2 = Ex
Rxx

ist gleich der Signalenergie.


3.2.2.7

Eigenschaften der Korrelation

Unter den definierten Momenten kommt der Korrelation eine besondere Bedeutung zu.
Auf sie soll daher in diesem Abschnitt noch einmal eingegangen werden. Die folgenden
Beziehungen gelten dabei sowohl fr Energie- als auch fr Leistungssignale.
Die Autokorrelation eines instationren stochastischen Prozesses {Y (t)} ist im Allgemeinen eine Funktion zweier Zeiten:
RY Y (t1 , t2 ) = Y (t1 ), Y (t2 ) = E{Y (t1 )Y (t2 )}
Hieraus folgt sofort
RY Y (t2 , t1 ) = E{Y (t1 )Y (t2 )} = E{Y (t2 )Y (t1 )} = RY Y (t1 , t2 ),

(3.84)

die Vertauschbarkeit der beiden Zeiten. Weiterhin lsst sich mit Hilfe der Schwarzschen
Ungleichung folgende Ungleichung zeigen:
2

(RY Y (t1 , t2 )) RY Y (t1 , t1 ) RY Y (t2 , t2 ) , t1 , t2 R

(3.85)

Es gilt nmlich
|Y (t1 ), Y (t2 )|2 Y (t1 ), Y (t1 ) Y (t2 ), Y (t2 ),
woraus Gleichung (3.85) unmittelbar folgt.
Bei stationren stochastischen Prozessen ist die Autokorrelation nur noch von = t1 t2
abhngig. Wegen (3.84) folgt damit aus
RY Y ( ) = RY Y ( ),

(3.86)

dass die Autokorrelation stationrer Prozesse eine gerade Funktion ist. Die Ungleichung
(3.85) vereinfacht sich daher zu
|RY Y ( )| RY Y (0) , R.

(3.87)

Dies besagt, dass die Autokorrelation eines stationren stochastischen Prozesses bei =
0 dem Betrage nach ihren grten Wert erreicht. Bei der Formulierung der Ungleichung
(3.87) wurde noch bercksichtigt, dass
RY Y (0) = E{Y (t)2 } 0,

(3.88)

3 Zeitkontinuierliche Signale

78

d.h. dass RY Y (0) nicht negativ ist. Beschreibt der stochastische Prozess eine physikalische Gre, z.B. einen Strom, eine Spannung, einen Druck, eine Geschwindigkeit oder
eine Kraft, so ist RY Y (0) proportional der mittleren Leistung bzw. der Energie.
Sind die Musterfunktionen eines stationren Prozesses periodisch mit der Periodendauer
T0 , d.h. gilt
y () (t) = y () (t + T0 ) , t R,
so ist, wie man leicht nachrechnet, seine Autokorrelation ebenfalls periodisch
(3.89)

Ryy ( ) = Ryy ( + T0 ) , R
mit der Periodendauer T0 .

3.3

Deterministische Signale

Unter deterministischen Signalen sind Signale zu verstehen, deren zeitlicher Ablauf analytisch beschreibbar und exakt voraussagbar ist. Im Gegensatz hierzu stehen die stochastischen Signale, die durch ihre Wahrscheinlichkeitsverteilungen beschrieben werden
knnen und die im letzten Abschnitt behandelt wurden. Ihr zeitlicher Verlauf kann nicht
mit Hilfe einer analytischen Beschreibung exakt vorausgesagt werden. Bei der Darstellung deterministischer Signale stellt die aus der Funktionalanalysis stammende Entwicklung in Basisfunktionen ein mchtiges Werkzeug dar. Die Entwicklung in vollstndige,
biorthogonale Funktionensysteme ist eine Verallgemeinerung. Sie wird im Bereich der
Kurzzeit-Fourier-Transformation und der Wavelet-Transformation benutzt.

3.3.1

Orthogonale Funktionensysteme

Im Funktionenraum der Energiesignale, L2 (a, b), mit der Definition des Innenprodukts
(3.10) und der Bedingung 2.27 fr eine orthonormale Basis ergibt sich die folgende
Bedingung fr ein mit der Indexmenge I indiziertes orthonormales Funktionensystem
(i (t))iI :

i (t), j (t)t =

i (t)j (t) dt

= ij

, ij =

1 ,i = j
.
0 , sonst

(3.90)

Die Anwendung des Schmidtschen Orthonormalisierungsverfahrens 2.29 beschrnkt sich


nicht nur auf Vektoren. Es kann auch auf Funktionen angewendet werden, um ein Orthonormalsystem zu bilden. Dies bietet somit eine Mglichkeit zur Konstruktion solcher
Funktionensysteme.
Einige bekannte Orthonormalsysteme sind:

3.3 Deterministische Signale

79

Beispiel 3.91 (Fourier-Reihe T -periodischer Funktionen in L2 (t0 , t0 + T ))


Bei der Entwicklung von Funktionen in ihre Fourier-Reihe treten folgende orthonormale Funktionen auf:
1
Fk (t) = ej2kt/T
T

(3.92)

,k Z.

Bemerkung 3.93

Im vorigen Beispiel ist zu beachten, dass die verwendeten Basisfunktionen orthonormal sind. Die im spteren Verlauf bei der Fourier-Reihe verwendeten Basisfunktionen
sind hingegen nur orthogonal, da der Vorfaktor 1T fehlt.

Beispiel 3.94 (Legendre-Polynome in L2 (1, 1))


Die Legendre-Polynome werden durch
)
2k + 1 1 dk 2
Pk (t) =
(t 1)k
2 2k k! dtk
definiert. Die ersten drei Polynome lauten:
)
3
1
P0 (t) = , P1 (t) =
t,
2
2

(3.95)

, k N0 ,

) 

5 3 2 1
.
P2 (t) =
t
2 2
2

Genauso lassen sich aber auch eigene orthonormale Funktionensysteme bilden. Dies soll
im folgenden Beispiel durch Anwendung des Schmidtschen Orthonormalisierungsverfahrens gezeigt werden.
Beispiel 3.96 (Anwendung Schmidtsches Orthonormalisierungsverfahren)
Gegeben sind im Funktionenraum L2 (0, 3) folgende Funktionen:
x1 (t)
16

x2 (t)
16

1
-1

3 t

x3 (t)
16

1
-1

3 t

3 t

-1

Durch sukzessive Anwendung des Schmidtschen Orthonormalisierungsverfahrens in


Verbindung mit der Definition des Innenproduktes im Funktionenraum L2 (0, 3) ergibt sich daraus ein orthonormales Funktionensystem.

3 Zeitkontinuierliche Signale

80
1. Berechnen der Norm des Signals x1 (t) durch
*

x1 (t)x1 (t) dt = 2 .
||x1 || =
0

2. Das Signal 1 (t) folgt damit als


x1 (t)
1 (t) = .
2
3. Bestimmung des Innenprodukts

3
x2 (t), 1 (t)t =
x2 (t)1 (t) dt = 0 .
0

4. Daraus folgt nach Gleichung (2.32)


h2 (t) = x2 (t) .
5. Berechnen der Norm
*

||h2 || =

h2 (t)h2 (t) dt =

2.

6. Somit ergibt sich die zweite Basisfunktion


x2 (t)
2 (t) = .
2
7. Bestimmung der Innenprodukte

x3 (t), 1 (t)t =


x3 (t)1 (t) dt = 2 ,
0

x3 (t), 2 (t)t =

x3 (t)2 (t) dt = 0 .

8. Daraus folgt nach Gleichung (2.32)

h3 (t) = x3 (t) 21 (t)


= x3 (t) x1 (t) .
9. Berechnen der Norm
*

||h3 || =

h3 (t)h3 (t) dt = 1 .

10. Fr das Signal 3 (t) gilt somit


3 (t) = x3 (t) x1 (t) .

3.3 Deterministische Signale

81

Das Ergebnis des Schmidtschen Orthonormalisierungsverfahrens sieht folgendermaen aus:


1 (t)
6

2 (t)
6

1
2

1
2

3 (t)
6

t
12

3 t

Orthonormale Funktionensysteme kann man dazu verwenden, um andere Funktionen zu


approximieren. Mit Gleichung (2.28) lsst sich eine T -periodische Funktion im Intervall
[ T2 , T2 ] durch die Fourier-Reihe im Funktionenraum L2 ( T2 , T2 ) darstellen,

1 
ak ej2kt/T
y(t) =
T k=

mit
ak = y(t), Fk (t)t =

T /2

y(t)Fk (t) dt

T /2

1
=
T

T /2

y(t)ej2kt/T dt.

T /2

Mit dem in Beispiel 3.96 bestimmten orthonormalen Funktionensystem kann man


ebenso die Funktion y(t) = sin( 2
3 t) approximieren. Die einzelnen Koezienten a1 bis
a3 lauten dabei:
a1 = 0,5064 ,

a2 = 0,5064 ,

a3 = 0,7162 .

Die approximierte Funktion


y(t) = a1 1 (t) + a2 2 (t) + a3 3 (t)
und die Originalfunktion y(t) sieht man in Abbildung 3.4.

Abbildung 3.4: Vergleich einer Sinusfunktion und deren Approximation durch drei
Basisfunktionen aus Beispiel 3.96

3 Zeitkontinuierliche Signale

82

Der Nherungsfehler kann durch Hinzunahme orthogonaler Basisfunktionen hherer


Ordnung verringert werden (Besselsche Ungleichung).
Bemerkung 3.97
Die zur Approximation verwendeten Basissysteme mssen nicht unbedingt orthonormal sein. Im Gegenteil sind beispielsweise die blicherweise bei der Fourier-Reihe
verwendeten Basisfunktionen nur orthogonal. Die Norm einer Funktion ist nur ein
Skalar und somit nicht von grerer Bedeutung. Dieser Faktor wird bei der Berechnung der Koezienten mit einflieen. Wichtiger ist vielmehr die Tatsache, dass die
verwendeten Basisfunktionen orthogonal sind, was eine zur Berechnung entschei
dende Voraussetzung darstellt.

3.3.2

Biorthogonale Funktionensysteme

In einem biorthogonalen Funktionensystem, vgl. [KSW08], verwendet man nicht ein,


sondern zwei Funktionensyteme (i (t))iI und (i (t))iI . Diese beiden Funktionensysteme sind durch die Biorthogonalittsbedingung miteinander verbunden.
Definition 3.98 (Biorthogonalittsbedingung)
Die beiden Funktionensysteme (i (t))iI und (i (t))iI bilden ein biorthogonales
System, wenn sie durch die Biorthogonalittsbedingung
i (t), j (t)t =

i (t)j (t) dt = ij

, ij =

1 , fr i = j
0 , sonst

(3.99)

verbunden sind.
Angemerkt sei, dass hierbei im Allgemeinen i = i ist und jedes Funktionensystem
fr sich alleine weder orthonormal noch ein Basissystem sein muss. Beide Funktionensysteme mssen jeweils den Funktionenraum L2 (R) vollstndig aufspannen.
Bei der Rekonstruktion eines beliebigen Signals (in diesem Fall eines Energiesignals)
verwendet man das erste Funktionensystem zur Darstellung des Signals:

y(t) =
ai i (t) .
(3.100)
iI

Das erste Funktionensystem enthlt die Synthesefunktionen. Die Koezienten dagegen werden mit den zu den Synthesefunktionen i (t) biorthogonalen Analysefunktionen
i (t) berechnet.
ai = y(t), i (t)t =

b
a

y(t)i (t) dt

(3.101)

3.4 Fourier-Reihe

83

Dies lsst sich mit Hilfe der Biorthogonalittsbedingung (3.99) leicht zeigen:



y(t), j (t)t = 
ai i (t), j (t)t =
ai i (t), j (t)t =
ai ij = aj


iI
iI
iI
=ij

3.4

Fourier-Reihe

Ein orthogonales Funktionensystem besonderer Bedeutung bilden die trigonometrischen


Funktionen im Intervall [, ]. Mit der Periodendauer T0 = 2 lauten diese
(
'
sk (t) = sin 2 Tk0 t
(
'
ck (t) = cos 2 Tk0 t

, k = 1, 2, 3, . . .

(3.102)

, k = 0, 1, 2, . . .

Hieraus folgen die einzelnen Orthogonalittsbedingungen:


si (t), sj (t)t =

ci (t), cj (t)t =

si (t), cj (t) =

si (t)sj (t) dt =

, fr i = j
, fr i = j

0 , fr i = j
ci (t)cj (t) dt = , fr i = j = 0
2 , fr i = j = 0

si (t)cj (t) dt = 0

(3.103)

(3.104)

(3.105)

Die Periodizitt der trigonometrischen Funktionen lsst sie besonders geeignet erscheinen, um periodische Funktionen in eine Reihe trigonometrischer Funktionen zu entwickeln. Diese Reihe heit Fourier-Reihe, und die Entwicklung einer periodischen Funktion in ihre Fourier-Reihe bezeichnet man als harmonische Analyse.
Satz 3.106 (Fourier-Reihe)
Periodische Funktionen der Periodendauer T0 kann man durch die Fourier-Reihe
y(t) =






k
k
a0 
ak cos 2 t + bk sin 2 t
+
2
T0
T0

(3.107)

k=1

darstellen. Entsprechend den berlegungen fr orthogonale Funktionensysteme,


Gleichung (2.28) und der Definition Gleichung (3.15) fr Leistungssignale, berechnet

3 Zeitkontinuierliche Signale

84
man die Fourier-Koezienten ak und bk durch
T0

ak =

2
T0

bk =

2
T0

T0
2
T0
2

T
20



k
y(t) cos 2 t dt , k = 0, 1, 2, . . .
T0


y(t) sin 2

k
t
T0

(3.108)

dt , k = 1, 2, 3, . . .

Da die Integranden periodisch mit der Periode T0 sind, kann anstelle des Grenzbergangs T0 ber eine Periode integriert werden.

Somit stellt die Bestimmung der Fourier-Koezienten eine Abbildung des Periodenintervalls einer Funktion y(t) in zwei Folgen (ak )k0 und (bk )k1 dar. In praktischen
Anwendungen wird man oft nach endlich vielen Gliedern abbrechen. Man erhlt somit
eine Approximation der periodischen Funktion durch ein trigonometrisches Polynom.
In zwei Beispielen werden nun die Fourier-Koezienten bestimmt und die Originalfunktion mit diesen Koezienten approximiert.
Beispiel 3.109 (Fourier-Reihe der Rechteckfunktion)
Das periodische Rechtecksignal y(t) mit der Periode T0 = 2[sec]

1 , t < 0
y(t) =
1 ,0 t <
soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die FourierKoezienten zu berechnen. Die Koezienten der Cosinusfunktionen,
ak =

y(t) cos(2

k
t) dt = 0,
T0

mssen verschwinden, da die Cosinusfunktion eine gerade Funktion und die Rechteckfunktion eine ungerade Funktion ist. Die Koezienten der Sinusfunktionen lassen
sich einfach ermitteln:

1
k
2
k
y(t) sin(2 t) dt =
sin(2 t) dt
bk =

T0

T0

0


2 T0
k 
2 T0 
1 + (1)k+1
=
cos(2 t) =
2k
T0 
2k
0
 4
,
k
ungerade
= k
0 , k gerade

3.4 Fourier-Reihe

85

y(t)

0.5
0
0.5
1
2

0
t [sec]

Abbildung 3.5: Mit Hilfe einer Fourier-Reihe


approximierte Rechteckfunktion

Zur Approximation werden die ersten drei von Null verschiedenen Koezienten verwendet. Die approximierte Rechteckfunktion erkennt man in Abbildung 3.5.
4
y(t) =

sin(2 T30 t) sin(2 T50 t)


1
sin(2 t) +
+
T0
3
5

Beispiel 3.110 (Fourier-Reihe der Dreieckfunktion)


Das periodische Dreiecksignal y(t) mit der Periodendauer T0 = 2[sec]

y(t) =

1 + 2 t
1

2
t

, t < 0
,0 t <

soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die FourierKoezienten zu berechnen. Die Koezienten der Sinusfunktionen
1
bk =

y(t) sin(2

k
t) dt = 0
T0

mssen verschwinden, da die Sinusfunktion eine ungerade und die Dreieckfunktion


eine gerade Funktion ist. Die Koezienten der Cosinusfunktionen ergeben sich zu:


2
k
1 t cos(2 t) dt

T0

k
2
k
2
t cos(2 t) dt
cos(2 t) dt
=

T0

T0

1
ak =

k
2
y(t) cos(2 t) dt =
T0

3 Zeitkontinuierliche Signale

86

y(t)

0.5
0
0.5
1
2

0
t [sec]

Abbildung 3.6: Approximierte Dreieckfunktion


-
,
k
k
2 T0
4 cos(2 T0 t) t sin(2 T0 t)
k 
=
+
sin(2 t) 2
2k
T0 

(2 Tk0 )2
2 Tk0
0
0


4 (1)k
1
4 
=0 2
+ 0 2 0 = 2 2 1 + (1)k+1

k2
k
k
 8
, k ungerade
= k2 2
0
, k gerade, k = 0
k =0

Fr k = 0 muss man den Koezienten separat berechnen:


2
a0 =
2

2
y(t) dt =


0

2
1 t

dt = 0 .

Zur Approximation werden die ersten drei von Null verschiedenen Koezienten verwendet. Die approximierte Dreieckfunktion erkennt man in Abbildung 3.6.


cos(2 T30 t) cos(2 T50 t)
1
8
+
y(t) = 2 cos(2 t) +

T0
9
25
Benutzt man die Fourier-Reihe nicht zur Synthese sondern zur Analyse periodischer
Funktionen, so ist zu untersuchen, wie die Fourier-Koezienten interpretiert werden
knnen. Der Fourier-Koezient ak bzw. bk gehrt zur trigonometrischen Funktion
cos(2 Tk0 t) bzw. sin(2 Tk0 t) mit der Frequenz Tk0 . Somit geben ak und bk den Anteil
einer Schwingung der Frequenz f = Tk0 an der Signalenergie an. Der Unterschied der
beiden Koezienten liegt in der Phase. Dies ist aus folgender Beziehung ersichtlich:



 .

 
k
k
k
bk
ak cos 2 t +bk sin 2 t = a2k + b2k cos 2 t arctan
T0
T0
T0
ak
Mit

.
Ak = a2k + b2k

k = arctan

bk
ak

(3.111)

3.4 Fourier-Reihe

87

erhlt man Amplitude und Phase der Schwingungen. Die Fourier-Reihe eignet sich also
zur Bestimmung der Spektralanteile in periodischen Funktionen.
Mit der exponentiellen Darstellung der trigonometrischen Funktionen,


1 j2 Tk t
k
j2 Tk0 t
0
e
t) =
+e
T0
2


k
1
j2 Tk0 t
j2 Tk0 t
,
e
e
sin(2 t) =
T0
2j

cos(2

(3.112)
(3.113)

lsst sich die Fourier-Reihe umschreiben:


Satz 3.114 (Komplexe Darstellung der Fourier-Reihe)
Eine T0 -periodische Funktion y(t) lsst sich durch die Fourier-Reihe

y(t) =

ck e

j2 Tk0 t

(3.115)

k=

in komplexer Schreibweise darstellen. Im Gegensatz zur reellen Darstellung gibt es


nur noch eine Koezientenfolge (ck )kZ mit
T0

ck =

1
T0

y(t)e

j2 Tk0 t

dt.

(3.116)

T0
2

An dieser Stelle wird, wie schon in Bemerkung 3.93, erneut auf eine Besonderheit der
Fourier-Reihe hingewiesen, welche zu Verwirrung fhren kann:
Bemerkung 3.117

In Beispiel 3.91 wurde die Fourier-Reihe bereits eingefhrt. Sie enthielt dort, als orthonormales Funktionensystem, noch den Vorfaktor 1T . Im Gegensatz dazu bildet
0
die hier benutzte Fourier-Reihe lediglich ein orthogonales Funktionensystem. Das
Weglassen des Vorfaktors hat sich in der heutigen Literatur eingebrgert.

Der Fourier-Koezient ck ist die komplexe Amplitude des Spektralanteils mit der diskreten Frequenz
fk =

k
T0

, k Z.

In solch einem Fall spricht man von einem Linienspektrum. Bemerkenswert ist zudem,
dass der Index in der komplexen Darstellung der Fourier-Reihe in Z luft. Dies bedeutet,

3 Zeitkontinuierliche Signale

88

dass es auch Spektralanteile mit negativen Frequenzen geben kann. Dies ist durch die
komplexe Darstellung einer Sinusschwingung
(
1 ' j2f0 t
e
sin(2f0 t) =
ej2f0 t
2j

verstndlich. Die reelle Sinusschwingung mit der Frequenz f0 wird durch zwei komplexe
Schwingungen mit den Frequenzen f0 und f0 dargestellt.

Mit Hilfe der komplexen Fourier-Koezienten bestimmt man die komplexen Amplituden als eine Funktion der Frequenz.

T0

1
y(t)ej2f t dt , fr f = Tk0
,k Z
C(f ) = T0
(3.118)

20

0
, sonst

Trgt man diese Funktion auf, so erkennt man deutlich das Linienspektrum. Der Abstand zweier Spektrallinien entspricht dem reziproken Wert der Periodendauer:
f =

1
.
T0

(3.119)

Beispiel 3.120 (Fourier-Reihe und Periodendauer)


In diesem Beispiel soll noch einmal verdeutlicht werden, wie die Spektralanteile und
deren Abstand von der Periodendauer des Signals abhngen. Hierzu legen wir die
Reckteckfunktion y(t) mit der Zeitdauer T = 1[sec] gem

1 ,0 t T
y(t) =
0 , sonst
zugrunde und setzen diese mit der Periode T0 2T fort. Whlt man die Periode
dieser Fortsetzung zu T0 = lT mit l 2, so erhlt man die Fourier-Koezienten:
C

k
T0

T0

1
=
T0
+

T0
2

y(t)e

k

j2 Tk0 t

sin l j k
l
e
k
1

1
dt =
T0

y(t)e

j2 Tk0 t

dt

, k = 0
,k = 0
l
Betrachten wir die beiden Flle l = 2 bzw. l = 4 und multiplizieren die Amplitude
zur Normierung mit l, so erhalten wir die in Abbildung 3.7 bzw. Abbildung 3.8
abgebildeten Funktionen.
Man erkennt, dass sich bei einer Vergrerung der Periodendauer die Abstnde der
Spektrallinien entsprechend Gleichung (3.119) verringern. Dieses Resultat wird im
nchsten Abschnitt noch einmal aufgegrien werden.

3.5 Fourier-Transformation

89

1.2

l C(k/T ) |Y(f)|

1.2

0.6

y(t)

0.8

0.4

0.8
0.6
0.4

0.2

0.2

0
0

10
15
t [sec]

20

25

0
f [Hz]

0
f [Hz]

Abbildung 3.7: Spektralbereich fr den Fall T0 = 2T


1.2

1.2
l C(k/T ) |Y(f)|

0.6

y(t)

0.8

0.4
0.2

1
0.8
0.6
0.4
0.2

0
0

10
15
t [sec]

20

25

Abbildung 3.8: Spektralbereich fr den Fall T0 = 4T

3.5

Fourier-Transformation

Die Fourier-Reihe hat sich als ein Werkzeug zur Bestimmung der Frequenzanteile periodischer Funktionen erwiesen. Um aber nicht nur periodische Signale sondern auch
nichtperiodische Signale durch ihr Spektrum beschreiben zu knnen, fhrt man formal
den Grenzbergang der Periodendauer nach Unendlich T0 durch. Hierdurch wird
die Frequenzauflsung f beliebig fein, geht also gegen null. Dies resultiert aber fr
Energiesignale in einer verschwindenden Amplitudenfunktion in Gleichung (3.118).
T0

C(f ) = 0 , f R

Statt der Amplitudenfunktion in (3.118) fhrt man deshalb eine Amplitudendichte ein:
T0

C(f )
FC (f ) =
= C(f )T0 =
f

T
20

y(t)ej2f t dt .

(3.121)

3 Zeitkontinuierliche Signale

90

Der Grenzwert der Amplitudendichte (3.121) fr T0 , d.h. f 0, entspricht der


Spektraldichte bzw. der Fourier-Transformierten
lim FC (f ) =

T0

y(t)ej2f t dt = Y (f ) .

Die Synthesegleichung mittels der Fourier-Reihe (3.115) wird mit Hilfe der Amplitudenfunktion (3.118) umgeschrieben:




j2 Tk0 t

j2f
t
.
C(f )e
y(t) =
ck e
=

 k
k=

k=

f= T

Nun ersetzt man die Amplitudenfunktion durch die Amplitudendichte:




j2f
t
FC (f )e
C(f ) = FC (f ) f = y(t) =
f 

k=

f = Tk
0

Im Grenzbergang
der Periodendauer
T0 nach Unendlich, T0 f 0, geht


die Summe
in das Integral , die Frequenzauflsung f in das totale Dierenzial df
und die Amplitudendichte FC (f ) in die Fourier-Transformierte Y (f ) ber:
y(t) =

Y (f )ej2f t df .

Hierdurch zerlegt man, analog zur Fourier-Reihe, das Signal y(t) in die Frequenzanteile
Y (f ) der einzelnen kontinuierlichen Frequenzen f .
Beispiel 3.122 (Herleitung der Fourier-Transformation aus der FourierReihe)
Dieses Beispiel zeigt exemplarisch die Entstehung der Fourier-Transformation aus
der Fourier-Reihe. Hierzu greifen wir noch einmal das Beispiel 3.120 auf. Whrend
wir dort die beiden Flle T0 = 2T und T0 = 4T betrachtet hatten, wollen wir an
dieser Stelle den fr T0 stattfindenden Prozess verdeutlichen. Hierzu liefert
bereits T0 = 20T ein reprsentatives Resultat, welches in Abbildung 3.9 dargestellt
ist.
Man erkennt, wie die diskrete Verteilung ber die verschiedenen Frequenzen in eine
kontinuierliche Frequenzverteilung bergeht. Man bentigt also zur Darstellung beliebiger nicht-periodischer Signale alle zur Verfgung stehenden Frequenzen und
kann sich nicht wie beim periodischen Fall auf Frequenzen gewisser diskreter Abstnde beschrnken. Durch Aufzeichnen aller Frequenzlinien in den Abstnden 1/20
entsteht der Eindruck einer geschlossenen Flche, da die einzelnen Linien in der
Abbildung nicht mehr aufgelst werden knnen.

3.5 Fourier-Transformation

91

1.2

l C(k/T ) |Y(f)|

1.2

0.6

0.8

y(t)

0.8

0.4

0.6
0.4

0.2

0.2

0
0

10
15
t [sec]

20

25

0
f [Hz]

Abbildung 3.9: Spektralbereich fr den Fall T0 = 20T

3.5.1

Definition der Fourier-Transformation

Die Fourier-Transformation ist formal eine eigenstndige Integraltransformation, die lediglich der Anschaulichkeit halber aus der Fourier-Reihe abgeleitet wurde. Im Folgenden
soll diese Transformation formal definiert werden:
Definition 3.123 (Fourier-Transformation)
Die Fourier-Transformation bildet eine Funktion der Zeit, y(t), in eine Funktion der
Frequenz, Y (f ), ab. Man schreibt symbolisch:
y(t) Y (f )

Y (f ) = F{y(t)}

y(t) = F 1 {Y (f )}

Die Transformationsvorschriften
Y (f ) = y(t), ej2f t t =

y(t) = Y (f ), ej2f t f =

y(t)ej2f t dt

(3.124)

(3.125)

Y (f )ej2f t df

stellen Abbildungen des Zeitbereiches in den Frequenzbereich bzw. umgekehrt dar.


Die Fourier-Transformierte einer Zeitfunktion bezeichnet man auch als deren Spektrum.
Die Darstellung (3.125) fr y(t) lsst sich in Analogie zur Fourier-Reihe in sehr anschaulicher Weise physikalisch deuten. Ist eine Funktion y(t) periodisch, so kann man sie als
unendliche Summe von harmonischen Schwingungen darstellen. Deren Frequenzen sind
die Vielfachen einer Grundfrequenz f0 = T10 . Einen analogen Aufbau zeigt (3.125). Hier

3 Zeitkontinuierliche Signale

92

ist die nichtperiodische Funktion y(t) ebenfalls aus harmonischen Schwingungen aufgebaut. Dabei sind aber nicht nur Schwingungen mit diskreten Frequenzen kf0 beteiligt,
sondern grundstzlich Schwingungen aller Frequenzen. Jede dieser Schwingungen ist
mit ihrer infinitesimalen komplexen Amplitude Y (f ) df beteiligt. Ihre Summation fhrt
zu dem Integral (3.125).
Statt der Frequenz f kann man auch die Kreisfrequenz = 2f einfhren. Dann
ergeben sich mit d = 2 df

Y () =

1
y(t) =
2

y(t)ejt dt

(3.126)

(3.127)

Y ()ejt d

die beiden Fourier-Integrale in Kreisfrequenzschreibweise.


In der Literatur [Doe76, Fl80, Jur64, OS75, Ach78, Pap77, SS67] findet man beide
Arten. Wir haben uns fr die Frequenzschreibweise entschieden, da sie durch ihre symmetrische Darstellung einfacher zu erlernen ist.
Die Eigenschaften und Rechenregeln der Fourier-Transformation sind natrlich unabhngig von der Schreibweise. Wenn man aber Spektraldichten oder Zeitfunktionen aus
einer Korrespondenztabelle entnimmt, muss man darauf achten, welche Schreibweise
der jeweilige Autor verwendet.
Bei den Fourier-Integralen handelt es sich um uneigentliche Integrale. Deshalb stellt
sich hier die Frage nach deren Konvergenz. Wegen






j2f
t


y(t)e
dt
|y(t)| dt




konvergiert das Fourier-Integral sicherlich dann, wenn

|y(t)| dt <

(3.128)

gilt, wenn also y(t) absolut integrierbar ber R ist. Dann existiert auch das Umkehrintegral (3.125). Die Bedingung (3.128) ist z.B. fr alle Funktion y(t) erfllt, die ein
Energiesignal darstellen, d.h. y(t) L2 (R).
Die Bedingung der absoluten Integrierbarkeit ist allerdings nicht notwendig, sondern
nur hinreichend. Die Fourier-Transformierte kann existieren, auch wenn (3.128) nicht
erfllt ist.
Die mgliche Nichtexistenz des Fourier-Integrals soll an einem Beispiel gezeigt werden.

3.5 Fourier-Transformation

93

Beispiel 3.129 (Nichtexistenz des Fourier-Integrals)


Die Rampenfunktion
y(t) =

t
0

, fr t 0
, sonst

besitzt, wenn berhaupt, die Fourier-Transformierte

Y (f ) = lim

T0

T0

tej2f t dt.

Aus dem Integral

T0
0

T0

1

j2f
t
e
(j2f
t

1)


(j2f )2
0
0
1
1
j2f T0 (j2f T + 1) 1
=
0
2 e
(2f )

tej2f t dt =

und der Dreiecksungleichung






|a b| |a| |b| |a| |b|

wird mit Hilfe der Abschtzung



1
0
 1
j2f T0 (j2f T + 1) 1 

e
0
 (2f )2





1


 j2f T0

|1|
(j2f
T
+
1)


e

0
2
(2f )
1
=
||(1 + j2f T0 )| |1||
(2f )2
|2f T0 | T0


(2f )2
schnell deutlich, dass das Fourier-Integral in diesem Fall nicht existiert.

Die Fourier-Transformation ist im Hilbert-Raum L2 (R) ein linearer, unitrer Operator,


bei dem die Signalenergie erhalten bleibt. Es gilt die Parsevalsche Beziehung zwischen
zwei Funktionen x(t) und y(t)
x(t), y(t)t = X(f ), Y (f )f ,

(3.130)

3 Zeitkontinuierliche Signale

94
welche sich leicht nachrechnen lsst.
X(f ), Y (f )f =
=

X(f )Y (f ) df

x(t1 )ej2f t1 dt1

y (t2 )ej2f t2 dt2 df

x(t1 )y (t2 )ej2f (t1 t2 ) df dt1 dt2

x(t1 )y (t2 )(t1 t2 ) dt2 dt1 =

= x(t), y(t)t

x(t1 )y (t1 ) dt1

Aus der Parsevalschen Beziehung folgt sofort, dass die Fourier-Transformation unitr
ist:
||y(t)||2 = y(t), y(t)t = Y (f ), Y (f )f = ||Y (f )||2 .

3.5.2

Eigenschaften der Fourier-Transformation

In der Praxis bildet die Fourier-Transformation ein sehr anschauliches Denkmodell.


Meist rechnet man jedoch nicht konkret mit der Fourier-Transformation nach den Gleichungen (3.124) und (3.125), denn die uneigentlichen Integrale sind im Allgemeinen
unbequem. Vielmehr denkt man im Zeit- und Frequenzbereich mit Hilfe einiger weniger Korrespondenzen, Operationen und Eigenschaften. Eine Auflistung der gebruchlichsten Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation
findet man in Anhang A.
Fr die Abschtzung des Spektrums ist der folgende Satz hilfreich:
Satz 3.131 (Fourier-Transformierte eines positiven Signals)
Fr die Fourier-Transformierte eines im Zeitbereich positiven und reellen Signals
y(t) 0 , t, y(t) R
gilt folgende Abschtzung:







y(t)ej2f t dt
|y(t)| |ej2f t | dt
|Y (f )| = 
 



=1

=
|y(t)|dt =
y(t)dt = Y (0)

3.5 Fourier-Transformation

95

oder krzer:
y(t) 0 , t R

= |Y (f )| Y (0) , f R .

Ein im weiteren Verlauf des Buches bentigter Satz beschftigt sich mit der Transformierten von im Zeitbereich reellen Funktionen. Betrachtet man die Fourier-Transformierte einer solchen reellen Funktion y(t), so folgt:

Y (f ) =

y(t)ej2f t dt =

y (t)ej2f t dt =

y(t)ej2(f )t dt = Y (f ) .

Satz 3.132 (Fourier-Transformation eines reellen Signals)


Fr die Fourier-Transformierte eines im Zeitbereich reellen Signals y(t) R , t R,
gilt
Y (f ) = Y (f )

(3.133)

und somit die Symmetrie des Betrages


|Y (f )| = |Y (f )|
und die Schiefsymmetrie der Phase
arg{Y (f )} = arg{Y (f )}.
Aus dieser Eigenschaft folgen fr Y (f ) = YR (f ) + jYI (f ) die Zusammenhnge
YR (f ) = YR (f )
YI (f ) = YI (f )
und darber hinaus
|Y (f )|2 = Y (f )Y (f ) = Y (f )Y (f ).

(3.134)

3.5.2.1

Faltung

Die Faltung ist ein Operator, der durch

x(t) y(t) = x(t ), y ( ) =

X(f ) Y (f ) = X(f ), Y () =

x(t ) y( ) d

X(f ) Y () d

(3.135)

(3.136)

3 Zeitkontinuierliche Signale

96

definiert ist. Die Faltung korrespondiert bei Anwendung der Fourier-Transformation


mit der Multiplikation. Dies lsst sich einfach zeigen:

x(t) y(t) =
X(f )ej2f t df
Y ()ej2t d

X(f )

Y ()ej2(f + )t d df

f + =
d = d

=
X(f )
Y ( f )ej2t d df

X(f )Y ( f )ej2t d df

=F

X(f )Y ( f ) df ej2t d

{X(f ) Y (f )}

Fr die Fourier-Transformation gilt also:


F{x(t) y(t)} = x(t) y(t), ej2f t t
= x(t), ej2f t  y(t), ej2f t 
t

= F{x(t)} F{y(t)}

Das andere quivalent von Faltung und Multiplikation kann man in gleicher Weise
zeigen:
F{x(t) y(t)} = F{x(t)} F{y(t)} .

(3.137)

Aus Gleichung (3.137) erkennt man auch sofort, dass die Faltung eine kommutative
Operation darstellt, d.h. x(t) y(t) = y(t) x(t) gilt, denn:
x(t) y(t) = F 1 {X(f ) Y (f )} = F 1 {Y (f ) X(f )}
= y(t) x(t) .
Bemerkung 3.138
Der Faltungs-Operator wird hufig angewandt. Dies liegt daran, dass man beispielsweise beim Entwurf von Filtern das Frequenzverhalten vorgibt und dann das Zeit
verhalten mittels einer Faltung berechnet.

3.5 Fourier-Transformation
3.5.2.2

97

Korrelation

Die Korrelation zweier Energiesignale ist nach Gleichung (3.83) durch das Innenprodukt
definiert:
E
Rxy
( )

= x(t + ), y(t)t =

x(t + )y (t) dt

(3.139)

Sie kann auch als Faltung geschrieben werden:

E
( )
Rxy

x(t + )y (t) dt =

t =
dt = d

x( + )y () d =
x( )y () d
=

= x( ) y ( )
Die Korrelation der beiden Signale lsst sich auch vertauschen.

E
Rxy
( )

x(t + )y (t) dt =

x()y ( ) d =


E
( )
= Ryx

t+ =
dt = d

y ( )x() d

Im Anhang A findet man in den Tabellen A.2, A.3 und A.4 Eigenschaften, Rechenregeln
und Korrespondenzen der Fourier-Transformation, die sich meist relativ einfach nachrechnen lassen, wie im Folgenden anhand des Beispiels der Modulation gezeigt wird.

3.5.2.3

Zeitverschiebung, Frequenzverschiebung und Modulation

Zuerst wird gezeigt, dass eine Verschiebung im Zeitbereich mit einer Modulation im Frequenzbereich korrespondiert. Sei hierzu ein Signal y(t) mitsamt seiner Fourier-Transformierten Y (f ) gegeben. Die Fourier-Transformierte der um verschobenen Zeitfunktion

3 Zeitkontinuierliche Signale

98
ergibt sich als:
F{y(t )} =
=

y(t )ej2f t dt =

t =
dt = d

y()ej2f ( + ) d

= F{y(t)} ej2f
Somit entspricht eine Verschiebung im Zeitbereich einer Modulation im Frequenzbereich. Analog kann nachgerechnet werden, dass eine Frequenzverschiebung einer Modulation im Zeitbereich entspricht:
F

{Y (f )} =
=

Y (f )ej2f t df =

f =
df = d

Y ()ej2t d ej2t

= F 1 {Y (f )} ej2t
Die meisten der in Anhang A aufgefhrten Beziehungen lassen sich hnlich leicht nachrechnen wie die eben bewiesene Zeitverschiebungs- und Modulationsregel. Oft gengt
es, die Definition der Fourier-Transformation hinzuschreiben und diese mit der zu zeigenden Beziehung im Hinterkopf umzuformen.

3.5.3

Energie- und Leistungsdichte

Das Energiedichtespektrum ist bei Energiesignalen als die Fourier-Transformierte der


Korrelation definiert. Mit Hilfe der Korrespondenz zwischen Faltung und Multiplikation
und mit Hilfe von

j2f
t
j2f
t
y (t)
y (t)e
dt =
y(t)e
dt = Y (f )

lsst sich leicht der Zusammenhang zwischen dem Energiedichtespektrum und der Korrelation angeben:
E
Rxy
(t) = x(t) y (t)

E
SXY
(f ) = X(f ) Y (f ) .

(3.140)

L
(f )
Entsprechend erhlt man bei Leistungssignalen das Leistungsdichtespektrum SXY
L
(t),
als die Fourier-Transformierte der Korrelation Rxy
L
L
Rxy
(t) SXY
(f ).

(3.141)

3.5 Fourier-Transformation

3.5.4

99

Cosinus- und Sinus-Transformation

Bei reellen Signalen y(t) kann man die Fourier-Transformation nach (3.124)
Y (f ) =

y(t)ej2f t dt

mit der Eulerschen Formel ejx = cos(x) + j sin(x) zu

Y (f ) =

y(t)[cos(2f t) j sin(2f t)] dt


y(t) cos(2f t) dt j

y(t) sin(2f t) dt

(3.142)

zerlegen. Da es sich um ein uneigentliches Integral handelt, ist dies natrlich nur dann
mglich, wenn das Integral und die beiden entstehenden Teilintegrale absolut konvergent
sind. Dies setzen wir hier ohne Beweis voraus. Man kann also den Real- bzw. Imaginrteil
einer Fourier-Transformierten Y (f ) auch getrennt berechnen. Die Teilintegrale sind bei
reellen Signalen y(t) reell.
Zerlegt man nun die reelle Funktion y(t) gem
(3.143)

y(t) = yg (t) + yu (t),


in einen geraden und einen ungeraden Anteil,
yg (t) = 12 (y(t) + y(t))

(3.144)

yu (t) = 12 (y(t) y(t)),


so kann man die nun entstehende Fourier-Transformierte
Y (f ) =

[yg (t) + yu (t)] cos(2f t) dt

[yg (t) + yu (t)] sin(2f t) dt

(3.145)


weiter vereinfachen. Ein Integral der Form f (t) dt verschwindet, falls ber eine ungerade Funktion f (t) integriert wird. Der Cosinus ist eine gerade Funktion, der Sinus ist
eine ungerade Funktion. Das Ergebnis einer Multiplikation von geraden bzw. ungeraden
Funktionen lsst sich aus folgender Tabelle ablesen:

3 Zeitkontinuierliche Signale

100

g
u

g
g
u

u
u
g

Damit folgt nun fr die Fourier-Transformierte eines reellen Signals y(t):


Y (f ) =

yg (t) cos(2f t) dt j

yu (t) sin(2f t) dt

(3.146)

Mit Gleichung (3.144) ergibt sich

Y (f ) =

1
(y(t) + y(t)) cos(2f t) dt
2

j
=

1
(y(t) y(t)) sin(2f t) dt
2

(y(t) + y(t)) cos(2f t) dt j

(y(t) y(t)) sin(2f t) dt.

Die Teilintegrale nennt man Cosinus- bzw. Sinus-Transformation des Signals y(t).
Definition 3.147 (Cosinus- bzw. Sinus-Transformation)
Die Cosinus-Transformation bzw. Sinus-Transformation ist fr reelle Signale y(t)
durch folgende Integrale bestimmt:

YC (f ) = COS{y(t)} =

(y(t) + y(t)) cos(2f t) dt =

y(t) cos(2f t) dt

YS (f ) = SIN{y(t)} =

(3.148)

(y(t) y(t)) sin(2f t) dt =

y(t) sin(2f t) dt

(3.149)

3.6 Testsignale

101

Satz 3.150 (Zusammenhang zur Fourier-Transformation)


Die Fourier-Transformation lsst sich aus der Cosinus- und der Sinus-Transformation
nach Gleichung (3.142) als
Y (f ) = YC (f ) j YS (f )
zusammensetzen.

(3.151)

Wenn von der zu transformierenden Funktion bekannt ist, dass sie gerade bzw. ungerade
ist, besteht der Vorteil der Cosinus- bzw. Sinus-Transformation gegenber der FourierTransformation darin, dass man sich bei der Berechnung der Fourier-Transformierten
auf den Cosinus- bzw. Sinus-Teil beschrnken kann.
Besitzt man keine Informationen ber die zu transformierende Funktion, so entspricht
die Cosinus-Transformierte der Fourier-Transformierten des geraden Anteils der Funktion, whrend sich die Sinus-Transformierte als Fourier-Transformierte des ungeraden
Anteils ergibt.

3.6

Testsignale

Wie bereits in der Einleitung erwhnt, wird ein Signal durch eine Funktion der Zeit
dargestellt. Aber nicht jede Funktion der Zeit reprsentiert ein physikalisch erzeugbares
Signal. Es erscheint jedoch zweckmig, auch physikalisch nicht realisierbare Signale
als Modellsignale fr theoretische Untersuchungen zu betrachten. Mit ihnen kann dann
beispielsweise eine Korrespondenztabelle fr die Fourier-Transformation aufgebaut werden.
Hierbei wird als Erstes der Dirac-Impuls (t) eingefhrt. Dieser ist nicht als Funktion
im klassischen Sinne darstellbar. Trotzdem ist es sinnvoll, sich mit ihm zu beschftigen,
denn die Fourier-Transformation ist bereits bei vielen gelufigen und nahe liegenden
Funktionen wie beispielsweise dem Einheitssprung (t), der Schwingung sin(2f t) und
dergleichen im blichen Sinn nicht konvergent. Viele dieser Funktionen sind im Rahmen der Distributionentheorie mathematisch behandelt. An dieser Stelle soll auf eine
Einfhrung in die Theorie der Distributionen jedoch verzichtet werden. Diese Theorie
findet sich ausfhrlicher beispielsweise in [Fli91] oder [Unb02].

3.6.1

Dirac-Impuls

Der Dirac-Impuls ist eine verallgemeinerte Funktion, auch Distribution genannt, bei der
sich nicht wie gewohnt jedem Wert t ein Funktionswert zuordnen lsst. Der Dirac-Impuls
ist stattdessen durch seine Wirkung auf eine klassische Funktion y(t) definiert.

3 Zeitkontinuierliche Signale

102
Definition 3.152 (Dirac-Impuls)
Der Dirac-Impuls (t) ist durch
y(t0 ) =

y(t)(t t0 ) dt

(3.153)

definiert. Man kann sagen, der Dirac-Impuls (t t0 ) hat berall, mit Ausnahme des
Punktes t0 , den Wert Null. Auerdem ist der Dirac-Impuls gerade,
(3.154)

(t) = (t).

Aus dieser Definition kann man z.B. sofort die Faltung einer Funktion y(t) mit dem
zeitverschobenen Dirac-Impuls (t t0 ) berechnen:
y(t) (t t0 ) =

y( )(t t0 ) d = y(t t0 ) .

(3.155)

Jedoch sind bei obiger Definition die Mglichkeiten, mit Dirac-Impulsen zu rechnen,
beschrnkt. Um dieses Problem zu beseitigen, wird der Dirac-Impuls im Sinne der Distributionentheorie als Grenzwert
sin(2f t)
f
t

(t) = lim

(3.156)

angegeben. Zur berprfung von Gleichung (3.156) muss nach der Definition des Grenzwertes fr Distributionen folgende Gleichung erfllt sein:
y(t0 ) = lim

y(t)

sin(2f (t t0 ))
dt .
(t t0 )

(3.157)

Der exakte Beweis wrde hier den Rahmen sprengen. Hierzu sei z.B. auf [Kro91] oder
[Fli91] verwiesen.
Die Fourier-Transformierte des zeitverschobenen Dirac-Impulses wird durch
F{(t t0 )} =

(t t0 )ej2f t dt = ej2f t0

(3.158)

angegeben. Der Dirac-Impuls selbst besitzt die Fourier-Transformierte


F{(t)} = 1.

(3.159)

3.6 Testsignale

103

Die Impulsreihe

iT (t) =

k=

(3.160)

(t kT )

ist eine T -periodische Funktion. Setzt man deren komplexe Fourier-Koezienten nach
(3.116)
T

1
ck =
T

(t) ej2 T t dt =

1
T

T2

in die Synthesegleichung (3.115) der Fourier-Reihe ein,


iT (t) =


1 j2 k t
T ,
e
T

k=

so erhlt man die Poissonsche Summenformel

k=

3.6.2

(t kT ) =

1  j2 k t
T .
e
T

(3.161)

k=

Konstantes Signal

Das konstante Signal


y(t) = 1

(3.162)

scheint auf den ersten Blick in der Realitt zu existieren. Man vergisst hierbei aber, dass
eine physikalische Gre nicht fr alle Zeiten t R einen konstanten Wert ungleich Null
haben kann. Ansonsten wre die Energie des Signals unendlich gro.
Die Fourier-Transformierte des konstanten Signals lsst sich mit Hilfe der Symmetrieeigenschaft der Fourier-Transformation,
Y (t) y(f ),

(3.163)

und Gleichung (3.159) sofort als


F{1} = (f ) = (f )

(3.164)

angeben.

3.6.3

Vorzeichenfunktion

Die Vorzeichenfunktion, oder auch Signumfunktion,



1 , t < 0
sign(t) =
1 ,t 0

(3.165)

3 Zeitkontinuierliche Signale

104

besitzt, wie z.B. in [Fl80] gezeigt wird, die Fourier-Transformierte


F{sign(t)} =

3.6.4

1
.
jf

(3.166)

Einheitssprung

Das Signal
(t) =

0
1

,t < 0
,t 0

(3.167)

heit Einheitssprung. Es wird auch Sprungfunktion genannt. Mit Hilfe der Beziehung
(t) =

1
1
sign(t) +
2
2

zwischen Einheitssprung und Vorzeichenfunktion und der Linearittseigenschaft der


Fourier-Transformation lsst sich schnell die Fourier-Transformierte des Einheitssprungs
angeben:
F{(t)} =

3.6.5

1
1
1
1
F{sign(t)} + F{1} =
+ (f ) .
2
2
j2f
2

(3.168)

Komplexe Schwingung

Das Signal
y(t) = ej2f0 t

(3.169)

heit komplexe Schwingung der Frequenz f0 . Die Fourier-Transformierte der komplexen Schwingung lsst sich wiederum mit Hilfe der Symmetrieeigenschaft der FourierTransformation, Gleichung (3.163), leicht angeben:
y(t) = ej2f0 t Y (f ) = (f f0 )

(3.170)

Dieses Resultat lsst sich auch ber Gleichung (3.125) unter Beachtung der Eigenschaft
(3.153) des Dirac-Impulses leicht nachrechnen.
Bei Interpretation des Spektrums als Anteil der am Signal beteiligten Schwingungen
ergibt sich also bei der harmonischen Schwingung der Frequenz f0 genau ein Spektralanteil an der Stelle f0 . Die unendlich hohe Amplitude ist dadurch begrndet, dass
im Vergleich zur Fourier-Reihe aufgrund der kontinuierlichen Frequenzauflsung ein infinitesimal kleines Intervall betrachtet werden muss. Damit wird aus einem Anteil 1 f
fr f 0 ein Anteil der Hhe Unendlich.

3.6 Testsignale

3.6.6

105

Rechteckfunktion

Fr die Rechteckfunktion
+
1
rT (t) =
0

, |t| T2
, sonst

(3.171)

folgt die Fourier-Transformierte:

Y (f ) =

T /2

ej2f t dt =

T /2

1
ej2f t
j2f

T /2
T /2

ejf T ejf T
T sin(f T )
=
= T si(f T )
j2f
T f

(3.172)

1.5

1.5

1
Y(f)

r (t)

Um ein Gefhl fr diese Begrie zu bekommen, ist die Rechteckfunktion rT (t) fr T =


1[sec] mit ihrer Spektralfunktion in Abbildung 3.10 zu sehen. Man erkennt deutlich, dass
sich die Rechteckfunktion aus Schwingungen aller Frequenzen zusammensetzt, deren
Anteil jedoch mit steigender Frequenz abnimmt.

0.5

0.5
2

0.5

0
t [sec]

0.5
10

0
f [Hz]

10

Abbildung 3.10: Rechteckfunktion und Fourier-Transformierte fr T = 1[sec]

In der Literatur wird die Rechteckfunktion gelegentlich mit dem Vorfaktor T1 versehen.
Dadurch wird die Flche unter der Funktion auf eins normiert. Hier muss bei Verwendung verschiedener Literatur darauf geachtet werden, welche Definition der jeweilige
Autor verwendet.

3.6.7

Exponentialimpuls

Aus der Zeitfunktion


y(t) = eat (t) , a R,

(3.173)

3 Zeitkontinuierliche Signale

106

dem Exponentialimpuls, bildet man mit (3.124) die Fourier-Transformierte:




(a + j2f )t 
e
Y (f ) = eat ej2f t dt =

a + j2f 

(3.174)

Nur wenn a > 0 ist, geht e(a + j2f )t fr t gegen null und es gilt:
eat (t)

1
a + j2f

(3.175)

,a > 0.

1.5

1.5

1
|Y(f)|

y(t)

Diese Funktion wird mitsamt ihrer Fourier-Transformierten in Abbildung 3.11 dargestellt. Da das Spektrum des Exponentialimpulses im Gegensatz zu der Fourier-Transformierten der Rechteckfunktion eine komplexwertige Funktion ist, ist in Abbildung 3.11
der Betrag der Fourier-Transformierten aufgezeichnet.

0.5

0.5

0.5

2
3
t [sec]

0.5
10

0
f [Hz]

10

Abbildung 3.11: Exponentialimpuls und Fourier-Transformierte fr a = 1[Hz]

3.6.8

Doppelseitige Exponentialfunktion

Von einer doppelseitigen Exponentialfunktion


y(t) = ea|t|

(3.176)

, a R,

ausgehend, erhlt man die Fourier-Transformierte:

Y (f ) =

eat ej2f t dt +

eat ej2f t dt

1
1
2a
=
+
= 2
a j2f
a + j2f
a + (2f )2

,a > 0

(3.177)

Die Funktion im Zeitbereich und das zugehrige Betragsspektrum sind in Abbildung


3.12 dargestellt.

3.6 Testsignale

107

1.5

2.5
2

1
|Y(f)|

y(t)

1.5
0.5

1
0.5

0
0
0.5
5

0
t [sec]

0.5
10

0
f [Hz]

10

Abbildung 3.12: Doppelseitiger Exponentialimpuls und Fourier-Transformierte fr a = 1[Hz]

3.6.9

Exponentialsignal

Das komplexe Exponentialsignal


y(t) = A est

(3.178)

besitzt die komplexe Amplitude A = AR + jAI und den komplexen Frequenzparameter


s = + j.
Ist = 0 und A = AR > 0 eine reelle Amplitude, so erhlt man das reelle Exponentialsignal
y(t) = AR et .

(3.179)

Fr > 0 wchst das Signal y(t) fr t ber alle Grenzen, dagegen konvergiert es
fr < 0 gegen null. Dies ist in Abbildung 3.13 dargestellt.

y(t)

>0

y(t)

<0

0
t [sec]

Abbildung 3.13: Reelles Exponentialsignal

0
t [sec]

3 Zeitkontinuierliche Signale

108
<0

>0

AR

y(t)

y(t)

AR

0
t [sec]

0
t [sec]

Abbildung 3.14: Imaginrteile komplexer Exponentialsignale

Fr A = AR lsst sich (3.178) zu


y(t) = AR e( + j)t = AR et (cos(t) + j sin(t))

(3.180)

mit dem Realteil


yR (t) = AR et cos(t)

(3.181)

und dem Imaginrteil


yI (t) = AR et sin(t)

(3.182)

umschreiben. Abbildung 3.14 zeigt Beispiele von Signalen der Form (3.180), welche
aufklingende ( > 0) oder abklingende ( < 0) oder konstante ( = 0) Schwingungen
sind.
Exponentialsignale mit reeller Amplitude und komplexem Frequenzparameter werden
auch komplexe Exponentialsignale genannt. Wie (3.181), (3.182) und Abbildung 3.13
zeigen, treten reelle Exponentialsignale als Einhllende von Real- bzw. Imaginrteil
komplexer Exponentialsignale auf.
Fr = 0 handelt es sich bei (3.181) bzw. (3.182) um Cosinus- bzw. Sinussignale. In
(3.180) erhlt man eine komplexe Schwingung mit der Amplitude AR .
Der reelle Frequenzparameter = 2f, welcher schon im Zusammenhang mit der Definition der Fourier-Transformation auftrat, heit Kreisfrequenz.

3.6.10

Gau-Impuls

In spteren Abschnitten wird des fteren der Gau-Impuls auftreten, den wir schon
bei der Charakterisierung der Normalverteilung als zugehrige Dichte kennen gelernt

3.6 Testsignale

109

1.5

1.5
a=5

(f)

ya=5(t)

0.5
0
3

0.5

0
t [sec]

0
3

0
f [Hz]

1
Abbildung 3.15: Gau-Impuls und Fourier-Transformierte fr a = 5 [sec
2]

1.5

1.5
a=1

(f)

ya=1(t)

0.5
0
3

0.5

0
t [sec]

0
3

1.5

1.5

0
f [Hz]

0
f [Hz]

a=9

(f)

ya=9(t)

0.5
0
3

0.5

0
t [sec]

0
3

1
1
Abbildung 3.16: Gau-Impuls und Fourier-Transformierte fr a = 1 [sec
2 ] bzw. a = 9 [sec2 ]

hatten. Das nicht auf die Flche eins normierte Signal lautet im Zeitbereich:
2

y(t) = eat

,a > 0

(3.183)

3 Zeitkontinuierliche Signale

110

Die zugehrige Fourier-Transformierte ergibt sich mit Hilfe einer Korrespondenztabelle


zu
)
2 2
f
a .
(3.184)
e
Y (f ) =
a
1
Diese sind in Abbildung 3.15 fr a = 5 [sec
2 ] zu sehen.

Die Form des Gau-Impulses im Zeit- und Frequenzbereich wird durch den Parameter a
1
1
bestimmt. In Abbildung 3.16 sind fr den Fall a = 1 [sec
2 ] bzw. a = 9 [sec2 ] noch einmal
die Gau-Impulse bzw. die entsprechenden Fourier-Transformierten dargestellt.
Man erkennt deutlich den Einfluss des Parameters a. Wird das Signal im Zeitbereich
breiter, so verringert sich die Breite der Fourier-Transformierten, und umgekehrt. Dies
ist eine Eigenschaft, welche fr alle Signale zutrit und in Abschnitt 3.8.1 als Satz
ber das Zeitdauer-Bandbreite-Produkt konkretisiert werden wird. Hierzu wird der
Begri Breite im Zeit- und im Frequenzbereich mit Hilfe mathematischer Definitionen
formuliert.

3.7

Besonderheiten der Fourier-Transformation

In diesem Abschnitt werden Auswirkungen der Fourier-Transformation auf Funktionen


mit bestimmten Eigenschaften aufgezeigt. Der Leckeekt befasst sich mit der Auswirkung, die eine Zeitbegrenzung auf die Fourier-Transformierte einer Funktion hat. Als
zweiter Punkt wird dargestellt, was durch Fourier-Transformation und anschlieender
Rcktransformation an Unstetigkeitsstellen geschieht. Hier zeigt sich, dass sich der rekonstruierte Signalwert als das Mittel des rechts- und des linksseitigen Grenzwertes
ergibt und dass immer ein in der Hhe vom Signal unabhngiger berschwinger auftritt.

3.7.1

Leckeekt

Die Fourier-Transformation betrachtet ein Signal y(t) im gesamten Zeitbereich R. In


der Realitt kann man aber ein Signal nur in einem beschrnkten Zeitintervall [a, b]
beobachten. Um die Frage zu beantworten, inwieweit sich die Fourier-Transformierte
im beschrnkten Zeitintervall [a, b],

Ya,b (f ) =

y(t)ej2f t dt,

von der eigentlichen Fourier-Transformierten


Y (f ) =

y(t)ej2f t dt

(3.185)

3.7 Besonderheiten der Fourier-Transformation

111

unterscheidet, beschreibt man das beschrnkte Zeitintervall durch die Fensterfunktion



1 ,a t b
w(t) =
,
(3.186)
0 , sonst
welche die Fourier-Transformierte

W (f ) =

w(t)ej2f t dt =

ej2f t dt

1
0
1
ej2f b ej2f a
=
j2f
1
ejf (b + a) 0 jf (b a)
e
ejf (b a)
=
j2f
sin(f (b a))
= ejf (b + a)
f
besitzt. Im Folgenden soll als Testsignal die komplexe, harmonische Schwingung der
Frequenz f0 ,
y(t) = ej2f0 t ,
der Fourier-Transformation unterzogen werden. Aufgrund des in praktischen Anwendungen beschrnkten Beobachtungsintervalls [a, b] wird das Testsignal y(t) mit dem
Fenster w(t) multipliziert, was die gefensterte Funktion yw (t) ergibt:
yw (t) = y(t) w(t) .
Es ergibt sich die Fourier-Transformierte Yw (f ) des gefensterten Signals
Yw (f ) = F{y(t) w(t)} = Y (f ) W (f )
sin((f f0 )(b a))
= ej(f f0 )(b + a)
(f f0 )
als eine  Faltung
beider Fourier-Transformierter. Der Betrag des Spektrums ist

|b a|  sinx x . In Abbildung 3.17 ist der Betrag |Y (f )| der Fourier-Transformierten
einer komplexen, harmonischen Schwingung y(t) und der Betrag |Yw (f )| der FourierTransformierten einer im beschrnkten Zeitintervall betrachteten Funktion yw (t) zu
sehen.
Whrend die Fourier-Transformierte der komplexen, harmonischen Schwingung
Y (f ) = (f f0 )
aus einem Dirac-Impuls bei der Frequenz f0 mit unendlicher Amplitude besteht, besitzt
Yw (f ) bei allen Frequenzen endliche Werte. Aus dem Leistungssignal y(t) mit unendlicher Energie ist ein Energiesignal yw (t) geworden.

3 Zeitkontinuierliche Signale

|Y(f)|

Re{y(t)}

112

b
t [sec]

b
t [sec]

f0
f [Hz]

|Yw (f )|

Re{yw (t)}

f0
f [Hz]

Abbildung 3.17: Ungefensterte und gefensterte komplexe, harmonische Schwingung sowie


deren Fourier-Transformierte

Die Nullstellen der Fourier-Transformierten Yw (f ) liegen bei den Frequenzen f0 +


k
ba , k Z \ {0}. Das Maximum von |Yw (f )| liegt bei der Frequenz f0 . Die Abstnde
der Nullstellen von der Lage des Maximums sind umgekehrt proportional zur Breite
(b a) des verwendeten Zeitfensters.
Das Verschmieren des Dirac-Impulses aufgrund des endlichen Beobachtungsintervalls
[a, b] nennt man Leckeekt (engl. Leakage).

Als Nchstes betrachtet man ein Signal


y(t) = ej2f0 t + A ej2(f0 + f )t

, |A| 1,

das aus zwei komplexen, harmonischen Schwingungen besteht. Die Frequenz der zweiten Schwingung weiche von der Frequenz der ersten Schwingung nur minimal ab. Ihre
Amplitude ist aber sehr viel kleiner als die der ersten Schwingung. In Abbildung 3.18
ist zu sehen, dass die zweite Frequenzlinie im Spektrum des gefensterten Signals kaum
noch zu erkennen ist.
Aufgrund des Leckeekts wird das Spektrum der zweiten Schwingung von dem der
ersten berdeckt.

113

|Y (f )|

Re{y(t)}

3.7 Besonderheiten der Fourier-Transformation

b
t [sec]

b
t [sec]

f0
f [Hz]

|Yw (f )|

Re{yw (t)}

f0
f [Hz]

Abbildung 3.18: Ungefensterte und gefensterte komplexe, harmonische Schwingungen sowie


deren Spektren

Der Leckeekt kann reduziert werden, indem man die Breite des Beobachtungsintervalls
2
der Hauptspektrallinie ist. Dies ist in
[a, b] erhht, welche reziprok zur Breite ba
Abbildung 3.19 zu sehen.
In Abschnitt 4.5 werden allgemeine Fensterfunktionen eingefhrt. Der Leckeekt tritt
generell bei der Multiplikation eines Signals y(t) mit einer beliebigen Fensterfunktion
w(t) auf. Dies gilt auch fr Fensterfunktionen w(t) unendlicher Breite, aber endlicher
Energie.

3.7.2

Gibbssches Phnomen

Im Folgenden soll untersucht werden, inwieweit ein Signal y(t) nach der Fourier-Transformation und anschlieender Rcktransformation korrekt rekonstruiert wird. Dabei betrachten wir als Erstes wieder die Fourier-Rcktransformation nach Gleichung (3.125),
y(t) =

Y (f )ej2f t df,

3 Zeitkontinuierliche Signale

|Y (f )|

Re{y(t)}

114

f0
f [Hz]

|Yw (f )|

Re{yw (t)}

t [sec]

b
t [sec]

f0
f [Hz]

Abbildung 3.19: Ungefensterte und gefensterte komplexe, harmonische Schwingungen sowie


deren Fourier-Transformierte bei erhhter Fensterbreite

die als uneigentliches Integral in Wirklichkeit als Grenzwert


y(t) = lim

F
F

Y (f )ej2f t df

geschrieben werden muss. Setzt man fr Y (f ) die Fourier-Transformation (3.124) ein,


so ergibt sich:

y(t) = lim
y( )ej2f d ej2f t df .
F
F

Vertauscht man nun die beiden Integrale, so folgt


F
ej2f (t ) df y( )d,
y(t) = lim
F

3.7 Besonderheiten der Fourier-Transformation

115

wobei sich das innere Integral leicht berechnen lsst. Es folgt dann:

sin(2F (t ))
y( )d.
y(t) = lim
F
(t )

(3.187)

Nun vertauschen wir die Grenzwertbildung und das Integral. Da im Sinne der Distributionentheorie
sin(2F (t ))
lim
= (t )
F
(t )

gilt, folgt fr stetige Funktionen y(t)


y(t) =

(t )y( )d = y(t),

d.h. nach Hin- und Rcktransformation bleibt eine stetige Funktion erhalten.
Im Folgenden soll nun eine stckweise stetige Funktion y(t) mit den Sprungstellen (ti )iI
der Fourier-Transformation (3.124) unterworfen werden. Bei der Rcktransformation
soll geprft werden, ob die entstehende Funktion y(t) gleich der ursprnglichen Funktion
y(t) ist.
Jede unstetige Funktion lsst sich folgendermaen als eine stetige Funktion und eine
Summe von Sprngen darstellen:

+
(y(ti +) y(ti )) (t ti ) .
y(t) =
yc (t)
 
iI


stetiger Teil 
Sprnge
Ohne Beschrnkung betrachtet die folgende Ausfhrung nur den Fall, dass die Funktion
y(t) lediglich eine Unstetigkeitsstelle im Ursprung besitzt, d.h. es gilt

(3.188)

y(t) = yc (t) + (y(0+) y(0)) (t).

Setzt man Gleichung (3.188) in (3.187) ein, so ergibt sich


y(t) = lim

sin(2F (t ))
yc ( )d +
(t )

+ lim (y(0+) y(0))


F

sin(2F (t ))
( )d.
(t )

Mit obiger Grenzwertbetrachtung folgt daraus:


y(t) = yc (t) + (y(0+) y(0)) lim

sin(2F (t ))
( )d .
(t )


F (t)

3 Zeitkontinuierliche Signale

116

Fr den Ausdruck F (t) erfolgt eine gesonderte Betrachtung. Man rechnet

F (t) =

sin(2F (t ))
( )d =
(t )

sin(2F (t ))
d.
(t )

Mit der Substitution



u = 2F (t )
du = 2F d

(3.189)

ergibt sich

F (t) =

2F t

sin(u)
1
2F

du =
u
2F

sin(u)
du +
u

2F

2F

sin(u)
du
u

sin(u)
du.
u

Wegen

sin(u)
du =
u
2

(3.190)

erhlt man schlielich


1
1
F (t) = +
2

2F

sin(u)
du.
u

(3.191)

Das Integral ist als Integralsinus bekannt. Insgesamt folgt daraus:

2F

t
sin(u)
1
1
y(t) = yc (t) + (y(0+) y(0)) +
lim
du .
2 F
u

(3.192)

Diskutiert man das Ergebnis, so treten zwei Fragen auf:


1. Was macht die Funktion an der Stelle t = 0?
Da F (t = 0) = 12 ist, folgt
y(0) = yc (0) +

1
(y(0+) y(0)) .
2

Nach der Rcktransformation besitzt die resultierende Zeitfunktion an der


Sprungstelle den Funktionswert der halben Sprunghhe. Dies ist das Gibbssche
Phnomen.

3.7 Besonderheiten der Fourier-Transformation

117

y(t)

0.8
0.6
0.4
0.2
0
0.05

0
t [sec]

0.05

Abbildung 3.20: Betrachtung des Gibbsschen Phnomens bei endlicher Frequenz F


anhand der Sprungfunktion

2. Wo und wie findet man dieses Phnomen in der Realitt?


Vorausgreifend gilt fr das Ausgangssignal y(t) Y (f ) eines LTI-Systems mit
der Impulsantwort g(t) G(f ) und dem Eingangssignal x(t) X(f ) der Zusammenhang
Y (f ) = G(f ) X(f ).

Das Ausgangssignal kann man also berechnen, indem man das Eingangssignal
fourier-transformiert, mit der bertragungsfunktion G(f ) multipliziert und dann
rcktransformiert. Bei unseren obigen Rechnungen fr y(t) wurde nur fouriertransformiert und sofort rcktransformiert; dies entspricht einem System mit der
bertragungsfunktion
G(f ) = 1,
welches aber in der Realitt nicht vorkommt, da es kein System gibt, das beliebig
hohe Frequenzen bertragen kann. Das heit jedes reale System ist so gesehen ein
Tiefpass. Was passiert aber bei unseren obigen Rechnungen mit einem Tiefpass?
Der Grenzwert fr F geht nicht mehr bis unendlich, sondern bricht schon vorher
ab: F Fmax . Betrachten wir den Einheitssprung als ursprngliche Funktion, so
gilt fr dessen Rekonstruktion
1
1
y(t) = +
2

2F

max t

sin(u)
du,
u

was in Abbildung 3.20 zu erkennen ist. Der berschwinger von etwa 9 % bleibt
unverndert, solange Fmax endlich ist. Daraus erkennen wir, dass bei reellen Systemen Sprnge immer durch so genannte Gibbssche berschwinger zu erkennen
sind.
Die Ausfhrungen zeigen, dass es mit Unstetigkeiten Probleme gibt im Fall einer
1. Fourier-Transformation: Hier wird nicht der exakte Funktionswert bei Sprngen
erreicht, sondern der Mittelwert zwischen linksseitigem und rechtsseitigem Grenzwert an der Sprungstelle. Eine Verbesserung ist nicht mglich.

3 Zeitkontinuierliche Signale

118

2. Fourier-Reihen: Bei einer T -periodischen Funktion, die zwischen den Funktionswerten y(T /2) und y(T /2) einen Sprung hat, geht die Approximation durch den
Mittelwert. Eine Verbesserung ist nicht durch eine Erhhung der Ordnung der
Fourier-Reihe zu erreichen (Gibbsscher berschwinger). Besser ist es, das Periodenintervall so zu legen, dass der Sprung nicht im Intervallinneren liegt.

3.8

Allgemeine Signaleigenschaften

In diesem Rahmen kann nicht ber alle Eigenschaften und Beschreibungsmethoden


zeitkontinuierlicher Signale gesprochen werden, vielmehr findet man hier eine kleine
Auswahl. Diese Auswahl beschrnkt sich auf Eigenschaften impulsfrmiger Signale und
die Abschtzung von Spektren mittels des Riemann-Lebesgueschen Lemmas.

3.8.1

Zeitdauer-Bandbreite-Produkt

Reale Signale sind energiebegrenzt. Auch ihre Spektren besitzen nur eine bestimmte
Bandbreite, in der sich der wesentliche Anteil der Signalenergie konzentriert.
Fr die Zeitdauer t und die Bandbreite f eines energiebegrenzten Signals sind zahlreiche Definitionen denkbar und auch in Gebrauch. So kann man z.B. eine Schwelle
ySchwelle legen, die proportional von der maximalen Hhe ymax des Signals abhngt,
ySchwelle = ymax

, 0 < < 1,

und die Zeitdauer t als diejenige Zeit festlegen, fr die


y(t) > ySchwelle
gilt. Eine andere Mglichkeit besteht darin, die Flche unter der Funktion y(t) bzw.
der Funktion Y (f ) durch ein flchengleiches Rechteck der Hhe ymax bzw. Ymax zu
ersetzen, und damit die Zeitdauer t und die Bandbreite f des Signals y(t) festlegen,
siehe Abbildung 3.21. Whlt man ein nicht negatives, energiebegrenztes Signal, so liegt
nach Satz 3.131 der maximale Wert von Y (f ) bei f = 0.

Abbildung 3.21: Definition der Zeitdauer ber flchengleiches Rechteck

3.8 Allgemeine Signaleigenschaften

119

Die hufig verwendeten Definitionen fr Zeitdauer und Bandbreite lauten wie folgt:
Definition 3.193 (Root-Mean-Square-Definition)
Das nichtnegative, reelle Energiesignal y(t) wird auf der Zeitachse so verschoben,
dass
ymax = y(0)
gilt. Des Weiteren gilt aufgrund der Nichtnegativitt im Frequenzbereich
Ymax = Y (0).
Die Zeitdauer t berechnet sich aus

(t )

zu

|y(t)| dt =

E

t2 |y(t)|2 dt

2
3

31
3
t = 4
t2 |y(t)|2 dt,
E

(3.194)

und die Bandbreite f aus


2

(f )

zu

|Y (f )| df =

E

f 2 |Y (f )|2 df

2
3

31
3
f = 4
f 2 |Y (f )|2 df .
E

(3.195)

Diese Definitionen entsprechen den auf die Energie normierten zweiten Momenten der
Zeit- bzw. Spektralfunktionen. Will man die Zeit- bzw. Frequenzanteile bestimmen, in
denen das Signal wesentliche Energieanteile enthlt, so muss man dafr ein Vielfaches
der Zeitdauer kt bzw. der Bandbreite kf heranziehen. Dies entspricht dem Vorgehen in der Wahrscheinlichkeitsrechnung, wo der Vertrauensbereich als Vielfaches der
Standardabweichung berechnet wird, vgl. [KE05].

3 Zeitkontinuierliche Signale

120
Auf die Ableitung der Zeitfunktion
dy(t)
j2f Y (f )
dt
wird der Satz von Parseval angewendet:

dy(t)
dt

2

dt =

4 2 f 2 |Y (f )|2 df = 4 2 E 2f .

(3.196)

Aus der Schwarzschen Ungleichung folgt



52
2
5

5

5
t y(t), dy(t) t  t y(t)2 5 dy(t) 5


5
dt
dt 5

und damit in Integralform:

t2 y 2 (t) dt

dy(t)
dt

2

dt

2
2


dy(t)
d
1
y 2 (t) dt
t y(t)
=
t
dt
dt
2
dt

1 2 
1
ty (t)
=

y 2 (t) dt = e2
4
4

Nach Auflsen der Integrale folgt


E 2t 4 2 E 2f

1 2
e
4

und somit fr das Zeitdauer-Bandbreite-Produkt die untere Schranke


t f

1
.
4

Satz 3.197 (Zeitdauer-Bandbreite-Produkt)


Fr das Zeitdauer-Bandbreite-Produkt jedes Signals gilt die Abschtzung
t f

1
.
4

(3.198)

Hat ein Signal eine kurze Zeitdauer t , so besitzt es eine groe Bandbreite f ,
umgekehrt ist bei einem Signal mit geringerer Bandbreite die Zeitdauer gro.

3.8 Allgemeine Signaleigenschaften

121

Bemerkung 3.199
Das Gleichheitszeichen in der Schwarzschen Ungleichung gilt nach Bemerkung 2.12,
falls ty(t) und y(t)
linear abhngig sind, falls also ty(t) = y(t)
gilt. Dies gilt fr den
Gau-Impuls, der damit unter allen impulsfrmigen Signalen bei dieser Definition
von Zeitdauer t und Bandbreite f das kleinste Zeitdauer-Bandbreite-Produkt
besitzt. Die beiden Funktionen in Zeit- und Frequenzbereich unterscheiden sich dann
nur um einen Faktor. Man erhlt
2

w(t) = eat

, a > 0,

(3.200)

im Zeit- und
W (f ) =

f
a
e
a

im Frequenzbereich.

3.8.2

(3.201)

Riemann-Lebesguesches Lemma

Bei der Darstellung einer Funktion im Frequenzbereich gibt es weitere Abschtzungen


fr den Zusammenhang zwischen Zeit- und Frequenzbereich. Hier gilt z.B. das RiemannLebesguesche Lemma:
Satz 3.202 (Riemann-Lebesguesches Lemma)
Ist eine Funktion y(t) zeitbegrenzt, d.h. gilt
y(t) = 0 fr

|t| T0 ,

und existieren K beschrnkte, stckweise stetige Ableitungen, dann gilt mit einer
Konstante M 0 folgende Abschtzung:
|Y (f )|

M
.
|f |K+1

(3.203)

Fr Linienspektren (f = k f ) gilt entsprechend:


|Y (kf )|

M
.
|k|K+1

(3.204)

Fr die Fourier-Reihe einer periodischen Funktion yp (t), die in ihren K Ableitungen


beschrnkt ist, gilt fr die Fourier-Koezienten:
|Yk |

M
.
|k|K+1

(3.205)

3 Zeitkontinuierliche Signale

122
Bemerkung 3.206

Die K-te Ableitung soll also mglichst die letzte beschrnkte, stckweise stetige
Ableitung sein. Das heit es gilt fr ein m > 0
|y (K) (t)| < m , t R.
Des Weiteren drfen aufgrund der stckweisen Stetigkeit nur eine endliche Anzahl
von Sprungstellen vorhanden sein. Gibt es bei einer Ableitung eine Knickstelle,
die stetig aber nicht dierenzierbar ist, so darf fr die Ableitung an dieser Stelle

entweder die rechtsseitige oder die linksseitige Ableitung verwendet werden.


Beweis:
Fr das Fourier-Spektrum des zeitbegrenzten Signals
Y (f ) =

y(t)ej2f t dt =

T0

y(t)ej2f t dt

T0

folgt nach partieller Integration:


T0

T0

1
1
j2f
t
Y (f ) =

e
y(t)
ej2f t y (t)dt
j2f
j2f
T0
T0

'
(
1
y (T0 ) ej2f T0 y (T0 ) ej2f T0
=
j2f

T0
1
y (t)ej2f t dt
+
j2f
T0

Wegen y(T0 ) = 0 ergibt sich daraus


1
Y (f ) =
j2f

T0

y (t)ej2f t dt.

(3.207)

T0

Aufgrund der Stetigkeit der Ableitungen an der Stelle T0 besitzt y (k) (t) an der
Stelle T0 jeweils den Wert y (k) (T0 ) = 0 , k = 1, .., K 1. Fhrt man nun die partielle Integration K-mal unter Beachtung der Tatsache durch, dass die beschrnkte,
stckweise stetige Ableitung y (K) (t) existiert, so ergibt sich fr das Spektrum:
Y (f ) =

1
(j2f )K

T0

y (K) (t)ej2f t dt .

T0

Mit Hilfe des zweiten Mittelwertsatzes der Integralrechnung, bei dem es mit einer
monotonen Funktion f (x) und einer stetigen Funktion g(x) einen Punkt (a, b)

3.8 Allgemeine Signaleigenschaften

123

gibt, so dass

f (x)g(x) dx = f (a)

g(x)dx + f (b)

g(x)dx

a = T0

gilt, folgt mit


f (x) = y (K) (t) ,

g(x) = ej2f t

b = T0

fr die K-fach partiell integrierte Fourier-Transformierte:

T0

1
(K)
j2f t dt + y (K) (T ) ej2f t dt
Y (f )=
y (T0 ) e

0
(j2f )K
=

1
(j2f )K

T0

'
(
1
(K)
ej2f ej2f T0
y (T0 )
j2f 



Betrag 2

(
'
1

ej2f T0 ej2f .
j2f 


Betrag 2
Der Betrag wird damit abgeschtzt zu
'
(
2
(K)
(K)
|y
|Y (f )|
(T
)|
+
|y
(T
)|
.
0
0
|2f |K+1
+ y (K) (T0 )

Nach Voraussetzung des 2. Mittelwertsatzes der Integralrechnung muss die vor das
Integral gezogene Funktion monoton sein. Da man aber jede beliebige Funktion als
Summe einer monoton wachsenden und einer monoton fallenden Funktion zerlegen
kann,
(K)

y (K) (t) = y1

(K)

(t) + y2

(K)

(t)

, y1

und daraus die Abschtzung


(K)

|y (K) (t)| |y1

(K)

(t)| + |y2

(t)|

(K)

(t) , y2

(t) ,
(3.208)

erhlt, ergibt sich insgesamt


|Y (f )|
Mit
M=

'
(
2
(K)
(K)
(K)
(K)
|y
(T
)|
+
|y
(T
)|
+
|y
(T
)|
+
|y
(T
)|
.
0
0
0
0
1
1
2
2
|2f |K+1
'
(
2
(K)
(K)
(K)
(K)
|y
(T
)|
+
|y
(T
)|
+
|y
(T
)|
+
|y
(T
)|
0
0
0
0
1
1
2
2
(2)K+1

3 Zeitkontinuierliche Signale

124
folgt die Behauptung
|Y (f )|

M
.
|f |K+1

Bemerkung 3.209
1. Der Beweis besagt nicht, dass die Abschtzung nur dann gltig ist, wenn man
die letzte mgliche Ableitung verwendet. Natrlich kann man nur k < K
Ableitungen nehmen. Dadurch wird die Abschtzung nicht falsch, sondern nur
schlechter. Mehr als K Ableitungen sind dagegen nicht machbar, da eventuell
die (K + 1)-te Ableitung Dirac-Impulse enthlt. Auf solche Funktionen ist der
2. Mittelwertsatz der Integralrechnung nicht mehr anwendbar.
2. Die Voraussetzung war, dass die Zeitfunktion y(t) zeitbegrenzt ist. Dies gilt
dann natrlich auch fr ihre Ableitungen y (K) (t). Fr ihre monotonen Kom(K)
(K)
ponenten y1 (t) und y2 (t) gilt dies aber im Allgemeinen nicht. Somit ist es
mglich, dass eine von ihnen zum Zeitpunkt t = T0 einen Funktionswert = 0
besitzen kann.

Da das Verstndnis des Riemann-Lebesgueschen Lemmas nicht einfach ist, folgt ein ausfhrliches Beispiel, welches gerade auch die Problematik der monotonen Komponenten
behandelt.
Beispiel 3.210 (Dreieckimpuls)

Gegeben sei der dargestellte Dreieckimpuls. Fr diesen soll zuerst die Fourier-Transformierte auf herkmmliche Art berechnet werden. Anschlieend folgt die Abschtzung des Spektrums mittels des Riemann-Lebesgueschen Lemmas.
y(t)
1
6
@
@

T0 1

@
@
@
1

T0 t

Die Fourier-Transformierte kann man anhand einer Korrespondenztabelle ermitteln:


Y (f ) =

y(t)ej2f t dt =

[sin(f )]2
.
(f )2

Zur Abschtzung des Spektrums mittels Riemann-Lebesgue bestimmt man die letzte
beschrnkte stckweise stetige Ableitung. Dies ist bereits die erste Ableitung, d.h.
K = 1. Die Ableitung selbst ist in der Skizze abgebildet.

3.8 Allgemeine Signaleigenschaften

125

y (t)
6
1
1
1
T0

T0 t

Fr die Bestimmung der Konstanten M bentigt man die beiden monotonen Funktionen y1 (t) und y2 (t), welche im Folgenden abgebildet sind.
y1 (t)
6
2

y2 (t)
6

T0 1

T0 t

T0

T0 t

Aus den beiden Skizzen fr y1 (t) und y2 (t) liest man ab:
y1 (T0 ) = 0

y2 (T0 ) = 0

y1 (T0 ) = 2

y2 (T0 ) = 2 .

Daraus ergibt sich wegen K = 1


'
(
2
(K)
(K)
(K)
(K)
|y
M=
(T
)|
+
|y
(T
)|
+
|y
(T
)|
+
|y
(T
)|
0
0
0
0
1
1
2
2
(2)K+1
2
= 2.

Als Abschtzung entsteht somit


|Y (f )|

2
.
(|f |)2

Dies ist oensichtlich erfllt, da gilt:




 [sin(f )]2 
2


.
|Y (f )| = 
(f )2  (|f |)2

Als weitere Mglichkeit der Abschtzung verwenden wir die in Satz 3.131 gezeigte
Aussage
y(t) 0 , t R = |Y (f )| Y (0) , f R,

welche auf |Y (f )| 1 fhrt. In dem Bereich [ 2 , 2 ] ist die Abschtzung gem


Satz 3.131 besser als die Abschtzung mittels des Riemann-Lebesgueschen Lemmas.

3 Zeitkontinuierliche Signale

126
2

|Y(f)|

1.5

0.5

0
2

0
f [Hz]

Abbildung 3.22: Tatschliches Spektrum des


Dreieckimpulses () sowie die Abschtzungen
nach 3.131 (.) und 3.202 ( )

Deshalb wird man beide Abschtzungen verwenden, um alle zur Verfgung stehenden Informationen zu nutzen. Man erhlt also eine Eingrenzung des Spektrums,
welche schrfer ist, als es beide Methoden bei getrennter Anwendung ermglichen.
Beide Abschtzungen fr das Spektrum des Dreieckimpulses sind mitsamt des tat
schlichen Spektrums in Abbildung 3.22 eingezeichnet.

Zeitkontinuierliche Systeme

In Abschnitt 1.2 wurde bereits unter dem Begri System eine Einrichtung eingefhrt, die
auf auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) reagiert. Mathematisch
wird dieses Verhalten durch eine Operatorgleichung

ya (t) = S{ye (t)}

(4.1)

und somit das System durch einen Operator S dargestellt, der das Eingangs- zu Ausgangs-Verhalten des Systems beschreibt. In praktischen Fllen wird meist nicht der
Operator gegeben sein, sondern das System implizit definiert sein.
In diesem Kapitel werden zuerst allgemeine Eigenschaften von Systemen mit Hilfe von
Operatoren formuliert, ohne eine konkretere Ausfhrungsvorschrift des Operators zu
kennen. Anschlieend wird die Beschreibung des Systemverhaltens durch Dierenzialgleichungen eingefhrt. Zur deren Lsung ist die Laplace-Transformation hilfreich. Diese
wird mitsamt ihrer Eigenschaften dargestellt. Nach der Filterung mit Fensterfunktionen
folgt die Beschreibung fr den Entwurf zeitkontinuierlicher Filter im Frequenzbereich.
Das Kapitel schliet mit der Behandlung der Hilbert-Transformation.

4.1

Eigenschaften

Bereits mit Kenntnis der Operatorgleichung (4.1) lassen sich viele Eigenschaften von
Systemen beschreiben. Dabei klassifiziert man Systeme nach bestimmten Merkmalen.
Jede Klasse hat bestimmte Grundeigenschaften, die fr das Verhalten des Systems und
die rechnerische Behandlung wichtig sind.
Definition 4.2 (Zeitkontinuierliches System)
Ein zeitkontinuierliches System ist ein System nach der Operatorgleichung (4.1),
dessen Eingangssignal ye (t) und Ausgangssignal ya (t) zeitkontinuierliche Signale sind.
Eine der wichtigsten Eigenschaften von Systemen ist die Linearitt.

4 Zeitkontinuierliche Systeme

128
Definition 4.3 (Linearitt)

Ein System S heit linear, wenn fr beliebige Eingangssignale ye1 (t) und ye2 (t) und
beliebige Konstanten c1 und c2 die Gleichung
S{c1 ye1 (t) + c2 ye2 (t)} = c1 S{ye1 (t)} + c2 S{ye2 (t)}

(4.4)

gilt.

Linearitt ist der Zusammenschluss von Additivitt und Homogenitt. Additivitt bedeutet, dass die Antwort auf eine Summe von Eingangssignalen gleich der Summe der
Antworten auf die einzelnen Eingangssignale ist. Homogenitt bedeutet, dass die Antwort auf das c-fache Eingangssignal gleich dem c-fachen der Antwort auf das Eingangssignal ist. Ein lineares System erfllt damit das Superpositionsprinzip
S

+N


ci yei (t)

i=1

N


ci S{yei (t)}.

(4.5)

i=1

Geht man von der Summe zum Integral ber, so ergibt sich, falls beide Integrale existieren, schlielich auch
S

c( )ye ( ) d

c( )S{ye ( )} d.

(4.6)

Es ist also die Antwort auf das Integral eines Eingangssignals gleich dem Integral ber
die Antwort auf das Eingangssignal selbst.
Bemerkung 4.7
Fr den bergang zu Integralen ist die endliche Additivitt nicht mehr ausreichend.
Vielmehr bentigt man an dieser Stelle Stetigkeit der Systeme, d.h. eine unendliche Additivitt, da ein Grenzprozess durchgefhrt wird. Dies ist jedoch bei realen
Systemen stets erfllt, da das Verhalten realer Systeme aufgrund nicht vorhandener
Sprungfhigkeit immer stetig ist. Aus diesem Grund werden wir die Stetigkeit immer
als erfllt ansehen, wenn das System additiv ist.

Natrlich soll
ye (t) = 0
stets als Eingangssignal zulssig sein. Hierauf reagiert ein lineares System, wie man
(4.4) unmittelbar entnimmt, mit
ya (t) = S{0} = 0.

(4.8)

4.1 Eigenschaften

129

Beispiel 4.9 (Linearitt)


Ein System S1 , das ein Eingangssignal ye (t) mit einem konstanten Faktor a multipliziert,
S1 :

ya (t) = S1 {ye (t)} = a ye (t),

ist linear. Dies lsst sich mit der Linearittsgleichung (4.4) schnell berprfen. Hingegen ist das System S2 , das ein Eingangssignal ye (t) mit sich multipliziert,
S2 :

ya (t) = S2 {ye (t)} = (ye (t))2 ,

nicht linear, da z.B. die Homogenitt nicht erfllt ist.


c =0,1

S2 {c ye (t)} = c2 ye2 (t) = c ye2 (t) = c S2 {ye (t)}

Definition 4.10 (Zeitinvarianz)


Ein System S heit zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal
ye (t t0 ) mit dem entsprechend zeitlich verschobenen Ausgangssignal ya (t t0 )
antwortet.
ya (t) = S{ye (t)}

ya (t t0 ) = S{ye (t t0 )}

(4.11)

Systeme, die (4.11) nicht gengen, heien zeitvariant.

Beispiel 4.12 (Zeitinvarianz)


Das System S1
S1 :

ya (t) = a ye (t)

ist zeitinvariant, hingegen ist das System S2


S2 :

ya (t) = a(t) ye (t)

mit
a(t) = mt + c
fr m = 0 zeitvariant.

, m, c R

4 Zeitkontinuierliche Systeme

130

t1

Abbildung 4.1: Nicht-kausales und kausales System

Definition 4.13 (Kausalitt)


Ein System S heit kausal, wenn die Antwort nur von gegenwrtigen oder vergangenen, nicht jedoch von zuknftigen Werten des Eingangssignals abhngt (vgl. Abbildung 4.1). Dies bedeutet, dass fr ein System S aus
ye1 (t) = ye2 (t) , t t1

(4.14)

ya1 (t) = S{ye1 (t)} , ya2 (t) = S{ye2 (t)}

(4.15)

und

bei willkrlichem t1 stets


ya1 (t) = ya2 (t) , t t1

(4.16)

folgt.
Die Definitionsgleichungen (4.14) und (4.16) haben angesichts (4.8) zur Folge, dass ein
lineares, kausales System S auf jedes zulssige Eingangssignal ye (t) mit der Eigenschaft
ye (t) = 0 , t t1

(4.17)

mit einem Ausgangssignal ya (t) antwortet, das die Eigenschaft


ya (t) = 0 , t t1

(4.18)

aufweist. Alle realisierbaren, d.h. physikalischen, Systeme sind kausal. Die Wirkung
kann nicht vor der Ursache eintreten. Die Bedingung der Kausalitt bedeutet oft eine
erhebliche Einschrnkung bei der mathematischen Formulierung von Systemeigenschaften.
Ohne Beweis sei hier angemerkt, dass ein System S, das aus Addition, Subtraktion,
Multiplikation mit konstanten Faktoren, Integration bis zum aktuellen Zeitpunkt t und
Dierenziation besteht, linear, zeitinvariant und kausal ist.

4.1 Eigenschaften

131

Definition 4.19 (Dynamik)


Ein System S heit dynamisch, wenn die Antwort ya (t) des Systems nicht nur vom
augenblicklichen Wert des Eingangssignals ye (t), sondern auch von den vergangenen
(bei nichtkausalen Systemen auch von zuknftigen) Werten abhngt. Die Antwort
ya (t) eines nichtdynamischen Systems hngt damit nur von dem augenblicklichen
Wert des Eingangssignals ye (t) ab.
Man sagt auch, ein dynamisches System hat ein Gedchtnis der Dauer T , wenn die
Antwort ya (t0 ) durch die Werte der Erregung im Intervall [t0 T, t0 ] vollstndig
bestimmt ist.
Ohne Beweis sei hier angemerkt, dass ein nichtdynamisches System S keine Operatoren
enthalten darf, die das Eingangssignal dierenzieren oder integrieren.
Beispiel 4.20 (Dynamik)
Ein System S, das als Antwort ya (t) das Gesamtgewicht m des auf einem Frderband

befindlichen Schttguts ausgibt, wobei als Eingangssignal ye (t) der Massenfluss m


der neu hinzukommenden Masse dient, besitzt ein Gedchtnis der Zeitdauer T , die
das Schttgut bentigt, um wieder vom Band zu kommen (vgl. Abbildung 4.2).

.
m
v

Abbildung 4.2: Frderband

Die Zeitdauer T berechnet sich hier aus der Lnge l des Frderbands und der Geschwindigkeit v, mit der es sich fortbewegt:
T =

l
.
v

Die Gesamtmasse zum Zeitpunkt t0 hngt vom Massenfluss m


ab, der im Zeitintervall

[t0 T, t0 ] auftrat.
Definition 4.21 (Stabilitt)
Ein System S heit genau dann stabil, wenn jedes beschrnkte zulssige Eingangssignal ye (t) ein ebenfalls beschrnktes Ausgangssignal ya (t) zur Folge hat, d.h., wenn
aus der Beschrnktheit des Eingangssignals
es ex. m > 0 : |ye (t)| < m < , t R

4 Zeitkontinuierliche Systeme

132
die Beschrnkung des Ausgangssignals
es ex. M > 0 : |ya (t)| < M < , t R

folgt. Man spricht hier auch von BIBO-Stabilitt (engl.: bounded-input boundedoutput).
Beispiel 4.22 (Stabilitt)
Ein System S, das als Ausgangssignal das integrierte Eingangssignal
ya (t) =

ye ( ) d

ausgibt, ist instabil. Das beschrnkte Sprungsignal



1 ,t 0
ye (t) =
0 ,t < 0
fhrt zu dem unbeschrnkten Ausgangssignal

t
,t 0
ya (t) =
0 ,t < 0
des Systems S.

4.1.1

Lineare zeitinvariante Systeme, LTI-Systeme

Von besonderem Interesse sind lineare, zeitinvariante Systeme, welche meist als LTISysteme (LTI =
linear, time-invariant) bezeichnet werden. Diese Systeme besitzen eine
einfache mathematische Darstellung und erleichtern somit die Analyse und Synthese
von Systemen. Hierzu wird der Begri der Impulsantwort eingefhrt.
Definition 4.23 (Impulsantwort)
Die Antwort g(t) eines Systems S auf den Dirac-Impuls (t)
g(t) = S{(t)}

(4.24)

nennt man Impulsantwort.


Aus (3.153) ist bekannt, dass sich ein Signal ye (t) mit Hilfe des Dirac-Impulses als
ye (t) =

ye (t )( ) d

4.1 Eigenschaften

133

darstellen lsst. Benutzt man das Signal ye (t) als Eingangssignal eines LTI-Systems S,
so erhlt man das Ausgangssignal ya (t) wegen

ya (t) = S{ye (t)} = S

=S

ye (t )( ) d

ye ()(t ) d

ye ()S{(t )} d

ye ()g(t ) d = ye (t) g(t)

als Faltung des Eingangssignals ye (t) mit der Impulsantwort g(t) des Systems S. Dies
bedeutet, dass LTI-Systeme vollstndig durch ihre Impulsantwort charakterisiert sind.
Satz 4.25 (Impulsantwort)
Die Impulsantwort eines LTI-Systems S
g(t) = S{(t)}
charakterisiert das System S vollstndig. Die Antwort ya (t) auf ein Signal ye (t)
berechnet sich aus der Faltung des Eingangssignals mit der Impulsantwort:
ya (t) = ye (t) g(t) .

(4.26)

Satz 4.27 (Kausalitt)


Mit den Gleichungen (4.17) und (4.18) folgt, dass ein LTI-System S genau dann
kausal ist, wenn die Impulsantwort fr t < 0 verschwindet:
S kausal g(t) = 0 , t < 0 .

(4.28)

Beweis:

1. Das LTI-System sei als kausal vorausgesetzt, und ye (t) sei ein beliebiges Eingangssignal mit
ye (t) = 0 , t < 0.

(4.29)

4 Zeitkontinuierliche Systeme

134

Fr das Ausgangssignal ergibt sich gem (4.26)

ya (t) =

g(t )ye ( )d

t =
d = d

(4.29)

g(t )ye ( )d

g()ye (t )d

= 0 , t < 0.

(4.30)

Dies kann aber fr beliebige Eingangssignale, welche (4.29) gehorchen, nur dann
erfllt sein, wenn g(t) = 0 fr alle t < 0 gilt.
2. Es gelte nun g(t) = 0 , t < 0 und ye (t) sei ein beliebiges Eingangssignal mit
ye (t) = 0 , t < 0. Dann rechnet man
ya (t) =

g(t )ye ( )d

t
0

g(t )(t )ye ( )( )d

= 0 , t < 0,

(4.31)
(4.32)

womit das System als kausal nachgewiesen ist.


Beispiel 4.33 (Akausaler Mittelwertbilder)
Als Beispiel fr ein akausales Filter betrachten wir eine Mittelwertbildung. Diese
wird durch die Impulsantwort
g(t) =

1
rT (t)
T

realisiert, vgl. Abbildung 4.3.


Berechnet man das Ausgangssignal solch eines Filters, so ergibt sich:

1
ya (t) = g(t) ye (t) =
rT (t )ye ( )d
T

1
T

t+T

/2

ye ( )d .

tT /2

Sowohl aus der Impulsantwort als auch aus der berechneten Darstellung des Ausgangssignals wird deutlich, dass es sich hierbei nicht um ein kausales Filter handelt.

4.1 Eigenschaften

135

1.5

g(t)

0.5

0
1

0.5

0
t [sec]

0.5

Abbildung 4.3: Impulsantwort des akausalen


Mittelwertbilders fr T = 1[sec]

Definition 4.34 (Kausale Signale)


Durch diesen Satz motiviert, werden auch Funktionen bzw. Signale als kausal bezeichnet, falls sie fr negative Zeiten den Wert Null besitzen:
f (t) kausal f (t) = 0 , t < 0 .

(4.35)

Diese Bezeichnung wird auch im folgenden Text gelegentlich verwendet.


Mit der Definition 4.21 soll die Stabilitt eines LTI-Systems untersucht werden. Hierfr
ergibt sich der folgende
Satz 4.36 (Stabilitt)
Ein LTI-System ist genau dann stabil, wenn die Impulsantwort g(t) die Bedingung

(4.37)

|g(t)| dt <

erfllt.

Beweis:

1. Die Impulsantwort g(t) sei absolut integrierbar und ye (t) ein beschrnktes Eingangssignal, d.h.|ye ( )| < m , t R. Stellt man das Ausgangssignal ya (t) mittels der Gleichung (4.26) dar, so folgt:






ye ( ) g(t ) d 
|ye ( )| |g(t )| d
|ya (t)| = 



4 Zeitkontinuierliche Systeme

136

Da nach Voraussetzung das Eingangssignal beschrnkt ist, ergibt sich die Ungleichung

|ya (t)| < m

|g(t )| d = m

|g()| d < M < ,

womit das Ausgangssignal als beschrnkt nachgewiesen ist.


2. Um zu beweisen, dass die Bedingung (4.37) fr die Stabilitt auch notwendig ist, geben wir bei bekannter Impulsantwort g(t) das spezielle, beschrnkte
Eingangssignal
ye (t) =

g(t)
|g(t)|

entsprechend [Fli91] vor. Es gilt |ye (t)| = 1 , t R. Das Ausgangssignal ya (t)


an der Stelle t = 0 ergibt sich nach Gleichung (4.26) als

ya (0) =

ye ( )g( )d =

|g( )|d =

g 2 ( )
d
|g( )|

|g( )|d.

Ist also die Impulsantwort nicht absolut intergrierbar, so ist auch das System
nicht stabil, da fr ein beschrnktes Eingangssignal ein unbeschrnktes Ausgangssignal resultieren kann.
Bei kausalen Systemen verschwindet die Impulsantwort fr negative Zeiten, sodass die
Bedingung (4.37) vereinfacht werden kann, indem die Integration erst bei Null beginnt:

|g(t)| dt < .

Abschlieend soll untersucht werden, wie ein LTI-System S auf eine gegebene komplexe
Schwingung der Frequenz f0
ye (t) = A ej2f0 t
reagiert. Die Antwort ergibt sich als Faltung zwischen der Impulsantwort g(t) und dem
Eingangssignal ye (t):

4.2 Beschreibung durch Dierenzialgleichungen

ya (t) =

g( )ye (t ) d =

137

g( )A ej2f0 (t ) d

g( )ej2f0 d A ej2f0 t

= G(f0 ) A ej2f0 t .
Satz 4.38 (Frequenzgang)
Ein LTI-System S, das mit einer komplexen Schwingung der Frequenz f0
ye (t) = A ej2f0 t
angeregt wird, antwortet mit einem Ausgangssignal derselben Frequenz f0 . Der Proportionalittsfaktor zwischen Ein- und Ausgangssignal ist die Fourier-Transformierte
G(f ) der Impulsantwort g(t) bei der Frequenz f0 . Man nennt die FourierTransformierte G(f ) den Frequenzgang des Systems S. G(f ) ist auch fr instabile Systeme erklrt. Der Betrag |G(f )| ist der Amplitudengang und das Argument

arg G(f ) der Phasengang.

4.1.2

Mehrgrensysteme

Bis jetzt wurde angenommen, dass die beschriebenen Systeme nur eine Eingangs- und
eine Ausgangsgre besitzen. Dies muss natrlich nicht so sein. Alle bis jetzt beschriebenen Eigenschaften lassen sich auch auf so genannte Mehrgrensysteme erweitern.
Entsprechend der Anzahl der Eingangs- bzw. Ausgangsgren spricht man von SISO(Single Input Single Output)- und MIMO-(Multiple Input Multiple Output)-Systemen bzw. deren Mischsystemen SIMO und MISO.
Bei Mehrgrensystemen wird aus dem Eingangssignal ye (t) der Eingangssignalvektor
y e (t) und aus dem Ausgangssignal ya (t) der Ausgangssignalvektor y a (t). Das System
wird weiterhin allgemein als Operatorgleichung
y a (t) = S{y e (t)}

(4.39)

beschrieben.

4.2

Beschreibung durch Dierenzialgleichungen

Bis jetzt wurden Eigenschaften von Systemen behandelt, ohne eine konkrete Darstellung einzufhren. Die Verwendung von Dierenzialgleichungen zur Abbildung eines oder
mehrerer Eingangssignale y e (t) auf ein oder mehrere Ausgangssignale y a (t) bildet eine
Mglichkeit der Darstellung. Diese ist z.B. in der Physik, aber auch in der Elektrotechnik weit verbreitet.

4 Zeitkontinuierliche Systeme

138

In der allgemeinen Form wird der Ausgangssignalvektor y a (t) als Funktion der Ableitungen des Ausgangssignalvektors, des Eingangssignalvektors y e (t), seiner Ableitungen
und der Zeit t dargestellt:
'
(
(2)
(1)
(2)
(t),
y
(t),
.
.
.
,
y
(t),
y
(t),
y
(t),
.
.
.
,
t
(4.40)
y a (t) = f y (1)
a
a
e
e
e
mit

y (i) (t) =

di y(t)
.
dti

Der in Beispiel 1.4 vorgestellte RC-Tiefpass etwa erfllt die Dierenzialgleichung


RC u a (t) + ua (t) = ue (t).
Betrachtet man die Eingangsspannung ue (t) als Eingangssignal ye (t) und die Ausgangsspannung ua (t) als Ausgangssignal ya (t), so lsst sich der RC-Tiefpass gem (4.40)
durch
ya (t) = RC y a (t) + ye (t)

(4.41)

beschreiben. Bei der Betrachtung von LTI-Systemen ist es sofort ersichtlich, dass die
allgemeine Dierenzialgleichung (4.40) in eine lineare Dierenzialgleichung mit zeitunabhngigen Konstanten,
n


=0

a ya() (t) =

m


b ye() (t),

(4.42)

=0

bergeht. Die Konstanten a , = 1, . . . , n, und b , = 1, . . . , m, charakterisieren


dabei das System. Man erkennt sofort, dass es sich bei der Dierenzialgleichung des
RC-Tiefpasses (4.41) um eine lineare Dierenzialgleichung mit zeitunabhngigen Konstanten handelt.
Neben der Darstellung als lineare Dierenzialgleichung (4.42) existiert noch die Darstellung im Zustandsraum, die im folgenden Abschnitt beschrieben wird.

4.2.1

Zustandsraum

Fr die bisherigen Betrachtungen gengte es, Systeme mit Hilfe ihrer Eingangs- bzw.
Ausgangssignale zu beschreiben. Fr viele Anwendungen reicht diese Betrachtungsweise
jedoch nicht mehr aus. Neben den Eingangs- und Ausgangssignalen werden innere Signale, die so genannten Zustandsgren, eingefhrt. Damit kann man die innere Struktur
eines Systems nachvollziehen. Dabei werden die inneren Zustandsgren durch einen
Signalvektor z(t) dargestellt.
Die Zustandsraumdarstellung besitzt mehrere Vorteile:
Es knnen Flle innerer Systeminstabilitten erkannt werden, die bei alleiniger
Betrachtung des Eingangs-Ausgangsverhaltens nicht festgestellt werden knnen.

4.2 Beschreibung durch Dierenzialgleichungen

139

Die Darstellungsweise ist der Theorie der Dierenzialgleichungen angepasst, so


dass die entsprechenden Methoden anwendbar werden.
Die Behandlung theoretischer Aufgabenstellungen, z.B. in der Netzwerktheorie
oder der Regelungstechnik, wird erleichtert.
Die Systemdarstellung im Zustandsraum eignet sich besonders zur Darstellung
von Systemen im Rechner und bietet Vorteile bei der numerischen Behandlung.
Definition 4.43 (Zustandsraumdarstellung)
Ein System S lsst sich mit seinen Eingangs- bzw. Ausgangssignalen y e (t) bzw. y a (t)
und seinen inneren Zustandsgren z(t) durch
z(t)

= f (z(t), y e (t), t)
y a (t) = g(z(t), y e (t), t)

(4.44)

im Zustandsraum beschreiben. Dabei nennt man die erste Gleichung die Zustandsgleichung und die zweite Gleichung die Ausgangsgleichung.
Fr einen Anfangszeitpunkt t0 bestimmen die Eingangsgren y e (t), t t0 , und die
Zustandsgren z(t0 ) durch die Zustandsgleichung den Zustandsvektor z(t), t t0 ,
und somit durch die Ausgangsgleichung auch den Ausgangsvektor y a (t), t t0 . Der
Zustandsvektor z(t) reprsentiert sozusagen die gesamte Vergangenheit des Systems,
die im Wesentlichen durch die Eingangsgren y e (t) bestimmt ist.
Definition 4.45 (Ordnung eines Systems)
Die kleinste Anzahl von Zustandsgren, d.h. die minimale Dimension des Zustandsvektors z(t), die zur eindeutigen Kennzeichnung des Systemzustands erforderlich sind,
nennt man Ordnung des Systems.
Herleitung der Zustandsraumdarstellung eines LTI-Systems. Im Folgenden soll die Zustandsraumdarstellung fr LTI-Systeme mit einer Eingangs- und einer Ausgangsgre
hergeleitet werden. Dabei geht man von der Darstellung (4.42),
n


=0

a ya() (t) =

m


b ye() (t),

=0

aus. In technisch realisierbaren Systemen gilt wegen der bedingten Sprungfhigkeit der
Ausgangsgre die Ungleichung n m.

Die Umformung der linearen Dierenzialgleichung in die Zustandsraumdarstellung erfolgt nach [BS93] in fnf Schritten.

4 Zeitkontinuierliche Systeme

140
(n)

1. Die Dierenzialgleichung (4.42) wird nach ya (t) aufgelst, wobei b = 0 fr


m < n gesetzt wird.
(
1 '
b0 ye a0 ya +b1 y e a1 y a +. . .+bn1 ye(n1) an1 ya(n1) +bn ye(n)
ya(n)=
an
2. Es werden die Zustandsgren nach folgendem Schema eingefhrt:
(
1 '
b0 ye a0 ya +b1 y e a1 y a +. . .+bn1 ye(n1) an1 ya(n1) +bn ye(n)
ya(n)=
an  
z0 (t)



(2)

z1 (t)



(n)
zn1 (t)

Man erhlt also


z0 (t)
(i+1)
zi
(t)

= b0 ye (t) a0 ya (t)
(i)

= zi1 (t) + bi ye(i) (t) ai ya(i) (t)

, i = 1, . . . , n 1.

3. Durch i-fache Integration der i-ten Definitionsgleichungen erhlt man nur noch
erste Ableitungen:
zi (t) = zi1 (t) + bi ye (t) ai ya (t)

, i = 1, . . . , n 1 .

(4.46)

4. Die Dierenzialgleichung aus dem zweiten Schritt kann man unter Verwendung
der (n 1)-ten Zustandsgre verkrzt als
(
1 ' (n)
ya(n) (t) =
zn1 (t) + bn ye(n) (t)
an
schreiben. Hieraus folgt durch n-fache Integration die Ausgangsgleichung
ya (t) =

1
(zn1 (t) + bn ye (t))
an

der Zustandsraumdarstellung.
5. Das Einsetzen der Ausgangsgleichung in die einzelnen integrierten Definitionsgleichungen der Zustandsgren liefert:
(
'
z0 = b0 ye a0 ya
= aan0 zn1 + b0 bn aan0 ye
'
(
z1 = z0 + b1 ye a1 ya
= z0 aan1 zn1 + b1 bn aan1 ye
(
'
z2 = z1 + b2 ye a2 ya
= z1 aan2 zn1 + b2 bn aan2 ye
..
..
..
..
.
.
.
.
'
(
an1
ye
zn1 = zn2 + bn1 ye an1 ya = zn2 an zn1 + bn1 bn an1
an

4.2 Beschreibung durch Dierenzialgleichungen

141

Hieraus folgt in der Vektorschreibweise die Zustandsgleichung

0
1

.
..
zn1
0

z0
z1
z2
..
.

0
0
1
0
..
.
0

..
.

aan0
aan1
aan2
aan3
..
.
an1
an

und die Ausgangsgleichung

ya (t) =

b0 bn aan0

b1 bn aa1
n


b2 bn aa2

n

+
a3


b3 bn an

..

.
zn1
bn1 bn an1
an

0, 0, , 0,

1
an

z0
z1
z2
..
.

z0
z1
z2
..
.
zn1

ye

bn
+
an ye (t)

der Zustandsraumdarstellung.
Hieraus folgt die Vektordarstellung im Zustandsraum
z(t)

= A z(t) + b ye (t)
ya (t) = cT z(t) + d ye (t),
wobei A, b, c und d entsprechend obiger Gleichungen zu definieren sind.
Die eben beschriebene Vorgehensweise erzeugt die Beobachter-Normalform im Zustandsraum. Analog hierzu ist noch die Regelungs-Normalform gebruchlich, vergleiche
hierzu [Fl06].
Besteht die Eingangs- bzw. Ausgangsgre nicht nur jeweils aus einer Funktion, so
handelt es sich um ein Mehrgrensystem. Die Zustandsraumdarstellung kann man
auch fr solche Systeme definieren.
Definition 4.47 (Zustandsraumdarstellung fr LTI-Systeme)
LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch folgende Vektorgleichungen darstellen:
z(t)

= A z(t) + B y e (t)
y a (t) = C z(t) + D y e (t)

(4.48)

Hierbei heit A die Systemmatrix , B die Steuermatrix , C die Beobachtungsmatrix


und D die Durchschaltmatrix . Die Struktur eines solchen Systems ist in Abbildung
4.4 dargestellt.

4 Zeitkontinuierliche Systeme

142

D
z(t)
ye(t)

ya(t)

A
Abbildung 4.4: Struktur der Zustandsraumdarstellung

Dabei wird das Systemverhalten von der Matrix A beeinflusst. Sind die zur Beschreibung eines Systems erforderlichen Matrizen A, B, C und D zeitabhngig, so ist das
zugehrige System zeitvariant, ansonsten zeitinvariant. Es ist anzumerken, dass es fr
ein und dasselbe System verschiedene Zustandsraumdarstellungen mit unterschiedlichen
Zustandsgren gibt.
Die Darstellung eines Systems im Zustandsraum wird nun anhand eines ausfhrlichen
Beispiels gezeigt.
Beispiel 4.49 (Masse-Feder-Dmpfer-System)
In Abbildung 4.5 sieht man den Aufbau eines Masse-Feder-Dmpfer-Systems.
Das System wird durch seine physikalischen Eigenschaften beschrieben. Die Bewegungsgleichung

m
x=
F = Fa + Fc + Fd

beschreibt die Beschleunigungskraft als Summe aller angreifenden Krfte. Hierzu


zhlt die von auen kommende Anregungskraft Fa , die Rckholkraft
Fc = cx
der Feder, die proportional zur Auslenkung x ist, und die Dmpfungskraft
Fd = dv

m
Fa

Abbildung 4.5: Aufbau des Masse-FederDmpfer-Systems

4.2 Beschreibung durch Dierenzialgleichungen

143

des Dmpfungsglieds, die proportional zur Geschwindigkeit der Masse m ist. Mit
dem Verhltnis zwischen der Auslenkung x und der Geschwindigkeit v
v = x

v = x

erhlt man die das System beschreibende Dierenzialgleichung:


m
x = Fa cx dx .
Dabei ist die Auslenkung x so gewhlt, dass in der Ruhelage x = 0 ist. Ansonsten
wrde es sich nicht um ein lineares System handeln (vgl. (4.8)). Bei der Darstellung
im Zustandsraum verwendet man als Zustandsgren die Auslenkung x und die
Geschwindigkeit v. Hieraus ergeben sich sofort die einzelnen Dierenzialgleichungen
x = v
c
d
1
v = x v + Fa
m
m
m
der Zustandsgleichung. Nun kann man das System im Zustandsraum mittels der
Vektorschreibweise
   

  beschreiben:
0
1
0
x
x
+ 1 Fa

=
c
d
v
v
m
m
m
 
:
;
x

+ 0 Fa
x= 10
v

Bemerkung 4.50

Bei diesem Beispiel werden andere Zustandsgren verwendet, als sie bei Anwendung
der fnf Rechenschritte entstehen wrden. Geht man entsprechend der formulierten
Schritte vor, so erhlt man sukzessive folgende Gleichungen: Ein einfaches Einsetzen
ergibt
m
x = Fa cx dx,

was man zu
c
1
d
= Fa
x + x + x
m
m
m
umformen kann. Somit hat man also eine Gleichung der Gestalt (4.42) mit den
Gren
a0 =

c
m

b0 =

1
m

a1 =

d
m

a2 = 1

bzw.

erhalten. Setzt man noch b1 = 0 und b2 = 0, so kann man direkt obige Herleitungen
verwenden, woraus sich die Zustandsgleichung
  
   1 
c
0 m
z0
z0
=
+ m Fa
d
z1
z1
0
1 m

4 Zeitkontinuierliche Systeme

144
und die Ausgangsgleichung
x(t) = z1 (t)
ergeben.

Diese Darstellung weicht von oben aufgefhrter Darstellung ab, womit die Existenz
mehrerer gltiger Zustandsraumdarstellungen an einem Beispiel demonstriert wurde.

4.3

Laplace-Transformation

Ein LTI-System S ist durch seine Impulsantwort g(t) vollstndig charakterisiert. Da


die Impulsantwort g(t) ein Signal darstellt, auf das die Hilfsmittel der Signalverarbeitung angewendet werden knnen, knnte man z.B. durch Anwendung der FourierTransformation auf die Impulsantwort g(t) weitere Informationen ber das System S
selbst gewinnen. Leider existiert das Fourier-Integral (3.124) wegen eventueller Konvergenzschwierigkeiten nur fr eine beschrnkte Klasse von Funktionen. So haben wir in
Beispiel 3.129 gezeigt, dass fr die Funktion y(t) = t das Fourier-Integral nicht konvergiert.
Um die Konvergenz fr eine grere Klasse von Funktionen zu sichern, erweitert man
den Integranden um den Faktor et , R, der im Fall > 0 fr t schnell gegen
0 strebt und so die Konvergenz zumindest fr hinreichend groes t R sichert. Somit
geht also der Frequenzparameter j2f ber in den Frequenzparameter + j2f .

4.3.1

Definition

Die Erweiterung der betrachteten Funktion y(t) mit et erzeugt aus der FourierTransformation die Laplace-Transformation.
Definition 4.51 (Zweiseitige Laplace-Transformation)
Die zweiseitige Laplace-Transformation einer Funktion y(t) ist durch
Y (s) = LII {y(t)} =

y(t)est dt

(4.52)

definiert, wobei s = + j2f = + j den Frequenzparameter bezeichnet. Das


Signal wird somit im gesamten Zeitbereich R betrachtet und dort in die komplexen
Frequenzen s = + j zerlegt.
Der Index II dient dazu, die zweiseitige Laplace-Transformation von der spter eingefhrten einseitigen Laplace-Transformation zu unterscheiden.

4.3 Laplace-Transformation

145

Bemerkung 4.53
Die Laplace-Transformierte eines Signals y(t) entspricht gerade der Fourier-Transformierten des Signals y(t)et :
Y (s) = LII {y(t)} = F{y(t) et }

(4.54)

Nach den bei der Einfhrung der Fourier-Transformation gemachten Betrachtungen


ist somit die Konvergenz von

|y(t)et | dt <

eine hinreichende Bedingung fr die Existenz der Laplace-Transformierten.

Eine Funktion y(t), t R, kann in ihren kausalen Teil yk (t) mit



y(t) , t 0
yk (t) =
0
,t < 0
und in ihren antikausalen Teil yak (t) mit

0
,t 0
yak (t) =
y(t) , t < 0
aufgeteilt werden. Unterzieht man die Funktion y(t) nun der Laplace-Transformation,
dann hat man aufgrund der Linearitt

LII {y(t)} =
=

yk (t)est dt +

yak (t)est dt

y(t)est dt +

y(t)est dt.

(4.55)

Bemerkung 4.56
Nach [Fl80] umfasst der Konvergenzbereich der zweiseitigen Laplace-Transformation stets einen Streifen parallel zur j-Achse. Hierbei gehren die Pole links
des Streifens der absoluten Konvergenz zum kausalen Teil, Pole rechts davon zum

antikausalen Teil des Signals.

4 Zeitkontinuierliche Systeme

146
Beweis:

Um diese Aussage einzusehen, betrachten wir zuerst den kausalen Teil des Signals.
Im Vorgri auf die inverse einseitige Laplace-Transformation in Abschnitt 4.3.5.1
lsst sich der kausale Teil darstellen als
1
yk (t) =
2j

+j

Y (s)est ds,

t 0.

Aufgrund des Residuensatzes folgt deshalb


yk (t) =

M


k=1

Res{Y (s)est ; sk } , t 0,

wobei die Pole links des Integrationsweges zu nehmen sind. Da der Integrationsweg
in dem Streifen der absoluten Konvergenz von Y (s) liegt, sind dies gerade die Pole
links des Streifens der absoluten Konvergenz.
Fr die Aussage ber den antikausalen Teil transformiert man das zweite Integral
in Gleichung (4.55) zu

yak (t)est dt =

yak (t)est dt =

yak (t)e(s)t dt.

Dies definiert analog eine einseitige Laplace-Transformation mit der Variablen s.


Somit ergibt sich
yak (t) =

M


k=1

Res{Y (s)est ; sk } , t 0

und somit das antikausale Signal im Zeitbereich. Die Pole rechts des Streifens der
Konvergenz bestimmen den antikausalen Teil.
Wie beispielsweise im Falle der Impulsantwort eines kausalen LTI-Systems treten hufig
kausale Funktionen y(t) auf, d.h. Funktionen, die fr negative Zeiten verschwinden. Fr
derartige Funktionen geht die soeben definierte zweiseitige Laplace-Transformation ber
in

y(t)est dt.

Als untere Integrationsgrenze wird hier 0 gewhlt, um Sprnge bei 0 und den DiracImpuls betrachten zu knnen. Da diese Formel jedoch auch fr beliebige Funktionen
angesetzt werden kann, bei denen sie dann nur den Zeitabschnitt [0, ) betrachtet,
entsteht die einseitige Laplace-Transformation.

4.3 Laplace-Transformation

147

Definition 4.57 (Einseitige Laplace-Transformation)


Die einseitige Laplace-Transformation einer Funktion y(t) ist durch
Y (s) = LI {y(t)} = L{y(t)} =

y(t)est dt

(4.58)

gegeben. Im Gegensatz zur zweiseitigen Laplace-Transformation wird hier nur der


Zeitbereich [0, ) inklusive des linksseitigen Grenzwertes der Funktion an der Stelle
0 betrachtet. Dies ist, wie bereits erwhnt, von groem Interesse, da hufig kausale
Funktionen zu untersuchen sind.

Bemerkung 4.59
1. Falls im folgenden Text die Art der Laplace-Transformation nicht mehr durch
einen Index gekennzeichnet wird, ist immer die einseitige Laplace-Transformation zugrunde gelegt.
2. Fr kausale Signale stimmen beide Laplace-Transformierten berein:
y(t) kausal = LII {y(t)} = LI {y(t)} .
3. Auch fr die eben definierten Transformationen werden die Schreibweisen
y(t) Y (s)

Y (s) = LI / II {y(t)}

y(t) = L1
I / II {Y (s)}

verwendet.
4. Wie bei der zweiseitigen kann man auch die einseitige Laplace-Transformation
mittels der Fourier-Transformation darstellen:
LI {y(t)} = F{y(t)et (t)} .

(4.60)

5. Es sei noch einmal betont, dass im Folgenden kausale Signale betrachtet werden. Diese Einschrnkung hat ihre Berechtigung darin, dass der Groteil der in
technischen und kommerziellen Anwendungen auftretenden Signale kausal ist.

4.3.2

Konvergenz der Laplace-Transformation

Bei der Verwendung von uneigentlichen Integralen ist die Frage der Konvergenz wichtig.
Fr die Laplace-Transformation soll dies anhand zweier einfhrender Beispiele behandelt werden.

4 Zeitkontinuierliche Systeme

148

Beispiel 4.61 (Laplace-Transformation des Einheitssprungs)


Mit der Definition des Einheitssprungs

0 ,t < 0
(t) =
1 ,t 0
und der Gleichung (4.58) folgt


1
st
st
LI/II {(t)} =
(t)e
dt = e
dt = est
s

0

 

1
1
= lim est es0 .
t+
s
s

(4.62)

t=+
t=0

Zur Bestimmung des Grenzwertes wird folgende berlegung angestellt:


est = e( + j)t
= et ejt
= et (cos(t) j sin(t))

ist eine komplexe Schwingung, die in Abhngigkeit des Parameters eine aufklingende, abklingende oder einer Dauerschwingung der Amplitude et darstellt. Fr
t + folgt

, > 0
0
, = 0 .
et 1
(4.63)
+ , < 0
Also klingt diese Schwingung fr > 0 ab, man erhlt eine Dauerschwingung fr
= 0 und eine aufklingende Schwingung fr < 0. Nur fr > 0 existiert der
Grenzwert


1 st
lim e
= 0.
t+
s

Abbildung 4.6: Konvergenzgebiet des Einheitssprungs in der s-Ebene

4.3 Laplace-Transformation

149

Es gilt also:
LI/II {(t)} =

(t)est dt =

1
s

, Re{s} > 0

(4.64)

Das Konvergenzgebiet ist somit nach Gleichung (4.63) die rechte komplexe Halbebene (vgl. Abbildung 4.6).

Beispiel 4.65 (Einseitige Laplace-Transformierte der e-Funktion)


Die einseitige Laplace-Transformierte der Funktion
y(t) = et

, C,

lautet entsprechend den berlegungen im vorherigen Beispiel


L{y(t)} =

et est dt =

e(s )t dt =

1
,
s

sofern Re{s } > 0, d.h. Re{s} > Re{} ist.

Bemerkung 4.66
Allgemein lsst sich zeigen, [Fl80], dass fr jede Zeitfunktion ein R existiert, so
dass das Konvergenzgebiet der Laplace-Transformation dieser Zeitfunktion gerade
durch
{s C : Re{s} > }

(4.67)

gegeben ist. Somit ist das Konvergenzgebiet der Laplace-Transformation immer eine
2
2
Halbebene der s-Ebene, die im Grenzfall, wie z.B. bei et bzw. et , in die gesamte

Ebene bzw. in die leere Ebene bergeht.


Die Laplace-Transformierte ist konvergent, falls y(t) in eine konvergierende Taylor-Reihe
entwickelbar ist, d.h. eine analytische Funktion darstellt.

4.3.3

Inverse Laplace-Transformation

Aus der Darstellung der einseitigen Laplace-Transformation mit Hilfe der Fourier-Transformation (4.60) folgt die inverse Laplace-Transformation durch Auflsung von (4.60)
nach y(t):


Y (s) = F{y(t) et (t)} = y(t) et (t) = F 1 {Y (s)}
.
s=+j2f

4 Zeitkontinuierliche Systeme

150

Hierbei muss so gewhlt werden, dass Y ( + j2f ) definiert ist, d.h. im Konvergenzbereich der Laplace-Transformierten liegt. Hieraus folgt durch inverse FourierTransformation fr t 0 :

y(t) =
Y ( + j2f ) et ej2f t df.

Mittels der Substitution



s = + j2f
ds = j2 df
folgt daraus fr t 0

1
y(t) =
2j

+j

Y (s)est ds.

Definition 4.68 (Inverse Laplace-Transformation)


Die inverse Laplace-Transformation der Funktion Y (s) eines Transformationspaares
y(t) Y (s) ist durch
1
y(t) =
2j

c+j

Y (s)est ds

(4.69)

cj

gegeben.

4.3.4

Eigenschaften

Die Eigenschaften der Laplace-Transformation entsprechen im Wesentlichen denen der


Fourier-Transformation. In diesem Rahmen werden einige Eigenschaften in Anlehnung
an [CW04] aufgefhrt und exemplarisch berechnet. Weitere Eigenschaften findet man
in Anhang B aufgelistet. Eine genauere Darstellung der Eigenschaften der LaplaceTransformation findet sich beispielsweise in [Fl80]. Hier werden alle Eigenschaften
fr die einseitige Laplace-Transformation gezeigt, die im Folgenden kurz als LaplaceTransformation bezeichnet wird.
4.3.4.1

Linearitt

Die Laplace-Transformierte einer gewichteten Summe von Einzelfunktionen ist die gewichtete Summe der Laplace-Transformierten der Funktionen:
8
+


ai yi (t) =
ai L{yi (t)}
(4.70)
L
i

Entsprechende Beziehungen bestehen fr das Umkehrintegral (4.69). Diese Eigenschaften zeigen, dass die Laplace-Transformation eine lineare Integraltransformation ist.

4.3 Laplace-Transformation
4.3.4.2

151

Verschiebung im Zeitbereich

Whlt man an Stelle des Zeitmastabes t den um t0 verschobenen Zeitmastab = tt0 ,


was einer Zeitverschiebung des Signals entspricht, so erhlt man ber
L{y(t t0 )} =
=

y(t t0 )est dt =

t t0 =
dt = d

y( )es( + t0 ) d = est0

t0

y( )es d

t0

die Laplace-Transformierte der zeitverschobenen Funktion. Da zur Anwendung der


Laplace-Transformation kausale Funktionen y(t) vorausgesetzt wurden, muss jetzt zwischen zwei Fllen unterschieden werden.
1. Fr t0 > 0 ist die untere Integrationsgrenze t0 negativ. Da die betrachteten
Funktionen als kausal angenommen wurden, folgt sofort

L{y(t t0 )} = est0

y( )es d = est0 L{y(t)} , t0 > 0


(4.71)

die Laplace-Transformierte bei positiver Zeitverschiebung.


2. Bei negativer Zeitverschiebung t0 < 0 ist die untere Integrationsschranke t0
positiv. Durch Erweiterung des Integrals um den Integrationsbereich [0, t0 ]
folgt ber

L{y(t t0 )} = est0

t0

= est0

y( )es d

t0
y( )es d
y( )es d
0

die Laplace-Transformierte fr negative Zeitverschiebungen:

t0
L{y(t t0 )} = est0 L{y(t)}
y( )es d

, t0 < 0

(4.72)

4 Zeitkontinuierliche Systeme

152
4.3.4.3

Verschiebung im Frequenzbereich

Ersetzt man in der Laplace-Transformierten Y (s) die Gre s durch s + b, so erhlt


man aus (4.58)
Y (s + b) =

y(t)e(s + b)t dt = L{y(t)ebt }

(4.73)

den Dmpfungssatz der Laplace-Transformation, d.h. die Dmpfung der Zeitfunktion


y(t) mit einer Exponentialfunktion ebt erzeugt im Frequenzbereich eine Verschiebung
um b.
4.3.4.4

Dierenziation im Zeitbereich

Setzt man voraus, dass die Funktion y(t) fr t > 0 dierenzierbar ist, und dass die
Laplace-Transformierte von y(t)

existiert, dann ergibt sich durch partielle Integration

dy(t)
dt

0
1
dy(t) st
+s
e
dt = y(t)est
dt
0

y(t)est dt

= sY (s) y(0)
die Dierenziationsregel im Zeitbereich. Durch wiederholtes Anwenden dieser Regel findet man die Beziehung
9
 n
d y(t)
L
= sn Y (s) sn1 y(0) sn2 y(0)

. . . y (n1) (0)
(4.74)
dtn
fr hhere Ableitungen. Diese Eigenschaft ist zur Laplace-Transformation einer Dierenzialgleichung wichtig.
4.3.4.5

Skalierung

Streckt oder staucht man die Zeitachse durch die Transformation t at , a > 0, so
ergibt sich ber

L{y(at)} =

y(at)est dt =

at =
a dt = d

1
=
a

y( )e a d

der hnlichkeitssatz der Laplace-Transformation fr die skalierte Zeitachse:


L{y(at)} =

1 's(
.
Y
a
a

(4.75)

4.3 Laplace-Transformation
4.3.4.6

153

Faltung

Die Multiplikation zweier Funktionen im Zeitbereich entspricht der Faltung der beiden
Laplace-Transformierten, wobei die Faltung im Frequenzbereich geeignet, d.h. unter
Verwendung eines Vorfaktors, zu definieren ist. Man rechnet dazu:

1
y1 (t) y2 (t) =
2j
=

1
2j

cj

c+j

cj

1
2j

1
=
2j

1
Y1 (s1 )
2j

1
2j

=L

1
Y1 (s1 )
2j

c+j

1
2j

d+j

dj
1

c+j

cj

dj

s = s1 + s2
ds = ds2

cj

d+j

1
Y1 (s1 )es1 t ds1
Y2 (s2 )es2 t ds2
2j

c+j

d+j

d+j

dj

Y2 (s2 )e(s1 + s2 )t ds2 ds1

d+j

dj

Y2 (s s1 )est ds ds1

Y1 (s1 )Y2 (s s1 )est ds ds1

dj

1
2j

c+j

cj

{Y1 (s) Y2 (s)} .

Y1 (s1 )Y2 (s s1 ) ds1 est ds

Entsprechend lsst sich die Faltung zweier Funktionen im Zeitbereich als Multiplikation
der beiden Laplace-Transformierten darstellen:
L{y1 (t) y2 (t)} = Y1 (s) Y2 (s) .
4.3.4.7

(4.76)

Grenzwertstze

Die Grenzwertstze der Laplace-Transformation ermglichen eine vereinfachte Berechnung von Grenzwerten einer Funktion y(t) fr t 0 und t aus den Grenzwerten
von sY (s). Da es sich bei den Laplace-Transformierten oft um verhltnismig einfache
algebraische Funktionen handelt, sind die Grenzwerte im Frequenzbereich gelegentlich
einfacher zu berechnen.

4 Zeitkontinuierliche Systeme

154
1. Anfangswertsatz
Fr n = 1 ergibt die Dierenziationsregel (4.74)

dy(t)
dt

dy(t) st
e
dt = sY (s) y(0).
dt

Betrachtet wird nun eine Funktion y(t), die einen Sprung mit Hhe h bei t = 0
besitze:
y(t) = y(t) + h (t).
Dabei ist y(t) eine Restfunktion ohne Sprung bei t = 0. Die Ableitung dieser
Funktion ergibt
d
y (t)
dy(t)
=
+ h (t)
dt
dt
Lsst man s gehen, wobei Re{s} wesentlich ist, so folgt wegen est 0
fr t > 0

lim

s
0

dy(t) st
d
y (t) st
e
dt = lim
e
dt + h lim
(t)est dt = h,
s
s
dt
dt
0
0






0

=1

falls die Laplace-Transformierte von y(t)

existiert. Es folgt der Anfangswertsatz


der Laplace-Transformation:
(4.77)

lim sY (s) = y(0) + h = y(0+) .

wobei h die Sprunghhe der Unstetigkeit an der Stelle t = 0 ist. Besitzt y(t) keine
Unstetigkeit bei t = 0, ist h = 0 und y(0) = y(0+).
2. Endwertsatz
Lsst man dagegen s 0 gehen, so erhlt man wegen est 1 und

lim

s0
0

dy(t) st
e
dt =
dt

dy(t)
dt = y() y(0)
dt

= lim [sY (s) y(0)] = lim sY (s) y(0)


s0

s0

4.3 Laplace-Transformation

155

den Endwertsatz der Laplace-Transformation:

lim sY (s) = y() .

s0

4.3.5

(4.78)

Rcktransformation

Ist fr ein Problem die Lsung im Bildbereich ermittelt worden, so besteht in vielen
Fllen die Aufgabe nun noch darin, die Lsung in den Zeitbereich zurckzutransformieren. Die theoretische Rcktransformation besteht in der Auswertung des komplexen
Umkehrintegrals (4.69). Dies ist aber im Allgemeinen nicht einfach.
Eine weitere Mglichkeit besteht in der Anwendung von Korrespondenztabellen. Damit
kann die gesuchte Umkehrfunktion oft direkt einer Tabelle entnommen werden. Dabei
muss die Bildfunktion durch einige Umformungen in Ausdrcke umgewandelt werden,
die man in solchen Korrespondenztabellen wiederfindet. Im Folgenden wird die Rcktransformation ber die Residuen und durch Partialbruchzerlegung vorgestellt.
4.3.5.1

Residuensatz

Die Bildfunktion Y (s) sei eine Laplace-Transformierte, die in der endlichen s-Ebene
(s-Ebene ohne den Punkt ) als einzige Singularitten Pole s1 , . . . , sM besitzt. Da
Y (s) in der Halbebene rechts eines gewissen R holomorph ist, liegen diese Pole
smtlich in der Halbebene links von , vgl. (4.67). Weiterhin sei Y(s) eine gebrochen
rationale Funktion Z(s)/N (s) mit grad [Z(s)] < grad [N (s)]. Am Rande der Halbebene
der absoluten Konvergenz des zu Y (s) gehrenden Laplace-Integrals werde nun eine
Gerade g parallel zur komplexen Achse gelegt, vgl. Abbildung 4.7, welche den konstanten
Realteil Re{g} = besitzt.

Abbildung 4.7: Zur Berechnung des


komplexen Umkehrintegrals mit Re{s} >

4 Zeitkontinuierliche Systeme

156

Von g ausgehend werden Kurven Hn , n = 1, 2, . . . gezogen, die in + jRn beginnen


und in jRn enden. Dabei soll Rn eine Folge reeller Zahlen mit Rn fr n
bezeichnen. Die Endpunkte der Kurven Hn definieren ein Geradenstck gn der Gerade
g, welches mit wachsendem n in die gesamte Gerade g bergeht. Bezeichnen wir nun
die aus gn und Hn bestehende geschlossene Kurve mit
Cn = gn + Hn ,
dann sollen die Hn so gelegt werden, dass das Innere jeder Kurve Cn+1 auer dem
Inneren der vorhergehenden Kurve Cn noch mindestens einen weiteren Pol umschliet.
Falls Y (s) nur endlich viele Pole hat, ist diese Forderung hinfllig, sobald alle Pole
von einem Cn umschlossen werden. Jedes weitere Cn soll dann ebenfalls smtliche Pole
einschlieen.
Nach dem Residuensatz (2.127) gilt nun fr n M :
1
2j

Y (s)est ds =

M


k=1

Cn

Res{Y (s)est ; sk }.

(4.79)

Da est in der endlichen Ebene berall holomorph ist, fallen die Pole von Y (s)est mit
den Polen von Y (s) zusammen. Fr (4.79) kann man auch
1
2j

Y (s)est ds +

1
2j

gn

Y (s)est ds =

M


k=1

Hn

Res{Y (s)est ; sk }

(4.80)

schreiben. Lsst man nun n streben, dann geht dabei [Fl80]


1
2j

Y (s)est ds 0.

Hn

Aus (4.80) folgt wegen gn g die Formel fr die Rcktransformation mit Hilfe des
Residuensatzes:
1
y(t) =
2j

+j

Y (s)est ds =

M


k=1

Res{Y (s)est ; sk } , t 0 .

(4.81)

Die Rcktransformation mittels des Residuensatzes kann man sich auch dadurch anschaulich machen, dass im Grenzbergang n mit gn ber ein abgeschlossenes
Kreisringgebiet mit dem Punkt integriert wird.
Die Vorgehensweise bei der Bestimmung der Originalfunktion mittels des Residuensatzes wird nun anhand eines Beispiels vorgefhrt.

4.3 Laplace-Transformation

157

Beispiel 4.82 (Residuensatz)


Betrachtet man die Laplace-Transformierte
Y (s) =

3s2 2s + 1
,
s2 + s 1

s3

so berechnen sich die Nullstellen des Nennerpolynoms zu


s1 = j

s2 = j

s3 = 1 .

Mittels des Residuensatzes folgt nun


1
y(t) =
2j

+j

Y (s)est ds =

3


k=1

Res{Y (s)est ; sk }.

Hierbei ist eine reelle Zahl, die so gro sei, dass der Konvergenzbereich von Y (s)
die Gerade von j bis +j umfasst. Mit der Berechnungformel (2.125) lassen
sich die Residuen einfacher Polstellen durch
Res{Y (s)est ; sk } = lim (s sk )Y (s)est
ssk

berechnen. Somit ergibt sich fr den Pol s1 = j das Residuum


Res{Y (s)est ; s1 } = lim (s + j)Y (s)est
sj

3s2 2s + 1 st
e
sj (s j)(s 1)
3j 2 + 2j + 1 jt
e
=
(2j)(j 1)
= 1 ejt .
= lim

Analog berechnet man die Residuen


Res{Y (s)est ; s2 } = ejt
und
Res{Y (s)est ; s3 } = et .
Mit diesen folgt die Originalfunktion
y(t) = ejt + ejt + et = 2 cos(t) + et

, t 0.

4 Zeitkontinuierliche Systeme

158
4.3.5.2

Partialbruchzerlegung

Fr die Partialbruchzerlegung geht man bei der Laplace-Transformierten Y (s) von einer
teilerfremden rationalen Funktion
Y (s) =

Z(s)
N (s)

mit grad [Z(s)] < grad [N (s)] aus. Das Nennerpolynom N (s) sei durch
N (s) = q0 (s s1 )1 . . . (s sM )M
dargestellt. Fr alle s C, fr die N (s) = 0 gilt, kann die Bildfunktion Y (s) in Partialbrche zerlegt werden:
a12
a11
a11
+
+ +
s s1
(s s1 )2
(s s1 )1
a21
a22
a22
+
+ +
+
s s2
(s s2 )2
(s s2 )2
..
.
aM 1
aM 2
aM M
+
.
+
+ +
s sM
(s sM )2
(s sM )M

Y (s) =

(4.83)

Hierbei sind die


aij

, i = 1, 2, . . . , M

, j = 1, 2, . . . , i

eindeutig bestimmte Konstanten. Die Koezienten aii bei der hchsten Nenner-Ordnung knnen durch
aii = lim Y (s) (s si )i
ssi

, i = 1, 2, . . . , M

(4.84)

berechnet werden. Die anderen Koezienten ermittelt man am einfachsten durch Ausmultiplizieren und Koezientenvergleich, welcher auf ein lineares Gleichungssystem
fhrt. Hat man die Laplace-Transformierte Y (s) in einzelne Partialbrche zerlegt, so
kann man diese mittels
aij
aij
(4.85)

tj1 esi t
(s si )j
(j 1)!
zurcktransformieren. Hierzu ein kleines Beispiel.
Beispiel 4.86 (Partialbruchzerlegung)
Die Laplace-Transformierte
Y (s) =

3s2 2s + 1
s2 + s 1

s3

4.3 Laplace-Transformation

159

besitzt das Nennerpolynom


N (s) = s3 s2 + s 1 = (s + j) (s j) (s 1).
Hieraus folgt mit dem Ansatz der Partialbruchdarstellung
Y (s) =

a21
a11
a31
+
+
(s + j) (s j) (s 1)

und mit der Berechnung der einzelnen Koezienten



3s2 2s + 1 
=1
a11 =

(s j)(s 1) 
s=j

3s2 2s + 1 
=1
a21 =

(s + j)(s 1) 
s=j

3s2 2s + 1 
a31 =
=1

(s + j)(s j) 
s=1

die Partialbruchdarstellung der Laplace-Transformierten Y (s).


Y (s) =

1
1
1
+
+
s+j
sj
s1

Hieraus lsst sich nun die Rcktransformierte leicht ermitteln:


y(t) = L1 {Y (s)}
1
1
1
= L1 {
} + L1 {
} + L1 {
}
s+j
sj
s1
= ejt + ejt + et , t 0
= 2 cos(t) + et

,t 0

Bemerkung 4.87

Die Ergnzung t 0 kann vermieden werden, indem aus den Korrespondenztabellen


ein Term (t) mitgefhrt wird. In diesem Fall lautet die vorletzte Zeile des vorherigen
Beispieles:
(
'
y(t) = ejt (t) + ejt (t) + et (t) = 2 cos(t) + et (t)

Das Mitfhren des Ausdrucks (t) bei den weiteren Berechnungen ist umstndlich,

oft aber auch hilfreich.

4.3.6

Anwendung bei der Systembeschreibung

Um den Rahmen dieses Buches nicht zu sprengen, sei fr eine grere Menge an Anwendungen der Laplace-Transformation auf andere Quellen, wie z.B. [Fl80], verwiesen. Hier

4 Zeitkontinuierliche Systeme

160

soll das Ausgangssignal eines linearen Dierenzialgleichungssystems betrachtet werden.


Weiterhin soll die Zustandsraumdarstellung, wie sie in Abschnitt 4.2.1 eingefhrt wurde,
mit den durch die Laplace-Transformation zur Verfgung gestellten Methoden bearbeitet werden.
4.3.6.1

Lineares Dierenzialgleichungssystem

Die Laplace-Transformierte des Ausgangssignals ya (t) eines Systems, dessen Verhalten


durch eine lineare Dierenzialgleichung der Form (4.42),
n


a ya() (t) =

m


b ye() (t),

=0

=0

beschrieben ist, erhlt man zu

0=L
=

m


b ye() (t)

=0

m


=0

b L{ye() (t)}

n


=0
n


=0

a ya() (t)

(4.88)

a L{ya() (t)}.

(4.89)

Mit dem Dierenziationssatz der Laplace-Transformation, (4.74), und unter Beachtung


der Tatsache, dass bei einem kausalen LTI-System die Funktionswerte und die Werte
aller Ableitungen von ya (t) und ye (t) zum Zeitpunkt 0 verschwinden, folgt fr die
Ableitungen
L{ye() (t)} = s Ye (s) bzw.

L{ya() (t)} = s Ya (s).

Hieraus folgt nun die Laplace-Transformierte des Ausgangssignals ya (t) eines Systems,
welches durch eine lineare Dierenzialgleichung beschrieben wird, ber den Zwischenschritt
0=

m


=0

b s Ye (s)

n


a s Ya (s)

=0

als

Ya (s) =

m


=0
n


b s
a s

Ye (s).

(4.90)

=0

Der Bruch heit bertragungsfunktion des Systems, ein Begri, der in Abschnitt 4.4
genauer eingefhrt und betrachtet werden wird.

4.3 Laplace-Transformation
4.3.6.2

161

Laplace-Transformation der Zustandsdarstellung

Aus der Zustandsraumdarstellung (4.48),


z(t)

= A z(t) + B y e (t)

(4.91)

y a (t) = C z(t) + D y e (t),

(4.92)

folgt mittels der Laplace-Transformation


sZ(s) z(t0 ) = A Z(s) + B Y e (s)
Y a (s) = C Z(s) + D Y e (s).
Geht man davon aus, dass das System sich vor der Anregung in Ruhe befand, so folgt
z(t0 ) = 0 und somit mittels einfacher Rechnung
Z(s) = (sI A)1 B Y e (s)
und
:
;
Y a (s) = C(sI A)1 B + D Y e (s).

Somit erhlt man bei der Definition

G(s) = C(sI A)1 B + D

(4.93)

eine Gleichung fr das Ausgangssignal:


Y a (s) = G(s)Y e (s) .

(4.94)

Die Matrix G(s) wird dann in Anlehnung an oben erwhnte bertragungsfunktion als
bertragungsmatrix bezeichnet. Das Element in der i-ten Zeile und der j-ten Spalte,
Gij (s), entspricht der bertragungsfunktion eines Systems, welches mit (y e (t))j angeregt wird und darauf mit (y a (t))i reagiert.
Bemerkung 4.95
Da es sich bei der Gleichung
z(t)

= A z(t) + B y e (t)

(4.96)

um eine Dierenzialgleichung handelt, kann, sofern diese lsbar ist, eine Lsung
berechnet werden. Hierbei bedient man sich der blichen Vorgehensweise, indem
man erst die Lsung der homogenen Gleichung
z(t)

= A z(t)
berechnet und anschlieend den Ansatz der Variation der Konstanten whlt. Hier
wird lediglich die Lsung angegeben, fr eine Herleitung sei beispielsweise auf [Fli91]
verwiesen.

4 Zeitkontinuierliche Systeme

162

Die Lsung der Vektorgleichung (4.96) lsst sich mit Hilfe der Definition
(t) = eAt

(4.97)

als
z(t) = eA(t t0 ) z(t0 ) +

eA(t ) B y e ( )d

t0

= (t t0 )z(t0 ) +

(t ) B y e ( )d

t0

(4.98)

berechnen. Als Ausgangssignal erhlt man damit durch Einsetzen


ya (t) = C (t t0 )z(t0 ) +

t0

4.3.7

C (t ) B y e ( )d + Dy e (t). (4.99)

Vergleich zwischen Laplace- und


Fourier-Transformation

Zur Diskussion, welche Transformation nun besser ist, sei angemerkt, dass dies stark
von der Anwendung abhngt.
Die Laplace-Transformation ist fr die analytische Behandlung kausaler Signale vorteilhaft. Sie kann ohne Beachtung einer Vielzahl von Regeln angewendet werden. Der
Vorrat an konvergierenden Funktionen ist grer. Aufgrund der einfachen Lsung linearer Dierenzialgleichungen in (4.90) wird die Laplace-Transformation zur Beschreibung
des bertragungsverhaltens von linearen Systemen angewendet.
Die Fourier-Transformation vermittelt dem Ingenieur besser die Anschauung, dass ein
Signal aus harmonischen Schwingungen zusammengesetzt ist. Alle leistungsfhigen numerischen Verfahren wie DFT und FFT gehen auf die Fourier-Transformierte zurck.
Insgesamt kann fr Fourier- und Laplace-Transformation auf [Fli91, Pap77, Fl80,
Doe76, BS00, Ach78] verwiesen werden.

4.4

Systemfunktion

Bei LTI-Systemen war das Ausgangssignal nach (4.26) als Faltung des Eingangssignales
mit der Impulsantwort des Systems entstanden,
ya (t) = g(t) ye (t),
d.h. das System wird durch die Impulsantwort beschrieben. Fhrt man mit (4.26) die
Laplace-Transformation durch, so ergibt sich unter Beachtung des Faltungssatzes der

4.4 Systemfunktion

163

Laplace-Transformation die Bildfunktion des Ausgangssignals als Produkt der Bildfunktionen von Impulsantwort und Eingangssignal.
Ya (s) = G(s) Ye (s)
Hier ist das System durch die Laplace-Transformierte der Impulsantwort eindeutig beschrieben. Diese Laplace-Transformierte nennt man Systemfunktion G(s) des Systems.
Sobald im Folgenden der Begri der Impulsantwort oder der bertragungsfunktion benutzt wird, ist dies auf ein LTI-System bezogen.
Definition 4.100 (Systemfunktion)
Die Laplace-Transformierte G(s) der Impulsantwort g(t) eines LTI-Systems S heit
Systemfunktion oder auch bertragungsfunktion.
(4.101)

g(t) = S{(t)}
G(s) = L{g(t)} =

g(t)est dt

(4.102)

Bemerkung 4.103
Da die Systemfunktion eines Systems durch Anwendung der Laplace-Transformation
berechnet wird, ist eine Rechnung mit Systemfunktionen nur unter Angabe von
Konvergenzgebieten vollstndig. Dies wird im Folgenden nicht immer durchgefhrt,
sondern es wird davon ausgegangen, dass man sich bei Berechnungen im Bildbereich
innerhalb dieses Konvergenzgebietes befindet.
Oft ergeben sich aus den zugrunde liegenden Voraussetzungen schon Forderungen an
das Konvergenzgebiet. Beispielsweise wird gezeigt werden, dass ein stabiles, kausales,
zeitkontinuierliches LTI-System nur Pole links der imaginren Achse besitzt.

In Abschnitt 4.3.6.1 wurde die Bildfunktion Ya (s) des Ausgangssignals ya (t) eines linearen Dierenzialgleichungssystems in (4.90) als Produkt einer gebrochen rationalen
Funktion und der Bildfunktion Ye (s) des Eingangssignals ye (t) dargestellt:
m


b s

=0

Ya (s) = 
n

a s

Ye (s) .

=0

Diese gebrochen rationale Funktion ist die Systemfunktion

G(s) =

m


=0
n

=0

b s
=
a s

Z(s)
N (s)

(4.104)

4 Zeitkontinuierliche Systeme

164

des durch das lineare Dierenzialgleichungssystem beschriebenen LTI-Systems. In der


Darstellung (4.104) heien Z(s) das Zhlerpolynom und N (s) das Nennerpolynom von
G(s).
Bemerkung 4.105
Aufgrund der bedingten Sprungfhigkeit technischer Systeme erfllen reale bertragungsfunktionen die Bedingung m n, d.h. Zhlergrad Nennergrad.

4.4.1

Pol- und Nullstellen

Aus der Funktionentheorie ist bekannt, dass es fr gebrochen rationale Funktionen


verschiedene Darstellungsformen gibt, und jede dieser Formen unter bestimmten Voraussetzungen Vorteile besitzt. Wenn mit s0 die Nullstellen des Zhlerpolynoms Z(s),
d.h. die Nullstellen der bertragungsfunktion G(s), und mit s die Nullstellen des
Nennerpolynoms N (s), d.h. die Polstellen der bertragungsfunktion G(s), bezeichnet
werden und mittels Normierung an = 1 gilt, erhlt man die Darstellung der bertragungsfunktion in Linearfaktoren von Zhler- und Nennerpolynom.

G(s) = G0

m
<

=1
n
<

=1

(s s0 )

(s s )

(4.106)

,m n

Mit Hilfe der Partialbruchzerlegung erhlt man fr m < n bei einfachen Polen die
bertragungsfunktion in Summendarstellung,
G(s) =

n


A
,
s s
=1

die man dann einfach zurcktransformieren kann:


g(t) =

n


=1

A es t (t) .

Setzt man die Impulsantwort in die Bedingung fr die Stabilitt des LTI-Systems (4.37)
ein, so erhlt man mit der Dreiecksungleichung folgende Abschtzung:



n
n




t
s
|g(t)| dt =
A e (t) dt
|A | es t dt .




=1

=1

Die einzelnen Integrale konvergieren, wenn die Realteile der Polstellen s negativ sind.
Dies ist die Stabilittsbedingung fr die Pole von LTI-Systemen.

4.4 Systemfunktion

165

Satz 4.107 (Stabilitt)


Ein kausales LTI-System S ist genau dann stabil, wenn alle Polstellen der bertragungsfunktion G(s) in der oenen linken Halbebene liegen, d.h. die Bedingung
Re{s } < 0

(4.108)

fr alle erfllt ist.

Diese Bedingung ist nicht mit der Konvergenzbedingung der Laplace-Transformation


Re{s} > zu verwechseln.
Bemerkung 4.109
1. Im Fall mehrfacher Pole erhlt man eine Darstellung der Form
G(s) =

n
K 


=1 i=1

A,i
,
(s s )i

(4.110)

wobei die Vielfachheit des Poles s durch n gegeben ist. Transformiert man
diese Ausdrcke in den Zeitbereich zurck, so erhlt man die Zeitfunktion
g(t) =

n
K 

A,i i1 s t
(t).
t e
(i 1)!
=1 i=1

Da bei gltiger Bedingung (4.108) im Falle einer Integration der exponentielle


Term es t strker ist als der polynomiale Term ti1 , konvergiert auch dort
das Integral. Somit ist also die Bedingung (4.108) immer hinreichend fr die
Stabilitt eines kausalen LTI-Systems.
2. Aus der Forderung (4.108) folgt auch, dass ein stabiles, kausales LTI-System
keinen Pol bei besitzen darf, woraus fr die bertragungsfunktion eines
solchen Systems stets Zhlergrad Nennergrad folgt.

Definition 4.111 (Reellwertige Systeme)


Ein kausales LTI-System, welches auf ein reelles Eingangssignal mit einem reellen
Ausgangssignal antwortet, wird als reellwertig bezeichnet.
Satz 4.112 (Reellwertige Systeme)
Ein kausales LTI-System ist genau dann reellwertig, wenn fr seine bertragungsfunktion
G (s) = G(s )

(4.113)

gilt. Somit sind fr Pole und Nullstellen der bertragungsfunktion stets auch die
komplex konjugierten Gren Pole und Nullstellen.

4 Zeitkontinuierliche Systeme

166
Beweis:

Bei einem LTI-System erhlt man das Ausgangssignal durch die Faltung
ya (t) = g(t) ye (t).
Das Ausgangssignal eines reellen, kausalen LTI-Systems ist somit genau dann reellwertig, wenn die Impulsantwort g(t) reellwertig ist. Die konjugiert komplexe bertragungsfunktion ist damit

G (s) =

g(t)es t dt = G(s ).

Aufgrund dessen ist bei einem Pol s oder einer Nullstelle s0 stets auch deren
komplex konjugierte Gre ein Pol s bzw. eine Nullstelle s0 .

Fr ein reellwertiges System ergeben sich aus Gleichung (4.113) die Folgerungen
|G(s)| = |G(s )|,
arg{G(s)} = arg{G(s )}.

(4.114)
(4.115)

Wie in [Fli91] aufgefhrt, ist somit die allgemeine Darstellung solch einer bertragungsfunktion mit m0 Nullstellen in s = 0, m1 einfachen Nullstellen ungleich null, m2
komplexen Nullstellenpaaren, n0 Polstellen in s = 0, n1 einfachen Polstellen ungleich
null und n2 komplexen Polstellenpaaren durch
sm0

m
<1

=1

G(s) = G0
sn0

n1
<

=1

(s s0 )

(s s )

m
<2

=1
n2
<

=1

|s

+ |s0 |2 )
(s2 + s Q0
0

|
2
(s2 + s |s
Q + |s | )

(4.116)

gegeben, wobei der Zhlergrad m = m0 + m1 + 2m2 bzw. der Nennergrad n = n0 +


n1 + 2n2 sind. Die Parameter Q0 bzw. Q werden auch als Nullstellengten bzw.
Polstellengten bezeichnet.
Der Faktor G0 ergibt sich mittels Gleichung (4.104) als
G0 =

bm
.
an

Da die Koezienten b und a des Zhler- bzw. des Nennerpolynoms fr reellwertige


Systeme reell sind, ist somit fr reellwertige LTI-Systeme der (Verstrkungs-)Faktor G0
eine reelle Gre.
Bemerkung 4.117
Bei einem stabilen, reellen, kausalen LTI-System liegen die Pole der bertragungsfunktion links der imaginren Achse. Nach Satz 4.38 erhlt man den zugehrigen

4.4 Systemfunktion

167
j2pf
-s*

s
x

d
x

-s

s*

Abbildung 4.8: Spiegelung der Pole einer


bertragungsfunktion G(s) am Ursprung

Amplitudengang |G(f )| aus der bertragungsfunktion G(s) durch Einsetzen von


s = j2f :
|G(f )|2 = G(s)G (s)|s=j2f = G(s)G(s )|s=j2f .

(4.118)

Der Amplitudengang kann auch ber die Beziehung


|G(f )|2 = G(s)G(s)|s=j2f

(4.119)

berechnet werden, da bei s = j2f der Realteil von s zu Null gesetzt wird. Bei einem
stabilen, reellen, kausalen LTI-System G(s) wird mit dem bergang auf G(s) ein
instabiles, reelles, antikausales LTI-System erzeugt. Die Pole von G(s) entstehen
durch Negieren des Real- und des Imaginrteils der Pole von G(s). Dies entspricht
einer Spiegelung der Pole am Ursprung der komplexen Ebene, vgl. Abbildung 4.8.
Will man einem gewnschten Amplitudengang |G(f )|2 ein stabiles, reelles, kausales
LTI-System G(s) zuordnen, so whlt man aus den Polen von G(s)G(s) gerade die

links der imaginren Achse liegenden Pole aus.


Bemerkung 4.120
Auch konjugiert komplexe Pole, wie sie in reellwertigen LTI-Systemen auftreten,
fhren bei der Stabilittsbetrachtung auf dieselben Resultate wie in Gleichung
(4.108). Hat man nmlich ein solches komplex konjugiertes Polpaar s1 und
s2 = s1 , 1 = 2 , vorliegen, so liest man aus (4.113) ab, dass die zugehrigen Koezienten in der Partialbruchentwicklung ebenfalls zueinander konjugiert
sind, d.h. A2 = A1 . Somit erhlt man nach der Rcktransformation Ausdrcke der
Gestalt
|A1 |

es1 t dt + |A1 |

es1 t dt = |A1 |

'
0

es1 t + es1 t dt.

Auch dieses Integral konvergiert genau dann, wenn Re{s1 } = Re{s2 } < 0 gilt.

4 Zeitkontinuierliche Systeme

168

4.4.2

Verknpfung von Systemfunktionen

Systeme setzen sich hufig aus vielen Teilsystemen zusammen, die ihrerseits wiederum
aus Teilsystemen bestehen. Um den Aufbau eines Systems darzustellen, werden so genannte Blockschaltbilder verwendet, die ein System darstellen, indem die Teilsysteme
und deren Verknpfungen graphisch dargestellt werden. Die einfachsten Systeme bestehen aus einem Block, der elementare Operationen an dem Eingangssignal vornimmt.
Als Beispiel hierzu dient beispielsweise ein Integrationsblock, der das Ausgangssignal
aufintegriert oder ein Dierenziationsblock, der das eingehende Signal dierenziert. Eine
Darstellung der wichtigsten Blockbilder findet man in Anhang D. Die Strukturdarstellung eines Systems, wie sie in Abschnitt 4.4.6 eingefhrt wird, ist ein Spezialfall der
Darstellung mittels Blockschaltbildern.
Nun stellt sich die Frage, auf welche Weise Elementarblcke bzw. komplexe Systeme
zu verknpfen sind. Deshalb wird in diesem Abschnitt untersucht, wie sich die gesamte
bertragungsfunktion bei Verknpfung einzelner Systeme zu einem gesamten System
ermitteln lsst.
In Abbildung 4.9 werden die beiden Flle Hintereinanderschaltung und Addition von
Signalen dargestellt, mit deren Hilfe eine Aufgliederung in Teilsysteme bzw. eine Fusion
zu einem Gesamtsystem beschreibbar ist.
ye(t)

S1

ya1(t)

S1

S2

ya(t)

ya1(t)

ye(t)

ya(t)

S2

ya2(t)

Abbildung 4.9: Verknpfung von Systemen

Bei der Hintereinanderschaltung bildet das Ausgangssignal


ya1 (t) = g1 (t) ye (t) = S1 {ye (t)}

des Systems S1 mit der Impulsantwort g1 (t) das Eingangssignal des Systems S2 mit der
Impulsantwort g2 (t) :
ya (t) = g2 (t) ya1 (t) = g2 (t) (g1 (t) ye (t)) = S2 {S1 {ye (t)}} .

Fhrt man diese Operation im Bildbereich durch, so ergibt sich die gesamte bertragungsfunktion der beiden hintereinander geschachtelten Systeme als Produkt ihrer
einzelnen bertragungsfunktionen:
Ya1 (s) = G1 (s) Ye (s)
Ya (s) = G2 (s) Ya1 (s) = G2 (s) (G1 (s) Ye (s))
= (G1 (s) G2 (s)) Ye (s)

4.4 Systemfunktion

169

Satz 4.121 (Hintereinanderschaltung von Systemen)


Werden ein System S1 mit der bertragungsfunktion G1 (s) und ein System S2
mit der bertragungsfunktion G2 (s) hintereinandergeschaltet, so wird die gesamte
bertragungsfunktion als Produkt der beiden einzelnen bertragungsfunktionen beschrieben:

G(s) = G1 (s) G2 (s) .


Bei der Addition der beiden Ausgangssignale,
ya (t) = ya1 (t) + ya2 (t) = (g1 (t) ye (t)) + (g2 (t) ye (t)),
ergibt sich nach Transformation in den Bildbereich die gesamte bertragungsfunktion
als Summe der beiden einzelnen bertragungsfunktionen
Ya (s) = (G1 (s) Ye (s)) + (G2 (s) Ye (s)) = (G1 (s) + G2 (s)) Ye (s) .
Satz 4.122 (Addition zweier Ausgangssignale von Systemen)
Werden bei gleichem Eingangssignal das Ausgangssignal ya1 (t) eines Systems S1 mit
der bertragungsfunktion G1 (s) und das Ausgangssignal ya2 (t) eines Systems S2 mit
der bertragungsfunktion G2 (s) addiert, so verhlt sich das resultierende System wie
ein System mit der bertragungsfunktion G(s), die als Summe der beiden einzelnen
bertragungsfunktionen,
G(s) = G1 (s) + G2 (s),
beschrieben wird.
Die Verknpfung von Systemen wird an zwei Beispielen demonstriert.

Beispiel 4.123 (Verknpfung von drei Systemen)


Die Systeme S1 , S2 und S3 werden, wie in Abbildung 4.10 gezeigt, verknpft.
Mit Hilfe der Verknpfungregeln ergibt sich sofort
G(s) = (G1 (s) G2 (s)) + G3 (s)
als die das bertragungsverhalten des gesamten Systems beschreibende bertragungsfunktion.

S1

ya1(t)

S2

ye(t)

ya2(t)
ya(t)

S3

ya3(t)

Abbildung 4.10: Beispiel der Verknpfung


dreier Systeme

4 Zeitkontinuierliche Systeme

170
ye(t)

ye1(t)

S1

ya(t)

Abbildung 4.11: Beispiel der Verknpfung


eines Systems mit Rckkopplung

Beispiel 4.124 (Verknpfung eines Systems mit Rckkopplung)


Das System S1 wird, wie in Abbildung 4.11 gezeigt, ber eine Rckkopplung verknpft.
Das Ausgangssignal
ya (t) = g1 (t) ye1 (t)
wird dabei ber eine Rckkopplung zum Eingangssignal ye (t) addiert. Diese Summe
ye1 (t) = ye (t) + ya (t)
dient als Eingangssignal des Systems S1 . Transformiert man die beiden Gleichungen
in den Bildbereich,
Ya (s) = G1 (s) Ye1 (s)
Ye1 (s) = Ye (s) + Ya (s),
so erhlt man die bertragungsfunktion des gesamten Systems mit Rckkopplung
wegen
Ya (s) = G1 (s) (Ye (s) + Ya (s))
zu
G(s) =

4.4.3

G1 (s)
.
1 G1 (s)

Frequenzgang

Bereits in Satz 4.38 wurde die Fourier-Transformierte G(f ) der Impulsantwort g(t) eines LTI-Systems als Frequenzgang eingefhrt. Sie ist gerade der Proportionalittsfaktor
zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung
ye (t) = A ej2f t
angeregt wird. Da die Fourier-Transformierte eines Signals im Allgemeinen komplexwertig ist, interessiert fr das bertragungsverhalten von Schwingungen der Betrag und
die Phase des Proportionalittsfaktors. Mit dem Frequenzgang
G(f ) = A(f ) ej(f ) ,
der sich, falls die komplexe Achse im Konvergenzbereich der Laplace-Transformation
liegt, aus G(s) durch s = j2f ergibt, lassen sich nun Betrag und Phase angeben.

4.4 Systemfunktion

171

Definition 4.125 (Amplitudengang)


Der Betrag des Frequenzganges

A(f ) = |G(f )| = (Re{G(f )})2 + (Im{G(f )})2

wird als Amplitudengang bezeichnet. Er beschreibt betragsmig den Zusammenhang zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen
Schwingung der Frequenz f angeregt wird.

Definition 4.126 (Dmpfung)


Die Dmpfung eines Systems mit dem Frequenzgang G(f ) ist durch
a(f ) = 20 log10 |G(f )|
gegeben. Die Dmpfung wird in Dezibel (dB) angegeben. Sie beschreibt, wie stark
die Amplitude eines Eingangssignals der Frequenz f beim Durchlauf durch das entsprechende System gedmpft wird, indem sie das Ein- und das Ausgangssignal in
Beziehung setzt und diese Gre logarithmisch bewertet.
Beispiel 4.127 (Dmpfung)
Eine Halbierung der Amplitude, |G(f )| = 12 , entspricht einer Dmpfung von
a(f ) = 20 log10 21 6 dB. Eine Verdopplung, |G(f )| = 2, die eine Verstrkung
des Eingangs darstellt, ergibt eine negative Dmpfung, a(f ) = 6 dB.

Definition 4.128 (Phasengang, Phase)


Der Winkel bzw. das Argument des komplexen Frequenzgangs

(
'

arctan Im{G(f )}
, Re{G(f )} 0
Re{G(f )}
(
'
(f ) = arg{G(f )} = G(f ) =

arctan Im{G(f )} , Re{G(f )} < 0


Re{G(f )}
wird als Phasengang oder Phase bezeichnet. Er beschreibt die unterschiedliche Phase
zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung der Frequenz f angeregt wird.

Bemerkung 4.129
1. Die Phase ist stets 2-periodisch. Deshalb wird die Phase meist in dem Intervall
von bis dargestellt. Wird der Wert unter- oder berschritten, resultiert
dies in einem Sprung der Phase. Dieser Sprung entsteht dann aber lediglich
aufgrund der Darstellung und spiegelt keine Charakteristik des Systems wider.

4 Zeitkontinuierliche Systeme

172

2. Im Falle Re{G(f )} = 0 ergibt sich das Argument des Arcustangens zu Unendlich und somit die Phase zu 2 . Dies ist auch intuitiv klar, wenn man sich
berlegt, dass die Bedingung Re{G(f )} = 0 gerade fr rein imaginre Zahlen
erfllt ist.
3. Bei der Definition 4.128 der Phase als Argument des Frequenzgangs entspricht
eine negative Phase eines Systems einer Verzgerung des Eingangssignals, beachte den Abschnitt 3.5.2.3. Diese Zuordnung erschwert zwar manchmal das ingenieurmige Verstndnis. Sie hat sich aber in dieser Form weitgehend durch
gesetzt.
Neben Amplitude und Phase interessiert auch die nderung der Phase im Verlauf der
Frequenz. Hierzu betrachtet man deren Ableitung:

Definition 4.130 (Gruppenlaufzeit)


Die Ableitung der Phase eines Systems nach der Frequenz
g (f ) =

1
1 d
(f ) =
(f )
2
2 df

bezeichnet man als Gruppenlaufzeit. Eine positive Gruppenlaufzeit entspricht einer


mit der Frequenz abfallenden Phase.

Durchluft ein Signal ein System mit gegebener Gruppenlaufzeit, so erfhrt jede Frequenzkomponente des Signals eine andere Laufzeit, vergleiche den Zeitverschiebungssatz
der Fourier-Transformation in Abschnitt 3.5.2.3.
Bemerkung 4.131
Ist ein System mit der bertragungsfunktion G(s) gegeben, so berechnet sich der
Frequenzgang ber G(f ) = G(s = j2f ). Das System wird nun mit einem Eingangssignal x(t) = s(t) cos(2f0 t) angeregt, welches durch Modulation eines sehr
schmalbandigen Informationssignals s(t) auf eine Trgerfrequenz f0 entsteht.
Aufgrund der vorausgesetzten Schmalbandigkeit um f0 ist G(f ) lediglich in dem
f
Frequenzbereich [f0 f
2 , f0 + 2 ] mit einer kleinen Breite f interessant. Ist diese
Breite des Frequenzbandes hinreichend klein, so kann dort die Phase als
(f ) 0 2g (f0 )f

, 0 = (f0 )

(4.132)

dargestellt werden. Mittels dieser Approximation ergibt sich fr den Frequenzgang


die Nherung
G(f ) |G(f0 )| ej(0 2g (f0 )f ) .

4.4 Systemfunktion

173

Fr das Ausgangssignal berechnet sich damit:


Y (f ) = X(f ) G(f )


1
= S(f ) [(f + f0 ) + (f f0 )] G(f )
2
1
[S(f + f0 ) + S(f f0 )] |G(f0 )| ej(0 2g (f0 )f )
2

1
j
0

= |G(f0 )|e
(S(f + f0 ) + S(f f0 )) ej2g (f0 )f
2
Durch inverse Fourier-Transformation ergibt sich das Ausgangssignal im Zeitbereich:
y(t) = |G(f )|ej0 s(t (f )) cos(2f (t (f )))
0

= |G(f0 )|ej0 x(t g (f0 )) .


Damit ist g (f0 ) die Laufzeit, welche ein Signal mit Spektralanteilen nur bei einer

Gruppe von Frequenzen um f0 beim Durchlauf durch das System bentigt.

Bemerkung 4.133
Die obigen Betrachtungen sind nur durchfhrbar, falls die Approximation in Gleichung (4.132) mglich ist. Diese entspricht der Entwicklung der Phase in eine Art
Taylor-Reihe und dem Abbruch der Entwicklung nach dem ersten Term. Somit ist
auch die Interpretation der Gruppenlaufzeit als Durchlaufzeit bestimmter Frequenz
gruppen durch das System nur bedingt zulssig.
Beispiel 4.134 (konstante Gruppenlaufzeit)

(f)

(f)

Ist beispielsweise g (f ) konstant, so entspricht dies einem System mit einem linearen
Phasenverlauf, wie in Abbildung 4.12 gezeigt ist.
Die Zacken in der Darstellung der Phase rhren, wie in Bemerkung 4.129 erwhnt,
von der Konvention, die Phase immer in dem Bereich von bis darzustellen.

4
2

0
f [Hz]

2
2

0
f [Hz]

Abbildung 4.12: Darstellung eines Systems mit linearem Phasenverlauf und daraus
resultierender konstanter Gruppenlaufzeit

4 Zeitkontinuierliche Systeme

174

Mit Gleichung (4.106) ist die Systemfunktion durch ihre Pol- und Nullstellen eindeutig
festgelegt. Damit knnen auch der Amplituden- und Phasengang eines Systems durch
die Pol- und Nullstellen beschrieben werden. Fr die Bestimmung von Amplituden- und
Phasengang wird die Systemfunktion G(s) an der Stelle j2f

G (s = j2f ) = G0

m
<

=1
n
<

=1

(j2f s0 )

(j2f s )

betrachtet. Dabei stellen j2f s bzw. j2f s0 die Dierenzen zwischen dem
Frequenzpunkt auf der imaginren Achse und den Pol- bzw. Nullstellen dar. Beschreibt
man die im Allgemeinen komplexen Dierenzen und die Konstante G0 in Polarkoordinaten,
j2f s0 = N ej , N 0
j2f s = P ej , P 0
G0 = C ej , C 0,
so erhlt man die Systemfunktion an der Stelle j2f
G (s = j2f ) = C
in Polarkoordinatendarstellung.

m
=

=1

n
=

=1

j + j
P1 e

m


=1

n


=1

In Abbildung 4.13 sieht man ein Beispiel fr eine Konstellation von 2 Pol- und 2 Nullstellen. Die Abstnde der Pol- und Nullstellen sind durch P bzw. N und die Winkel
der Verbindungsgeraden zur Abzisse durch bzw. gegeben.
Hieraus folgt der Amplitudengang in Pol-Nullstellendarstellung
A(f ) = |G (s = j2f )| = C

m
=

=1

n
=

P1

(4.135)

=1

j
1
2
s 02

P1

N2
P2

s 1

N1
s 2

2
s 01

Abbildung 4.13: Zusammenhang zwischen Pol-Nullstellendiagramm, Systemfunktion und Frequenzgang

4.4 Systemfunktion

175

und der Phasengang in Pol-Nullstellendarstellung:


(f ) = |G (s = j2f )| =

m


=1

n


(4.136)

=1

Bemerkung 4.137
Mit ansteigender Ordnung des Systems (=
> hhere Anzahl an Pol- und Nullstellen)
verndert sich der Phasengang strker ber der Frequenz.
Um diese Tatsache einzusehen, kann man sich die mglichen Verlufe von Polynomen

der Ordnungen 1, 2, 3 . . . in Erinnerung rufen.

4.4.4

Bode-Diagramme fr Dmpfung und Phase

Im vorigen Abschnitt wurden die Dmpfung und die Phase eines Systems eingefhrt.
Nun beschftigen wir uns mit der Frage, wie diese in konkreten Fllen angegeben oder
approximiert werden knnen. Die Dmpfung bzw. Phase waren definiert als
a(f ) = 20 log10 |G(f )|
bzw.
(f ) = arg{G(f )}.
Es wird gezeigt, wie diese Funktionen ber die bertragungsfunktion G(f ) approximiert
werden knnen. Hierbei wird in der Literatur blicherweise nicht die Frequenz, sondern die Kreisfrequenz als unabhngige Variable gewhlt, d.h. man betrachtet G() =
G(2f ). Die folgenden Betrachtungen skizzieren die Vorgehensweise und knnen ausfhrlich in [Fli91] nachgelesen werden:
Approximation des Dmpfungsverlaufs. Verwendet man die Form (4.116) einer bertragungsfunktion, so folgt fr die Dmpfung nach kurzer Rechnung
a(f ) = 20 log10 |G0 | + 20(n0 m0 ) log10 |j2f |




m
m

1



 (2f )2
j2f

1
20 log10  j2f
20
log




2
10
s0
|s0 |
Q0 |s0 |
=1
=m1 +1




n1
n



 (2f )2


j2f
+

1
20 log10  j2f
20
log

1


,
2
10 |s |
s
Q |s |
=1

wobei

=n1 +1

m
m
<
<1
|s0 |
|s0 |2
 
=1
=m1 +1

G0  = |G0 | <
n1
n
<
|s |
|s |2
=1

=n1 +1

gilt. Nun gilt es, die verschiedenen auftretenden Terme auf ihre Wirkung hin zu untersuchen. Der Ausdruck 20 log10 |G0 | ist ber alle Frequenzen konstant und beschreibt

4 Zeitkontinuierliche Systeme

176

eine Grunddmpfung. Der Term 20(n0 m0 ) log10 |j2f | entsteht durch die Pol- und
Nullstellen im Ursprung und resultiert in einer Dmpfung der Steigung (n0 m0 ) 6 dB
pro Oktave bzw. (n0 m0 )20 dB pro Dekade. Als Nchstes betrachten wir die Beitrge,
welche von den Pol- bzw. Nullstellen ungleich null herrhren.
Eine reelle Polstelle, s = , trgt zur Dmpfung den Term


 2f


20 log10 j
1

bei. Fr 2f  0 geht dieser Ausdruck gegen 0, whrend er fr 2f | | gegen




20 log10  2f
 , d.h. gegen eine Asymptote der Steigung 6 dB pro Oktave bzw. 20 dB

pro Dekade geht, welche bei 2f = | | die 0 dB-Achse schneidet. Der Beitrag reeller
Nullstellen zur Dmpfung ist bis auf das Vorzeichen derselbe.
Jetzt ist noch zu untersuchen, welchen Beitrag ein konjugiert komplexes Polstellenpaar
leistet. Hierzu betrachten wir



 
 
 2f
2f
2Re{s } 
(2f )2


 j
.
j 1  = 1
j2f
 s 1
s
|s |2
|s |2 

Dies strebt ebenfalls gegen null, wenn 2f gegen null geht. Im bergang 2f |s |
hingegen strebt die Dmpfung gegen eine Asymptote der Steigung 12 dB pro Oktave
bzw. 40 dB pro Dekade, welche bei 2f = |s | die 0 dB-Achse schneidet. Auch hier
ist der Beitrag eines konjugiert komplexen Nullstellenpaares bis auf das Vorzeichen
derselbe.
Mittels obiger Herleitungen kann somit der Dmpfungsverlauf eines Systems aus den
Pol- und Nullstellen der bertragungsfunktion durch berlagerung von Geradenstcken
entsprechend der jeweiligen Anteile approximiert werden.
Approximation des Phasenverlaufs. hnlich wie der Dmpfungsverlauf kann auch der
Phasenverlauf aus der bertragungsfunktion ermittelt werden. Ausgehend von Gleichung (4.106) berechnet sich die Phase, wie bereits gezeigt, zu

m
<

=1
m
<

(j2f s0 )

=1

(f ) = arg
n

G0 <
(j2f s )

|j2f s0 |ej

=1

= arg
n
G 0 <

|j2f s |ej
=1
m


= arg(G0 ) +

=1

n


=1

wobei die Winkel und dem Pol-Nullstellenplan entnommen werden knnen und
den Winkeln entsprechen, welche in mathematisch positiver Richtung von j = j2f

4.4 Systemfunktion

177

und der Parallelen durch einen Pol bzw. eine Nullstelle eingeschlossen werden. An dieser
Stelle wird auf die Approximation des Phasenverlaufs jedoch nicht nher eingegangen,
sondern auf [Fli91] verwiesen. Die entscheidende Idee liegt darin, die Anteile hnlich
zur Approximation des Amplitudenganges anzunhern.
Beispiel 4.138 (Bode-Diagramm der Dmpfung)
In dem folgenden Beispiel soll die Approximation der Dmpfung eines bertragungsgliedes mittels eines Bode-Diagrammes vorgefhrt werden. Hierzu betrachten wir das
System mit der bertragungsfunktion
G(s) =

(s + 1)(s2 + 2s + 4)
.
(s + 0, 5)(s + 8)(s2 + 0, 5s + 1)

(4.139)

Die Nullstellen bzw. Polstellen dieses Systems sind durch

s01 = 1 , s02/3 = 1 j 3
bzw.
s1 = 0,5 , s2 = 8 , s3/4

1
= j
4

15
16

gegeben.
Nach unseren Betrachtungen resultieren die Pol- bzw. Nullstellen dieser bertragungsfunktion in folgenden Beitrgen zur Dmpfung:
Bezeichnung
g1
g2
h3
h4
h5

Stelle
|s01 | = 1
|s02 | = 2
|s1 | = 0,5
|s2 | = 8
|s3 | = 1

Dmpfung
20 dB/Dekade
40 dB/Dekade
20 dB/Dekade
20 dB/Dekade
40 dB/Dekade

Diese Halb-Geraden beginnen auf der x-Achse an den Stellen der jeweiligen Polbzw. Nullstellen-Betrge. Bei einer logarithmierten x-Achse beginnt somit die HalbGerade g bzw h an der Stelle log10 (|s0 |) bzw. log10 (|s |). Zur Approximation
des Dmpfungsverlaufs mssen diese Halb-Geraden werden.
In Abbildung 4.14 sind die auftretenden approximierenden Geraden wie in der Legende beschrieben, der tatschliche Dmpfungsverlauf als dick gedruckte gestrichelte
Linie und der approximierte Dmpfungsverlauf als durchgehende Linie dargestellt.
Es ist erkennbar, dass die Approximation den Dmpfungsverlauf in diesem Beispiel
nur ungenau nachbildet. Dies fhrt dazu, dass solch eine Approximation nur dafr geeignet ist, sich einen groben berblick ber das Dmpfungsverhalten zu verschaen.
Um einen exakten Verlauf zu erhalten, ist es weiter unumgnglich, den tatschlichen
Verlauf zu berechnen.

4 Zeitkontinuierliche Systeme

178

g1

40

g2
h3
h4

30

h
20 log10 |G(f)|

20

10

10

10

10

10

10

2 f [Hz]

Abbildung 4.14: Approximierter (


) und tatschlicher () Dmpfungsverlauf des Systems
mit der bertragungsfunktion (4.139) sowie approximierende Elementarausdrcke

4.4.5

Minimalphasensystem und Allpass

Je nach Lage der Pole s relativ zur imaginren Achse unterscheidet man zwischen
stabilen und instabilen Systemen. Bei stabilen Systemen liegen die Pole in der linken
Halbebene.
Bewertet man die Nullstellen s0 von bertragungsfunktionen ebenfalls nach ihrer Lage
relativ zur imaginren Achse, so erhlt man als neue Klassen von Systemfunktionen die
Minimalphasensysteme und die Allpsse.
Es wird gezeigt werden, dass sich jede Systemfunktion in einen Minimalphasen- und
einen Allpassanteil zerlegen lsst. Hierzu definiert man zunchst den Allpass und das
Minimalphasensystem.
Definition 4.140 (Allpass)
Ein System mit gebrochen rationaler bertragungsfunktion, dessen Amplitudengang
A(f ) fr alle Frequenzen gleich eins ist, d.h. die Bedingung
A(f ) = |G(f )| = 1 , f R
erfllt, heit Allpass. Fr solche Systeme gilt zwangslufig, dass der Zhlergrad gleich
dem Nennergrad ist, und es drfen keine Pol- oder Nullstellen auf der imaginren
Achse liegen.

4.4 Systemfunktion

179

Aus der Forderung nach einem konstanten Amplitudengang A(f ) = 1 folgt


<
|j2f s0 |2

!
2
= 1.
|G(f )| = <
|j2f s |2

Um Triviallsungen auszuschlieen, fordern wir s0 = s , = . Der Betrag des


Zhlers ist gleich dem Betrag des Nenners, wenn
s0 = s

, =

gewhlt wird. Durch Einsetzen wird dies verifiziert.


<
<
|j2f + s |2
| j2f s |2

2
= <
=1
|G(f )| = <
|j2f s |2
|j2f s |2

Die Zhlerterme sind gerade konjugiert komplex zu den Nennertermen. Die Betrge
beider sind jeweils gleich.
Bei reellwertigen Systemen liegen immer zueinander konjugiert komplexe Nullstellen
bzw. Polstellen vor. Man erreicht den konstanten Amplitudengang des Allpasses deshalb
auch fr
s0 = s

, = .

Die Nullstellen erhlt man dann durch Spiegelung der Polstellen am Ursprung.
Satz 4.141 (Reellwertiger Allpass)
Ein reellwertiges System ist genau dann ein Allpass, wenn die Pol- und Nullstellen
der bertragungsfunktion G(s) die Bedingungen m = n und
s0 = s

, , = 1, . . . , m , =

erfllen. Da bei stabilen Systemen die Polstellen links der imaginren Achse liegen, mssen die Nullstellen eines Allpasses rechts der imaginren Achse liegen. Die
bertragungsfunktion GA (s) des Allpasses ist somit:
GA (s) = (1)n

N (s)
.
N (s)

Definition 4.142 (Minimalphasensystem)


Ein stabiles System S mit gebrochen rationaler bertragungsfunktion heit Minimalphasensystem, wenn die Nullstellen s0 seiner bertragungsfunktion
GM (s) =

Z(s)
N (s)

4 Zeitkontinuierliche Systeme

180

in der linken Halbebene liegen, d.h. wenn sie die Bedingung


Re{s0 } 0
erfllen.
Satz 4.143 (Zerlegung kausaler LTI-Systeme)
Jedes kausale LTI-System lsst sich in ein Minimalphasensystem und einen Allpass
aufspalten.

Beweis:

Zum Beweis wird ein System mit einer bertragungsfunktion G(s) betrachtet, deren
Zhlerpolynom Z(s) auch Nullstellen in der rechten Halbebene besitzt. Dann zerlegt
man Z(s) gem
Z(s) = Z1 (s) Z2 (s)
in zwei Teilpolynome
Z1 (s)

Z2 (s) =

m
<1

=1
m
<

, Re{s0 } 0 , = 1, . . . , m1

(s s0 )

=m1 +1

, Re{s0 } > 0 , = m1 + 1, . . . , m,

(s s0 )

die jeweils nur Nullstellen in der abgeschlossenen linken bzw. oenen rechten Halbebene besitzen. Durch Erweiterung der bertragungsfunktion mit Z2 (s)
G(s) =

Z(s)
Z1 (s) Z2 (s)
Z2 (s)
= (1)mm1
(1)mm1
,
N (s)
N (s)
Z2 (s)





=GM (s)

G(s)

=GA (s)

G (s)
M

G (s)
A

Abbildung 4.15: Zerlegung eines kausalen LTI-Systems in ein Minimalphasensystem und


einen Allpass

4.4 Systemfunktion

181

ergibt sich die Zusammensetzung der bertragungsfunktion aus einem Minimalphasensystem GM (s), das nur noch Nullstellen in der linken Halbebene besitzt, und
einem Allpass GA (s) (vgl. Abbildung 4.15).
Die charakteristische Eigenschaft eines Minimalphasensystems wird durch den folgenden
Satz beschrieben. Durch diese Eigenschaft begrndet sich die Wahl des Namens fr ein
System mit Nullstellen ausschlielich in der linken Halbebene.
Satz 4.144 (Minimalphasensysteme)
Minimalphasensysteme besitzen die Eigenschaft, fr einen gegebenen Amplitudenverlauf A(f ) die kleinstmgliche Gruppenlaufzeit zu besitzen.
Fr reellwertige Systeme ist damit auch der absolute Phasenhub ber alle Frequenzen, d.h. von f = bis f = +, bei Verwendung eines Minimalphasensystems
minimal.

Beweis:

Sei G(s) die reellwertige bertragungsfunktion eines stabilen, nicht minimalphasigen


Systems. Das System wird in ein Minimalphasensystem GM (s) und einen Allpass
GA (s) zerlegt.
G(s) = GM (s)

n
=
s + s
, Re{s } < 0
s s
=1



GA (z)

Zur Einhaltung der Stabilitt gilt


s = + j2f

, > 0.

Die Phase eines Faktors


G (s) =

s + s
s s

erhlt man wegen


ej (f ) =

j2f + ( + j2f )
+ j2(f + f )
=
j2f ( + j2f )
+ j2(f f )

nach Gleichung (4.136) zu


(f ) = arctan

2(f + f )

was zu der Gesamtphase


A (f ) =

n


=1

(f )

arctan

2(f f )

4 Zeitkontinuierliche Systeme

182

des Allpasses GA (s) fhrt. Die Einzel-Phasen (f ) des Allpasses sind monoton
fallende Funktionen von f, d.h. die Gruppenlaufzeiten
1 d
(f )
gA (f ) =
2 df


1
1
>0
=
+ 2
2 + 4 2 (f + f )2
+ 4 2 (f f )2

sind positiv, da der Realteil positiv angesetzt war, > 0. Somit ist auch die Gesamtphase A (f ) des Allpasses monoton fallend, und dessen Gruppenlaufzeit positiv.

Aus (f ) = M (f ) + A (f ) folgt fr die Gruppenlaufzeit des Gesamtsystems


g (f ) = gM (f ) + gA (f ) gM (f ).
Es lsst sich also sagen, dass von allen Systemen mit gleichem Amplitudenverlauf
A(f ) die minimalphasigen die kleinste Gruppenlaufzeit gM (f ) besitzen.
Fr reellwertige Systeme ist der Phasenverlauf nach Gleichung (4.115) schiefsymmetrisch, geht also durch den Ursprung. Fr reellwertige Systeme ist deshalb auch die
absolute Phase |(f )| bei einem Minimalphasensystem minimal.

4.4.6

Strukturdarstellung kontinuierlicher LTI-Systeme

Nach Gleichung (4.104) ist die allgemeine Form einer bertragungsfunktion durch

G(s) =

m


=0
n


b s
(4.145)
a s

=0

gegeben. Anhand dieser bertragungsfunktion werden LTI-Systeme in verschiedene


Klassen eingeteilt. Zur Visualisierung solch eines Systems soll die bertragungsfunktion in eine Darstellung berfhrt werden, die dem Betrachter auf nahe liegende Weise
die Vorgnge im System veranschaulicht. Hierzu verwandelt man die Gleichung (4.145)
in ein Strukturbild. Je nach Art des Systems ergeben sich hierdurch verschiedene Darstellungen.
Definition 4.146 (ARMA-Filter)
Ein ARMA-Filter ist dadurch charakterisiert, dass die bertragungsfunktion sowohl
aus einem Zhler- als auch einem Nennerpolynom besteht und stellt die allgemeine
Form eines gebrochen rationalen bertragungsgliedes dar. Die bertragungsfunktion
ist durch (4.145) definiert.
Um die Strukturdarstellung des Systems zu erreichen, betrachten wir noch einmal die
bertragungsfunktion des Systems. Damit bei der Darstellung fr ya (t) und ye (t) die

4.4 Systemfunktion

ye(t)

183

ya(t)

bM

bM-1

-aM-1

b0

-a0

Abbildung 4.16: Struktur eines ARMA-Filters

gleiche Anzahl von Zweigen vorliegen, whlt man M = max{n, m}, ergnzt das Polynom
niedrigeren Grades um Potenzen von s mit den Koezienten Null und erhlt somit

G(s) =

M


b s

=0
M


(4.147)

.
a

=0

Dies lsst sich bei verschwindenden Anfangswerten ber die inverse Laplace-Transformation in die folgende Dierenzialgleichung umwandeln,
M


=0

a ya() (t) =

M


b ye() (t).

=0

Hierzu mssen die Anfangswerte des Systems zu Null angenommen werden, d.h. das
System muss sich in Ruhe befinden.
Integrieren wir nun, ohne Beachtung mathematisch exakter Notation, beide Seiten M mal, so erhalten wir

4 Zeitkontinuierliche Systeme

184
aM ya (t) + aM 1

ya (t) + + a0

. . . ya (t)
 
M -mal

= bM ye (t) + bM 1 ye (t) + + b0 . . . ye (t).


 

(4.148)

M -mal

Die Integration wird durch ein Quadrat mit eingezeichneter Diagonale visualisiert. Fr
die Darstellung der Strukturen normieren wir die Koezienten der bertragungsfunktion noch auf aM = 1, was eine einfachere Darstellung ermglicht.
Abbildung 4.16 stellt die Struktur eines ARMA-Filters dar. Man erkennt, wie das
Zhler- und das Nennerpolynom bzw. die Gleichung (4.148) in die Darstellung eingehen. Das Zhlerpolynom ist in den linken Zweigen der Darstellung enthalten und sorgt
dafr, dass neben dem Eingangssignal auch dessen Ableitungen auf das Ausgangssignal
einwirken. Das Nennerpolynom reprsentiert die rekursive Komponente des Systems
und koppelt das Ausgangssignal zurck.
Wirkt das Eingangssignal nur direkt auf das Ausgangssignal ein, d.h. seine Ableitungen
spielen keine Rolle, whrend Rckkopplungen des Ausgangssignals auftreten, so entsteht
Abbildung 4.17. Diese Struktur nennt man AR-Filter. Man erkennt an dieser Zeichnung
die Zweige, die das Ausgangssignal zurckkoppeln und somit fr das Nennerpolynom
verantwortlich sind.

ye(t)

ya(t)

bM

-aM-1

-a0
Abbildung 4.17: Struktur eines AR-Filters

4.4 Systemfunktion

185

Definition 4.149 (AR-Filter)


Als AR-Filter, engl.: auto-regressive, wird ein System bezeichnet, bei dem sich die
bertragungsfunktion G(s) auf
G(s) =

bM sM
.
M

a s

=0

reduziert.

Bei einem MA-Filter sind keine Rckkopplungen des Ausgangs vorhanden. Das Ausgangssignal wird aus dem Eingangssignal und integrierten Eingangssignalen aufgebaut.
Somit stellt das Ausgangssignal eine Mittelung ber das Eingangssignal dar.
Definition 4.150 (MA-Filter)
Ein System wird MA-Filter, engl.: moving average, genannt, falls es die bertragungsfunktion

G(s) =

m


b s

=0

aM sM

besitzt. Es ergibt sich die in Abbildung 4.18 dargestellte Struktur.

ye(t)

bM

ya(t)

bM-1

b0

Abbildung 4.18: Struktur eines MA-Filters

4 Zeitkontinuierliche Systeme

186

4.5

Filterung mit Fensterfunktionen

In Abschnitt 3.7.1 wurde bereits der Begri der Fensterfunktion eingefhrt, die einer
Multiplikation im Zeitbereich und der Faltung im Bildbereich entspricht. Dieser wird
hier genauer spezifiziert.
Definition 4.151 (Fensterfunktion)
Eine Fensterfunktion w(t) ist eine Funktion, die mit einem Signal y(t) multipliziert
wird und die folgende Charakteristika aufweist:
Die Energie konzentriert sich in einem endlichen Zeitraum, welcher ein Vielfaches der Zeitdauer t betrgt.
Die Fensterfunktion ist bei geeigneter Verschiebung eine zur y-Achse symmetrische Funktion.
Hieraus entsteht das gefensterte Signal
(4.152)

yw (t) = y(t) w(t) .

Die Verwendung einer Fensterfunktion ist mit der allgemeinen Systemgleichung, die ein
System mittels eines Operators darstellt, beschreibbar,
yw (t) = S{y(t)},
da das Eingangssignal y(t) in das Ausgangssignal yw (t), das gefensterte Signal, berfhrt
wurde.
Die Fourier-Transformierte eines gefensterten Signals yw (t),
Yw (f ) =

yw (t)ej2f t dt =

y(t) w(t)ej2f t dt,

lsst sich mit der Ambivalenz zwischen Multiplikation und Faltung deutlich vereinfachen:
Yw (f ) = F{y(t) w(t)} = Y (f ) W (f ) .

(4.153)

Die Fourier-Transformierte Yw (f ) des gefensterten Signals yw (t) entspricht also der


Faltung zwischen der Fourier-Transformierten Y (f ) des Originalsignals y(t) mit der
Fourier-Transformierten W (f ) der Fensterfunktion w(t). Das Spektrum Yw (f ) des gefensterten Signals ist gegenber dem nicht gefensterten Spektrum Y (f ) verflscht.
Die Fourier-Transformierte Yw (f ) des gefensterten Signals yw (t) muss der FourierTransformierten Y (f ) des Originalsignals y(t) entsprechen, wenn das Fenster w(t) 1

4.5 Filterung mit Fensterfunktionen

187

verwendet wurde. Das Fenster w(t)1 besitzt die Fourier-Transformierte W (f ) = (f ),


und bei der Faltung einer Funktion mit dem Dirac-Impuls ist das Ergebnis die Funktion
selbst. Die Tatsache, dass bei unendlich breitem Zeitfenster das dazugehrige Spektrum
infinitesimal schmal ist, ergibt sich aus dem Zeitdauer-Bandbreite-Produkt (3.198). Im
Zusammenhang mit dem Zeitdauer-Bandbreite-Produkt hatten wir den Gau-Impuls
)
2
2
(f )
a
w(t) = eat W (f ) =
(4.154)
e
a
als die Funktion mit dem kleinsten Zeitdauer-Bandbreite-Produkt kennengelernt. Somit
ist also zu erwarten, dass bei Verwendung des Gau-Impulses als Fensterfunktion die
Signalanalyse eektiver ausfllt, da die Auswirkung des Leckeekts auf die FourierTransformierte deutlich reduziert ist. Trotz der Fensterung im Zeitbereich wird die
Fourier-Transformierte insgesamt weniger verflscht als bei einer Fensterung mit einem
Rechteckfenster.

|Y (f )|

Re{y(t)}

Zur Veranschaulichung wird das aus zwei harmonischen Schwingungen zusammengesetzte Signal aus Abbildung 3.18 statt mit einem Rechteckfenster mit dem Gau-Impuls
gleicher Zeitdauer gefenstert. Das Ergebnis ist in Abbildung 4.19 dargestellt. Wird nun

b
t [sec]

b
t [sec]

f0
f [Hz]

f0
f [Hz]
|Yw,g (f )|

Re{yw,g (t)}

|Yw (f )|

Re{yw (t)}

b
t [sec]

f0
f [Hz]

Abbildung 4.19: Ungefensterte und gefensterte harmonische Schwingungen, Spektren bei


Verwendung eines Gau-Fensters

4 Zeitkontinuierliche Systeme

188

dieser Gau-Impuls gleicher Zeitdauer zustzlich noch mit einem Rechteckfenster multipliziert, so wird dessen Spektrum etwas strker verflscht. Das Resultat ist ebenfalls
in Abbildung 4.19 zu sehen.
Man erkennt deutlich, dass die resultierende Fourier-Transformierte viel weniger verschmiert ist, als bei ausschlielicher Verwendung des Rechteckfensters. Die zweite harmonische Schwingung mit der kleineren Amplitude ist jetzt deutlich zu erkennen.

4.6

Frequenzselektive Filter

Frequenzselektive Filter haben die Aufgabe, bestimmte Frequenzen eines Signals mglichst unbeeinflusst zu lassen und andere vollstndig zu unterdrcken. Diese werden
eingeteilt in Tiefpass-, Hochpass- und Bandpass-Filter, je nachdem, welche Frequenzen ausgeblendet werden sollen. Idealerweise besitzen sie einen Amplitudengang, der
im Durchlassbereich den Wert eins und im Sperrbereich den Wert null besitzt. Abbildung 4.20 zeigt die Amplitudengnge idealer frequenzselektiver Tiefpass-, Hochpass-,
Bandpass-Filter und das Verhalten einer idealen Bandsperre.
Soll ein frequenzselektives Filter als LTI-System realisiert werden, ist die bertragungsfunktion gebrochen rational. Oensichtlich knnen jedoch solche idealen Verlufe, wie
sie in Abbildung 4.20 dargestellt sind, mit gebrochen rationalen Funktionen nicht erreicht werden und somit solche idealen frequenzselektiven Filter nicht als LTI-Systeme
realisiert werden. Dies lsst sich mittels des Riemann-Lebesgueschen-Lemmas zeigen.
Aufgrund der durch eine unendlich steile Flanke begrenzten bertragungsfunktion ist
die dazugehrige Zeitfunktion, d.h. die Impulsantwort, nicht zeitbegrenzt. Ein Filter mit
solch einer Impulsantwort ist natrlich nicht realisierbar, da ein Signal stets auf einen

Tiefpass

Hochpass

Bandpass

Bandsperre

Abbildung 4.20: Amplitudengnge idealer frequenzselektiver Filter

4.6 Frequenzselektive Filter

189

Tiefpass

Hochpass





Bandpass




Bandsperre




Abbildung 4.21: Toleranzschemata fr die Amplitudengnge frequenzselektiver Filter

endlichen Zeitraum begrenzt ist. Der Frequenzgang eines idealen Filters kann also nur
approximiert werden. Die Abweichungen vom gewnschten Verhalten werden in einem
Toleranzschema zusammengestellt. Abbildung 4.21 stellt solche Toleranzschemata dar.
Die zugelassenen Abweichungen vom idealen Amplitudengang im Durchlass- und im
Sperrbereich sind D bzw. S . Die Grenzen des Durchlass- bzw. Sperrbereiches sind
durch fD bzw. fS gekennzeichnet.
Fr den Entwurf frequenzselektiver Filter wird eine auf die Durchlafrequenz fD normierte Frequenzachse
f =

f
fD

benutzt. Der Entwurf findet dann im f -Bereich statt. Die dort gefundene bertragungsfunktion G (j2f ) wird anschlieend durch die Substitution


f
G(j2f ) = G j2
(4.155)
fD
zurcktransformiert.

4.6.1

Filtertransformation

Mit Hilfe von Filtertransformationen gelingt es, Tiefpsse, Hochpsse und Bandpsse
auf normierte Tiefpsse abzubilden. Der Entwurf einer Bandsperre kann durch Entwurf
eines Bandpasses und eines Filters mit der bertragungsfunktion G(f ) = 1 realisiert
werden. Damit wird der Entwurf fr alle diese Filtertypen auf den Entwurf normierter
Tiefpsse zurckgefhrt.

4 Zeitkontinuierliche Systeme

190
Satz 4.156 (Tiefpass Tiefpass)
Mit Hilfe der Tiefpass-Tiefpass-Transformation
f =

f
fD

erhlt man aus einem Tiefpass mit gegebener Durchlassfrequenz fD einen normierten
Tiefpass.

Satz 4.157 (Hochpass Tiefpass)


Mit Hilfe der Hochpass-Tiefpass-Transformation
f =

fD
f

erhlt man aus einem Hochpass einen normierten Tiefpass und bildet dabei die
Durchlassgrenze f = fD auf f = 1 ab.

Satz 4.158 (Bandpass Tiefpass)


Mit Hilfe der Bandpass-Tiefpass-Transformation
f =

f 2 fD fD
(fD fD )f

erhlt man aus einem symmetrischen Bandpass einen normierten Tiefpass. Dies gilt
fr symmetrische Bandpsse, d.h. wenn die Bedingung
fD fD = fS fS
erfllt ist.
Bemerkung 4.159

Bei symmetrischen Bandpssen handelt es sich nicht um die der Vorstellung entsprechende Interpretation der Symmetrie. Vielmehr ist die geforderte Symmetrie auf die
Bedrfnisse zur Transformation auf einen normierten Tiefpass angepasst. Exemplarisch sollen zur Verdeutlichung die Bildfrequenzen von fD und fS berechnet
werden:
f 2 fD fD
fD (fD fD )

fD
= D
=
=1
(fD fD )fD
(fD fD )fD
f 2 fD fD
fS (fS fS )
fS fS
=
=
fS = S
(fD fD )fS
(fD fD )fS
fD fD

Die normierte Sperrfrequenz ist oensichtlich grer als 1.


Die Filtertransformationen bilden also die Toleranzschemata der verschiedenen Filtertypen auf das Toleranzschema des normierten Tiefpasses ab, welches in Abbildung 4.22
dargestellt ist.

4.6 Frequenzselektive Filter

191

Tiefpass
Tiefpa

A(f')
1

4.6.2

f'

f'

Abbildung 4.22: Toleranzschema fr


den Amplitudengang eines normierten
Tiefpasses

Entwurf normierter Tiefpsse

In diesem Abschnitt werden Standardverfahren zum Entwurf normierter Tiefpsse behandelt. Die Aufgabe besteht letztlich darin, Funktionen zu finden, die einem Toleranzschema der in Abbildung 4.22 dargestellten Form gengen. Zu der Lsung der Aufgabe
wird der Ansatz
1
A2 (f ) = |G (s = j2f )|2 =
, R
(4.160)
1 + 2 |D(f )|2
mit einer geeignet zu whlenden Funktion D(f ) gemacht. Da quadratisch eingeht,
kann ab sofort > 0 angenommen werden. Statt |G (s = j2f )|2 verwendet man
auch die Darstellung fr das Betragsquadrat der bertragungsfunktion fr reellwertige
Systeme nach Gleichung (4.119)




2

Q(s ) = G (s ) G (s ) = |G (s = j2f )| = Q(s )
,


s =j2f

deren Pole (und auch die Nullstellen) punktsymmetrisch zum Ursprung sowohl in der
rechten als auch in der linken Halbebene liegen. Hat man einen entsprechenden Amplitudengang A(f ) gefunden, so lsst sich die bertragungsfunktion Q(s ) durch



Q(s ) = A2 (f )
= G (s ) G (s )
 s
f = j2

bestimmen. Fr die bertragungsfunktion G (s ) sucht man sich die Pole der bertragungsfunktion Q(s ) aus, die ein stabiles und somit ein realisierbares System darstellen,
d.h. die Pole in der linken Halbebene.
Aus (4.160) folgt sofort

1 A2 (f )
|D(f )| =
,
A(f )

(4.161)

woraus deutlich wird, dass stets A(f ) 1 bleiben muss. Aus dem Toleranzschema, wie
es in Abbildung 4.22 dargestellt ist, ergeben sich die folgenden Forderungen fr den
Durchlass- und Sperrbereich:
A(f ) 1 D , 0 f 1
A(f ) S
, f fS .

(4.162)

4 Zeitkontinuierliche Systeme

192

Gem (4.161) werden diese Forderungen eingehalten, wenn die Bedingungen



2
2D D
D =
|D(f )|
, 0 f 1
(4.163)
1 D
und
S =

1 S2
|D(f )|
S

, f fS

(4.164)

erfllt sind. Die Lsung der Entwurfsaufgabe besteht darin, unter den beiden Bedingungen (4.163) und (4.164) eine Konstante und eine Funktion D(f ) so zu bestimmen,
dass aus der Funktion A2 (f ) eine gebrochen rationale bertragungsfunktion G (s ) mit
|G (s = j2f )| = A(f )
gewonnen werden kann, die einen kleinstmglichen Grad besitzt und ein realisierbares
zeitkontinuierliches Filter beschreibt. Hierfr sind verschiedene Anstze mglich:
4.6.2.1

Butterworth-Filter

Beim Butterworth-Filter wird der Ansatz


D(f ) = (j2f )N ,

(4.165)

|D(f )|2 = (2f )2N ,

(4.166)

d.h.

gemacht. Hiermit ergibt sich aus (4.160)




1
1

A2 (f ) = Q(s )
=
,
=
2 |D(f )|2
2 (2f )2N

1
+

1
+

s =j2f

d.h. die Bestimmungsgleichung fr die Pole von Q(s ), die sich mit
1 + 2

 2N
s
=0
j

zu
s = j N ej
1

(21)
2N

1
= N ej( 2 +

21
N 2)

, = 1, . . . , 2N

(4.167)
1

ergeben. Sie liegen also gleichmig verteilt auf einem Kreis mit dem Radius r = N .
Fr das stabile, kausale Filter werden fr G(s ) die Pole in der linken s -Halbebene
benutzt ( = 1, . . . , N ). Aus der Bedingung (4.163) mit |D(f )| = |2f |N ,

2
2D D
|2f |N
, 0 f 1
D =
1 D

4.6 Frequenzselektive Filter

193

erhlt man

D
(2)N (f )N

, 0 f 1

(4.168)

und somit das maximal mgliche fr f = 1 zu


=

D
.
(2)N

(4.169)

Setzt man dieses in die Bedingung (4.164) ein,



1 S2
S =
(2f )N
, f fS ,
S
so erhlt man die Bedingung
S D (f )N

, f fS .

Da diese Ungleichung fr alle Frequenzen f fS gelten muss, folgt hieraus fr die


Ordnung K eines Butterworth-Filters:
(
'
S
ln
D
.
(4.170)
KN
ln(fS )
Damit der Grad des Filters mit dieser Wahl von D(f ) minimal wird, wird K oenbar als
die kleinstmgliche ganze Zahl gewhlt, die (4.170) erfllt. K kann natrlich auch wesentlich grer als N gewhlt werden. Dann steigt einerseits der Realisierungsaufwand,
andererseits wird das Toleranzschema besser erfllt.
Die nach dem Butterworth-Verfahren berechneten Filter zeichnen sich durch einen maximal flachen Verlauf im Durchlass- und Sperrbereich aus. Ein groer Nachteil der
Butterworth-Tiefpsse ist der breite bergang vom Durchlass- zum Sperrbereich bei
gegebener Ordnung K. Durch andere Entwurfsverfahren, die im folgenden Abschnitt
beschrieben werden, lsst sich dieses bergangsverhalten gnstiger gestalten. Allerdings hat man dafr einen Preis zu zahlen, indem man beispielsweise auf den flachen
Verlauf des Amplitudengangs im Durchlassbereich verzichtet.
Beispiel 4.171 (Butterworth-Filter)
Das Toleranzschema eines normierten Tiefpasses mit

fD
=1

fS = 2

D = 0,2

S = 0,1

erzeugt ber (4.163) und (4.164) die Parameter




2

2D D
1 S2
3
D =
, S =
=
= 99 9,95.
1 D
4
S

4 Zeitkontinuierliche Systeme

194

Abbildung 4.23: Pol-Schema der bertragungsfunktion G(s) bei einem Butterworth-Ansatz der Ordnung
K=4

Mit der Abschtzung


'

S
D
ln(fS )

ln
KN

3, 73

erhlt man die minimale Ordnung des Filters zu K = 4.


Die Pole des stabilen Systems nach (4.167)
s = '
=

1
D
(2)4

1/4
D

(1/4 e

ej( 2 +

21
j(
)
2+
8

21
)
8

, = 1, .., 4

, = 1, .., 4

findet man in Abbildung 4.23 skizziert. Numerisch lauten diese:


s1 = 2,5838 + j6,2378 s2 = 6,2378 + j2,5838
s3 = 6,2378 j2,5838 s4 = 2,5838 j6,2378

A(f)

0.8
0.6
0.4
0.2
0

2
f [Hz]

Abbildung 4.24: Amplitudengang und


Toleranzschema des normierten Tiefpasses
bei einem Butterworth-Ansatz der Ordnung
K=4

4.6 Frequenzselektive Filter

195

0.05
0.04

2
g(f)

(f)

0.03
0

0.02
0.01

0
4
10

0
f [Hz]

10

10

0
f [Hz]

10

Abbildung 4.25: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem
Butterworth-Ansatz der Ordnung K = 4

Der Amplitudengang und das Toleranzschema finden sich in Abbildung 4.24. Man
erkennt, dass der Entwurf das Toleranzschema erfllt. In Abbildung 4.25 finden sich
der Phasengang und die Gruppenlaufzeit von G(s).

Beispiel 4.172 (Butterworth-Filter steilerer Flanke)


In diesem Beispiel wird auf der Basis desselben Toleranzschemas wie in Beispiel
4.171 ein Butterworth-Filter steilerer Flanke entworfen. Verwendet man hierzu eine
Ordnung K = 12 und berechnet damit erneut die Gren D , S und , so entsteht
der in Abbildung 4.26 dargestellte Amplitudengang.
Bei Betrachtung der Phase und der Gruppenlaufzeit fr diesen Entwurf ist zu erkennen, dass die steilere Flanke im Amplitudengang auf eine strkere Verzerrung der
Phase fhrt. Dies ist in Abbildung 4.27 dargestellt.

(f)

0.4

K=12

0.6

0.8

0.2
0

2
f [Hz]

Abbildung 4.26: Amplitudengang und


Toleranzschema des normierten Tiefpasses
bei einem Butterworth-Ansatz der Ordnung
K = 12

4 Zeitkontinuierliche Systeme

196
4

0.05
0.04

K=12

(f)

g,K=12(f)

2
0.03
0.02
0.01

0
4
10

0
f [Hz]

10

10

0
f [Hz]

10

Abbildung 4.27: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem
Butterworth-Ansatz der Ordnung K = 12

4.6.2.2

Tschebysche-Filter

Beim Tschebysche-Filter unterscheidet man die beiden Arten Typ I und Typ II. Der
Typ I besitzt im Durchlassbereich eine gleichmige Welligkeit und ist im Sperrbereich
monoton fallend. Dagegen ist Typ II im Durchlassbereich monoton fallend und besitzt
im Sperrbereich eine gleichmige Welligkeit.
Beim Tschebysche-Filter Typ I wird der Ansatz
|D(f )|2 = TN2 (f )

(4.173)

mit dem erweiterten Tschebysche-Polynom



cos(N arccos(f )) , |f | 1
TN (f ) =
cosh (N arcosh (f )) , |f | > 1

(4.174)

gemacht. Wegen
|D(f )| = |cos(N arccos(f ))| D

, 0 f 1

muss
D
gelten, und man kann
(4.175)

= D
whlen. Mit dem so gewhlten folgt aus (4.164) die Gleichungskette


!

= D TN (fS ) = D cosh (N arcosh (fS )) S ,
|D(f )|

f =fS

(4.176)

4.6 Frequenzselektive Filter

197

woraus die Abschtzung fr die Ordnung K des Systems folgt:

KN

'

S
D
arcosh (fS )

arcosh

(4.177)

Die Pole liegen auf einer Ellipse mit den Halbachsen sinh() und cosh (), wobei
1
= arsinh
K

1
D

gilt.
Beim Tschebysche-Filter Typ II wird der Ansatz
|D(f )|2 =

TN2 (fS )
' (
f
TN2 fS

(4.178)

0.8

0.6

0.6

A(f)

0.8

0.4

0.4

0.2

0.2

A(f)

Typ I Ordnung ungerade


1

Typ II Ordnung gerade

Typ II Ordnung ungerade


1

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

1
f [Hz]

f [Hz]

A(f)

A(f)

Typ I Ordnung gerade


1

2
f [Hz]

f [Hz]

Abbildung 4.28: Amplitudengnge von Tschebysche-Filtern des Typs I und des Typs II
jeweils bei gerader bzw. ungerader Ordnung

4 Zeitkontinuierliche Systeme

198

gewhlt. Mit (4.163) und (4.164) erhlt man analog zu obiger Herleitung bei erneuter
Wahl von = D auch hier die Abschtzung
'
(
S
arcosh
D
KN
(4.179)
arcosh (fS )
fr die Ordnung des Systems. In Abbildung 4.28 werden die Amplitudengnge eines
Tschebysche-Filters Typ I und Typ II jeweils bei gerader bzw. ungerader Ordnung
dargestellt.
Einen weiteren Filtertyp, der sowohl im Durchlass- als auch im Sperrbereich eine gleichmige Welligkeit besitzt und bei gleicher Ordnung noch steiler als die TschebyscheFilter abfllt, stellen die elliptischen Cauer-Filter dar, deren Behandlung in diesem
Rahmen jedoch nicht erfolgen soll. Eine Beschreibung ist beispielsweise in [KK02] zu
finden.

4.6.3

Bestimmung der bertragungsfunktion

Zum Abschluss der frequenzselektiven Filter wird die Ermittlung der bertragungsfunktion des Filters bei gegebenen Pol- bzw. Nullstellen behandelt.
Die bisher beschriebenen Verfahren fr den Entwurf normierter Tiefpsse fhren auf
eine bertragungsfunktion der Form

G (s ) = G0

M
<

=1
N
<

=1

(s s0 )

(s

s )

, M N.

Hierbei ist zu bedenken, dass es sich um eine normierte bertragungsfunktion handelt, aus der die eigentliche bertragungsfunktion gem (4.155) erst noch abgeleitet
werden muss. Fr die Rcktransformation eines normierten Tiefpasses erhlt man beispielsweise:

G(s) = G

= G0


s
fD
M
<
( fsD s0 )
=1
N
<

=1

( fsD s )

= G0

M
<

N M =1
fD
N
<
=1

(s fD s0 )

(s fD s )

Analoge Rechnungen ergeben sich bei den anderen Transformationen.


G(s) und G (s ) besitzen nur Pole in der linken Halbebene. Daher sind die gefundenen
Systeme stabil. Butterworth- und Tschebysche-Typ I-Filter haben keine Nullstellen,
whrend Tschebysche-Typ II-Filter Nullstellen auf der imaginren Achse haben.

4.6 Frequenzselektive Filter

199

Sind die Pole und Nullstellen bekannt, so lsst sich die Systemkonstante G0 bei den
beschriebenen Verfahren aufgrund der Forderung |G (j2)| = 1 D bestimmen. Sie ist
durch

|G0 | = (1 D )

N
<

=1
M
<

|s s | 



|s s0 | s =j2

(4.180)

=1

berechenbar.
Fr die Ordnung N des Nennerpolynoms wird nach den Gleichungen (4.170), (4.177)
oder (4.179) die gefundene minimale Ordnung K eingesetzt. Das Zhlerpolynom hat
beim Butterworth-Filter die Ordnung M = 0.
Bemerkung 4.181
Fr die Konstante G0 lsst sich aus obigen Gleichungen nur der Betrag bestimmen,
da die Eigenschaft A(f = 1) = |G(f = 1)| verwendet wird. Die Lsungen dieser
Gleichung bilden einen Kreis in der komplexen Ebene mit dem Radius |G0 |. Bei
Betrachtung reellwertiger LTI-Systeme ist ein reeller Verstrkungsfaktor zu whlen,

weshalb G0 als positive reelle Gre gewhlt wird.


Bemerkung 4.182
Bei den behandelten Approximationsverfahren wurde
=

D
(2)K

im Falle des Butterworth-Filters beziehungsweise


= D
im Falle der Tschebysche-Filter gewhlt. Fr den normierten Amplitudengang ergibt sich aus dem Toleranzschema
A(f = 1) = 1 D ,
was sich leicht nachrechnen lsst und hier exemplarisch fr das Butterworth-Filter
durchgefhrt wird:
*
*
1
1

=
A(f = 1) =
2
2

2
1 + D (f = 1)
1 + (2)2K
2
2
3
3
1
1
3
3
= 1 D .
=4
=
4
2
2

D
2D D
2K
1 + (2)2K (2)
1 + (1D )2

4 Zeitkontinuierliche Systeme

200

4.7

Hilbert-Transformation

Die Hilbert-Transformation ist nicht wie die Fourier- oder die Laplace-Transformation
eine Transformation im klassischen Sinne. Sie ist ein akausales Filter, das praktisch
nicht exakt realisiert werden kann. Trotzdem lohnt es sich, die Hilbert-Transformation
als mathematisches Modell einzufhren, denn mit Hilfe von Mikrorechnern lsst sich
die Hilbert-Transformation zumindest annhern, vgl. Abschnitt 6.9.1.
Es wird ein so genanntes Quadraturfilter mit der bertragungsfunktion

j , f > 0
,f = 0
GQ (f ) = 0
j
,f < 0

(4.183)

definiert. Das Filter operiert auf dem Eingangssignal mittels Phasendrehung, wobei
die Anteile der positiven Frequenzen um 2 =
> 90 und die Anteile der negativen

> 90 gedreht werden.


Frequenzen um + 2 =

Fr die Berechnung der Impulsantwort dieses Filters definiert man mit > 0 die
Hilfsfunktion

,f > 0
jef
,f = 0,
G(f ) = 0
f
je
,f < 0
welche ebenfalls ein Filter beschreibt. Die entsprechende Impulsantwort lautet
g(t) =

G(f )ej2f t df

=j

e( + j2t)f df j

e( + j2t)f df

j
j
+
.
+ j2t + j2t

Im Grenzbergang 0 geht G(f ) in GQ (f ) ber. Die Impulsantwort g(t) wird dann


zur Impulsantwort
 1
,t =
 0
gQ (t) = t
(4.184)
0
,t = 0

des Quadraturfilters.

Satz 4.185 (Quadraturfilter)


Die Impulsantwort eines Quadraturfilters, d.h. eines Filters mit dem Frequenzgang

j , f > 0
,f = 0 ,
GQ (f ) = 0
(4.186)
j
,f < 0

4.7 Hilbert-Transformation
ist durch

 1
gQ (t) = t
0

201

, t = 0
,t = 0

(4.187)

gegeben.

Definition 4.188 (Hilbert-Transformation)


Durchluft ein Signal y(t) ein solches Quadraturfilter mit der Impulsantwort gQ (t), so
resultiert das Signal y(t) = y(t)gQ (t), welches als Hilbert-Transformierte des Signals
y(t) bezeichnet wird und als y(t) = H{y(t)} geschrieben wird. Wegen GQ (0) = 0 ist
die Hilbert-Transformierte eines mittelwertbehafteten Signals mittelwertfrei.
Ist das Signal mittelwertfrei, so ist die Hilbert-Transformierte bis auf das Vorzeichen
selbst-invers. Die Bedingung der Mittelwertfreiheit des Signals ist ntig, da nach der
Anwendung der Hilbert-Transformation ein mittelwertfreies Signal entsteht. Somit kann
nur in diesem Fall die folgende Aussage nachgewiesen werden:
Satz 4.189 (Hilbert-Transformation)
Die zweimalige Anwendung der Hilbert-Transformation entspricht bei mittelwertfreien Signalen dem Negativen des Ursprungssignals:
y(t) mittelwertfrei = H{H{y(t)}} = y(t) .

Beweis:
Wegen
F{H{H{y(t)}}} = F{H{y(t)}} GQ (f ) = Y (f ) GQ (f ) GQ (f )

ergibt sich fr ein Signal mit Y (0) = 0 sofort die behauptete Aussage.

Nachdem fr zwei Funktionen die Hilbert-Transformierte berechnet wird, folgt im Anschluss die Herleitung einer weiteren Eigenschaft der Hilbert-Transformation und eine
Erklrung des theoretischen und praktischen Nutzens dieser Transformation.
Beispiel 4.190 (Hilbert-Transformierte des Cosinussignals)
Es gilt:
y(t) = cos(2f0 t) Y (f ) =

1
((f + f0 ) + (f f0 )) .
2

Hieraus folgt die Hilbert-Transformierte


j
Y (f ) = Y (f ) GQ (f ) = ((f + f0 ) (f f0 ))
2

y(t) = sin(2f0 t).

4 Zeitkontinuierliche Systeme

202

Das Ergebnis ist auch sofort verstndlich, da sich das Sinussignal vom Cosinussignal
durch eine Phasenverschiebung von /2 unterscheidet und das Filter GQ (f ) gerade
solch eine Phasendrehung vornimmt.

Beispiel 4.191 (Hilbert-Transformierte des Si-Signals)


Es gilt:
sin(2f0 t)
y(t) = si(2f0 t) =
Y (f ) =
2f0 t
Hieraus folgt die Hilbert-Transformierte:

Y (f ) = Y (f ) GQ (f ) =

y(t) = F

{Y (f )} =

2f0

j
2f0
j
2f0

0'

1
2f0

, |f | f0
, |f | > f0

, 0 < f f0
, f0 f < 0
, |f | > f0 und f = 0

Y (f )ej2f t df

ej2f t df

f0

f0
0

ej2f t df

( '
(1
1
1 ej2f0 t ej2f0 t 1
4f0 t
1 cos(2f0 t)
.
=
2f0 t
Die Originalfunktion y(t) und die Hilbert-Transformierte y(t) sind in Abbildung 4.29
zu sehen.

sin(t)/t, (1cos(t))/t

1
0.5
0
0.5
sin(t)/t
(1cos(t))/t

1
1

0.5

0
t [sec]

0.5

Abbildung 4.29: sin(t)


-Funktion und ihre
t
Hilbert-Transformierte

4.7 Hilbert-Transformation

203

Das Ausgangssignal des Quadraturfilters erhlt man als Faltung des Eingangssignals
mit der Impulsantwort.
y(t) =

y( )

1
d = y(t) gQ (t)
(t )

(4.192)

Die Hilbert-Transformierte ist somit eine Integraltransformation mit selbstreproduzierendem Kern, vgl. Abschnitt 2.2.1.2, und den Funktionen
(f ) = GQ (f ) = j sign(f )
1
= j sign(f ) = (f ).
(f ) =
GQ (f )
Aus diesem Grund ist das Innenprodukt zweier Hilbert-Transformierter gleich dem Innenprodukt der Eingangssignale, vgl. Abschnitt 2.2.1.3,

x(t), y(t)t = GQ (f )X(f ), GQ (f )Y (f )f

=
|GQ (f )|2 X(f )Y (f ) df
 

=1

= x(t), y(t)t .

(4.193)

Eine weitere wichtige Eigenschaft der Hilbert-Transformation wird im folgenden Satz


formuliert.
Satz 4.194 (Reelles Signal und Hilbert-Transformierte)
Ein reelles Signal x(t) ist orthogonal zu seiner Hilbert-Transformierten,
(4.195)

x(t), x
(t)t = 0.

Beweis:
Es ist
x(t), x
(t)t =
=

x(t)
x (t) dt =

X(f )GQ (f )X (f ) df

|X(f )|2 j sign(f ) df = 0.

Die Orthogonalitt des Signals zu seiner Hilbert-Transformierten folgt somit aus


dem Parsevalschen Theorem.

4 Zeitkontinuierliche Systeme

204

Beispiel 4.196 (Hilbert-Transformierte des Cosinussignals)


Die Hilbert-Transformierte von y(t) = cos(2f0 t) ist gegeben durch
y(t) = sin(2f0 t).
Diese beiden reellen Signale sind orthogonal zueinander.

Formt man aus der reellen Zeitfunktion y(t) durch Addition der mit j multiplizierten
Hilbert-Transformierten y(t) ein Signal z(t), so heit z(t) das zu y(t) gehrige analytische Signal.
Definition 4.197 (Analytisches Signal)
Das zu einer reellen Zeitfunktion y(t) gehrige analytische Signal erhlt man, indem
man zu y(t) die mit dem Faktor j gewichtete Hilbert-Transformierte addiert. Das
heit das zu y(t) zugehrige analytische Signal z(t) ist gegeben durch
(4.198)

z(t) = y(t) + j y(t).

Die Autokorrelationsfunktion des analytischen Signals lautet:


Rzz ( ) = z(t + ), z(t)t = y(t + ) + j y(t + ), y(t) + j y(t)t
= y(t + ), y(t)t + y(t + ), j y(t)t + j y(t + ), y(t)t
+j y(t + ), j y(t)t
= Ryy ( ) jRyy( ) + jRyy ( ) + j(j)Ryy( )
= Ryy ( ) + Ryy( ) + j (Ryy ( ) Ryy( ))
Die Leistungsdichtespektren sind
f =0

SY Y (f ) = |GQ (f )|2 SY Y (f ) = SY Y (f )
SY Y (f ) = GQ (f ) SY Y (f )
SY Y (f ) = SY Y (f ) = GQ (f ) SY Y (+f ) = GQ (f )SY Y (f ) = SY Y (f ).
Demzufolge gilt fr die Korrelationsfunktionen
Ryy ( ) = Ryy( )
Ryy( ) = Ryy ( ).
Damit wird die Autokorrelationsfunktion des analytischen Signals zu
Rzz ( ) = 2 [Ryy ( ) + jRyy ( )]

4.7 Hilbert-Transformation

205

und dessen Leistungsdichtespektrum


SZZ (f ) = 2 [SY Y (f ) + jSY Y (f )]
= 2SY Y (f ) [1 + jGQ (f )]

4SY Y (f ) , fr f > 0
= 2SY Y (f ) , fr f = 0 .
0
, fr f < 0

(4.199)

Satz 4.200 (Analytisches Signal)


Das analytische Signal besitzt nur positive Frequenzanteile. Das Leistungsdichtespektrum stimmt im positiven Bereich mit dem Leistungsdichtespektrum der Urfunktion bis auf die Amplitude berein.

Dieser Satz soll auch anhand eines Beispiels verdeutlicht werden.


Beispiel 4.201 (Leistungsdichtespektrum eines analytischen Signals)
Es ist gegeben:
y(t) = cos(2f0 t) .
Hieraus folgt das analytische Signal
z(t) = cos(2f0 t) + j sin(2f0 t) = ej2f0 t .
Die Fourier-Transformierten lauten:
1
Y (f ) = ((f + f0 ) + (f f0 ))
2
1
Z(f ) = ((f + f0 ) + (f f0 )) +
2
j
+j ((f + f0 ) (f f0 ))
2
= (f f0 ) .

Hieraus folgen die Leistungsdichtespektren

1
((f + f0 ) + (f f0 ))
4

SZZ (f ) = Z(f ) Z (f ) = (f f0 ) .

SY Y (f ) = Y (f ) Y (f ) =

Dies stimmt mit dem Ergebnis aus (4.199) berein.

Die Hilbert-Transformation bzw. das analytische Signal findet Anwendung bei der
Einseitenband-Modulation, vgl. [Unb02]:

4 Zeitkontinuierliche Systeme

206

Beispiel 4.202 (Erzeugung komplexer Bandpass-Signale)


Ist x(t) ein reelles Tiefpass-Signal, so kann mit Hilfe der Hilbert-Transformation
x
(t) = H{x(t)}
daraus das analytische Tiefpass-Signal
z(t) = x(t) + j x
(t)
erzeugt werden, das Spektralanteile nur bei positiven Frequenzen besitzt. Durch
Modulation mit einer komplexen Harmonischen erhlt man das komplexe Bandpass-Signal
(t)] [cos(2f0 t) + j sin(2f0 t)]
y(t) = z(t)ej2f0 t = [x(t) + j x
(t) sin(2f0 t)
= x(t) cos(2f0 t) x
+j [x(t) sin(2f0 t) + x
(t) cos(2f0 t)] ,
dessen Real- und Imaginrteil mit der Hilbert-Transformation aus dem reellen
Tiefpass-Signal x(t) berechnet werden knnen. In Abbildung 4.30 ist die Erzeugung
eines reellen Bandpass-Signals als Signalflussgraph dargestellt.
Im Frequenzbereich entspricht die Modulation einer Frequenzverschiebung:
f0 ) .
Y (f ) = Z(f f0 ) = X(f f0 ) + j X(f
Der Imaginrteil des komplexen Bandpass-Signals y(t) ist gerade die HilbertTransformierte des Realteils.
Im{Y (f )} = GQ (f ) Re{Y (f )}
Im{y(t)} = H{Re{y(t)}}
Es reicht also aus, nur das reelle Bandpass-Signal Re{y(t)} zu berechnen, was einer
Einseitenband-Modulation von x(t) entspricht. Der zur Demodulation bentigte

Reelles
Tiefpass-Signal

Reelles
Bandpass-Signal

cos(2pf0t)

x(t)

Re{y(t)}

+
-

H
sin(2pf0t)

Abbildung 4.30: Einseitenband-Modulation Erzeugung eines reellen Bandpass-Signals

4.7 Hilbert-Transformation

Reelles
Bandpass-Signal

207
cos(2pf0t)

Re{y(t)}

Reelles
Tiefpass-Signal
+
+

x(t)

H
sin(2pf0t)

Abbildung 4.31: Einseitenband-Demodulation

komplexe Teil Im{y(t)} kann mit Hilfe der Hilbert-Transformation berechnet werden. Die Demodulation ergibt
x(t) = Re{z(t)} = Re{y(t)ej2f0 t }
= Re{y(t)} cos(2f0 t) + H{Re{y(t)}} sin(2f0 t).

Dies ist in Abbildung 4.31 dargestellt.

Bei der bertragung von Signalen knnen diese aufgrund von Laufzeiten phasenverschoben werden. Wir gehen davon aus, dass das Bandpass-Signal einer festen
Phasendrehung unterworfen werde. Dann steht am Eingang des Demodulators
das phasenverschobene reelle Bandpass-Signal
Re{y(t)ej } = Re{y(t)} cos() Im{y(t)} sin()
= x(t) cos(2f0 t) cos() x
(t) sin(2f0 t) cos()
x(t) sin(2f0 t) sin() x
(t) cos(2f0 t) sin()
= x(t) cos(2f0 t + ) x
(t) sin(2f0 t + )

an. Der dazugehrige Imaginrteil ist entsprechend


Im{y(t)ej } = Im{y(t)} cos() + Re{y(t)} sin()

= x(t) sin(2f0 t) cos() + x


(t) cos(2f0 t) cos()
(t) sin(2f0 t) sin()
+x(t) cos(2f0 t) sin() x
= x(t) sin(2f0 t + ) + x
(t) cos(2f0 t + ).

Bei der Demodulation erhlt man aufgrund der Phasenverschiebung das Signal s(t)
anstelle von x(t):
s(t) = Re{y(t)ej ej2f0 t }

= Re{y(t)ej } cos(2f0 t) + Im{y(t)ej } sin(j2f0 t)


= x(t) cos(2f0 t + ) cos(2f0 t) x
(t) sin(2f0 t + ) cos(2f0 t)
(t) cos(2f0 t + ) sin(2f0 t)
+x(t) sin(2f0 t + ) sin(2f0 t) + x
= x(t) cos() x
(t) sin() .

4 Zeitkontinuierliche Systeme

208

Das verzgerte, demodulierte Signal s(t) setzt sich aus dem ursprnglichen reellen Tiefpass-Signal x(t) und dessen Hilbert-Transformierter x
(t) zusammen. Fr
= 2 geht nur die Hilbert-Transformierte x
(t) ein. Ohne Anwendung der HilbertTransformation wrde ein Informationsverlust auftreten. Wenn das reelle TiefpassSignal x(t) lediglich mit cos(2f0 t) und sin(2f0 t) moduliert und dann verzgert
wrde, so ergbe sich die Demodulation
s(t) = x(t) cos(2f0 t + ) cos(2f0 t) + x(t) sin(2f0 t + ) sin(2f0 t)
= x(t) cos().
Fr =

wre dann das demodulierte Signal s(t) = 0.

Teil III

Zeitdiskretisierung

Zeitdiskrete Signale

In der Digitaltechnik ist es nicht mglich, physikalische Signale kontinuierlich zu bearbeiten, wie dies in der Analogtechnik der Fall ist. Digitale Komponenten werden im
Allgemeinen getaktet, d.h. es werden Zeitmarken ausgegeben, bei denen dann jeweils
ein Arbeitsschritt pro Takt ausgefhrt wird. Um physikalische Signale mittels digitaler
Technik zu erfassen und zu bearbeiten, mssen die Signale abgetastet bzw. zeitdiskretisiert werden, d.h. die Werte der Signale werden nur zu bestimmten Zeitpunkten erfasst
und bearbeitet. Im Allgemeinen liegen diese Zeitpunkte quidistant.

5.1

Grundlagen

5.1.1

Zeitdiskretisierung

Ein kontinuierliches Signal zeichnet sich dadurch aus, dass man zu jedem beliebigen
Zeitpunkt den Signalwert angeben kann. Bei technisch realisierbaren Signalen sind diese
Signalwertfunktionen stetig.
Bei der Zeitdiskretisierung werden nur die Signalwerte zu quidistanten Zeitpunkten
erfasst, d.h. die Signalwerte zwischen diesen Zeitpunkten gehen verloren. Unter bestimmten, im Abtasttheorem beschriebenen Voraussetzungen kann man die Signalwerte
zwischen den Zeitpunkten wieder vollstndig rekonstruieren.
Zur mathematischen Darstellung zeitdiskreter Signale gibt es hauptschlich zwei Anstze. Bei dem ersten Ansatz wird das zeitdiskrete Signal als Folge
yn = y(ntA ) , n Z

(5.1)

angegeben, bei der die Folgenglieder den Signalwerten zu den Abtastzeitpunkten ntA
entsprechen. Bei dem zweiten Ansatz wird das zeitdiskrete Signal durch das Produkt
des zeitkontinuierlichen Signals mit einer Impulsreihe
y (t) = y(t)

n=

(t ntA )

(5.2)

beschrieben, bei der die Signalwerte in den Abtastzeitpunkten durch Impulse der Hhe
yn = y(ntA ) und die Signalwerte zwischen den Abtastzeitpunkten durch 0 dargestellt
werden. Dies ist exemplarisch in Abbildung 5.1 dargestellt.
Welche Modellierung wann benutzt wird, wird aus dem Zusammenhang klar. So wird bei
Berechnungen mit Summen meist die Modellierung als Folge benutzt, bei Berechnungen

5 Zeitdiskrete Signale

212
6y (t)
6
6

6
6

6
6
?

6
?

666

66

??

?
?

?
?

t
?

Abbildung 5.1: Darstellung eines abgetasteten Signals als Impulsreihe

mit Integralen die Modellierung als Impulsreihe. Hier macht man sich die besonderen
Eigenschaften (3.155) des Dirac-Impulses bei Integralen zunutze. Diese Eigenschaften
werden bei der Herleitung der Fourier-Transformation zeitdiskreter Signale benutzt.
Die Zeitdauer zwischen zwei Abtastpunkten wird als Abtastzeit tA bezeichnet. Der Kehrwert
fA =

1
tA

heit Abtastfrequenz.
Es stellt sich die Frage, in welchen Grenordnungen die Abtastzeit tA bzw. die Abtastfrequenz fA liegen. Fr die Abtastzeit tA gibt es nach oben keine Grenze, da man
zwischen zwei Abtastzeitpunkten fast beliebig lang warten kann. Dann enthielte das
abgetastete Signal aber keine relevanten Informationen mehr. Fr die minimale Abtastzeit tA bzw. die maximale Abtastfrequenz fA gibt es jedoch technische Grenzen. Da
die Abtastwerte meist mit einem Mikrocontroller oder mit Signalprozessoren verarbeitet
werden, bestimmen diese durch ihre Verarbeitungsgeschwindigkeit die maximale Abtastfrequenz. Beispiele und technische Grenzen fr Abtastfrequenzen gibt Tabelle 5.1 an.
Tabelle 5.1: Abtastfrequenzen in technischen Systemen

Regelkreise in der Verfahrenstechnik


CD-Audio-Aufzeichnung
DVD-Audio-Aufzeichnung
Verarbeitung mittels Mikrocontroller
Verarbeitung mittels Signalprozessor
Speicheroszilloskop

Abtastfrequenz
110 Hz
44,1 kHz
bis 192 kHz
bis 50 MHz
bis 720 MHz
bis 10 GHz

5.1 Grundlagen

5.1.2

213

Abtasttheorem

Bei der Abtastung gehen die Signalwerte zwischen den Abtastzeitpunkten verloren.
Unter bestimmten Bedingungen kann man diese Signalwerte vollstndig rekonstruieren.
Diese Bedingungen nennt das Abtasttheorem.

Satz 5.3 (Abtasttheorem)


Das Signal y(t) sei bandbegrenzt, d.h. fr seine Fourier-Transformierte Y (f ) gilt mit
B>0
Y (f ) = 0

fr |f | B.

(5.4)

Dann folgt, dass die Funktion y(t) zu jedem beliebigen Zeitpunkt t durch die Werte
y(tn ) = y(ntA ) = yn

,n Z

festgelegt ist, die sie in zeitlichen Abstnden


tA =

1
2B

annimmt. Mit Hilfe der Bandbegrenzung des Spektrums erhlt man


y(t) =

y(tn )

n=

sin(fA (t tn ))
fA (t tn )

, fA =

1
.
tA

(5.5)

Die Summe rekonstruiert das im Zeitbereich stetige Signal y(t) vollstndig auch
zwischen den diskreten Werten y(tn ), wenn die Abtastzeit tA 1/(2B) und somit

die Abtastfrequenz fA 2B ist.


Beweis:
Das zeitkontinuierliche Signal y(t) geht bei zeitquidistanter Abtastung in das Signal
y (t) ber. Dies geschieht durch Multiplikation mit einer Impulsreihe:
y (t) = y(t)

n=

(t ntA ) .

Die Fourier-Transformierte Y (f ) des abgetasteten Signals y (t) wird durch Faltung


im Frequenzbereich als
Y (f ) = Y (f ) F

n=

(t ntA )

5 Zeitdiskrete Signale

214
1.5

Y*(f)

0.5

0
2
f [Hz]

Abbildung 5.2: Schematische Darstellung


der Wiederholung des Spektrums bei der
Abtastung fr den Fall fA = 4 Hz

beschrieben. Unter Verwendung der Poissonschen Summenformel (3.161) folgt


8
+
8
+


1  j2 tk t
A
(t ntA ) = F
e
F
tA
n=
k=

9

1 
j2 tkA t
=
F e
tA
k=



1 
k
=
.
f
tA
tA
k=

Setzt man dieses Resultat in obige Formel fr Y (f ) ein, so ergibt sich





1 
k
Y (f ) = Y (f )

f
tA
tA
k=

Y ()

=
tA




1 
k
d

f
tA
tA
k=

k=

k
f
tA

Man erkennt, dass das ursprngliche Spektrum Y (f ) in Abstnden fA = 1/tA periodisch wiederholt wird, wie dies in Abbildung 5.2 fr fA = 4 Hz schematisch
dargestellt ist.
Damit eine eindeutige Rekonstruktion des Ursprungsspektrums berhaupt noch
mglich ist, darf seine Bandbreite nicht grer als 1/(2tA ) sein, damit sich die Spektren nicht berlappen. Also folgt:
Die Bandbreite des im Zeitbereich kontinuierlichen Signals darf die halbe Abtastfrequenz nicht berschreiten, wenn das abgetastete Signal vollstndig rekonstruiert
werden soll:
B

fA
.
2

5.1 Grundlagen

215

Um aus dem Spektrum des abgetasteten Signals Y (f ) das Spektrum des zeitkontinuierlichen Signals Y (f ) zu rekonstruieren, muss man es mit dem gewichteten symmetrischen Rechteckfenster tA r1/tA (f ) = tA rfA (f ) multiplizieren. Auf diese Weise
wird die Periodizitt des Spektrums aufgehoben. Man erhlt das Originalspektrum.
Eine Multiplikation im Frequenzbereich entspricht einer Faltung im Zeitbereich, womit fr die rekonstruierte Fourier-Transformierte des abgetasteten Signals
Y (f ) = Y (f ) tA rfA (f ) y(t) = y (t) F 1 {tA rfA (f )}
folgt. Durch den Vorfaktor tA wird das Rechteckfenster auf die Flche eins normiert.
Unter Beachtung von
F 1 {tA rfA (f )} =

sin(fA t)
fA t

, fA =

1
tA

wird daraus
y(t) =
=

n=


n=

y(ntA )(t ntA )


y(ntA )

sin(fA t)
fA t

sin(fA (t ntA ))
.
fA (t ntA )

Dies beweist die in (5.5) behauptete Formel.


Die ideale Rekonstruktion entspricht einer Entwicklung der Funktion y(t) in die zeitverschobenen Si-Funktionen. Bei Einhaltung des Abtasttheorems bilden diese ein vollstndiges Funktionensystem, das den Raum der quadratisch integrierbaren Funktionen
aufspannt. Die Koezienten sind gerade die Abtastwerte y(ntA ). Bei Einhaltung des
Abtasttheorems ndert sich die Funktion zwischen den Abtastwerten hinreichend langsam, so dass sie durch diese Werte charakterisiert werden kann. Die Rekonstruktion
konvergiert gegen die zeitkontinuierliche Funktion y(t). Somit lsst sich also in diesem
Fall die Funktion eindeutig aus den Abtastwerten rekonstruieren.
In den Abbildungen 5.3 und 5.4 sind Signale und deren versuchte Rekonstruktion gem
dem Abtasttheorem, d.h. ber Si-Funktionen, dargestellt. Hier ist das Originalsignal
stets als gestrichelte Linie und die rekonstruierten Signale sind als durchgehende Linien
eingezeichnet.
In Abbildung 5.3 ist exemplarisch die Rekonstruktion eines Signals ber die gewichteten
Si-Funktionen dargestellt. Wie deutlich zu sehen ist, kann das Signal nicht vollstndig
rekonstruiert werden. Ist jedoch eine ungefhre Gleichheit ausreichend, so ist diese Rekonstruktion durchaus brauchbar.
Anders verhlt sich dies mit der Rekonstruktion in Abbildung 5.4. Hier ist eine Abtastfrequenz gewhlt worden, die deutlich unter der vom Abtasttheorem geforderten
Frequenz liegt. Als Konsequenz ist die Rekonstruktion des ursprnglichen Signals unmglich. Das heit, die Entwicklung in die Si-Funktionen, wie sie laut Abtasttheorem
vorgesehen ist, konvergiert nicht gegen die Ursprungsfunktion.

5 Zeitdiskrete Signale

(t)

y(t) , y

3
2
1
0

rekon

y(t) , y (t)

216

3
2
1

t [sec]

6
5

(t)

rekon

y(t) , y

y(t) , y (t)

3
t [sec]

3
2

3
2
1
0

1
0

1
2

2.5
t [sec]

2.5
t [sec]

Abbildung 5.3: Beispiel zur gelungenen Rekonstruktion des Zeitverlaufs gem dem
Abtasttheorem

Bemerkung 5.6
1. Das Abtasttheorem gilt natrlich auch, wenn die Abtastwerte im zeitlichen
Abstand tA < tA genommen werden (berabtastung).
2. Fr die Gltigkeit des Abtasttheorems kommt es nicht auf die absolute Lage
der Abtastzeitpunkte an. Wichtig ist nur, dass sie quidistant sind und dass
ihr Abstand weniger als tA = 1/(2B) betrgt.
3. Fr praktische Anwendungen ist zu beachten, dass das Abtasttheorem eine
theoretische Aussage ist. Daher mssen die Fehler abgeschtzt werden, die
durch Abweichungen von den Voraussetzungen des Satzes entstehen. Die im
Wesentlichen zu beachtenden Fehler sind:
Der Quantisierungsfehler, da sich aufgrund der endlichen Ausgabe-Lnge
eines Analog-Digital-Wandlers die digitalen Amplitudenwerte von den exakten, stetigen Signalwerten unterscheiden. Dies wird z.B. in [KE05] untersucht.
Der Fehler durch das benutzte endliche Beobachtungsfenster T0 , da es in
jeder realen Anwendung nur gelingt, einen zeitlich begrenzten Ausschnitt

5.1 Grundlagen

217

(t)

y(t) , y

3
2
1
0

rekon

y(t) , y*(t)

3
2
1

t [sec]

t [sec]

y(t) , yrekon(t)

y(t) , y*(t)

4
3
2

4
3
2
1
0

1
0

1
2

2.5
t [sec]

2.5
t [sec]

Abbildung 5.4: Beispiel zur misslungenen Rekonstruktion des Zeitverlaufs gem dem
Abtasttheorem, Abtasttheorem verletzt

der Signalfunktion zu beobachten (Leckeekt). Dies wird in Abschnitt 5.5.6


behandelt.
Fehler durch spektrale berlappungen, Aliasing, da vollstndig bandbegrenzte Signale in der Praxis nicht existieren. Dies wird in Abschnitt 5.1.3
untersucht.
Fehler durch den Jitter des Abtastzeitpunktes, da sich der wahre Abtastzeitpunkt etwas von dem theoretisch richtigen Abtastzeitpunkt unterscheidet. Dies wird ebenfalls in [KE05] behandelt.

5.1.3

Aliasing

Im Beweis des Abtasttheorems wurde das Spektrum Y (f ) des abgetasteten Signals


y (t) als Summe der um ganzzahlige Vielfache der Abtastfrequenz fA verschobenen
Spektren Y (f ) hergeleitet:
Y (f ) = fA

k=

Y (f kfA ) .

5 Zeitdiskrete Signale

218
Y(f)

f
Y (f)
*

fA

Abbildung 5.5: Spektrale berlappung bei nicht bandbegrenztem Signal

Erstreckt sich das Spektrum Y (f ) ber den gesamten Frequenzbereich, so kommt es zu


spektralen berlappungen, die als Aliasing bezeichnet werden und die in Abbildung 5.5
exemplarisch zu sehen sind. (Der Name ist von dem Begri alias abgeleitet.)
Ist das Spektrum Y (f ) bandbegrenzt, so kann trotzdem eine spektrale berlappung
stattfinden, und zwar dann, wenn die Abtastfrequenz fA kleiner als das Doppelte der
hchsten, im Signal vorkommenden Frequenz ist. In Abbildung 5.6 erkennt man diesen
Fall. Im linken Fall ist die Abtastfrequenz so hoch, dass es nicht zu einer spektralen
berlappung kommt. Im rechten Fall tritt Aliasing auf. Hier ist die Abtastfrequenz zu
klein.
Sind die Voraussetzungen des Abtasttheorems also nicht erfllt, d.h. ist das Spektrum
des abzutastenden Signals y(t) nicht bandbegrenzt oder die Abtastfrequenz fA kleiner
als das Doppelte der Frequenz des grten Spektralanteils des Signals y(t), so kommt
es zu spektraler berlappung, also zu Aliasing. Eine eindeutige Zuordnung der Spektralanteile ist nicht mehr mglich.

Y(f)

Y (f)
*

Y (f)
*

fA

fA

Abbildung 5.6: Spektrale berlappung bei bandbegrenztem Signal

5.1 Grundlagen

219

Aliasing kann man aber nicht nur ber den Frequenzbereich feststellen, sondern auch
mit einem Beispiel im Zeitbereich zeigen.
Beispiel 5.7 (Aliasing eines zeitkontinuierlichen Signals)
Das zeitkontinuierliche Signal
y(t) = sin (2 50 Hz t) + sin (2 250 Hz t)
mit zwei harmonischen Schwingungen bei 50 Hz und 250 Hz soll mit einer Abtastfrequenz von
fA = 200 Hz
und somit einer Abtastzeit von
tA =

1
= 0, 005s
fA

abgetastet werden. Die Abtastwerte, die man auch in Abbildung 5.7 sehen kann,
lauten:

y(t) , y

0.5
0
0.5
1
0.01

0.02
0.03
t [sec]

0.04

Abbildung 5.7: Abtastwerte einer 50 Hzund einer 250 Hz-Schwingung bei einer
Abtastfrequenz von 200 Hz

|Y (f)|

300

100

0 100
f [Hz]

300

Abbildung 5.8: Frequenzbereich des Signals


y (t)

5 Zeitdiskrete Signale

220





50 Hz
250 Hz
yn = y(ntA ) = sin 2
n + sin 2
n
200 Hz
200 Hz
 


 
1
1
n
= sin 2 n + sin 2 1 +
4
4
' (
'
(
= sin
n + sin
n + 2n
2' (
2

n .
= 2 sin
2
Die beiden harmonischen Schwingungen kann man im abgetasteten Zustand nicht
mehr unterscheiden, d.h. ihre Spektralanteile berlappen sich.

Zur Verhinderung spektraler berlappung gibt es nun zwei Mglichkeiten:


1. Bei nicht bandbegrenzten Signalen muss man vor der Abtastung mit Hilfe eines
Tiefpasses Frequenzanteile ab der halben Abtastfrequenz vollstndig verschwinden lassen. In der Praxis muss sichergestellt werden, dass die Spektralanteile, die
Aliasing erzeugen, auf eine vernachlssigbare Strke herausgefiltert worden sind.
2. Bei bandbegrenzten Signalen muss die Abtastfrequenz fA grer als das Doppelte
der hchsten, im Signal vorkommenden Frequenz sein. Kann man die Abtastfrequenz fA nicht beliebig erhhen bzw. ist die Abtastfrequenz festgelegt, so muss
man wie unter Punkt 1. mit Hilfe eines Tiefpasses die Aliasing erzeugenden Spektralanteile herausfiltern.
5.1.3.1

Anti-Aliasing-Filter

An ein Filter, das Aliasing erzeugende Spektralanteile herausfiltert, ein Anti-AliasingFilter, sind natrlich hohe Forderungen gestellt. In dem Spektralbereich bis zur halben
Abtastfrequenz, der als Nyquistband bezeichnet wird, darf das Signal nicht gestrt werden. Oberhalb der halben Abtastfrequenz mssen alle Spektralanteile vollstndig verschwinden. Dies ist nur mit Hilfe eines idealen Tiefpasses mit der Grenzfrequenz f2A
mglich. Ein idealer Tiefpass ist in der realen Welt nicht zu verwirklichen. Man muss
hier mit sehr steilflankigen Filtern auskommen, vgl. Abschnitt 6.8.4.

5.1.4

Rekonstruktion

In der Praxis interessiert nicht nur die Abtastung, also der bergang vom zeitkontinuierlichen zum zeitdiskreten Signal, sondern auch die Rekonstruktion, d.h. der bergang
vom zeitdiskreten zum zeitkontinuierlichen Signal. Hierzu werden im Folgenden einige
Methoden dargestellt.
Systemtheoretisch wird die Rekonstruktion als Faltung der Impulsreihe
y (t) =

n=

yn (t ntA )

5.1 Grundlagen

221

mit der Impulsantwort g(t) eines Interpolationsfilters bzw. Rekonstruktionsfilters beschrieben:


y(t) = y (t) g(t) .
Dies entspricht einer Multiplikation bzw. Filterung im Frequenzbereich mit der bertragungsfunktion G(s) = L{g(t)} der jeweiligen Rekonstruktionsmethode.
5.1.4.1

Cardinal Hold

Das Abtasttheorem besagt, dass bei Abtastung von y(t) mit der Abtastfrequenz fA das
Signal y(t) durch
y(t) =

n=

yn

sin(fA (t ntA ))
fA (t ntA )

vollstndig rekonstruiert werden kann, wenn die Bedingungen des Abtasttheorems eingehalten worden sind. Die Rekonstruktion entspricht der Multiplikation mit einem symmetrischen Rechteckfenster im Frequenzbereich, das nur die Frequenzanteile des Nyquistbandes

fA fA
,
2 2
durchlsst, d.h. durch die Nyquistfrequenz fN = f2A nach oben und durch die negative
Nyquistfrequenz nach unten begrenzt wird. Das Rechteckfenster macht somit die durch
den Abtastvorgang entstandene Periodizitt des Spektrums Y (f ) rckgngig. Diese
Rekonstruktionsmethode wird auch Cardinal Hold genannt.
Das Cardinal-Hold-Filter hat im Frequenzbereich unendlich steile Flanken. Man stellt
weiterhin fest, dass bei der Rekonstruktion zu jedem Zeitpunkt alle Abtastwerte bentigt werden und die Cardinal-Hold-Methode somit akausal ist. Cardinal Hold ist deshalb
in der Praxis nicht durchfhrbar. Das heit man muss eine andere Mglichkeit finden,
durch geschickte Interpolation der Abtastwerte yn das zeitkontinuierliche Signal y(t) zu
reproduzieren.
Beim akausalen Cardinal-Hold-Filter ist die Impulsantwort g(t) des Rekonstruktionsfilters durch
g(t) =

sin(fA t)
fA t

(5.8)

gegeben, und die bertragungsfunktion ist ein idealer Tiefpass mit der halben Abtastfrequenz als Grenzfrequenz. Die Verwendung anderer Rekonstruktionsfilter stellt eine
Nherung dar. Die gebruchlichsten werden in den nchsten Abschnitten behandelt.
5.1.4.2

Zero-Order Hold

Das Zero-Order Hold ist das einfachste praktische Rekonstruktionsfilter. Es wird auch
box-car circuit, sample-and-hold oder data clamp genannt. Dabei wird angenommen,

5 Zeitdiskrete Signale

222
y(t)

Abbildung 5.9: Rekonstruktion des Zeitverlaufs mit dem Zero-Order Hold

dass die Abtastzeitpunkte so dicht liegen, dass sich die Funktion zwischen den Abtastwerten nur unwesentlich ndert. Zwischen den Abtastzeitpunkten hlt das Zero-Order
Hold den letzten Abtastwert als Funktionswert und springt an den Abtastzeitpunkten
jeweils auf den neuen Abtastwert. Aus dem gewichteten Impulszug y (t) entsteht eine
Treppenfunktion, welche die ursprngliche Funktion grob annhert. Dies ist in Abbildung 5.9 zu erkennen.
Die Impulsantwort des Rekonstruktionsfilters

1 , 0 t < tA
g(t) =
0 , sonst

(5.9)

bzw. der Frequenzgang


G(f ) = tA

sin(f tA ) jf tA
e
f tA

(5.10)

2
1
0.8
|G(f)|

g(t)

1.5

0.5

0.6
0.4
0.2
0

0.2

0.4
0.6
t [sec]

0.8

0
f [Hz]

Abbildung 5.10: Impulsantwort und Amplitudengang des Zero-Order-HoldRekonstruktionsfilters fr tA = 1[sec]

5.1 Grundlagen

223
|Y (f)|
*

fA

fA

fA

|G(f)|

|Y(f)|

Abbildung 5.11: Spektralverzerrung durch Verwendung des Zero-Order Hold

des Zero-Order Hold, welche in Abbildung 5.10 aufgefhrt sind, zeigen, dass erstens
eine starke Verzerrung des Nyquistbandes stattfindet und dass zweitens Frequenzanteile
oberhalb der Nyquistfrequenz vorhanden sind (siehe auch Abbildung 5.11).
5.1.4.3

Linear Point Connector

Als weitere einfache Rekonstruktionsmglichkeit bietet es sich an, die Abtastwerte mittels gerader Linien zu verbinden. Dies entspricht der Trapezregel.

y(t)

Abbildung 5.12: Rekonstruktion des Zeitverlaufs mit dem Linear Point Connector

5 Zeitdiskrete Signale

0.8

0.8

0.6

0.6

|G(f)|

g(t)

224

0.4

0.4

0.2

0.2

0
1

0.5

0
t [sec]

0.5

0
f [Hz]

Abbildung 5.13: Impulsantwort und Amplitudengang des Linear-Point-Connector-Rekonstruktionsfilters fr tA = 1[sec]

Die Impulsantwort des Rekonstruktionsfilters lsst sich durch

t
1 + tA , tA t < 0
g(t) = 1 ttA , 0 t < tA

0
, sonst

(5.11)

angeben, womit der Frequenzgang zu

G(f ) = tA si2 (f tA ) = tA

sin2 (f tA )
2

(f tA )

(5.12)

wird. Bei einer Betrachtung von Abbildung 5.13 wird deutlich, dass dieses Rekonstruktionsfilter im Frequenzbereich eine bessere Konvergenz als das Zero-Order-Hold-Filter
aufweist.
Der rekonstruierte Verlauf ist zwar im Vergleich zum Zero-Order Hold besser, aber man
erkennt sofort, dass diese Rekonstruktionsmethode im Gegensatz zum Zero-Order Hold
nicht kausal ist, da man den nchsten Abtastwert bereits bentigt. Dieses Problem kann
man dadurch umgehen, indem man die Ausgabe um einen Abtastschritt verzgert. Im
n-ten Intervall wird dann nicht die Verbindungsgerade zwischen den Abtastwerten yn
und yn+1 ausgegeben, sondern die Verbindungsgerade zwischen den Abtastwerten yn1
und yn . Das kann man immer genau dann tun, wenn die dadurch entstehende Totzeit
tA nicht strt. So stellt es z.B. bei der Rekonstruktion von Audiodaten auf einer CD
kein Problem dar, wenn die zeitkontinuierlichen Toninformationen um
tA =

1
1
=
= 22, 7sec
fA
44, 1 kHz

spter vom CD-Spieler geliefert werden.


5.1.4.4

Spline-Interpolation

Diese Rekonstruktionsmethode verwendet die Spline-Interpolation, um aus einer Folge


von Abtastwerten eine kontinuierliche Funktion zu erzeugen. An dieser Stelle wird keine

225

0.8

0.8

0.6

0.6
g(t)

g(t)

5.1 Grundlagen

0.4

0.4

0.2

0.2

0.2

0
t [sec]

0.2

0
t [sec]

Abbildung 5.14: Impulsantworten von Spline-Rekonstruktionsfiltern bei Verwendung von 5


bzw. 3 Sttzstellen

vollstndige Einfhrung in die Spline-Interpolation gegeben. Lediglich die Resultate


werden vorgestellt. Fr eine vollstndige Einfhrung sei auf [KE05] und [Kro91] verwiesen. Eine verkrzte Herleitung findet sich der Vollstndigkeit halber in Anhang E.
Je nach Anzahl der verwendeten Sttzstellen ergeben sich verschiedene Resultate. In
der Praxis wird man sich die Anzahl von Sttzstellen vorgeben und anschlieend die
Abtastwerte der Spline-Interpolation unterziehen. Man interpoliert zwischen einer sehr
groen Anzahl von Sttzwerten, was einer Lsung eines groen linearen Gleichungssystems entspricht, vgl. Anhang E.
In Anhang E wird auch die Impulsantwort eines Rekonstruktionsfilters auf der Basis
einer Spline-Interpolation mit den fnf Sttzstellen 2, 1, 0, 1, 2 berechnet. In Abbildung 5.14 ist neben dieser Impulsantwort noch die Impulsantwort dargestellt, die bei
Verwendung der drei Sttzstellen 1, 0, 1 entsteht.
5.1.4.5

Rekonstruktion ber die Fourier-Reihe

Das im Zeitbereich abgetastete Signal y (t) soll mit Hilfe der Fourier-Reihe rekonstruiert
werden. Die N zeitdiskreten Werte sind
yn = y(ntA ) , n =

N
N
,...,
1,
2
2

wobei wir der Einfachheit halber von einem geraden N ausgehen.


1. Man setzt eine Fourier-Reihe mit endlich vielen Koezienten an, was auf
N
2

y(t) =

1


Yk ej2k f t

k= N
2

, f =

1
N tA

fhrt. Die Spektralfunktion wird damit nur in dem Grundband mit den Werten
Y N , . . . , Y N 1
2

5 Zeitdiskrete Signale

226

bercksichtigt. Dadurch sind periodische Wiederholungen im Spektralbereich mit


einem idealen Rechteckfilter beseitigt worden. Die untere Grundfrequenz ist die
Beobachtungsfrequenz f = 1/(N tA ).
2. Die Koezienten in obiger Darstellung berechnen sich, wie man durch einen Vergleich mit der Definitionsgleichung (3.116) und Gleichung (5.74) fr die diskrete
Fourier-Transformation (DFT) erkennt, ber
Yk =

N 1
n
1 
yn ej2 N k
N n=0

,k =

N
N
,...,
1.
2
2

Dies hnelt bis auf den Vorfaktor gerade der diskreten Fourier-Transformation,
die in Abschnitt 5.5.1 definiert wird. Aufgrund des diskreten Spektrums wird die
Zeitfunktion periodisch fortgesetzt.
Die Rekonstruktion mit der Fourier-Reihe liefert immer dann hervorragende Ergebnisse,
wenn die periodische Fortsetzung im Zeitbereich keine Strungen ber das Gibbssche
Phnomen einbringt. Dazu mssen die Sprnge an den Bereichsgrenzen klein sein. Die
Rekonstruktion ist allerdings nicht schrittweise in Echtzeit durchfhrbar.
Beispiel 5.13 (Rekonstruktion eines Signals mittels der Fourier-Reihe)
In diesem Beispiel wird die Funktion
y(t) = et (1 cos(2 2 Hz t)) , 0 t 2,5 [sec] ,
erst mit tA = 0,25 s abgetastet und anschlieend mit Hilfe der Fourier-Reihe rekonstruiert. Das Resultat dieser Rekonstruktion ist in Abbildung 5.15 zu sehen. Obwohl
das Abtasttheorem gerade noch als Grenzfall erfllt ist, erhlt man eine gute Re
konstruktion des Signals.
2

2
y(t)
y (t)

1.5
1

0.5

0.5

0.5

0.5

1.5
t [sec]

y(t)
y

1.5

2.5

0.5

(t)

rekon

0.5

1.5
t [sec]

2.5

Abbildung 5.15: Beispiel der Rekonstruktion einer periodischen Funktion mittels einer
Fourier-Reihe

5.2 Diskrete Zufallsvariable

5.2

227

Diskrete Zufallsvariable

In der Digitaltechnik gibt es stochastische Prozesse, die keinen stetigen Fluss von Zufallswerten betrachten, sondern die zu quidistanten Zeitpunkten Zufallswerte X ausgeben, d.h. der Zeitbereich T , der in der Definition 3.35 auftritt, ist gerade N oder eine
endliche Teilmenge davon. In diesem Fall spricht man von einem zeitdiskreten stochastischen Prozess.
Weiterhin kann ein digital bearbeitetes Signal nur endlich viele, insbesondere also maximal abzhlbar viele, Werte annehmen. Eine Zufallsvariable, die eine solche Eigenschaft
aufweist, wird als diskrete Zufallsvariable bezeichnet. In diesem Fall geht die Wahrscheinlichkeitsdichte in eine diskrete Wahrscheinlichkeitsverteilung


mit

(p(xi ))iT

p(xi ) = 1

(5.14)

iT

ber. Die Zahl


P (X x) =

(5.15)

p(xi )

xi x

gibt dabei die Wahrscheinlichkeit an, dass das stochastische Signal X einen Wert kleiner
gleich x besitzt. Entsprechend werden das n-te Moment
E{X n } =

xni p(xi )

(5.16)

iT

und das n-te zentrale Moment


E{(X E{X})n } =


iT

(xi E{X})n p(xi )

(5.17)

definiert. Die Berechnung der Wahrscheinlichkeit und der Momente bei mehrdimensionalen diskreten Zufallsvektoren geht entsprechend. Auch die Begrie Kovarianz, Korrelation, Stationaritt und Ergodizitt lassen sich von den zeitkontinuierlichen stochastischen Prozessen meist mit Hilfe minimaler Modifikationen bernehmen. Der interessierte Leser findet hierzu in [BS75, Hn83, Ise74] genauere Ausfhrungen.

5.3

Fourier-Transformation zeitdiskreter Signale

Zur Bearbeitung von Problemen der Mess-, Steuerungs- und Regelungstechnik werden
Digitalrechner verwendet. Die Signale werden in solchen Digitalrechnern nicht mehr
kontinuierlich verarbeitet, sondern mssen abgetastet werden. Zwar erreicht man bei
gengend hoher Abtastrate eine quasikontinuierliche Verarbeitung, trotzdem unterscheiden sich die Spektren eines kontinuierlichen und eines abgetasteten Signals prinzipiell.
Dieser Unterschied wird im nchsten Abschnitt untersucht.

5 Zeitdiskrete Signale

228

5.3.1

Definition der Fourier-Transformation zeitdiskreter


Signale

Ein zeitkontinuierliches Signal y(t) werde mit der Abtastzeit tA abgetastet. Das abgetastete Signal y (t) ergibt sich aus y(t) durch Multiplikation mit einer Impulsreihe
y (t) = y(t)

n=

(5.18)

(t ntA )

oder als Folge


yn = y(ntA )

(5.19)

, n Z.

Setzt man (5.18) in (3.124) ein, so erhlt man die Fourier-Transformierte des zeitdiskreten Signals y (t) als
Y (f ) =

y (t)ej2f t dt =

n=

n=

y(t)(t ntA )ej2f t dt

y(t) (t ntA )ej2f t dt

y(ntA )ej2f ntA =

n=

yn ej2f ntA .

n=

Satz 5.20 (Fourier-Transformation zeitdiskreter Signale)


Das Spektrum eines mit der Abtastfrequenz 1/tA abgetasteten Signals y(t) ist durch
Y (f ) =

yn ej2f ntA =

n=

y(ntA )ej2f ntA

(5.21)

n=

gegeben. Die inverse Fourier-Transformation berechnet sich bei Zeitdiskretisierung


durch Integration ber das Nyquistband:
1

yn = tA

2tA

Y (f )ej2f ntA df.

(5.22)

2t1
A

Dies entspricht einer Rekonstruktion des zeitkontinuierlichen Signals y(t) mit anschlieender Abtastung zu yn .

5.3 Fourier-Transformation zeitdiskreter Signale

229

Beweis:
Zum Beweis von Gleichung (5.22) integrieren wir Y (f ) ber das Nyquistband und
setzen Gleichung (5.21) ein:
fA

fA

Y (f )e

j2f ntA

df =

fA
2

fA
2

yn ej2f n tA ej2nf tA df

n =
fA

y n

n =

ej2(nn )tA f df

fA
2

Mit der Substitution f tA = f , df = tA df folgt:


fA

Y (f )ej2f ntA df =

fA
2

y n

yn fA (n n ) = yn fA .

n =

n =

ej2f

(nn )

fA df

12

Man erkennt, dass das Spektrum (5.21) mit fA = 1/tA periodisch ist, da fr k Z gilt:




k
j2(f +
Y f +
=
y(ntA )e
tA
n=

k
tA )ntA

j2 tkA ntA
y(ntA )ej2f ntA e


n=
=1
= Y (f ).

Dies folgt bereits daraus, dass fr Y (f ) im Beweis des Abtasttheorems die Darstellung



1 
k
Y (f ) =
Y f
tA
tA
k=

hergeleitet wurde, aus welcher die Periodizitt unmittelbar abzulesen ist.


Zur Vereinfachung wird die Frequenz f oft auf die Abtastfrequenz 1/tA normiert. Dabei
ergibt sich die normierte Kreisfrequenz
=

2f
= 2f tA .
1/tA

(5.23)

5 Zeitdiskrete Signale

230
Dadurch vereinfacht sich (5.21) zu:
Y () =

yn ejn .

(5.24)

n=

Nun ist das Spektrum 2-periodisch.


Satz 5.25 (Fourier-Transformation zeitdiskreter Signale, normierte Version)
Das normierte Spektrum eines mit der Abtastfrequenz 1/tA abgetasteten Signals
y(t) ist mit = 2f tA durch
Y () =

yn ejn =

n=

y(ntA )ejn

(5.26)

n=

gegeben. Die inverse Fourier-Transformation berechnet sich bei Zeitdiskretisierung


durch
1
yn =
2

Y ()ejn d.

(5.27)

Bemerkung 5.28

1. Es ist zu beachten, dass die Variable die Abtastfrequenz fA beinhaltet und


nicht losgelst von dieser betrachtet werden kann.
2. Die normierte Fourier-Transformation zeitdiskreter Signale wird in der Literatur oft in Anlehnung an die englische Bezeichnung Discrete-Time FourierTransform auch mit
DTFT{yn } = Y () ,

IDTFT{Y ()} = yn

bezeichnet, ist aber nicht mit der diskreten Fourier-Transformation, DFT, zu


verwechseln.
3. Hat das ursprngliche zeitkontinuierliche Spektrum Y () von Null verschiedene
Anteile nur im Bereich
= [, ],
so stimmt das Spektrum Y () der im Zeitbereich abgetasteten Funktion y (t)
in diesem Bereich mit dem Spektrum Y () der zeitkontinuierlichen Funktion
y(t) berein. Genau dies ist die Aussage des Abtasttheorems von Shannon.
Normierte Kreisfrequenzen mit || werden wegen der Periodizitt des
Spektrums in den Bereich bis gespiegelt. Dies wurde in Abschnitt 5.1.3
behandelt.

5.3 Fourier-Transformation zeitdiskreter Signale

5.3.2

231

Eigenschaften der Fourier-Transformation


zeitdiskreter Signale

In diesem Abschnitt werden exemplarisch einige Eigenschaften fr die normierte FourierTransformation zeitdiskreter Signale vorgestellt. Diese erweisen sich bei der Betrachtung
zeitdiskreter Signale oft als hilfreich und sind in den meisten Fllen analog zu den
entsprechenden Aussagen bei zeitkontinuierlichen Signalen.
Satz 5.29 (Zeitversatz)
Die Fourier-Transformierte der zeitverschobenen Folge ynn0 ist durch eine modulierte Frequenzfunktion gegeben. Es gilt:
DTFT{ynn0 } = ejn0 Y () .

(5.30)

Beweis:
Die Aussage folgt durch Anwenden der Definitionsgleichung:



DTFT{ynn0 } =
ynn0 ejn =
ynn0 ej(nn0 ) ejn0
n=

= Y ()e

n=

jn0

Satz 5.31 (Frequenzversatz)


Die Fourier-Transformierte einer modulierten Wertefolge yn ej0 n ergibt sich ber
eine Frequenzverschiebung der Spektralfunktion. Es gilt:
DTFT{yn ej0 n } = Y ( 0 ) .

(5.32)

Beweis:
Ebenfalls mittels der Definitionsgleichung ergibt sich:



DTFT{yn ej0 n } =
yn ej0 n ejn =
yn ej(0 )n
n=

n=

= Y ( 0 ) .

Die beiden folgenden Aussagen lassen sich ebenfalls relativ einfach durch Anwendung
der Gleichungen (5.26) und (5.27) beweisen.
Satz 5.33 (Multiplikation zweier Wertefolgen)
Fr die Fourier-Transformation eines Produktes zweier Wertefolgen xn und yn gilt
DTFT{xn yn } =

1
X () Y ().
2

(5.34)

5 Zeitdiskrete Signale

232
Satz 5.35 (Faltung zweier Wertefolgen)

Die Faltung xn yn zweier Folgen xn und yn im Zeitbereich geht durch die FourierTransformation in eine Multiplikation ber. Mit X () = DTFT{xn } und Y () =
DTFT{yn } folgt
(5.36)

DTFT{xn yn } = X () Y ().

5.3.3

Energie- und Leistungsdichte

Die Kreuzkorrelation zweier zeitdiskreter Energiesignale x(n), y(n) mit diskreter Zeitverschiebung = ktA wird als das zeitdiskrete Innenprodukt
E
(k) = x(n + k), y(n)n =
Rxy

x(n + k)y (n)

(5.37)

n=

berechnet. Die Korrelation kann mit der Substitution m = n hnlich wie in Abschnitt
3.5.2.2 als Faltungssumme
E
Rxy
(k) =

m=

x(k m)y (m) = x(k) y (k)

(5.38)

formuliert werden. Die Fourier-Transformierte der zeitdiskreten Kreuzkorrelation fr


Energiesignale ist die Kreuzenergiedichte
E
Sxy
(f ) =

E
Rxy
(k)ej2f ktA .

(5.39)

k=

Bei Energiesignalen kann man die Energiedichte im Frequenzbereich ohne Umweg ber
die Korrelation unmittelbar aus dem Produkt der Fourier-Transformierten berechnen.
Durch Einsetzen von Gleichung (5.38) in Gleichung (5.39) folgt
E
Sxy
(f ) =

k= m=



k= m=

x(k m)y (m)ej2f ktA


x(k m)ej2f (km)tA y (m)ej2f mtA .

Mit der Substitution k = k m wird dies gleich dem Produkt


E
(f ) =
Sxy

k =

x(k )ej2f k tA

m=

y (m)ej2f mtA = X (f ) Y (f ) .

5.4 Abtastfrequenz

233

Die inverse Fourier-Transformation der Energiedichte im Frequenzbereich ist mit Gleichung (5.22) die zeitdiskrete Korrelation
fA

E
Rxy
(k) = tA

Sxy (f )ej2f ktA df .

fA
2

Die Energie des abgetasteten Signals ist gleich der Autokorrelationsfunktion an der
Stelle k = 0.
fA

E
Ex = Rxx
(k = 0) =

n=

|x(n)|2 = tA

E
Sxx
(f )df .

fA
2

Die Engergie Ex des abgetasteten Signals ist im Allgemeinen nicht identisch mit der
Energie Ex des zeitkontinuierlichen Signals.
Die Fourier-Transformierte der zeitdiskreten Korrelationsfunktion fr zeitdiskrete Leistungssignale ist die Leistungsdichte Sxy (f ). Eine unmittelbare Berechnung aus den
Fourier-Transformierten der Signale ist bei Leistungssignalen nicht mglich. Die Signalleistung des zeitdiskreten Signals ist gleich der zeitdiskreten Autokorrelationsfunktion
an der Zeitverschiebung k = 0,
fA

Px

2
N

1
= Rxx (k = 0) = lim
|x(n)|2 = tA
Sxx (f )df ,
N 2N + 1
n=N

fA
2

entsprechend dem Integral der Leistungsdichte des zeitdiskreten Signals ber dem Nyquistband.

5.4

Abtastfrequenz

Es ist einleuchtend, dass die Wahl der geeigneten Abtastfrequenz einen zentralen Punkt
der digitalen Signalverarbeitung darstellt. Das Abtasttheorem gibt Bedingungen zur
Vermeidung von Aliasing vor. Kann dieses jedoch nicht eingehalten werden, so sollen
durch geschickte Wahl der Abtastfrequenz fA Aliasingeinflsse minimiert werden.
Da das Spektrum realer Signale fr hohe Frequenzen gegen null geht, knnte man mit
einer gengend hohen Abtastfrequenz fA Aliasingfehler nahezu ausschlieen. In der
Praxis ist dieser Weg nicht immer gangbar. Wo hochfrequente Signale anfallen, beispielsweise in der Bild- und Sprachverarbeitung, kommt man sehr nahe an die Grenze
der Leistungsfhigkeit der digitalen Signalverarbeitungsanlagen. Damit ist die Abtastfrequenz durch die technischen Gegebenheiten begrenzt.
Wichtig fr die Wahl der Abtastfrequenz ist auch die Frage, wann die verarbeiteten
Daten zur Verfgung stehen mssen. Werden beispielsweise Versuchsdaten auf Datentrgern abgespeichert und die Signalverarbeitung im O-line-Betrieb vorgenommen, so

5 Zeitdiskrete Signale

234
aktueller Zeitpunkt

hier muss das Ergebnis vorliegen

t
zuknftige Werte, die in die Berechnung
mit eingehen drfen
Abbildung 5.16: Quasikausalitt im On-line-Betrieb

muss die Auswertung nicht mit dem gleichen Takt erfolgen, da die Signalwerte bereits
abgetastet worden sind. Der O-line-Betrieb ist aber nur dann durchfhrbar, wenn das
Ergebnis der Auswertung nicht in den Versuch zurckgefhrt werden muss. Der Vorteil liegt in der mglichen Verwendung akausaler Filter, da aufgrund der verspteten
Auswertung auch zuknftige Werte bereits vorliegen.
Im Gegensatz zum O-line-Betrieb stehen beim On-line-Betrieb neben dem aktuellen
Abtastwert lediglich alle bisherigen Abtastwerte zur Verfgung und das Ergebnis der
Signalverarbeitung muss idealerweise bereits beim darauffolgenden Abtastschritt vorhanden sein. Der Verarbeitungsalgorithmus muss also kausal sein. In vielen Fllen der
digitalen Signalverarbeitung, so z.B. bei der Sprach- und Bildverarbeitung, ist eine um
N +1 Abtastschritte verzgerte Ausgabe des Ergebnisses tolerierbar. Hierdurch knnten
die N dem aktuellen Zeitpunkt darauolgenden Abtastwerte in die aktuelle Berechnung
mit eingehen. Dadurch erreicht man eine Art Quasikausalitt. Dies ist in Abbildung 5.16
zu erkennen.
Bei der Wahl der Abtastfrequenz gibt es zwei wichtige Begrie, auf die im Folgenden
nher eingegangen wird. Bei der berabtastung wird eine Abtastfrequenz fA gewhlt,
die deutlich hher ist, als es vom Abtasttheorem gefordert wird. Bei der Unterabtastung
liegt die Abtastfrequenz fA hingegen deutlich niedriger.

5.4.1

berabtastung

Bei der Verarbeitung zeitkontinuierlicher Signale durch Digitalrechner werden diese Signale abgetastet und anschlieend rekonstruiert. Die Realisierung dafr geeigneter AntiAliasing- und Rekonstruktionsfilter kann dabei erhebliche Probleme aufwerfen. Im Folgenden wird gezeigt, wie man durch berabtastung und zeitdiskrete Filterung den Aufwand fr Anti-Aliasing- und Rekonstruktionsfilter reduzieren kann.
5.4.1.1

berabtastung bei der Anti-Aliasing-Filterung

Interessieren die Spektralinformationen eines Signals y(t) in einem Frequenzbereich


[fN , fN ], so muss aufgrund des Abtasttheorems das Signal y(t) mit mindestens der
Frequenz fA = 2fN abgetastet werden. Um Aliasing zu vermeiden, muss das Signal y(t)
zuerst mit einem idealen Tiefpass auf das Nyquistband [fN , fN ] beschrnkt werden.
In der Praxis gibt es keinen idealen Tiefpass, auerdem bewirken Tiefpsse mit hoher

5.4 Abtastfrequenz

y(t)

235

Analoges
Anti-AliasingFilter

berabtastung
mit

Verarbeitung,
Speicherung

Upsampling

fA

zm

yn

fA fA

zn

Zeitdiskretes
Anti-AliasingFilter

Zeitdiskretes
InterpolationsFilter

Downsampling

zn

xn

fA
fA

Analoges
RekonstruktionsFilter

zm

x
(t)

Abbildung 5.17: Vorgehen bei Benutzung der berabtastung

Flankensteilheit starke Phasenverzerrungen, vergleiche Beispiel 4.172, und sind sehr


aufwendig zu realisieren. Mit Hilfe der berabtastung kann man dieses Problem umgehen. Dabei verwendet man zuerst ein relativ einfaches Anti-Aliasing-Filter mit geringer
Flankensteilheit und tastet das gefilterte Signal mit einer deutlich hheren Abtastfrequenz fA ab. Das resultierende zeitdiskrete Signal yn wird dann mit einem zeitdiskreten
Filter hoher Flankensteilheit auf das eigentliche Nyquistband [fN , fN ] begrenzt. Danach reduziert man die Abtastfrequenz wieder auf fA = 2fN , was als Downsampling
bezeichnet wird.
Liegt die Frequenz fN in einem Bereich, bei dem es technisch kein Problem darstellt,
mit einer weitaus hheren Abtastfrequenz als 2fN berabzutasten, dann wird das Signal
y(t) mit der r-fachen Abtastfrequenz
fA = r fA = r 2fN

,r 1

(5.40)

abgetastet. Der Faktor r ist der Grad der berabtastung, man spricht etwa bei r =
4 von einer 4fachen berabtastung. Bei der spteren Betrachtung des so genannten
Downsampling ergibt sich der Faktor r sinnvollerweise als eine ganze Zahl.
Das mit der r-fachen Abtastfrequenz fA abgetastete Signal yn wird nun mit Hilfe eines
zeitdiskreten Filters im Spektralbereich auf das Nyquistband [fN , fN ] reduziert:
zn = S{yn } .

(5.41)

Dabei knnen zeitdiskrete Filter im Digitalrechner verwendet werden, die den Phasenverlauf weniger stark stren (siehe Abschnitt 6.8.4).
Das gefilterte, zeitdiskrete Signal zn besitzt definitionsgem nur Frequenzanteile im
eigentlichen Nyquistband, d.h. eine hhere Abtastrate als fA ist nicht mehr erforderlich.
Zur Berechnung von zm wird nun ein Gedankenexperiment durchgefhrt. Dabei wird
das gefilterte, zeitdiskrete Signal zn zuerst ideal rekonstruiert und anschlieend mit der
einfachen Abtastfrequenz fA wieder abgetastet.
Das gefilterte, zeitdiskrete Signal zn wurde zu den Zeitpunkten
tn =

n
n
= tA
2rfN
r

,n Z

(5.42)

5 Zeitdiskrete Signale

236

berabgetastet. Hieraus ergibt sich nach (5.5) mit B = rfN das rekonstruierte Signal
'
((
'
n

sin 2rfN t 2rf



N
'
( .
(5.43)
zn
z(t) =
n
t

2rf
n=
N
2rfN
Das zeitkontinuierliche Signal z(t) wird nun zu den Zeitpunkten
tm =

m
2fN

,m Z

(5.44)

mit der niedrigen Abtastrate 2fN abgetastet. Die abgetasteten Werte ergeben sich zu

zm

((
'
'
n
sin 2rfN 2fmN 2rf
N
'
(
= z(tm ) =
zn
m
n
2rfN 2fN 2rfN
n=
=

n=

zn

sin ((rm n))


.
(rm n)

(5.45)

Ist r Z \ {0}, dann gilt fr den sin(x)


x -Bruch

sin ((rm n))
1 , rm = n
=
.
0 , sonst
(rm n)
Hieraus folgt dann

zm = zrm
.

(5.46)

Dies bedeutet, dass zur Reduzierung der Abtastrate lediglich jeder r-te Abtastwert von
zn weiterverwendet wird. Fr allgemeine r R wre keine Vereinfachung zu (5.46)
mglich, sondern die Abtastwerte zm mit der einfachen Abtastfrequenz fA mssten
nach (5.45) bestimmt werden. In der Praxis wre das nicht durchfhrbar, weil nicht alle
Abtastwerte zn , n Z, zur Verfgung stehen.

Die Betrachtung im Frequenzbereich zeigt, dass bei der idealen Rekonstruktion (5.5)
das Spektrum Z (f ) des zeitdiskreten Signals zn im Frequenzbereich [rfN , rfN ] vollstndig und unverzerrt erhalten bleibt, seine Periodizitt verschwindet und es auerhalb des Frequenzbereiches [rfN , rfN ] keine Signalanteile besitzt. Die Abtastung mit
der einfachen Abtastfrequenz fA erzeugt eine periodische Fortsetzung des Spektrums
im Frequenzbereich [fN , fN ]. Um Aliasing zu vermeiden, mssen zuvor im Spektrum
Z (f ) des zeitdiskreten Signals zn alle Signalanteile im Frequenzbereich [rfN , fN ]
bzw. [fN , rfN ] verschwinden.
Der gesamte Vorgang der berabtastung wird in Abbildung 5.18 im Spektralbereich
gezeigt. Dabei wird das Signal y(t) durch 2fache berabtastung abgetastet, im zeitdiskreten Bereich auf das Nyquistband begrenzt und anschlieend durch Downsampling
auf die einfache Abtastfrequenz gebracht.

5.4 Abtastfrequenz

237
zeitkontinuierliches Signal

|Y(f)|

fN

fA

fN

fA

|Y '(f)|

f'A

f'A

berabgetastetes Signal

gefiltertes, berabgetastetes Signal

|Z '(f)|
*

fN

fA

fN

fA

|Z (f)|

f'A

f'A

einfach abgetastetes Signal

Abbildung 5.18: 2fache berabtastung eines Signals y(t) im Spektralbereich

Der Vorteil der berabtastung liegt in der Verwendung eines kostengnstig im Mikrorechner realisierbaren zeitdiskreten Anti-Aliasing-Filters. Der Nachteil liegt oensichtlich in der anfnglich hheren Abtastrate.
Zum Abschluss wird die berabtastung an einem Beispiel demonstriert.
Beispiel 5.47 (berabtastung bei der CD-Aufnahme)
Die technischen Daten einer Audio-CD schreiben eine Abtastfrequenz von
fA = 44,1 kHz
vor, d.h. die Nyquistfrequenz liegt bei fN = 22.050 Hz.
Der von einer Audio-CD bertragene Frequenzbereich liegt etwa zwischen 5 Hz und
20.000 Hz. Da an der oberen Grenze des Hrbereiches das Signal um maximal 3 dB
und bei der Nyquistfrequenz um mindestens 60 dB gedmpft werden soll, msste
man ohne berabtastung ein Anti-Aliasing-Filter sehr hoher Ordnung verwenden.
Dies wrde zu starken Phasenverzerrungen fhren, die im Audiobereich nicht tolerierbar sind, da das menschliche Ohr hierfr sehr empfindlich ist.
Hingegen liegt bei 8facher berabtastung die Abtastfrequenz bei 352,8 kHz, was
technisch kein Problem darstellt. Um hier Aliasingeekte zu vermeiden, muss das
Audiosignal erst ab 176,4 kHz praktisch verschwinden. Dies ist oftmals allein durch
das bertragungsverhalten des Mikrophons gegeben.
Nach zeitdiskreter Filterung auf die eigentliche Nyquistfrequenz 22.050 Hz folgt
dann das Downsampling auf die Abtastfrequenz 44,1 kHz.

5 Zeitdiskrete Signale

238
5.4.1.2

berabtastung bei der Rekonstruktion

Die berabtastung spielt nicht nur bei der Abtastung eines Signals und bei der Vermeidung von Aliasing eine Rolle, sondern auch bei der Rekonstruktion des zeitkontinuierlichen Signalverlaufes. In Abschnitt 5.1.4 wurde gezeigt, dass die Rekonstruktion
keine triviale Aufgabe ist, da man zur vollstndigen, fehlerfreien Rekonstruktion mittels
Cardinal Hold einen idealen Tiefpass bentigt. hnlich wie bei berabtastung zur Vermeidung steilflankiger Filter kann man auch hier den Weg der berabtastung gehen.
Zur Konstruktion eines berabgetasteten zeitdiskreten Signals zn wird die Abtastrate
durch quidistantes Einfgen von r 1 zustzlichen Werten zwischen den eigentlichen
Abtastwerten zm um den Faktor r erhht. Damit sinken die Anforderungen an das
Rekonstruktionsfilter.
Beim Einfgen von zustzlichen Werten bieten sich zwei Methoden an. Auf der einen
Seite werden Nullen eingefgt. Dies hat den Vorteil, dass der Energiegehalt des Signals nicht gendert wird. Dann wird das Spektrum mit einem ber das Nyquistband
[ f2A , f2A ] reichenden Tiefpassfilter gefiltert. Die Filterung entspricht einer Interpolation,
bei der die eingefgten Nullen durch interpolierte Zwischenwerte ersetzt werden. Die
zweite Mglichkeit besteht in der Wiederholung des jeweils letzten ursprnglichen Abtastwertes, d.h. ein Abtastwert zm wird r 1-Mal zustzlich eingefgt. Dadurch erhht
sich natrlich der Energiegehalt des Signals. Dies soll nun mathematisch beschrieben
werden. Hierbei werden die beiden Mglichkeiten zur Ausfllung der Zwischenstellen
separat betrachtet.
Einfgen von Nullen. Das Spektrum des zeitdiskreten Signals zm = z(mtA ) , m Z,
wird nach Gleichung (5.21) durch
Z (f ) =

zm ej2f mtA

m=

beschrieben. Beim Einfgen von Nullen entstehen aus den einfachen mit der Abtastfrequenz fA abgetasteten Abtastwerten zm die Abtastwerte

zm , n = r m
zn =
(5.48)
0 , sonst
mit der Abtastfrequenz rfA , deren Spektrum sich vom Spektrum Z (f ) des ursprnglichen, zeitdiskreten Signals zm nicht unterscheidet:
Z (f ) =
=

n=

zn ej2f n

m=

tA
r

zm ej2f rm

tA
r

m=

zm ej2f mtA = Z (f ) .

Dies ist auch einleuchtend, denn betrachtet man ein zeitdiskretes Signal als Impulsreihe, so werden beim Einfgen von Nullen nur Impulse der Hhe null eingefgt. Die
zeitdiskrete Funktion z (t) ndert sich nicht. Die Zeit- und Spektralfunktionen finden
sich in Abbildung 5.19.

5.4 Abtastfrequenz

Originalspektrum

0.6
z (t), z (t)

|Z (f )|, |Z (f )|

239

0.4
0.2
0

-0.2
-2

fA

fA

-1

f [Hz]
Spektrum nach zeitdiskreter Filterung

t [sec]

0.6
x (t)

|X (f )|

0.4
0.2
0
0

-0.2
-2

fA

f [Hz]

-1

0
t [sec]

Abbildung 5.19: Originalspektrum = Spektrum nach Einfgen von Nullwerten; darunter


Spektrum nach zeitdiskreter Filterung, was einer Interpolation entspricht, bei berabtastung
um den Faktor 4

Wiederholen des Abtastwertes. Bei r 1fachem Wiederholen des letzten Abtastwertes


werden die neuen Abtastwerte durch
zn = zm

, n = rm + i

(5.49)

, i = 0 . . . r 1 , m Z,

beschrieben. Deren Fourier-Transformierte


Z (f ) =
=

zn ej2f n

n=

m=

wird mit

tA
r

r1



zm ej2f (rm + i)

m= i=0

zm ej2f mtA

r1

tA
ej2f i r
i=0



r1

tA
1
sin (f tA )


ej2f i r = ejf tA 1 r
sin f trA
i=0

tA
r

5 Zeitdiskrete Signale

240

Originalspektrum

0.6
z (t)

|Z (f )|

3
2
1

0.4
0.2
0

-0.2
-2

fA

-1

f [Hz]
Spektrum nach Wiederholen des Abtastwertes

0.6
z (t)

3
|Z (f )|

0
t [sec]

2
1

0.4
0.2
0

0
f [Hz]

fA

-0.2
-2

-1

0
t [sec]

Abbildung 5.20: Ursprngliches Spektrum eines zeitdiskreten Signals; darunter Spektrum


nach Wiederholen des letzten Abtastwertes bei 4facher berabtastung; deutlich ist die Erhhung
des Energieinhalts erkennbar

durch


1
sin (f tA )


Z (f ) = Z (f ) ejf tA 1 r
sin f trA

(5.50)

beschrieben. Hier erkennt man auf der einen Seite eine Phasenverzerrung durch
ejf tA (11/r) und auf der anderen Seite eine Amplitudenverzerrung durch den Quotienten zweier Sinus-Schwingungen. In Abbildung 5.20 sieht man deutlich die Verzerrung
des Spektrums bei Wiederholen des letzten Abtastwertes.

In der Praxis wird man also Nullen einfgen, um eine Verzerrung des Spektrums zu vermeiden. Durch das Upsampling auf zn bzw. Z (f ) verndert sich das Spektrum nicht.
Die Interpolation zwischen vorhandenen Sttzstellen (Abstand tA ) ersetzt die willkrlich eingefgten Nullen (Abstand trA ) durch interpolierte Sttzstellen. Die Interpolation
erfolgt mit einem idealen Rechtecktiefpass mit der Grenzfrequenz f2A (nicht r f2A !).
Die Aufeinanderfolge von Upsampling und Interpolationsfilter kann analytisch durch
eine Rekonstruktion der zm und anschlieende berabtastung mit fA = rfA beschrieben

5.4 Abtastfrequenz

1
0.5
0

f [Hz]

fA

1
0.5
0

f [Hz]

fA

|X (f )|

xn

|Z (f )|

zn

|Z (f )|

zm

241

1
0.5
0

f [Hz]

fA

Abbildung 5.21: Vorgang bei der Rekonstruktion; die interpolierten Sttzstellen mit n = rm
werden durch Cardinal-Hold-Filterung gewonnen

werden. Die Rekonstruktion ist nach Gleichung (5.5)


x
(t) =

zm

m=

sin(fA (t mtA ))
.
fA (t mtA )

Die berabtastung ergibt

xn = x
(t = ntA ) =

m=

m=

zm

zm

sin(fA ( nr tA mtA ))
fA ( nr tA mtA )

sin(( nr m))
.
( nr m)

In den ursprnglichen Sttzstellen gilt n = rm und damit


xn = zn/r .

5 Zeitdiskrete Signale

242
Beispiel 5.51 (berabtastung bei der CD-Wiedergabe)

Bei der Wiedergabe einer Audio-CD liegen die zeitdiskreten Audiosignale mit der
festen Abtastfrequenz fA = 44,1 kHz vor. Um die Verwendung eines steilflankigen
zeitkontinuierlichen Rekonstruktionsfilters zu vermeiden, wird in CD-Wiedergabegerten die Methode des berabtastens verwendet.
Bei einer exemplarischen berabtastrate von 4 fgt man drei Nullwerte quidistant
zwischen den von der CD gelesenen Abtastwerten ein. Dadurch erhht sich die Abtastfrequenz fA um den Faktor 4. Nun filtert man mit Hilfe eines zeitdiskreten Filters
die Frequenzanteile von der eigentlichen Nyquistfrequenz fN bis zur berabgetaste
heraus. Damit ist das eigentliche Signal wieder hergestellt.
ten Nyquistfrequenz fN
Dieses kann dann mit Hilfe eines einfachen Rekonstruktionsfilters ausgegeben werden.
In Abbildung 5.21 sieht man in der ersten Abbildung die von der CD gelesenen Abtastwerte zm , in der zweiten Abbildung das dazugehrige Spektrum Z (f ). In der
dritten Abbildung sieht man die Wertefolge zn nach dem Einfgen von Nullen, in der
vierten Abbildung das dazugehrige, unvernderte Spektrum Z (f ). In der fnften
Abbildung sieht man die interpolierte Wertefolge xn . Diese wurde durch Rechteckfilterung des Nyquistbandes ermittelt, wie das dazugehrige Spektrum X (f ) in der
sechsten Abbildung zeigt.

Schon hier sei angemerkt, dass eine zeitdiskrete Filterung durch Additionen, Multiplikationen und Speicherungen durchgefhrt wird. Fgt man zur berabtastung Nullen zwischen den ursprnglichen Werten ein, so erhht sich der Rechenaufwand nur
unwesentlich, da die Multiplikation bzw. die Addition mit Null trivial ist und keiner
Rechenzeit bedarf.

5.4.2

Unterabtastung

Bei der berabtastung whlt man eine hhere Abtastfrequenz, um ein Signal y(t) verzerrungsrmer abzutasten bzw. zu rekonstruieren. Dies ist nur dann sinnvoll, wenn der
grere Aufwand fr die hhere Abtastfrequenz durch die bessere Qualitt des Signals
gerechtfertigt wird. Die hhere Abtastfrequenz muss natrlich technologisch realisierbar
sein.
Hat man hingegen ein Bandpass-Signal y(t) mit sehr hohen Frequenzanteilen (z.B. Bildsignal, Signal einer UKW-Antenne etc.), und kann die nach dem Abtasttheorem geforderte kleinste Abtastfrequenz gar nicht oder nur mit unverhltnismig hohem Aufwand
realisiert werden, so muss man eine kleinere Abtastfrequenz whlen. Welche Bedingungen erfllt sein mssen, damit diese Unterabtastung nicht zu Aliasingeekten fhrt, soll
im Folgenden behandelt werden.
Zum Verstndnis der Funktionsweise der Unterabtastung wird das folgende Beispiel
betrachtet.

5.4 Abtastfrequenz

243

Beispiel 5.52 (Unterabtastung einer harmonischen Schwingung)


Ein Signal y(t) bestehe aus einer einzigen harmonischen Schwingung der Frequenz
f0 = 120 Hz. Dieses Signal wird nun mit der Frequenz fA = 100 Hz abgetastet. In
diesem Fall ist die Bedingung des Abtasttheorems, dass die Abtastfrequenz grer als
das Doppelte des hchsten vorkommenden Signalanteils sein muss, nicht eingehalten
worden.
Die harmonische Schwingung findet sich im Nyquistband [fN , fN ] bei der Frequenz 20 Hz wieder. Genauso wrden sich bei dieser Abtastfrequenz harmonische
Schwingungen der Frequenzen
f0 = 20 Hz + r 100 Hz

, r Z,

bei der Frequenz 20 Hz wiederfinden. Trotzdem tritt kein Aliasing auf, wenn das
Signal y(t) nur bei einer dieser Frequenzen einen Spektralanteil besitzt, da sich dann
keine Spektralanteile berlappen knnen.

Nun bestehen Signale im Allgemeinen nicht nur aus einzelnen harmonischen Schwingungen, sondern zumindest aus einem Frequenzband. Durch geschickte Wahl der Abtastfrequenz, die hier kleiner als jede vorkommende Frequenz ist, kann eventuell Aliasing
vermieden werden. Hierzu muss das Frequenzband definiert werden.
Definition 5.53 (Frequenzband)
Besitzt ein Signal nur Spektralanteile innerhalb eines bestimmten Frequenzintervalls,
welches dann als Frequenzband bezeichnet wird, so gibt die Mittenfrequenz f0 die
mittlere Frequenz dieses Intervalls und die Bandbreite B die Dierenz zwischen der
hchsten und niedrigsten vorkommenden Frequenz an. Hierbei wird B f0 gefordert. Abbildung 5.22 stellt ein Frequenzband mit der Mittenfrequenz f0 und der
Bandbreite B dar.

Y(f)

f0

Abbildung 5.22: Frequenzband mit der


Mittenfrequenz f0 und der Bandbreite B

Bemerkung 5.54
1. Die Variable B hat im Zusammenhang mit einem Frequenzband eine andere
Bedeutung als die bei der Definition des Abtasttheorems verwendete Variable B.
2. Da bandbegrenzte reelle Signale Spektralanteile sowohl im positiven als auch
im negativen Frequenzbereich besitzen, msste man bei ihnen immer zwei Frequenzbnder angeben. Da aber die Bandbreite beider Frequenzbnder gleich ist
und sich die Mittenfrequenzen, vom Vorzeichen abgesehen, auch nicht unterscheiden, spricht man auch bei reellen Signalen immer nur von einem Frequenzband. Trotzdem muss man das zweite Frequenzband bei der Unterabtastung

bercksichtigen, um Aliasingeekte auszuschlieen.

5 Zeitdiskrete Signale

244

Entsprechend Beispiel 5.52 soll nun nur die Mittenfrequenz f0 bei der Unterabtastung
herangezogen werden. Dabei wird die Wahl der Abtastfrequenz fA nicht eindeutig sein.
Die Bandbreite B des Frequenzbandes dient dann zur Bestimmung der Abtastfrequenz,
bei der kein Aliasing auftritt.
Bei der Wahl der Abtastfrequenz fA zur Unterabtastung der Mittenfrequenz muss festgelegt werden, bei welcher Frequenz f0 im Nyquistband die Mittenfrequenz f0 erscheinen
soll. Entsprechend Beispiel 5.52 erscheint bei der Abtastfrequenz fA die Mittenfrequenz
bei den Frequenzen
f0 = f0 + r fA

, r Z.

Besitzt man eine feste Mittenfrequenz f0 , so projizieren alle Abtastfrequenzen


fA =

f0 f0
r

(5.55)

, r Z \ {0},

die feste Mittenfrequenz f0 auf die Frequenz f0 im Nyquistband. Die Abtastfrequenzen


werden mit grer werdendem r immer kleiner. Die untere Schranke stellt die Bandbreite
B dar, wie im Folgenden gezeigt wird.
Nach Kenntnis der mglichen Frequenzen, die im Nyquistband als Bildfrequenzen erreicht werden knnen, stellt sich die Frage, auf welche Frequenz f0 die Mittenfrequenz
f0 projiziert werden soll. Zwei typische Mglichkeiten sind die Frequenzen f0 = 0 Hz
und f0 = f2N . Weshalb das so ist, soll nun untersucht werden.
Da man bei reellen Signalen beide Frequenzbnder beachten muss, fhrt man ein Bandspektrum YB (f ) ein, das dem um die Mittenfrequenz f0 verschobenen positiven Frequenzband des zeitkontinuierlichen Signals y(t) entspricht, d.h. man definiert die Funktion

:
;
Y (f + f0 ) , f B2 , B2
YB (f ) =
,
0
, sonst
welche in Abbildung 5.24 dargestellt ist.
Nulllinie

fA

f0

f0 + fA

f0 = f0 + rfA f0 + fA

f0 + 2rfA

Abbildung 5.23: Schematische Darstellung der Projektion einer Mittenfrequenz


ins Nyquistband

5.4 Abtastfrequenz

245

Y(f)

Y (f)
B

f0

Abbildung 5.24: Bandspektrum eines


reellen Signals

Das Spektrum Y (f ) besteht aus den beiden Frequenzbndern im positiven bzw. negativen Frequenzbereich, die durch
Y (f ) = Y + (f ) + Y (f )

(5.56)

mit
Y + (f ) = YB (+f f0 )
Y (f ) = YB ((f + f0 )) = YB (f f0 )
definiert sind. Ihr zeitdiskretes Spektrum Y (f ) nach Abtastung mit der Abtastfrequenz
fA wird durch
Y (f ) = Y+ (f ) + Y (f )

(5.57)

mit
Y+ (f ) = fA

YB (+f f0 + kfA )

k=

Y (f ) = fA

YB (f f0 + kfA )

k=

beschrieben.
5.4.2.1

Symmetrische Bandspektren

Mchte man nun die Mittenfrequenz f0 auf die Frequenz f0 = 0 Hz projizieren, so kann
man als Abtastfrequenz
fA =

f0
r

, r Z,

whlen. Soll das Spektrum im Nyquistband [fN , fN ] betrachtet werden, so erhlt man
fr ein ganzzahliges k mit
k

f0
fA,min

=r

,k N

das Spektrum
Y (f ) = fA (YB (f ) + YB (f ))

5 Zeitdiskrete Signale

246
Y(f)





Y (f)




f0 = 0

Abbildung 5.25: Maximal zulssige Bandbreite bei einem symmetrischen Bandspektrum

des zeitdiskreten Signals yn im Nyquistband [ f2A , f2A ]. Die Summe von YB (f ) und
YB (f ) stellt eine spektrale berlappung um die Frequenz 0 Hz dar. Ist das Bandspektrum YB (f ) aber achsensymmetrisch,
YB (f ) = YB (f ),
d.h. ist das Frequenzband des reellen Signals symmetrisch um die Mittenfrequenz, so
folgt fr das Spektrum im Nyquistband [fN , fN ] :
Y (f ) = 2fA YB (f ) .
Es tritt damit kein Aliasing auf. Abbildung 5.25 veranschaulicht, dass das Bandspektrum mit seiner Bandbreite B das gesamte Nyquistband ausfllen darf. Das heit die
Abtastfrequenz bei achsensymmetrischen Signalen wird durch die Ungleichung
B < 2fN = fA,min
nach unten begrenzt. In Abbildung 5.25 sind ein ursprngliches und ein durch die Unterabtastung entstehendes Spektrum dargestellt. Die durch die Unterabtastung entstehende berlagerung, die zur doppelten Hhe des Spektrums fhrt, ist zu erkennen.
Zusammenfassend gilt nun folgender Satz:
Satz 5.58 (Unterabtastung bei symmetrischen Bandspektren)
Bei symmetrischen Bandspektren wird die Mittenfrequenz idealerweise auf die Frequenz f0 = 0 Hz projiziert. Dafr stehen die Abtastfrequenzen
fA =

f0
r

, r Z \ {0},

(5.59)

5.4 Abtastfrequenz

247

zur Verfgung, wobei als untere Schranke fr die Abtastfrequenzen die Ungleichung
(5.60)

fA,min > B
und somit

f0
(5.61)
B
gilt. Das Spektrum des unterabgetasteten Signales im Nyquistband [fN , fN ] wird
durch
kr=

(5.62)

Y (f ) = 2fA YB (f )
beschrieben.
5.4.2.2

Unsymmetrische Bandspektren

Bei unsymmetrischen Bandspektren ist eine Projektion auf die Frequenz f0 = 0 Hz


nicht mglich, da sich die Frequenzbnder im positiven bzw. negativen Frequenzbereich
nach der Projektion spektral berlappen und somit aufgrund der nicht vorhandenen
Symmetrie Information zerstren wrden. Fr die positive Mittenfrequenz f0 ist also
eine Stelle zu suchen, bei der nach der Projektion die beiden Mittenfrequenzen f0 und
f0 mglichst weit voneinander entfernt sind und dennoch die Spektren im Nyquistband
liegen. Dies ist bei der Frequenz
fN
fA
=
2
4
der Fall. Damit ergeben sich durch
f0 =

fA
4f0
+ r fA fA =
4
4r + 1
alle mglichen Abtastfrequenzen. Soll das Spektrum im halben negativen und im halben
positiven Nyquistband [fN , 0] bzw. [0, fN ] betrachtet werden, so erhlt man fr ein
ganzzahliges k
f0 =

kr=

1
f0

fA,min
4

,k N

das Spektrum


fA
fA
) + YB (f
)
Y (f ) = fA YB (f
4
4
des zeitdiskreten Signals yn im Nyquistband [ f2A , f2A ]. Aufgrund der Verschiebung um
fA
4 gibt es keine berlappung der beiden Teilspektren. Die untere Schranke
fA,min
2
der Abtastfrequenz fA fr unsymmetrische Bandspektren erkennt man in Abbildung
5.26.
B < fN =

Insgesamt gilt also der Satz:

5 Zeitdiskrete Signale

248
Y(f)





Y (f)




f0

fN

Abbildung 5.26: Maximal zulssige Bandbreite bei unsymmetrischen Bandspektren

Satz 5.63 (Unterabtastung bei unsymmetrischen Bandspektren)


Bei unsymmetrischen Bandspektren wird die Mittenfrequenz f0 idealerweise auf die
halbe Nyquistfrequenz f0 = f2N projiziert. Damit stehen die Abtastfrequenzen
fA =

4f0
4r + 1

, r Z,

(5.64)

zur Verfgung, wobei als untere Schranke fr die Abtastfrequenz fA die Ungleichung
fA,min > 2B

(5.65)

und somit
kr=

f0
1

2B
4

(5.66)

gilt. Das Spektrum im Nyquistband [fN , fN ] wird durch




 

fA
fA
+ YB f
Y (f ) = fA YB f
4
4
beschrieben.
Die Unterabtastung wird an einem Beispiel demonstriert.

(5.67)

5.4 Abtastfrequenz

249

Beispiel 5.68 (Radiosignal)


Ein Radiosignal mit der Mittenfrequenz f0 = 20 MHz und der Bandbreite B =
248 kHz soll abgetastet werden. Um den Projektionspunkt f0 der Mittenfrequenz f0
festzulegen, unterscheidet man die beiden Flle eines symmetrischen bzw. unsymmetrischen Bandspektrums.
1. Bei einem symmetrischen Bandspektrum, wie es z.B. bei der Amplitudenmodulation vorkommt, wird die Mittenfrequenz auf die Frequenz f0 = 0 Hz projiziert. Mit (5.59) erhlt man nun alle mglichen Abtastfrequenzen:
fA =

20 MHz
r

, r Z \ {0} .

Gleichung (5.60) gibt die untere Schranke fr die Abtastfrequenz fA vor:


fA,min > B = 248 kHz .
Die kleinste Abtastfrequenz fA , die dies erfllt, ergibt sich mit r = 80 zu
fA = 250 kHz.
2. Bei einem unsymmetrischen Bandspektrum, wie es z.B. bei der Frequenzmodulation vorkommt, wird die Mittenfrequenz f0 auf die halbe Nyquistfrequenz
projiziert. Mit (5.64) erhlt man alle mglichen Abtastfrequenzen:
fA =

4 20 MHz
4r + 1

,r Z.

Gleichung (5.65) gibt die untere Schranke fr die Abtastfrequenz fA an:


fA,min > 2B = 496 kHz .
Hieraus ergibt sich mit k = 40 die kleinste Abtastfrequenz zu
fA = 496,89 kHz.
Bemerkung 5.69

Die Unterabtastung setzt voraus, dass das abzutastende Signal ein Bandpass-Signal
ist. Dies ist natrlich im Allgemeinen nicht immer gegeben. Das heit, man muss
vor der Abtastung das Signal auf den wesentlichen Frequenzbereich bandpassfiltern.
Da die Unterabtastung hauptschlich bei sehr hochfrequenten, aber schmalbandigen
Signalen benutzt wird, stellt die Filterung, z.B. durch ein steilflankiges Quarzfilter,
kein Problem dar.
Die Rekonstruktion des ursprnglichen, hochfrequenten Signals aus den zeitdiskreten Signalwerten nach der Unterabtastung ist im Allgemeinen nicht mglich, da
bei der Rekonstruktion immer das Nyquistband wiederhergestellt wird. Dieses liegt
nach der Unterabtastung im niederfrequenten Bereich. Eine Rekonstruktion wre
nur dann mglich, wenn man das abgetastete Signal yn durch Einfgen von Nullwerten auf eine Abtastfrequenz berabtastet, die mindestens doppelt so gro ist, wie

5 Zeitdiskrete Signale

250

die maximal vorkommende Frequenz im Bandpass-Signal y(t). Durch zeitdiskrete


Filterung knnte man dann das Bandpass-Signal im hochfrequenten Nyquistband
isolieren und rekonstruieren. Dies ist aber meist nicht sinnvoll, weil die Unterabtastung gerade deshalb angewendet wurde, um hhere Abtastfrequenzen zu umgehen.
Die Unterabtastung ist auch im Zeitdiskreten mglich. Dabei nimmt man z.B. nur
jeden r-ten Abtastwert fr die weitere Verarbeitungskette. Damit reduziert sich
die Abtastfrequenz auf 1/r der alten Abtastfrequenz. Voraussetzung ist wieder ein
Bandpass-Signal, das man durch zeitdiskrete Filterung erreichen kann. Eine eventuelle Verschiebung des Signals im Frequenzbereich um f0 in positive bzw. negative
Richtung erreicht man, wie bei der Betrachtung der Fourier-Transformation nachgewiesen, durch Modulation des Signals im Zeitbereich mit ej2f0 t bzw. ej2f0 t .
Die Unterabtastung eines amplitudenmodulierten Signals mit Projektion der Mittenfrequenz f0 auf die Frequenz 0 Hz entspricht der Demodulation des Signals.

5.5

Spektralanalyse

Die bisher betrachteten Transformationen eignen sich nicht fr eine Spektralanalyse auf
Digitalrechnern. Zu diesem Zweck wird die geeignete diskrete Fourier-Transformation
eingefhrt, die zustzlich zum Zeitbereich auch den Frequenzbereich diskretisiert.

5.5.1

Diskrete Fourier-Transformation, DFT

In der Praxis ist die Fourier-Transformation zeitdiskreter Signale nicht anwendbar, denn
bei der Ausfhrung auf einem Digitalrechner oder allgemein durch ein digitales System
treten zwei Probleme auf:
Es knnen nur endlich viele Abtastwerte yn verarbeitet werden, da der Speicherplatz in einem Rechner endlich ist.
Neben der Zeitvariablen muss auch die Frequenzvariable diskretisiert werden, da
der Rechner nur diskrete Zahlenwerte verarbeiten kann.
Die beiden aufgezeigten Probleme lassen sich mittels geschickter Anstze relativ einfach
beheben. Man muss lediglich betrachten, was man bei der Diskretisierung verloren hat.
Geht man von Gleichung (5.26) aus
Y () =

yn ejn

n=

und bercksichtigt, dass man nicht unendlich viele Werte yn erfassen und bearbeiten
kann, so beschrnkt man sich in der Realitt auf N Werte. Daraus ndert sich die
Beobachtungszeit zu
T 0 = N tA ,

(5.70)

5.5 Spektralanalyse

251

dem Produkt der Abtastzeit tA mit der Anzahl N der betrachteten Abtastwerte, und
die Beobachtungsfrequenz resultiert zu
1
1
fA
.
=
=
T0
N tA
N

f =

(5.71)

Bei insgesamt N Abtastwerten luft der Zhlindex n fr den Zeitparameter in der


Summe z.B. von 0 bis N 1. Die Funktion ist auerhalb der N Abtastwerte im Zeitbereich periodisch fortgesetzt. Damit ist das Spektrum auch im Frequenzbereich diskret.
Das erste der genannten Probleme ist gelst.
Um auch das zweite Problem zu lsen, erinnert man sich der Tatsache, dass das Spektrum eines zeitdiskreten Signals periodisch ist. Deshalb bentigt man zur Beschreibung
des Spektrums nur eine einzige Periode. Bei der Diskretisierung, d.h. der Abtastung
des Spektrums werden in dieses Intervall endlich viele Spektrallinien gelegt. Ihre Anzahl ist grundstzlich beliebig whlbar, jedoch ist es gnstig, dieselbe Anzahl N von
Sttzstellen im Spektralbereich wie im Zeitbereich zu whlen.
Bei Verwendung der Abtastfrequenz
1
= N f
tA

fA =

(5.72)

ist die Auflsung des Spektrums durch die Beobachtungsfrequenz


1
fA
=
N
N tA

f =

(5.73)

gegeben.
Setzt man die Bedingung 0 n N 1 fr das beschrnkte Zeitintervall in Gleichung
(5.26) ein und diskretisiert man die normierte Kreisfrequenz mit fk = kf auf
k =

2fk
2kf
2ktA
=
=
= 2k/N,
1/tA
1/tA
N tA

so erhlt man die Diskrete Fourier-Transformation, DFT :


Yk =

N
1

n=0

yn ej2kn/N

, k = 0, . . . , N 1 .

(5.74)

Bemerkung 5.75
Durch die Bedingung 0 k N 1 wird das Nyquistband nicht mehr, wie bisher,
als ein um die Frequenz null symmetrisches Band betrachtet. Die Indizes bzw. die
dementsprechenden Amplitudenwerte werden stattdessen ber eine Periode betrachtet, welche bei der Frequenz null beginnt. Aufgrund der periodischen Fortsetzung
von yn bzw. Yk bleiben die Summationsergebnisse in Gleichung (5.74) unverndert,

wenn von 0, . . . , N 1 anstelle von N2 , . . . , N2 1 summiert wird.

5 Zeitdiskrete Signale

252

Es stellt sich die Frage nach der Rcktransformation in den Zeitbereich. Bei der FourierTransformation zeitdiskreter Signale wird dies durch Integration ber die frequenzkontinuierliche Spektralfunktion Y () erreicht; hier dagegen sind lediglich diskrete Spektralwerte Yk verfgbar. Man erinnert sich an die Fourier-Reihe, bei der die Zeitfunktion
als mit den Spektralwerten ck gewichtete Summe von Exponentialfunktionen dargestellt wird. Entsprechend kann man die Wertefolge ebenfalls als Summe angeben. Zur
Berechnung der zu Yk gehrigen Wertefolge zu einem bestimmten Zeitpunkt l = t/tA
multipliziert man (5.74) mit ej2kl/N und summiert ber alle N Frequenzwerte:
N
1


Yk ej2kl/N =

1
N
1 N



yn ej2k(n l)/N

k=0 n=0

k=0

N
1


yn

n=0

N
1

n=0

N
1


ej2k(n l)/N

k=0

yn N (n l) = N yl .

abgetastete Zeitfunktion
1
y(t) ; yn

0.5
0
0.5
1

0.1

0.2

0.3
0.4
t [sec] ; n
Spektrum mittels DFT

0.5

0.6

15

|Y(f)| ; |Y |

20

10
5
0

10

20

30
f [Hz] ; k

Abbildung 5.27: Diskrete Werte im Zeit- und Frequenzbereich

40

50

5.5 Spektralanalyse

253

Mit n = l ergibt sich daraus die inverse diskrete Fourier-Transformation, IDFT :


yn =

N 1
1 
Yk ej2kn/N .
N

(5.76)

k=0

Insgesamt ist durch die bisherigen Ausfhrungen folgende Definition gerechtfertigt:


Definition 5.77 (Diskrete Fourier-Transformation, DFT)
Als diskrete Fourier-Transformation bezeichnet man die Wertepaare
yn Yk

, k, n = 0, . . . , N 1,

die durch folgende Beziehungen verbunden sind:


Yk =

N
1


yn ej2kn/N =

n=0

yn =

N
1


kn
yn wN

N 1
N 1
1 
1 
kn
Yk ej2kn/N =
Yk wN
,
N
N
k=0

(5.78)

n=0

(5.79)

k=0

mit
wN = ej2/N .

(5.80)

n
Die Faktoren wN
, n = 0, . . . , N 1 sind gerade die N komplexen Wurzeln der GleiN
n
| = 1.
chung wN = 1. Es gilt: |wN

Bemerkung 5.81
1. Durch Betrachten der Definitionsgleichung wird oensichtlich, dass es sich bei
der diskreten Fourier-Transformation um eine lineare Transformation handelt.
2. Fr die Beziehung yn Yk benutzt man oft auch die Schreibweise
DFT{yn } = Yk .
Ebenso versteht sich auch die Bezeichnung IDFT{Yk }.
Beispiel 5.83 (DFT)
Die Wertefolge laute mit N = 6:
y0 = 1 y1 = 1 y2 = 0 y3 = 0 y4 = 0 y5 = 1

(5.82)

5 Zeitdiskrete Signale

254
yn
r

r
2

r
3

r
4

Abbildung 5.28: Wertefolge vor periodischer Wiederholung

Mit Gleichung (5.78) folgt die Fourier-Transformierte:


Yk =

5


yn ejkn/3 = 1 + ejk/3 + ejk5/3

n=0

= 1 + ejk/3 + ejk/3
' (
= 1 + 2 cos
k .
3
Dass die Werte Yk reell sind, ist nicht berraschend, da die Folge yn eine reelle und
nach periodischer Fortsetzung gerade Folge ist.

Die diskrete Fourier-Transformation ist umkehrbar eindeutig. Man kann unbedenklich


und beliebig oft vom Zeitbereich in den Frequenzbereich und umgekehrt wechseln.

Betrachtet man den Rechenaufwand fr eine DFT, so erkennt man, dass man fr N
zu transformierende Werte N 2 komplexe Multiplikationen und Additionen bentigt.
Durch geschickte Umsortierung der Multiplikationen und Additionen erhlt man einen
Algorithmus, der lediglich etwa N ld(N ) solche Operationen bentigt: die Schnelle
Fourier-Transformation, Fast Fourier Transformation, FFT, welche im nchsten Abschnitt behandelt wird.

5.5.2

Schnelle Fourier-Transformation, FFT

Die Schnelle Fourier-Transformation, FFT, fhrt die identische Rechnung durch wie die
diskrete Fourier-Transformation. Lediglich die Zahl der Rechenoperationen ist durch
Ausnutzung von Symmetrien erheblich kleiner, wodurch sie fr die Implementierung
besser geeignet ist.
Der Zusammenhang zwischen den Folgen yn und Yk soll an einigen Beispielen klar
gemacht werden. Dazu beginnen wir mit der sukzessiven Betrachtung einer 2-PunkteFFT, dann folgt eine 4-Punkte-FFT u.s.w.
2-Punkte-FFT.
Yk = y0 + y1 ejk
4-Punkte-FFT.
k
Yk = y0 + y1 ej 2 + y2 ejk + y3 ej3k/2
(
(
'
k '
= y0 + y2 ejk + ej 2 y1 + y3 ejk

5.5 Spektralanalyse

255

Man erkennt, dass sich die 4-Punkte-FFT aus zwei gewichteten 2-Punkte-FFT zusammensetzt.
8-Punkte-FFT.
k

Yk = y0 + y1 ej 4 + y2 ej 2 + . . . + y7 ej7 4




= y0 + y4 ejk + ejk/4 y1 + y5 ejk +




+ejk/2 y2 + y6 ejk + ej3k/4 y3 + y7 ejk
0


1
= y0 + y4 ejk + ejk/2 y2 + y6 ejk +
0


1
+ejk/4 y1 + y5 ejk + ejk/2 y3 + y7 ejk
Hier stellt man fest, dass eine 8-Punkte-FFT entweder als 4 mal 2-Punkte-FFT oder
als 2 mal 4-Punkte-FFT, die ihrerseits selbst aus 2 mal 2-Punkte-FFT bestehen, umgeschrieben werden kann.
Eine 16-Punkte-FFT liee sich so in 2 mal 8-Punkte-FFT, die jeweils in 2 mal 4-PunkteFFT, die wiederum jeweils in 2 mal 2-Punkte FFT aufgeteilt sind, zerlegen. Man erkennt, dass zur Anwendung dieser Vereinfachungen der Umfang N einer FFT eine Zweierpotenz sein muss, d.h.
N = 2n

(5.84)

, n N.

Zur Anwendung der FFT auf eine Zeitfolge y0 , . . . , yN 1 bei N = 2n kann die Wertefolge auf die nchsthhere Zweierpotenz aufgefllt werden.
Man kann zeigen, dass der Rechenaufwand durch die Umstrukturierung auf N ld(N )
Multiplikationen und Additionen verringert worden ist. Dies macht sich aber erst ab der
16-Punkte-FFT bemerkbar. Vorher unterscheidet sich die Anzahl der Multiplikationen
und Additionen zwischen DFT und FFT nicht.
Betrachtet man noch einmal die letzte Zeile bei der Darstellung der 8-Punkte-FFT, so
erkennt man, dass die Reihenfolge der verwendeten Abtastwerte scheinbar ohne Zusammenhang ist. Bei genauerem Hinsehen erkennt man jedoch, dass ein Zusammenhang
besteht. Schreibt man den Index als Binrzahl, und dreht die Binrzahl einfach um (bit
reversal), so erhlt man den Laufindex in binrer Schreibweise.
Abtastwert
Index
binr
bit reversal
Laufindex

y0
0
000
000
0

y4
4
100
001
1

y2
2
010
010
2

y6
6
110
011
3

y1
1
001
100
4

y5
5
101
101
5

y3
3
011
110
6

y7
7
111
111
7

Zur Bestimmung des entsprechenden Abtastwertes geht man den Weg rckwrts und
erhlt so aus dem Laufindex den zu verwendenden Index.

5 Zeitdiskrete Signale

256

Die FFT besitzt exakt die gleichen Eigenschaften wie die DFT, da dieselben Ergebnisse geliefert werden. Lediglich die Berechnung erfolgt schneller. Da uns in diesem
Rahmen nur die Eigenschaften und Besonderheiten der Zahlenfolgen und nicht deren Berechnungsweise interessiert, wird hier fr eine genauere Herleitung und weitere
Anmerkungen der FFT auf z.B. [KK02] verwiesen.

5.5.3

Eigenschaften der DFT

In diesem Abschnitt werden einige Eigenschaften der DFT bewiesen, deren Beweis die
Definitionsgleichung vertieft und den Umgang mit dieser Definition bzw. mit dieser
Transformation bt. Hierzu werden Zahlenfolgen x0 , . . . , xN 1 und y0 , . . . , yN 1 mit den
zugehrigen diskreten Fourier-Transformierten X0 , . . . , XN 1 und Y0 , . . . , YN 1 vorgegeben:
xn
yn

, n = 0, . . . , N 1 Xk , k = 0, . . . , N 1 ,
, n = 0, . . . , N 1 Yk , k = 0, . . . , N 1 .

Zuerst werden einige Eigenschaften bewiesen, die sich bei einer Umdefinition der Wertefolge ergeben und sich meistens durch Nachrechnen unter Beachtung der Definitionsgleichung zeigen lassen.
Satz 5.85 (Eigenschaften der diskreten Fourier-Transformation)
Fr die diskrete Fourier-Transformation ergeben sich folgende Eigenschaften und
Rechenregeln:

yn
Yk ,
(5.86)
yn Yk .
(5.87)

Beweis:

Die erste Eigenschaft folgt wegen


Yk

N
1


kn
yn ej2 N

n=0

N


0


n =(N 1)

n =1

j2
yn
+N e

kn
N

j2
yn
e

kn
N

ej2k .

Aufgrund der Periodizitt der DFT ist yn +N = yn .


Auerdem kann die Summation wegen
0

yN ej2k N = y0 ej2k N
gendert werden in
Yk =

N
1


n =0

j2k
yn
e

n
N

}.
= DFT{yn

5.5 Spektralanalyse

257

Die zweite Eigenschaft folgt ebenso aus der Definition durch den Ansatz
Yk =

N
1


nk
yn wN

n=0

durch einfache Umformungen.


Satz 5.88 (Faltungssatz der DFT)
Fr die DFT der Faltung zweier Wertefolgen gilt:
(5.89)

xn yn Xk Yk .

Beweis:
Zum Beweis des Faltungssatzes betrachte man zwei Wertefolgen
xn Xk , yn Yk .
Dann berechnet sich die Rcktransformation durch
xn =

N 1
kn
1 
Xk ej2 N
N

bzw.

yn =

k=0

N 1
kn
1 
Yk ej2 N .
N
k=0

Fr das Faltungsprodukt ergibt sich daraus:


xn yn =
=

N
1


xm ynm

m=0

k=0

m=0

N
1


N 1
km
1 
Xk ej2 N
N



N 1
l(nm)
1 
Yl ej2 N
N
l=0

Durch Umsortieren der (endlichen) Summen folgt:


xn yn =
=

N
1

l=0

N
1

l=0

N
1

l=0

N
1
N
1


(kl)m
1
j2 ln
N
Y

e
X

ej2 N
l
k
2
N
m=0
k=0

ln
1
Yl ej2 N
N2

N
1

k=0

ln
1
Yl Xl N ej2 N
N2

= IDFT{Xk Yk }

Xk N (k l)

5 Zeitdiskrete Signale

258
Bemerkung 5.90

Bei der DFT sind die Signale periodisch in T0 = N tA . Dies muss man bei der
Transformation von kausalen Signalen beachten, z.B. bei der Impulsantwort von LTISystemen. Dort ergibt sich das Ausgangssignal ya,n als Faltung des Eingangssignales
ye,n mit der Impulsantwort gn des LTI-Systems. Bei Berechnung dieser Operation
mit der DFT wird die Impulsantwort gn periodisch in T0 wiederholt, wodurch aus

der kausalen eine akausale Impulsantwort wird, vgl. Abbildung 5.29.


Will man diese ungewollte Verflschung vermeiden, so muss das Periodizittsintervall
auf 2T0 = 2N tA erweitert werden, vgl. Abbildung 5.30.
Satz 5.91 (Parsevalsche Formel und Energiesatz)
Aus oben bewiesenen Eigenschaften ergeben sich durch Einsetzen die Parsevalsche
Formel und der Energiesatz der DFT:
N
1


xn yn =

n=0

N
1

n=0

5.5.4

N 1
1 
Xk Yk ,
N

(5.92)

k=0

|xn |2 =

N 1
1 
|Xk |2 .
N

(5.93)

k=0

Auflsung im Zeit- und Frequenzbereich

Bei der Fourier-Transformation zeitdiskreter Signale wurde die Wahl der Abtastfrequenz fA diskutiert. Bei der diskreten Fourier-Transformation, DFT, kommt die Wahl

Kausale Impulsantwort

Akausale Impulsantwort

N1

N1

Abbildung 5.29: Akausale Impulsantwort


durch periodische Wiederholung

Abbildung 5.30: Kausale Impulsantwort


durch Verdopplung des Periodizittsintervalls

5.5 Spektralanalyse

259

der Anzahl N der Abtastwerte hinzu. Um dies verstndlich zu machen, werden zuerst
einige Zusammenhnge wiederholt, um dann das Problem der Wahl von N anhand eines
Beispiels zu erlutern.
Mittels der Abtastfrequenz fA kann man die Abtastzeit bestimmen:
tA =

1
.
fA

Zusammen mit der Anzahl N der Abtastwerte ergibt sich nach (5.70) die Beobachtungszeit bzw. Beobachtungsdauer der diskreten Fourier-Transformation zu
T 0 = N tA =

N
.
fA

Hieraus folgt aus (5.71) die Frequenzauflsung, d.h. die Beobachtungsfrequenz,


f =

fA
1
1
=
=
N
N tA
T0

als Inverse der Beobachtungszeit. Diese Beziehungen sind in Abbildung 5.31 verdeutlicht.
Bei der ganzen Betrachtung der Auflsung im Zeit- und Frequenzbereich muss natrlich
beachtet werden, dass bei einer Abtastung mit der Abtastfrequenz fA nur Frequenzen
im Nyquistband [fN , fN ] mit fN = f2A betrachtet werden knnen.
Beispiel 5.94 (Auflsung im Zeit- und Frequenzbereich)
Ein Signal y(t) besitze Spektralanteile im Frequenzbereich 2 . . . 20 Hz. Nach der
Abtastung des Signals und der Bestimmung des Spektrums mit Hilfe der diskreten
Fourier-Transformation, DFT, soll die Frequenzauflsung mindestens eine Feinheit
von fWunsch = 0,1 Hz besitzen.
Aufgrund des Spektrums Y (f ) ist zur Einhaltung des Abtasttheorems eine Abtastfrequenz
fA > 40 Hz
t

tA

f = 1/(N tA )
N tA

fA

Abbildung 5.31: Beziehungen zwischen Abtastzeit und Beobachtungszeit

5 Zeitdiskrete Signale

260

zu whlen. Die Beobachtungszeit muss grer oder gleich der Inversen der Frequenzauflsung sein:
T0

1
fWunsch

= 10 sec .

Whlt man die Abtastfrequenz


fA = 50 Hz,
so folgt fr die Anzahl der Abtastwerte
N=

T0
= T0 fA 500
tA

eine untere Schranke. Whlt man hier N = 512, so kann statt der DFT die FFT
benutzt werden.

Anhand des Beispiels erkennt man eine Vorgehensweise, die sich in zwei Schritte gliedert:

1. Die Abtastzeit tA bzw. die Abtastfrequenz fA legt die Auflsung im Zeitbereich


fest. Diese ist unter Betrachtung des Spektrums Y (f ) des abzutastenden Signals
y(t) zu whlen.
2. Die Anzahl N der Abtastwerte legt zusammen mit der Abtastfrequenz fA die
Beobachtungszeit und damit die Frequenzauflsung f fest. Dabei bewirkt eine
hhere Anzahl von Abtastwerten eine grere Beobachtungszeit und somit eine
feinere Frequenzauflsung.

5.5.5

DFT einer komplexen Schwingung ohne Leckeekt

Betrachtet man Abtastwerte einer komplexen Schwingung


yn = ej2f0 ntA

(5.95)

der Frequenz f0 , wobei zunchst oen sein soll, in welchem Verhltnis die Schwingfrequenz f0 und die Abtastfrequenz fA zueinander stehen, so lautet die DFT unter
Verwendung von N Werten:

5.5 Spektralanalyse

Yk =

N
1


261
kn

yn ej2 N =

n=0

N
1


n
ej2(f0 tA N k) N

, k = 0, . . . , N 1 .

n=0

(5.96)

ber die Summenformel fr die endliche geometrische Reihe mit = 2l , l Z,


N
N
N
1 ejN
ej 2 ej 2 ej 2
jn
e
=
=
1
1
1
1 ej
n=0
ej 2
ej 2 ej 2
(N 1) sin( N )
2
= ej 2
sin( 12 )

N
1


ergibt sich aus (5.96) mit = 2 f0 tANN k = 2l , l Z :


N 1 sin((f0 tA N k))
Yk = ej(f0 tA N k) N

sin( N
(f0 tA N k))

, k = 0, . . . , N 1 . (5.97)

Die so gewonnene Spektralfolge Yk wird zunchst fr den Fall untersucht, dass das
Verhltnis von Schwingfrequenz f0 und Frequenzauflsung f ganzzahlig ist.
f0
= f0 tA N = l
f

f0 =

l
= l f
N tA

,l N

(5.98)

Die Schwingfrequenz f0 passt genau in das diskrete Raster der Beobachtungsfrequenz


f . Dann folgt aus (5.97)
Yk = ej(l k)

N 1
N

sin((l k))
.

sin( N
(l k))

(5.99)

Der Zhler des Bruchs verschwindet fr alle Werte von k, whrend der Nenner im
Intervall 0 k N 1 mit der Ausnahme k = l von Null verschieden ist. Mit der
Methode von lHospital erhlt man den Funktionswert an der Stelle k = l.
lim

sin()
cos()
lim 1
= 0
=N
sin( N
)
N cos( N )

(5.100)

Damit ergibt sich wegen sin ( (l k)) fr k = l aus (5.99) die Spektralfolge der komplexen Schwingung.
Yk = N (k l)

0 k, l N 1

(5.101)

Abbildung 5.32 zeigt ein Beispiel, bei dem die Schwingfrequenz f0 ein ganzzahliges
Vielfaches der Frequenzauflsung f ist.
Trotz des begrenzten Beobachtungsfensters von N Abtastwerten im Zeitbereich tritt
kein Leckeekt auf. Dies liegt daran, dass das Signal aufgrund der Abtastung im Frequenzbereich im Zeitbereich periodisch wiederholt wird. Wenn die Schwingfrequenz f0
genau in das diskrete Raster der Beobachtungsfrequenz f passt, entsteht aufgrund
der periodischen Fortsetzung kein Fehler durch das endliche Beobachtungsfenster. Es
tritt kein Informationsverlust auf.

5 Zeitdiskrete Signale

262
Re{yn }
N-1
n

Yk

Abbildung 5.32: Spektralanalyse einer


komplexen Schwingung mit Hilfe einer 16Punkte DFT und einem Frequenzverhltnis
5
von ffA0 = 16
, d.h. l = 5, N = 16

l=5

5.5.6

N-1

DFT einer komplexen Schwingung mit Leckeekt

Andere Resultate ergeben sich, wenn die Bedingung (5.98) nicht erfllt ist, d.h. wenn die
Schwingfrequenz f0 kein ganzzahliges Vielfaches der Frequenzauflsung f ist. Dann ist
f0 tA N = l + a

,l N

, 0,5 < a 0,5.

(5.102)

Die Schwingfrequenz f0 liegt nicht mehr im diskreten Raster der Beobachtungsfrequenz f .


Fr die DFT der komplexen Schwingung ergibt sich dann:
Yk = ej(l k + a)

N 1
N

sin((l k + a))

sin( N
(l k + a))

, k = 0, . . . , N 1 .

(5.103)

Abbildung 5.33 zeigt die hieraus errechneten Spektralfolgen fr verschiedene Werte a.


Zur Veranschaulichung sind jeweils die kontinuierlichen Hllkurven angedeutet. Fr
a = 0 wird diese Hllkurve einmal im Maximum und sonst in den quidistanten Nullstellen abgetastet. Das Ergebnis ist die im letzten Abschnitt diskutierte ideale Spektralanalyse, welche nicht durch den Leckeekt beeinflusst ist. In den beiden anderen
Fllen hingegen liegen die Nulldurchgnge der Hllkurve zwischen den diskreten Frequenzpunkten der DFT. Daraus enstehen folgende Fehler: Zum einen wird die Hllkurve nicht mehr in ihrem Maximum abgetastet, so dass sich zwei Hauptlinien ergeben,
deren Betrge gegenber N reduziert sind. Darber hinaus entstehen an smtlichen
DFT-Rasterpunkten fehlerhafte Anteile, d.h. die Hauptspektrallinie leckt durch alle
Rasterpunkte hindurch. Aus diesem Grunde wird der beschriebene Fehler in Anlehnung
an die englische Bezeichnung leakage auch als Leckeekt bezeichnet.
Der Leckeekt lsst sich auch anschaulich im Zeitbereich erklren. Als Beispiel betrachtet man den in Abbildung 5.34 dargestellten Realteil einer komplexen Schwingung.
In diesem Fall betrgt die Schwingfrequenz ein Zwlftel der Abtastfrequenz
1
1
, f0 =
fA ,
12
12
woraus sich bei einer DFT-Lnge von N = 16 wegen
f0 tA =

f =

fA
1
=
fA
N
16

5.5 Spektralanalyse

263

|Y |, a=0

15

10
5
0

10

15

10

15

10

15

|Y |, a=0.25

15

10
5
0

5
k

10

|Y |, a=0.5

15

5
0

5
k

Abbildung 5.33: Verdeutlichung des Leckeekts anhand einer 16-Punkte DFT einer
komplexen Schwingung
Re{yn}

Periode
Beobachtungsintervall

Abbildung 5.34: Erluterung des Leckeekts im Zeitbereich

aufgrund obiger berlegungen ein Leckeekt mit


f0 tA N =

f0 fA
16
1

=
=1+ ,
fA f
12
3

(5.104)

d.h.
a=

1
,
3

(5.105)

5 Zeitdiskrete Signale

264

ergibt. Die um 12 Abtastwerte periodische Wertefolge yn fhrt bei periodischer Wiederholung nach 16 Abtastwerten (auerhalb des Beobachtungsintervalls) zu einer unstetigen Fortsetzung. Die Fourier-Analyse der fortgesetzten Funktion liefert Spektrallinien
an den Vielfachen der Grundfrequenz
f =

1
1
fA
,
=
=
N tA
16tA
16

(5.106)

also an den diskreten Frequenzpunkten der DFT, was auf den Leckeekt fhrt. Das
von der Periode der Schwingung abweichende Beobachtungsintervall verflscht bei der
Multiplikation mit dem Beobachtungsfenster und der nachfolgenden periodischen Fortsetzung die Schwingung. Es stellt sich hier die Frage, wie gro der Fehler der DFT bei
Auftreten des Leckeekts werden kann. Hierzu werden zwei Fehleraspekte untersucht.
1. Das Maximum der DFT liegt bei der Frequenz lf , es msste aber bei (l+a)f
liegen. Da |a| 0,5 ist, ist der maximale Frequenzfehler die halbe Frequenzauflsung,
Fmax {f } =

1
f
fA
=
.
=
2
2N tA
2N

(5.107)

2. Der relative Fehler des Betrags der Amplitude des maximalen DFT-Wertes ist
durch


 sin(a) 

a  N
sin( N )
|Yl | N
F {Y } =
=
(5.108)
N
N
gegeben. Der maximale Fehler liegt ohne Beweis bei a = 0,5:
Fmax {Y } = F {Y }|a=0,5 =
Mit N

sin( 2N
)

(5.109)

folgt hieraus
Fmax {Y } =

2N

N
2
= 1 0,36.
N

(5.110)

Will man die Genauigkeit der DFT bei Auftreten des Leckeekts erhhen, so kann man
durch Erhhen der Anzahl N der Abtastwerte yn den Frequenzfehler verkleinern. Der
maximale relative Amplitudenfehler bleibt unter der Voraussetzung, dass a sich nicht
ndert, konstant. Er betrgt weiterhin maximal etwa 36 %.
Fr den Fall a = 0,5 wird das Verhltnis zwischen den Amplituden des Haupt- und des
ersten Nebenzipfels



+ 1)) 


  sin((aa+1

 Yl+1   sin( N )   sin( Na ) 


=
=
mit sin((a+1)) = sin(a)
 Yl   sin(a)   sin( a+1 ) 


N
a
 sin( ) 
N

5.5 Spektralanalyse

265

fr N a abgeschtzt:


 
 
 Yl+1   Na   a  1


=
=
 Yl   a+1   a + 1  3
N

(5.111)

, 0 a 0,5 .

Bei einigen Signalen kann man durch geschickte Auswahl der Abtastzeit tA erreichen,
dass
(5.112)

f0 tA N N

gilt. Dann tritt kein Leckeekt auf. Dies ist aber nicht bei allen Signalen mglich, da
normalerweise ein Signal nicht nur aus einer einzigen komplexen Schwingung besteht,
sondern aus berlagerung verschiedener Schwingungen.
Bei den zeitdiskreten Systemen werden in Abschnitt 6.7 Mglichkeiten untersucht, mittels derer die Spektralfehler des Leckeekts mit Hilfe von Fensterfunktionen reduziert
werden knnen.

5.5.7

Zeropadding

Bei einer Vergrerung des Beobachtungsintervalls T0 , z.B. durch eine grere Anzahl
N von Abtastwerten, wird der Frequenzfehler des Spektrums verringert. Dazu msste
man die zustzlichen Abtastwerte zuvor messen. Liegen diese aber nicht vor, oder besteht keine Mglichkeit sie nachtrglich zu messen, so mssen andere Werte willkrlich
hinzugefgt werden.
Bei knstlichem Verlngern der Wertefolge yn durch Einfgen von M Nullen entstehen
die Abtastwerte

yn , 0 n N 1 ,
(5.113)
yn =
0 ,N n N + M 1.
Dies wird als Zeropadding bezeichnet. Der Einfluss von Zeropadding auf das Spektrum
ergibt sich durch Berechnung der diskreten Fourier-Transformation Yk von yn :
Yk

N +M
1

j2 Nkn
+M
yn e

n=0

N
1

n=0

yn e

j2 Nkn
+M

, k = 0, . . . , N +M 1 .

Durch die Erhhung der Beobachtungszeit T0 erhlt man eine feinere Frequenzauflsung
f . Die Abtastfrequenz fA wurde dabei nicht verndert, d.h. die beiden Spektren Yk
und Yk erstrecken sich ber das gleiche Nyquistband. Um die beiden Spektren Yk und
Yk unterschiedlicher Auflsung vergleichen zu knnen, transformiert man den Index von
Yk durch
k = k

N
.
N +M

Der neue Frequenzindex k ist damit eine reelle Zahl und es folgt
Yk =

N
1

n=0

yn ej2

k n
N

= Yk .

5 Zeitdiskrete Signale

266

Die Spektren Yk und Yk sind identisch. Sie werden nur an unterschiedlichen Stellen
abgetastet. Yk hat M Abtastwerte mehr als Yk . Die Einhllende ist aber bei beiden
Spektren gleich, denn ein Anfgen von Nullen stellt keinen Informationsgewinn dar.
Hebt man die Beschrnkung auf endlich viele yn auf, d.h. betrachtet man nicht nur N
sondern unendlich viele Werte, so ist das Spektrum wegen der Zeitbegrenzung mit einem
rechteckigen Fenster die Faltung des Spektrums der zeitlich unbeschrnkten Abtastwerte
mit einer dem Rechteckfenster entsprechenden sin(x)
x -Funktion. Durch Anfgen der Nullen an die anzahlmig beschrnkte Folge wird diese der anzahlmig unbeschrnkten
Folge besser angenhert, d.h. die sin(x)
x -Funktion wird genauer dargestellt. Dies kann
man in Abbildung 5.33 erkennen, in dem die Einhllenden durch Zeropadding erzeugt
wurden. An die 16 Abtastwerte wurden 240 Nullen angefgt, d.h. die 256 Abtastwerte
erzeugen ein Spektrum Yk , das das eigentliche Spektrum Y (f ) viel besser annhern
kann.
Vorteilhaft ist das Verfahren des Zeropadding immer dann, wenn man z.B. die Lage
lokaler Maxima des Spektrums genauer bestimmen will.

Beispiel 5.114 (Zeropadding)


In diesem Beispiel wird der Eekt des Zeropadding anhand einer Schwingung verdeutlicht. In Abbildung 5.35 ist in der oberen Hlfte eine Schwingung bestehend aus
16 Abtastwerten und deren diskrete Fourier-Transformierte dargestellt. In der un-

15

0.5

|Y |

10
0

0.5

10

15

10

15

20

30

15

0.5
k

|Y |

10
0

0.5

10

20
n

30

10
k

Abbildung 5.35: Beispiel zur Anwendung des Zeropaddings

5.6 Weitere diskrete Transformationen

267

teren Bildhlfte wurde die Zeitfunktion durch Hinzufgen von Nullen auf 32 Werte
erweitert und anschlieend der DFT unterzogen.

5.5.8

Periodogramm

Entsprechend dem Energiedichtespektrum bei zeitkontinuierlichen bzw. zeitdiskreten


Signalen stellt das Periodogramm den Energieanteil der diskreten Frequenzen bei anzahlmig beschrnkten Folgen dar:
Sk =

1
Yk Yk
N

, k = 0, . . . , N 1 .

(5.115)

In der Anwendung wird zur besseren Bestimmung des Periodogramms meist ber mehrere Spektren gemittelt. Dadurch werden die zuflligen Fehler herausgefiltert, sofern
diese als mittelwertfrei bekannt sind.

5.6

Weitere diskrete Transformationen

Fr die bis jetzt benutzten Transformationen wurde das zugrunde liegende orthonormale Funktionensystem immer aus komplexen Exponentialfunktionen aufgebaut. Diese
Exponential-Funktionen haben aber den Nachteil, dass sie sich schlecht auf einem Digitalrechner berechnen lassen. Von Vorteil wren orthonormale Funktionensysteme, die
durch geeignete Definition den Rechenaufwand wesentlich reduzieren.

5.6.1

Walsh-Transformation

Ein orthonormales Funktionensystem, bei dem nur zwei binre reelle Funktionswerte
auftreten, sind die Walshfunktionen.
Zu deren Definition teilt man das Zeitintervall [0, 1] in 2n Teilintervalle gleicher Lnge,
die mit i = 0, . . . , 2n 1 indiziert sind. Die Teilintervallnummer lsst sich als Binrzahl
schreiben:
(i)10 = (in , . . . , i1 )2 .

(5.116)

Ebenso stellt man auch eine verallgemeinerte Frequenz k als Binrzahl dar, die auf eine
bestimmte Art die Nulldurchgnge der Walshfunktionen bestimmt und deren Bedeutung
spter veranschaulicht wird:
(k)10 = (0, kn , kn1 , . . . , k1 )2 .
Dann definiert man den Begri der Walshfunktion wie folgt:

(5.117)

5 Zeitdiskrete Signale

268
Definition 5.118 (Walshfunktionen)

Die Walshfunktionen in der sequenziellen Anordnung walw (k, t) werden im Intervall


[0, 1] definiert und auerhalb dieses Intervalles periodisch fortgesetzt. Hierzu setzt
man fr ti t < ti+1 , d.h. im i-ten Teilintervall,
n


walw (k, t) = (1)l=1

(kl kl+1 )inl+1

(5.119)

Sie nehmen nur Funktionswerte aus {+1, 1} an und (walw (k, t))k bildet ein orthonormales Funktionensystem in L2 ([0, 1]), d.h. es gilt

walw (i, t) walw (j, t) dt = ij .

(5.120)

Mit Hilfe dieses Orthonormalsystems approximiert man die Funktion y(t) und erhlt
Koezienten Y0 , . . . , YN 1 , die in Analogie zur Fourier-Reihe als Spektralanteile der
Funktion interpretiert werden knnen.
Bemerkung 5.121
Durch einen zustzlichen Index wird die unterschiedliche Darstellung verschiedener
Systeme von Walshfunktionen angegeben. Verschiedene Indizes deuten darauf hin,
dass bei gleicher Ordnung k die Reihenfolge der Walshfunktionen unterschiedlich
ist. So reprsentiert ein tiefgestellter Index w die sequenzielle Reihenfolge, wie sie in

Abbildung 5.36(links) dargestellt ist.


Dabei zeigen die Walshfunktionen, wie in Abbildung 5.36 erkennbar, eine unmittelbare
Analogie zu den Fourier-Funktionen.
Die verallgemeinerte Frequenz k lsst sich als Zahl der Nulldurchgnge im Zeitbereich
0 < t < 1 ansehen und wird als zerocrossing per second, zps bezeichnet.
1. Neben der sequenziellen Anordnung gibt es auch Walshfunktionen in der natrlichen Anordnung waln (k, t). Diese sind zwar einfacher zu berechnen, doch es fehlt
ihnen die direkte Analogie zu den Fourier-Funktionen in Abbildung 5.36.
2. Die geraden und ungeraden Walshfunktionen knnen entsprechend der Sinus- und
Cosinusfunktion aufgeteilt werden in
calw (sk , t) = walw (k, t) , k = 0, 2, 4, . . . , sk = k/2
salw (sk , t) = walw (k, t) , k = 1, 3, 5, . . . , sk = (k + 1)/2.
3. Das Walshleistungsspektrum Sk wird entsprechend dem Periodogramm der diskreten Fourier-Transformation berechnet,
1
Sk = Yk Yk
, k = 0, . . . , N 1 .
(5.122)
N
Es handelt sich um ein Punktspektrum.

5.6 Weitere diskrete Transformationen

269

1
0
1

wal (0,t)
w

1
0
1

1
0
1

wal (1,t)
w

1
0
1

1
0
1

walw(2,t)

1
0
1

1
0
1

wal (3,t)
w

1
0
1

1
0
1

wal (4,t)
w

1
0
1

1
0
1

wal (5,t)
w

1
0
1

1
0
1

wal (6,t)
w

1
0
1

1
0
1

wal (7,t)

1
0
1

1/8 1/4 3/8 1/2 5/8 3/4 7/8

1/8 1/4 3/8 1/2 5/8 3/4 7/8

Abbildung 5.36: Analogie zwischen den Walsh- und den Fourier-Funktionen

4. Der groe Vorteil der Walsh-Transformation liegt in der einfachen Berechnung,


was sich insbesondere bei einer groen Zahl von Teilintervallen, z.B. bei Anwendungen in der Bildverarbeitung, als ntzlich erweist. Eine Filterung im Frequenzbereich ist aber nicht in der Art mglich, wie dies bei der Fourier-Transformation
der Fall ist. Die Faltung im Zeitbereich ist nicht gleich der Multiplikation im Frequenzbereich. Die Walsh-Transformation ist deshalb auf die Berechnung und die
Analyse von Spektren beschrnkt. Durch die nicht-quidistanten Nulldurchgnge
und die abschnittsweise konstanten Funktionswerte enthlt das Walshspektrum
zustzliche Stranteile. Die meisten Anwendungen werden dadurch aber nur wenig beeintrchtigt.
Im folgenden Beispiel wird die Anwendung der Walsh-Transformation zur Analyse von
Signalen demonstriert.
Beispiel 5.123 (Anwendung der Walsh-Transformation)
Das folgende Beispiel verwendet sowohl die DFT als auch die Walsh-Transformation
zur Analyse eines Signals. Es werden hierzu N = 256 Abtastwerte betrachtet.
Zur Analyse verwenden wir ein Signal, welches aus zwei Schwingungen der Frequenz
17 Hz und 40 Hz mit den Amplituden 1 bzw. 12 aufgebaut ist, d.h.
y(t) = sin(217 Hz t) +

1
sin(240 Hz t)
2

5 Zeitdiskrete Signale

270
1.5
1

y(t) ; yn

0.5
0

0.5
1
1.5
0

0.2

0.4

0.6

0.8

Abbildung 5.37: Signal zum Vergleich der


DFT und der Walsh-Transformation

t;n

bzw.
yn = sin(217 Hz ntA ) +

1
sin(240 Hz ntA ).
2

Dieses Signal ist in Abbildung 5.37 dargestellt.


Die Analyse des Signals mit der DFT bzw. der Walsh-Transformation ergibt die
Frequenzanteile |Yk | fr die DFT bzw. |Wk | fr die Walsh-Transformation. Beide
Spektren sind in der Abbildung 5.38 dargestellt.
Man erkennt, dass die Walsh-Transformation das Fourier-Spektrum in diesem Fall
gut annhert. Im Vergleich zur Anwendung der Fourier-Funktionen ist die Rechnung
mit Walsh-Funktionen deutlich weniger rechenintensiv. Jedoch muss gesagt werden,
dass die Approximation nicht immer so gute bereinstimmungen liefert, wie dies
in Abbildung 5.38 der Fall ist. Deutlich sind jedoch auch hier Abweichungen und
flschlich detektierte Spektralanteile zu erkennen.

15000

10000

10000

|W |

|Yk|2

15000

5000

5000

50

100
k

50

100
k

Abbildung 5.38: Spektren des Signals bei Anwendung der DFT und der Walsh-Transformation

5.6 Weitere diskrete Transformationen

5.6.2

271

Allgemeine diskrete Transformation

Ausgehend von der diskreten Fourier-Transformation wird eine allgemeine diskrete


Transformation definiert.
Definition 5.124 (Allgemeine diskrete Transformation)
1
Mit einem orthonormalen Funktionensystem {fn (k)}N
n=0 wird die allgemeine diskrete
Transformation durch
N
1


Y (k) =

n=0

(5.125)

y(n)fn (k) , k = 0, . . . , N 1

definiert. Mit der Transformationsmatrix

f0 (0)
f1 (0) . . .
f0 (1)
f1 (1) . . .

F =
..
..
..

.
.
.

fN 1 (0)
fN 1 (1)
..
.

f0 (N 1) f1 (N 1) . . . fN 1 (N 1)

(5.126)

lsst sich die allgemeine diskrete Transformation in Matrix-Vektorschreibweise formulieren:


Y = Fy

y = F 1 Y .

(5.127)

Fr die diskrete Fourier-Transformation, DFT, gilt dabei beispielsweise


kn
fn (k) = ej2 N .

(5.128)

Whlt man stattdessen

' n(
,
(5.129)
fn (k) = walw k,
N
so erhlt man die Walsh-Transformation. Dann bezeichnet man obige Transformationsmatrix F als Hadamard-Matrix H :

1
1
...
 1

1
1
0
. . . walw N 1, N

(5.130)
H = ..

..
..
.
.

.
.
 . N 1 
 .

1 walw 1, N
. . . walw N 1, NN1

Die Inverse der Hadamard-Matrix


1
H 1 = H
(5.131)
N
lsst sich einfach berechnen. Dadurch kann der Rechenaufwand bei der Walsh-Transformation auf das Multiplizieren mit 1 und die Addition beschrnkt werden.

Zeitdiskrete Systeme

In Kapitel 4 wurden zeitkontinuierliche Systeme als eine Einrichtung behandelt, die


auf ein zeitkontinuierliches Eingangssignal ye (t) mit einem zeitkontinuierlichen Ausgangssignal ya (t) antwortet. Zeitdiskrete Systeme werden durch eine Eingangsfolge angeregt, die als Funktion ye : N R bzw. ye : Z R aufgefasst werden kann, wobei
ye,n = ye (n) = ye (ntA ) den n-ten abgetasteten Wert bezeichnet. Als Ausgangssignal
entsteht eine Ausgangsfolge ya : N R bzw. ya : Z R, deren n-ter Wert ebenfalls
mit ya,n = ya (n) bezeichnet wird.
In diesem Kapitel werden zuerst die allgemeinen Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme bertragen. Auf Besonderheiten der Zeitdiskretisierung
wird explizit eingegangen und elementare Blcke werden eingefhrt. Anschlieend wird
die mathematische Beschreibung mittels Dierenzengleichungen bzw. mit Hilfe der
z-Transformation dargestellt. Nach der zeitdiskreten Darstellung zeitkontinuierlicher
Systeme behandelt das Kapitel die frequenzselektiven Filter und die Filterung mit Fensterfunktionen, wie sie schon bei den zeitkontinuierlichen Systemen beschrieben wurden.
Schlielich werden die in diesem Buch eingefhrten Begrie und Definitionen anhand
praktischer Beispiele veranschaulicht.

6.1

Eigenschaften

Wie bereits erwhnt, behandelt dieses Kapitel das Verhalten zeitdiskreter Systeme, also
Beziehungen von Folgen. Betrachtet werden somit stets diskrete Funktionen y, ye , ya :
N R bzw. y, ye , ya : Z R, die aus einem kontinuierlichen Signal durch Abtasten
entstehen. Bei den Bezeichnungen werden wir die folgenden Konventionen benutzen:
Sowohl die gesamte Folge als auch ein einzelner Wert des Signals werden mit yn = y(n)
kenntlich gemacht. Unter Beachtung der Tatsache, dass zeitdiskrete Systeme stets Folgen
auf Folgen abbilden, sind durch diese Bezeichnungsweise keine Missverstndnisse zu
befrchten. (Man betrachte die Analogie zum zeitkontinuierlichen Fall, in welchem durch
y(t) sowohl die gesamte Funktion als auch der Funktionswert an einer bestimmten Stelle
t bezeichnet wird.)
Im folgenden Abschnitt sei stets
ye,n = ye (n) , ya,n = ya (n) , ye , ya : Z R
vorausgesetzt.
Mit der zeitdiskreten Operatorgleichung
ya,n = S{ye,n }

(6.1)

6 Zeitdiskrete Systeme

274

lassen sich alle Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme


bertragen.
Bemerkung 6.2
Gleichung (6.1) ist nach obigen Bemerkungen keineswegs so zu verstehen, dass die
n-te Komponente des Ausgangssignals sich durch einen Operator aus der n-ten Komponente des Eingangssignals ergibt, sondern stellt nach obigen Voraussetzungen eine

Beziehung zwischen Zahlenfolgen her.


Definition 6.3 (Zeitdiskretes System)
Ein zeitdiskretes System S ist ein System mit der Operatorgleichung (6.1), dessen
Eingangssignal ye,n und Ausgangssignal ya,n zeitdiskrete Signale, d.h. Wertefolgen,
sind.
Die Eigenschaften der Linearitt, Zeitinvarianz, Kausalitt, Dynamik und Stabilitt
lassen sich einfach auf zeitdiskrete Systeme bertragen.
Definition 6.4 (Linearitt)
Ein zeitdiskretes System S heit linear, wenn fr zwei beliebige Eingangssignale ye1,n
und ye2,n und zwei beliebige Konstanten c1 , c2 R
S{c1 ye1,n + c2 ye2,n } = c1 S{ye1,n } + c2 S{ye2,n }

(6.5)

gilt.
Der Linearittsbegri lsst sich auf N Eingangssignale
+N
8
N


S
ci yei,n =
ci S{yei,n }
i=1

und sogar auf unendlich viele Eingangssignale


8
+



ci yei,n =
ci S{yei,n }
S
i=

(6.6)

i=1

(6.7)

i=

erweitern, wobei Gleichung (6.7) wieder die Stetigkeit des Systems impliziert, vgl. Bemerkung 4.7.

6.1 Eigenschaften

275

Definition 6.8 (Zeitinvarianz)


Ein zeitdiskretes System S heit zeitinvariant, wenn es auf ein zeitlich verschobenes
Eingangssignal ye,nn0 mit dem entsprechend zeitlich verschobenen Ausgangssignal
ya,nn0 antwortet:
ya,n = S{ye,n }

ya,nn0 = S{ye,nn0 } .

(6.9)

Zeitdiskrete Systeme, die (6.9) nicht gengen, heien zeitvariant.

Definition 6.10 (Kausalitt)


Ein zeitdiskretes System S heit kausal, wenn die Antwort nur von gegenwrtigen
oder vergangenen, nicht jedoch von zuknftigen Werten des Eingangssignals abhngt.
Dies bedeutet, dass fr ein System S aus
ye1,n = ye2,n

fr n n1

(6.11)

und
ya1,n = S{ye1,n } , ya2,n = S{ye2,n }

(6.12)

stets
ya1,n = ya2,n

fr n n1

(6.13)

folgt.

Die beiden Signale ye1,n und ye2,n sind fr n n1 identisch. An Abtastzeitpunkten


n > n1 knnen sie sich unterscheiden. Gehen jedoch bei einem System zuknftige Werte
in die Berechnung des Ausgangswertes ya,n ein, so knnen sich bei einem nichtkausalen
System die beiden Ausgangswerte ya1,n und ya2,n unterscheiden.

Definition 6.14 (Dynamik)


Ein zeitdiskretes System S heit dynamisch, wenn die Antwort ya,n des Systems
nicht nur vom augenblicklichen Wert des Eingangssignals ye,n , sondern auch von den
vergangenen, bei nichtkausalen Systemen auch von zuknftigen Werten abhngt. Die
Antwort ya,n eines nichtdynamischen Systems hngt damit nur von dem augenblicklichen Wert des Eingangssignals ye,n ab.
Man sagt auch, ein dynamisches System hat ein Gedchtnis der Dauer N , wenn die
Antwort ya,n0 durch Werte der Erregung im Intervall {n0 N, . . . , n0 } vollstndig
bestimmt ist. Ein nichtdynamisches System hat demnach ein Gedchtnis der Dauer
null.

6 Zeitdiskrete Systeme

276
Definition 6.15 (Stabilitt)

Ein zeitdiskretes System S heit stabil, wenn jedes beschrnkte, zulssige zeitdiskrete
Eingangssignal ye,n ein ebenfalls beschrnktes Ausgangssignal ya,n zur Folge hat,
d.h., wenn aus der Bedingung
es ex. m > 0 mit |ye,n | < m <

fr alle n Z

die Aussage
es ex. M > 0 mit |ya,n | < M <

fr alle n Z

folgt. Man spricht hier auch von BIBO-Stabilitt, was von der englischen Bezeichnung
bounded input bounded output abgeleitet ist.

6.1.1

Lineare zeitinvariante Systeme, LTI-Systeme

Auch bei zeitdiskreten Systemen sind die linearen zeitinvarianten Systeme, LTI-Systeme, von groem Interesse. Doch hierzu ist zuerst der zeitdiskrete Dirac-Impuls, d.h.
das zeitdiskrete Pendant zu (3.153), zu definieren.
Definition 6.16 (Zeitdiskreter Dirac-Impuls)
Der zeitdiskrete Dirac-Impuls wird durch

1 ,n = 0
n =
0 , n = 0

(6.17)

definiert. Entsprechend (3.153) erhlt man den Wert einer Folge zum diskreten Zeitpunkt n0 als Faltung der Folge mit dem Dirac-Impuls im Zeitpunkt n0 :
y n0 =

n=

yn n0 n = yn n |n=n0 .

(6.18)

Nun kann die zeitdiskrete Impulsantwort eingefhrt werden.


Definition 6.19 (Impulsantwort)
Die Antwort eines zeitdiskreten Systems S auf den Impuls n als Eingangssignal
gn = S{n }
nennt man Impulsantwort gn des zeitdiskreten Systems.

(6.20)

6.1 Eigenschaften

277

Mit (6.18) lsst sich ein Eingangssignal ye,n als Faltungssumme


ye,n =

ye,i ni

i=

darstellen. Benutzt man das Signal ye,n als Eingangssignal eines (stetigen) LTI-Systems S, so erhlt man das Ausgangssignal als Faltung des Eingangssignals ye,n mit der
Impulsantwort gn des Systems S,
8
+



ya,n = S{ye,n } = S
ye,i ni =
ye,i S{ni }
i=

i=

i=

ye,i gni = ye,n gn ,

wobei die Faltung zweier Zahlenfolgen xn , yn durch


xn yn =

xnk yk =

k=

xk ynk

(6.21)

k=

definiert ist. Dies bedeutet, dass zeitdiskrete LTI-Systeme vollstndig durch ihre Impulsantwort charakterisiert sind.
Satz 6.22 (Impulsantwort)
Die Impulsantwort
gn = S{n }

eines zeitdiskreten LTI-Systems S charakterisiert das System vollstndig. Die Antwort ya,n bei gegebenem Eingangssignal ye,n berechnet sich aus der Faltung des
Eingangssignals mit der Impulsantwort:
ya,n = ye,n gn .

(6.23)

Zeitdiskrete Systeme knnen demzufolge mittels ihrer Impulsantwort charakterisiert


werden. Die Unterscheidung im Hinblick auf die Dauer der Impulsantwort liefert die
Definition:
Definition 6.24 (FIR- und IIR-Systeme)
Zeitdiskrete Systeme S, deren Impulsantwort eine endliche Lnge besitzt, werden
als FIR-Systeme, finite impulse response, bezeichnet. Systeme mit unendlich langer
Impulsantwort heien IIR-Systeme, infinite impulse response.
Entsprechend den Untersuchungen zeitkontinuierlicher Systeme ergeben sich mit analogen Beweisen Aussagen fr Kausalitt und Stabilitt von zeitdiskreten LTI-Systemen,
die den bei zeitkontinuierlichen LTI-Systemen gemachten Aussagen entsprechen.

6 Zeitdiskrete Systeme

278
Satz 6.25 (Kausalitt)

Ein zeitdiskretes LTI-System S ist genau dann kausal, wenn die Impulsantwort gn
fr negative Indizes verschwindet, d.h. wenn
gn = 0 fr n < 0

(6.26)

gilt.

Satz 6.27 (Stabilitt)


Ein zeitdiskretes LTI-System ist genau dann stabil, wenn die Impulsantwort gn die
Bedingung

n=

(6.28)

|gn | <

erfllt.

Abschlieend soll untersucht werden, wie ein zeitdiskretes LTI-System S auf eine komplexe harmonische Schwingung der Frequenz f0
ye,n = A ej2f0 ntA
reagiert. Die Antwort ergibt sich als Faltung zwischen der Impulsantwort gn und dem
Eingangssignal ye,n .

ya,n =

ye,i gni =

i=

= A ej2f0 ntA
= ye,n G (f0 )

i=

i=

A ej2f0 itA gni

gni ej2f0 (n i)tA

Satz 6.29 (Frequenzgang)


Ein zeitdiskretes LTI-System S, das mit einer komplexen harmonischen Schwingung
ye,n = A ej2f0 ntA
angeregt wird, antwortet mit einem Ausgangssignal derselben Frequenz f0 . Der Proportionalittsfaktor zwischen Ein- und Ausgangssignal ist die Fourier-Transformierte
G (f ) der zeitdiskreten Impulsantwort gn bei der Frequenz f0 . Man nennt die
Fourier-Transformierte G (f ) den Frequenzgang des zeitdiskreten Systems S.

6.2 Beschreibung durch Dierenzengleichungen

6.1.2

279

Mehrgrensysteme

Bis jetzt wurde angenommen, dass die beschriebenen Systeme nur eine Eingangs- und
eine Ausgangsgre besitzen. Dies muss natrlich nicht so sein. Alle bisher beschriebenen Eigenschaften lassen sich auch auf so genannte Mehrgrensysteme erweitern.
Entsprechend der Anzahl der Eingangs- bzw. Ausgangsgren spricht man von SISO(Single Input Single Output)- und MIMO-(Multiple Input Multiple Output)-Systemen bzw. deren Mischsystemen SIMO und MISO.
Bei Mehrgrensystemen wird aus dem Eingangssignal ye,n der Eingangssignalvektor
y e,n und aus dem Ausgangssignal ya,n der Ausgangssignalvektor y a,n . Das System wird
weiterhin allgemein beschrieben durch die Operatorgleichung
(6.30)

y a,n = S{y e,n }.

6.2

Beschreibung durch Dierenzengleichungen

Der Zusammenhang zwischen den zeitkontinuierlichen Signalen eines technischen Systems wird meist durch Dierenzialgleichungen beschrieben, in vielen Fllen, zumindest
nherungsweise, durch lineare Dierenzialgleichungen mit konstanten Koeffizienten. Bei
Abtastregelungen, Impulssystemen der Nachrichtentechnik, aber auch bei mathematischen Modellen in den Wirtschaftswissenschaften liegen stattdessen zeitdiskrete Signale
vor [Fl80].
Die Dierenzialgleichungen basieren auf der i-ten Ableitung y (i) (t) eines Signals y(t).
Ein Ableitungsbegri existiert hingegen im zeitdiskreten Raum nicht. Man kann jedoch, wie in Abbildung 6.1 ersichtlich, die zeitkontinuierliche Ableitung z.B. durch eine
einfache Dierenzengleichung annhern:
y(t)

y(tn ) y(tn1 )
yn yn1
=
tA
tA

, t (tn1 , tn ] .

(6.31)

Zentraler Baustein der Dierenzengleichungen ist die zeitliche Verschiebung, d.h. es


gehen nicht nur aktuelle Werte yn eines Signals, sondern auch vergangene Werte
yni

,i > 0

y(t)

tn-1

tn

Abbildung 6.1: Annherung der Ableitung


eines Signals durch eine Dierenzengleichung

6 Zeitdiskrete Systeme

280

bzw. bei nichtkausalen Systemen vergangene und zuknftige Werte


yn+i

, i Z \ {0}

in die Dierenzengleichung ein. Damit lsst sich in der allgemeinen Form der Ausgangswert ya,n eines zeitdiskreten Systems S zur Zeit n als Funktion der anderen Werte der
Ausgangsfolge ya,ni , i Z \ {0}, der Werte der Eingangsfolge ye,n , n Z, und des
Zeitindex n darstellen. Bei kausalen Systemen werden nur Zeitverschiebungen vergangener Werte benutzt, d.h. man erhlt
ya,n = f (ya,n1 , . . . , ye,n , ye,n1 , . . . , n) .

(6.32)

Beispiel 6.33 (Dierenzengleichung des RC-Tiefpass)


Der in Beispiel 1.4 vorgestellte RC-Tiefpass besitzt die Dierenzialgleichung
RC u a (t) + ua (t) = ue (t).
Mit (6.31) entsteht hier die Dierenzengleichung
ua,n ua,n1
+ ua,n = ue,n
RC
tA
RC
tA
ua,n =
ua,n1 +
ue,n .
RC + tA
RC + tA

Bei der Betrachtung zeitdiskreter LTI-Systeme geht die allgemeine Darstellung in eine
lineare Dierenzengleichung mit zeitunabhngigen Koezienten ber:
n2


=n1

a ya,n =

m2


b ye,n .

(6.34)

=m1

Dabei charakterisieren die Koezienten a und b das System. Die dabei vorkommenden Indexgrenzen n1 , n2 , m1 und m2 sagen etwas ber die Kausalitt und andere
Eigenschaften des Systems aus. Man kann dabei ohne Einschrnkung n1 n2 bzw.
m1 m2 voraussetzen. Sind alle Indizes negativ oder gleich null, so handelt es sich um
ein antikausales System. Sind alle Indizes positiv oder gleich null, so handelt es sich um
ein kausales System. Ansonsten ist es ein akausales System.
Neben der Darstellung eines zeitdiskreten Systems S als lineare Dierenzengleichung
nach (6.34) existiert noch die Darstellung im Zustandsraum, die hier kurz beschrieben
wird.

6.2.1

Zustandsraum

Entsprechend den berlegungen bei zeitkontinuierlichen Systemen werden fr zeitdiskrete Systeme die allgemeine Zustandsraumdarstellung bzw. die Zustandsraumdarstellung fr lineare, zeitinvariante Systeme ohne Herleitung angegeben.

6.2 Beschreibung durch Dierenzengleichungen

281

Definition 6.35 (Zustandsraumdarstellung)


Ein zeitdiskretes System S lsst sich mit seinen Eingangs- y e,n bzw. Ausgangssignalen
y a,n und seinen inneren Zustandsgren z n durch
z n+1 = f (z n , y e,n , n)
y a,n = g(z n , y e,n , n)

(6.36)

im Zustandsraum beschreiben. Dabei bezeichnet man, analog zum zeitkontinuierlichen Fall, die erste Gleichung als Zustandsgleichung und die zweite Gleichung als
Ausgangsgleichung.

Definition 6.37 (Zustandsraumdarstellung fr zeitdiskrete LTI-Systeme)


Zeitdiskrete LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch
die Vektorgleichungen
z n+1 = A z n + B y e,n
y a,n = C z n + D y e,n

(6.38)

darstellen, wobei die auftretenden Matrizen wiederum mit Systemmatrix fr die Matrix A, Steuermatrix fr die Matrix B und Beobachtungsmatrix bzw. Durchschaltmatrix fr C bzw. D bezeichnet werden.
Beispiel 6.39 (Zustandsraumdarstellung)
Als Beispiel fr eine Zustandsraumdarstellung betrachten wir ein System, dessen
Struktur durch Abbildung 6.2 gegeben ist.
Es handelt sich um eine gleitende Mittelwertbildung, die vergangene Werte mit unterschiedlichen Gewichten versieht.
Aus der Zeichnung ist abzulesen:
z2,n+1 = b2 ye,n

z1,n+1 = b1 ye,n + z2,n + a1 ya,n

ya,n = z1,n + b0 ye,n

Einsetzen der Gleichungen ineinander ergibt:


A

z1,n+1
z2,n+1

ya,n

   


 

a1 1
b1 + a1 b0
z1,n
=
+
ye,n
z2,n
b2
0 0


z1,n
+ (b0 ) ye,n
= (1, 0)
  z2,n

C

6 Zeitdiskrete Systeme

282
ya,n

ye,n

b0

z 1,n
z

-1
z 1,n+1

b1

a1

z 2,n
z

-1
z 2,n+1

b2

ya,n = a1 ya,n-1+ b0 ye,n + b1 ye,n-1+ b2 ye,n-2


Abbildung 6.2: Zeitdiskretes Beispielsystem

6.3

Die z-Transformation

Zur Beschreibung zeitkontinuierlicher Signale und Systeme benutzt man die FourierTransformation und die Laplace-Transformation. Jedoch wird in Digitalrechnern mit
diskreten Signalen und Systemen gearbeitet.
Die Beschreibung zeitdiskreter Systeme mit Hilfe der z-Transformation bietet hnliche Mglichkeiten wie die Beschreibung kontinuierlicher Systeme mit der LaplaceTransformation.

6.3.1

Definition und Beziehung zur Laplace-Transformation

Bei der Herleitung der Fourier-Transformation zeitdiskreter Signale wurde das Signal
in seiner Darstellung als Impulsreihe der Fourier-Transformation unterzogen. Dieser
Weg soll auch bei der Herleitung der z-Transformation durch Anwendung der LaplaceTransformation auf die Impulsreihe gegangen werden.
Wird ein zeitkontinuierliches Signal y(t) mit der Frequenz fA = 1/tA abgetastet, so
lsst sich das gewonnene zeitdiskrete Signal y (t) nach (5.18) als Impulsreihe
y (t) = y(t)

n=

(t ntA ) =

n=

y(ntA )(t ntA )

(6.40)

darstellen. Wendet man auf Gleichung (6.40) die zweiseitige Laplace-Transformation


an, so erhlt man als die Laplace-Transformierte des zeitdiskreten Signals:

6.3 Die z-Transformation

283

Y (s) = LII {y (t)} = LII

n=

n=

y(ntA )(t ntA )

y(ntA )(t ntA )est dt

y(ntA )entA s .

(6.41)

n=

Diese ist wegen


entA s = entA (s + j2l/tA )

,l N

eine Funktion, die bei nderung des Imaginrteils um ein Vielfaches von
2/tA = 2fA
unverndert bleibt:
Y (s + j2l/tA ) = Y (s)
In der komplexen s-Ebene wiederholt sich damit der Informationsgehalt periodisch. Bei
Einhaltung des Abtasttheorems steckt bereits die gesamte Information ber das Signal
y (t) in dem Streifen
{s = + j2f C : |j2f | < fA } = {s C : |Im{s}| < fA }.
Zur Vermeidung dieser Periodizitt wird die s-Ebene mittels der konformen Abbildung
z = e tA s

(6.42)

eindeutig und nichtlinear auf die z-Ebene abgebildet. Alle Punkte gleicher Information
gehen somit in denselben Bildpunkt ber. Die Mehrdeutigkeiten in (6.41) verschwinden,
weil sie mehrfach in sich selbst abgebildet werden. Mit Abbildung 6.3 ergeben sich die
in Tabelle 6.1 gezeigten Korrespondenzen.
Der bergang zur z-Transformation besitzt aber auch noch andere Vorteile. So wird
der Bereich der Stabilitt
<0

000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
111111111111
000000000000

fA

Abbildung 6.3: Abbildung der Streifen in


das z-Gebiet

6 Zeitdiskrete Systeme

284

Tabelle 6.1: Korrespondenzen zwischen s- und z-Ebene

s-Ebene
linke komplexe Ebene
imaginre Achse
rechte komplexe Ebene
Ursprung (s = 0)
halbe Abtastfrequenz

z-Ebene
Inneres des Einheitskreises
Peripherie des Einheitskreises
ueres des Einheitskreises
z=1
z = 1

mittels der konformen Abbildung (6.42) in das Innere des Einheitskreises


|z| < 1
abgebildet. Mit Hilfe der konformen Abbildung (6.42) ergibt sich aus (6.41) die z-Transformation:
Definition 6.43 (z-Transformation)
Eine Folge (yn ) = (y(n)) = (y(ntA )) , n Z, von Signalwerten besitzt die z-Transformierte
Y (z) = Z{yn } =

yn z n .

(6.44)

n=

Gleichung (6.44) definiert die zweiseitige z-Transformation. Jede akausale Folge y(n)
lsst sich in einen kausalen Teil y+ (n) mit y+ (n) = 0 fr n < 0 und einen antikausalen
Teil y (n) mit y (n) = 0 fr n > 0 aufspalten. Mit der Definition der Funktionen
Y+ (z) =

yn z n

(6.45)

n=0

Y (z) =

0


n=

yn z n =

n=0

yn z n ,

(6.46)

welche als kausaler Teil bzw. antikausaler Teil bezeichnet werden, erhlt man die
Darstellung
Y (z) = Y+ (z) + Y (z) y(0).

(6.47)

Eine Folge yn = y(n) bestimmt eindeutig die z-Transformierte Y (z). Umgekehrt ist, wie
spter exemplarisch gezeigt wird, eine Folge yn = y(n) durch Y (z) nur dann eindeutig
bestimmt, wenn zu Y (z) das Konvergenzgebiet der Summe in z angegeben wird.

6.3 Die z-Transformation

285

Bemerkung 6.48
Im Folgenden wird anstelle der Darstellung y(n) , n Z, welche die Abstammung der
zeitdiskreten Werte von einer Abtastung verdeutlicht, wieder die Folgendarstellung
yn , n Z, verwendet, die keinerlei Information ber die Herkunft der Werte mehr
enthlt.

6.3.2

Existenz

Die Existenz der z-Transformierten ist von der Angabe des Konvergenzgebietes abhngig. Die z-Transformierte nach Gleichung (6.44) ist die Laurent-Reihen-Entwicklung
Gleichung (2.118) der Funktion
Y (z) =

n=

an (z z0 )n

mit den Koezienten an = yn , n Z und z0 = 0. Das Konvergenzgebiet der z-Transformierten muss also ein Kreisringgebiet um z0 = 0 der Gestalt
r+ < |z| < r

(6.49)

, r+ < r

sein. Die beiden Radien r+ und r sind von der jeweiligen Wertefolge yn abhngig.
Jedoch lsst sich zeigen, dass sie jeweils nur von einem Teil der Wertefolge abhngig
sind. Dazu spaltet man die Reihe wieder in einen kausalen und in einen antikausalen
Teil auf.
1. Kausaler Teil, n 0:
Y+ (z) =

yn z n

n=0

Mit w = 1/z ist dies eine gewhnliche Potenzreihe im Sinne der Funktionentheorie:
Y+

  

1
=
yn w n
w
n=0

Wie dies allgemein bei Potenzreihen mglich ist, kann der Konvergenzradius R
dieser Reihe gem der Formel
R=

lim sup |yn |1/n


n

1

bestimmt werden, wobei 1/0 = und 1/


 = 0 gesetzt wird. Somit konvergiert
diese Reihe, was mit der Existenz von Y+ w1 gleichbedeutend ist, in dem Bereich
|w| < R.

6 Zeitdiskrete Systeme

286

Also existiert der kausale Teil Y+ (z) auerhalb der Kreisscheibe mit Mittelpunkt
0 und Radius 1/R :
kausaler Teil Y+ (z) :

|z| > r+ =

1
.
R

2. Antikausaler Teil, n 0:
Y (z) =

0


yn z n

n=

Bevor obiges Vorgehen auf diese Reihe angewandt werden kann, muss sie in die
Standarddarstellung gebracht werden. Diese lautet mit einfacher Umindizierung
Y (z) =

n=0

yn z n .

Ebenso wie beim kausalen Teil erhlt man hier den Konvergenzradius
r=

lim sup |yn |1/n


n

1

mit denselben Festlegungen 1/0 = , 1/ = 0 und somit:


antikausaler Teil Y (z) :

|z| < r = r .

Betrachtet man nun die Definitionsbereiche der Funktionen Y+ (z) und Y (z), so
fllt sofort auf, dass die z-Transformierte Y (z), wie bereits behauptet, nur in einem
Kreisring um den Nullpunkt existiert, wobei sich die Radien gem r+ = 1/R und
r = r bestimmen.
Weiterhin wird aus der Herleitung deutlich, dass die Radien r+ bzw. r nur vom
kausalen bzw. vom antikausalen Teil der Folge yn abhngen und somit unabhngig
voneinander sind. Ist eine kausale Wertefolge gegeben, wie dies in technischen Anwendungen hufig der Fall ist, so ergibt sich r = .
Bemerkung 6.50
Ist die Wertefolge eine rechtsseitige Folge, d.h. existiert ein nmin mit yn = 0 fr
n < nmin , so hat das Konvergenzgebiet wegen limn yn = 0 und somit r =
stets die Form r+ < |z|.

Analog entsteht bei linksseitigen Wertefolgen, d.h. Folgen mit yn = 0 fr n > nmax

und somit r+ = 0, stets ein Konvergenzgebiet der Gestalt |z| < r .

6.3 Die z-Transformation

287

Bemerkung 6.51
1. Enthlt das Konvergenzgebiet der z-Transformierten einer Wertefolge den Einheitskreis, dann ist fr diese Folge auch die zeitdiskrete Fourier-Transformierte,
vgl. Gleichung (5.21) in Abschnitt 5.3.1, konvergent. Die Fourier-Transformierte
kann mittels z = ej2f tA aus der z-Transformierten berechnet werden.
2. Ist die Wertefolge yn endlich, d.h. gilt yn = 0 nur fr endlich viele Indizes n,
so konvergiert die z-Transformation automatisch fr alle z mit 0 < |z| < .

Im folgenden Beispiel soll die Bestimmung des Kreisringgebietes, aber auch die Wichtigkeit der Angabe dieses Gebiets zur Eindeutigkeit der z-Transformierten gezeigt werden.
Beispiel 6.52 (Bestimmung des Konvergenzgebietes)
Bei der Wertefolge
 n
a ,n 0
yn =
bn , n < 0

, a, b C

stellen sich drei Fragen. Wie sieht die z-Transformierte aus? Welchen Bedingungen
mssen a C und b C gengen, damit die z-Transformierte existiert? Fr welche
z-Werte ist die z-Transformierte dann konvergent?
Nach Aufteilen in den kausalen Teil
' (n

1
a
=
Y+ (z) =
z
1
n=0

welcher fr

a
 
 <1
z

a
z

z
za

a
 
,   < 1,
z

|z| > |a| = r+

konvergiert, und den antikausalen Teil


 n 
0
' (n

1
b
z
Y (z) =
=
=
z
b
1

n=
n=0
der im Fall

z 
 
 <1
b

z
b

|z| < |b| = r

konvergiert, erhlt man die z-Transformierte


Y (z) = Y+ (z) + Y (z) y0 =
in dem Konvergenzgebiet
r+ = |a| < |z| < |b| = r .

z(a b)
(z a)(z b)

b
bz

z 
 
,   < 1,
b

6 Zeitdiskrete Systeme

288

Eine notwendige Bedingung dafr, dass die z-Transformierte berhaupt auf einer
nichtleeren Menge existiert, ist somit
|a| < |b|.
Ohne diese Konvergenzbedingung existiert die z-Transformierte Y (z) nicht, es kann
lediglich der kausale Teil Y+ (z) oder der antikausale Teil Y (z) angegeben werden.

Bemerkung 6.53

Die z-Transformierte Y (z) ist nur mit der Angabe des Konvergenzgebietes eindeutig
einer zeitdiskreten Funktion y(n) zugeordnet. In Abbildung 6.4 ist eine Polstellenkonfiguration gegeben, bei welcher der Konvergenzradius der z-Transformierten nicht
vorgegeben sei.
x

x
x
x

x
x

Konvergenzgebiet B
x

Konvergenzgebiet A

Abbildung 6.4: Eindeutigkeit einer z-Transformierten in Abhngigkeit der Polstellen

Je nach Wahl des Konvergenzgebietes werden die Pole unterschiedlich dem kausalen
und dem antikausalen Teil zugeordnet. Damit erhlt man unterschiedliche Signale

im Zeitbereich.
Beispiel 6.54 (Eindeutigkeit der z-Transformierten)
Bei der Frage, wie die ursprngliche Wertefolge yn der z-Transformierten Y (z) =
z
aussieht, kann man zwei Flle betrachten.
z1
1. Fall: Fr |z| > 1 = r+ erhlt man
Y (z) =

1
z
=
z1
1

1
z

n=0

z n

yn = n .

6.3 Die z-Transformation

|z|<1

289

|z|>1

antikausal

kausal

Abbildung 6.5: Mehrdeutigkeit der z-Transformierten von

z
z1

2. Fall: Fr |z| < 1 = r ergibt sich


Y (z) =

1

z
1
z n yn = n1 .
=1
=
z1
1z
n=

Ohne Angabe des Konvergenzgebietes ist die z-Transformierte also nicht eindeutig,
da wir fr die identische Bildfunktion zwei verschiedene Urfolgen erhalten haben.
Die Konvergenzgebiete der Folgen sind in Abbildung 6.5 skizziert.

6.3.3

Inverse z-Transformation

Wie bereits erwhnt entspricht die z-Transformation


Y (z) =

yn z n

n=

einer Laurent-Reihe um z0 = 0. Durch Umschreiben mit an = yn folgt


Y (z) =

an z n .

n=

Fr die Folge an gilt mit Hilfe der Gleichung (2.119), welche die Berechnung der Koeffizienten einer Laurent-Reihe ermglicht:

Y ()
1
an =
d .
2j
( z0 )n+1
C

Mit an = yn und z0 = 0 erhlt man die inverse z-Transformation als Umkehrintegral




1
1
Y ()
d
=
Y () n1 d.
(6.55)
yn = an =
2j
2j
( z0 )n+1
C

Dabei ist die Kurve C ein einfach geschlossener, mathematisch positiv orientierter Weg,
der ganz im Inneren des Konvergenzgebietes von Y () verluft.

6 Zeitdiskrete Systeme

290

6.3.4

Mglichkeiten der Rcktransformation

Die Rcktransformation vom z-Bereich in den Zeitbereich kann im Prinzip mit Hilfe
des Umkehrintegrals (6.55) erfolgen. Ist Y (z) eine rationale Funktion, was meistens der
Fall ist, so empfiehlt es sich aber, andere Methoden anzuwenden, die im Folgenden
beschrieben werden.
6.3.4.1

Rckfhrung auf die geometrische Reihe

Ist yn eine kausale oder eine antikausale Wertefolge, so kann man die Rcktransformation in bestimmten Fllen auf die geometrische Reihe

qn =

n=0

1
1q

(6.56)

, |q| < 1

zurckfhren. Durch Umformung der z-Transformierten auf die Darstellung


1
1q

kann man somit direkt auf die Wertefolge schlieen. Wie jedoch Beispiel 6.54 gezeigt
hat, ist dies ohne Angabe des Konvergenzgebietes nicht eindeutig. Das Konvergenzgebiet
bestimmt sich hierbei durch die Forderung |q| < 1.
Beispiel 6.57 (Rcktransformation mittels geometrischer Reihe)
Wie lautet die Zahlenfolge yn , die zu der z-Transformierten
Y (z) =

1
(z 1)(z 2)

, 1 < |z| < 2

gehrt?
Fr akausale Systeme (1 < |z| < 2) erhlt man mit Hilfe der Partialbruchzerlegung
1
A
B
1
1
=
+
=

(z 1)(z 2)
z1 z2
z1 z2

unter Beachtung des Konvergenzgebietes


Y (z) =
=

1
1
1
1
1  n 1  n n
+
=
z +
2 z
z 1 1/z
2 1 z/2
z n=0
2 n=0

n=1

die Wertefolge:
yn =

z n +

0


2n1 z n

n=

1 ,n 1
2n1 , n < 1

Die Umformungen vor der Anwendung der geometrischen Reihe erfolgen damit unter
Bercksichtigung des geforderten Konvergenzgebietes.

6.3 Die z-Transformation


6.3.4.2

291

Residuensatz

Die inverse z-Transformation ist durch Gleichung (6.55)



1
Y () n1 d
yn =
2j
C

definiert. Mit Hilfe des Residuensatzes 2.126




F (z)dz = 2j

M

i=1

Res{F (z); zi }

ergibt dies
yn =


i

Res{Y (z)z n1 ; zi }.

(6.58)

Hier stellt sich die Frage, welche Pol- oder Unendlichkeitsstellen verwendet werden. Im
Konvergenzgebiet drfen aus der Definition heraus keine Polstellen liegen, sonst wrde
die z-Transformierte dort erst gar nicht konvergieren. Fr die Polstellen gilt deshalb
|z | < r+

oder

|z | > r .

(6.59)

Der Integrationsweg C liegt im Inneren dieses Kreisrings, in dem sich keine Polstellen
befinden. Zur Anwendung des Residuensatzes muss der Integrationsweg die Polstellen
umschlieen. Dabei mssen die Polstellen auf der linken Seite, d.h. im Inneren, relativ
zum Integrationsweg liegen. Hierbei gibt es zwei Mglichkeiten.
1. Der Integrationsweg verluft in mathematisch positiver Richtung, vgl. C1 in Abbildung 6.6. Die Polstellen innerhalb des Weges sind also die Pole innerhalb des
Kreisrings, d.h. die Pole mit
|z | < r+ .
Hier verwendet man nur die Pole, die fr den kausalen Teil des Signals verantwortlich sind.
2. Der Integrationsweg verluft in mathematisch negativer Richtung, vgl. C2 in Abbildung 6.6. Die Polstellen innerhalb des Weges sind die Pole auerhalb des Kreisrings, d.h. die Pole mit
|z | > r .
Diese Pole sind fr den antikausalen Teil des Signals verantwortlich. Hierbei ist
zu beachten, dass bei mathematisch negativer Richtung das Vorzeichen umzudrehen ist. Des Weiteren muss, falls vorhanden, die Unendlichkeitsstelle bei |z|
bercksichtigt werden.

6 Zeitdiskrete Systeme

292
Im{z}
z

Re{z}
C1

C2

r+
C

r-

Abbildung 6.6: Integrationswege

Fasst man die vorherigen Ausfhrungen zusammen, so lsst sich fr den kausalen Teil
yn =


i

Res{Y (z)z n1 ; |zi | < r+ } , n 0

und fr den antikausalen Teil



yn =
Res{Y (z)z n1 ; |zi | > r } , n 0

(6.60)

(6.61)

schreiben. Im antikausalen Teil muss, wenn vorhanden, die Unendlichkeitsstelle bei


|z| beachtet werden.
Beispiel 6.62 (Rcktransformation mittels Residuensatz)
Die Funktion
Y (z) =

z
za

mit |z| > a

ist die z-Transformierte einer kausalen Folge. Man berechnet leicht




yn = Res Y (z)z n1 ; z = a
 n
9
z
= Res
; z = a
za
zn
= lim (z a)
za
za
= an
, n 0.

Als weiteres Beispiel soll die in Beispiel 6.52 berechnete z-Transformierte rcktransformiert werden.

6.3 Die z-Transformation

293

Beispiel 6.63 (Rcktransformation mittels Residuensatz)


Die z-Transformierte lautet:
Y (z) =

z(a b)
(z a)(z b)

, |a| < |z| < |b| .

Zur Berechnung der Wertefolge yn bestimmt man die Pole und die Unendlichkeitsstellen.
1. |z | < r+ = |a|
Hier gibt es nur einen Pol bzw. eine Unendlichkeitsstelle z = a und es ergibt
sich fr n 0:
yn = Res{Y (z)z n1 ; z = a}

9
z n (a b)
= Res
; z = a
(z a)(z b)
z n (a b)
= lim (z a)
za
(z a)(z b)
= an
,n 0

2. |z | > r = |b|
Hier gibt es auch nur einen Pol bzw. eine Unendlichkeitsstelle z = b, da
limz Y (z) = 0 gilt, und es folgt:
yn = Res{Y (z)z n1 ; z = b}

9
z n (a b)
; z = b
= Res
(z a)(z b)
z n (a b)
= lim (z b)
zb
(z a)(z b)
n
=b
,n < 0
Das Resultat der Rcktransformation stimmt mit dem Ausgangspunkt von Beispiel
6.52 berein.

6.3.4.3

Polynomdivision

Ist die z-Transformierte Y (z) als gebrochen rationale Funktion der Form
1
1
+ . . . + bM M
z
z
Y (z) =
1
1
a0 + a1 + . . . + aN N
z
z
b0 + b1

(6.64)

gegeben, so kann fr kausale Signale die Wertefolge yn durch Polynomdivision gewonnen


werden, da aus

 

1
1
1
1
1
b0 + b1 + . . . + bM M a0 + a1 + . . . + aN N = y0 + y1 + . . .
z
z
z
z
z

6 Zeitdiskrete Systeme

294

durch Multiplikation auf beiden Seiten



 


1
1
1
1
1
b0 + b1 + . . . + bM M = a0 + a1 + . . . + aN N y0 + y1 + . . .
z
z
z
z
z
folgt. Nun knnen durch Koezientenvergleich die Werte yn mittels Lsen eines linearen
Gleichungssystems bestimmt werden. Der Nachteil der Polynomdivision ist, dass sie im
Allgemeinen kein analytisches Ergebnis liefert, da die resultierende Folge yn unendlich
lang ist. Es muss ab einer bestimmen Stelle abgebrochen werden. Dieses Verfahren ist
besonders fr Digitalrechner geeignet.
6.3.4.4

Partialbruchzerlegung

Die z-Transformierte Y (z) sei eine teilerfremde rationale Funktion


Y (z) =

p(z)
q(z)

(6.65)

mit grad p(z) < grad q(z). Das Nennerpolynom q(z) sei durch
q(z) = q (z z1 )1 (z z2 )2 . . . (z zK )K
(6.66)
(z 2 + 1 z + 1 )1 (z 2 + 2 z + 2 )2 . . . (z 2 + L z + L )L
darstellbar, wobei die komplexen Polpaare zu den Ausdrcken z 2 + z + zusammengefasst sind. Fr alle z C, fr die q(z) = 0 gilt, kann die Funktion Y (z) in Partialbrche
zerlegt werden:
a11
a12
a11
+
+ +
(6.67)
z z1
(z z1 )2
(z z1 )1
a21
a22
a22
+
+
+ +
z z2
(z z2 )2
(z z2 )2
..
.
aK2
aKK
aK1
+
+ +
+
2
z zK
(z zK )
(z zK )K
b12 z + c12
b1 z + c11
b11 z + c11
+ 2
+ + 2 1
+ 2
2
z + 1 z + 1
(z + 1 z + 1 )
(z + 1 z + 1 )1
b21 z + c21
b22 z + c22
b2 z + c22
+ 2
+ 2
+ + 2 2
z + 2 z + 2
(z + 2 z + 2 )2
(z + 2 z + 2 )2
..
.
bL2 z + cL2
bL z + cLL
bL1 z + cL1
.
+ 2
+ + 2 L
+ 2
2
z + L z + L
(z + L z + L )
(z + L z + L )L

Y (z) =

6.3 Die z-Transformation

295

Hierbei sind
, i = 1, 2, . . . , K , j = 1, 2, . . . , K
, i = 1, 2, . . . , L , j = 1, 2, . . . , L

aij
bij , cij

eindeutig bestimmte Konstanten.


Wenn alle Koezienten in Y (z) reell sind, so gibt es entweder nur reelle Polstellen

(z zi )i
oder konjugiert komplexe Polstellenpaare
(z 2

.
+ i z + i )i

Dann sind auch die Koezienten aij , bij und cij reell.
Die Koezienten aii mit der hchsten Ordnung, d.h. bei einfachen reellen Polen die
ai1 , knnen durch
aii = lim Y (z) (z zi )i

(6.68)

zzi

berechnet werden. Die anderen Koezienten ermittelt man am einfachsten durch Ausmultiplizieren und Koezientenvergleich, welcher auf ein lineares Gleichungssystem
fhrt.
Man kann aber auch die anderen Koezienten ber
 m

1
ai(i m) =
(Y (z) (z zi )i )
m! z m

(6.69)
z=zi

ermitteln. Hat man die z-Transformierte Y (z) in Partialbrche zerlegt, so kann man
diese mittels der geometrischen Reihe oder einer Transformationstabelle ganz einfach
rcktransformieren.
Dies wird nun an zwei Beispielen demonstriert.
Beispiel 6.70 (Partialbruchzerlegung)
Die z-Transformierte laute
Y (z) =

3z 2 + 2z 10
.
z 3 5z 2 + 8z 4

Der Nenner besitzt die Produktdarstellung


z 3 5z 2 + 8z 4 = (z 1) (z 2)2 .
Daraus folgt der Ansatz fr die Partialbruchzerlegung
Y (z) =

a11
b11 z + c11
.
+
z1
(z 2)2

6 Zeitdiskrete Systeme

296
Nach Gleichung (6.68) gilt

3z 2 + 2z 10
= 5.
z1
(z 2)2

a11 = lim Y (z) (z 1) = lim


z1

Durch Ausmultiplizieren, d.h. durch Bildung des Hauptnenners, folgt


!

3z 2 + 2z 10 = 5 (z 2)2 + (b11 z + c11 ) (z 1)


= (5 + b11 )z 2 + (20 b11 + c11 )z + (20 c11 ).

Durch Koezientenvergleich erhlt man das Gleichungssystem


=
3
5 + b11
20 b11 + c11 =
2
20
c11 = 10
mit der Lsung
c11 = 10,

b11 = 8 ,

woraus die Partialbruchzerlegung


3z 2 + 2z 10
8z
10
5
+

=
z 3 5z 2 + 8z 4
z 1 (z 2)2
(z 2)2

Y (z) =

folgt. Natrlich htte man sich die separate Berechnung von a11 ersparen und diesen
Wert auch im Gleichungssystem mitberechnen knnen. Hat ein System aber nur oder
berwiegend reelle Pole erster Ordnung, so reduziert die vorherige Berechnung der
entsprechenden Koezienten die Ordnung des Gleichungssystems.
Mit den Korrespondenzen
an1 n1

und
nan n

1
za

za
(z a)2

sowie dem Verschiebungssatz erhlt man


Y (z)

y(n) = 5 n1 + 4 n 2n n 5 (n 1) 2n1 n1

Beispiel 6.71 (Partialbruchzerlegung)


Die z-Transformierte laute
Y (z) =

1
.
z 3 2z 2 + z

6.3 Die z-Transformation

297

Der Nenner besitzt die Produktdarstellung


z 3 2z 2 + z = z (z 1)2 .
Daraus folgt der Ansatz der Partialbruchzerlegung
Y (z) =

1
a11
a21
a22
=
+
+
.
z 3 2z 2 + z
z
z 1 (z 1)2

Nach Gleichung (6.68) gilt


1
=1
(z 1)2
1
a22 = lim Y (z) (z 1)2 = lim = 1.
z1
z1 z
Dies ergibt bis jetzt
a11 = lim Y (z) z = lim
z0

Y (z) =

z3

z0

1
a21
1
1
= +
.
+
2
2z + z
z
z 1 (z 1)2

Den Koezienten a21 knnte man nun durch Bilden des Hauptnenners und Koeffizientenvergleich oder mit Hilfe der Formel (6.69) bestimmen. Da dies jedoch sehr
aufwendig ist, setzt man einfach einen geeigneten z-Wert ein, der keine Polstelle ist,
hier z.B. z = 1.

Dadurch erhlt man

Y (z = 1) =

1
a21
1
= 1
+
4
2
4

a21 = 1

und insgesamt
Y (z) =

1
1
1
,

+
z
z 1 (z 1)2

also nach der Korrespondenztabelle

y(n) = n1 n1 + (n 1) n1 .
6.3.4.5

Transformationstabelle

Natrlich darf die Transformationstabelle als Weg der Rckfhrung von der z-Transformierten zur Wertefolge nicht vergessen werden. Oftmals wird die Funktion Y (z) erst
durch Partialbruchzerlegung so vereinfacht, dass die Transformationstabelle angewendet
werden kann, falls sie nicht bereits aus Funktionen besteht, deren Urfolge bekannt ist.
Die Transformationstabelle fr die z-Transformation findet man in Anhang C.

6.3.5

Eigenschaften

Bei der z-Transformation sind, wie bei den anderen Transformationen, die Eigenschaften
fr deren Anwendung von Interesse. Die wichtigsten werden hier dargestellt. Sie finden
sich auch im Anhang.

6 Zeitdiskrete Systeme

298
6.3.5.1

Linearitt

Es gilt die Linearitt fr z-Transformierte




Z{
ci yi,n } =
ci Yi (z)
i

(6.72)

mit dem Gltigkeitsbereich

max{ri+ } < |z| < min{ri },


i

da zur Berechnung der Summe jede der z-Transformierten existieren muss.


6.3.5.2

Zeitumkehr

Bei der Zeitumkehr entsteht aus


Y (z) =
yn z n

, r+ < |z| < r

n=

die z-Transformierte der zeitumgekehrten Folge yn als


Y (z) =

n=

=Y

yn z

 
1
z

 n
1
=
yn z =
yn
z
n=
n=

(6.73)

mit dem Konvergenzgebiet


1
1
< |z| <
.
r
r+
6.3.5.3

Zeitverschiebung

Bei der Zeitverschiebung der Folge um l Z Werte, d.h. yn ynl , entsteht aus
Y (z) =

yn z n

, r+ < |z| < r

n=

fr allgemeine, d.h. zweiseitige Folgen die z-Transformierte:


Y (z) =

ynl z n = z l

n=

= z l Y (z)

ynl z (nl)

n=

, r+ < |z| < r .

(6.74)

Kausale Folgen wrden jedoch bei einer Verschiebung um l < 0 akausal. Soll die zeitverschobene kausale Folge weiterhin kausal bleiben, so wird ein Teil der Folge abgeschnitten,
und dieser Teil muss bei der z-Transformierten wieder abgezogen werden:
yn+l

, l 0 z l Y+ (z)

l1

i=0

yi z li .

(6.75)

6.3 Die z-Transformation


6.3.5.4

299

Modulation

Bei der Modulation, d.h. der Multiplikation im Zeitbereich mit an , a C, folgt aus

Y (z) =

yn z n

, r+ < |z| < r

n=

die z-Transformierte des modulierten Signals an yn fr a = 0 zu

Y (z) =

a yn z

n=

=Y

'z (

 n

' z (n


1
=
yn z n =
yn
a
a
n=
n=

(6.76)

mit dem Gltigkeitsbereich

|a|r+ < |z| < |a|r .


6.3.5.5

Lineare Gewichtung

Aus der Ableitung der z-Transformierten Y (z)


d 
d
Y (z) =
yn z n =
nyn z n1
dz
dz n=
n=

1 
=
nyn z n
z n=

(6.77)

folgt die Regel der z-Transformation fr eine linear gewichtete Funktion:


Z{nyn } = z
6.3.5.6

d
Y (z)
dz

(6.78)

, r+ < |z| < r .

Faltung

Die z-Transformierte der Faltung zweier Zahlenfolgen


xn yn =

xk ynk =

k=

xnk yk

k=

ergibt sich als Produkt der z-Transformierten:


Z{xn yn } =
=

(xn yn )z n =

n=


k=

xk

n=

= X(z) Y (z) .

ynk z

xk ynk z n

n= k=


n

xk z

k=

ynk z (nk)

n=

(6.79)

6 Zeitdiskrete Systeme

300
Als Konvergenzbereich ergibt sich der Kreisring
max{rx+ , ry+ } < |z| < min{rx , ry } .
6.3.5.7

Korrelation

Die Korrelation zweier Zahlenfolgen, die durch


Rxy (n) =

xi+n yi =

i=

x y(n) = xn yn

= i+n, i = n

definiert ist, hat nach der fr die Faltung bewiesenen Regel die z-Transformierte
 
1
(6.80)
Sxy (z) = Z{Rxy (n)} = X(z)Y
z
 
1
Sxx (z) = X(z)X
.
z

Als Konvergenzbereich ist hier der Streifen zu nehmen, in dem beide Funktionen konvergieren. Hierzu ist neben einer zur Faltung analogen Betrachtung noch das Verhalten
bei Zeitumkehr zu beachten:
max{rx+ ,
6.3.5.8

1
ry

} < |z| < min{rx ,

1
ry+

}.

Anfangswerttheorem

Fr kausale Folgen yn gilt mit


Y (z) = Y+ (z) =

yn z n = y0 + y1 z 1 + y2 z 2 + . . .

n=0

das Anfangswerttheorem

(6.81)

lim Y (z) = y0 .

Fr beliebige Folgenelemente yn mit positivem Index n > 0 gilt wegen


z n Y+ (z) = z n y0 + z n1 y1 + . . . + yn + yn+1 z 1 + . . .
und somit
yn = z n Y+ (z)

n1

i=0

z ni yi

z i yn+i ,

i=1

bei Existenz des Grenzwerts der verallgemeinerte Anfangswertsatz fr positive Indizes:




n1

,n 0.
(6.82)
yn = lim z n Y+ (z)
z ni yi
z

i=0

6.4 Systemfunktion
6.3.5.9

301

Endwerttheorem

Die kausale Wertefolge yn lsst sich mit Hilfe des Residuensatzes ber

yn =
Res{Y (z)z n1 ; |zi | < r+ }
i

berechnen. Unter der Bedingung, dass eine Polstelle bei z = 1 liegt, und dass alle
anderen Pole innerhalb des Einheitskreises |zi | < 1 liegen, kann der Residuensatz als

yn = lim (z 1)Y (z)z n1 +
lim (z zi )Y (z)z n1
z1

|zi |<1

zzi

geschrieben werden. Im Grenzbergang n entsteht


lim yn = lim lim (z 1)Y (z)z n1
n z1

+ lim
lim (z zi )Y (z)z n1 .

|zi |<1

zzi

Vertauscht man die beiden Grenzwerte, so ergibt sich mit


1
0
1 0
lim yn = lim (z 1)Y (z) lim 1n1
n
n
z1



1


1
0

lim (z zi )Y (z) lim z n1
+
zzi
n i



|zi |<1
0

bei Existenz der Grenzwerte der Endwertsatz


lim yn = lim (z 1)Y (z).

6.4

z1

(6.83)

Systemfunktion

Bei zeitdiskreten LTI-Systemen war das Ausgangssignal ya,n als Faltung des Eingangssignals ye,n mit der Impulsantwort gn , d.h.
ya,n = ye,n gn ,

(6.84)

beschrieben. Das System wird durch die Impulsantwort gn vollstndig charakterisiert.


Transformiert man (6.84) in den z-Bereich, so erhlt man mit (6.79) das z-transformierte
Ausgangssignal als Produkt der z-transformierten Impulsantwort gn und des z-transformierten Eingangssignals ye,n :

6 Zeitdiskrete Systeme

302
Ya (z) = Ye (z) G(z) G(z) =

Ya (z)
.
Ye (z)

Dabei nennt man G(z) die Systemfunktion.


Definition 6.85 (Systemfunktion)
Die z-Transformierte der Impulsantwort
(6.86)

gn G(z)

eines zeitdiskreten LTI-Systems S nennt man Systemfunktion. Sie beschreibt bei


gleichzeitiger Angabe des Konvergenzgebietes das System S vollstndig.
Bemerkung 6.87
Da die Systemfunktion eines Systems durch Anwendung der z-Transformation berechnet wird, ist eine Rechnung mit Systemfunktionen nur unter Angabe von Konvergenzgebieten vollstndig. Dies wird im Folgenden nicht immer durchgefhrt, sondern es wird davon ausgegangen, dass man sich bei Berechnungen im Bildbereich
innerhalb dieses Konvergenzgebietes befindet.
Oft ergeben sich aus den zugrunde liegenden Voraussetzungen schon Forderungen an
das Konvergenzgebiet. Beispielsweise wird gezeigt werden, dass ein stabiles zeitdiskretes LTI-System nur Pole innerhalb des Einheitskreises besitzt. Dann ist |z| 1

Teil des Konvergenzgebietes.


Nach (6.34) lsst sich ein zeitdiskretes, lineares System S durch die Dierenzengleichung
n2


=n1

a ya,n =

m2


b ye,n

=m1

darstellen. Mit Hilfe des Verschiebungssatzes (6.74) der z-Transformation lsst sich die
z-Transformierte dieser Gleichung
n2


=n1

a z Ya (z) =

m2


b z Ye (z)

=m1

und hieraus die Systemfunktion


m
2

Ya (z)
=m1
= n2
G(z) =

Ye (z)
=n1

b z
(6.88)
a z

bestimmen. Die unterschiedlichen Indexgrenzen n1 , n2 , m1 und m2 erschweren weitere


Betrachtungen. Whlt man hingegen M1 = min{n1 , m1 } und M2 = max{n2 , m2 }, so

6.4 Systemfunktion

303

entstehen gleiche Indexgrenzen, indem man einige Indizes a , b zu Null whlt:

G(z) =

M
2

b z

=M1

M
2

=M1

Da G(z) ein zeitinvariantes System beschreibt, kann man durch einheitliche Zeitverschiebung um M1 Abtastschritte und mittels der Umindizierungen a = a+M1 , b = b+M1
die Indexgrenzen bei 0 beginnen lassen.

G(z) =

M2
M1
=0

M2
M1
=0

b z
a z

Erweitert man nun die Systemfunktion mit z M , wobei M = M2 M1 gilt, und bezeichnet
man die Indizes wieder mit a und b , so ist die Systemfunktion eine gebrochen rationale
Funktion:

G(z) =

M


M


=0

6.4.1

b z M

=0

=
a

z M

Z(z)
.
N (z)

(6.89)

Pol- und Nullstellen

Aus der Funktionentheorie ist bekannt, dass es fr gebrochen rationale Funktionen verschiedene Darstellungsformen gibt, und jede dieser Formen unter bestimmten Voraussetzungen Vorteile besitzt. Wenn mit z0 die Nullstellen des Zhlerpolynoms Z(z), d.h.
die Nullstellen der bertragungsfunktion G(z) aus (6.89), und mit z die Nullstellen
des Nennerpolynoms N (z), d.h. die Polstellen der bertragungsfunktion G(z), bezeichnet werden, erhlt man die Darstellung der bertragungsfunktion in Linearfaktoren
von Zhler- und Nennerpolynom.

G(z) = G0

M
<

=1
M
<

=1

(z z0 )

(6.90)

(z z )

Je nach Grad von Zhler- und Nennerpolynom vor der Umindizierung treten in dieser Darstellung keine M Faktoren, sondern weniger Faktoren entsprechend dem Polynomgrad auf. Die Faktoren sind somit teilweise leere Faktoren entsprechend einer
Multiplikation mit eins.

6 Zeitdiskrete Systeme

304

Mit Hilfe der Partialbruchzerlegung folgt bei einfachen Polen die bertragungsfunktion
in Summendarstellung und die Impulsantwort als deren Rcktransformierte
G(z) = A0 +

M


A
z

z
=1

gn = A0 n +

M


=1

n1
A z
n1 .

(6.91)

Setzt man die Impulsantwort in (6.91) in die Bedingung fr die Stabilitt eines zeitdiskreten LTI-Systems (6.28) ein, so erhlt man mit der Dreiecksungleichung folgende
Abschtzung:

n=




M





n1
|gn | =
A z n1 
 A0 n +


n=

|A0 | +

=1

M


=1

|A |

n=1

|z |n1 <

Hierbei sind auch die komplex konjugierten Polpaare separat transformiert worden, ohne
diese zu einem Bruch zusammenzufassen. Dies ist problemlos mglich, da es sich bei der
z-Transformation um eine lineare Transformation handelt. Die einzelnen Summen ber
n konvergieren, wenn der Betrag der Polstellen z kleiner 1 ist, d.h. die Polstellen z
innerhalb des Einheitskreises liegen.

Satz 6.92 (Stabilitt)


Ein zeitdiskretes kausales LTI-System S ist stabil, wenn alle Polstellen der bertragungsfunktion G(z) innerhalb des Einheitskreises liegen, d.h. die Bedingung
|z | < 1 , = 1, . . . , M
erfllt ist.

Dieser Stabilittssatz entspricht der Stabilitt bei zeitkontinuierlichen Systemen. Dort


mussten die Polstellen s in der linken s-Halbebene liegen. Dies entspricht dem Inneren
des Einheitskreises in der z-Ebene.

6.4.2

Verknpfung von Systemen

Auch bei den zeitdiskreten Systemen ist die Verknpfung einzelner Teilsysteme zu einem Gesamtsystem von Interesse. Dabei mchte man die bertragungsfunktion des
Gesamtsystems aus den bertragungsfunktionen der Teilsysteme bestimmen. Die Vorgehensweise ist analog zu den zeitkontinuierlichen Systemen. Deshalb wird auf eine
Herleitung verzichtet, da sowohl die Laplace- als auch die z-Transformation linear sind
und die Ambivalenz zwischen Faltung und Multiplikation aufweisen.

6.4 Systemfunktion

305

Satz 6.93 (Hintereinanderschaltung von Systemen)


Werden ein System S1 mit der bertragungsfunktion G1 (z) und ein System S2
mit der bertragungsfunktion G2 (z) hintereinander geschaltet, so wird die gesamte
bertragungsfunktion als Produkt der beiden einzelnen bertragungsfunktionen beschrieben.

G(z) = G1 (z) G2 (z)


Satz 6.94 (Addition zweier Ausgangssignale von Systemen)

Werden bei gleichem Eingangssignal das Ausgangssignal ya1,n eines Systems S1 mit
der bertragungsfunktion G1 (z) und das Ausgangssignal ya2,n eines Systems S2 mit
der bertragungsfunktion G2 (z) addiert, so verhalten sich die beiden Systeme wie
ein System mit der bertragungsfunktion G(z), die als Summe der beiden einzelnen
bertragungsfunktionen beschrieben wird.

G(z) = G1 (z) + G2 (z)

6.4.3

Frequenzgang

Bereits in Satz 6.29 wurde die Fourier-Transformierte G (f ) der zeitdiskreten Impulsantwort gn als Frequenzgang eingefhrt. Sie ist der Proportionalittsfaktor zwischen
Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung der
Frequenz f0
ye,n = A ej2f0 ntA
angeregt wird. Die Fourier-Transformierte der zeitdiskreten Impulsantwort
G (f ) =

gn ej2f ntA =

n=

'

= G z = ej2f tA

n=

'
(n
gn ej2f tA

bei der Frequenz f ist gleich der Systemfunktion G(z) an der Stelle z = ej2f tA . Die
Fourier-Transformierte eines zeitdiskreten Signals yn entspricht der z-Transformation
des Signals auf dem Einheitskreis, falls die z-Transformierte auf dem Einheitskreis existiert. Bei stabilen Systemen liegen die Pole nach Voraussetzung stets innerhalb des
Einheitskreises, weswegen der Frequenzgang in diesem Fall immer durch obige Gleichung
berechnet werden kann.
Durch Betrachtung des Nyquistbandes |f | f2A wird G(f ) aus G (f ) rekonstruiert.
Dazu muss bei der Abtastung das Abtasttheorem eingehalten werden.
Im Allgemeinen ist die zeitdiskrete Fourier-Transformierte bzw. die z-Transformierte
komplexwertig. Fr das bertragungsverhalten eines Systems interessieren also Betrag
und Phase des Proportionalittsfaktors.

6 Zeitdiskrete Systeme

306
Definition 6.95 (Amplitudengang)
Der Betrag des Frequenzganges
 '
(


A(f ) = |G (f )| = G z = ej2f tA 

wird als Amplitudengang bezeichnet. Er beschreibt betragsmig das Amplitudenverhltnis von Aus- zu Eingangssignal eines Systems S, das mit einer komplexen
Schwingung angeregt wird.

Bemerkung 6.96
Die konjugiert komplexe rationale bertragungsfunktion ist
M
'
(M

j2f tA
e
b

'
( =0

G z = ej2f tA = M
.
'
(M


a ej2f tA
=0

Fr realisierbare Systeme sind die Koezienten reelle Gren, woraus


'
(M
M

j2f tA

b
e
'
( =0
 1  

j2f
t
A
= M
G z=e

'
(M = G z
 j2f t

A
z=e
a ej2f tA
=0

folgt. Somit kann der Amplitudengang fr realisierbare rationale bertragungsglieder durch








(6.97)
|A(f )|2 = G(z)G (z)
= G(z)G(z 1 )
 j2f t
 j2f t
z=e

z=e

berechnet werden.

Definition 6.98 (Phasengang, Phase)


Der Winkel bzw. das Argument des komplexen Frequenzganges
(
'
(f ) = G (f ) = G z = ej2f tA

wird als Phasengang oder Phase bezeichnet. Er beschreibt die unterschiedliche Phase
zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung angeregt wird. Ein negativer Phasengang eines Systems entspricht einer Verzgerung vom Eingang zum Ausgang.

Neben Amplitude und Phase interessiert auch die Phasennderung.

6.4 Systemfunktion

307

Definition 6.99 (Gruppenlaufzeit)


Die Ableitung der Phase eines Systems nach der Frequenz
g (f ) =

1 d
(f )
2 df

bezeichnet man als Gruppenlaufzeit. Diese gibt an, wie sich die Phasendrehung und
damit die Verzgerung einer Signalkomponente in einem dierenziell kleinen Frequenzbereich df verndert.

Beispiel 6.100 (Gruppenlaufzeit)


Als Beispiel wird ein System mit der bertragungsfunktion
G(z) =

1
z z

, z =

1
2

betrachtet. Fr dieses System findet sich in Abbildung 6.7 der Phasengang nach
Definition 6.98 und die Gruppenlaufzeit nach Definition 6.99.
Diese bertragungsfunktion entspricht der Dierenzengleichung
1
ya,n ya,n1 = ye,n1 .
2
Man erkennt aus diesen Betrachtungen, dass bei monoton abfallender Phase positive
Gruppenlaufzeiten entstehen.

Mit (6.90) ist die Systemfunktion durch ihre Pol- und Nullstellen eindeutig festgelegt.
Damit knnen auch der Amplituden- und Phasengang eines Systems durch die Pol- und
Nullstellen beschrieben werden. Fr die Bestimmung von Amplituden- und Phasengang
4

0.05

(f)

(f)

4
0.5

0
f [Hz]

0.5

0.05
0.5

0
f [Hz]

0.5

Abbildung 6.7: Beispiel des Phasenganges und der Gruppenlaufzeit eines Systems mit
fA = 1 Hz

6 Zeitdiskrete Systeme

308
wird die Systemfunktion G(z) an der Stelle z = ej2f tA
'

G z = ej2f tA = G0

(
M '
<
ej2f tA z0

=1

(
M '
<
ej2f tA z

=1

betrachtet. Dabei stellen ej2f tA z bzw. ej2f tA z0 die Dierenzen zwischen


dem Frequenzpunkt auf dem Einheitskreis und den Pol- bzw. Nullstellen dar. Beschreibt
man die im Allgemeinen komplexen Dierenzen und die Konstante G0 in Polarkoordinaten,
ej2f tA z0 = N ej , N 0
ej2f tA z = P ej , P 0
= C ej
, C 0,
G0
so erhlt man die Systemfunktion an der Stelle z = ej2f tA
'

G z = ej2f tA = C

M
=

=1

M
=

=1

j + j
P1 e

M


=1

M


=1

in Polarkoordinatendarstellung. Fr reellwertige Systeme ist die Konstante G0 reell.


In Abbildung 6.8 sieht man ein Beispiel fr eine Konstellation von 3 Pol- und 2 Nullstellen. Die Abstnde der Pol- und Nullstellen sind durch P bzw. N und die Winkel
der Verbindungsgeraden zur Abszisse durch bzw. angegeben.
Hieraus folgt nun der Amplitudengang
M
M
 '
(
=
=


A(f ) = G z = ej2f tA  = C
N
P1 ,
=1

2
z2
f=+

1
f
N1

fA
2

f
f= A
2

P2

P1

(6.101)

=1

z01

z1

1
P3
3
z3

N2
z02

Abbildung 6.8: Zusammenhang zwischen


Pol-Nullstellendiagramm, Systemfunktion
und Frequenzgang

6.4 Systemfunktion

309

der Phasengang
M
M
'
( 

+

(f ) = G z = ej2f tA =
=1

(6.102)

=1

und die Gruppenlaufzeit in Pol-Nullstellendarstellung:


g (f ) =

M
M


1 d
1 d
1 d
1 d
(f ) =


.
2 df
2 df
2 df
2 df
=1
=1

(6.103)

Bemerkung 6.104
Zur Entwicklung des Phasengangs und somit der Gruppenlaufzeit als Funktion der
Frequenz knnen aus der Lage der Pol- und Nullstellen Rckschlsse gezogen werden:
Bei im Einheitskreis liegenden Pol- und Nullstellen nimmt der entsprechende
Phasenanteil mit wachsender Frequenz zu. Bei Polstellen nimmt der Phasengang aufgrund des negativen Vorzeichens in Gleichung (6.102) mit der Frequenz
ab, bei Nullstellen wchst er mit der Frequenz.
Bei auerhalb des Einheitskreises liegenden Nullstellen ist keine eindeutige Aussage mglich. Fr Nullstellen mit Im{z0 } > 0 nimmt deren Phasenanteil mit
der Frequenz f zu, bei im Bereich Im{z0 } < 0 liegenden Nullstellen nimmt der

Phasenanteil mit der Frequenz f ab.


Bemerkung 6.105
Betrachtet man eine einfache Nullstelle z0 = r ej , so liefert diese nach den bisherigen Betrachtungen folgenden Beitrag zum Frequenzgang:
'
(
!
ej2f tA z0 = ej2f tA 1 r ej(2f tA ) = N ej .

Der Beitrag zum Amplitudengang N als Betrag des Frequenzgangs bzw. der Beitrag
zum Phasengang als der Winkel des Frequenzgangs ergeben sich mittels Rechnung
zu:
.
N = 1 2r cos(2f tA ) + r2
(6.106)


r sin(2f tA )
.
(6.107)
= 2f tA + arctan
1 r cos(2f tA )
Hierbei ist zu beachten, dass in die Berechnung der Phase mit positivem Vorzeichen eingeht, vgl. Gleichung (6.102).

Aus dem entsprechendem Ansatz folgt fr eine einfache Polstelle z = r ej der


Faktor
'
(
!
ej2f tA z = ej2f tA 1 r ej(2f tA ) = P ej .

6 Zeitdiskrete Systeme

310

Aus diesem berechnen sich der Amplituden- und Phasenbeitrag



P = 1 2r cos(2f tA ) + r2


r sin(2f tA )
.
= 2f tA + arctan
1 r cos(2f tA )

(6.108)
(6.109)

Die Phase geht gem Gleichung (6.102) mit negativem Vorzeichen in den Frequenzgang ein.
Durch Ableiten der erhaltenen Beitrge fr die Phase entstehen zur Gruppenlaufzeit
die Anteile:

1 d
1 r cos(2f tA )
= tA
2 df
1 2r cos(2f tA ) + r2

1 r cos(2f tA )
1 d
= tA
2 df
1 2r cos(2f tA ) + r2

(6.110)
(6.111)

Beispiel 6.112 (Notchfilter)


Der Frequenzgang G(z = ej2f tA ) eines Notchfilters, welches ein Kerbfilter ist, soll
in der Nhe der Kerbfrequenz f0 nherungsweise bestimmt werden. Ein Notchfilter
besitzt nach [Kro91] zwei Nullstellen ej2f0 tA auf dem Einheitskreis und zwei Pole
(1 )ej2f0 tA , wobei durch 0 < < 1 die Stabilitt garantiert wird.
Fr die Kerbfrequenz soll f0 =
bei
Nullstellen:
z01
z02
Polstellen:
z1
z2

fA
4

gelten. Dadurch liegen die Pol- und Nullstellen

= j = ej 2 ,

= j = ej 2

= (1 )j = (1 )ej 2 ,

= (1 )j = (1 )ej 2

mit 0 < 1, wie in Abbildung 6.9 ersichtlich.


Die bertragungsfunktion G(z) des Notchfilters ist damit
G(z) = 

(z j)(z + j)

.
z (1 )j z + (1 )j

Der Amplitudengang ergibt sich nach Gleichung (6.101) als das Produkt der Polund Nullstellenstrecken

6.4 Systemfunktion

f0=

fA
4

311

N1

z01
z1

P1

f=0
1

P2
N2
z2

Abbildung 6.9: Pol-Nullstellendiagramm


eines Notchfilters

z02

A(f ) =

N1 N2
P1 P 2

.


2 2 cos 2f tA 2
= .


1 2(1 ) cos 2f tA 2 + (1 )2
.


2 2 cos 2f tA + 2
.
.


1 2(1 ) cos 2f tA + 2 + (1 )2

In der Nhe der Nullstelle z01 werden die trigonometrischen Funktionen fr f


durch
'
(
cos 2f tA
1
2(
'

1
cos 2f tA +
2
angenhert. Damit wird der Amplitudengang an der Nullstelle z01 zu

lim A(f ) =
f

fA
4

2 11 1+1
= 0.
(2 )

Fr Frequenzen abseits der Nullstelle |f | =




fA
4

2 0
(
= sin(2f tA )
cos 2f tA
2(
'

= sin(2f tA )
cos 2f tA +
2
'

gilt mit

fA
4

6 Zeitdiskrete Systeme

312
fr den Amplitudengang
A(f ) = 

1 sin (2f tA )

1 2(1 ) sin (2f tA ) + (1 )2



1 + sin (2f tA )

1 + 2(1 ) sin (2f tA ) + (1 )2
.
2 1 sin2 (2f tA )
.

2(1 ) 1 sin2 (2f tA )

1
fA
, |f | =

.
1
4
Die Kerbe des Amplitudengangs bei f =
Polabstand vom Einheitskreis ist.

fA
4

wird umso schrfer, je kleiner der

Der Phasengang ist nach Gleichung (6.102) die Summe der Nullstellen- und Polstellenwinkel. Er soll im Bereich der ersten Nullstelle fr f f4A untersucht werden.
(f ) = 1 (f ) + 2 (f ) 1 (f ) 2 (f )
Der erste Nullstellenwinkel ist

 

sin 2f tA 2


1 (f ) = 2f tA + arctan
1 cos 2f tA 2
'
'
((
= 2f tA + arctan cot f tA
4
'
'

((
= 2f tA + arccot cot f tA
.
2
4
Beim Grenzbergang f f4A wird zwischen den beiden Fllen f <
unterschieden.
'
( 

, f < f4A
lim cot
f tA =
f

, f > f4A
4
f 4A
Damit wird der erste Nullstellenwinkel 1 (f ) fr f
lim 1 (f ) =

f
f 4A

fA
4


+ + lim arccot(x) =
2
2 x

fA
4

zu
,f <

fA
4

und alternativ
lim 1 (f ) =

f
f 4A


+ + lim arccot(x) = 0
2
2 x

,f >

Der zweite Nullstellenwinkel 2 (f )


2 (f ) = 2f tA + arctan

 

sin 2f tA + 2


1 cos 2f tA + 2

fA
.
4

und f >

fA
4

6.4 Systemfunktion
wird fr f

313

fA
4

lim 2 (f ) =
f

fA
4

'
'
((

.
+ lim arctan cot f tA +
4
2 f f4A

Die Funktion arctan(x) kann fr x 0 angenhert werden durch



x
lim arctan(x) lim
+x .
x0
x0
Bei Wahl der ersten Nherung fnde im Nullpunkt z01 ein Vorzeichenwechsel von
2 (f ) statt, der in Wirklichkeit nicht auftritt. Deshalb wird die zweite Nherung
gewhlt:
lim 2 (f ) =

f
f 4A

+ =
.
2
2

Beide Aussagen ergeben sich auch anschaulich durch geometrische Zusammenhnge


in Abbildung 6.9.
Die beiden Polstellenwinkel sind fr f


fA
4

 

(1 ) sin 2f tA 2


1 (1 ) cos 2f tA 2

1 (f ) = 2f tA + arctan

und damit folgt

lim 1 (f ) + lim arctan


fA
2 f f4A
f 4




1
fA
= .
2tA f

4
2

Entsprechend ergibt sich


2 (f ) = 2f tA + arctan
also
lim 2 (f )

f
f 4A


 
(1 ) sin 2f tA + 2
 ,

1 (1 ) cos 2f tA + 2

+ lim arctan
2 f f4A

1
2tA
2

fA
f
4



.
2

Der Phasengang (f ) des Notchfilters folgt im Bereich der Nullstelle z01 insgesamt
zu
 9
3

+
lim (f ) =
.
fA
0
2
2
2
f 4
Die Phase wird auf den Bereich [, ] begrenzt und wir erhalten
 9
 9

2

=
.
lim (f ) =

f
0
2
2
2
2
f 4A

6 Zeitdiskrete Systeme

314
4
1
2
=0,1(f)

=0,1

(f)

0.8
0.6
0.4

0.2
0
0.5

0
f [Hz]

0.5

4
0.5

0
f [Hz]

0.5

Abbildung 6.10: Amplituden- und Phasengang des Notchfilters mit der Kerbfrequenz f0 =
fr tA = 1[sec] und = 0, 1

fA
4

a~270
b~180

fA
4

fA
4

+D
b~0

-D
a~270

x (1-e) j

x (1-e) j

Abbildung 6.11: Erluterung des Phasensprunges eines Notchfilters

An der Nullstelle z01 findet ein Phasensprung von 2 auf 2 statt. Das liegt daran,
dass der Nullstellenwinkel 1 (f ) an der Stelle f = f4A von auf 0 springt, vgl.
Abbildung 6.10.
In Abbildung 6.11 ist der Bereich fr Frequenzen nahe der Frequenz f4A noch einmal
vergrert dargestellt, um die Herkunft des Phasensprunges zu erklren.

6.4.4

Minimalphasensystem und Allpass

Je nach Lage der Pole z relativ zum Einheitskreis unterscheidet man zwischen stabilen und instabilen Systemen. Bei stabilen Systemen liegen die Pole im Einheitskreis.
Verfhrt man bei den Nullstellen z0 hnlich, so erhlt man eine neue Einteilung fr
Systemfunktionen.

6.4 Systemfunktion

315

Definition 6.113 (Minimalphasensystem)


Ein zeitdiskretes stabiles System S heit Minimalphasensystem, wenn die Nullstellen
z0 seiner bertragungsfunktion G(z) innerhalb des Einheitskreises liegen, d.h. wenn
sie die Bedingung
|z0 | 1
erfllen.
Wie die zeitkontinuierlichen Minimalphasensysteme besitzen auch die zeitdiskreten Minimalphasensysteme die Eigenschaft, die kleinstmgliche Phasendrehung fr einen vorgegebenen Amplitudengang A(f ) zu bewirken.
Der Ausgleich zwischen einem zeitdiskreten System S und dem entsprechenden zeitdiskreten Minimalphasensystem SM wird durch einen zeitdiskreten Allpass SA bewirkt.
Definition 6.114 (Allpass)
Ein zeitdiskretes stabiles System mit gebrochen rationaler bertragungsfunktion,
dessen Amplitudengang A(f ) fr alle Frequenzen gleich eins ist, heit Allpass, d.h.
die Bedingung
A(f ) = 1 , f R
wird erfllt.
Die Allpass-Eigenschaft eines Systems lsst sich mittels der Lage von Pol- und Nullstellen berprfen.
Satz 6.115 (Allpass)
Ein Allpass ist ein stabiles System, dessen Nullstellen z0 bezglich des Einheitskreises spiegelbildlich zu den Polen z liegen. Man erhlt fr G(z) die Darstellung:
GA (z) =

m
m
m z 1

=
=
=

1 z
z
z

=
(z
)
z z
z z
=1
=1
=1

, |z | < 1 .

Es lsst sich leicht prfen, dass der Amplitudengang gleich eins ist:
m 


=
ej2f tA |
 j2f tA  |1 z
|GA (z = ej2f tA )| =
= 1.
e

|1 z ej2f tA |
=1

Jedes kausale LTI-System lsst sich in ein Minimalphasensystem und einen Allpass
aufspalten. Dazu wird ein System mit der bertragungsfunktion G(z) betrachtet, deren Zhlerpolynom Z(z) auch Nullstellen auerhalb des Einheitskreises besitzt. Hierzu
zerlegt man Z(z)
Z(z) = Z1 (z) Z2 (z)

6 Zeitdiskrete Systeme

316
z

G(z)

G M (z)

GA (z)

Abbildung 6.12: Zerlegung eines kausalen LTI-Systems in ein Minimalphasensystem und


einen Allpass

in zwei Teilpolynome
Z1 (z)

Z2 (z) =

m
<1

=1
m
<

(z z0 )

=m1 +1

, |z0 | 1

(z z0 ) , |z0 | > 1

, = 1, . . . , m1
, = m1 + 1, . . . , m,

die nur Nullstellen innerhalb bzw. auerhalb des Einheitskreises besitzen. Durch Erweiterung der bertragungsfunktion mit


m
m
m
=
=
=
1

Z2 (z) =
z
(1 z z0 ) =
(z0 )
z0
=m +1
=m +1
=m +1
1

ergibt sich die bertragungsfunktion


G(z) =

Z1 (z) Z2 (z) Z2 (z)


Z(z)
=

N (z)
N (z)
Z (z)


 2
GM (z)

GA (z)

als die Zusammensetzung aus einem Minimalphasensystem GM (z), das nur noch Nullstellen innerhalb des Einheitskreises besitzt, und einem Allpass GA (z) (vgl. Abbildung
6.12).
Die Zerlegung in Minimalphasensystem und Allpass kann dazu verwendet werden, ein
gewnschtes Systemverhalten zu erreichen. Das soll an einem Beispiel verdeutlicht werden:
Beispiel 6.116 (Kompensation eines Amplitudengangs)
Gegeben ist ein bertragungsglied mit der bertragungsfunktion
G(z) =

12
(z + 34 )(z + 12
10 j 10 )(z +
1
1
(z + 2 )(z 2 j 12 )(z

12
12
10 + j 10 )
,
1
1
2 + j 2)

6.4 Systemfunktion

317
4
2

(f)

|G(f)|

15
10
5
0.5

0
2

0
f [Hz]

4
0.5

0.5

0
f [Hz]

0.5

0
f [Hz]

0.5

0
f [Hz]

0.5

4
2

(f)

10

|GM(f)|

15

2
0
f [Hz]

4
0.5

0.5

1.2

1.1

(f)

|GA(f)|

0.5

0.9
0.8
0.5

0
2

0
f [Hz]

0.5

4
0.5

Abbildung 6.13: Zerlegung des Beispielsystems in ein Minimalphasensystem und einen


Allpass fr tA = 1[sec]

das in einen Minimalphasenanteil


GM (z) =

5
5
5
5
+ j 12
)(z + 12
j 12
)
(z + 34 ) 2, 88 (z + 12
1
1
1
1
1
(z + 2 )(z 2 j 2 )(z 2 + j 2 )

und einen Allpassanteil


GA (z) =

12
12
12
(z + 12
10 j 10 )(z + 10 + j 10 )
5
5
5
5 .
2, 88 (z + 12 + j 12 )(z + 12 j 12
)

zerlegt wird. Diese Zerlegung ist in Abbildung 6.13 mittels der jeweiligen Amplituden- und Phasengnge dargestellt.
Der Amplitudengang |G(z = ej2f tA )| soll durch die Serienschaltung eines inversen bertragungsgliedes kompensiert werden. Durch das Hinzuschalten eines Kompensationsgliedes mit der inversen bertragungsfunktion des Minimalphasenanteils
GM (z) = GM1(z) entsteht ein neues Gesamtsystem
G (z) = G(z)

1
= GA (z).
GM (z)

6 Zeitdiskrete Systeme

318

Bei der Serienschaltung bleibt das entstehende Gesamtsystem G (z) stabil, da nach
Definition die Nullstellen des Minimalphasengliedes, also die Pole der hinzukommenden bertragungsfunktion GM (z), innerhalb des Einheitskreises liegen.
Das System G (z) besitzt den Amplitudengang des Allpasses GA (z), der fr alle
Frequenzen im Nyquistband konstant ist. Als Konsequenz wird der Phasengang des

Systems verndert und entspricht dem Phasengang des Allpasses.

6.4.5

Strukturdarstellung zeitdiskreter LTI-Systeme

Mit Hilfe der allgemeinen Dierenzengleichung


n2


a ya,n =

=n1

m2


b ye,n

=m1

bzw. der allgemeinen bertragungsfunktion

G(z) =

m
2

=m1
n2

=n1

b z
a z

sollen die durch gebrochen rationale bertragungsfunktionen beschriebenen Systeme in


zwei Arten unterteilt werden. Diese haben unterschiedliche Charakteristika, auf die in
den jeweiligen Abschnitten eingegangen wird. Ebenso wie im zeitkontinuierlichen Fall
wird abhngig von der Form von G(z) in AR-, MA- und ARMA-Systeme unterschieden.
Auch hier nennt man ein System ein AR-System bzw. ein MA-System, falls G(z) nur
ein Nennerpolynom bzw. nur ein Zhlerpolynom besitzt. Als ARMA wird ein System
bezeichnet, das sowohl ein Zhler- als auch ein Nennerpolynom besitzt, was somit die
allgemeine Form darstellt.
Im Zeitdiskreten ist es jedoch nahe liegender, die Systeme nach der Lnge ihrer Impulsantwort zu klassifizieren. Unterschieden werden Systeme mit endlicher Impulsantwort,
finite impulse response, FIR, und Systeme mit unendlicher Impulsantwort, infinite impulse response, IIR.
6.4.5.1

FIR-System, n1 = n2

Anhand der Dierenzengleichung (6.34) mit n1 = n2 ,


an1 ya,nn1 =

m2


b ye,n ,

=m1

erkennt man, dass zur Berechnung des Ausgangswertes ya,nn1 nur vergangene oder
zuknftige Eingangswerte ye,n herangezogen werden. Man spricht hier auch von einem
nichtrekursiven System. Durch z-Transformation
an1 z n1 Ya (z) =

m2


=m1

b z Ye (z)

6.4 Systemfunktion

319

bestimmt man die Systemfunktion

Ya (z)
=
G(z) =
Ye (z)

m
2

b z

=m1

an1 z n1

m2

b n1
,
z
a
n1
=m
1

die nur noch Polstellen im Ursprung oder im Unendlichen enthlt. Deren Impulsantwort
gn =

m2

b
n+n1
an1
=m
1

besitzt endliche Lnge, d.h. es handelt sich um ein FIR-System.


Da in der Anwendung bei einem zeitdiskreten System immer der aktuelle Ausgangswert
ya,n bestimmt wird, gilt hier n1 = n2 = 0, woraus sich die bertragungsfunktion

G(z) =

m
2

b z

=m1

(6.117)

a0

ergibt. Dividiert man noch die Koezienten b durch a0 und setzt fr die in der Summe
nicht auftretenden Terme die Koezienten gleich null, b0 = b1 = . . . = bm1 1 = 0, so
y e,n

y a,n

b0

z-1
b1

z-1

bM-1

z-1
bM

Abbildung 6.14: Struktur eines FIR-Filters, aufgebaut aus Multiplikatoren und Verzgerungsgliedern

6 Zeitdiskrete Systeme

320
erhlt man mit M = m2 :
G(z) =

M


b z

(6.118)

=0

Den Aufbau eines FIR-Filters mit der bertragungsfunktion (6.118), realisiert mittels
Verzgerungsgliedern und Multiplikatoren, zeigt Abbildung 6.14. Hierbei wird die Verzgerung um einen Abtastwert entsprechend der Verschiebungsregel der z-Transformation
mit z 1 gekennzeichnet.
6.4.5.2

IIR-System, n1 < n2

In Gleichung (6.91) wurde die allgemeine Impulsantwort bei einfachen Polen durch
gn = A0 n +

M


=1

n1
A z
n1

dargestellt. Sie ist unendlich lang. Die Systemfunktion besitzt auch Polstellen z = 0.
Es handelt sich somit um ein IIR-System.
Da in die Dierenzengleichung nicht nur ein Ausgangswert, sondern mehrere Ausgangswerte eingehen, spricht man von einem autoregressiven System. Fr dieses System ergibt
ye,n

ya,n

b0

z-1
b1

-a 1

z-1

bM-1

-a M-1

z-1
bM

-a M

Abbildung 6.15: Struktur eines IIR-Filters, aufgebaut aus Multiplikatoren und Verzgerungsgliedern

6.4 Systemfunktion

321

sich die bertragungsfunktion aus Gl. (6.89) zu:

G(z) =

M


b z M

=0
M


.
a

=0

z M

Die Koezienten werden auf a0 normiert, woraus die folgende Darstellung eines IIRFilters folgt:
M


b z M

=0

G(z) =

zM +

M


(6.119)

=1

a z M

Die allgemeine Form eines IIR-Filters mit der bertragungsfunktion (6.119), das mittels
Verzgerungsgliedern und Multiplikatoren aufgebaut ist, zeigt Abbildung 6.15.
6.4.5.3

Beispiele

In diesem Abschnitt werden Beispiele fr die eingefhrten Begrie aufgezeigt. Es wird


anhand dieser Beispiele exemplarisch vorgefhrt, wie zeitdiskrete Systeme bearbeitet
und analysiert werden. Hierzu wird jeweils aus der Dierenzengleichung die bertragungsfunktion berechnet. Anschlieend werden der Amplitudengang und die Phase aus
der bertragungsfunktion bestimmt.
Beispiel 6.120 (FIR-System)
Ein FIR-System mit der Dierenzengleichung
'
(
ya,n = K ye,n + e1 ye,n1 + e2 ye,n2 + e3 ye,n3 + e4 ye,n4
mit K =

1e1
1e5

ist zu untersuchen. Mit Hilfe der z-Transformierten

Ya (z) = K

4


k=0

ek z k

Ye (z)

erhlt man die bertragungsfunktion


G(z) = K

4


k=0

ek z k = K

z 4 + e1 z 3 + e2 z 2 + e3 z + e4
,
z4

6 Zeitdiskrete Systeme

322

0.6

0.4

0.5

0.3
0.2
0.1
0
2

4
n

Abbildung 6.16: Endliche Impulsantwort des


zeitdiskreten FIR-Systems aus Beispiel 6.120

10

die nur eine Polstelle bei der Stelle z = 0 besitzt. Die Impulsantwort
(
'
gn = K n + e1 n1 + e2 n2 + e3 n3 + e4 n4
ist in Abbildung 6.16 zu erkennen.
Wegen G(f ) = G(z = ej2f tA ) und

4
(
'

1 e5(1+j2f tA )
G z = ej2f tA = K
ek ekj2f tA = K
1 e(1+j2f tA )
k=0

erhlt man den Amplitudengang




 1 e5(1+j2f tA ) 
,

A(f ) = |G (f )| = K 
1 e(1+j2f tA ) 

der in Abbildung 6.17 fr tA = 1[sec] eingezeichnet ist. Die in dieser Darstellung


auftretende Nullstelle des Nennerpolynoms entspricht nicht wirklich einer Polstelle
bei z = e1 . Die gleiche Nullstelle hat auch das Zhlerpolynom, sie kann deshalb
gekrzt werden:
G(z) = K

1 e5 z 5
z 5 e5
=K
1 e1 z 1
z 4 (z e1 )

0.8

A(f)

(f)

0.6
0

0.4
2

0.2
0
0.5

0
f [Hz]

0.5

4
0.5

0
f [Hz]

0.5

Abbildung 6.17: Amplitudengang und Phasengang des FIR-Systems fr tA = 1[sec]

6.4 Systemfunktion

323

Aufgrund der reellwertigen Impulsantwort ist der Amplitudengang symmetrisch und


der Phasengang schiefsymmetrisch.
Ab ca. f > 0,2fA ist die Steigung des Phasenverlaufs positiv und damit die Gruppenlaufzeit negativ; gleichzeitig bleibt aber die absolute Phase weiterhin negativ,
was einer Verzgerung beim Durchlauf durch das FIR-System entspricht.

Beispiel 6.121 (IIR-System)


Die Dierenzengleichung
ya,n aya,n1 = bye,n
eines IIR-Systems soll untersucht werden. Mit Hilfe der z-Transformierten
Ya (z) az 1 Ya (z) = bYe (z)
erhlt man die bertragungsfunktion
G(z) =

bz
b
Ya (z)
=
=
,
Ye (z)
1 a z 1
za

deren Null- und Polstellen bei


z0 = 0 ,

z = a

liegen. Soll das System stabil sein, so muss


|z | = |a| < 1
gelten. Die Impulsantwort
gn = b an n
ist fr die Parameter a = 0, 5 und b = 0, 5 in Abbildung 6.18 zu erkennen. Sie ist
unendlich lang.

0.5

0.3

0.4

0.2
0.1
0
0.1
2

4
n

10

Abbildung 6.18: Unendlich lange Impulsantwort des IIR-Systems

6 Zeitdiskrete Systeme

324
1

0.8

A(f)

(f)

0.6
0

0.4
2

0.2
0
0.5

0
f [Hz]

0.5

4
0.5

0
f [Hz]

0.5

Abbildung 6.19: Amplitudengang und Phasengang des zeitdiskreten IIR-Systems fr den Fall
tA = 1[sec] und a = b = 0, 5

Der Amplitudengang dieses Systems






A(f ) = G(z = ej2f tA ) =

|b|

|ej2f tA

a|

und der Phasengang


@
?
(f ) = arg G(z = ej2f tA ) = arg

b
1 aej2f tA

sind in Abbildung 6.19 fr die Parameter tA = 1[sec] und a = b = 0, 5 dargestellt.


Man erkennt die Tiefpasscharakteristik des betrachteten Systems.
Hier ist ebenfalls aufgrund der reellwertigen Impulsantwort der Amplitudengang
symmetrisch und der Phasengang schiefsymmetrisch.

6.5

Linearphasige Systeme

In diesem Abschnitt erfolgt nach der Definition eines linearphasigen Systems eine Zerlegung der Phase in einen dem ganzzahligen Vielfachen der Abtastzeit proportionalen
Anteil und einen Rest. Dies fhrt auf eine Verschiebung der zugehrigen Impulsantwort.
Ein Beispiel veranschaulicht die eingefhrten Begrie. Anschlieend wird eine notwendige Bedingung hergeleitet, mittels welcher berprft werden kann, ob ein vorliegendes
System linearphasig sein kann.
Der zweite Abschnitt untersucht diese Bedingung fr den Fall eines FIR-Filters. Es ergeben sich zwei Mglichkeiten zur Konstruktion linearphasiger FIR-Filter, welche auf
Symmetriebetrachtungen der Impulsantwort zurckgefhrt werden knnen. Abschlieend verdeutlichen zwei Beispiele die theoretischen Begrie.

6.5 Linearphasige Systeme

6.5.1

325

Definition und Eigenschaften

Im Folgenden sollen Systeme betrachtet werden, deren Frequenzgang eine lineare Phase
besitzt. Also muss (f ) = c f mit c R gelten. Dies lsst sich fr Systeme mit
bestimmten bertragungsfunktionen nachweisen:
Satz 6.122 (Linearphasiges System)
Ein zeitdiskretes LTI-System, dessen bertragungsfunktion die Form
G(z) = |G(z)| z k

,k R

(6.123)

hat, besitzt eine lineare Phase und eine konstante Gruppenlaufzeit.


Beweis:

Wir untersuchen den Frequenzgang des System, indem G(z) mit z = exp(j2f tA )
betrachtet wird:
G (f ) = A(f ) ej2f tA k
Dann ergibt sich die Phase
(f ) = G (f ) = 2f tA k
als eine in der Frequenz lineare Funktion und die Gruppenlaufzeit
g (f ) =

1 d
(f ) = tA k = const(f )
2 df

ist konstant.
Zur weiteren Betrachtung der Phase teilen wir den Exponenten k einer linearen Phase
in einen ganzzahligen Anteil nv und einen Rest
k = nv +

, nv Z , 0 < 1

auf. Die Phase entsteht als ganzzahliges Vielfaches der Abtastzeit und dem Rest:
(f ) = 2f tA nv 2f tA .
Diese Aufteilung wird spter bei der Betrachtung der Symmetrieeigenschaften der zugehrigen Impulsantworten wichtig sein. Zuerst soll jedoch ein Beispiel fr ein System
mit linearer Phase gegeben werden:
Beispiel 6.124 (Verzgerter Rechtecktiefpass)
Ein verzgerter Rechtecktiefpass ist durch den Frequenzgang
G (f ) = R(f ) ej2f tA (nv + )

6 Zeitdiskrete Systeme

326
0.5
0.4

gn

0.3
0.2
0.1
0
0.1
0.2
5

Abbildung 6.20: Impulsantwort des


verzgerten Rechtecktiefpasses fr nv =
3, = 13

10

mit dem akausalen Rechtecktiefpass der Grenzfrequenz fg <



1 , |f | < fg
R(f ) =
0 , sonst

fA
2

als Amplitudengang gegeben. Die Phase ist nach Satz 6.122 linear. Die Impulsantwort berechnet sich nach Gleichung (5.22) zu:
gn = tA

fg

ej2f tA (n nv ) df

fg

0
1 fg
tA
ej2f tA (n nv )
j2tA (n nv )
fg
1
=
sin(2fg tA (n nv ))
(n nv )
fg sin(2fg tA (n nv ))
.
= fA
2fg tA (n nv )
2
=

Die Impulsantwort, die in Abbildung 6.20 dargestellt ist, ist um k = nv + symmetrisch.

Darber hinaus existiert eine Vielzahl von Systemen, deren Phase zwar prinzipiell
einen linearen Verlauf besitzt, jedoch durch einen Vorzeichenwechsel des Frequenzgangs
Sprnge aufweist. Das soll an einem Beispiel verdeutlicht werden:
Beispiel 6.125 (Zeitdiskreter Mittelwertbilder)
Ein zeitdiskretes LTI-System mit der Impulsantwort
 1
,0 n M
gn = M +1
0
, sonst

bildet wegen

ya,n = ye,n gn =

1 
ye,ni
M + 1 i=0

6.5 Linearphasige Systeme

327

zu jedem Zeitpunkt den Mittelwert der vergangenen M + 1 Eingangswerte. Den


Frequenzgang solch eines System berechnet man zu:
G (f ) =

M


1
ej2f ntA
M
+
1
n=0

1 1 ej2f tA (M +1)
M + 1 1 ej2f tA
1 ejf tA (M +1) ejf tA (M +1) ejf tA (M +1)
=
M + 1 ejf tA
ejf tA ejf tA
1 sin(f tA (M + 1)) jf tA M
=
e
M +1
sin(f tA )
Diesem System wrde aufgrund des Exponenten ein linearer Phasenverlauf zugewiesen werden. Da jedoch der Frequenzgang Nullstellen hat, bei deren Duchlaufen sich
das Vorzeichen ndert, entsteht bei diesen Frequenzen zustzlich ein Phasensprung
um .

Aufgrund des letzten Beispiels lassen wir zur Verallgemeinerung eine zustzliche abschnittsweise konstante Phasenverschiebung 0 zu.
Definition 6.126 (Verallgemeinert lineare Phase)
Ein System heit verallgemeinert linearphasig, wenn die bertragungsfunktion in die
Gestalt
G (f ) = A(f )ej2f tA k + j0
gebracht werden kann.
Dann ist die Phase verallgemeinert abschnittsweise linear
(f ) = 2f tA k + 0

und damit die Gruppenlaufzeit entsprechend abschnittsweise konstant. Der um 0 erweiterte Frequenzgang mit verallgemeinert linearer Phase
G (f ) = A(f ) ej [2f tA (nv + ) 0 ]
kann mit Hilfe der Eulerschen Formel in
G (f ) = A(f ) cos (2f tA (nv + ) 0 ) jA(f ) sin (2f tA (nv + ) 0 )
zerlegt werden.
Wird die Impulsantwort gn als reellwertig angenommen, so kann der aus der z-Transformation
G(z) =

n=

gn z n

6 Zeitdiskrete Systeme

328
mit z = exp(j2f tA ) resultierende Frequenzgang ebenfalls in
G (f ) =

n=

gn cos(2f ntA ) j

gn sin(2f ntA )

n=

zerlegt werden. Da die beiden Darstellungen des Frequenzganges bereinstimmen mssen, muss der Tangens des Phasenwinkels gleich sein:

tan ((f )) =

n=

gn sin(2f ntA )
!

=
gn cos(2f ntA )

n=

sin(2f tA (nv + ) 0 )
.
cos(2f tA (nv + ) 0 )

Durch Ausmultiplizieren erhlt man die notwendige Bedingung an reellwertige Systeme


mit abschnittsweise linearer Phase als

n=

gn sin [2f tA (n nv ) + 0 ] = 0 , f R.

(6.127)

Diese Bedingung wird in den nchsten Abschnitten beim Entwurf linearphasiger FIRFilter angewendet. Dabei wird zur Vereinfachung der Betrachtungen in den folgenden
Ableitungen M als gerade angenommen. Fr ungerade M kann man durch entspreM 1
1
chende Methoden Frequenzgnge ableiten. Hierzu hat man lediglich k = M
2 =
2 + 2,
M 1
1
d.h. nv = 2 und = 2 zu setzen.

6.5.2

Linearphasige FIR-Filter

FIR-Filter lassen sich besonders einfach linearphasig entwerfen. Hierzu sei die Impulsantwort gn als reellwertig angenommen und habe nur im Beobachtungszeitraum [0, M tA ]
von Null verschiedene Werte.
Nehmen wir nach obiger Bemerkung im Folgenden an, dass M gerade sei. Die Verzgerung k, vgl. Beispiel 6.124, entspreche der halben Beobachtungszeit, d.h.
nv =

M
2

(6.128)

= 0.

Bei Gltigkeit von Gleichung (6.128) kann man nach [OS98] zwei Flle unterscheiden,
in denen die Bedingung in Gleichung (6.127) erfllt wird. Diese werden in den nchsten
beiden Abschnitten untersucht.
6.5.2.1

Symmetrische Impulsantwort um

M
2

Die Symmetriebedingung lautet mathematisch


gn = gM n

, n = 0, . . . ,

M
2

(6.129)

6.5 Linearphasige Systeme

329

und die abschnittsweise Phasenverschiebung betrgt 0 = 0 bzw. 0 = .

Wir fassen bei der Summation in Gleichung (6.127) jeweils zwei Terme zusammen:






2 

M
M
!
+ gM n sin 2f tA
= 0.
gn sin 2f tA n
n
2
2
n=0
M

Hierbei ist das doppelte Auftreten des Summanden mit Index M


2 nicht von Belang, da
dieser jeweils mit dem Faktor Null gewichtet wird. Durch Zusammenfassen der Sinusterme erhlt man


2


n=0

(gn gM n ) sin 2f tA



=0

M
n
2



= 0 , f R.

Die Bedingung in Gleichung (6.127) ist also fr den gewhlten Ansatz erfllt.
Zur Berechnung des Frequenzganges wird ein Phasenglied mit der halben Beobachtungszeit nv = M
2 abgespalten:
G (f ) =

M


gn ej2f tA n = ej2f tA

n=0

M
2

M


gn ej2f tA (n 2 ) .

n=0

Bei der Summation werden wiederum zwei Terme zusammengefasst:

G (f ) = ej2f tA

=e

M
2

M
2 1 0
1

M
M

gn ej2f tA (n 2 ) + gM n ej2f tA ( 2 n) + g M
2

j2f tA M
2

n=0

M
2 1
0
1


M
j2f tA (n M

2 ) + ej2f tA (n 2 ) +g
e
g
M .
n

2
n=0



2 cos(2f tA (n M
2 ))



Rg (f )

Somit besitzen Systeme mit symmetrischen Impulsantworten nach Gleichung (6.129)


stets eine lineare Phase. Die Amplitudenfunktion
M
2

Rg (f ) =

1


n=0

2gn cos(2f tA (n

M
)) + g M
2
2

(6.130)

ist eine gerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit
symmetrischer Impulsantwort lautet damit
G (f ) = Rg (f )ej2f tA

M
2

(6.131)

6 Zeitdiskrete Systeme

330

Aus Gleichung (6.130) ist ersichtlich, dass Rg (f ) auch negatives Vorzeichen annehmen
kann. Man erhlt aus Rg (f ) den Amplitudengang Ag (f ), indem man das negative Vorzeichen von Rg (f ) in eine Phasenverschiebung von 0 = umwandelt. An den Nulldurchgngen von Rg (f ) treten dann Phasensprnge auf. Ag (f ) ist eine gerade Funktion
in f .
6.5.2.2

Schiefsymmetrische Impulsantwort um

M
2

In diesem Fall ergibt sich die Schiefsymmetrie


gn = gM n

, n = 0, . . . ,

M
2

(6.132)

und die Phasenverschiebung betrgt 0 = 2 . Aus der Bedingung fr die Schiefsymmetrie der Impulsantwort folgt unmittelbar, dass die Impulsantwort die Eigenschaft
g M = 0 erfllen muss. Die Summation in Gleichung (6.127) lautet:
2




M

= 0.
gn sin 2f tA n

2
2
n=0
M


Wieder werden bei der Summation jeweils zwei Terme zusammengefasst:


M




2 

M
M
gn cos 2f tA (n
) + gM n cos 2f tA (
n)
= 0.
2
2
n=0

Daraus ergibt sich





M
(gn + gM n ) cos 2f tA (n
) = 0 , f R.



2
n=0
M

2


=0

Aufgrund des Ansatzes ist also die Bedingung in Gleichung (6.127) erfllt.
Bei der Bestimmung des Frequenzganges wird ein mit j multipliziertes Phasenglied
mit der halben Beobachtungszeit nv = M
2 abgespalten:
G (f ) =

M


gn e

j2f tA n

n=0

= je

= je

j2f tA M
2

= je

j2f tA M
2

j2f tA M
2

M


n=0

gn

M
1
ej2f tA (n 2 )
j

2
(

M
M
1'
gn ej2f tA (n 2 ) gM n ej2f tA ( 2 n)
j
n=0
M

2


n=0

gn

(
M
1 ' j2f tA (n M )
2
e
ej2f tA (n 2 ) .
j



2 sin(2f tA (n M
))
2


Ru (f )

6.5 Linearphasige Systeme

331

Ein System mit einer schiefsymmetrischen Impulsantwort nach Gleichung (6.132) besitzt
eine verallgemeinert lineare Phase. Die Amplitudenfunktion
M

Ru (f ) =

2


n=0

2gn sin(2f tA (n

M
))
2

(6.133)

ist eine ungerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit
schiefsymmetrischer Impulsantwort lautet damit
'
(
M
G (f ) = Ru (f ) jej2f tA 2
= Ru (f )ej2f tA

M
2

j
2

Der Verzgerung um die halbe Beobachtungszeit tA M


2 ist eine Phasenverschiebung von

berlagert.
2
Den Amplitudengang Au (f ) erhlt man, indem man das negative Vorzeichen von Ru (f )
bei negativen Frequenzen ber einen Phasensprung von 0 = umwandelt. Der Amplitudengang Au (f ) ist eine gerade Funktion in f .
6.5.2.3

Beispiele

Anhand zweier Beispiele werden die in den letzten Abschnitten berechneten Amplitudenfunktionen dargestellt. Hierzu wird eine zu M
2 symmetrische bzw. schiefsymmetrische Impulsantwort vorgegeben, aus welcher nach Gleichungen (6.130) bzw. (6.133) die
Amplitudenfunktionen berechnet werden.
Die Amplitudenfunktion ergibt sich als eine gerade Funktion im Fall einer symmetrischen Impulsantwort und als eine ungerade Funktion im Fall einer schiefsymmetrischen
Impulsantwort.
Beispiel 6.134 (FIR-Filter linearer Phase mit symmetrischer Impulsantwort)
Angesetzt wird fr den symmetrischen Fall ein Filter mit der Impulsantwort:
+
4
,0 n M
2n
2 ,
gn = M4
M
, 2 <nM.
M 2 (M n)
Diese Impulsantwort und die zugehrige (gerade) Amplitudenfunktion sind in Abbildung 6.21 dargestellt.

Beispiel 6.135 (FIR-Filter linearer Phase mit schiefsymmetrischer Impulsantwort)


Als Beispiel fr eine schiefsymmetrische Impulsantwort wird

,0 n M
M (M 2) n
2 1
M
gn = 0
,n = 2

,M
M (M 2) (M n)
2 +1nM

6 Zeitdiskrete Systeme

332

2/M

0.8

gn

R (f)

0.6
0.4
0.2
0
0
0

M/2
n

0.2
5

0
f [Hz]

Abbildung 6.21: Beispiel eines FIR-Filters mit linearer Phase und symmetrischer Impulsantwort fr tA = 0,1[sec]
2/M
0.6
0.4
R (f)

0.2
u

0
0.2
0.4
0.6

2/M
0

M/2
n

0.8
5

0
f [Hz]

Abbildung 6.22: Beispiel eines FIR-Filters mit linearer Phase und schiefsymmetrischer
Impulsantwort fr tA = 0,1[sec]

betrachtet. Diese ist zusammen mit der aus Gleichung (6.133) resultierenden Am
plitudenfunktion Ru (f ) in Abbildung 6.22 dargestellt.

6.6

Zeitdiskrete Darstellung kontinuierlicher


Systeme

Die Aufgabe zeitdiskreter Systeme besteht darin, zeitdiskrete Signale zu verarbeiten.


Da zeitdiskrete Signale von sich aus nicht in der Natur vorkommen, knnen nur zeitkontinuierliche Signale nach der Abtastung zeitdiskret verarbeitet und anschlieend
rekonstruiert werden.

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

6.6.1

333

Aufbau

Mit der Kenntnis des Aliasing und den Mglichkeiten der Rekonstruktion kann man ein
zeitdiskretes System S zur Verarbeitung zeitkontinuierlicher Signale aufbauen, wie es in
Abbildung 6.23 dargestellt ist. Es besteht aus einem Tiefpass mit der Grenzfrequenz fg
zur Bandbegrenzung des zeitkontinuierlichen Signals y(t), sofern das Signal nicht von
vornherein bandbegrenzt ist. Es folgt ein Abtaster zur Abtastung des Signals, der mit
einer Abtastfrequenz fA entsprechend dem Abtasttheorem mit
fA > 2 fg
betrieben wird. Damit der bandbegrenzende Tiefpass keine zu steile Flanke zwischen
Durchlass- und Sperrbereich aufweisen muss, whlt man in der Praxis fr fA einen
Wert, der ein Vielfaches der 3 dB-Grenzfrequenz des Tiefpasses betragen kann.

/2

Abbildung 6.23: Aufbau eines zeitdiskreten Systems zur Verarbeitung zeitkontinuierlicher


Signale

Nach der Abtastung steht das zeitdiskrete Signal yn zur Verfgung, das anschlieend
in einem zeitdiskreten System (Computer) zum Signal zn verarbeitet und dem DigitalAnalog-Wandler zugefhrt wird. Das Rekonstruktionsfilter erzeugt hieraus das zeitkontinuierliche Ausgangssignal z(t).

6.6.2

Umsetzung der bertragungsfunktion

Die Aufgabe eines solchen zeitdiskreten Systems besteht darin, zeitkontinuierliche Systeme nachzubilden. Das zeitdiskrete System besitzt dabei eine bertragungsfunktion
G(z), die in ihrem Verhalten der zeitkontinuierlichen bertragungsfunktion G(s) sehr
nahe kommt. Eine Anwendung ist z.B. der Entwurf zeitdiskreter Filter in Abschnitt
6.8. Die Aufgabe der zeitdiskreten Darstellung einer zeitkontinuierlichen bertragungsfunktion wird im Folgenden durch drei Anstze behandelt.
1. Die Impulsantwort eines Systems charakterisiert das System. Tastet man nun die
Impulsantwort ab, so ist das Verhalten in den Abtastpunkten identisch.
2. Die Pole und die Nullstellen der bertragungsfunktion charakterisieren das System. Diese kann man mittels der nichtlinearen Abbildung
z = estA
bertragen.
3. Das Problem der fehlenden Integration im zeitdiskreten Bereich wird durch das
Verfahren der numerischen Integration beseitigt.

6 Zeitdiskrete Systeme

334

6.6.3

Impulsinvarianz

Die Impulsantwort g(t) eines zeitkontinuierlichen Systems S charakterisiert das System.


Tastet man nun die Impulsantwort mit der Abtastzeit tA ab, so erhlt man eine zeitdiskrete Impulsantwort gn , deren z-Transformierte G(z) die bertragungsfunktion des
zeitdiskreten Systems ist, welches das zeitkontinuierliche System darstellen soll.
Satz 6.136 (Impulsinvarianz)
Tastet man die Impulsantwort g(t) eines zeitkontinuierlichen Systems S mit der
Abtastzeit tA ab,
gn = g(ntA )

, n Z,

und transformiert die zeitdiskrete Impulsantwort in den z-Bereich, so spricht man


von Impulsinvarianz. Der bergang von der zeitkontinuierlichen zur zeitdiskreten
bertragungsfunktion wird durch
G(s)

=

L1

beschrieben.

g(t)

=

Abtastung

gn

=

Z

G(z)

Beispiel 6.137 (Impulsinvarianz)


Ein zeitkontinuierliches System mit der bertragungsfunktion
G(s) =

1
T

s+

1
T

soll durch das Verfahren der Impulsinvarianz mit Hilfe eines zeitdiskreten Systems
dargestellt werden. Aus
G(s) =

1
T

s+

1
T

g(t) =

1 t/T
(t)
e
T

folgt durch Abtasten


gn =

1 ntA /T
e
n .
T

Durch z-Transformation
G(z) =

1
z
T z etA /T

erhlt man die bertragungsfunktion G(z) des zeitdiskreten Systems. In Abbildung


6.24 werden alle hier behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme verglichen.

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme


Zeitkontinuierliches System

335

impulsinvariantes System

g(t) , g

g(t) , gn

0.5

0.5

0
0

1
2
3
Rechteckregel vorwrts

1
2
3
Rechteckregel rckwrts

1
2
3
PolNullstellenbertragung

g(t) , g

g(t) , gn

0.5

0.5

0
0

2
Trapezregel

g(t) , g

g(t) , gn

0.5

0.5

0
0

2
t [sec] , n

2
t [sec] , n

Abbildung 6.24: Vergleich der behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme

6.6.4

Pol-Nullstellenbertragung

Die Pole und die Nullstellen einer bertragungsfunktion charakterisieren das System.
bertrgt man diese mit der nichtlinearen Abbildung
z = estA ,
so erhlt man ein System mit gleichem bertragungsverhalten. Dabei muss beachtet
werden, dass Nullstellen im Unendlichen s0 auf z0 = 1 (=
halbe Abtastfrequenz)
bertragen werden, d.h. das Zhlerpolynom der zeitkontinuierlichen bertragungsfunktion G(s) besitzt einen kleineren Grad als das Nennerpolynom.
Leider verndert sich durch die Pol-Nullstellenbertragung der Proportionalittsfaktor.
Dieser wird dann so gewhlt, dass die beiden Systeme bei einer bestimmten Frequenz
f0 gleiches bertragungsverhalten
G(s = j2f0 ) = G(z = ej2f0 tA )
!

6 Zeitdiskrete Systeme

336

besitzen. Im Bereich der Regelungstechnik wird meistens statische Genauigkeit verlangt,


d.h. hier wird die Frequenz f0 = 0 Hz gewhlt:
!

G(s = 0) = G(z = 1) .
Zusammenfassend ergibt sich folgender Satz zur Anwendung der Pol-Nullstellenbertragung.
Satz 6.138 (Pol-Nullstellenbertragung)
Bei der Pol-Nullstellenbertragung zur zeitdiskreten Darstellung zeitkontinuierlicher
Systeme geht man nach folgenden Schritten vor:
1. Alle Pole und Nullstellen von G(s) werden mit der Abbildung
z = estA
in den z-Bereich bertragen.
2. Alle Nullstellen im Unendlichen, s0 , werden auf den Punkt z0 = 1
bertragen.
3. Der fehlende Proportionalittsfaktor wird durch gleiches bertragungsverhalten
G(s = j2f0 ) = G(z = ej2f0 tA )
!

bei einer bestimmten Frequenz f0 berechnet.

Beispiel 6.139 (Pol-Nullstellenbertragung)


Das zeitkontinuierliche System mit der bertragungsfunktion
G(s) =

1
T

s+

1
T

soll durch das Verfahren der Pol-Nullstellenbertragung bei statischer Genauigkeit


mit Hilfe eines zeitdiskreten Systems dargestellt werden. Die Polstelle
s =

1
T

z = etA /T

und die Nullstelle


s0 =

z0 = 1

werden entsprechend bertragen. Hieraus ergibt sich der Ansatz


G(z) = k

z+1
z etA /T

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

337

fr die zeitdiskrete bertragungsfunktion. Bei statischer Genauigkeit muss die Bedingung


G(s = 0) = 1 = G(z = 1) = k

2
1 etA /T
=
k
=
2
1 etA /T

eingehalten werden. Zusammenfassend lsst sich die zeitdiskrete bertragungsfunktion durch


G(z) =

1 etA /T
z+1

2
z etA /T

angeben. Das Resultat dieser Vorgehensweise ist ebenfalls in Abbildung 6.24 zu


sehen.

6.6.5

Numerische Integration

Die numerische Integration von Dierenzialgleichungen, wie sie z.B. einem LTI-System
zugrunde liegen, fhrt immer zu Lsungen. Das numerische Integrationsverfahren soll
am Beispiel der einfachen Dierenzialgleichung
y a (t) = ye (t)

G(s) =

1
s

eingefhrt werden. Die Integration der Dierenzialgleichung mit dem Anfangswert


ya () = 0 zum Abtastzeitpunkt ntA

ya (ntA ) =

ntA

ye (t) dt =

(n1)t

ye (t) dt +



= ya (n 1)tA +

ntA

ntA

ye (t) dt

(n1)tA

ye (t) dt

(n1)tA

lsst sich auf den alten Ausgangswert zum Zeitpunkt (n1)tA zurckfhren. Der zweite
Term auf der rechten Seite lsst sich nun durch die unterschiedlichen Verfahren annhern. Die drei einfachsten numerischen Methoden werden in Abbildung 6.25 vorgestellt.
Bei der Rechteckregel vorwrts wird das Integral durch ye,n1 tA und somit der Ausgangswert durch
ya,n ya,n1 + tA ye,n1
angenhert. Dessen bertragungsfunktion
GI (z) =

tA z 1
tA
=
1 z 1
z1

6 Zeitdiskrete Systeme

338
ya (t)

ya (t)

ya (t)

y e,n

y e,n

y e,n-1

y e,n-1

(n-1)tA

ntA

Rechteckregel vorwrts

(n-1)tA

ntA

Rechteckregel rckwrts

(n-1)tA

ntA

Trapezregel

Abbildung 6.25: Vorstellung der drei einfachsten Methoden zur numerischen Integration

lsst sich mit


s=

z1
tA

auf die zeitkontinuierliche bertragungsfunktion GI (s) fr die Integration zurckfhren.


Bei der Rechteckregel rckwrts wird das Integral durch ye,n tA und somit der Ausgangswert durch
ya,n ya,n1 + tA ye,n
angenhert. Dessen bertragungsfunktion
GI (z) =
lsst sich mit
s=

tA
tA z
=
1 z 1
z1

z1
tA z

auf die zeitkontinuierliche bertragungsfunktion GI (s) fr die Integration zurckfhren.


Bei der Trapezregel wird das Integral durch den Wert tA (ye,n1 + ye,n )/2 und somit das
Ausgangssignal durch

tA 
ya,n ya,n1 +
ye,n + ye,n1
2
angenhert. Dessen bertragungsfunktion


tA
1
tA z + 1
2 1+z
=
GI (z) =

1
1z
2 z1
lsst sich mit

s=

2 z1

tA z + 1

auf die zeitkontinuierliche bertragungsfunktion GI (s) fr die Integration zurckfhren.


Die Trapezregel wird auch als bilineare Transformation bezeichnet.

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

339

Satz 6.140 (Numerische Integration)


Bei der numerischen Integration entsteht die zeitdiskrete bertragungsfunktion G(z)
durch Ersetzen der Variablen s der zeitkontinuierlichen bertragungsfunktion durch:
s=

z1
tA

Rechteckregel vorwrts

s=

z1
tA z

Rechteckregel rckwrts

s=

2 z1

Trapezregel / bilineare Transformation


tA z + 1

Abbildung 6.26 zeigt die Abbildung der s-Ebene in die z-Ebene bei den drei verschiedenen Verfahren zur numerischen Integration.
Liegen alle Pole des zeitkontinuierlichen Systems G(s) in der linken s-Halbebene, so ist
das System stabil. Wird die linke s-Halbebene auf das Innere des Einheitskreises der
z-Ebene abgebildet, so bleibt das System auch bei der numerischen Integration stabil.
Dies ist ein Vorteil, den man nicht missen mchte. Bei der Rechteckregel vorwrts kann
ein im s-Bereich stabiles System im z-Bereich instabil werden.

Rechteckregel vorwrts

Rechteckregel rckwrts

Trapezregel

Abbildung 6.26: Abbildung der s-Ebene in die z-Ebene bei den verschiedenen Verfahren zur
numerischen Integration

6 Zeitdiskrete Systeme

340
Beispiel 6.141 (Numerische Integration)

Das zeitkontinuierliche System mit der bertragungsfunktion


G(s) =

1
T

s+

1
T

soll durch Anwendung der numerischen Integration mit allen drei Methoden zeitdiskret dargestellt werden. Dabei erhlt man mit Hilfe der Rechteckregel vorwrts


tA
1

T
= z1T 1 =
,
G(z) = G(s)
 z1
z

(1
tTA )
+
tA
T
s=

tA

mit der Rechteckregel rckwrts





=
G(z) = G(s)
 z1
s= zt

1
T
z1
tA z

1
T

(1 +

tA
T z
tA
T )z

und mit der Trapezregel




G(z) = G(s)


=
s= t2 z1
z+1
A

2
tA

1
T
z1
z+1

1
T

tA
T z

+ tTA
(2 + tTA )z (2

tA
T )

die einzelnen bertragungsfunktionen G(z) des zeitdiskreten Systems. In Abbildung


6.24 werden auch diese Verfahren aufgezeichnet und knnen daher mit den anderen
vorgestellten Verfahren verglichen werden.

6.7

Filterung mit Fensterfunktionen

In Abschnitt 5.5.6 wurde die diskrete Fourier-Transformation einer komplexen, harmonischen Schwingung mit Leckeekt behandelt. Betrachtet man die DFT Yk einer
Signalfolge yn als Abtastung der Fourier-Transformierten YR (f ) einer zeitbegrenzten
Signalfolge ynR , so erhlt man eine etwas allgemeinere Interpretation. Hierzu wird das
zeitdiskrete Signal yn mit Hilfe der Rechteckfolge

1 ,0 n N 1
(6.142)
rn =
0 , sonst
durch punktweise Multiplikation auf das der DFT zugrunde liegende Zeitintervall begrenzt.

yn , 0 n N 1
R
(6.143)
yn = yn rn =
0 , sonst

6.7 Filterung mit Fensterfunktionen

341

Die Fourier-Transformierte dieser zeitbegrenzten Folge ynR erhlt man aus der Faltung
YR (f )

= Y (f ) R (f ) =

(6.144)

Y () R (f ) d

der beiden Fourier-Transformierten der Folge yn und der Rechteckfolge rn . Mit der
Fourier-Transformierten der Rechteckfolge, die sich zu

R (f ) =

rn ej2f ntA

(6.145)

n=
N
1


ej2f ntA =

n=0

1 ej2f N tA
1 ej2f tA

N
N
N
ej2f tA 2 ej2f tA 2 ej2f tA 2
=
1
1
1
ej2f tA 2
ej2f tA 2 ej2f tA 2
N 1 sin(2f tA N )
2
= ej2f tA 2
sin(2f tA 21 )

(6.146)

berechnet, und bei Vorliegen einer komplexen Schwingung


yn = ej2f0 ntA
mit der Fourier-Transformierten
Y (f ) =

1 
m
(f f0 + )
tA m=
tA

(6.147)

ergibt sich die Faltungssumme


YR (f ) =

1 
m
R (f f0 + ).
tA m=
tA

(6.148)

Die Fourier-Transformierte der zeitbegrenzten komplexen Schwingung wird damit:


(
'
m
N

)t
+
sin
2(f

f

N
1
m
0
A
tA
2
1
j2(f f0 + tA )tA 2
'
( .
YR (f ) =
e

m
tA m=
sin 2(f f + )t 1
0

tA

A2

Durch Beschrnkung auf das Nyquistband [0, t1A ) und Abtastung des Frequenzbereiches,
f  fk =

k
tA N

, 0 k N 1,

Nyquistband,

(6.149)

6 Zeitdiskrete Systeme

342
erhlt man die diskreten Spektralanteile:

Yk =

1
tA

j2( NktA
e

f0 +

N 1
m
tA )tA 2

m=

(
'
sin 2( NktA f0 + tmA )tA N2
'
(

sin 2( NktA f0 + tmA )tA 21

1  j(k f0 N tA + mN ) N 1 sin ((k f0 N tA + mN ))


N

.
e
tA m=
sin N
(k f0 N tA + mN )

Hierbei erkennt man, dass die bei der DFT entstehenden Leckeekte als Folge der Zeitbegrenzung durch ein Rechteckfenster zu interpretieren sind. Es ist nun nahe liegend, das
Rechteckfenster durch eine andere, ebenfalls zeitbegrenzte Fensterfunktion zu ersetzen,
die aber nun so optimiert wird, dass sich gnstigere Spektraleigenschaften ergeben.
Gehen die Werte der Fensterfunktion und mglichst viele ihrer Ableitungen am Fensterrand stark gegen null, so werden dort die Funktionssprnge, wie sie in Abbildung
5.34 dargestellt worden sind, gedmpft. Dies lsst sich anschaulich durch das RiemannLebesguesche-Lemma (Satz 3.202) erklren.

6.7.1

Definition

Die folgende Definition des Begries Fenster dient als Grundlage fr weitere Betrachtungen.
Definition 6.150 (Zeitdiskretes Fenster)
Ein zeitdiskretes Fenster ist eine Folge wN,n , deren wesentliche Signalenergie in einem
endlichen Zeitraum konzentriert ist, welcher ein Vielfaches der Zeitdauer t betrgt.
Dabei ist die DFT einer mit einer Fensterfolge wN,n gefensterten Signalfolge yn die
Faltung der Fourier-Transformierten des zeitdiskreten Signals und des Fensters:



Yk = Y (f ) W (f )
, k = 0, . . . , N 1 .
(6.151)

f = NktA

Das Ausma des Fehlers durch Auftreten des Leckeekts hngt sehr stark von der Form
der Fensterfunktion ab. Verwendet man als Signalfolge die komplexe Schwingung
yn = ej2f0 ntA

, n Z,

so entspricht die DFT direkt der Abtastung der um f0 verschobenen zeitdiskreten


Fourier-Transformierten der Fensterfunktion. Zur Anwendung der Fensterfunktionen
multipliziert man die N abgetasteten Folgenwerte yn mit den Werten der Fensterfolge:
ynw = yn wN,n

,0 n N 1.

(6.152)

Fr die folgenden Betrachtungen verwenden wir der Einfachheit halber ein gerades N .
Des Weiteren sind die Amplitudengnge auf den Wert |W (0)| normiert.

6.7 Filterung mit Fensterfunktionen

6.7.2

343

Rechteckfenster

Das zeitdiskrete Rechteckfenster



1 , n = 0, . . . , N 1
wN,n =
0 , sonst

(6.153)

mit seiner Fourier-Transformierten



N 1 sin 2f tA N
j2f
t
2
A
2


W (f ) = e

sin 2f tA 21

(6.154)

wird in Abbildung 6.27 dargestellt.

Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Rechteckfensters liegt


bei
1
2
.
(6.155)
f=
bzw.
=
N tA
N
Dies ist ein Ma fr die Breite des Hauptmaximums, die sich dann zu 2/(N tA ) ergibt.
Die relative Hhe des ersten Nebenmaximums

3 
  sin( 2 ) 

 W (f = 3 )   sin( 3 ) 

2N tA 
2N  N 1 2
(6.156)
 = 

 = 3 0,212
  N

W (0)



ist ein Ma fr den Einfluss des Leckeekts.

wN,n

0.5

N
n

|W*(f)|

0.5

f [Hz]

20 log

10

|W (f) / W (0)|

20
40
60
80
100

f [Hz]

Abbildung 6.27: Zeitdiskretes Rechteckfenster

2N

6 Zeitdiskrete Systeme

344

6.7.3

Dreieckfenster

Das zeitdiskrete Dreieck- oder


2n
N
wN,n = 2(NNn)

auch Bartlett-Fenster
, 0 n N2 1
, N2 n N 1
, sonst

(6.157)

mit seiner Fourier-Transformierten


W (f ) = ejf tA (N 1)

wird in Abbildung 6.28 dargestellt.

 2

sin 2f tA N4


sin 2f tA 21

(6.158)

Die erste Nullstelle der Fourier-Transformation des zeitdiskreten Dreieckfensters


2
4
f=
bzw.
=
N tA
N
liegt um den Faktor 2 weiter von Null entfernt als die erste Nullstelle bei Verwendung des
zeitdiskreten Rechteckfensters, d.h. das Hauptmaximum wird breiter. Wie sich zeigen
wird, ist dies bei allen im Folgenden betrachteten Fensterfunktionen der Fall.
Die relative Hhe des ersten Nebenmaximums ist im Verhltnis zum Rechteckfenster
beim Dreieckfenster kleiner.
Damit stellt die Auswahl einer Fensterfunktion immer einen Kompromiss zwischen der
Unterdrckung der Nebenmaxima und der Verbreiterung des Hauptmaximums dar.

wN,n

0.5

N
n

|W*(f)|

0.5

20 log10 |W*(f) / W*(0)|

f [Hz]

0
20
40
60
80
100

f [Hz]

Abbildung 6.28: Zeitdiskretes Dreieckfenster

2N

6.7 Filterung mit Fensterfunktionen

6.7.4

345

Hanning-Fenster

Das zeitdiskrete Hanning-Fenster


wN,n =

1
2

1 cos

 2n 
N

,0 n N 1
, sonst

(6.159)

mit seiner Fourier-Transformierten






1 sin 2f tA N2


+
(6.160)
2 sin 2f tA 12
(
(
'
'
N
N
N
N
1 sin 2f tA 2 N 1
1 sin 2f tA 2 + N 1
( +
(
'
'
+
4 sin 2f t 1
4 sin 2f t 1 +
A2
A2
N 1
N 1

N 1
W (f ) = ej2f tA 2

zeigt Abbildung 6.29.


Die erste Nullstelle im Spektrum des zeitdiskreten Hanning-Fensters liegt wieder bei
f=

2
N tA

bzw.

4
.
N

wN,n

0.5

N
n

|W*(f)|

0.5

f [Hz]

20 log

10

|W (f) / W (0)|

20
40
60
80
100

f [Hz]

Abbildung 6.29: Zeitdiskretes Hanning-Fenster

2N

6 Zeitdiskrete Systeme

346

6.7.5

Blackman-Fenster

Das zeitdiskrete Blackman-Fenster







+ 0, 08 cos 4n
,0 n N 1
0, 42 0, 5 cos 2n
N
N
wN,n =
0
, sonst

(6.161)

ist in Abbildung 6.30 gezeigt.


Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Blackman-Fensters
liegt bei
f=

3
N tA

bzw.

6
,
N

d.h. das Hauptmaximum ist dreimal so breit wie beim Rechteckfenster. Dafr sind die
Nebenmaxima strker gedmpft.

wN,n

0.5

N
n

2N

|W*(f)|

0.5

20 log10 |W*(f) / W*(0)|

f [Hz]

0
20
40
60
80
100

f [Hz]

Abbildung 6.30: Zeitdiskretes Blackman-Fenster

6.7.6

Dolph-Tschebysche-Fenster

Im Gegensatz zu den bisher behandelten Fenstern kann das Dolph-Tschebysche-Fenster


nicht in einer geschlossenen Darstellung angegeben werden, sondern wird als zeitdiskrete, inverse Fourier-Transformierte eines idealen Frequenzgangs definiert. Dabei wird
auf eine hohe Sperrdmpfung und ein schmales Hauptmaximum geachtet. Natrlich ist

6.7 Filterung mit Fensterfunktionen

347

beim Entwurf darauf zu achten, dass das Fenster im Zeitbereich eine begrenzte Lnge
hat. Es gilt
 1
F {W (f )} , n = 0, . . . , N 1
wN,n =
(6.162)
0
, sonst,
wobei W (f ) den gewnschten Frequenzgang beschreibt. Hierzu verwendet man den
Frequenzgang

0
'
(1
ejf tA (N 1) cosh (N 1)arcosh cos(f tA )
, 0 f < fg ,
)
0
' cos(fg tA(1
W (f ) =
cos(f
t
)
A
jf
t
(N
1)
A
e
cos (N 1) arccos cos(fg tA )
, fg f < f2A .
Fr eine genauere Beschreibung sei auf die angegebene Literatur, insbesondere auf
[KK02] und auf [Kro91], verwiesen.

6.7.7

Zeitdiskretes Gau-Fenster

Bei der Berechnung und Herleitung des Zeitdauer-Bandbreite-Produktes, vgl. Abschnitt


3.8.1, hatten wir den Gau-Impuls als die Funktion mit dem minimalen ZeitdauerBandbreite-Produkt erkannt. Der zeitkontinuierliche Gau-Impuls, Gleichung (3.183),
wird als Basis der Definition des zeitdiskreten Gau-Fensters herangezogen. Zur Erzeugung einer endlichen Funktion ist diese Gau-Funktion noch mit einem Rechteckfenster
zu multiplizieren, was zu einem rechteckgefensterten Gau-Fenster fhrt. Diskretisiert
man die zeitkontinuierliche Gau-Funktion, so erhlt man das zeitdiskrete rechteckge-

N,n

0.5

N
n

2N

|W (f)|

0.5

20 log10 |W*(f) / W*(0)|

f [Hz]

0
20
40
60
80

f [Hz]

Abbildung 6.31: Zeitdiskretes rechteckgefenstertes Gau-Fenster fr a = 20

6 Zeitdiskrete Systeme

348

N,n

0.5

N
n

2N

|W (f)|

0.5

20 log10 |W*(f) / W*(0)|

f [Hz]

0
20
40
60
80

f [Hz]

Abbildung 6.32: Zeitdiskretes rechteckgefenstertes Gau-Fenster fr a = 40

fensterte Gau-Signal:

a(n N 21 )2
, n = 0, . . . , N 1 ,
wN,n = e
0
, sonst .

(6.163)

Fr a = 20 erhlt man aus dieser Konstruktion den in Abbildung 6.31 oben dargestellten
Signalverlauf. In den beiden unteren Abbildungen sind der Amplitudengang und die
Dmpfung eingezeichnet.
ber den Skalierungsfaktor a kann die Breite des Gau-Fensters beeinflusst werden.
Einer wachsenden Zeitdauer entspricht dabei eine abnehmende Bandbreite und umgekehrt. Zur Verdeutlichung sind in Abbildung 6.32 fr den Fall a = 40 noch einmal der
Signalverlauf, der Amplitudengang und die Dmpfung eingezeichnet. Das Hauptmaximum ist breiter geworden, bei strkerer Dmpfung der Nebenminima.

6.7.8

Zusammenfassung

Im Vergleich der traditionellen, in geschlossener Form darstellbaren Fensterfunktionen


zeigt sich, dass Hanning- und Blackman-Fenster in der Praxis sehr gute Ergebnisse
liefern. Dabei weist das Blackman-Fenster die grte Sperrdmpfung auf. Dies ist aber
mit dem breitesten Durchlassbereich verbunden, was mit dem schmaleren Verlauf im
Zeitbereich im Einklang steht.
Ein Dolph-Tschebysche-Fenster ist den traditionellen Fenstern in der Strke der Sperrdmpfung und in der Breite des Hauptmaximums berlegen. Dies erkauft man sich jedoch mit einem deutlich hheren Entwurfsaufwand. Beim zeitdiskreten Gau-Impuls

6.7 Filterung mit Fensterfunktionen

349

wird die Sperrdmpfung durch das berlagerte Rechteckfenster verringert. Die Ergebnisse sind aber dennoch vergleichbar mit denen des Blackman-Fensters.
Abschlieend wird die Leistungsfhigkeit von Fensterfunktionen an einem Beispiel gezeigt.
Beispiel 6.164 (Anwendung von Fensterfunktionen)
Die Funktion y(t) aus Abschnitt 3.7.1, die aus zwei harmonischen Schwingungen
stark unterschiedlicher Amplitude bei benachbarten Frequenzen besteht, soll mit
Hilfe einer DFT im Spektralbereich analysiert werden. Dabei wird das Signal
y(t) = A1 sin(2f1 t) + A2 sin(2f2 t)
mit
A1 = 1 ,

f1 = 10,5 Hz ,

A2 = 0,01 ,

f2 = 14 Hz

mit der Abtastfrequenz fA = 100 Hz und dem Umfang von N = 128 Abtastpunkten
aufgenommen.

20 log

10

10
20
30
40
DFT mit BlackmanFenster

50

0
10
20
30
40
50
60
70
80

0
10
20
30
40
50
DFT mit rechteckgefenstertem GauFenster, a=25
0
10
20
30
40
50
60
70
80
0
10
20
30
40
50
f [Hz]

10

(Y (f)*W (f) )

20 log

10

(Y (f)*W (f) )

50

20 log

10
20
30
40
DFT mit HanningFenster

0
10
20
30
40
50
DFT mit rechteckgefenstertem GauFenster, a=15
0
10
20
30
40
50
60
70
80
0
10
20
30
40
50
f [Hz]

20 log10 (Y*(f)*W*(f) )

0
10
20
30
40
50
60
70
80

20 log10 (Y*(f)*W*(f) )

20 log10 (Y*(f)*W*(f) )

0
10
20
30
40
50
60
70
80

DFT mit Rechteckfenster


(Y (f)*W (f) )

Spektrum der zeitkontinuierlichen Funktion


0
10
20
30
40
50
60
70
80

Abbildung 6.33: Spektrum des kontinuierlichen Signals und Spektren der DFT nach
Anwendung unterschiedlicher Fensterfunktionen

6 Zeitdiskrete Systeme

350

Abbildung 6.33 zeigt das Spektrum des kontinuierlichen Signals, das Spektrum nach
Anwendung der DFT mit einem Rechteckfenster, das Spektrum nach Anwendung
der DFT mit einem Hanning-Fenster und das Spektrum nach Anwendung der DFT
mit einem Blackman-Fenster.
In Abbildung 6.33 sind auerdem die Spektren bei Anwendung eines rechteckgefensterten Gau-Fensters fr zwei verschiedene Werte des Parameters a aufgetragen. Man sieht deutlich, wie durch die Wahl des Parameters die Genauigkeit der
Frequenzanalyse beeinflusst wird. Fr a = 15 ist das Gau-Fenster im Zeitbereich
breiter. Dafr konvergiert es im Frequenzbereich strker.
Man erkennt im Spektrum des kontinuierlichen Signals die beiden Spektralanteile
der harmonischen Schwingungen. Im DFT-Spektrum nach Anwendung des Rechteckfensters verschmieren aufgrund des Leckeekts die beiden Spektralanteile. Der
schwchere Anteil ist nicht mehr zu erkennen.
Bei Anwendung des Hanning-, Blackman- und Gau-Fensters treten drei Eekte auf:
1. Der schwchere Spektralanteil ist zu erkennen, wenn auch nur schwach.
2. Im Sperrbereich tritt eine deutlich hhere Dmpfung auf.
3. Der starke Spektralanteil wird aufgrund der greren Hauptmaxima breiter.
Mit Hilfe dieses Beispiels lsst sich auch ein Vergleich zwischen Hanning-, Blackmanund Gau-Fenster anstellen.

6.8

Frequenzselektive Filter

Frequenzselektive Filter haben die Aufgabe, im Frequenzbereich vorgegebene Eigenschaften exakt oder approximativ zu erfllen. Zu den Forderungen gehrt es, Signalanteile bei bestimmten Frequenzen mglichst unbeeinflusst zu lassen und bei anderen
Frequenzen vollstndig zu unterdrcken. Man gibt ein kontinuierliches Toleranzschema
fr den Amplitudengang (siehe Abschnitt 4.6) vor. Entsprechend der Einteilung zeitdiskreter LTI-Systeme wird das Toleranzschema durch FIR- oder IIR-Systeme approximiert (Abschnitt 6.4.5). Dabei werden die unterschiedlichen Verfahren zur zeitdiskreten
Darstellung zeitkontinuierlicher Systeme (siehe Abschnitt 6.6) angewendet. Die im Folgenden vorgestellten Verfahren stellen lediglich eine kleine Auswahl aller mglichen
Anstze dar.
Zuerst wird jeweils die Vorgehensweise beim Entwurf des zeitdiskreten Filters dargestellt. Danach folgen zur jeder Vorgehensweise Beispiele, die diesen Entwurf veranschaulichen und darber hinaus weitere Anregungen bieten.

6.8.1

Kausales FIR-Filter ber Impulsinvarianz

Nichtrekursive Systeme, d.h. FIR-Filter, haben nur Nullstellen und eventuell einen
mehrfachen Pol im Ursprung. Deshalb muss die Zahl der Abtastwerte N (=
Fensterlnge) ausreichend gro gewhlt werden. Der folgende Entwurf in Satz 6.165 liefert ein
kausales Filter. Er baut auf dem in Abschnitt 6.6.3 vorgestellten Verfahren der Impulsinvarianz auf.

6.8 Frequenzselektive Filter

351

Satz 6.165 (FIR-Filterentwurf, Methode der Impulsinvarianz)


Der Entwurf von kausalen FIR-Filtern vollzieht sich in folgenden Schritten:
1. Festlegen des Toleranzschemas und des gewnschten kontinuierlichen Amplitudenganges A(f ) entsprechend Abschnitt 4.6.1. Das zeitdiskrete Filter stellt
eine Approximation des zeitkontinuierlichen Filters dar. Zum Ausgleich von
Approximationsfehlern muss die Ordnung K grer gewhlt werden.
2. ber die Entwurfsmethoden bei zeitkontinuierlichen Systemen erhlt man die
kontinuierliche kausale bertragungsfunktion G(s), indem man aus dem Ansatz |G(s)|2 = G(s)G(s) durch Auswahl der Pole links der imaginren Achse
unmittelbar eine stabile bertragungsfunktion G(s) erhlt.
3. Mittels der inversen einseitigen Laplace-Transformation berechnet man die kausale Impulsantwort aus G(s) :
g(t) = L1 {G(s)} .
4. Das Abtasten der Impulsantwort fhrt auf eine zeitdiskrete Funktion bzw. Folge
gn , entsprechend Abschnitt 6.6.3. Dabei wird die Abtastfrequenz so gewhlt,
dass kein Aliasing auftritt.
5. Die Fensterung dieser Folge mit einer kausalen Fensterfunktion wn der Lnge
N erzeugt eine zeitbegrenzte Impulsantwort
gn = gn wn .
Die kausale Fensterfunktion hat den maximalen Funktionswert bei n = 0, und
fllt dann nach N 1 ab. Die Auswirkungen des Leckeekts lassen sich durch
geschickte Wahl der Fensterfunktion reduzieren (Abschnitt 6.7).
6. berprfung, ob das gewnschte Toleranzschema eingehalten wird. Dazu wird
der Amplitudengang A(f ) = |G(f )| ber die diskrete Fourier-Transformation
oder ber die z-Transformation mit z = ej2f tA berechnet. Sollte das Toleranzband nicht eingehalten werden, so wird der Entwurf von G(s) mit hherer
Ordnung K wiederholt oder die Lnge N des Fensters erhht. Die resultierende
Dierenzengleichung des FIR-Filters lautet nach Satz 6.22
ya,n =

N
1


ye,ni gi .

i=0

Beispiel 6.166 (Entwurf eines kausalen FIR-Filters)


Das Entwurfsziel sei ein Tiefpass mit der Durchlassfrequenz fD und der Sperrfrequenz fS = 2fD . Weitere Einschrnkungen ergeben sich durch die geforderte Dmpfung im Durchlass- und Sperrbereich. Als Vorgabe soll das Signal im Durchlassbereich maximal um den Faktor D = 0,2 gedmpft werden, whrend im Sperrbereich
eine Dmpfung auf S = 0,1 gefordert wird.
Diese Anforderung wird durch die Normierung auf ein normiertes Toleranzschema
abgebildet, welches als Vorgabe fr den Entwurf eines normierten Tiefpasses dient.

6 Zeitdiskrete Systeme

352
1

A(f)

0.8
0.6
0.4
0.2
0

f [Hz]

Abbildung 6.34: Amplitudengang und


Toleranzschema des normierten Tiefpasses
bei einem Butterworth-Ansatz der Ordnung
K=4

Hierdurch entsteht ein Toleranzschema, wie es in Beispiel 4.171 betrachtet wurde


und in Abbildung 4.24 bzw. 6.34 eingezeichnet ist. In dieser Abbildung findet sich
auch der aus dem Butterworth-Entwurf resultierende Amplitudengang.
Die Berechnung des zeitkontinuierlichen Butterworth-Filters in Beispiel 4.171 ergab
mit

fD
=1

fS = 2

D = 0,2

S = 0,1

die Parameter
D =

3
4

S =

99 9,95.

Hieraus berechnet sich


K=4

D
= 4,8122 104
(2)K

G0 = 2,078 103 .

Beim bergang auf eine zeitdiskrete bertragungsfunktion und anschlieender Rekonstruktion des Amplitudengangs entstehen Approximationsverluste. Das angestrebte Toleranzschema wird weniger gut bzw. gar nicht erfllt. Damit auch das
zeitdiskrete Filter das in Abbildung 6.34 vorgegebene Toleranzschema einhlt, wird
deshalb die Ordnung K des zuerst entworfenen zeitkontinuierlichen Filters deutlich
erhht.
Die Toleranzparameter D , S bleiben unverndert, weshalb auch die Werte fr
D , S die gleichen Werte wie bei vorigem Entwurf besitzen,
D =

3
4

S =

99 9,95.

Mit K = 8 anstelle von K = 4 ergeben sich die Parameter jetzt zu


= 4,9141 108

6.8 Frequenzselektive Filter

353

und
G0 = 3,239 106 .
Die Pole links der imaginren Achse sind
s1
s3
s5
s7

= 1,2707 + j6,3881
= 5,4156 + j3,6186
= 6,3881 j1,2707
= 3,6186 j5,4156

s2
s4
s6
s8

= 3,6186 + j5,4156
= 6,3881 + j1,2707
= 5,4156 j3,6186
= 1,2707 j6,3881

und die dazugehrigen Residuen


r1
r3
r5
r7

= 27,7113 +j3,6372 r2 = 24,2100 +j13,9650


=
2,2241 +j0,5969 r4 =
1,4026 j1,8264
= 33,1749 +j25,4767 r6 = 1,5066 j11,4784
=
5,7845 +j10,0281 r8 = 10,8419 j40,3991.

Dieses zeitkontinuierliche Filter (K = 8) erfllt das Toleranzschema natrlich wesentlich besser als gefordert, vgl. Abbildung 6.35. Durch Rcktransformation der
einzelnen Partialbrche erhlt man die in Abbildung 6.35 dargestellte kausale Impulsantwort.
Man erkennt, dass die zeitkontinuierliche Impulsantwort fr K = 8 bereits relativ
frh vernachlssigbar geringe Werte annimmt. Somit kann diese zumindest aus
praktischer Sicht als zeitbegrenzt betrachtet werden. Der Amplitudengang A(f ) ist
zwar nicht wirklich bandbegrenzt, jedoch nehmen die Spektralanteile fr hohe Frequenzen stark ab. Bereits bei der Frequenz fg = 4 Hz ist die Dmpfung


|G(fg )|
> 20 log(0,001) = 60 dB.
a(fg ) = 20 log
|G(0)|
BWFilter der Ordnung K=8

Impulsantwort bei Ordnung K=8


3

1
2

g(t)

(f)|

0.4

K=8

0.6

|G

0.8

0.2

0
0

2
f [Hz]

t [sec]

Abbildung 6.35: Amplitudengang und kausale Impulsantwort des zeitkontinuierlichen


Systems fr K = 8

6 Zeitdiskrete Systeme

354
Abgetastete Impulsantwort
3

g(t) , gn

2
1
0
1
2

2
3
t [sec] , n

Abbildung 6.36: Abgetastete Impulsantwort


des zeitkontinuierlichen Systems fr K = 8

Die Funktion g(t) wird abgetastet, um die zeitdiskretisierte Impulsantwort gn =


g(ntA ) zu erhalten (Methode der Impulsinvarianz ). Aufgrund obiger Bemerkung
ber fg ist eine Abtastfrequenz von fA = 10 Hz ausreichend, was einer Abtastzeit
von tA = 0,1 s entspricht. Hierdurch entsteht die in Abbildung 6.36 dargestellte
Impulsantwort.
Um ein FIR-Filter zu erhalten, wird die Impulsantwort zeitgefenstert. Hierzu benutzen wir zwei verschiedene Fenster, nmlich ein kausales Rechteckfenster der Form

1 ,0 n N 1
Rn =
0 , sonst
und ein rechteckgefenstertes, kausales Gau-Fenster der Form

2
2
e(ntA ) /(2a ) , 0 n N 1
RGn =
.
0
, sonst
Beide Fenster sind in der Abbildung 6.37 dargestellt.
Rechteckfenster fr N=30

GauFenster fr a=2,5 und N=30


1

0.8

0.8

0.6

0.6

RG

Rn

0.4

0.4

0.2

0.2

0
0

10

20

30
n

40

10

20

30

40

Abbildung 6.37: Zeitdiskretes Rechteck- und Gau-Fenster (a = 2,5) fr N = 30

6.8 Frequenzselektive Filter

355

Rechteckgefensterte Impulsantwort fr N=30

Gaugefensterte Impulsantwort fr a=2,5 und N=30


3

1
n

gR

gRG

10

20

30

40

50

10

20

30

40

50

Rechteckfenster (N=30)

Rechteckgefenstertes GauFenster (a=2,5, N=30)


1.5

1.5

RG

A (f)

(f)

0.5

0.5

0
0

f [Hz]

f [Hz]

Abbildung 6.38: Gefensterte Impulsantworten des FIR-Filters und die rekonstruierten


Amplitudengnge

Begrenzt man mittels dieser Fenster die (bereits abgetastete) Impulsantwort auf
N = 30 Werte, so erhlt man die FIR-Impulsantworten gnR , n = 0, . . . , 29, fr das
Rechteckfenster und gnRG , n = 0, . . . , 29, fr das rechteckgefensterte Gau-Fenster,
welche in Abbildung 6.38 in den beiden oberen Graphiken dargestellt sind. In den
weiteren Betrachtungen sind der Einfachheit halber die hochgestellten Kennzeichnungen unterdrckt und die Impulsantworten stets mit gn bezeichnet.
Diese zeitdiskreten Impulsantworten sollen nun darauf untersucht werden, inwiefern der dazugehrige Amplitudengang das geforderte Toleranzschema erfllt. Zu
diesem Zweck unterziehen wir die Impulsantworten (durch Nullen fortgesetzt) der
z-Transformation und bestimmen daraus den Amplitudengang aus A(f ) = |G(f )| :
G(f ) = G(z = ej2f tA ) =

N
1


gn ej2f ntA

(6.167)

n=0

Das Resultat ist ebenfalls in Abbildung 6.38 dargestellt.


Der resultierende Amplitudengang verletzt das Toleranzschema im Durchlassbereich,
bietet aber gleichzeitig Reserve im Sperrbereich bzw. im bergangsbereich. Diese

6 Zeitdiskrete Systeme

356
Mit =1,3 skaliertes BWFilter der Ordnung K=8

Skalierte Impulsantwort
3

1
2

0.6

g (t)

|G
(f)|
K=8

0.8

0.4

0.2

0
0

f [Hz]

t [sec]

Abbildung 6.39: Amplitudengang und Impulsantwort des skalierten, kausalen zeitkontinuierlichen Filters der Ordnung K = 8

Tatsache wird fr einen neuerlichen Entwurf verwendet. Hierzu geht man folgendermaen vor: Der Amplitudengang A(f ) wird mittels Skalierung nach rechts verschoben. Dies geschieht ber die Abbildung
f 

, (1, fS ).

(6.168)

Hierzu ist eine Skalierung der bertragungsfunktion G(s) mit dem Parameter
erforderlich:
's(
.
(6.169)
G(s)  G

Die bertragungsfunktion G(s) geht in die folgende, skalierte bertragungsfunktion


ber:
's(
G0
G (s) = G
= K


< s

s
=1

G0 K

K
<

=1

(s s )

Da G (s) durch Skalierung aus G(s) entstanden ist, ergibt sich fr die Impulsantwort
nach Gleichung (4.75)
's(
} = g(t).
(6.170)
g (t) = L1 {G (s)} = L1 {G

Mit dem Faktor = 1, 3 resultiert fr den skalierten Amplitudengang und die skalierte Impulsantwort der Verlauf in Abbildung 6.39, welche sich die Reserve im bergangsbereich zu Nutze macht.

6.8 Frequenzselektive Filter

357
Skalierte Gaugefensterte Impulsantwort fr N=30
3
2

,RG

gn

g,R

Skalierte rechteckgefensterte Impulsantwort fr N=30


3

0
1
2

0
1

10

20

30

40

50

10

20

30

40

50

Skaliertes Rechteckfenster (N=30)

Skaliertes rechteckgefenstertes GauFenster (a=2,5, N=30)


1.5

1.5

,R

,RG

(f)

(f)

0.5

0.5

0
0

f [Hz]

f [Hz]

Abbildung 6.40: Abgetastete und gefensterte Impulsantworten der skalierten FIR-Filter


sowie deren rekonstruierte Amplitudengnge

Nach dem Abtasten ergibt sich die Impulsantwort:


g,n = g (ntA ) = g(ntA ) .

(6.171)

Bei Anwendung eines Rechteck- und eines Gau-Fensters erhlt man die in Abbildung 6.40 dargestellten Impulsantworten und jeweiligen Amplitudengnge. Diese
halten jetzt das geforderte Toleranzschema ein. Aufgrund der Diskretisierung entsteht lediglich bei Verwendung des Rechteckfensters eine berschreitung im Durchlassbereich, die aber vernachlssigbar ist. Die Phase dieser beiden Filter ist in Abbildung 6.41 zu sehen. Man erkennt, dass die Phasenverzerrungen bei Verwendung

des Gau-Fensters deutlich geringer ausfallen.

6 Zeitdiskrete Systeme

358
Phasengang des rechteckgefensteren FIRFilters
4

Gruppenlaufzeit des rechteckgefensteren FIRFilters


0.1

0.05
g(f)

(f)

4
5

0.05

0
f [Hz]

0.1
5

Phasengang des Gaugefensteren FIRFilters


4

0
f [Hz]

Gruppenlaufzeit des Gaugefensteren FIRFilters


0.05

g(f)

(f)

4
5

0
f [Hz]

0.05
5

0
f [Hz]

Abbildung 6.41: Phasengang und Gruppenlaufzeit der skalierten FIR-Filter

6.8.2

Akausales FIR-Filter ber die DFT

Fr die zweite Entwurfsmethode eines akausalen FIR-Filters whlt man als Ausgangspunkt die Fourier-Transformation zeitdiskreter Signale, vgl. Abschnitt 5.3.1, die durch
1

Y (f ) =

yn ej2f ntA

yn = tA

n=

2tA

Y (f )ej2f ntA df

2t1

dargestellt wird. Whlt man einen bestimmten Amplitudengang A(f ) im Nyquistband,


A(f ) = |G (f )|,

so wird mit den bekannten Methoden aus Abschnitt 4.6 das zeitkontinuierliche Filter
G(s) entworfen. Aus diesem knnte man mit der Rcktransformation, d.h. der Integration ber das Nyquistband, unmittelbar die komplexen Koezienten
1

gn = tA

2tA

2t1
A

G(f )ej2f ntA df

,n Z

(6.172)

6.8 Frequenzselektive Filter

359

eines unendlichen langen, akausalen Filters bestimmen. Zur numerischen Berechnung


wird der Frequenzgang im Nyquistband diskretisiert,
Gk = G(f = kf ) , k = N, . . . , N 1,
wobei die Abstnde
f =

fA
2N

(6.173)

gewhlt werden, damit 2N komplexe Werte Gk im Nyquistband liegen. Damit wird das
Integral (6.172) ber die Rechteckregel durch
gn = tA

N
1


k=N

f G(kf )ej2kf ntA

N 1
kn
1 
Gk ej2 2N
2N
k=N

, n = N, . . . , N 1

, n = N, . . . , N 1

(6.174)

angenhert. Die Impulsantwort ist auf den Bereich n = N, . . . , N 1 beschrnkt.

Die Diskretisierung im Frequenzbereich bewirkt eine periodische Wiederholung der Impulsantwort mit der Periode T0 = 2N tA im Zeitbereich. Die resultierende Berechnung
der diskreten Impulsantwort entspricht der inversen DFT (Definition 5.77).
Zur Reduzierung des Leckeekts kann die Impulsantwort mit einem weiteren akausalen
Fenster multipliziert werden, z.B. dem symmetrischen, akausalen Gau-Impuls.
gn = gn w2N,n
Das Filter ist akausal, so dass das Ausgangssignal erst um N Abtastwerte verzgert
vorliegt. Man verzgert deshalb die Ausgabe des Ausgangssignals, damit zur Berechnung
des Wertes ya,n0 auch der Wert ye,n0 +N einflieen kann.
Satz 6.175 (FIR-Filter-Entwurf durch inverse DFT)
Der Filterentwurf von FIR-Filtern durch die inverse DFT vollzieht sich in sechs
Schritten:
1. Festlegen des Toleranzschemas und des gewnschten Amplitudenganges A(f ).
Bei Bedarf bei A(f ) etwas steilere Flanken annehmen, um Diskretisierungsfehler
auszugleichen.
2. Entwurf eines zeitkontinuierlichen Filters G(s) gem den Vorgaben.
3. Festlegen der Zahl 2N der Abtastpunkte im Nyquistband. Abtastung des Frequenzgangs Gk = G(f = kf ) mit f gem Gleichung (6.173).
4. Berechnen der zeitdiskreten Impulsantwort ber die inverse DFT
gn =

N 1
1 
Gk ej2kn/2N
2N
k=N

, n = N, . . . , N 1.

6 Zeitdiskrete Systeme

360

5. Gewichten der Impulsantwort mit einer akausalen, diskreten Fensterfunktion


w2N,n , um den Leckeekt zu verringern:
gn = gn w2N,n .
6. Bei Bedarf Verschiebung der Impulsantwort um N Abtastschritte.

gn = gnN

G (z) = G (z) z N

Durch die Verschiebung ergibt sich eine zustzliche lineare Phasendrehung, vgl.
Satz 6.122.
7. berprfung, ob das gewnschte Toleranzbandschema eingehalten wird. Sollte
dies nicht der Fall sein, so wird entweder ein modifizierter Amplitudengang A(f )
hherer Ordnung angesetzt, und/oder die Zahl der Abtastpunkte N erhht.

Danach beginnt man bei Punkt 2.


Die resultierende Dierenzengleichung fr das verschobene, akausale Filter ist nach Satz
6.22 die Faltungssumme
ya,nN =

2N
1

i=0

ye,ni giN
.

Beispiel 6.176 (Entwurf eines akausalen FIR-Filters)


Fr den Entwurf eines Filters nach der in Satz 6.175 dargestellten Methode wird der
Amplitudengang vorgegeben.
Hierbei wird von Anfang an ein zeitkontinuierliches Filter G(s) hherer Ordnung mit
K = 6 angesetzt, damit nach der Durchfhrung der Entwurfsschritte das Toleranzschema eingehalten wird. Der Amplitudengang A(f ) ist in Abbildung 6.42 zusammen
mit den N = 10 Abtastwerten im Bereich [0, f2A ] dargestellt (fA = 10 Hz).
Fr die weitere Rechnung wird nach Gleichung (6.174) jedoch nicht der Amplitudengang A(f ), sondern der abgetastete Frequenzgang Gk bentigt. Somit sind also
BWFilter der Ordnung K=6

|GK=6(f)| , |Gk|

1
0.8
0.6
0.4
0.2
0
0

2
3
f [Hz] , k

Abbildung 6.42: Vorgegebener und abgetasteter Amplitudengang

6.8 Frequenzselektive Filter

361
Amplitudengang des akausalen, zeitdiskreten Filters

Impulsantwort des Filters der Ordnung K=6


0.3

0.2

0.8
A(f)

0.1

0.1

0.4

0.2

0.2

0.3
0.4
1

0.6

0
0.5

0
nt

0.5

f [Hz]

Abbildung 6.43: Impulsantwort und rekonstruierter Amplitudengang des akausalen, zeitdiskreten Filters

die Abtastwerte komplex, da sie aus der Abtasten des Frequenzganges G(kf ) entstehen. Aus A(f ) werden deshalb das zeitkontinuierliche Filter G(s) und daraus die
komplexen Abtastwerte Gk = G(s = j2tA k f ) berechnet.

Die resultierende Impulsantwort, die entsprechend der inversen DFT in Gleichung


(6.174) berechnet wird, findet sich in Abbildung 6.43 zusammen mit dem fr dieses
Filter rekonstruierten Amplitudengang.

Das Toleranzschema wird aufgrund der Diskretisierung im Durchlassbereich nach


oben hin verletzt. Um dies zu korrigieren wird die Impulsantwort mit einem symmetrischen Gau-Fenster, wie in Abbildung 6.44 skizziert, gefenstert.
Nach der Fensterung entsteht die Impulsantwort in Abbildung 6.45.
Man erkennt, dass aufgrund der Fensterung Signalenergie verloren geht. Der hieraus
rekonstruierte Amplitudengang verletzt das Toleranzschema nun nach unten, d.h.
durch zu starke Dmpfung im Durchlassbereich.

GauFenster fr a=0,8
1

0.6

RG

0.8

0.4
0.2
0
1

0.5

0
n tA

0.5

Abbildung 6.44: Symmetrisches GauFenster zur Fensterung der Impulsantwort des


FIR-Filters

6 Zeitdiskrete Systeme

362

Amplitudengang des akausalen, gefensterten Filters

Gefensterte Impulsantwort des Filters der Ordnung K=6


0.2

1
0.1

0.8

A(f)

0.6
0.4

0.1

0.2

0.2

0
0.3
1

0.5

0
nt

0.5

f [Hz]

Abbildung 6.45: Impulsantwort und rekonstruierter Amplitudengang des gefensterten,


akausalen, zeitdiskreten FIR-Filters
Mit =1,2 skalierter BWFilter der Ordnung K=6

|GK=6(f)| , |Gk|

1
0.8
0.6
0.4
0.2
0
0

2
3
f [Hz] , k

Abbildung 6.46: Skalierter vorgegebener Amplitudengang fr = 1, 2


Amplitudengang des skalierten, gefensterten Filters

Skalierte Impulsantwort des Filters der Ordnung K=6


0.3

0.2

0.8

A(f)

gn

0.1

0.1

0.4

0.2

0.2

0.3
0.4
1

0.6

0
0.5

0
nt

0.5

f [Hz]

Abbildung 6.47: Impulsantwort und rekonstruierter Amplitudengang des skalierten, gefensterten, akausalen, zeitdiskreten FIR-Filters

6.8 Frequenzselektive Filter

363

Phasengang des skalierten, gefensterten FIRFilters


4

0.5
g(f)

(f)

Gruppenlaufzeit des skalierten, gefensterten FIRFilters


1

0.5

4
5

0
f [Hz]

1
5

0
f [Hz]

Abbildung 6.48: Phasengang und Gruppenlaufzeit des skalierten, gefensterten, akausalen,


zeitdiskreten FIR-Filters

Um dies auszugleichen, kann man wie in Abschnitt 6.8.1 einen skalierten Entwurf
durchfhren, hier mit einem Skalierungsfaktor = 1, 2. Dies fhrt auf den skalierten
Amplitudengang in Abbildung 6.46.
Wendet man nun auf diesen die Entwurfsmethode erneut an und gewichtet das Resultat mit einem Gau-Fenster, so entstehen die Impulsantwort und deren rekonstruierter Amplitudengang in Abbildung 6.47. Die Phase des Filters ist in Abbildung 6.48

zu sehen.

6.8.3

IIR-Filter ber die zeitdiskrete bertragungsfunktion

Der in Abschnitt 4.6 verwendete Ansatz soll wiederum Ausgangspunkt fr den Entwurf eines zeitdiskreten IIR-Filters sein. Dazu wird aus dem zeitkontinuierlichen Filter
G(s) mittels der in Abschnitt 6.6 vorgestellten Methoden ein zeitdiskretes Filter G(z)
entworfen. Hierbei entfllt die Fensterung, welche zum Entwurf von FIR-Filtern notwendig war. Die Impulsantwort ist unendlich lang, das System besitzt in seiner kanonischen
Darstellung eine rekursive Komponente.
Satz 6.177 (IIR-Filterentwurf )
Unter Verwendung der Anstze bei den zeitkontinuierlichen Systemen in Abschnitt
4.6 erfolgt der Entwurf frequenzselektiver IIR-Filter in fnf Schritten, vgl. [KK02].
1. Vorgabe des kontinuierlichen Toleranzschemas.
2. Entwurf eines zeitkontinuierlichen, frequenzselektiven Filters im s-Bereich, was
auf eine bertragungsfunktion G(s) fhrt.
3. bertragung der zeitkontinuierlichen bertragungsfunktion G(s) des frequenzselektiven Filters in eine zeitdiskrete Darstellung G(z) mit einer der Methoden,
die in Abschnitt 6.6 aufgezeigt wurden. Dazu muss die Abtastzeit so gewhlt
werden, dass das Abtasttheorem eingehalten wird.

6 Zeitdiskrete Systeme

364
4. berprfung, ob das gewnschte Toleranzschema
A(f ) = |G(z = ej2f tA )|

eingehalten wird. Sollte dies nicht der Fall sein, so wird der Entwurf von G(s)

mit hherer Ordnung K wiederholt.


Bemerkung 6.178
Entsteht bei der zeitdiskreten Darstellung der zeitkontinuierlichen bertragungsfunktion G(s) eine gebrochen rationale zeitdiskrete bertragungsfunktion G(z), so
kann aus G(z) unter Beachtung der Verschiebungsregel der z-Transformation unmittelbar die das System beschreibende Dierenzengleichung bestimmt werden. Durch
fortlaufende Berechnung der Dierenzengleichung wird das IIR-Filter auf einem Mi
krorechner realisiert.
Bemerkung 6.179
Anstelle der im Punkt 4. vorgeschlagenen Erhhung der Ordnung K kann bei geringen Abweichungen vom Toleranzschema evtl. die in Beispiel 6.166 verwendete
Skalierung benutzt werden. Davon wird im folgenden Beispiel Gebrauch gemacht.
Der Entwurf des zeitkontinuierlichen, frequenzselektiven Filters G(s) erfolgt entsprechend Abschnitt 4.6. Der bergang auf die zeitdiskrete Darstellung G(z) des zeitkontinuierlichen Systems G(s) verwendet eine der in Abschnitt 6.6 behandelten Methoden.
Die am meisten benutzte bertragung geschieht mit der Trapezregel, vgl. Abschnitt
6.6.5. Die entstehenden zeitdiskreten Systeme sind autoregressiv und stellen somit IIRFilter dar.

Beispiel 6.180 (Entwurf eines IIR-Filters)


In diesem Beispiel soll die Konstruktion eines IIR-Filters mit der in Satz 6.177 vorgestellten Methode erfolgen. Wir geben uns dasselbe Toleranzschema (Abbildung 6.34)
wie beim Entwurf der vorherigen FIR-Beispiel-Filter vor. Es ergibt die kontinuierliche bertragungsfunktion G(s) der Ordnung K = 4 nach Beispiel 4.171. Nun muss
diese bertragungsfunktion G(s) in eine zeitdiskrete Systemfunktion G(z) bertragen werden. Bei der Zeitdiskretisierung muss die Abtastzeit festgelegt werden. Das
Signal wird wie im ersten Beispiel bei fg = 4 Hz mit 60 dB als bandbegrenzt angesehen. Eine Abtastfrequenz von fA = 10 Hz bzw. eine Abtastzeit tA = 0,1sec erfllt
dann praktisch das Abtasttheorem.
Wir wenden die in Abschnitt 6.6.5 vorgestellte bilineare Transformation an, um aus
der zeitkontinuierlichen bertragungsfunktion G(s) die zeitdiskrete bertragungsfunktion G(z) zu gewinnen. Es folgt:

6.8 Frequenzselektive Filter

365




G(z) = G(s)

= G0

=
z1
A z+1

s= t2

tA
2

K

K '
<

=1

K :
<
z(1

=1

G0
2 z1
tA z+1

(z + 1)K
tA
2 s )

(1 +

tA
2 s )

Bei Verwendung der bilinearen Transformation ist die resultierende bertragungsfunktion G(z) im Gegensatz zur Methode der Impulsinvarianz wieder eine gebrochen
rationale Funktion. Diese kann dann in eine das System reprsentierende Dierenzengleichung berfhrt werden.
Fr einen Butterworth-Entwurf der Ordnung K = 4 erhlt man die Pole:
s1 = 2,5838 + j6,2378 s2 = 6,2378 + j2,5838
s3 = 6,2378 j2,5838 s4 = 2,5838 j6,2378
Die resultierende zeitdiskrete bertragungsfunktion ist durch
G(z) =

0,0054z 4 + 0,0218z 3 + 0,0327z 2 + 0,0218z + 0,0054


z 4 2,3110z 3 + 2,2223z 2 z + 0,1759

gegeben, woraus sich mit der Umformung


G(z) =

0,0054 + 0,0218z 1 + 0,0327z 2 + 0,0218z 3 + 0,0054z 4


1 2,3110z 1 + 2,2223z 2 z 3 + 0,1759z 4

die Dierenzengleichung ergibt:


ya,n = 0,0054ye,n + 0,0218ye,n1 + 0,0327ye,n2
+0,0218ye,n3 + 0,0054ye,n4
+2,3110ya,n1 2,2223ya,n2 + ya,n3 0,1759ya,n4
Der rekonstruierte Amplitudengang A(f ) = |G(z = ej2f tA )| dieses IIR-Filters ist
in Abbildung 6.49 dargestellt.
Das Toleranzschema wird mit dem zeitdiskreten IIR-Filter nur wenig an der Grenze
des Durchlassbereiches verletzt. Dafr besteht aber ein ausreichender Abstand zur
Grenze des Sperrbereiches. Aus diesem Grund wird eine Skalierung mit = 1,1
durchgefhrt, mit welcher die Reserve im bergangsbereich genutzt wird. Dies geschieht durch Berechnung der skalierten, zeitkontinuierlichen bertragungsfunktion
G (s) = G

's(

G0 K
K
<

=1

(s s )

(6.181)

6 Zeitdiskrete Systeme

366
Verwendung der Trapezregel
1

A(f)

0.8
0.6
0.4
0.2
0
0

Abbildung 6.49: Rekonstruierter Amplitudengang des IIR-Filters bei Anwendung der


bilinearen Transformation

f [Hz]

und anschlieender Anwendung der bilinearen Transformation:






G0 K



= K
G (z) = G (s)

 2 z1

<
s= t z+1
(s s ) s= t2A z1
z+1
A
= G0

tA
2

K

=1

(z + 1)K

K
<

=1

Durch

:
z(1

tA
2 s )

(1 +

tA
2 s )



A (f ) = |G (f )| = G (z = ej2f tA )

entsteht der rekonstruierte Amplitudengang in Abbildung 6.50. Dieser hlt das vorgegebene Toleranzschema ein. Die Phase und die Gruppenlaufzeit des Systems finden
sich in Abbildung 6.51.

Skalierung und Verwendung der Trapezregel


1

A(f)

0.8
0.6
0.4
0.2
0
0

2
f [Hz]

Abbildung 6.50: Rekonstruierter Amplitudengang bei Anwendung der Skalierung und


der bilinearen Transformation

6.8 Frequenzselektive Filter

367

0.05

(f)

(f)

4
5

0
f [Hz]

0.05
5

0
f [Hz]

Abbildung 6.51: Phase und Gruppenlaufzeit bei Anwendung der Skalierung und der bilinearen
Transformation

Durch Rcktransformation der bertragungsfunktion und Anwendung der Verschiebungsregel der z-Transformation erhlt man die dazugehrige Dierenzengleichung:
ya,n = 0,0073ye,n + 0,0293ye,n1 + 0,0440ye,n2
+0,0293ye,n3 + 0,0073ye,n4
+2,1577ya,n1 1,9940ya,n2

+0,8677ya,n3 0,1487ya,n4

6.8.4

FIR-Filter ber Transformation des Frequenzganges

In diesem Abschnitt wird eine Mglichkeit zum Entwurf eines digitalen Filters vorgestellt, welche vom Entwurfsaufwand einfacher als die anderen Methoden ist. Hierzu
greifen wir spter noch einmal das Beispiel 6.124 auf. Zuerst soll jedoch ein analytischer Zusammenhang zwischen der Impulsantwort und dem gewnschten Frequenzgang
hergeleitet werden.
Als Basis der Herleitung dient die Systemfunktion eines zeitdiskreten Systems,
G(z) =

gn z n ,

n=

in welcher die Werte der Impulsantwort als Koezienten einer Reihe in der Variablen
z auftreten. Aus dieser erhlt man den Frequenzgang

(
'

G(f ) = G z = ej2f tA =
gn ej2f ntA .
n=

Besitzt die Impulsantwort 2N + 1 Werte symmetrisch um Null, so vereinfacht sich die


Summation zu
G(f ) =

N


n=N

gn ej2f ntA .

(6.182)

6 Zeitdiskrete Systeme

368

Dieser Frequenzgang wird analytisch vorgegeben. Mit der Fourier-Transformation zeitdiskreter Signale in Satz 5.20 berechnet sich die zum Frequenzgang G(f ) zugehrige
Impulsantwort als
fA

gn =

1
fA

G(f )e

j2 fnA f

df

, n = N, . . . , N.

fA
2

Ist der gewnschte Frequenzgang eine gerade Funktion in f , so vereinfacht sich die
Berechnung der Impulsantwort:
fA

2
gn =
fA

= 2tA

n
G(f ) cos 2 f
fA

df

, n = N, . . . , N

(6.183)

fA

G(f ) cos (2ntA f ) df

, n = N, . . . , N

(6.184)

Die Impulsantwort ist somit ebenfalls eine gerade Wertefolge,


gn = gn

, n = 1, . . . , N,

die sich mittels symbolischer Intergralberechnungen aus dem gewnschten Frequenzgang


ergibt.
Beispiel 6.185 (Idealer Tiefpass aus dem Frequenzgang)
Soll ein idealer Tiefpass mit dem gewnschten Frequenzgang

1 , |f | fg
G(f ) =
0 , |f | > fg

mit den beschriebenen Methoden entworfen werden, so berechnen sich die Werte der
Impulsantwort zu:


fg
fg
2tA
gn = 2tA cos (2ntA f ) df =
sin (2ntA f )
2ntA
0
0
(
'
fg
2tA
fg sin 2n fA
, n = N, . . . , N .
=
sin (2ntA fg ) = 2
f
2ntA
fA
2n g
fA

Fr den Fall N = 5 und die Frequenz-Parameter fA = 100 Hz, fg = 25 Hz ergeben


f
sich fAg = 14 und die Werte
g5 = 0,0637 g4 = 0
g3 = 0,1061 g2 = 0
g1 = 0,3183 g0 = 0,5000 g1 = 0,3183
g2 = 0 .
g3 = 0,1061 g4 = 0
g5 = 0,0637

6.8 Frequenzselektive Filter

369

0.6

0.4

0.2

0.2
5

0
n

Abbildung 6.52: Impulsantwort des einfachen


FIR-Filter-Entwurfs fr N = 5

0
f [Hz]

50

Abbildung 6.53: Rekonstruierter Frequenzgang


des einfachen FIR-Filter-Entwurfs fr N = 5

0
f [Hz]

50

Abbildung 6.54: Rekonstruierter Frequenzgang


des einfachen FIR-Filter-Entwurfs fr N = 25

1.5

G(f)

0.5

0.5
50

1.5

G(f)

0.5

0.5
50

Die Impulsantwort ist in Abbildung 6.52 dargestellt.


Die das System beschreibende Dierenzengleichung lautet:
ya,n =

N


gi ye,ni

i=N

Der Frequenzgang des Systems ist in Abbildung 6.53 zu sehen. Da die Zeitfunktion
eine reelle und gerade Funktion ist, ist der Frequenzgang reell.
Man erkennt, wie sich das Gibbssche Phnomen auswirkt. Die berschwinger knnen
nach Abschnitt 3.7.2 in ihrer Hhe nicht gedmpft werden. Zur Veranschaulichung
dieser Tatsache ist in Abbildung 6.54 der Frequenzgang eines Filters der Ordnung

6 Zeitdiskrete Systeme

370
0.6
1
0.4
g RG

0.6

0.2

RGn

0.8

0.4
0
0.2
0

20

10

0
n

10

0.2

20

20

10

0
n

10

20

Abbildung 6.55: Gau-Fenster und gefensterte Impulsantwort des einfachen FIR-Filter-Entwurfs fr N = 25 bei Verwendung des Gau-Fensters mit a = 20

N = 25 dargestellt. Es ist deutlich zu erkennen, dass dieser nher an dem idealen


Rechteckverlauf liegt. Dennoch besitzen die berschwinger dieselbe Hhe wie im Fall
N = 5.
Um dies zu vermeiden, kann die Impulsantwort mit einem Gau-Fenster gefenstert
werden. Das Fenster und die gefensterte Impulsantwort sind in Abbildung 6.55 dargestellt. Man erkennt, dass durch die Fensterung die Werte am Rand der Impulsantwort in ihrer Hhe gedmpft werden.
Fr die gefensterte Impulsantwort zeigt Abbildung 6.56 den resultierenden Frequenzgang. Durch Anwendung eines Gau-Fensters werden die Auswirkungen des Gibbsschen Phnomens reduziert.
Als Nachteil dieser Entwurfsmethode kann kein Toleranzschema angegeben werden.
Dies schrnkt die Mglichkeiten der Einflussnahme ein. Zudem ist eine analytische
Lsung des Integrals in Gleichung (6.184) zur Bestimmung der Werte der Impulsantwort notwendig. Auf der anderen Seite ist dieser Entwurf deutlich einfacher als
die in den letzten Abschnitten dargestellten Entwrfe. Durch Erhhung der Zahl der
Abtastwerte N kann die Flankensteilheit des Filters erhht werden. Bei Verschie1.5

G(f)

0.5

0.5
50

0
f [Hz]

50

Abbildung 6.56: Rekonstruierter Frequenzgang des Gau-gefensterten einfachen


FIR-Filter-Entwurfs fr N = 25 und a = 20

6.9 Spezielle zeitdiskrete Filter


bung der Impulsantwort um
praktische obere Grenze.

371
N
2

Schritte fr Echtzeitanwendungen gibt es aber eine

Da der Phasengang des resultierenden Filters null ist, eignet sich diese Entwurfsmethode fr Anti-Aliasing- und Rekonstruktions-Filter.

6.9

Spezielle zeitdiskrete Filter

In den folgenden Abschnitten werden verschiedene zeitdiskrete Filter und deren Anwendungen prsentiert.

6.9.1

Zeitdiskrete Hilbert-Transformation

Fr praktische Anwendungen wird die Hilbert-Transformierte in zeitdiskreter Form bentigt. Das Ziel dieses Abschnittes ist es, die zeitdiskrete Hilbert-Transformation herzuleiten und deren Eigenschaften zu betrachten. Hierzu werden Forderungen an das
zeitdiskrete Spektrum des analytischen Signals angestellt, welche denjenigen der zeitkontinuierlichen Hilbert-Transformation entsprechen. Die nachfolgenden Betrachtungen
finden sich ausfhrlicher in [OS98].
Es wird die Wertefolge zn des zeitdiskreten analytischen Signals angesetzt, deren Spektrum im Bereich negativer Frequenzen definitionsgem verschwinden soll:
!

Z (f ) = 0 ,

fA
< f < 0.
2

(6.186)

Man beachte hier die Bedeutung des Begries negative Frequenzen. Bei zeitdiskreten
Signalen sind die betrachteten Spektren periodisch mit der Periode fA . Somit ist das
Analogon zur Auslschung des analytischen Signals bei negativen Frequenzen in Gleichung (6.186) durch das Verschwinden des Spektrums im negativen Teil des Nyquistbandes gegeben. Aufgrund der Periodizitt ergibt sich die Tatsache, dass das Spektrum
an der Stelle fA gleich null sein muss.
Durch Zerlegung des analytischen Signals in seinen Real- und Imaginrteil,
zn = xR,n + jxI,n ,
ergeben sich zwei reelle Folgen xR,n , xI,n zur Darstellung von zn . Diese knnen ber
zn + zn
2
zn zn
= Im{zn } =
2j

xR,n = Re{zn } =
xI,n

berechnet werden. Mit den jeweiligen Fourier-Transformierten XR (f ), XI (f ) folgt aufgrund der Linearitt der Fourier-Transformation im Spektralbereich der Zusammenhang
Z (f ) = XR, (f ) + jXI, (f ).

6 Zeitdiskrete Systeme

372

Die Real- und Imaginrteile der Fourier-Transformierten ergeben sich zu


1
(Z (f ) + Z (f ))
2
1
jXI, (f ) = (Z (f ) Z (f )) .
2

(6.187)

XR, (f ) =

(6.188)

Die Real- und Imaginrteile von Z (f ) weisen Symmetrien im Frequenzbereich auf. So


ist X,R (f ) konjugiert symmetrisch zur Mittenfrequenz Null, d.h.

(f ),
XR, (f ) = XR,

und XI, (f ) konjugiert punktsymmetrisch, d.h.

(f ).
jXI, (f ) = jXI,

Nach Gleichung (6.186) soll das Spektrum des analytischen Signals im negativen Teil
des Nyquistbandes verschwinden.
!

Z (f ) = XR, (f ) + jXI, (f ) = 0 ,

fA
<f <0
2

Daraus folgt
XI, (f ) = jXR, (f ) ,

fA
< f < 0.
2

(6.189)

Darber hinaus wird gefordert, dass das Spektrum des analytischen Signals Z (f ) im
positiven Teil des Nyquistbandes seinem doppelten Realteil entsprechen soll.
!

Z (f ) = XR, (f ) + jXI, (f ) = 2XR, (f ) , 0 < f <

fA
2

Daraus folgt
XI, (f ) = jXR, (f ) , 0 < f <

fA
.
2

(6.190)

Aus den beiden Gleichungen (6.190) und (6.189) erhlt man insgesamt die HilbertTransformation zeitdiskreter Signale:

jXR, (f ) , 0 < f < f2A ,
XI, (f ) =
(6.191)
jXR, (f )
, f2A < f < 0 .
Hierbei ist zu beachten, dass die Gleichheit den Punkt f = 0 ausschliet. Der Proportionalittsfaktor zwischen XR, (f ) und XI, (f ) fr Frequenzen f = 0 ist

j , 0 < f < f2A
, f = 0,
G (f ) =
j
, f2A < f < 0
was einem idealen 90 Phasendreher entspricht.

6.9 Spezielle zeitdiskrete Filter

373

Satz 6.192 (Zeitdiskretes Quadraturfilter)


Das zeitdiskrete Quadraturfilter ist durch den Frequenzgang

f
j , 0 < f < 2A
GQ, (f ) = 0
, f = 0, f = f2A

j
, f2A < f < 0

definiert. Mittels dieses Filters wird der Gleichanteil eines Signales unterdrckt. Nur
bereits mittelwertfreie Signale erfahren keine Vernderung ihres Gleichanteils.

Durch Rcktransformation des Frequenzgangs, also durch Integration ber das Nyquistband nach Gleichung (5.22), erhlt man die in Abbildung 6.57 dargestellte zugehrige
zeitdiskrete Impulsantwort des Quadraturfilters.
fA

gQ,n = tA

GQ, (f )ej2f ntA df = tA

fA
2

 
2 n
2
n sin 2
0

fA

jej2f ntA df tA

fA
2

jej2f ntA df

, n = 0
,n = 0

Impulsantwort des HilbertTransformators


1

Q,n

0.5

0.5

1
10

0
n

10

Abbildung 6.57: Impulsantwort des


zeitdiskreten Hilbert-Transformators

Definition 6.193 (Zeitdiskrete Hilbert-Transformation)


Durchluft ein zeitdiskretes Signal yn ein Filter mit der akausalen Impulsantwort

 
2 n
2
, n = 0 ,
gQ,n = n sin 2
0
,n = 0
so resultiert das Signal yn = yn gQ,n , welches als Hilbert-Transformierte H{yn } des
zeitdiskreten Signals yn bezeichnet wird. Aufgrund von GQ, (0) = 0 ist die HilbertTransformierte eines Signals mittelwertfrei.

6 Zeitdiskrete Systeme

374

Beispiel 6.194 (Hilbert-Transformation einer zeitdiskreten


Cosinus-Schwingung)
Als Beispiel betrachten wir die zeitdiskrete Formulierung des Beispiels 4.190. Transformiert wird somit die zeitdiskrete Cosinus-Schwingung
yn = cos(2f0 ntA ) , n Z,
wobei wir uns auf den Fall f0 < f2A beschrnken, um das Abtasttheorem zu erfllen.
Die Folge besitzt im Nyquistband f2A f f2A das Spektrum
yn Y (f ) =

fA
((f f0 ) + (f + f0 )) .
2

Wie im zeitkontinuierlichen Fall resultiert somit das Spektrum


fA
(j(f f0 ) + j(f + f0 ))
Y (f ) =
2
fr die zeitdiskrete Hilbert-Transformierte yn . Dies entspricht im Zeitbereich gerade
wieder der Sinusfunktion:
yn = sin(2f0 ntA ) , n Z .

Will man fr Echtzeitanwendungen ein kausales Quadraturfilter endlicher Impulsantwort realisieren, so muss die Impulsantwort verzgert werden. Bei gerader Anzahl M
der Abtastschritte erhlt man ein schiefsymmetrisches FIR-Filter der Impulsantwort
'
(
+
M
2 (n 2 )
2
, 0 n M, n = M
sin
M
2
2
gQ,n = (n 2 )
.
0
, n < 0, n = M
,
n
>
M
2
Zur Verringerung des Leckeekts kann die Impulsantwort mit einer anderen Fensterfunktion anstelle des Rechteckfensters multipliziert werden.
In der Praxis wird man sich, wie bereits gesagt, auf die Betrachtung endlich vieler
Abtastwerte beschrnken. Um Beispiel 6.194 zu realisieren, unterwirft man das Eingangssignal und die Impulsantwort einer Zeitfensterung. Dies ist im nchsten Beispiel
durchgefhrt.
Beispiel 6.195 (Endliche Realisierung der Hilbert-Transformation)
Die endliche Eingangsfolge
yM,n = cos(2f0 ntA ) , n = 0, . . . , M
wird als Eingangssignal des endlichen kausalen Quadratur-Filters mit der Impulsantwort
'
(
+
(n M
2
2 )
, 0 n M, n = M
sin2
M
2
2
(n
)
gQ,M,n =
2
0
, n < 0, n = M
,
n
>
M
2

375

0.5

0.5
gQ,M,n

yM,n

6.9 Spezielle zeitdiskrete Filter

0
0.5

0
0.5

1
0

20

40
n

60

80

20

40
n

60

80

Abbildung 6.58: Endliche Cosinus-Schwingung und Impulsantwort des Hilbert-Transformators fr tA = 1[sec] und M = 40

0.5
0

M,n

*g

Q,M,n

0.5
1
0

20

40
n

60

80

Abbildung 6.59: Faltung einer endlichen Cosinus-Schwingung und einer endlichen kausalen Impulsantwort des HilbertTransformators fr tA = 1[sec] und M = 40

verwendet. In Abbildung 6.58 sind die endliche Schwingung und die Impulsantwort
des Hilbert-Transformators zu sehen. Entsprechend Bemerkung 5.90 ist die Impulsantwort zur Sicherung der Kausalittseigenschaft des Systems auf die doppelte Lnge
2M erweitert. Die Cosinus-Schwingung wird im zweiten Teilintervall mit Nullen aufgefllt (Zero-Padding).
Das entstehende Ausgangssignal
yM,n = gQ,M,n yM,n

, n = 0, . . . , M

wird nicht exakt der zeitdiskreten Hilbert-Transformation entsprechen, da durch die


Beschrnkung auf endlich viele Eingangswerte Fehler entstehen.
Das Resultat der Faltung findet sich in Abbildung 6.59. Man erkennt, dass aufgrund
der endlichen Folgen Fehler entstehen und das Ausgangssignal entsprechend der
kausalen Impulsantwort um M
2 verschoben ist. Im Bereich um M ist die Nherung
aber recht gut.

Nun soll auch noch das andere im kontinuierlichen Fall durchgefhrte Beispiel zeitdiskret
berechnet werden.

6 Zeitdiskrete Systeme

376

Beispiel 6.196 (Hilbert-Transformation einer zeitdiskreten Si-Funktion)


Auch hier soll zur Erfllung des Abtasttheorems lediglich der Fall f0 < f2A betrachtet
werden. Ausgangspunkt bildet die abgetastete si-Folge

sin(2f0 ntA )
fA
fA fA
yn =
.
Y (f ) =
r2f0 (f ) , f ,
2f0 ntA
2f0
2 2
Die Hilbert-Transformation ergibt wegen Y (f ) = Y (f ) GQ (f ) fr die HilbertTransformation der zeitdiskreten si-Funktion

jfA

, 0 < f < f0
2f0
jf

A
Y (f ) = +
, f0 < f < 0 .

2f0
0
, sonst

Die Rcktransformation in den Zeitbereich erfolgt durch Integration der Spektralfunktion:

f0

0
jfA j2f ntA
jfA j2f ntA
yn = tA
e
df tA
e
df
2f0
2f0
f0

0
10
0
1 f0
j
j
ej2f ntA
ej2f ntA
=
+
2f0 j2ntA
2f0 j2ntA
f0
0
1
0
1
0
j
j
=
1 ej2f0 ntA +
ej2f0 ntA 1
2f0 j2ntA
2f0 j2ntA
1
=
(1 cos(2f0 ntA ))
2f0 ntA

Definition 6.197 (Zeitdiskretes analytisches Signal)


Das zu einer reellen Wertefolge yn gehrige zeitdiskrete analytische Signal bestimmt
sich durch
zn = yn + j yn .

Das Leistungsdichtespektrum des analytischen Signals erhlt man durch die Korrelation
Rzz (k) = Ryy (k) + Ryy(k) + j [Ryy (k) Ryy(k)]
wie beim zeitkontinuierlichen analytischen Signal zu:

4SY Y (f ) , 0 < f < f2A


SZZ (f ) = 2SY Y (f ) , f = 0

0
, f2A f < 0, f =

(6.198)
fA
2

6.9 Spezielle zeitdiskrete Filter

377

Satz 6.199 (Zeitdiskretes analytisches Signal)


Das zu einer reellen Wertefolge yn gehrige zeitdiskrete analytische Signal zn besitzt nur Spektralanteile im positiven Frequenzbereich. Das Leistungsdichtespektrum
stimmt dort bis auf den Faktor mit dem Leistungsdichtespektrum von yn berein.
Die Erzeugung eines zeitdiskreten analytischen Signals wird nun an einem Beispiel illustriert.

Beispiel 6.200 (Zeitdiskretes analytisches Signal)


Betrachten wir das Signal yn = cos(2f0 ntA ). Die Hilbert-Transformierte berechnet
sich nach Beispiel 6.194 zu yn = sin(2f0 ntA ). Hieraus resultiert das zugehrige
zeitdiskrete analytische Signal:
zn = yn + j yn = cos(2f0 ntA ) + j sin(2f0 ntA ) = ej2f0 ntA .
Dieses hat das Spektrum
Z (f ) = Y (f ) + j Y (f )
1
j
= ((f + f0 ) + (f f0 )) + j ((f + f0 ) (f f0 ))
2
2
1
1
= ((f + f0 ) + (f f0 )) ((f + f0 ) (f f0 ))
2
2
= (f f0 ).
Es ist zu erkennen, dass aus den zwei Frequenzanteilen bei f0 ein einziger Frequenzanteil bei f0 entstanden ist, der aber die doppelte Amplitude besitzt.
Das Spektrum erhht sich im Gegensatz zum Leistungsdichtespektrum nur um
den Faktor zwei, da bei der Berechnung des Leistungsdichtespektrums sowohl die
Autokorrelationsfunktion des Signals als auch die Autokorrelationsfunktion der zugehrigen Hilbert-Transformierten einflieen.

6.9.2

Zeitdiskreter Dierenzierer

Zur Herleitung der Impulsantwort eines zeitdiskreten Dierenzierers bertrgt man


den Frequenzgang eines zeitkontinuierlichen Dierenzierers (Dierenziationssatz der
Fourier-Transformation) auf den zeitdiskreten Fall. Der Frequenzgang im Nyquistband
ist
GD (f ) =

j2f tA
0

, |f | fg
, sonst

mit einer vorgegeben Grenzfrequenz fg <


des zeitdiskreten Dierenzierers zu:

fA
2 .

Hieraus berechnet sich die Impulsantwort

6 Zeitdiskrete Systeme

378

gn = tA

fg

j2f tA ej2f tA n df

fg
n =0

j2f t2A

fg
 fg
1
1
j2f tA n 
ej2f tA n df
j2t2A
e


j2tA n
j2tA n
fg
fg



tA fg  j2fg tA n
1  j2fg tA n
e
=
e
+ ej2fg tA n
ej2fg tA n
2
n
j2n
1
tA fg
sin(2fg tA n)
= 2
cos(2fg tA n)
n2
n
fg 1
1
fg
fg
= fA cos( fA n)
sin( fA n) .
2
n
n
2
2
2
Fr fg =

fA
2

erhlt man:

0
gn = 1
n cos(n)

,n = 0
, sonst

Die Impulsantwort ist akausal. Fr eine kausale Impulsantwort endlicher Lnge muss
gn auf ein Beobachtungsfenster mit M Abtastschritten begrenzt und um M
2 verzgert
werden. Man erhlt fr gerade M die schiefsymmetrische kausale Impulsantwort:
+
1
M
, 0 n M, n = M
M cos((n 2 ))
2
gD,kaus,n = n 2
(6.201)
0
,n = M
,
n
<
0,
n
>
M
2
Diese ist in Abbildung 6.60 dargestellt. Der dazugehrige Frequenzgang ist
GD,kaus (f ) = 2f tA ej(2f tA

M
2

2)

(6.202)

Somit besitzt der kausale Dierenzierer eine verallgemeinert lineare Phase, vgl. Abschnitt 6.5.
Impulsantwort des zeitdiskreten Differenzierers
1

gD,kaus,n

0.5
0

0.5
1
0

10
n

15

20

Abbildung 6.60: Impulsantwort des


zeitdiskreten Dierenzierers fr M = 20

6.9 Spezielle zeitdiskrete Filter

6.9.3

379

Korrektur der Gruppenlaufzeit eines Filters

Nach dem Entwurf eines Filters, beispielsweise nach den Methoden in Abschnitt 6.8,
weist dieses Filter den gewnschten Amplitudengang oder eine Approximation desselben
auf. Soll der Phasengang ebenfalls einen gewnschten Verlauf besitzen, welcher von dem
sich durch den Entwurf ergebenden Verlauf abweicht, so muss der Phasengang korrigiert
werden. Dies kann durch Hinzufgen oder Abspalten eines Allpasses erreicht werden.
Der folgende Abschnitt zeigt eine Mglichkeit auf, mittels welcher solch eine Korrektur
vorgenommen werden kann. Hierzu wird exemplarisch ein Allpass mit zwei konjugiert
komplexen Pol- und Nullstellen verwendet, der die bertragungsfunktion
GA (z) =

)(1 zz )
(1 zz
)
(z z )(z z

, z = r ej

, |r | < 1

(6.203)

besitzt. Durch z = ej2f tA berechnet sich der Frequenzgang dieses Allpasses zu:
:
; :
;
1 r ej(2f tA ) 1 r ej(2f tA + )
;
;
:
GA (f ) = j2f t :
A 1 r ej(2f tA ) ej2f tA 1 r ej(2f tA + )
e

Die Nullstellenwinkel sind nach der Herleitung in Bemerkung 6.105




r sin(2f tA )
1 = arctan
1 r cos(2f tA )


r sin(2f tA + )
2 = arctan
1 r cos(2f tA + )

und die Polstellenwinkel:


r sin(2f tA )
1 r cos(2f tA )


r sin(2f tA + )
2 = 2f tA + arctan
1 r cos(2f tA + )

1 = 2f tA + arctan

Insgesamt ist der Phasenwinkel:




(f ) =

r sin(2f tA )
= 4f tA 2 arctan
1 r cos(2f tA )


r sin(2f tA + )
.
2 arctan
1 r cos(2f tA + )

Die Gruppenlaufzeit ergibt sich daraus durch Ableitung:




1 r2
1 r2
g (f ) = tA
+
.
1 2r cos(2f tA ) + r2
1 2r cos(2f tA + ) + r2

Im folgenden Beispiel wird durch Hinzufgen des Allpasses aus Gleichung (6.203) die
Korrektur einer Gruppenlaufzeit vorgenommen.

6 Zeitdiskrete Systeme

380
Beispiel 6.204 (Korrektur einer Gruppenlaufzeit)

Als Grundlage der folgenden Betrachtungen dient das zeitdiskrete IIR-System aus
Beispiel 6.121. Fr die bertragungsfunktion
G(z) =

bz
za

, |a| < 1

ergibt sich mit den Parametern a = b = 0,5 der in Abbildung 6.61 dargestellte
Amplituden- und Phasengang:
 '
(


A(f ) = G z = ej2f tA  ,
? '
(@
(f ) = arg G z = ej2f tA
.
Die Gruppenlaufzeit entsteht durch Ableiten und Gewichten des Phasengangs
g (f ) =

1 d
(f )
2 df

und ist in Abbildung 6.62 zu sehen.


1

0.8

A(f)

A(f)

0.6

0.4
2

0.2
0
0.5

0
f [Hz]

0.5

4
0.5

0
f [Hz]

0.5

Abbildung 6.61: Amplitudengang und Phasengang des zeitdiskreten IIR-Filters


fr a = b = 0,5
3

10

x 10

g(f)

6
4
2
0
0.5

0
f [Hz]

0.5

Abbildung 6.62: Gruppenlaufzeit des zeitdiskreten IIR-Filters fr a = b = 0,5

6.9 Spezielle zeitdiskrete Filter

10

x 10

381

r =0.2 , =0.3927

10

6
g,A

g,A

0
0
f [Hz]
3

10

x 10

0.5

0.5

r=0.2 , =2.138

0
f [Hz]
3

10
8

x 10

0.5

r=0.75 , =2.138

g,A

(f)

(f)

g,A

0.5

r =0.75 , =0.3927

(f)

(f)

x 10

0
0.5

0
0
f [Hz]

0.5

0.5

0
f [Hz]

0.5

Abbildung 6.63: Gruppenlaufzeiten der zeitdiskreten Allpsse GA (z) bei den gewhlten Polen

Ab ca. |f | > 0,2 Hz ist die Gruppenlaufzeit negativ. Erwnscht sei ein Filter mit ausschlielich positiver Gruppenlaufzeit. Dazu wird ein Allpass nach Gleichung (6.203)
in Serie geschaltet.
Zur Korrektur der Gruppenlaufzeit werden vier verschiedene Pol-NullstellenKonfigurationen des Allpasses betrachtet. Hierzu geben wir den Pol z = r ej
mit den willkrlich gewhlten Radien r = 0,2 und r = 0,75 bzw. den Argumenten
= 22,5 (0,3927 rad) bzw. = 122,5 (2,138 rad) vor. Mit diesen entstehen fr
den Allpass
GA (z) =

)(1 zz )
(1 zz
)
(z z )(z z

die in Abbildung 6.63 gezeigten Gruppenlaufzeiten.


Diese vier verschiedenen Allpsse werden nun auf ihre Eignung zur Korrektur der
Gruppenlaufzeit des ursprnglichen IIR-Systems G(z) untersucht. Hierzu schaltet
man diese Allpsse zu dem System G(z) in Serie, woraus das neue Gesamt-System
Gges (z) = G(z) GA (z) entsteht. Wegen
|Gges (f )| = |G(f )| |GA (f )| = |G(f )|

6 Zeitdiskrete Systeme

382

x 10

10

g,ges(f)

6
4

0
0
f [Hz]

x 10

0.5

0.5

r=0.2 , =2.138

4
2

r =0.75 , =0.3927

0
f [Hz]
3

10

x 10

0.5

r=0.75 , =2.138

4
2

0
0.5

x 10

(f)

10

g,ges

0.5

r =0.2 , =0.3927

g,ges(f)

g,ges

(f)

10

0
0
f [Hz]

0.5

0.5

0
f [Hz]

0.5

Abbildung 6.64: Gruppenlaufzeiten des resultierenden Gesamtsystem Gges (z) nach Korrektur
der Gruppenlaufzeit bei den gewhlten Polen

ndert sich der Amplitudengang hierdurch nicht. Der Phasengang des Systems
Gges (z) ist
ges (f ) = (f ) + A (f ),
woraus sich entsprechend fr die Gruppenlaufzeit
g,ges (f ) = g (f ) + g,A (f )

(6.205)

ergibt. Die aus der Gleichung (6.205) fr die vier mglichen Kombinationen entstehenden Gruppenlaufzeiten g,ges (f ) des Gesamtsystems Gges (z) sind in Abbildung
6.64 dargestellt. Ein Allpass mit r = 0,2, = 2, 138 rad bringt fr das Gesamtsystem eine annhernd konstante Gruppenlaufzeit und damit eine lineare Phase.
Fr r = 0,2 und = 2,138 lautet die Dierenzengleichung des phasenkorrigierten
IIR-Filters:
ya,n 0,2851ya,n1 0,0675ya,n2 0,02ya,n3
= 0,02ye,n 0,1075ye,n1 + 0,5ye,n2 .

Zusammenfassung der
Fourier-Transformationen

Die im Buch vorgestellten Fourier-Transformationen zur Spektraluntersuchung von Signalen werden kurz wiederholt und gegeneinander abgegrenzt.
Die mathematischen Zusammenhnge zwischen den Signalen und ihren Spektren bei
den Fourier-Transformationen findet man in Tabelle A.1. In Abbildung A.1 werden
exemplarisch entsprechende Signale und deren Spektren dargestellt.

Fourier-Transformation
Die Fourier-Transformation stellt die allgemeine Form zur Spektralanalyse dar. So lassen
sich die Fourier-Reihe, die Fourier-Transformation zeitdiskreter Signale und die diskrete
Fourier-Transformation mit Hilfe der Fourier-Transformation darstellen.

Fourier-Reihe
Die Fourier-Reihe verwendet man zur Spektraluntersuchung periodischer, zeitkontinuierlicher Signale. Das Spektrum ist frequenzdiskret und nicht periodisch.
Bei einer Periodendauer von T0 betrgt der Abstand der Frequenzlinien damit f =

1
T0 .

Fourier-Transformation zeitdiskreter Signale


Bei der Fourier-Transformation zeitdiskreter Signale wird das im Zeitbereich nicht periodische Signal quidistant mit der konstanten Abtastzeit tA abgetastet. Das Spektrum
ist frequenzkontinuierlich und mit der Abtastfrequenz fA = t1A periodisch. Es gilt
Y (f ) = fA

k=

Y (f kfA ).

Das zeitdiskrete Signal kann man als Folge yn oder als eine Funktion in Form einer
Impuls-Reihe darstellen. Die Hhe der Impulse entspricht dem Funktionswert des abgetasteten Signals
y (t) = y(t)

n=

(t ntA )

A Fourier-Transformationen

384
bzw. den einzelnen Folgengliedern
y (t) =

n=

yn (t ntA ).

Diskrete Fourier-Transformation, DFT


Bei der diskreten Fourier-Transformation, DFT, ist das Signal zeitdiskret und ber N
Abtastwerte periodisch. Das Spektrum ist entsprechend frequenzdiskret und ber N
Frequenzwerte periodisch.
Die Periodendauer T0 des Signals lautet T0 = N tA . Hieraus folgt der Abstand der
1
Frequenzlinien im Spektrum f = T10 = N t
und Periodizitt mit der Abtastfrequenz
A
1
fA = tA .
Erwhnenswert ist, dass sowohl bei der Hin- als auch bei der Rck-Transformation
weder eine Frequenz noch eine Zeit bzw. Zeitdauer bentigt wird. Zwar impliziert der
Zeitindex n die Zeit t, gerechnet wird in beiden Fllen aber nur mit den Zahlenfolgen.

A Fourier-Transformationen

385

Ambivalenz zwischen Diskretisierung und Periodizitt


Es zeigt sich, dass die Diskretisierung im Signal bzw. im Spektrum und die Periodizitt
im Spektrum bzw. im Signal ambivalent sind. Dies wird in folgender Tabelle dargestellt.
Tabelle A.1: Tabelle der Fourier-Transformationen

Eigenschaft im
Zeitbereich
Frequenzbereich
zeitkontinuierlich nicht periodisch
zeitdiskret periodisch
periodisch frequenzdiskret
nicht periodisch frequenzkontinuierlich
Fourier-Transformation

y(t) =

Y (f )ej2f t df

Y (f ) =

y(t)ej2f t dt

Fourier-Reihe (periodische Signale)


T0

yp (t) =

Yk

j2 Tk0 t
e

Yk =

k=

1
T0

yp (t)e

j2 Tk0 t

dt

T0
2

Fourier-Transformation zeitdiskreter Signale


fA

y n = tA

Y (f )ej2f ntA df

Y (f ) =

fA
2

n=

yn ej2f ntA

Diskrete Fourier-Transformation

yn =

N 1
kn
1 
Yk ej2 N
N
k=0

Yk =

N
1


kn

yn ej2 N

n=0

In den Tabellen A.2, A.3 und A.4 findet man eine bersicht ber die Eigenschaften,
Rechenregeln und Korrespondenzen der Fourier-Transformation.
Weitere Korrespondenzen sind in [BS00] zu finden.

A Fourier-Transformationen

386

Spektrum frequenzkontinuierlich, nicht periodisch

y(t)

|Y(f)|

Signal zeitkontinuierlich, nicht periodisch

f [Hz]
Spektrum frequenzdiskret, nicht periodisch

|Y |

y (t)

t [sec]
Signal zeitkontinuierlich, periodisch

k
Spektrum frequenzkontinuierlich, periodisch

|Y (f)|

t [sec]
Signal zeitdiskret, nicht periodisch

f [Hz]
Spektrum frequenzdiskret, periodisch

|Y |

n
Signal zeitdiskret, periodisch

Abbildung A.1: Gegenberstellung der Signale und deren Spektren

A Fourier-Transformationen

387

Tabelle A.2: Eigenschaften der Fourier-Transformation

Linearkombination
c1 y1 (t) + c2 y2 (t)

c1 Y1 (f ) + c2 Y2 (f )

Y (f )

Konjugiert komplexe Funktionen


y (t)

Umkehrung der Zeit- bzw. Frequenzachse


y(t)

Y (f )

Y (t)

y(f )

y(t) reell, gerade

Y (f ) reell, gerade

y(t) reell, ungerade

Y (f ) imaginr, ungerade

y(t) imaginr, gerade

Y (f ) imaginr, gerade

y(t) imaginr, ungerade

Y (f ) reell, ungerade

Symmetrieeigenschaft

Gerade und ungerade Funktionen

Positive Signale
y(t) 0

|Y (f )| Y (0)

Grenzwert des Spektrums

|y(t)| dt <

lim Y (f ) = 0

A Fourier-Transformationen

388
Tabelle A.3: Rechenregeln der Fourier-Transformation

Mastabsnderung, Skalierung
y(at)

a R = 0

 
1
f
Y
|a|
a

Zeitverschiebung

t0 R
y(t t0 )

ej2f t0 Y (f )

Modulation

f0 R
ej2f0 t y(t)

Y (f f0 )

(j2f )n Y (f )

Dierenziation der Zeitfunktion


y (n) (t)

Dierenziation der Spektralfunktion


(j2t)n y(t)
Integration der Zeitfunktion

t
y( ) d

Multiplikation im Zeitbereich
y1 (t) y2 (t)
Faltung im Zeitbereich

y1 (t)y2 (t) = y1 ( )y2 (t ) d

Y (n) (f )

Y (f ) 1
+ Y (0)(f )
j2f
2

|y (t)|2 dt < i = 1, 2
i

Y1 (f )Y2 (f ) = Y1 ()Y2 (f ) d

i = 1, 2 t : |yi (t)| < M

Y1 (f ) Y2 (f )

A Fourier-Transformationen

389

Tabelle A.4: Korrespondenzen der Fourier-Transformation

1 (f )

n=

(t nT )
sign(t)

(t) =

rT (t) =

dT (t) =

2
T

1 , fr t 0
0 , fr t < 0

1 , fr |t|

0 , fr |t| >

T
2
T
2

t + 1 , t [ T2 , 0]

2
T

T
2

t , t [0, ]
, sonst




1 
k
f
T
T
k=

j
f

j
1
(f )
2
2f

T si(f T )

cos(2f0 t)
sin(2f0 t)
ea|t| , a > 0



T
T 2
si f
2
2
1
((f + f0 ) + (f f0 ))
2
j
((f + f0 ) (f f0 ))
2
2a
a2 + (2f )2

ea|t| sign(t), a > 0 j


eat (t), a > 0
teat (t), a > 0
2
eat , a > 0

4f
a2 + (2f )2

1
a + j2f
1
(a + j2f )2
)

(f )2 /a
e
a

Zusammenfassung der
Laplace-Transformation

Die Laplace-Transformation bildet eine Zeitfunktion y(t) in den s-Bereich mit einer komplexen Variable s ab. Die Transformationsvorschriften sind fr die einseitige LaplaceTransformation, welche aus bereits dargelegten Grnden hauptschlich betrachtet wird,
durch
Y (s) = L{y(t)} =

y(t) = L

y(t)est dt

1
{Y (s)} =
j2

c+j

Y (s)est ds

cj

gegeben. Der Integrationsweg parallel zur imaginren Achse muss in der Konvergenzhalbebene H verlaufen, d.h. auf dem Integrationsweg, und rechts davon ist Y (s) analytisch.
In den Tabellen B.1, B.2 und B.3 findet man eine bersicht ber die Eigenschaften,
Rechenregeln und Korrespondenzen der Laplace-Transformation.
Weitere Korrespondenzen sind in [BS00] zu finden.

B Laplace-Transformation

392
Tabelle B.1: Eigenschaften der Laplace-Transformation

Linearkombination
c1 y1 (t) + c2 y2 (t)

c1 Y1 (s) + c2 Y2 (s)

Inneres Produkt

Anfangswertsatz

y1 (t)y2 (t) dt

Y1 (s)Y2 (s) ds

lim y(t)

lim y(t)

t0+

lim sY (s)

Endwertsatz

lim sY (s)

s0

B Laplace-Transformation

393

Tabelle B.2: Rechenregeln der Laplace-Transformation

Zeitverschiebung nach rechts, t0 > 0

t
s
0
e
Y (s) +

et0 s Y (s)

y(t) et

Y (s )

y(at)

1 's(
Y
a
a

sn Y (s)

Y (n) (s)

1
Y (s)
s

1
j2

y(t t0 )

t0

y(t)est dt

Zeitverschiebung nach links, t0 > 0


y(t + t0 )

t0

y(t)est dt

Dmpfung der Zeitfunktion, C

Skalierungssatz, a > 0

Dierenziation der Zeitfunktion


y (n) (t)
Dierenziation der Bildfunktion
(1)n tn y(t)
Integration der Zeitfunktion

t
y( ) d
0

n1


sn1i y (i) (0)

i=0

Multiplikation im Zeitbereich
y1 (t) y2 (t)

c+j

Y1 (z)Y2 (s z) dz

cj

Faltung im Zeitbereich

y1 (t)y2 (t) = y1 ( )y2 (t ) d

Y1 (s) Y2 (s)

B Laplace-Transformation

394

Tabelle B.3: Korrespondenzen der Laplace-Transformation (Dabei ist stets y(t) = 0 fr


t < 0)

(t t0 ), t0 > 0 et0 s
1 bzw. (t)
t
1 2
t
2
1 n
t
n!

et

tet

1 n t
t e
n!
t
1
(t) e T
T

1 e T


t

T
tT 1e

sin(t)
cos(t)
et sin(t)
et cos(t)

1
s
1
s2
1
s3
1
sn+1
1
s
1
(s )2
1
(s )n+1
Ts
1 + Ts
1
s(1 + T s)
1
s2 (1 + T s)

2
s + 2
s
2
s + 2

2
s + 2s + 2 + 2
s+
2
s + 2s + 2 + 2

Zusammenfassung der
z-Transformation

Die z-Transformation bildet eine Wertefolge yn , n Z, in den z-Bereich mit einer


komplexen Variablen z ab. Die Transformationsvorschriften sind durch

Y (z) = Z{yn } =

yn z n

n=

yn = Z 1 {Y (z)} =

1
j2

Y (z)z n1 dz

gegeben. Y (z) ist nur fr solche z definiert, fr welche die Reihe absolut konvergiert.
Das Konvergenzgebiet R ist immer ein Kreisringgebiet. Der Integrationsweg C ist ein
einfacher geschlossener Weg, der ganz im Innern des Konvergenzgebietes R verluft und
smtliche Singularitten der z-Transformierten Y (z) umschliet.
In den Tabellen C.1, C.2 und C.3 findet man eine bersicht ber die Eigenschaften,
Rechenregeln und Korrespondenzen der z-Transformation.
Weitere Korrespondenzen sind in [BS00] zu finden.

C z-Transformation

396
Tabelle C.1: Eigenschaften der z-Transformation

Linearkombination
c1 y1n + c2 y2n

c1 Y1 (z) + c2 Y2 (z)

Anfangswertsatz, yn = 0 , n < 0
y0

lim yn

lim Y (z)

Endwertsatz

lim (z 1)Y (z)

z1

Summation

yn

Y (1)

y1n y2n

1
j2

n=

Parsevalsche Gleichung

n=

Y1 (z)Y2

 
1 dz
z z

C z-Transformation

397

Tabelle C.2: Rechenregeln der z-Transformation; ursprngliches Konvergenzgebiet


ri+ < |z| < ri

Verschiebungssatz
ynn0

z n0 Y (z) , r+ < |z| < r

Verschiebung nach links fr kausale Wertefolgen


yn+n0

, n0 0

z n0 Y (z)

nyn

yn an

 
1
Y
z

1
j2

Lineare Gewichtung
dY (z)
dz

n
0 1

y i z n0 i

i=0

, r+ < |z|

, r+ < |z| < r

Modulation der Wertefolge


'z (

, ar+ < |z| < ar

Zeitumkehr
yn

1
1
< |z| <
r
r+

Multiplikation im Zeitbereich
y1n y2n

Y1 ()Y2

, r1+ r2+ < |z| < r1 r2

Faltung im Zeitbereich
y1n y2n =

m=

y1m y2(nm)

 
z d

Y1 (z) Y2 (z)
, maxi {ri+ } < |z| < mini {ri }

C z-Transformation

398

Tabelle C.3: Korrespondenzen der z-Transformation inklusive Konvergenzgebieten

nk =

1 ,n = k
0 , n = k

nk =

1 ,n k
0 ,n < k

z k+1
z1

1 , n 1
0 ,n 0

z
z1

n n

z
(z 1)2

, 1 < |z|

n2 n

z(z + 1)
(z 1)3

, 1 < |z|

an1 n1

1
za

, |a| < |z|

an n

z
za

, |a| < |z|

nan n

za
(z a)2

rn sin(n) n

zr sin()
z 2 2zr cos() + r2

, r, R+ , 0 r < |z|

rn cos(n) n

z(z r cos())
z 2 2zr cos() + r2

, r, R+ , 0 r < |z|

an , 0 n N 1
0 , sonst

z N 1 (z

n1 =

1 , alle z

0 < |z| , k > 0


|z| < , k < 0
,

1 < |z|
,k 0
1 < |z| < , k < 0

, |z| < 1

, |a| < |z|

z N aN
a)

, 0 < |z|

Blockbilder

In Abbildung D.1 sind die vier wichtigsten Blockbilder dargestellt. Dabei finden die
Addition, Subtraktion und die Verstrkung sowohl im zeitkontinuierlichen als auch im
zeitdiskreten Bereich Anwendung. Die Integration kommt nur im zeitkontinuierlichen
und die Verzgerung nur im zeitdiskreten Fall vor.

a+b-c

a(t)

a(t ) dt
-

c
Addition / Subtraktion

k
Verstrkung

Integration

ka

an

z-1

a n-1

Zeitverzgerung

Abbildung D.1: Blockbilder fr den zeitkontinuierlichen und zeitdiskreten Bereich

Herleitung der
Spline-Interpolation

Das Ziel ist die Interpolation einer vorgegebenen Funktion y(t) durch die Funktion
s(t) in dem Intervall [x0 , xN ] mit den Sttzstellen xi , i = 0, . . . , N und den Werten
yi = s(xi ) , i = 0, . . . , N. Hierzu bezeichnet man die Interpolationsfunktion in dem
Intervall [xi , xi+1 ] mit si (t), die sich zur Gesamtfunktion s(t) zusammensetzen. Die
Spline-Interpolation ergibt sich nach [KE05] aus den folgenden Forderungen an die
Funktion s(t):
si (xi )
si (xi + 0)
s0 (x0 )
s(4) (x)

= yi
, i = 0, . . . , N
= si1 (xi 0) , i = 1, . . . , N 1
= sn1 (xN )
=0
,x
/ {x0 , . . . , xN }

(E.1)

Diese Forderungen fhren zu einer Funktion, die in den Sttzstellen mit der Originalfunktion bereinstimmt und die in jedem Teilintervall ein Polynom dritter Ordnung ist,
vgl. [Kro91]. Aus diesem Grund bezeichnet man die interpolierende Funktion s(t) als
kubischen Spline.
Zur Berechnung solch eines Splines setzt man hi = xi+1 xi und whlt
si (t) = ai (x xi )3 + bi (x xi )2 + ci (x xi ) + di

(E.2)

als Ansatz fr das gesuchte Polynom. Durch oben aufgefhrte Bedingungen folgt:
si (xi )
si (xi+1 )
si (xi )
si (xi+1 )
si (xi )
si (xi+1 )

= di
= ai h3i + bi h2i + ci hi + di
= ci
= 3ai h2i + 2bi hi + ci
= 2bi
= 6ai hi + 2bi

= yi
= yi+1
= yi

= yi+1

Es resultieren die Berechnungsvorschriften:




yi
ai = 6h1 i yi+1
bi = 12 yi


ci = h1i (yi+1 yi ) h6i yi+1
+ 2yi
d i = yi

(E.3)

E Herleitung der Spline-Interpolation

402

Die Berechnung der gesuchten Koezienten ist auf die Bestimmung der Werte yi zurckgefhrt, die sich als Lsung des linearen Gleichungssystems

y1
2(h0 + h1 )
h1
0

0
y2

h
2(h
+
h
)
h
0

0
1
1
2
2

..

..
..
..

.
.
.
.
0

0 0 hN 2 2(hN 2 + hN 1 )

6
6

y
(y
1 ) + h0 (y1 y0 )
h1 2
6
6

h2 (y3 y2 ) + h1 (y2 y1 )

..

.
6
6
hN 1 (yN yN 1 ) + hN 2 (yN 1 yN 2 )

yN
1

ergeben. Da y0 und yN
vorgegeben sind, kann nach der Lsung des Gleichungssystems
die Interpolationsfunktion in jedem Teilintervall angegeben werden. Exemplarisch wird
dies bei der Angabe der Impulsantwort eines Spline-Rekonstruktionsfilters durchgefhrt:

Beispiel 5.4 (Impulsantwort eines Spline-Rekonstruktionsfilters)


Geben wir uns mit N = 4 die Sttzstellen x0 = 2, x1 = 1, x2 = 0, x3 = 1, x4 = 2

und die Bedingungen g0 (x0 ) = gN


1 (xN ) = 0 vor, so erhalten wir mit y0 = 0, y1 =
0, y2 = 1, y3 = 0, y4 = 0 und hi = 1 fr alle Indizes i die Gleichung

2 (2) 1
0
y1
6 (1) 6 (0)
1 2 (2) 1 y2 = 6 (1) 6 (1)
(E.5)
0
1 2 (2)
6 (0) 6 (1)
y3

und daraus

y1
18/7
y2 = 30/7 .
y3
18/7

Durch Ausrechnen der Parameter ai , bi , ci , di folgt


3
(t + 2)3 37 (t + 2)

78
(t + 1)3 + 97 (t + 1)2 + 67 (t + 1)
g(t) = 8 73 15 2
t 7 t +1

73
7 (t 1)3 + 97 (t 1)2 67 (t 1)

(E.6)

, 2 t 1
, 1 t 0
,0 t 1
,1 t 2 .

(E.7)

Symbole

Die Auflistung der Symbole spiegelt die Verwendungsweise in diesem Buch wider. Dabei
wurde die internationale Schreibweise beachtet. Es muss jedoch darauf hingewiesen
werden, dass sich in anderen Bchern, Schriften etc. die Schreibweise unterscheiden
kann.
A Systemmatrix
A(f ) Amplitudengang
ak reeller Fourier-Koezient
B Bandbreite
B Steuermatrix
bk reeller Fourier-Koezient
C Beobachtungsmatrix
CXY

Kreuzkovarianz

ck komplexer Fourier-Koezient
d2T (t) Dreiecksfunktion
D Durchschaltmatrix
f Frequenzauflsung
f Bandbreite
t Zeitdauer
(t) Dirac-Impuls
E{ } Erwartungswertoperator
F Fourieroperator

F Allgemeine
Transformationsmatrix

FY (y, t) Wahrscheinlichkeitsverteilung
f Frequenz
f0 Mittenfrequenz,
Schwingfrequenz

fS Grenzfrequenz des
Sperrbereiches
fY (y) Wahrscheinlichkeitsdichte
G(s) bertragungsfunktion eines
zeitkontinuierlichen Systems
G(z) bertragungsfunktion eines
zeitdiskreten Systems
g(t) Impulsantwort eines
zeitkontinuierlichen Filters,
zeitkontinuierliches Fenster
gn Impulsantwort eines
zeitdiskreten Filters,
zeitdiskretes Fenster
H Hadamard-Matrix
j imaginre Einheit
k Index Frequenzbereich
K Filter-Ordnung
L Laplaceoperator

Mittelwert, Moment

N Anzahl der Abtastwerte


n Index Zeitbereich
Frequenzverschiebung
Normierte Kreisfrequenz
Kreisfrequenz

fA Abtastfrequenz

P () Wahrscheinlichkeit

fD Grenzfrequenz des
Durchlassbereiches

(f ) Phasengang

fN Nyquistfrequenz

(t) orthonormale bzw.


biorthogonale Basisfunktion

F Symbole

404
biorthogonale Basisfunktion
Verschiebungsoperator
Kreuzkorrelation
Rechteckfunktion
allgemeines System
Energie- bzw. Leistungsdichte
zeitdiskrete Energie- bzw.
Leistungsdichte
Sk diskrete Energie- bzw.
Leistungsdichte
(Periodogramm)
2 Varianz
(t) Sprungfunktion
T Zeitdauer
tA Abtastzeit

(t)
q
RXY
rT (t)
S
S(f )
S (f )

T0 Beobachtungsintervall,
Periodendauer
t Zeit, Zeitpunkte
Zeitverschiebung
g (f ) Gruppenlaufzeit
Y (f ) allgemeines Spektrum,
Frequenzgang
Y (f ) Spektrum eines zeitdiskreten
Signals
Yk diskretes Spektrum
y(t) allgemeines Signal
yn zeitdiskretes Signal
Z z-Operator

z(t) Zustandsgren

Literaturverzeichnis
[Ach78]

Achilles, D.: Die Fourier-Transformation in der Signalverarbeitung. Springer, Heidelberg, 1978.

[BS75]

Brammer, K. und G. Siffling: Stochastische Grundlagen des KalmanBucy-Filters. Oldenbourg, Mnchen, 1975.

[BS93]

Bolch, G. und M.-M. Seidel: Prozeautomatisierung. Teubner, Stuttgart,


2. Auflage, 1993.

[BS00]

Bronstein, I. N. und K. A. Semendjajew: Taschenbuch der Mathematik.


Verlag Harri Deutsch, Thun und Frankfurt/Main, 2000.

[CW04]

Clausert, H. und G. Wiesemann: Grundgebiete der Elektrotechnik. Oldenbourg, Mnchen, Wien, 9. Auflage, 2004.

[Doe76]

Doetsch, G.: Einfhrung in Theorie und Anwendung der LaplaceTransformation. Birkhuser, Basel, 1976.

[Fl80]

Fllinger, O.: Laplace- und Fouriertransformation. AEG-Telefunken, Berlin, 1980.

[Fl06]

Fllinger, O.: Regelungstechnik. Hthig, Heidelberg, 2006.

[Fli91]

Fliege, N.: Systemtheorie. Teubner, Stuttgart, 1991.

[Heu86]

Heuser, H.: Funktionalanalysis. Teubner, Stuttgart, 1986.

[Heu04]

Heuser, H.: Lehrbuch der Analysis. Teubner, Stuttgart, 2004.

[Hn83]

Hnsler, E.: Grundlagen der Theorie statistischer Signale. Springer, Berlin,


Heidelberg, New-York, 1983.

[HW98]

Heuser, H. und H. Wolf: Algebra, Funktionalanalysis und Codierung.


Teubner, Stuttgart, 1998.

[Ise74]

Isermann, R.: Prozeidentifikation. Springer, Berlin, Heidelberg, New York,


1974.

[Jn96]

Jnich, K.: Funktionentheorie: eine Einfhrung. Springer, Berlin, Heidelberg, 6. Auflage, 1996.

[Jon00]

Jondral, F.: Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse fr Ingenieure. Teubner, Stuttgart, 2000.

Literaturverzeichnis

406
[Jur64]

Jury, E.: Theory and Application of the z-Transform Method. John Wiley
& Sons, New York, 1964.

[KA78]

Kantorowitsch, L. W. und G. P. Akilow: Funktionalanalysis in normierten Rumen. Verlag Harri Deutsch, Frankfurt/Main, 1978.

[KE05]

Kiencke, U. und R. Eger: Metechnik. Springer, Heidelberg, 6. Auflage,


2005.

[KK02]

Kammeyer, K.D. und K. Kroschel: Digitale Signalverarbeitung. Teubner,


Stuttgart, 5. Auflage, 2002.

[Kro91]

Kronmller, H.: Digitale Signalverarbeitung. Springer, Berlin, Heidelberg,


1991.

[KSW08] Kiencke, U., M. Schwarz und T. Weickert: Signalverarbeitung ZeitFrequenz-Analyse und Schtzverfahren. Oldenbourg, Mnchen, 2008.
[Mar86]

Marko, H.: Methoden der Systemtheorie. Springer, Berlin, Heidelberg, NewYork, London, Paris, Tokyo, 2. Auflage, 1986.

[Mer96]

Mertins, A.: Signaltheorie. Teubner, Stuttgart, 1996.

[OS75]

Oppenheim, A. and R. Schafer: Digital Signal Processing. Prentice-Hall,


Englewood Clis, 1975.

[OS98]

Oppenheim, A. und R. Schafer: Digitale Signalverarbeitung. Oldenbourg,


Mnchen, Wien, 3. Auflage, 1998.

[Pap77]

Papoulis, A.: Signal Analysis. McGraw-Hill, New York, 1977.

[SS67]

Sauer, R. und I. Szabo: Mathematische Hilfsmittel des Ingenieurs, Band 1.


Springer, Heidelberg, 1967.

[Unb98]

Unbehauen, R.: Systemtheorie 2. Mehrdimensionale, adaptive und nichtlineare Systeme. Oldenbourg, Mnchen, Wien, 7. Auflage, 1998.

[Unb02]

Unbehauen, R.: Systemtheorie 1. Allgemeine Grundlagen, Signale und


lineare Systeme im Zeit- und Frequenzbereich. Oldenbourg, Mnchen, Wien,
8. Auflage, 2002.

Index
Abstand, 13
Funktion, 54
zweidimensionaler euklidischer
Raum, 13
Abtastfrequenz, 212, 233250, 259
Abtasttheorem, 213217, 230
Abtastzeit, 212, 259
Addition
Funktionen, 54
Vektoraddition, 14
adjungierter Operator, 33
Aliasing, 217
Allpass
zeitkontinuierlich, 178
Amplitude, 171, 306
Amplitudenfehler, 264
Amplitudengang, 171, 306
Analyse
harmonisch, 83
analytisches Signal, 204
Anti-Aliasing-Filter, 220
AR-Filter
zeitdiskret, 318
zeitkontinuierlich, 182
ARMA-Filter
zeitdiskret, 318
zeitkontinuierlich, 182
Ausgangsgleichung, 139, 281
Autokorrelation, 69
Leistungssignal, 76
Autokovarianz, 69
Bandbegrenzung, 213
Bandbreite, 119, 243
Bandpass
symmetrischer, 190
Bandspektren
symmetrisch, 245
unsymmetrisch, 247
Basis, 2026
orthogonal, 78

orthonormal, 21
Basisvektor, 6, 20
Beobachtungsdauer, 259
Beobachtungsfrequenz, 259
Beobachtungsmatrix, 141
Beobachtungszeit, 250
Besselsche Ungleichung, 25
bilineare Transformation, 338
biorthogonales Funktionensystem, 8283
Biorthogonalittsbedingung, 82
Bode-Diagramm, 175
Butterworth-Filter, 192
Cauchy-Kriterium, 25
Cauchysche Integralformel, 4143
Cauchyscher Integralsatz, 41
CD-Spieler, 65
Cosinus-Transformation, 99101
Dmpfung, 171
Darstellungsmatrix, 37
deterministisches Signal, 7883
DFT, 250254, 260, 262
Eigenschaften, 256
Energiesatz, 258
Faltungssatz, 257
Parsevalsche Formel, 258
Dierenzengleichung, 279282
Dierenzialgleichung, 137144
Dierenzialoperator, 37, 39
Dimension, 20
Dirac-Impuls
zeitdiskret, 276
zeitkontinuierlich, 101
diskrete Fourier-Transformation, 250254,
260, 262
inverse, 253
diskrete Transformationen, 267271
diskrete Zufallsvariable, 227
doppelseitige Exponentialfunktion, 106
Dreieckimpuls, 124

Index

408
Dreiecksungleichung, 13, 15, 18
Durchlassbereich, 188
Durchschaltmatrix, 141
Dynamik, 131, 275
Eigenvektor, 34, 35
selbstadjungierter Operator, 36
Einheitssprung, 104, 148
Einleitung, 39
Elektronenspin, 64
Energiedichte, 98, 232233
Energiesignal, 55
Ergodizitt, 7276
Erwartungswert, 59
euklidischer Raum, 14
Exponentialfunktion
doppelseitig, 106
Exponentialimpuls, 105
Exponentialsignal, 107
Exponentialverteilung, 63
Faltung, 95
Laplace-Transformation, 153
Fenster, 186188, 340350
Fensterfunktion, 111
Fensterfunktionen, 186188, 340350
FFT, 254
Filter, 188199, 350371
AR, 182, 318
ARMA, 182, 318
frequenzselektiv, 350371
MA, 182, 318
Filterentwurf, 351
Filtertransformation, 189
FIR, 277
Fourier-Reihe, 79, 8388
komplexe Darstellung, 87
Fourier-Transformation, 89101, 162
diskret, 250254, 260, 262
Eigenschaft, 9497
schnell, 254
zeitdiskret, 227233
Frequenzauflsung, 258
Frequenzband, 243
Frequenzfehler, 264
Frequenzgang, 137, 170, 278
Frequenzverschiebung, 97
Funktion, 32
holomorph, 4049

Funktional, 32
Funktionenaddition, 54
Funktionenraum, 15, 53
Funktionensystem
biorthogonal, 8283
orthogonal, 7882
orthonormal, 78
Gau-Impuls, 108
geometrische Reihe, 290
endliche, 261
Gibbssches Phnomen, 113118
Gleichverteilung, 60
Gramsche Matrix, 20, 21
Gruppenlaufzeit, 172, 307
Hadamard-Matrix, 271
harmonische Analyse, 83
hermitesche Matrix, 21
Hilbert-Raum, 19
Hilbert-Transformation, 200208
zeitdiskret, 373
holomorphe Funktion, 4049
IDFT, 253
IIR, 277
Impulsantwort, 132, 133, 276, 277
eines kausalen LTI-Systems, 133, 278
eines stabilen LTI-Systems, 135, 278
Impulsinvarianz, 334
Impulsreihe, 211
Innenprodukt, 1617, 78
Belegung, 58
Energiesignal, 57
Innenproduktraum, 16
Integraloperator, 37, 38
Integraltransformation, 27
Integration
numerisch, 337
Integrationskern, 27
Interpolationsfilter, 221
inverse z-Transformation, 289
geometrische Reihe, 290
Partialbruchzerlegung, 294
Polynomdivision, 293
Residuensatz, 291
Transformationstabelle, 297
kausal, 130

Index
Kausalitt
LTI-System, 133, 278
Kausalitt, 130, 275
Kern
reziproker, 27
komplexe Leistung, 18
komplexe Schwingung, 104
konstantes Signal, 103
Konvergenz
Laplace-Transformation, 147
z-Transformation, 285
Konvergenzgebiet, 149
Korrelation, 75, 7778, 97, 98
Energiesignal, 76
Leistungssignal, 76
Kovarianz, 75
Kreisfrequenz
normiert, 229
Kreuzkorrelation, 59, 69
Energiesignal, 76
Leistungssignal, 76
Kreuzkovarianz, 69
Laplace-Transformation, 144162
Dierenziation, 152
Eigenschaft, 150155
einseitige, 147
Faltung, 153
Grenzwertsatz, 153
inverse, 149
Konvergenz, 147
Linearitt, 150
Rcktransformation, 155
Skalierung, 152
Verschiebung im Frequenzbereich,
152
Verschiebung im Zeitbereich, 151
zweiseitige, 144
Laurent-Reihe, 4346
Leakage, 110113
Leckeekt, 110113, 262
Legendre-Polynome, 79
Leistungsdichte, 98, 232233
Leistungssignal, 55
lineare Unabhngigkeit, 21
lineare Vektortransformation, 3638
linearer Operator, 3140
linearer Raum, 1315

409
lineares, zeitinvariantes System, 132137,
276278
Linearitt, 128, 129, 274
LTI-System, 132137, 276278
kausal, 133
reellwertig, 165
stabil, 131
MA-Filter
zeitdiskret, 318
zeitkontinuierlich, 182
mathematische Grundlagen, 1149
Matrixoperator, 33
mehrdimensionale Verteilungsfunktion, 66
mehrdimensionale
Wahrscheinlichkeitsdichte, 66
Mehrgrensystem, 137, 141, 279
metrischer Raum, 13
MIMO, 137, 279
Minimalphasensystem
zeitdiskret, 315
zeitkontinuierlich, 178
MISO, 137, 279
Mittelwert, 59
Mittelwertbilder
zeitdiskret, 326
Mittenfrequenz, 243
Modulation, 97
Moment, 6770, 75
erstes, 69
stochastischer Prozess, 68
zentrales, 68, 75
zweites, 69
zweites zentrales, 69
Norm
Belegung, 58
Energiesignal, 57
Leistungssignal, 58
Normalverteilung, 61
normierte Kreisfrequenz, 229
normierter Raum, 1516
Nullstelle, 164
numerische Integration, 337
Nyquistband, 221, 259
Nyquistfrequenz, 221
o-line, 233
on-line, 234

410
Operator, 3140
adjungiert, 33
Beschrnktheit, 33
Dierenzialoperator, 37, 39
Integraloperator, 37, 38
linear, 3140
selbstadjungiert, 35
Stetigkeit, 33
unitr, 36
unitrer Matrixoperator, 36
Verschiebungsoperator, 40
Ordnung eines Systems, 139
orthogonale Basis, 78
orthogonale Projektion, 26
orthogonaler Raum, 24
orthogonales Funktionensystem, 7882
Orthogonalitt, 17
orthonormale Basis, 21
orthonormales Funktionensystem, 78
Parselvalsche Beziehung, 93
Partialbruchzerlegung, 158, 294
Periodizitt, 229
Periodogramm, 267
Phase, 171, 306
Phasengang, 171, 306
Poissonsche Summenformel, 103
Pol-Nullstellenbertragung, 335
Polstelle, 164
Polynomdivision, 293
Projektionstheorem, 26
Prozess
stochastischer, 6378
Quadraturfilter, 200
zeitdiskret, 373
Raum, 1126
euklidisch, 14
Funktionenraum, 15, 53
Hilbert-Raum, 19
Innenproduktraum, 1617
linear, 1315
metrisch, 13
normiert, 1516
orthogonal, 24
unitr, 1819
Rauschspannung, 64
Rechenaufwand, 254

Index
Rechteckfunktion, 105
Rechteckregel
rckwrts, 338
vorwrts, 337
Rekonstruktion, 220226, 238
Rekonstruktionsfilter, 221
Residuensatz, 4749, 155, 291
Residuum, 47
Reziprozittsbedingung, 28
Riemann-Lebesguesches Lemma, 121126
RMS-Definition, 119
Root-Mean-Square-Definition, 119
Scharmittelwert, 72
Schmidtsches
Orthonormalisierungsverfahren,
22, 78, 79
schnelle Fourier-Transformation, 254
Schwarzsche Ungleichung, 16
Schwingung
komplex, 104
Selbstadjungierter Operator, 35
Signal
abgetastet, 228
deterministisch, 7883
Energiesignal, 55
kausal, 135
konstant, 103
Leistungssignal, 55
stochastisch, 5978, 227
Testsignal, 101108
zeitdiskret, 211271
zeitkontinuierlich, 53
Signaleigenschaften, 118126
Signalfolge, 9
Signalfunktion, 9
Signalklassen, 55
Signaltransformation, 7
Signalverarbeitung, 6
Signumfunktion, 103
SIMO, 137, 279
Simulation, 332340
Sinus-Transformation, 99101
SISO, 137, 279
Skalarmultiplikation, 14
Funktionen, 54
Spektralanalyse, 250267
Sperrbereich, 188

Index
Stabilitt, 131, 165, 276, 304
LTI-System, 135, 278
Stationaritt, 7072
statische Genauigkeit, 336
statistische Unabhngigkeit, 67
Steuermatrix, 141
stochastischer Prozess, 6378
stochastisches Signal, 5978, 227
Strukturbild
zeitdiskret, 318
zeitkontinuierlich, 182
System, 4
linear
zeitinvariant, 132137, 276278
Stabilitt, 131, 276
zeitdiskret, 273382
Eigenschaften, 273279
zeitkontinuierlich, 127208
Eigenschaften, 127137
Systemfunktion, 162186
Systemmatrix, 141
Systemordnung, 139
Testsignal, 101108
Tiefpass
normiert, 189
Entwurf, 191
Toleranzschema, 189
Transformation
bilineare, 338
Trapezregel, 338
Tschebysche-Filter, 196
berabtastung, 234
Rekonstruktion, 238
berschwinger, 117
unitrer Matrixoperator, 36
unitrer Operator, 36
unitrer Raum, 1819
Unterabtastung, 242
Vektoraddition, 14
Vektortransformation
linear, 3638

411
verallgemeinerter Fourier-Koezient, 25
Verschiebungsoperator, 40
Verteilungsfunktion, 65
mehrdimensional, 66
Vorzeichenfunktion, 103
Wahrscheinlichkeitsdichte, 6063, 6567
mehrdimensional, 66
Wahrscheinlichkeitsverteilung, 6063
Walsh-Transformation, 267
Walshfunktionen, 267, 268
Walshleistungsspektrum, 268
z-Transformation, 282301
Anfangswerttheorem, 300
Eigenschaften, 297
Endwerttheorem, 301
Existenz, 285
invers, 289
Konvergenz, 285
Zeitdauer, 119
Zeitdauer-Bandbreite-Produkt, 118121
zeitdiskrete Fourier-Transformation,
227233
zeitdiskretes Signal, 211271
Grundlage, 211226
zeitdiskretes System
Eigenschaften, 273279
Zeitdiskretisierung, 9, 211212
Zeitinvarianz, 129, 275
zeitkontinuierliche Signale, 53
zeitkontinuierliches System, 127208
Eigenschaften, 127137
Zeitkontinuum, 9
Zeitmittelwert, 73
Zeitverschiebung, 97
Zeropadding, 265
Zufallsvariable, 15
diskret, 227
Zustandsgleichung, 139, 281
Zustandsgre, 138
Zustandsraum, 138144, 280

Vous aimerez peut-être aussi