Hans Rudolf Schwarz Methode Der Finiten Elemente

Als pdf oder txt herunterladen
Als pdf oder txt herunterladen
Sie sind auf Seite 1von 437

Leitfäden der angewandten Mathematik und

Mechanik - Teubner Studienbücher 47


(ReihenKürzel wie LAMM; Titel haben anderen Einband)

Hans Rudolf Schwarz

Methode der
finiten Elemente
Eine Einführung unter
besonderer Berücksichtigung der
Rechenpraxis
Third Edition
Teubner Studienbücher Mathematik

Schwarz
Methode der finiten Elemente
Leitfäden der angewandten
Mathematik und Mechanik LAMM

Herausgegeben von
Prof. Dr. G. Hotz, Saarbrücken
Prof. Dr. P. Kali, Zürich
Prof. Dr. Dr.-Ing. E. h. K. Magnus, München
Prof. Dr. E. Meister, Darmstadt

Band 47

Die Lehrbücher dieser Reihe sind einerseits allen mathematischen Theo-


rien und Methoden von grundsätzlicher Bedeutung für die Anwendung
der Mathematik gewidmet; andererseits werden auch die Anwendungs-
gebiete selbst behandelt. Die Bände der Reihe sollen dem Ingenieur und
Naturwissenschaftler die Kenntnis der mathematischen Methoden, dem
Mathematiker die Kenntnisse der Anwendungsgebiete seiner Wissen-
schaft zugänglich machen. Die Werke sind für die angehenden Industrie-
und Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler be-
stimmt, darüber hinaus aber sollen sie den im praktischen Beruf Tätigen
zur Fortbildung im Zuge der fortschreitenden Wissenschaft dienen.
Methode der finiten Elemente
Eine Einführung unter besonderer
Berücksichtigung der Rechenpraxis

Von Dr. sc. math. Hans Rudolf Schwarz


ord. Professor an der Universität Zürich

3., neubearbeitete Auflage


Mit 170 Figuren, 59 Tabellen und
zahlreichen Beispielen

83 Springer Fachmedien Wiesbaden GmbH 1991


Prof. Dr. sc. math. Hans Rudolf Schwarz

Geboren 1930 in Zürich. Von 1949 bis 1953 Studium der Mathematik und
Diplom an der ETH Zürich. Von 1953 bis 1957 Mathematiker bei den F1ug-
und Fahrzeugwerken Altenrhein (Schweiz). 1957 Promotion, ab 1957 wiss.
Mitarbeiter an der ETH Zürich. 1962 Visiting Associate Professor an der
Brown University in Providence, Rhode Island, USA. 1964 Habilitation an
der ETH Zürich, von 1964 bis 1972 Lehrbeauftragter an der ETH Zürich.
1972 Assistenzprofessor, 1974 a.o. Professor, seit 1983 ord. Professor für
angewandte Mathematik an der Universität Zürich.

CIP-Titelaufnahme der Deutschen Bibliothek

Schwarz, Hans Rudolf:


Methode der finiten Elemente: eine Einführung
unter besonderer Berücksichtigung der Rechenpraxis
von Hans Rudolf Schwarz - 3., neubearb. Auf!.

(Leitfäden der angewandten Mathematik und Mechanik; Bd. 47)


(Teubner Studienbücher: Mathematik)
Erg. bildet: Schwarz, Hans Rudolf: FORTRAN-Programme zur
Methode der finiten Elemente
ISBN 978-3-519-22349-8 ISBN 978-3-663-10784-2 (eBook)
DOI 10.1007/978-3-663-10784-2

NE: 1. GT

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede
Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne
Zustimmung des Verlages unzulässig und strafbar. Das gilt besonders für Vervielfälti-
gungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbei-
tung in elektronischen Systemen.
© Springer Fachmedien Wiesbaden 1991
Ursprünglich erschienen bei B.G. Teubner Stuttgart 1991
Satz: Elsner & Behrens GmbH, Oftersheim

Umschlaggestaltung: W. Koch, Sindelfingen


Vorwort

Das vorliegende Buch entstand seinerzeit auf die Anregung meines verehrten
Lehrers, Herrn Prof. Dr. E. Stiefel. Es richtet sich an Mathematiker,
Physiker, Ingenieure und Naturwissenschaftler, die an einer einfachen, auf die
praktische und effiziente Durchführung ausgerichteten einführenden Darstel-
lung der Methode der finiten Elemente interessiert sind.
Im elementar gehaltenen, einführenden Lehrbuch werden die Grundprinzi-
pien der Methode der finiten Elemente für ein- und zweidimensionale
Probleme eingehend dargelegt. Die Verallgemeinerung der Ideen und Vorge-
hensweisen zur Lösung von dreidimensionalen Aufgaben liegt auf der Hand.
Die Behandlung von ein- und zweidimensionalen Problemstellungen bietet
den Vorteil anschaulich und durchsichtig zu sein. Es wurde versucht, aus dem
weiten Anwendungsbereich der Methode der finiten Elemente typische und
repräsentative Problemkreise auszuwählen und die zugehörigen Grundlagen
darzustellen. So werden zuerst die für die Physik und verschiedene Zweige der
Ingenieur- und Naturwissenschaften wichtigen stationären und instationären
Feldprobleme behandelt. Darunter fallen elliptische Randwertaufgaben,
instationäre Diffusions- und Wärmeleitungsprobleme sowie Schwingungsauf-
gaben. Aus dem weiten Gebiet der Elastomechanik werden nur Stäbe, Balken,
Scheiben und Platten betrachtet, an denen das grundsätzliche Vorgehen im
Rahmen der linearen Elastizitätstheorie aufgezeigt wird.
Das Buch gliedert sich in sechs Kapitel. Am Anfang werden einige typische
und anwendungsorientierte Problemstellungen vorgestellt, und anschließend
werden die zu ihrer Lösung notwendigen mathematischen und elastomechani-
schen Grundlagen bereitgestellt. Soweit als möglich werden Extremalprinzi-
pien verwendet, andernfalls wird die Methode von Galerkin benützt. Im
zweiten Kapitel wird für die zentrale Stufe der Elemente gezeigt, wie für die
betrachteten Problemkreise die betreffenden Beiträge effizient und numerisch
stabil bereitgestellt werden können. Das dritte Kapitel befaßt sich mit der
Aufgabe, die Matrizen und Konstantenvektoren des Gesamtproblems aufzu-
bauen, wozu konkrete Hinweise für die Implementierung als Computerpro-
gramm gegeben werden. Gleichzeitig wird auf die resultierenden Besetzungs-
strukturen eingegangen und die für die nachfolgende Behandlung wichtige
Frage nach einer optimalen Numerierung der Unbekannten behandelt.
Ebenso wird die Elimination von Unbekannten zwecks Reduktion der
Ordnung der algebraischen Probleme betrachtet.
In den beiden folgenden Kapiteln sind praktische Methoden zur numerischen
Behandlung der großen, schwach besetzten linearen Gleichungssysteme und
Eigenwertaufgaben so dargestellt, daß die algorithmische Beschreibung eine
Realisierung als Computerprogramm leicht ermöglicht oder zumindest einen
6 Vorwort

Einblick in bestehende Software bietet. In der vorliegenden Auflage wurde den


Entwicklungen der letzten Jahre im Zusammenhang mit Vektorrechnern
Rechnung getragen und verschiedene Algorithmen zur Lösung von linearen
Gleichungssystemen zusammen mit den zugehörigen angepaßten Datenstruk-
turen den neuen Rechnerarchitekturen angepaßt. Ebenso hat der Abschnitt
über iterative Methoden und insbesondere die Vorkonditionierungen eine
diesbezügliche Erweiterung erfahren. Neben den beiden klassischen Verfahren
der Vektoriteration und der Bisektion wurde neu der Lanczos-Algorithmus
aufgenommen und eine sehr effiziente Variante beschrieben. Die Methode der
Koordinatenüberrelaxation wurde ersetzt durch das in verschiedener Hinsicht
bessere Verfahren der Rayleigh-Quotient-Minimierung mit Vorkonditionie-
rung.
Das letzte Kapitel bringt einige praxisbezogene Anwendungen mit numeri-
schen und grafischen Ergebnissen. Es wurde versucht, möglichst anwendungs-
orientierte Beispiele zu wählen, die aber durchsichtig genug sein sollten, daß
sie mit den bereitgestellten Hilfsmitteln nachvollzogen werden können. Die
Programmsammlung [Scw91] kann dazu sehr nützlich sein. Die aufgeführten
Beispiele mögen anregend genug sein, interessierte Leser zur Lösung analoger
Probleme seines Gebietes zu stimulieren!
Die Literatur über die Methode der finiten Elemente ist immens und wächst
jeden Monat um unzählige Beiträge über neue Anwendungen, Verfeinerun-
gen, Rechentechniken und Theorien. Im vorliegenden Buch ist nur ein
verschwindend klei ler Teil zitiert. Für Literaturübersichten der Anfänge der
Methode der finiten Elemente bis etwa 1975 sei auf [No V76, Whi75] verwiesen.
Ferner erscheinen laufend Tagungsbände wie etwa [Azi72, BOW77, BSS73,
GaM77, Rao82, Whi73, Whi77, Whi79, Whi82, Whi85, Whi88]. Für das
weitere Studium der Materie sei auch auf folgende Bücher verwiesen, welche
verschiedene Zielsetzungen haben und Schwerpunkte setzen [ArM86-88,
Aki82, Bat90, BC081-86, Cia78, CiL90, Coo74, Cri86, DeA72, Ga176,
Gaw85, Hah75, Hi077, Hi079, HoB72, Hug87, KäF88, Lin84, Mar86,
MaC73, MiW77, NoV73, NoV78, OdC83, OdR76, Pre75, Red84, Seg76,
StF73, WeJ84, Zie84]. Als weitere Quellen seien noch die Zeitschriften
Computers and Structures, Computer Methods in Applied Mechanics and
Engineering und International Journal for Numerical Methods in Engineering
genannt.
Ich danke Frau U. Henauer für ihre große Mithilfe bei der Reinschrift des
Manuskriptes. Dem Verlag B. G. Teubner danke ich für die Aufnahme des
Buches in seiner Reihe und für die stets freundliche Zusammenarbeit.

Zürich, im Frühjahr 1990 H. R. Schwarz


Inhalt

1 Mathematische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1 Typische Problemstellungen .............................. . 11
1.1.1 Stationäre Feldprobleme ........................... . 11
1.1.2 Zeitabhängige, instationäre Feldprobleme ............ . 15
1.1.3 Probleme der Elastomechanik ....................... . 19
1.2 Extremalprinzipien ...................................... 22
1.2.1 Stationäre Feldprobleme ............................ 22
1.2.2 Statische elastomechanische Probleme . . . . . . . . . . . . . . . .. 27
1.2.3 Dynamische elastomechanische Probleme .............. 38
1.3 Der klassische Ritz-Ansatz ................................ 41
1.4 Die Methode von Galerkin .... . . . . . . . . . . . . . . . . . . . . . . . . . . .. 45
1.5 Generelle Beschreibung der Methode der finiten Elemente ..... 56

2 Elemente und Elementmatrizen ................................ , 62


2.1 Eindimensionale Elemente ................................ 62
2.1.1 Linearer Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 63
2.1.2 Quadratischer Ansatz .............................. , 64
2.1.3 Kubischer Ansatz .................................. 67
2.1.4 Ergänzungen und Anwendungen ..................... 69
2.2 Zweidimensionale Elemente ............................... 76
2.2.1 Vorbereitung ..................................... . 77
2.2.2 Linearer Ansatz im Dreieck ........................ . 81
2.2.3 Quadratischer Ansatz im Dreieck .................... . 84
2.2.4 Bilinearer Ansatz im Parallelogramm ................ . 86
2.2.5 Quadratischer Ansatz der Serendipity-Klasse im
Parallelogramm ................................... . 88
2.2.6 Quadratischer Ansatz der Langrange-Klasse im
Parallelogramm .................................... 91
2.2.7 Übersicht über weitere Elementtypen .. . . . . . . . . . . . . . . .. 92
2.2.8 Kubische Ansätze mit partiellen Ableitungen als
Knotenvariablen .................................. . 94
2.3 Formfunktionen für zweidimensionale Elemente ............ . 100
2.3.1 Natürliche Koordinaten im Dreieck .................. . 101
2.3.2 Zusammenstellung von Formfunktionen .............. . 103
2.3.3 Direkte Berechnung von Elementmatrizen ............ . 106
2.3.4 Direkte Bestimmung von Formfunktionen ............ . 109
2.4 Krummlinige Elemente .................................. . 113
2.4.1 Krummlinige Dreieckelemente ...................... . 114
2.4.2 Krummlinige Viereckelemente ...................... . 117
8 Inhalt

2.4.3 Berechnung der Elementmatrizen ..................... 118


2.4.4 Randintegrale für krumme Randstücke ................ 123
2.4.5 Einige spezielle Elemente ............................ 124
2.5 Ebene e1astomechanische Elemente ......................... 128
2.5.1 Geradlinige Scheibenelemente ........................ 129
2.5.2 Krummlinige Scheibenelemente ...................... 136
2.5.3 Berechnung der Spannungen in Scheibene1ementen ...... 137
2.5.4 Ebener Verzerrungszustand .......................... 139
2.6 Plattenelemente .................................... : .... 141
2.6.1 Konforme Elemente ................................ 141
2.6.2 Nichtkonforme Elemente ............................ 145
2.6.3 Zur Berechnung der Elementbeiträge .................. 146
2.7 Ausblick auf dreidimensionale Elemente .................... 151
2.7.1 Tetraederelemente ...................., .............. 151
2.7.2 Parallelepipede1emente .............................. 153
2.7.3 Prismenelemente ................................... 154
2.7.4 Isoparametrische Elemente .......................... 155

3 Das Gesamtproblem .......................................... 156


3.1 Aufbau der algebraischen Gleichungen ..................... 156
3.1.1 Allgemeine Vorbereitungen .......................... 156
3.1.2 Kompilation der Gesamtmatrizen .................... 158
3.1.3 Die Berücksichtigung der Randbedingungen ........... 161
3.1.4 Grundsätzlicher Aufbau eines Computerprogramms .... 165
3.1.5 Zur Struktur der Matrizen ........................... 165
3.2 Optimale Numerierung der Knotenvariablen ................. 171
3.2.1 Der Algorithmus von Cuthill-McKee .. . . . . . . . . . . . . . . .. 171
3.2.2 Varianten des Algorithmus von Cuthill-McKee ......... 178
3.3 Elimination von inneren Freiheitsgraden, Kondensation ....... 186
3.3.1 Statische Kondensation ............................. 187
3.3.2 Konstruktion von zusammengesetzten Elementen ....... 189
3.3.3 Kondensation bei Eigenwertaufgaben ................. 191

4 Behandlung der linearen Gleichungssysteme ...................... 203


4.1 Klassische Eliminationsmethoden .......................... 204
4.2 Rechentechniken für Bandmatrizen ......................... 212
4.3 Hüllenorientierte Rechentechniken ......................... 219
4.4 Band- und Frontlösungsmethode .......................... 226
4.5 Blockeliminationsmethoden ............................... 238
Inhalt 9

4.6 Iterative Methoden ...................................... 248


4.6.1 Die Methode der konjugierten Gradienten ............. 249
4.6.2 Gesamtschrittverfahren und Methode der Überrelaxation 253
4.6.3 Vorkonditionierung ................................ 257
4.6.4 Datenstrukturen und Rechentechniken ................ 267

5 Behandlung der Eigenwertaufgaben ............................. 279


5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen ............ 280
5.1.1 Reduktion auf ein spezielles symmetrisches
Eigenwertproblem .................................. 280
5.1.2 Das zyklische Jacobi-Verfahren ...................... 283
5.1.3 Die Methode von Householder ....................... 287
5.1.4 Die Eigenwertberechnung für tridiagonale Matrizen ..... 291
5.1.5 Berechnung der Eigenvektoren von tridiagonalen
Matrizen .......................................... 294
5.1.6 Vergleich des Rechenaufwandes ...................... 296
5.2 Vektoriteration .......................................... 297
5.2.1 Die einfache Vektoriteration ......................... 297
5.2.2 Die simultane Vektoriteration ........................ 301
5.2.3 Praktische Durchführung der Vektoriteration .......... 304
5.2.4 Indefinite Matrix A ................................. 308
5.3 Bisektionsmethode ....................................... 309
5.3.1 Die Reduktion einer quadratischen Form .............. 310
5.3.2 Lokalisierung der Eigenwerte ........................ 312
5.3.3 Der Reduktionsalgorithmus für Bandmatrizen .......... 314
5.3.4 Der Reduktionsalgorithmus für Matrizen mit
Hüllenstruktur ..................................... 317
5.3.5 Die Berechnung der Eigenwerte und Eigenvektoren ..... 323
5.4 Das Verfahren von Lanczos ............................... 326
5.4.1 Grundlagen des Verfahrens .......................... 326
5.4.2 Eigenschaften des Lanczos-Algorithmus ............... 332
5.4.3 Praktische Variante des Lanczos-Verfahrens ........... 334
5.5. Rayleigh-Quotient-Minimierung ........................... 338
5.5.1 Der Grundalgorithmus ............................. 338
5.5.2 Vorkonditionierung des Minimierungsalgorithmus ...... 340
5.5.3 Neuformulierung des Algorithmus .................... 344
5.5.4 Höhere Eigenwerte und Vorkonditionierung ........... 346
5.5.5 Simultane Rayleigh-Quotient-Minimierung ............ 351

6 Anwendungen mit Resultaten . .................................. 357


6.1 Stationäre Probleme ..................................... 357
6.1.1 Stationäre Temperaturverteilung ..................... 357
10 Inhalt

6.1.2 Räumliche Fachwerke .............................. 367


6.1.2.1 Einfache Rundkuppel ........................ 367
6.1.2.2 Radarkuppel ................................ 368
6.1. 3 Räumliche Rahmenkonstruktionen ................... 372
6.1.3.1 Radarkuppel aus Balkenelementen ............. 372
6.1.3.2 Belasteter Hochspannungsmast ................ 373
6.1.4 Scheibenprobleme .................................. 377
6.1.4.1 Testscheibe ................................. 377
6.1.4.2 Gabelschlüssel .............................. 382
6.1.5 Platten beispiele .................................... 386
6.1.5.1 Testplatte ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 386
6.1.5.2 Brückenplatte ............................... 391
6.2 Schwingungsaufgaben .................................... 396
6.2.1 Akustische Eigenfrequenzen eines Autoinnenraumes .... 396
6.2.2 Maschinentisch mit Maschinengruppe ................. 403
6.2.3 Schwingende Stimmgabel ........................... 405
6.2.4 Eigenschwingungen einer Dreieckplatte ............... 408
6.2.5 Eigenschwingungen eines Hochspannungsmastes ....... 413
6.3 Instationäre Temperaturverteilung ......................... 417

Literatur ..................................................... 422

Sachverzeichnis ................................................ 432


1 Mathematische Grundlagen

Die Lösungsfunktion zu Aufgaben aus der Physik oder Technik wird


normalerweise durch eine Differentialgleichung in Verbindung mit Rand- und
eventuell Anfangsbedingungen charakterisiert. Für eine bestimmte Klasse
solcher Probleme existieren Extremalprinzipien, wonach die gesuchte
Lösungsfunktion ein entsprechendes Funktional stationär oder in gewissen
Fällen sogar extremal macht. Diese vollkommen äquivalenten Formulierungen
bieten für die praktische Lösung der Aufgaben wesentliche Vorteile, weshalb
diese Extremal- oder Variationsprinzipien im folgenden den zweckmäßigen
Ausgangspunkt bilden werden. Daneben existieren aber auch Aufgaben, für
welche keine echten Extremalprinzipien vorhanden sind oder hergeleitet
werden können. In diesen Fällen müssen notwendigerweise die aus physikali-
schen Überlegungen hergeleiteten, das Problem beschreibenden Differential-
gleichungen den Ausgangspunkt bilden. Sie werden durch geeignete Ansätze
näherungsweise so zu lösen versucht, daß der resultierende Fehler beim
Einsetzen der Näherungslösung in die Differentialgleichungen in einem zu
präzisierenden Sinn möglichst klein ist. Dies ist die Idee der sogenannten
Residuenmethoden und führt zu den Gleichungen von Galerkin.
Wir beginnen damit, eine Reihe von typischen und repräsentativen Problem-
stellungen zusammenzustellen und die für deren Behandlung notwendigen
mathematischen und physikalischen Hilfsmittel bereitzustellen. Aus Raum-
gründen muß eine eingeschränkte Auswahl von Problemen getroffen werden.
An den ausgewählten Aufgaben sollen die grundlegenden Ideen und die
daraus resultierenden Rechentechniken so dargestellt werden, daß die Be-
handlung analoger und im allgemeinen komplexerer Probleme durch sinnge-
mäße Übertragung möglich ist.

1.1 Typische Problemstellungen

1.1.1 Stationäre Feldprobleme

Eine erste Klasse von Aufgaben der Physik umfaßt die sogenannten stationä-
ren Feldprobleme mit der gemeinsamen Eigenschaft, daß eine Funktion des
Ortes des zwei- oder dreidimensionalen Raumes gesucht ist, die eine ellipti-
sche Differentialgleichung und bestimmte Randbedingungen zu erfül-
len hat. Zu dieser Kategorie von Aufgaben gehören beispielweise die
Bestimmung der stationären Temperaturverteilung bei Wärmeleitungsproble-
men, die Berechnung der elektrischen Feldstärke in elektrostatischen Feldern,
die Ermittlung des Geschwindigkeitspotentials von wirbelfreien Strömungs-
feldern und der zugehörigen Stromlinien, die Bestimmung der Spannungs-
12 I Mathematische Grundlagen

Fig.1.I
Zweidimensionale Randwertaufgabe
funktion bei Torsionsproblemen und die Berechnung der stationären langsa-
men Strömung einer Flüssigkeit durch ein poröses Medium.
Unter der Annahme eines homogenen und isotropen Mediums und eines
ebenen Problems muß die gesuchte Funktion u(x, y) in einem gegebenen
Gebiet G (s. Fig.l.l) die Poisson'sche Differentialgleichung
2?u 2iu
!::"u=-+-=f(x y) inG (1.1)
2x 2 3y 2 '

erfüllen, wof(x,y) eine gegebene Funktion des Ortes in G darstellt. Auf dem
Rand C des Gebietes G hat u(x,y) bestimmten Randbedingungen zu genügen.
Im allgemeinen werden auf einem Teil Cl des Randes die Werte von u
vorgeschrieben sein
u(s) = rp(s) auf CI, (1.2)
wo s die Bogenlänge und rp(s) eine gegebene Funktion bedeuten. Die
Bedingung (1.2) heißt eine Dirichletsche Randbedingung. Auf dem
Restteil C2 des Randes mit Cl U C2 = C und Cl n C2 = 0 wird eine Randbedin-
gung der allgemeinen Form

-
au +a(s)u(s) = y(s) auf C2 (1.3)
an ~u
vorgegeben sein, wo ~ die Ableitung von u in Richtung der äußeren Nor-
an
malen der Randkurve C2 darstellt und a(s) und y(s) gegebene Funktionen
sind. Im allgemeinen Fall wird (1.3) als Cauchysche Randbedingung
bezeichnet, die im Spezialfall a(s)=y(s)=O Neumannsche Randbedin-
gung genannt wird.
In der allgemeinen Formulierung der zu lösenden Randwertaufgabe (LI),
(1.2) und (1.3) sind die Spezialfälle eingeschlossen, daß etwa die Funktion
f(x,y) im ganzen Gebiet G verschwindet, so daß die Laplace-Gleichung
a2 u a2 u
!::"u = - + - = 0 in G (1.4)
ax 2 ay2
zu lösen ist, oder daß etwa eines der beiden Randstücke Cl bzw. C2 leer ist.
l.l Typische Problemstellungen 13

Ar-------~L~------~F

B E

Fig.1.2
C~------~H~------~D
Wärmeleitungsproblem

Beispiel!.l Die stationäre Temperaturverteilung u(x,y) im zweidimensiona-


len Gebiet G der Fig. 1.2 genügt der Poisson-Gleichung unter der Annahme,
daß in G Wärmequellen vorhanden sind. Längs der Strecken AB und EFwerde
die Temperatur auf dem Wert Null gehalten, während im übrigen äußeren
Rand infolge Wärme isolierung keine Wärme abfließen kann. Längs des
Kreises erfolge ein Wärmeverlust infolge Konvektion.
Das Grundgebiet G und die Randbedingungen weisen offensichtlich die
Symmetrieachse HL auf. Falls auch die Ergiebigkeit der Wärmequellen, d. h.
die Funktionf(x,y) symmetrisch bezüglich der genannten Achse ist, kann die
Lösung der Aufgabe auf eine Hälfte G' reduziert werden, indem längs den neu
hinzu kommenden Randstücken Hf und KL die Symmetrie der Lösung durch
Neumannsche Randbedingungen berücksichtigt wird. Die Randwertaufgabe
lautet damit
6u = fex, y) in G'
u 0 auf AB
dU (1.5)
0 auf BC, CH, Hf, KL, LA
2n
ou
an + au =0 auf KMf

Die Aufgabe (1.5) ist ein charakteristisches elliptisches Randwertproblem mit


gemischten Randbedingungen vom Dirichletschen, Neumannschen und
Cauchyschen Typus. •

In Verallgemeinerung wird bei Aufgaben im dreidimensionalen Raum für ein


homogenes und isotropes Medium eine Feldfunktion u(x, y, z) in den drei
Orts variablen x, y und z gesucht, welche der Poisson-Gleichung
~u ~u ~u .
6u=-+-+-=f(xyz)mG (1.6)
ox 2 2y2 oz2 "
genügen soll. Auf einem Teil rl der Randoberfläche r soll die gesuchte
14 I Mathematische Grundlagen

Funktion eine Dirichletsche Randbedingung


u(x, y, z) = tp(x, y, z) auf Tl (1.7)
erfüllen, wo tp(x,y, z) eine gegebene Funktion auf Tl darstellt. Auf dem RestT2
der Randoberfläche mit Tl U T 2 = T und Tl n T 2 = €I muß u(x,y, z) einer
allgemeinen Cauchyschen Randbedingung

-
au + a(x, y, z)u(x, y, z) = y(x, y, z) auf T 2 (1.8)
an
dU
genügen, wo - die Ableitung in Richtung der äußeren Flächennormalen
dn
bedeutet und a(x,y, z) und y(x,y, z) gegebene Funktionen auf T 2 sind.
Bei gewissen AufgabensteIlungen, wie etwa im Fall von Sickerproblemen oder
Wärmeleitungsaufgaben in inhomogenen und anisotropen Medien, tritt an die
Stelle der Poisson-Gleichung die allgemeinere quasiharmonische Diffe-
re n tialgleich ung

~ (k ~) +.;-
ex l ex oy
dU) +;-
(k 2 ey oz
(k3~)
ez
= fex, y, z) in G, (1.9)

kk k3
worin j , 2 und gegebene Funktionen des Ortes sind. Diese Koeffizienten
widerspiegeln die Inhomogenität des Mediums und besitzen die physikalische
Bedeutung der richtungs- und eventuell auch ortsabhängigen Durchlässig-
keitswerte des Mediums. Festzuhalten ist, daß in Gleichung (1.9) die
rechtwinkligen Koordinaten x, y und z mit den sogenannten Hauptrichtungen
zusammenfallen müssen. Dirichletsche Randbedingungen (1.7) behalten ihre
Form, während die Cauchyschen Randbedingungen die verallgemeinerte
Form
k dX n +k n + k3- n T
dU dU dU
1- x 2- + a(x, y, z)u = y(x, y, z) auf 2
ey ez y z

( 1.10)
erhalten, wobei nx , ny und n z die Richtungskosinus der äußeren Normalen von
T 2 darstellen.

Beispiel1.2 Die Berechnung der stationären Sickerströmung durch ein porö-


ses Material unter einem undurchlässigen Staudamm und oberhalb einer
wasserundurchlässigen Erdschicht läßt sich als zweidimensionale Aufgabe
behandeln. Fig. 1.3 zeigt einen ebenen Schnitt mit den wesentlichen Elementen
des Problems. Die Hauptrichtungen und die Durchlässigkeitswerte k l und k 2
werden in Wirklichkeit vom Ort abhängig sein. Zur Vereinfachung soll
angenommen werden, daß die beiden verschiedenen Durchlässigkeitswerte k l
und k 2 mit horizontaler und vertikaler Hauptrichtung im ganzen Gebiet G
konstant seien.
l.l Typische Problemstellungen 15

Fig.1.3
Sickerproblem

Das Strömungspotential u(x,y) erfüllt die quasiharmonische Differentialglei-

chung ~ (kl~) + ~ (k2~) = k 2lu2 + k22iu = 0 in G.


1 (1.11)
OX OX oy oy ox oy2
Längs wasserundurchlässigen Randstücken ist eine Neumannsche Randbedin-
gung
ou OU
k1 - n + k2 - n = 0 (1.12)
ox x oy y
zuständig. An den Erdoberflächen sind die Werte des Geschwindigkeitspo-
tentials durch Dirichletsche Randbedingungen gegeben, da das Geschwindig-
keitspotential als Summe der Druckhöhe p/(gp) und der Wasserhöhe h
definiert werden kann gemäß

u=L+h, ( 1.13)
gp
wo p den Wasserdruck, g die Erdbeschleunigung, p die Dichte und h die Höhe
des Wassers, gemessen von einem Bezugspunkt, bedeuten. ...

1.1.2 Zeitabhängige, instationäre Feldprobleme

In einem gewissen Sinn eng verwandt mit den stationären Feldproblemen sind
die zeitabhängigen Aufgaben der Physik, bei denen in Verallgemeinerung der
Poissonschen oder der quasiharmonischen Gleichung noch zeitliche Ableitun-
gen der gesuchten Feldfunktion hinzutreten. Letztere ist jetzt nicht nur orts-
sondern auch zeitabhängig. Im zweidimensionalen Fall liegt solchen Aufga-
ben eine allgemeine partielle Differentialgleichung von folgender typischer Art
zugrunde.

- o ( k 1 - ou ) +-
0 (k
2-
a2u
ou ) =f(x,y,t)+x-+f1.-
cu (1.14)
ax cx ay \ oy at ot 2
Die neu auftretenden Koeffizienten x und f1. können grundsätzlich vom Ort
und der Zeit abhängige Funktionen sein, welche aus physikalischen Gegeben-
heiten nicht negativ sind. Zur Differentialgleichung (1.14) gehören einerseits
Randbedingungen wie im Fall von stationären Feldproblemen, die jetzt aber
16 I Mathematische Grundlagen

grundsätzlich noch von der Zeit t abhängig sein können, und anderseits
kommen noch sogenannte Anfangsbedingungen hinzu, welche den Zu-
stand des Feldes zu einem bestimmten Anfangszeitpunkt to festlegen. Dabei ist
zwischen drei Fällen zu unterscheiden.
a) Es sei,Li = O. Dann liegt eine sogenannte para bolische D ifferen tialglei-
chung vor, welche beispielsweise die instationäre Wärmeleitung beschreibt,
aber auch allgemeineren instationären Diffusionsprozessen zugrunde liegt.
Man bezeichnet sie deshalb auch gelegentlich als Diffusionsgleichung. Da
hier nur die erste zeitliche Ableitung auftritt, besteht die Anfangsbedingung
nur aus der Angabe des Zustandes des Feldes zum Zeitpunkt to:

u(x, y; to) = IfI(X, y) ( 1.15)

b) Es sei x = 0 und,Li # O. In diesem Fall ist normalerweise f= 0, und es liegt


eine Schwingungsaufgabe vor, bei der man in der Regel nur an periodischen
Lösungen interessiert ist. Für die gesuchte Feldfunktion wird deshalb der
Separationsansatz für Normalschwingungen

u(X, y; t) = U(x, y)e iW1 (1.16)

angewandt, so daß nach Substitution in (1.14) und Kürzen mit eiwt die
Wellengleichung oder Helmholtzsche Gleichung resultiert

-3 (k1- 3U) +-
3 ( k 3U) +w 2,LiU=O.
2- (1.17)
3x 3x 3y 3y
Die Aufgabe besteht nun darin, die unbekannten Werte der Kreisfrequenz w
so zu bestimmen, daß die Wellengleichung (1.17) unter Berücksichtigung der
Randbedingungen nichttriviale Lösungen besitzt. Die resultierenden Kreisfre-
quenzen entsprechen den Eigenfrequenzen des schwingungsfähigen Sy-
stems und die Lösungen U(x,y) den zugehörigen Eigenschwingungsfor-
men. Da die zeitliche Abhängigkeit der Lösung vermöge des Separationsan-
satzes (1.16) in der Wellengleichung eliminiert worden ist, treten bei dieser
Problemstellung selbstverständlich keine Anfangsbedingungen mehr auf.
Diese AufgabensteIlung ist in den Ingenieuranwendungen von besonderer
praktischer Bedeutung, um die Eigenschwingungen und Eigenfrequenzen von
schwingungsfihigen Systemen und die damit zusammenhängenden Reso-
nanzerscheinungen abklären zu können. Zu dieser Klasse von anwendungs-
orientierten Problemen gehört im einfachsten eindimensionalen Fall beispiels-
weise die Berechnung der Eigenschwingungsformen und Eigenfrequenzen von
homogenen und inhomogenen Saiten, die Bestimmung von Eigenfrequenzen
und Eigenschwingungen von beliebig geformten Membranen, die Behandlung
von akustischen Schwingungsproblemen in geschlossenen Räumen wie bei-
spielsweise in einem Autoinnenraum, die Ausbreitung von elektromagneti-
1.1 Typische Problemstellungen 17

sehen Wellen in einem Dielektrikum und schließlich die Ermittlung von freien
Schwingungen der Wasseroberfläche in Seen und insbesondere in Häfen.
e) Im allgemeinen Fall mit x =1= 0 und !J. =1= 0 liegt eine gedämpfte Wellenglei-
chung vor, welche das dynamische Verhalten von elastischen Gebilden unter
Berücksichtigung linearer Dämpfung beschreibt. Da jetzt auch zweite Ablei-
tungen nach der Zeit auftreten, sind zwei Anfangsbedingungen notwendig,
welche sowohl den Anfangszustand und die zeitliche erste Ableitung des
Feldes zu einem bestimmten Zeitpunkt to festlegen:
u(x, y; to) = '11 (x, y) ( l.l8)

-
cu (x, y; to) = x(x, y) (l.l9)
ct
Darin sind 'II(x,y) und Xex,y) gegebene Funktionen des Ortes. Solche all-
gemeine Anfangs-Randwertaufgaben treten in der Strömungsmechanik auf.

Beispiel1.3 Die instationäre Temperaturverteilung u(x,y; t) für das zweidi-


mensionale Gebiet G von Fig. 1.2 aus Beispiel 1.1 genügt der Wärmeleitungs-
gleichung

x ~= !::"u - fex, y) in G, (1.20)


ct
worin x die spezifische Wärmeleitzahl bedeutet. Die Randbedingungen des
Problems sind die gleichen wie im Beispiel 1.1. Die zeitabhängige Temperatur-
verteilung soll beispielsweise unter der Annahme bestimmt werden, daß zur
Zeit t = 0 die Temperatur gleich Null sei und daß zu diesem Zeitpunkt die
innere Wärmequelle aktiv wird. Die Anfangsbedingung lautet somit
u(x,y; 0) = 0 in G. (1.21)
...
Beispiel1.4 Die Eigenschwingungsformen u(x,y) einer homogenen Mem-
bran, welche das Gebiet G bedeckt, sind die nichttrivialen Lösungen der
Wellengleichung
!::,. u + A. u = 0 in G, ( 1.22)
und die zugehörigen Kreisfrequenzen ca sind, abgesehen von Materialkonstan-
ten, die Q~adratwurzeln der Eigenwerte A.. Für festgehaltene Randstücke gilt
die homogene Dirichletsche Randbedingung u = 0, auf freien Randstücken ist
die Neumannsehe Randbedingung ~= 0 zuständig, während auf elastisch
an
gelagerten Randstücken eine homogene Cauchysche Randbedingung
:uon + au = 0 zu berücksichtigen ist.
18 I Mathematische Grundlagen

Für die rechteckige Membran der Fig. 1.4 mit dem Seitenverhältnis 5: 4, mit
festgehaltenen Längsseiten, freiem linken Rand und elastisch gebettetem
rechten Rand lautet die Eigenwertaufgabe

t::.u + AU = 0 in G
u 0 auf AB und CD
2u (1.23)
0 auf DA
2n
2u
+ u=O auf BC
3n

0 c

A B

Fig. 1.4 Schwingende Membram Fig. 1.5 Autolängsschnitt

Beispiel1.5 Die Berechnung der akustischen Eigenfrequenzen und der zuge-


hörigen Stehwellen in einem Autoinnenraum ist für die Automobilhersteller
von Interesse, um durch geeignete konstruktive Änderungen das oft unange-
nehme Dröhnen zu reduzieren. Das Problem ist an sich dreidimensional, doch
kann durch Separation der Variablen die Aufgabe auf einen zweidimensiona-
len Autolängsschnitt (vgl. Fig. 1.5) beschränkt werden. Falls starre und
akustisch harte Wände angenommen werden, führt die mathematische
Erfassung der akustischen Eigenfrequenzen und Stehwellen auf eine Neu-
mannsche Eigenwertaufgabe [Muh72]

t::.u + Äu = 0 in G

~=O auf dem Rand.


2n
In diesem typischen Problem ist die Wellengleichung für ein recht unregelmä-
ßiges Grundgebiet zu lösen, wobei aus praktischen Überlegungen nur eine
gewisse Anzahl der kleinsten, von Null verschiedenen Eigenwerte A und die
zugehörigen Eigenlösungen interessieren. Die Feldfunktion u(x,y) hat in
dieser Anwendung die Bedeutung der Druckdifferenz der Luft gegenüber dem
Normaldruck. Stellen mit großer Amplitude bedeuten, daß dort die Stehwel-
len entsprechend laut gehört werden. ...
1.1 Typische Problemstellungen 19

Beispiel1.6 Die freien harmonischen Schwingungen der Wasseroberfläche in


Seen oder Häfen sind unter geeigneten vereinfachenden Voraussetzungen
[TPZ69] Lösungen der Helmholtzschen Gleichung

o (hex, y) -Ou),
-~- T -
0 ( hex, y) -OU ) + AU(X, y) = 0, (1.24)
c!x ox oy 3y
worin u(x,y) die vertikale Verschiebung der Wasseroberfläche von ihrem
mittleren Stand und h(x,y) die Wassertiefe bedeuten. An den festen Rändern
des Gebietes, d. h. an den Hafenmauern, sind Neumannsche Randbedingun-
gen zuständig, während im Sinne einer Approximation angenommen wird,
daß am offenen Hafeneingang eine Knotenlinie vorhanden sei, so daß dort
eine Dirichletsche Randbedingung zu berücksichtigen ist. Aus den resultieren-
den Eigenwerten A ergibt sich die Periode T der Oberflächenwellen zu

T=~
yTg'
wo g die Erdbeschleunigung darstellt. Dieses Problem ist für den Bau von
neuen Hafenanlagen oder für die bauliche Änderung von bestehenden
Anlagen von Bedeutung, um unerwünschte Bewegungen von Schiffen zu
vermeiden, welche durch Schwingungen der Wasseroberfläche im Hafen
verursacht werden.
Im Vergleich zur Aufgabe der Berechnung von Membraneigenschwingungen
ist das Problem der Wasseroberflächenschwingungen insofern etwas allgemei-
ner, als hier die im allgemeinen variable Wassertiefe Anlaß gibt zu einer
allgemeinen HeImholtzgleichung (1.24). Bei konstanter Wassertiefe h (x, y) = h
reduziert sich das Problem offensichtlich auf das Membranproblem mit dem
einzigen Unterschied, daß beim Hafenproblem die Neumannsche Randbedin-
gung vorwiegend auftritt entsprechend einem freien Rand der Membran. A

1.1.3 Probleme der Elastomechanik

Die Methode der finiten Elemente hat wohl ihre größte praktische Anwendung
auf dem Gebiet der Elastomechanik gefunden, da sie zur Lösung solcher
Aufgaben entwickelt worden ist. Auf diesem Gebiet existiert eine derart
immense Fülle von Aufgaben, welche nach diesem Verfahren behandelt
worden sind, daß nur eine mehr grundsätzliche Andeutung von möglichen
Problemkreisen möglich ist.
In einer ersten und wohl wichtigsten Klasse von statischen Aufgaben sind die
Deformationen und insbesondere die dadurch verursachten Spannungen in
Körpern oder Strukturen unter dem Einfluß von äußeren Belastungen
gesucht, um damit die Sicherheit der untersuchten Konstruktionen zu prüfen.
20 I Mathematische Grundlagen

Die einfachsten und durchsichtigsten Strukturen sind die Fachwerke,


bestehend aus Zug- und Druckstäben, die an ihren Verbindungen als gelenkig
verbunden angesehen werden. Derartige komplexe Fachwerke finden in
neuerer Zeit häufig bei Dachkonstruktionen Verwendung, deren statisches
Verhalten unter dem Eigengewicht, dem Gewicht des zu tragenden Daches
und eventuell zusätzlicher äußerer Kräfte, wie beispielsweise Schneelasten, zu
untersuchen ist. Ähnlich gelagert sind die Aufgaben bei Balkenproblemen,
wo Strukturen betrachtet werden, die sich aus Balkenelementen zusammenset-
zen, welche an ihren Verbindungsstellen in der Regel starr verbunden sind.
Auch in diesem Fall sind die Deformationen und Spannungen beispielweise in
Durchlaufträgern, Tragwerken oder allgemeinen Rahmenkonstruktionen
unter äußeren Belastungen zu bestimmen.
Neben den genannten eindimensionalen Bauelementen sind zweidimensionale
Körper oder Elemente von praktischer Bedeutung. Zu nennen sind hier die
sogenannten Scheiben, welche nur durch Kräfte belastet werden, die in ihrer
Ebene liegen. Auch hier steht die Ermittlung der Spannungsverteilung im
Vordergrund. Für dünne ebene Scheiben ist es zulässig, einen sogenannten
ebenen Spannungszustand anzunehmen. Nach ähnlichen Überlegungen
lassen sich gerade Staudämme behandeln, die einerseits durch ihr Eigenge-
wicht und anderseits durch Wasserkräfte belastet werden. Für jeden Quer-
schnitt ist in dieser Situation ein ebener Verzerungszustand zuständig.
Im Gegensatz zu den Scheiben sind Pla tten durch Kräfte senkrecht zu ihrer
Ebene und eventuell durch Biegemomente belastet. Es interessieren hierbei die
Auslenkungen senkrecht zur Plattenebene und die dabei auftretenden inneren
Spannungen. Plattenprobleme sind im Zusammenhang mit dem modernen
Brückenbau von Bedeutung.
In Verallgemeinerung von Platten und Scheiben sind Schalen Flächentrag-
werke mit gekrümmter Mittelfläche, welche beliebigen Belastungen unterwor-
fen werden können. Für diese räumlichen Konstruktionselemente muß die
dreidimensionale Elastizitätstheorie einerseits spezialisiert und andererseits
eine Reihe von vereinfachenden Vernachlässigungen getroffen werden, damit
die so resultierende Theorie praktisch durchführbar wird. Schalenelemente
finden ihre weite Anwendung in der Behandlung von statischen Problemen
etwa von Kuppelbauten, Bogenstaumauern, Hochkaminen und Kühltürmen.
Mannigfaltige und sehr komplexe Probleme ergeben sich beim Flugzeugbau,
Schiffsbau und bei Raumfahrtkonstruktionen, zu deren Lösung die einfache-
ren Elemente als Bausteine herangezogen werden. Schließlich sei noch als
Repräsentant eines echten dreidimensionalen Problems die Analyse der
Sicherheit eines Druckbehälters für einen Kernreaktor genannt.
Eine zweite Klasse von technisch wichtigen dynamischen Aufgaben besteht in
der Berechnung von Eigenfrequenzen und von Eigenschwingungsformen
mechanischer Strukturen. Das Ziel solcher Schwingungsanalysen besteht sehr
1.1 Typische Problemstellungen 21

oft darin, für die Struktur gefährliche oder zumindest störende Resonanzer-
scheinungen abzuklären und durch geeignete Maßnahmen zu eliminieren. In
diesem Sinn interessieren etwa die Eigenfrequenzen von Turbinenschaufeln,
die Schwingungsformen und Frequenzen von Erddämmen im Zusammenhang
mit möglichen Erdbeben oder die Eigenschwingungen von Eisenbahnwagen.
Wird beispielsweise die erste Transversalschwingung eines Eisenbahnwagens
durch Resonanz vermöge der stets vorhandenen kleinen Unwucht der Räder
bei bestimmten Fahrgeschwindigkeiten angeregt, ist diese Erscheinung für die
mitfahrenden Passagiere sehr lästig und muß vermieden werden.

Fig.1.6
Einfacher Kuppe1bau

Beispiel1.7 Ein räumliches Fachwerk in der Form einer Rundkuppel, die in


Fig. 1.6 als Parallelprojektion dargestellt ist, besteht aus 48 Stabe1ementen,
welche in den 19 Knotenpunkten gelenkig miteinander verbunden seien. Die
Knotenpunkte liegen auf der Oberfläche einer Kugel. Zwei einander gegen-
überliegende Knotenpunkte des Grundkreises seien fixiert, während die
übrigen vier Punkte auf Rollenlagern abgestützt seien. Die Konstruktion wird
an der Spitze und an den sechs Knotenpunkten des höchsten Parallelkreises
durch vertikal angreifende Kräfte belastet. Gesucht sind die Deformation der
Rundkuppel und die Spannungen in den einzelnen Stäben. A
Beispiel 1.8 Häufig werden ganze Maschinengruppen auf Rahmenkonstruk-
tionen montiert, deren Bestandteile als Balken angesehen werden können, die
an ihren Verbindungsstellen starr miteinander verbunden sind. In Fig. 1.7 wird
eine idealisierte vereinfachte Situation dargestellt, in welcher eine dreiteilige
Maschinengruppe bestehend etwa aus Hochdruckturbine, Niederdruckturbi-
ne und Generator, auf einer sechsbeinigen Rahmenkonstruktion aufgebaut ist.
Die Rahmenkonstruktion sei am Boden starr befestigt. Neben der rein
statischen Beanspruchung der Rahmenkonstruktion durch das Gewicht der
22 I Mathematische Grundlagen

Fig.1.7
Maschinentisch
Maschinengruppe interessieren hier für die Praxis die Eigenfrequenzen und
Schwingungsformen der ganzen Konfiguration, um Resonanzerscheinungen
im Betrieb vermeiden zu können [JäK76]. ~

Fig.I.8
Gabelschlüssel
Beispiel 1.9 Die Bestimmung der Spannungen in einem Gabelschlüssel (Fig.
1.8) beim Ansetzen an eine Schraube und entsprechender Kraftanwendung
liefert vermitteIs der auftretenden Spannungsmaxima die Information, ob der
Schlüssel bei einer bestimmten Kraftanwendung bricht oder nicht. Da hier (im
Idealfall!) nur Kräfte in der Ebene des Schlüssels auftreten, kann der Schlüssel
als belastete Scheibe behandelt werden. ~

l:t===/ =======~/.. Fig. 1.9


Schiefe Platte
Beispiel 1.10 Eine Platte von der Form eines Parallelogramms der Fig. 1.9
repräsentiere eine idealisierte Straßenbrücke aus Beton, die an den beiden
schiefen kurzen Seiten gelagert und an den beiden Längsseiten frei sei. Gesucht
ist die Deformation der Platte und die auftretenden Spannungen unter einer
gegebenen Belastung. ~

1.2 Extremalprinzipien

1.2.1 Stationäre Feldprobleme

Sowohl für die stationären Feldprobleme, denen eine quasiharmonische


Gleichung zugrunde liegt, als auch für die instationären Feldprobleme, die auf
die zeitunabhängige Wellengleichung führen, existiert eine äquivalente For-
1.2 Extrernalprinzipien 23

mulierung als Extremalaufgabe. Es zeigt sich, daß Hir beide Aufgabentypen


dasselbe Extremalprinzip anwendbar ist, falls dasselbe genügend allgemein
angesetzt wird. Da wir uns im folgenden vorwiegend mit zweidimensionalen
Aufgaben befassen werden, soll das einschlägige Extremalprinzip auch nur Hir
diesen Fall eingehend behandelt werden. Die naheliegende Verallgemeinerung
auf den dreidimensionalen Fall ist offensichtlich.

Fig.1.I0
Gebiet für das Feldproblem

In der (x, y)-Ebene sei ein endliches zusammenhängendes Gebiet G gegeben,


begrenzt vom stückweise stetig differenzierbaren Rand C, der möglicherweise
auch aus mehreren geschlossenen Kurven bestehen darf, falls das Gebiet G
nicht einfach zusammenhängend ist (vgl. Fig. 1.10). Wir wollen nun zeigen,
daß anstelle der in Abschn. 1.1.1 und 1.1.2 formulierten Randwertaufgaben
ein entsprechendes Funktional extremal gemacht werden kann. Es gilt
nämlich der Hir die Methode der finiten Elemente zentrale

Satzl Es seien..!i(x,y)ECI(G), (i=1,2), ~~,y),f(x,y)ECO(G) gegebene


Funktionen in G = G U C und a(s), y(s) E C (C) gegebene Funktionen der
Bogenlänge s auf dem Rand C. Eine Funktion u(x,y) E C 2 ( G) n Cl (C), welche
den Integralausdruck

1= ff [~(kl(X,Y)U;
G 2
+ k 2(x,y)u;) - ~ ~(x, y)u 2 + f(X,y)U]dXdY
2

+ ~ [~ a(s)u 2 - y(s)u ]dS (1.25)

stationär macht unter der Nebenbedingung

u = <p(s) auf CI, (1.26)

wo Cl einen Teil des Randes C darstellt, ist notwendigerweise eine sogenannte


klassische Lösung der Randwertaufgabe

-o (kl(x, y) -ou ) + - 0 ( k 2 (x, y) -ou ) + ~(x, y)u = fex, y) .mG


ox ox oy oy
(1.27)
24 I Mathematische Grundlagen

unter der Dirichletschen Randbedingung

u = rp(s) auf Cl

und der allgemeinen Cauchyschen Randbedingung

kl
3u
- nx + k 2 -
cu ny + a(s)u = y(s) auf C2, (1.28)
3x 3y
worin n x und ny die Richtungskosinus der äußeren Normalen n auf dem Rand C
bedeuten und C 2 und Rest des Randes mit der Eigenschaft Cl U C2 = C,
Cl n C2 = 0 darstellt.

Beweis Damit der Integralausdruck I für eine Funktion u(x,y) mit den
genannten Eigenschaften einen stationären Wert annimmt, muß notwendiger-
weise die erste Variation verschwinden. Nach den Regeln der Variationsrech-
nung [CoH70, Fun70, Wei74] ergibt sich

U= If [k (x,y)uxJu x + k
l 2 (x,y)u y Ju y - p(x,y)uJu + f(x,y) Ju]dxdy
G

+ cP [a(s)uJu - y(s)3u] ds. (1.29)


c
Auf die beiden ersten Integranden kann vermöge der Gaußschen Inte-
gralf 0 rm e I je partielle Integration angewendet werden, indern beispielswei-
se gilt
fJ v(x, y)uxCx, y) dxdy = cP v(x, y)u(x, y)n x ds - vxu dxdy. fJ
G C G

Darin bedeutet nx den Richtungskosinus der äußeren Normalen der Randkur-


ve C. Damit wird die erste Variation von I nach entsprechender Zusammenfas-
sung

U=If [ _;- (kl(X, y)


cx
cu)
3x
_~
3y
(k 2(X, y) :u)
cy
G

- p(x, y)u + fex, y) ] 3u dx dy

+ cP
C
[k l ~
ox
nx + k 2 :u ny
cy
+ a(s)u - Y(S)]JUdS = O. (1.30)

Die erste Variation muß für jede zulässige Variation der Funktion u
verschwinden. Nach der üblichen Technik der Konkurrenzeinschränkung mit
Ju = 0 auf C folgt als erste notwendige Bedingung die Eulersche Differen-
1.2 Extremalprinzipien 25

tialgleichung im Gebiet G, d. h.

-o ~u ) + -~-
( k l (x, y)..':....-. ~u ) + ~(x, y)u =
0 ( k 2(x, y) ~ f(x, y) in G.
OX OX oy oy
(1.31)
Die Funktion u(x,y), welche das Funktional I stationär werden läßt, erfüllt
somit in der Tat die allgemeine quasi-harmonische Differentialgleichung im
Gebiet G.
Auf dem Teil Cl des Randes C, erfüllt die Funktion u(x,y) entsprechend der
Nebenbedingung (1.26) selbstverständlich die Dirichletsche Randbedingung.
Auf diesem Teilstück des Randes muß tSu = 0 sein, und aus dem Randintegral
in (1.30) ergibt sich hier keine weitere Bedingung. Ist der Teil C2 des Randes
nicht leer, so muß dort notwendigerweise die sogenannte natürliche
Rand bedingung

kl -
ou nx + k2 -
ou ny + a(s)u = y(s) auf C2 (1.32)
OX oy
erfüllt sein. Damit ist die Aussage des Satzes gezeigt.
Der Integralausdruck I (1.25) ist für eine größere Klasse von Funktionen
u(x,y) als oben betrachtet definiert, für die man die Extremalaufgabe
betrachten kann. So brauchen die Funktionen u(x,y) nur stückweise differen-
zierbar zu sein mit quadratisch integrierbaren ersten partiellen Ableitungen.
Funktionen u(x,y) mit der Eigenschaft

ff [u 2(x, y) + u;(x, y) + u;(x, y)] dx dy < 00

bilden den Raum HI(G). Man kann leicht zeigen, daß die Variationsaufgabe
(1.25) unter der Randbedingung (1.26) für Funktionen u(x, y) EH I ( G) stets
eine Lösung besitzt. In der Methode der finiten Elemente berechnet man diese
verallgemeinerte Lösung im Sinne einer Approximation der gestellten Auf-
gabe.
Das Extremalprinzip, welches nach Satz 1 die Funktion u(x, y) als Lösung der
zugehörigen Randwertaufgabe liefert, zeigt eine für das folgende wesentliche
Unterscheidung der Randbedingungen auf, indem die natürliche Randbedin-
gung (1.32) in der Formulierung als Extremalaufgabe nicht auftritt. Diese
Randbedingung steckt implizit im Randintegral von I, und die Lösungsfunk-
tion der Extremalaufgabe erfüllt die allgemeine Cauchysche Randbedingung
automatisch. Diese Tatsache stellt in der Tat einen ersten wesentlichen Vorteil
der Formulierung der Aufgabe nach dem Extremalprinzip dar, da nur die
bedeutend einfacheren Dirichletschen Randbedingungen zu berücksichtigen
sind. Diese Dirichletschen Randbedingungen werden oft auch Zwangs-
26 I Mathematische Grundlagen

bedingungen genannt. Da sie gelegentlich eine geometrische Bedeutung


besitzen, heißen sie auch geometrische Randbedingungen.
Durch Spezialisierungen der Koeffizientenfunktionen in (1.25) können alle
Spezialfälle von zugehörigen Differentialgleichungen und Randbedingungen
gewonnen werden. Mit k)(x,y)=k 2 (x,y)=1 resultiert insbesondere der
Laplacesche Differentialoperator, mit den weiteren Spezialfällen

Uxx + Uyy = 0 Laplace-Gleichung (p = f= 0)


U xx+ Uyy = fex, y) Poisson-Gleichung (p = 0)
Uxx + Uyy + AU = 0 Helmholtz-Gleichung (1= 0, p = A)

In der allgemeinen Cauchyschen Randbedingung entspricht der Ausdruck


~ nx + ~ ny der Ableitung von U in Richtung der äußeren Normalen, so
ax ay
daß die speziellen Randbedingungen für den Randteil C2

~= 0 falls a(s) = y(s) = 0


an
-
aU = y(s) falls a(s) = 0
an
au
- + a(s)u = 0 falls y(s) = 0
an
erhalten werden können.
Das Variationsintegral, zugehörig zur Aufgabe der Bestimmung der stationä-
ren Temperaturverteilung von Beispiel 1.1 lautet

1= ff r~ (u; + u;) + f(X,y)UldXd Y + ~ f au 2 ds, (1.33)


G' 2 2 K

wobei das Randintegral nur über den Halbkreis K zu erstrecken ist. In diesem
Fall ist das Funktional zu minimieren unter der einzigen Nebenbedingung
u = 0 auf AB.

Für das Beispiel 1.4 der schwingenden Membran lautet der zuständige
Integralausdruck
I 1 c
1=- ff [Cu; + u;) - Au 2 ]dxdy +- f u 2 ds, (1.34)
2 G 2 B

welcher unter der Nebenbedingung

u = 0 auf AB und CD
1.2 Extremalprinzipien 27

stationär zu machen ist. Die Lösungsfunktion ist im Fall von Eigenwertaufga-


ben offensichtlich nur bis auf einen multiplikativen Faktor =;"00 bestimmt.
Schließlich ist das Variationsintegral zur entsprechenden Behandlung der
Aufgabe der Wasseroberflächenwellen von Beispiel 1.6
1
1=- JJ [h(x, y)(u; + u;) - Au 2 ]dxdy, (1.35)
2 G

welches in Verbindung mit einer eventuellen Dirichletschen Randbedingung


stationär zu machen ist. Ein Vergleich der Gleichung (1.24) mit dem Integral
(1.35) ergibt noch die bemerkenswerte Tatsache, daß die Wassertiefe h(x,y)
jetzt nur als Faktor unter dem Integral erscheint, während diese Funktion in
(1.24) noch der Differentiation unterworfen ist.

1.2.2 Statische elastomechanische Probleme

Zur Behandlung von statischen elastomechanischen Aufgaben bieten sich auf


fast natürliche Weise verschiedene Variations prinzipien der Mechanik an
[Lan70, OdR76], welche insbesondere für die Bearbeitung von komplexeren
Problemen den zweckmäßigen Ausgangspunkt bilden. Im folgenden werden
wir durchwegs das Prinzip des Minimums der gesamten potentiellen
Energie eines Systems anwenden, obwohl auch noch andere Variationsprin-
zipien zur Verfügung stehen, wie das häufig angewandte Prinzip der
virtuellen Arbeit, das Minimalprinzip der komplementären Energie
oder das Hellinger-Reissnersche Prinzip, die alle äquivalente Formulie-
rungen für dasselbe Problem, nur unter anderen Gesichtspunkten darstellen.
Zunächst formulieren wir das Extremalprinzip für einen allgemeinen dreidi-
mensionalen isotropen Körper, um anschließend durch Spezialisierungen die
betreffenden Funktionale für Stäbe, Balken, Scheiben und Platten herzuleiten.
Diese bilden dann die eigentliche Grundlage für das weitere Vorgehen.

Fig.1.11
Belasteter Körper
28 I Mathematische Grundlagen

Wir betrachten einen zusammenhängenden dreidimensionalen elastischen


Körper, welcher an einigen Stellen gelagert, bzw. festgehalten werde (Fig.
1.11). Er sei einer räumlich verteilten Kräfteverteilungp, Oberflächenkräften q
und m Einzelkräften F; unterworfen. Mit f bezeichnen wir den ortsabhängi-
gen Verschiebungsvektor im allgemeinen Punkt P des Körpers. Die totale
potentielle Energie des Körpers unter den Belastungen wird gegeben durch

Il =
2 v
~ fJ I CT T G d V - I fJ pTf
v
dV -
S
q Tf d S - fJ
;=1
fi. (1.36)S F!
Darin bedeuten CT den Spannungsvektor, G den Verzerrungsvektor, V das
Volumen des Körpers, S seine Oberfläche, F; die angreifenden Einzelkräfte
und fi die diskreten Verschiebungsvektoren in den Angriffspunkten der
Einzelkräfte. Das erste Volumenintegral entspricht der Arbeit der inneren
Spannungen und die übrigen Terme dem Potential der angreifenden äußeren
Kräfte.
Das Prinzip der minimalen potentiellen Energie besagt nun, daß unter allen
möglichen Verschiebungszuständen, welche den kinematischen Randbe-
dingungen genügen, der tatsächliche Gleichgewichtszustand die potentielle
Energie Il minimiert.
Dieses Prinzip ist analog zur Aussage von Satz I und es erlaubt die Be-
stimmung des Verschiebungszustandes eines Körpers unter einem Belastungs-
zustand durch Minimierung der totalen potentiellen Energie. Um das Prinzip
anwenden zu können, sind der Verzerrungsvektor G und der Spannungsvektor
CT durch die Verschiebungen f darzustellen. Der Verschiebungsvektor f be-
steht aus den drei Komponenten u, v und w in X-, y- und z-Richtung:
f= (u, v, w)T, (1.37)
worin u, v und w je Funktionen der drei Ortsvariablen sind. Die Verzerrungen
eines Körpers sind ein Maß für seine Verformung und sind unter der Annahme
kleiner Verschiebungen im Sinn der linearen Elastizitätstheorie gegeben
durch [Hah75]
CU CU cw
G =- Gy = -::;--, Ez =-,,-, (1.38)
x cx' oy oz
_ cu + cv _ cu + cw
-c-' = ew +~
YXY --cY -c'
~x
Yyz - -,,-
oz y Yzx "
oX a·
z
(1.39)

und Gz bedeuten die Dehnungen in X-, y- und z-Richtung, während Yxy,


Gx, Gy
Yyz und Yzx die Schiebungen, d. h. Änderungen des ursprünglich rechten
Winkels in der (x,y)-, (y,z)- und (z,x)-Ebene darstellen I). Diese 6 Größen

I) Die Indizes bei e und y haben nicht die Bedeutung von partiellen Ableitungen, wie
etwa bei ux ,
Vx usw.
1.2 Extremalprinzipien 29

werden im Verzerrungsvektor

(1.40)

zusammengefaßt. Da die sechs Komponenten des Verzerrungsvektors von den


drei Verschiebungskomponenten hergeleitet werden, können sie nicht unab-
hängig voneinander sein. Vielmehr müssen sie die sogenannten St. Venant-
sehen Kompatibilitätsbedingungen erfüllen, die aber für das folgende
nicht benötigt werden.
Der innere Spannungszustand in einem allgemeinen Punkt P eines ver-
formbaren Körpers läßt sich unter Berücksichtigung von inneren
Gleichgewichtsbedingungen durch sechs Spannungskomponenten ax , ay,
a z, T xy , Tyz , T zx beschreiben, wobei a x, ay und a z die Normalspannungen in
den drei Koordinatenrichtungen und T xy , Tyz und T zx die drei Schubspan-
nungen bedeuten. Die sechs Spannungskomponenten bilden den Span-
nungsvektor

(1.41)

Zwischen den Spannungen und Verzerrungen bestehen physikalische Gesetze,


welche das elastomechanische Verhalten des Materials beschreiben. Auf
Grund der klassischen linearen Elastizitä'tstheorie ist diese Beziehung linear.
Falls wir uns für das folgende auf iso tro pe Körper beschränken, für welche
keine Richtungsabhängigkeit der elastischen Eigenschaften besteht, lautet das
verallgemeinerte Hookesche Gesetz

ex
I
-(ax - vay - vaz),
2(1 + v) T xy ,
= Yxy =
E E

I 2(1 + v)
ey == E (-vax + ay - vaz), Yyz = Tyz , ( 1.42)
E

1 2(1 + v)
ez = -(-va
E .r - val'. + a.),
. Yox =
E
fox·

Darin bedeuten E den Elastizitätsmodul und v die Poissonsche Zahl.


Diese beiden physikalischen, voneinander unabhängigen und experimentell zu
bestimmenden Konstanten beschreiben das elastische Verhalten des Materials
vollkommen. Durch Aufläsen der linemvn it iehungen (1.42) nach den
Spannungskomponenten ergibt sich in Matrixschreibweise

(T =De ( 1.43)
30 1 Mathematische Grundlagen

mit der symmetrischen Matrix

1- v v v I o o o
v 1- v v I o o o
v v 1- v I o o o
E I
D=----- ----------------------
(1 + v)(1 - 2v) I
o o o I ~(l-2v) o o
I 2
o o I 1
o I 0 2(1-2v) 0

o o I 1
o I 0 0 2(1-2v)

(1.44)
Auf Grund der Relationen (1.38) und (1.39) zwischen den Verschiebungen und
Verzerrungen einerseits und der Beziehung (1.43) zwischen den Verzerrungen
und Spannungen anderseits kann das erste Integral der gesamten potentiellen
Energie in (1.36) ebenfalls durch den Verschiebungsvektor f dargestellt
werden. Formal kann der Zusammenhang durch die Einführung einer
rechteckigen (6 X 3)-Differentiationsoperatormatrix B geschehen, mit welcher
die Relationen (1.38) und (1.39) als c=Bf darstellbar sind. Von dieser
formalen Schreibweise soll jedoch im folgenden kein Gebrauch gemacht
werden.

1. Spezialfall Zugs tab Ein Stab von konstantem Querschnitt A und Länge I
werde nur Kräften in seiner Längsrichtung unterworfen (Fig. 1.12). Dabei
wird angenommen, daß bei Deformation des Stabes jeder Querschnitt eben
bleibt und sich nur als Ganzes in x-Richtung verschiebt. Es sollen keine
Verschiebungen iny- und z-Richtung erfolgen. Im Verschiebungsvektorfsind
die zweite und dritte Komponente gleich Null, so daß nur die Verschiebungs-
funktion u(x) übrig bleibt, die nur eine Funktion von x allein ist. Unter den
Verzerrungskomponenten ist nur

Cx ou
=-=u x '( )
ox
von Null verschieden. Um das Produkt (J"T c zu bilden, benötigen wir deshalb
nur die erste Komponente O"x des Spannungsvektors (J". Unter den getroffenen
Annahmen treten im Zugstab nur Normalspannungen in x-Richtung auf, so
daß O"y = O"z = 0 sind. Aus dem verallgemeinerten Hookeschen Gesetz (1.42)
1.2 Extremalprinzipien 31

( ~ () x I,,--~/_Y-----,,0
I l----j r-----.t ----I

Fig. 1.12 Zugstab Fig. 1.13 Balkenbiegung

ergibt sich deshalb

Cl x =Eex = Eu'(x)
und es wird

Da bei Zug- und Druckstäben normalerweise Volumenkräfte (etwa das


Eigengewicht) und Oberflächenkräfte nicht berücksichtigt werden, erhalten
wir nach Integration über die y- und z-Richtung für die gesamte potentielle
Energie

1 /
IlsTAB ="2 EA J u'(x)2dx - uoFo - u/F/ ( 1.45)
o

wo Fa und F/ die diskreten Kräfte an den 'Stabenden und Uo und u/ die


entsprechenden diskreten Verschiebungen in Stabrichtung bedeuten.

2. Spezialfall Balkenbiegung In der klassischen Balkentheorie wird ange-


nommen, daß bei Biegung in einer Hauptrichtung ebene Querschnitte eben
bleiben. Betrachten wir einen Balken der Länge I mit rechteckigem Quer-
schnitt (Fig. 1.13) und Biegung in der (x, z)-Ebene. Unter der weiteren üblichen
Annahme, daß die Auslenkungen und Neigungen klein sind und sich die
Punkte der neutralen x-Achse nur parallel zur z-Richtung verschieben, ist die
Verschiebungs komponente u(x,y, z) in x-Richtung näherungsweise im Sinn
einer Linearisierung darstellbar vermittels der Neigung der Biegelinie w(x) als

u(x, y, z) =- z w'(x). ( 1.46)

Die Verschiebungskomponente in z-Richtung eines beliebigen Punktes des


Schnittes kann aus demselben Grund gleich w(x) gesetzt werden. Da die
Biegung in der (x, z)-Ebene erfolgt, ist ferner v = 0, und es stellt sich wiederum
heraus, daß im Verzerrungsvektor nur die erste Komponente ex von Null
verschieden ist mit

ex = - z w"(x), (1.47)
321Mathematische Grundlagen

· b ung Yzx
da die Sch le vW
= - -
.::'
+ -~-
~
dU
= w, - w ' =0 ist. Bei der Balkenbie-
2x oZ
gung sind weiter die Normalspannungen ay = a z = 0, so daß nach (1.42) die
Spannungskomponente ax = E Gx wird.
Für die Spannungsenergie erhalten wir nach Substitution von Gx und ax das
Volumenintegral

J.. Hf Ez1w"(xidxdydz.
2 v
Für festes x kann die Integration für den Querschnitt der Fig. 1.13 ausgeführt
werden und liefert
h/2 b/2

-h/2
f -b/2
f
das axiale Flächenträgheitsmoment des Querschnittes bezüglich der y-
Achse. Für konstanten Balkenquerschnitt erhalten wir den Anteil der
Spannungsenergie zu
I
J.. EI f w"(x)l dx.
2 0

Die Volumen- und Oberflächenkräfte werden üblicherweise in eine einzige


Belastungsfunktion q(x) zusammengefaßt, die in positiver z-Richtung an der
neutralen Achse angreift. Als Einzelkräfte kommen hier neben Kräften F; in
z-Richtung auch (Biege-)Momente M; in Frage im Sinn allgemeinerer Kräfte.
Das Funktional für einen Biegestab wird somit

1 I I m m'
IIBsTAB = -EI f w"(x)2dx - f q(x)w(x)dx - I F;w; - I M;w[
2 0 0 ;= 1 ;= 1

( 1.48)

3. Spezialfall Balkentorsion Bei Belastung eines geraden Stabes mit rota-


tionssymmetrischem Querschnitt durch ein reines Torsionsmomeht dreht sich
jeder Querschnitt ohne Verformung in seiner Ebene. Mit dem Verdrehwinkel
B(x) ist die Deformation des Stabes gegeben durch U = 0, v(x,y, z) =
y(cosB-l)-zsinB, w(x,y,z)=ysinB+z(cosB-l). Für kleine Winkel B
werden die Auslenkungen im Rahmen der linearen Theorie mit cos B= 1,
sin B= B gegeben durch

U = 0, v(x, y, z) = - zB(x), w(x, y, z) = yB(x). ( 1.49)


1.2 Extremalprinzipien 33

Der Verzerrungsvektor E erhält damit die Komponenten

G= (0, 0, 0, - zB'(x), 0, yB'(x))T.

Der zugehörige Spannungsvektor wird gemäß (1.43) und (1.44)

(J" = (0,0,0, - E zB'(x),O, E YB'(X))T.


2(l+v) 2(I+v)
Mit dem Schubmodul G = Ej(2(1 + v)) wird die Spannungsenergie des
Torsionsstabes gegeben durch das Volumenintegral

-
1
G Hf (y 2 + z2)B'(x)2 dx dydz.
2 v
Für festes x liefert die Integration über den Querschnitt A

H(y2+ z 2)dydz=I p
A

das sog. polare Flächenträgheitsmoment des Querschnittes. Dieser Wert


ist jedoch unter der Voraussetzung u = 0 in (1.49) hergeleitet worden und ist
nur für kreisförmige und kreisringförmige Querschnitte gültig. Für einen
rechteckigen Querschnitt nach Fig. 1.13 ist I p durch das Torsionsflächen-
mo m e n t Ir zu ersetzen, dessen Wert in guter Approximation gegeben ist durch
[Sza77]

Ir = b 3 hYl, Yl = -1 [1- -192


5 - -b 1
tanh ( -TCh ) , h ~ b.
3 TC h 2b
Falls wir uns weiter auf den praktisch wichtigen Fall beschränken, daß nur an
den beiden Enden äußere Torsionsmomente Mo und MI wirksam sind, erhalten
wir bei konstantem Querschnitt für die gesamte potentielle Energie eines
Torsionsstabes

I
f B'(xi dx -
I
llTorsion = - G Ir MoBo - MIB I (1.51)
2 0

Abgesehen von der verschiedenen Bedeutung der auftretenden Größen sind


die Funktionale für den Zugstab und Torsionsstab identisch aufgebaut.

4. Spezialfall Scheiben Aus den allgemeinen Beziehungen für dreidimensio-


nale elastische Körper lassen sich die Grundgleichungen für die wichtige
Klasse von zweidimensionalen Elastizitätsproblemen mit ebenem Span-
nungszustand herleiten. Die Verschiebungen, Verzerrungen und Spannun-
gen sind nur von den beiden kartesischen Koordinaten x und y abhängig, so
34 I Mathematische Grundlagen

daß dementsprechend nach (1.38) und (1.39) nur zwei Dehnungen und eine
Schiebung auftreten, nämlich
OU OV OU OV
ex =-
~'
ox
ey =-
,,'
"y
Yxy = ay + OX· (1.52)

Im Fall des ebenen Spannungszustandes trifft man die Annahme, daß


auch alle inneren Kräfte nur Komponenten in der (x,y)-Ebene besitzen, d. h.
daß
(Jz = 0 und !xz = !yz =0 (1.53)
sind. Hingegen kann der Körper eine Dehnung in z-Richtung erfahren, so daß
ez 0# 0 sein kann. Aus den allgemeinen Stoffgesetzen (1.42) folgen durch
Spezialisierung mit (1.53)

ey = - 1 (-V{Jx +{Jy) Yxy = 2(1; v) !xy (1.54)


E
und dazu noch

( 1.55)

Aus (1.54) ergeben sich durch Auflösen nach {Jx, {Jy und !xy die für die
Anwendung benötigten Relationen
E E E
{Jx = ~ (ex + Vey), {Jy = ~ (Vex + ey),!xy = 2(1 + v) Yxy' (1.56)

Sie lassen sich mit den Verzerrungs- und Spannungsvektoren


(1.57)

in Matrizenschreibweise als

(1.58)

zusammenfassen mit der für den ebenen Spannungszustand zuständigen


Matrix
v

(1.59)

Falls die resultierende Dehnung in z-Richtung ebenfalls interessiert, ergibt sie


sich nach Substitution von {Jx und {Jy aus (1.56) in (1.55) zu
1.2 Extremalprinzipien 35

-v
ez = - - (ex + Cy),
1- v
doch wird diese Dehnung im folgenden außer Betracht fallen.
Der beschriebene ebene Spannungszustand trifft zumindest in guter Näherung
zu im Innern einer dünnen Scheibe, die nur durch Kräfte in ihrer Ebene
belastet ist (Fig. 1.14).

Fig. 1.14
Belastete Scheibe

Von den parallel zur (x,y)-Ebene wirkenden räumlichen Kräftenp und q wird
angenommen, daß sie gleichmäßig über die konstante Dicke h der Scheibe
wirksam sind. So kann in den Volumen- und im Oberflächenintegral in (1.36)
die Integration in z-Richtung ausgeführt werden, so daß nur noch Gebiets-
und Randintegrale verbleiben. Für die gesamte potentielle Energie erhalten
wir damit die Darstellung

( 1.60)
Die Kräfte- und Verschiebungsvektoren p, q und! sind jetzt selbstverständ-
lich zweidimensional.

5. Spezialfall Ebener Verzerrungszustand Probleme für lange Körper,


deren Geometrie und Belastung in ihrer Längsrichtung nicht ändert, können
ebenfalls als ebene Aufgaben behandelt werden, wobei nur mehr die Ver-
schiebungen in einer senkrechten Schnittebene als die eigentlichen Unbe-
kannten anzusehen sind. Wir lassen diesen Querschnitt mit der (x,y)-Ebene
zusammenfallen. Dann wird aber keine Verschiebung w in z-Richtung
stattfinden und die Verschiebungen u und v sind nur von x und y abhängig.
Auf Grund der grundlegenden Beziehungen (1.38) ist demzufolge die Verzer-
rung ez = 0 und die Schiebungen yyz = Yzx = 0, so daß wiederum nur die drei
Komponenten ex, Cy und Yxy übrig bleiben. In diesem Fall kann aber wohl die
Normalspannung o"z "" 0 sein. Auf Grund der fundamentalen Relationen
(1.42) ist wegen Cz = 0
361Mathematische Grundlagen

Daraus folgen nach Substitution in die beiden ersten Gleichungen von (1.42)
die Beziehungen
I 2 I 2
GX=E[(I-v)O"x-v(l+v)O"y], GY=E[-v(l+v)O"x+(l-v)O"y], (1.61)

während die Gleichung zwischen Yxy und Txy unverändert bleibt. Auflösen von
(1.61) nach O"x und O"y ergibt in Matrixform die Beziehung
(j = DEVZ G ( 1.62)
mit der für den ebenen Verzerrungszustand maßgebenden Matrix

ll-:V
v
D EVZ = - - -E- - - I - v (1.63)
(I + v)(1 - 2v)
o
Die gesamte potentielle Energie für einen Schnitt stellt sich dar als

(1.64)
Das zu minimierende Funktional stimmt im wesentlichen mit demjenigen für
eine Scheibe überein. Es ist einzig zu beachten, daß sich der Spannungsvektor
(j vermöge der Matrix D EVZ (1.63) aus dem Verzerrungsvektor ergibt.

Abgesehen von diesem untergeordneten Unterschied lassen sich die Probleme


mit ebenem Spannungszustand und ebenem Verzerrungszustand vollkommen
analog behandeln.

6. Spezialfall Plattenbiegung Wir betrachten eine dünne Platte konstanter


Dicke h, deren Mittelebene mit der (x,y)-Ebene zusammenfällt. Die Platte
werde durch vertikale Kräfte, kontinuierlich verteilte und/oder Einzelkräfte
belastet (Fig. 1.15).
Auf Grund der wesentlichsten Kirchhoffschen Hypothesen wird ange-
nommen, daß die vertikale Durchbiegung w der Mittelfläche und ihre
partiellen Ableitungen klein seien, daß die Mittelebene als neutrale Schicht
ohne Verzerrungen angesehen werden könne und daß die Normalen zur
Mittelebene der unverformten Platte auch nach der Verformung gerade und
normal zur Mittelfläche bleiben. Unter diesen Annahmen werden die Ver-
schiebungskomponenten

u(x, y, z) =
ow
-Z-, v(x, y, z) =
ow
-z-. ( 1.65)
ox ay
1.2 Extremalprinzipien 37

Fig. 1.15
Belastete Platte

Daraus folgen die Komponenten des Verzerrungsvektors

Cx =
2wa
-z--2' cy =
2w
-z--2'
a Cz = 0, ( 1.66)
ax ay
a2 w
Yxy = -2z - - , Yyz = 0, Yzx = 0.
axay
Als weitere Kirchhoffsche Hypothese werden Spannungen normal zur Mittel-
ebene vernachlässigt (O"z = !xz = !yz = 0), so daß die Beziehungen (1.59) für den
ebenen Spannungszustand anwendbar werden. Für die drei Komponenten des
Spannungsvektors, die zur Bildung von (JT G benötigt werden, ergeben sich so
nach Substitution von (1.66) die Ausdrücke

O"x = ----2
Ez ( -a-2 w a2 2
2 + v--
w) ' O"y = - - -Ez
-2
(a w + --,
2
V --2
aw ) , 2

I - v ox ay 1- v 2x 2y-
Ez a2 w
! =----- (1.67)
xy 1 + v axay·
Die Deformationsenergie wird damit gegeben durch

~
2
fIvJ (JT Gdx dy dz = ~ -4 fI J
2 I-v v
z2[w xx (w xx + VWyy) + Wyy(vw xx + Wyy)
+ 2( 1 - v)w';y] dx dy dz
Die Integration in z-Richtung über die Plattendicke kann ausgeführt werden,
so daß sich unter Einbezug des Potentials der äußeren Kräfte die gesamte
potentielle Energie bei Plattenbiegung wie folgt darstellt

lIPlatte ="2
1 Eh 3
12(1 _ v2) ij [w';x + 2vwxx wyy + W;y + 2(1 - v)w~y] dxdy
m

fJ pwdxdy - L FiWi
C i=l

(1.68)
38 I Mathematische Grundlagen

Der von den Materialeigenschaften E und v sowie von der Plattendicke h


abhängige Koeffizient
Eh 3
D =-----;;-
12(1 - v 2 )
wird als Plattensteifigkeit bezeichnet.
Bei der Behandlung der verschiedenen Spezialfälle wurden nur die Ausdrücke
für die gesamte potentielle Energie gegeben und in keinem Fall irgendwelche
Randbedingungen in Betracht gezogen. Es sei aber an dieser Stelle noch einmal
ganz nachdrücklich darauf hingewiesen, daß die mathematische Aufgabe
darin bestehen wird, die Energiefunktionale zu minimieren nur unter Berück-
sichtigung von geometrischen Randbedingungen, welche die Verschiebun-
gen betreffen und im Fall der Balken- und Plattenbiegung allenfalls noch die
Ableitungen bei eingespannten Enden bzw. Rändern.

Fig.1.16
Einfacher Durchlaufträger

Beispiel1.l1 Für einen mehrfach gelagerten Durchlaufträger mit konstantem


Querschnitt, der am einen Ende eingespannt, an zwei weiteren Stellen gelenkig
gelagert und durch eine kontinuierlich verteilte Last und eine Einzelkraft nach
Fig. 1.16 belastet ist, lautet die Extremalaufgabe: Man minimiere das
Funktional
1
II=-EI fI w"(x)2dx- fI
qow(x)dx-Fw - I (1 ) ( 1.69)
2 0 2/31 2
unter den geometrischen Randbedingungen

w(o) 0, w'(o) = 0, w (~ I) = 0, w(l) = 0. ( 1.70)


...
=

1.2.3 Dynamische elastomechanische Probleme

Für dynamische Probleme, insbesondere Schwingungsaufgaben, ist das


Hamiltonsche Prinzip zuständig. Man betrachtet die sogenannte Lagran-
ge-Funktion [Lan70]
L=T-U-W, (1.71)
wo T die kinetische Energie des betrachteten Systems bedeutet und für einen
räumlichen Körper mit der spezifischen Dichte p(x,y, z) gegeben ist durch das
1.2 Extremalprinzipien 39

Volumenintegral

T=~
2
Hfv {JPjdV. (1.72)

Dabei stellt j als Ableitung des Verschiebungsvektors I nach der Zeit t den
ortsabhängigen Geschwindigkeitsvektor dar. U ist die Deformationsenergie
und W das Potential der äußeren Kräfte. Nach (1.36) ist die Lagrange-
Funktion für einen elastischen Körper gegeben durch

L =~ Hf {JPjdv-~ fH (TTcdv+ Hf pT/dV


2 v 2 v v
m
+ HqT/dS + L F1/;. (1. 73)
S ;=1

Betrachtet man alle die kinematischen oder geometrischen Randbedingungen


erfüllenden Bewegungsabläufe des Systems zwischen zwei beliebigen Zeit-
punkten to und tl bei fest gegebenen Zuständen für to und tl, so nimmt das
Wirkungsintegral
/1

1= f L dt (1.74)
/0

nach dem Hamiltonschen Prinzip für den tatsächlichen Ablauf einen stationä-
ren Wert an. Wesentlich ist dabei, daß die Variation des Wirkungs integrals nur
bezüglich der Zeit erfolgt.
Sollen im speziellen die freien Schwingungen eines Systems ohne äußere
Kräfte untersucht werden, so fallen in der Lagrange-Funktion L (1.73) die drei
letzten Summanden weg. Um das Wirkungsintegral in unmittelbarer Abhän-
gigkeit des Verschiebungsvektors I darzustellen, soll an dieser Stelle vom
formalen Zusammenhang zwischen I und dem Verzerrungsvektor c = BI
vermittels der rechteckigen (6 X 3) Differentiationsoperatormatrix B vorüber-
gehend Gebrauch gemacht werden, um die Relationen (1.38) und (1.39)
zusammenzufassen. Mit der weiteren Beziehung (1.43) erhält das Wirkungs-
integral (1.74) die Form

1= J {~2 Hfv [{Jpj- P BTDBf]dV} dt.


10

Für die Variation bezüglich der Zeit erhält man nach Vertauschung der
Integrationen

M= Hf
v
{J [{JP(oh-/TBTDB(Of)]dt}dV.
/0
40 1 Mathematische Grundlagen

Da (J!) = ~ (J!) gilt, liefert partielle Integration des ersten Integrals be-
d!
züglich der Zeit

0/= Hf
{oPJfl'l - J
[OP+fTBTDBJJfdt}dV. (1.75)
v '0 '0
Die Variationen Jf müssen aber auf Grund der oben erwähnten Einschrän-
kungen des Hamiltonschen Prinzips für die beiden Zeitpunkte to und t)
verschwinden, so daß der bezüglich der Zeit ausintegrierte erste Term
verschwindet. Die Variation des Wirkungsintegrals muß für jede zeitliche
Variation Jfverschwinden, so daß notwendigerweise die hier gültige Euler-
sche Differentialgleichung
oj+ BTDBf= 0 in V (1.76)
erfüllt sein muß, welche sich durch Transponierung des Integranden von (1.75)
ergibt.
Für die gesuchten freien Schwingungen erfolgt für den vom Ort und der Zeit
abhängigen Verschiebungsvektor f der Separationsansatz für harmonische
Schwingungen
fex, y, z; t) = lex, y, z) cos (wt). (I. 77)
Darin bedeuten w die Kreisfrequenz der gesuchten freien Schwingung und
](x,y, z) den nur noch ortsabhängigen Verschiebungsvektor, welcher die
zugehörige Amplitudenverteilung der Schwingung darstellt. Nach Substitu-
tion von (1.77) in (1.76) und anschließender Division durch cos(wt) folgt die
von der Zeit unabhängige Differentialgleichung
BTDB]- W20] = 0, (1.78)
worin das Quadrat der Kreisfrequenz als Parameter auftritt. Die Gleichung
(1.78) kann umgekehrt als Eulersche Differentialgleichung zum zeitunabhän-
gigen Variationsintegral
-
[=-
1
Hf 1
o-T;:dV--w 2 fJJ - -
ofTfdV (1.79)
2 v 2 v
interpretiert werden, welches unter Beachtung der geometrischen Randbedin-
gungen durch eine nur vom Ort abhängige Verschiebungsfunktion](x,y,z)
stationär zu machen ist. Das Funktional (I. 79) ist bei anderer Bedeutung der
auftretenden physikalischen Größen analog zu demjenigen zugehörig zur
Helmholtz-Gleichung.
1.3 Der klassische Ritz-Ansatz 41

1.3 Der klassische Ritz-Ansatz

Zur praktischen Bestimmung einer Näherungslösung, die ein Funktional


stationär zu machen hat, existiert ein Verfahren, das auf Ri tz zurückgeht
[Rit09]. Wir stellen dieses klassische Vorgehen kurz dar, da die zugrundelie-
gende Idee in der Methode der finiten Elemente leicht modifiziert angewendet
wird.
Es sei eine Funktion u(x, y) in einem zweidimensionalen Gebiet G gesucht, die
ein bestimmtes Funktional unter gegebenen Randbedingungen stationär zu
machen hat. Zur näherungsweisen Lösung dieser Aufgabe wählt man einen
Satz von linear unabhängigen, und dem Problem möglichst angepaßten
Funktionen

fPo(X, y); fPl(X, y), fP2(X, y), ... , fPm(x, y). (1.80)

Die Funktion fPo(x,y) spielt darin eine besondere Rolle, denn sie muß die
inhomogenen Randbedingungen erfüllen. Sie entfällt, wenn keine inhomoge-
nen Bedingungen vorgegeben sind. Unter einer inhomogenen Randbedingung
versteht man beispielsweise eine Dirichletsche Randbedingung u = fP(s) auf
einem Randteilstück Cl mit nicht identisch verschwindender Funktion fP(s),
oder eine allgemeine Cauchysche Randbedingung (1.28) mit y(s):;E 0 auf C2.
Die anderen Funktionen fPl (x,y), ... , fPm(x,y) sollen alle gegebenen homo-
genen Randbedingungen erfüllen, aber auf Randstücken mit inhomogener
Dirichletscher Randbedingung gleich Null sein und auf Randstücken mit einer
allgemeinen Cauchyschen Randbedingung (1.28) die daraus resultierende
Bedingung mit y(s) = 0 erfüllen. Mit den so gewählten Funktionen (1.80) wird
die gesuchte Funktion u(x,y) als Linearkombination in der Form
m

u(x, y) = fPo(x, y) + I CkfPk(X, y) (1.81 )


k=l

angesetzt, worin die Koeffizienten Ck geeignet zu bestimmen sind. Mit dem


Ansatz (1.81) werden nämlich für beliebige Werte der Ck alle vorgegebenen
Randbedingungen erfüllt, so daß die Ck allein aus der Bedingung zu ermitteln
sein werden, das Funktional stationär zu machen. Wird der Ansatz (1.81) in
das Funktional eingesetzt, resultiert daraus eine Funktion der unbekannten
Koeffizienten Ck. Die notwendige Bedingung für das Stationärwerden des
Funktionals besteht im Verschwinden der ersten partiellen Ableitungen nach
den Ck. Dies liefert genau m Bedingungsgleichungen für die zu bestimmenden
Koeffizienten. Falls das Funktional eine quadratische Funktion in u ist, so
entsteht eine quadratische Funktion in den Koeffizienten Ck, so daß die
Bedingungsgleichungen linear werden.
42 1 Mathematische Grundlagen

Beispiel1.12 Die resultierende Durchbiegung des belasteten Durchlaufträgers


der Fig. 1.16 von Beispiel 1.11 soll mit Hilfe des klassischen Ritz-Verfahrens
näherungsweise bestimmt werden. Dazu ist die gesamte potentielle Energie
(1.69) unter den geometrischen Randbedingungen (1.70) zu minimieren. Da
alle Randbedingungen homogen sind, tritt keine Funktion fPo(x) auf. Um das
Prinzip zu erläutern, beschränken wir uns auf zwei dimensionslose Ansatz-
funktionen
2 ( ) _ x 3(3x - 2/)(x - I)
( ) _ x (3x - 2/)(x - I)
fPl X - 14 ' fP2 x - 15 '

die alle geometrischen Bedingungen erfüllen. Mit dem Ansatz

erhält das Funktional die Gestalt


1 1
II = ~ EI J [Cl fPi' + C2fP21 2 dx - J qO[CI fPl + C2fP2] dx
2 0 2/31

Es ist eine quadratische Funktion in Cl und C2 entstanden, die zu minimieren


ist. Als notwendige Bedingungen ergeben sich die beiden Gleichungen für Cl
und C2

all = EI f [ClfPi' + c2fP21fPi' dx - f qOfPl dx - FfPl (~/) = 0


OCI 0 2/31 2

all =EI f [ClfPi' + c2fP21fP2'dx- f qOfP2dX-FfP2(~/)=0


ik2 0 2/31 .2
Die Koeffizienten des linearen Gleichungssystems sind teilweise recht kompli-
zierte Integrale. So ist der Koeffizient von Cl in der ersten Gleichung

-i-I (36x 2 -
1 1
EI J fPi'(x)2 dx = EI J 30lx + 4P)2dx = 11.2 E{.
o 0 I
Man erhält das System

11.2EIr3cI + lOEIl-3c2 + _7_ lqo - ~ = 0


540 16

lOEII- 3c, + J2. EIr 3c2 + _8_ tqO - ~ = O.


7 729 32
1.3 Der klassische Ritz-Ansatz 43

Mit den ZahlwertenE= 2 . 10 7 N/cm 2, 1= 16cm 4 , 1= 300 cm,F= -100N und


qo = -2 N/cm lautet das Gleichungssystem nach Division der beiden Glei-
chungen durch EIl- 3

l1.2cI + 10C2 - 0.12891 = 0


10 CI + 10.2857 C2 - 0.29188 = O.

Die resultierenden Koeffizienten sind CI = -0.1048, C2 = 0.1303. Die Durch-


biegung an der Stelle der Einzellast wird daher

w C) = CI ~I ( ~ ) + C2~2 ( ~ ) = -0.00248 cm,


und in der Mitte des zweiten Feldes ist die Durchbiegung

w (~ t) = -0.000217 cm.

Beispiel1.13 Für die schwingende Membran von Beispiel l.4 lautet das
Funktional
1 1 c
II=- II [(u;+u;)-Au 2 ]dxdy+- f u 2 ds,
2 G 2 B

welches unter den geometrischen Randbedingungen

U = 0 auf AB und CD

stationär zu machen ist. Da hier die Randbedingungen homogen sind, entfällt


die Funktion ~o(x,y). Zwei Funktionen, welche die Randbedingungen er-
füllen sind beispielsweise

~I(X, y) = y(4 - y), ~2(X, y) = x 2y(4 - y).

Folglich lautet die Ansatzfunktion

und ihre ersten partiellen Ableitungen sind

Auf dem Rand BC ist im Ansatz x = 5 einzusetzen und bezüglich y zu


integrieren, da ja y gleich der Bogenlänge ist. Das Funktional erhält damit die
44 Mathematische Grundlagen

Gestalt

n = -
1
If [(2C2X)2(4y - y2)2 + (c] + C2 x2 )2(4 - 2y)2
2 G
4
-A(C] + C2X2)2(4y - y2)2] dxdy + ~ f (C] + 25c2i(4y - y2)2 dy.
2 0

Nach einer elementaren Rechnung ergibt sich nach Auswertung der Integrale
und nach Zusammenfassung die quadratische Form in den Koeffizienten c]
und C2
1 64
n = - - [(99 - 120A)cf + (2450 - 2000A)c] C2 + (28375 - 15000A)cÜ
2 45
Die notwendige Bedingung dafür, daß n stationär ist, besteht in den beiden
linearen und homogenen Gleichungen
(99 - 120A)cl + (1225 - 1000A)c2 = 0
(1.82)
(1225 - 1000A)cl + (28375 - 15000A)c2 = 0
Gesucht sind nur nichttriviale Lösungen für Cl und C2. Die Gleichungen (1.82)
stellen ein allgemeines Eigenwertproblem Ac = ABc dar mit den symmetri-
schen Matrizen

A- [ 99 1225 J B- [ 120 1000 J


1225 28375.' 1000 15000 .
Die daraus resultierenden Eigenwerte Al und .,1.2 sind
Al = 0.69434, A2 = 2.3557.
Der berechnete Wert Al ist eine recht gute Näherung für den kleinsten exakten
Eigenwert 0.685897 mit einem relativen Fehler von rund 1.2%. Die Näherung
der zugehörigen Eigenschwingungsform ergibt sich mit den Zahlwerten Cl = 1
und C2 = -0.029547 als Lösung von (1.82) zu
Ut(x,y) = (1 - O.029547x 2)y(4 - y).
Sie gibt den qualitativen Verlauf der exakten Eigenschwingungsform u(x,y)
= cos (0.262767 x) sin ( : y) richtig wieder. Infolge der getroffenen Wahl

der Ansatzfunktionen erfüllt Ut (x,y) die natürliche Randbedingung am linken


Rand sogar exakt, während sie am rechten Rand nur angenähert erfüllt ist.
Dort gilt

OUI I = OUI I = -0.295 y( 4 - y), Ul (5, y) = 0.261y( 4 - y).


an x=S Clx x=S
1.4 Die Methode von Galerkin 45

Eine solche Abweichung ist aber beim verwendeten groben Ansatz durchaus
zu erwarten. A

Die Anwendung der klassischen Ritzschen Methode ist weitgehend auf


Probleme beschränkt, denen ein regelmäßiges Grundgebiet zugrundeliegt.
Sobald das Grundgebiet G eine allgemeine Geometrie aufweist, ist es in der
Regel praktisch unmöglich, Ansatzfunktionen zu finden, die den Randbedin-
gungen genügen. Zudem kann die Auswertung der auftretenden Integrale im
Fall von mehrgliedrigen Ansätzen zu Schwierigkeiten führen. Die grundlegen-
de Idee von Ritz erweist sich aber in ihrer modifizierten Version der Methode
der finiten Elemente als sehr zweckmäßig. So erlebt diese klassische Idee eine
wahre Renaissance.

1.4 Die Methode von Galerkin

Jetzt wenden wir uns derjenigen Klasse von Problemen zu, für welche keine
echten Extremalprinzipien existieren. In diesen Fällen ist von den das Problem
bestimmenden Differentialgleichungen und den zugehörigen Rand- und
eventuell Anfangsbedingungen auszugehen. Das im folgenden beschriebene
Verfahren kann deshalb auf einen bedeutend größeren Problemkreis angewen-
det werden. Es wird so zu einem recht universellen Werkzeug. Das Vorgehen
wird sehr häufig auch dann angewendet, wenn für das betreffende Problem an
sich ein Extremalprinzip zur Verfügung steht. Dies liegt daran, daß die
klassische Idee der Methode von Galerkin recht einfach zu verstehen ist, und
zudem führt sie in diesen Fällen zu denselben Bestimmungsgleichungen.
Die Methode von Galerkin oder allgemeiner die Methode der gewich-
teten Residuen läßt sich ganz generell wie folgt beschreiben: Die gesuchte
Funktion u des Problems soll mit Hilfe von geeignet gewählten Funktionen «Jo,
«J), ... , «Jm in Analogie zum Ritzschen Ansatz angenähert werden in der Form
m
U = «Jo + 2: Ck«Jk, ( 1.83)
k=)
wobei «Jo wiederum eventuelle inhomogene Randbedingungen erfülle und die
übrigen Funktionen «Jk die entsprechenden homogenen Randbedingungen.
Damit erfüllt u für beliebige Ck die Randbedingungen. Wird nun dieser Ansatz
in die Differentialgleichung eingesetzt, so wird sie in den wenigsten Fällen
erfüllt sein, vielmehr resultiert ein sogenanntes Residuum. Dieses Residuum
soll nun im Innern des Gebietes möglichst klein werden. Dazu verlangt man,
daß das Integral des Residuums, gewichtet mit gewissen Gewichtsfunktionen
W;, über das Grundgebiet verschwindet. Dies heißt mit andern Worten, daß
das Residuum im Mittel bezüglich der Gewichtsfunktionen im Gebiet
46 I Mathematische Grundlagen

verschwindet. Da der Ansatz (1.83) für die gesuchte Funktion m Parameter CI,
C2, ••• , Cm enthält, kann die Bedingung für m voneinander linear unabhängige
Gewichtsfunktionen formuliert werden, so daß m Gleichungen resultieren, aus
denen die Parameter zu bestimmen sind. In dieser allgemeinen Formulierung
entspricht dies dem Verfahren der gewichteten Residuen.
In der Methode von Galerkin werden die m Gewichtsfunktionen der Reihe
nach gleich den gewählten Funktionen rp], rp2, ... , rpm gewählt, welche ja die
Bedingung der linearen Unabhängigkeit erfüllen. Mit dieser Wahl der
Gewichtsfunktionen erreicht man, daß die Residuenfunktion orthogonal zum
Funktionsunterraum ist, der durch rpl, rp2, ... , rpm aufgespannt ist. Diese
Tatsache rechtfertigt das Vorgehen, indem die resultierende Näherungslösung
in diesem Sinn die bestmögliche im Raum der Ansatzfunktionen darstellt.
Führt man die Idee von Galerkin in der eben geschilderten Art durch, so
enthalten die Integranden ebenso hohe Ableitungen der gesuchten Funktion
wie die Differentialgleichung. In der klassischen Ausführung der Methode
stellt dies kaum ein Problem dar. Im Hinblick auf ihre Anwendung in der
Methode der finiten Elemente ergeben sich jedoch gewisse Schwierigkeiten, da
schärfere Anforderungen an die Stetigkeit von höheren Ableitungen der
verwendeten Funktionen zu erfüllen sind. Die Variationsintegrale enthalten
aber stets nur Ableitungen niedrigerer Ordnung als die zugehörigen Euler-
schen Differentialgleichungen. Die höheren Ableitungen lassen sich in der
Regel vermittels partieller Integration, bzw. durch die Anwendung von
Gausschen und Greenschen Integralsätzen eliminieren, so daß die erwähnte
Schwierigkeit behoben werden kann.
Die allgemein gehaltenen Ausführungen werden im folgenden anhand von
konkreten Beispielen illustriert.

1. Anwendung In einem Gebiet G der (x, y)-Ebene sei die Poissonsche Diffe-
rentialgleichung

Uxx + Uyy = fex, y) in G

zu lösen unter den Dirichletschen Randbedingungen

U = rp(s) auf CI

und den Cauchyschen Randbedingungen


dU
-~- + a(s)u(s) = y(s) auf C2 •
on
Es soll gezeigt werden, daß die resultierenden Gleichungen nach der Methode
von Galerkin in diesem Spezialfall zumindest formal übereinstimmen mit den
entsprechenden Gleichungen, die sich nach dem Extremalprinzip ergeben.
1.4 Die Methode von Galerkin 47

Es sei <Po(x,y) eine Funktion, welche die inhomogenen Randbedingungen

a<po
<Po = <pes) auf Cl und - - + a(s)<po(s) = y(s) auf C2 ( 1.84)
an
erfülle, und <PI (x,y), ... , <Pm(x,y) seien Funktionen, die den homogenen
Randbedingungen

a<Pk
<Pk = 0 auf Cl und - -+ a(s)<pk(S) = 0 auf C2 ( 1.85)
an
genügen. Der Ansatz

u(x, y) = <Po(x, y) + L Ck<Pk(X, y) ( 1.86)


k=l

erfüllt die Randbedingungen für beliebige Werte Ck. Substitution in die


Differentialgleichung liefert die Residuenfunktion

m
D.<po + L CkD.<Pk - fex, y) = R(x, y). (1.87)
k=l

Nach der Idee von Galerkin wird das Verschwinden der Integrale

Jf R(x, y)<pj(x, y)dxdy = 0 (j = 1,2, ... , m)


c
gefordert. Das führt nach Substitution von R(x, y) zu den Gleichungen

I
k=l
Ck {IJ
C
D.<Pk· <Pj dXdY } + Jf
C
D.<po· <Pj dxdy

- IJ fex, y)<pj dxdy = 0, (j = 1,2, ... , m). ( 1.88)


C

Hier zeigt sich die Tatsache, daß die Integranden der ersten beiden Integrale
zweite partielle Ableitungen enthalten. Diese Integrale lassen sich aber mit
Hilfe der Greenschen Formel

IJ D.u·vdxdy=- IJ gradu'gradvdxdy+ ~ :u 'vds


C C c on
umformen, so daß anstelle von (1.88) die gleichwertigen Gleichungen
48 I Mathematische Grundlagen

k~l Ck {- ij grad f/Jk . grad f/Jj dx dy + ~ dc: k f/Jj dS}

3f/Jo
-JJ grad f/Jo • grad f/Jj dxdy + cf> -::)- f/Jj ds
c vn
C

- JJ fex, y)f/Jj dxdy = 0 (1.89)


c
gelten müssen. Für die Randintegrale sind die Bedingungen an die Ansatz-
funktionen zu berücksichtigen. Auf dem Randstück Cl sind f/Jis) = 0 für
j = 1,2, ... , m, weshalb die Integrale für diesen Teil verschwinden. Auf dem
Randstück C2 hingegen sind die Bedingungen (1.84) und (1.85) gültig, so daß
dort die Ableitungen nach der äußeren Normalenrichtung ersetzt werden
können. Dies führt zu einer weiteren Umformulierung der Gleichungen (1.89),
wobei gleichzeitig noch mit (-1) multipliziert wird.

k~l Ck { ij grad f/Jk . grad f/Jj dxdy + L a(S)f/Jk(S)f/Jj(S)dS}

+ JJ grad f/Jo· grad f/Jj dxdy + J [a(s)f/Jo(s) - y(s)]f/Jis)ds


C c2
+ JJ fex, Y)f/Jj dxdy = 0, Ci = 1,2, ... , m). (1.90)
C

In der geschweiften Klammer erscheint der Koeffizient der Unbekannten Ck in


der j-ten Galerkinschen Gleichung, und die übrigen zwei Gebiets- und das
Randintegral ergeben den konstanten Term dieser Gleichung.
Jetzt gehen wir anderseits vom zugehörigen Variationsintegral aus

1= ij [~ (u; + u;) + fex, y)u j


dxdy + ~ [~ a(s)u 2 - j
y(s)u ds, (1.91)

welches durch eine Funktion u(x,y) stationär zu machen ist unter der
Nebenbedingung
u = f/J(s) auf Cl.

In diesem Fall sei f/Jo(x,y) derart, daß sie nur die inhomogene Dirichletsche
Randbedingung auf Cl erfüllt
f/Jo(s) = f/J(s) auf Cl,

während die weiteren Funktionen f/JI (x,y), ... , f/Jm(x,y) nur der homogenen
Dirichletschen Randbedingung auf Cl genügen
f/Jk(S) = 0 auf Cl, (k = 1,2, ... , m).
1.4 Die Methode von Ga1erkin 49

Die Ansatzfunktionen unterliegen also weniger Bedingungen als im Fall der


Lösung der Randwertaufgabe. Der Ansatz (1.86) entspricht der Ritzschen
Methode, und man erhält nach Substitution im Funktional (1.91)

1= Jf
G
r~ ({rpo + i
k~1
Ckrpk}2
x
+ {rpo + i
k~1
Ckrpk}2)
y

+ fex, y){ rpo + kt l Ckrpk}] dxdy (1.92)

+ *r~ a(s){rpo+ kt l Ckrpkf -y(S){rpo+ ktl Ckrpk}]dS.

Das Randintegral für das Teilstück CI liefert hierbei nur eine Konstante, da
dort rpk = 0 für k = 1,2, ... , m vorausgesetzt ist und rpo(s) = rp(s) eine bekannte
vorgegebene Funktion darstellt. Das Funktional (1.92) ist bezüglich der
Parameter CI, ..• , Cm stationär zu machen. Es müssen somit notwendigerweise
seine partiellen Ableitungen nach den Cj (j= 1,2, ... , m) verschwinden:

;1 = Jf r{rpo + i Ckrpk} rpjx + {rpo + i Ckrpk} rpjy + fex, y)rpj] dxdy

t
v C) G k~I x k~ I Y

+ f
ra(S){rpo + Ckrpk} rpj - y(S)rpj] ds = 0, (j = 1,2, ... , m)
c2 k-I

Indem wir Integrationen und Summationen vertauschen und für rpk<rp/< +


rpk rpj = grad rpk' grad rpj schreiben, weiter die Terme geeignet zusammenfas-
Y 'b 'h
sen,
y
ergl t SIC

i
k~ I
Ck {ff grad rpk' grad rpjdxdy+ cf a(S)rpkrpjdS}
G 2

+ ff [grad rpo . grad rp) + fex, y) rpj] dx dy


G

T' f [a(s)rpo - y(s)]rpjds = 0 (j = 1,2, ',., m)


c2
in formaler Übereinstimmung mit (1.90). Falls nur Dirichletsche Randbedin-
gungen auftreten (C 2 = 0), besteht eine vollkommene Übereinstimmung, so
daß auch die erhaltenen Näherungslösungen identisch sind. Treten hingegen
auch Cauchysche Randbedingungen auf, so sind zwar die Gleichungssysteme
formal identisch, die Näherungslösungen hingegen im allgemeinen verschie-
den, da im Fall der Galerkinschen Gleichungen die Ansatzfunktionen
schärferen Nebenbedingungen unterliegen. Die mit Hilfe des Ritz-Ansatzes
50 I Mathematische Grundlagen

gewonnene Näherungslösung des Variationsintegrals wird demgegenüber die


natürlichen Randbedingungen nur angenähert erfüllen. Auf Grund dieser
Feststellung wird man im Fall der Galerkinschen Methode die Cauchyschen
Randbedingungen ebenfalls nicht berücksichtigen, wodurch eine für die
Rechenpraxis wesentliche Vereinfachung resultiert. Mit dieser Modifikation
werden Bestimmungsgleichungen und damit auch die resultierenden Nähe-
rungslösungen identisch.

2. Anwendung Instationäre Wärmeleitung Als Repräsentant eines insta-


tionären Feldproblems sei die Wärmeleitung in einem isotropen zweidimen-
sionalen Medium betrachtet, wofür kein klassisches Extremalprinzip existiert.
Im Gebiet G ist die Differentialgleichung
3u
D.u - fex, y, t) - x - = 0 in G (1.93)
3t
zu lösen unter den im allgemeinen zeitabhängigen Randbedingungen

u(s, t) = qJ(s, t) auf Cl für t >0 (1. 94)


3u(s, t)
--'--'---'- + a(s)u(s, t) = y(s, t) auf C2 für t > 0 (1.95)
3n
und der Anfangsbedingung zur Zeit t = 0

u(x, y, 0) = uo(x, y) in G. (1.96)

Das grundsätzliche Vorgehen zur Lösung des Anfangs-Randwertproblems


nach der Methode von Galerkin besteht darin, daß für die Funktion u(x,y, t)
ein Ansatz verwendet wird, in welchem die örtliche und zeitliche Abhängigkeit
separiert ist.
m

u(x, y, t) = qJo(x, y, t) + I Ck(t)qJk(X, y) (1.97)


k~l

Die bisher konstanten Koeffizienten Ck werden jetzt als Funktionen der Zeit
angesetzt. Im Ansatz (1.97) soll die Funktion qJo(x,y, t) die inhomogenen
Randbedingungen auf Cl und C2 erfüllen, während die Funktionen qJk(X,y)
den zeitunabhängigen homogenen Randbedingungen genügen sollen. Damit
erfüllt der Ansatz (1.97) für beliebige Funktionen Ck(t) die inhomogenen
Randbedingungen.
Wird der Ansatz der Funktion u(x,y, t) in die Differentialgleichung (1.93)
eingesetzt, wird die Residuenfunktion sowohl eine Funktion des Ortes und der
Zeit. Die Galerkinschen Bedingungsgleichungen werden in diesem Fall nur für
einen festen Zeitpunkt t bezüglich des Grundgebietes G formuliert. Es wird
also verlangt, daß das Gebietsintegral über die Residuenfunktion, gewichtet
1.4 Die Methode von Galerkin 51

mit den nur ortsabhängigen Funktionen 'Pj(x,y), (j= 1,2, ... , m) verschwinde.
Die so modifizierte Forderung liefert die Galerkinschen Bedingungsgleichun-
gen

~ [b.'PO + kt! Ck(t)b.'Pk -fex, y, t)

_x{3'PO
3t
+ i
k=!
aCk 'Pk}l'PjdxdY=O,
at J
(j=1,2, ... ,m).

Nach Vertauschung von Integration und Summation und Anwendung der


Greenschen Formel ergeben sich daraus die neuen Gleichungen

ik=!
Ck(t) {- Hgrad 'Pk' grad 'Pj dxdy + cP
G C
a'Pk 'PjdS }
an
-i k=!
dCk
dt
HX'Pk'Pj dxdy - Hgrad 'Po . grad 'Pj dxdy
G G

+ a'Po 'Pj ds -
rf, -",-
'f JJ fex, y, t)'Pj dxdy - JJ a'Po 'Pj dxdy = 0,
x -;-
c on G G ut
(j=1,2, ... ,m).
An dieser Stelle können wie in der ersten Anwendung die Randbedingungen
der gewählten Ansatzfunktionen berücksichtigt werden, so daß in Analogie
und gleichzeitiger Verallgemeinerung zu (1.90) die Galerkinschen Gleichun-
gen resultieren:

~ ~JJ
L X'Pk'Pj dxdy
k =! dt G

+ i
k=!
Ck(t) {H grad 'Pk' grad 'Pjdxdy + cJ a(S)'Pk(S)'Pj(S)dS}
G 2

+ ~ [grad 'Po' grad 'Pj + k(X, y, t) + x a:ro } 'Pj 1dxdy


+ J [a(s)'PO(S, t) - Y(S)]'Pj ds = 0 (j = 1,2, ... , m) ( 1.98)
c2
Die Galerkinschen Gleichungen stellen ein System von m gewöhnlichen
Differentialgleichungen erster Ordnung für die m Koeffizientenfunktionen
Ck(t) dar. Dieses Differentialgleichungssystem stellt sich mit den Matrizen
52 I Mathematische Grundlagen

A = (ajk), ajk = ff grad ({Jj' grad ({Jk dxdy + J a(s)({Jj({Jk ds (1.99)


G c2
B = (bjk ), bJk = ff X({Jj({Jk dx dy (1.100)
G

und den Vektoren

c(t) = (Cj(t), C2(t), "., cm(t)l


d = (d j , d2, .", dm)T

dj = ij [grad ({Jo . grad ({Jj + {f + x aa~O } ({Jj Jdx d y


+ J [a(s)({Jo - y(s)]({Jjds (1.101)
C2

in übersichtlicher Form wie folgt dar


Be + Ac + d = O. (1.102)
Die Matrizen sind offensichtlich symmetrisch, und die Matrix B bei der
geforderten linearen Unabhängigkeit der Funktionen ({Jk sogar positiv definit
und damit regulär. Für eine numerische Integrationsmethode ist die Tatsache
von Bedeutung, daß die Matrizen A und B nicht von der Zeit t abhängig sind,
also konstant sind. Hingegen wird der Vektor d bei zeitabhängigen Randbe-
dingungen ebenfalls von t abhängig sein.
Die Integration von (1.102) erfordert die Kenntnis einer Anfangsbedingung
für den Vektor c. Diese kann aus der Anfangsbedingung (1.96) gewonnen
werden. Gemäß Ansatz (1.97) sollte gelten
m
({Jo(x, y, 0) + I Ck (0) ({Jk (x, y) = uo(x, y) in G. (1.1 03)
k=j

Da diese Bedingung in der Regel nicht identisch für alle Punkte in G zu erfüllen
ist, besteht die Möglichkeit, die Werte Ck(O) nach dem Galerkinschen Prinzip
zu bestimmen. Danach ergeben sich folgende Gleichungen
m
I Ck(O) JJ ({Jk({Jjdxdy+ JJ [({Jo(X,y,O)-uo(x,y)]({Jjdxdy=O,
k=j G G (j=1,2,,,.,m).
Als Koeffizientenmatrix ergibt sich im wesentlichen die Matrix B, falls x
konstant ist.
Da das Differentialgleichungssystem (1.102) linear ist, bietet sich als zweck-
mäßiges numerisches Integrationsverfahren die Trapezmethode an [Sti76,
Scw88]. Zur Herleitung der Formeln kann (1.102) zunächst in expliziter Form
1.4 Die Methode von Galerkin 53

geschrieben werden.
c= -B-1Ac - B-1d (1.104)

Ein allgemeiner Integrationsschritt mit der Schrittweite b.t lautet mit dem
Vektor Cn zur Zeit t = n . b.t demnach

Cn+l = Cn _l. b.t[B-1Acn + B-1dn + B-1Acn-l-l + B-1dn+1J.


2
Nach Multiplikation dieser Gleichung mit B und anschließendem Ordnen
ergibt sich weiter

(B+ ~ b.tA)Cn-'-l= (B- ~ b.tA)Cn - ~ b.t(dn+dn+1). (1.105)

Jeder Integrationsschritt erfordert die Lösung eines linearen Gleichungs-


systems mit der konstanten Koeffizientenmatrix B + l. b.tA,
falls der Zeit-
2
schritt b.t konstant gehalten wird. Die Berechnung von Cn-cl erfolgt nach der
bekannten Rechentechnik, wonach bei einmal durchgeführter Zerlegung der
symmetrischen oder positiv definiten Matrix B + l. b.tA in jedem Integra-
2
tionsschritt nur mehr die Prozesse des Vorwärts- und Rückwärtseinsetzens
nötig sind [SRSn, Scw88], sobald die rechte Seite von (1.105) berechnet
worden ist.

3. Anwendung Das Verfahren von Galerkin ist nicht auf Probleme beschränkt,
bei denen eine einzige Differentialgleichung für eine gesuchte Funktion zu
lösen ist. Vielmehr läßt sich die prinzipielle Vorgehensweise übertragen auf
Aufgaben, bei denen verschiedene Funktionen als Lösungen eines Differen-
tialgleichungssystems zu bestimmen sind.
Als repräsentatives Beispiel betrachten wir die Aufgabe, den stationären
ebenen Strömungszustand einer viskosen und inkompressiblen Flüssigkeit zu
bestimmen unter der vereinfachenden Annahme, daß die Reynoldsche Zahl
klein sei, so daß die Trägheitskräfte gegenüber den inneren Reibungskräften
vernachlässigbar sind. Sind zudem keine äußeren Kräfte vorhanden, so lautet
das Differentialgleichungssystem für den Druck p und die Geschwindigkeits-
komponenten u und v in x- und y-Richtung [Kne75]

(1.106)

~
cp
-,,--f-l ~+--1
( ~2 v "2)
Ci v
=0
Ci
(Momentengleichungen)
( 1.107)
Ciy ,cx ey-
54 I Mathematische Grundlagen

~+ 3v =0 (Kontinuitätsgleichung) (1.108)
dX 3y

Darin bedeutet j1 die Zähigkeit der Flüssigkeit. Die Randbedingungen


schreiben den Druck, die Geschwindigkeit oder den Geschwindigkeitsgra-
dienten vor. Ohne auf konkrete Randbedingungen einzugehen, soll nur das
prinzipielle Vorgehen so weit beschrieben werden, daß die wesentlichen
Punkte in Erscheinung treten. Für die drei Feldfunktionen u, v und P werden
die üblichen Ansätze von Linearkombinationen von gewählten Grundfunk-
tionen verwendet.
m
u(x, y) = lPo(x, y) + L
k=l
Uk lPk(X, y) (1.109)

m
v(x, y) = lfIo(x, y) + L
k=l
Vk IfIk(X, y) (1.110)

q
p(x, y) = Xo(x, y) + L PkXk(X, y) (1.111)
k=l
Dabei sollen für U und v gleich viele Grundfunktionen verwendet werden,
während für P eine im allgemeinen verschiedene Anzahl gewählt wird. Nach
Substitution der Ansätze (1.109) bis (1.111) in die drei Differentialgleichungen
(1.106) bis (1.108) ergibt sich in jeder Gleichung ein Residuum. Es gilt nun,
nach dem Galerkinschen Prinzip insgesamt 2m + q Bedingungen für die
2m + q Unbekannten U1, ... , Um, V1, ... , Vm, P1," .,Pq aufzustellen. Es ist jetzt
nicht möglich zu verlangen, daß die drei Residuenfunktionen bezüglich aller
Funktionen lPb IfIk und Xk im Mittel verschwinden, da diese Forderung zu
3(2m + q) Gleichungen führen würde. Demzufolge ist eine bestimmte Aus-
wahl zu treffen. Es ist sinnvoll und problemgerecht, für das Residuum der
ersten Differentialgleichung (1.106) die Gewichtsfunktionen lP/x,y), für
(1.107) die IfIj(X, y) und für die dritte Gleichung die X/x, y) zu verwenden. Diese
Auswahl liefert in der Tat die gewünschte Anzahl von (2m + q) Bedingungs-
gleichungen. Wir erhalten so

Uk6. lPk } ] tpj dxdy = 0

(j = 1,2, ... , m)

Jf [ -3Xo+ Lq 3Xk
Pk--j1
{
6.lfIo+ L
m
J
Vk6. lfIk } IfIj dxdy = 0
G 3y k=l 3y k=l
(j=1,2, ... ,m)
1.4 Die Methode von Galerkin 55

2)(lh
Uk -~-
e!f/o
+- ~
- + L, 0!f/k 1
Vk - - Xj dx dy =0
~x ey k=1 3y
(j = 1,2, ... , q)
Die auftretenden zweiten partiellen Ableitungen lassen sich durch die
Greensche Formel eliminieren. Für konstante Zähigkeit /l erhalten wir
folgenden Satz von Bedingungsgleichungen
3
L
m
fJ /l grad qJk' grad qJj dxdy + L
q
Uk Pk ff ~Xk qJj dxdy + RJ = 0
k=1 G k=1 G 3x
ex
Lm
Vk fJ /lgrad!f/k'grad!f/jdxdy+ L
q
Pk ff ;:. k !f/jdxdy+Sj=O
k=1 G k=1 G "y
dqJ
Lm

k=1
Uk fJ
G
~Xjdxdy+
ox
L Vk fJ -,"\-Xjdxdy+T;=O
m

k=1 oy
G
(Hp;!

Zur Wahrung der Übersichtlichkeit wurden einige Gebiets- und Randintegrale


in den Termen Rj , Sj und T; zusammengefaßt. Um die Struktur des
resultierenden linearen Gleichungssystems zu untersuchen, bilden wir den
Vektor ~ der Unbekannten ~ = (uj, Uz, ... , Um, VI, V2, ... , Vm, PI,P2, ... ,pq)T und
den Konstantenvektor d=(R I ,R2, ... ,R m , SI,S2, ... ,Sm, T I ,T2, ... ,Tq )T. Die
Koeffizientenmatrix A des Systems
A~ +d = 0
besitzt die Blockstruktur

o
A!3]
A 23
o
Darin bedeuten All und A22 je quadratische und symmetrische Matrizen der
Ordnung m, während A l3 und A 23 je rechteckige (m X q), A 31 und A32je (q X m)
Matrizen darstellen. Der Rest der Matrix A besteht aus Nulluntermatrizen
entsprechender Ordnung. Ein Blick auf die Integrale, welche die Elemente der
Matrizen A!3 und A 31 definieren, offenbart, daß diese beiden Untermatrizen in
der Regel nicht zueinander transponiert sind. Folglich ist die Matrix A im
allgemeinen unsymmetrisch. Bei Anwendung des Galerkinschen Verfahrens
auf beliebige lineare Differentialgleichungssysteme sind die resultierenden
Gleichungssysteme in der Regel nicht symmetrisch. Dies ist teilweise Aus-
druck der Tatsache, daß für das betreffende Problem kein echtes Extremal-
prinzip existiert. Dennoch gelingt es gelegentlich, durch besonders geschickte
Wahl der Ansatzfunktionen die Symmetrie der Gleichungssysteme wiederher-
56 I Mathematische Grundlagen

zustellen. In unserem Fall wäre dies etwa mit der Wahl von identischen
Ansatzfunktionen qh(X, y) = IfIk(X,y) = Xk(X, y) für k = 1,2, ... , m möglich,
falls dies auf Grund der Randbedingungen überhaupt zulässig ist.

1.5 Generelle Beschreibung der Methode der finiten Elemente

In diesem Abschnitt soll die wesentliche zugrundeliegende Idee und das sich
daraus ergebende prinzipielle Vorgehen der Methode der finiten Elemente zur
Lösung von Aufgaben, wie sie oben skizziert worden sind, generell beschrie-
ben werden. Dies wird die auszuführenden Teilschritte bereits vorzeichnen, die
in den folgenden Kapiteln im Detail behandelt werden.

1. Schritt Die gegebene Aufgabe wird diskretisiert, indem ganz allgemein das
Grundgebiet in einfache Teilgebiete, den sogenannten Elementen, zerlegt
wird. Bei gewissen Aufgabenstellungen ist die Aufteilung in Elemente durch
das Problem bereits weitgehend vorgegeben. Man denke dabei beispielsweise
an ein räumliches Fachwerk (Beispiell. 7), bei welchem die einzelnen Stäbe die
Elemente der Konstruktion bilden. Dasselbe gilt etwa auch bei Rahmenkon-
struktionen, wo die einzelnen Balken oder sogar unterteilte Balkenstücke die
Elemente der Aufgabe darstellen.

Fig. 1.17
Diskretisierung des Grundgebietes

Im Fall von zweidimensionalen Feldproblemen oder elastomechanischen


Aufgaben wird das Grundgebiet G in Dreiecke, Parallelogramme, krummlini-
ge Dreiecke oder Vierecke eingeteilt, wie dies etwa in Fig. 1.17 angedeutet ist.
Selbst wenn nur geradlinige Elemente verwendet werden, erreicht man mit
einer entsprechend feinen Diskretisierung eine recht gute Approximation des
Grundgebietes. Krummlinige Elemente erhöhen selbstverständlich die Güte
der Annäherung des Grundgebietes. Jedenfalls erlaubt diese Diskretisierung
eine äußerst flexible und auch dem Problem angepaßte Erfassung des
Grundgebietes. Allerdings muß unbedingt darauf geachtet werden, daß Paare
von allzu spitzen und damit allzu stumpfe Winkel in den Elementen
1.5 Generelle Beschreibung der Methode der finiten Elemente 57

vermieden werden, um numerische Schwierigkeiten zu vermeiden. Dann wird


das gegebene Gebiet durch die Fläche der approximierenden Elemente ersetzt.
Bei räumlichen Problemen erfolgt eine Diskretisierung des dreidimensionalen
Gebietes in Tetraederelemente, Quaderelemente oder andern dem Problem
angepaßten möglicherweise auch krummflächig berandeten Elementen.

2. Schritt In jedem der Elemente wird für die gesuchte Funktion, bzw.
allgemeiner für die das Problem beschreibenden Funktionen, ein problem-
gerechter Ansatz gewählt. Im besonderen eignen sich dazu ganz rationale
Funktionen in den unabhängigen Raumkoordinaten. Für eindimensionale
Elemente (Stäbe, Balken) kommen Polynome ersten, zweiten, dritten und
gelegentlich sogar höheren Grades in Frage. Bei zweidimensionalen Proble-
men finden lineare, quadratische und höhergradige Polynome der Form
u(x, Y) = CI + C2 X + C3Y, (l.! 12)
u(x, Y) = CI + C2X + C3Y + C4X 2 + C5XY + c6y 2, (1.113)
oder etwa bilineare Ansätze
(1.114)
Verwendung. Die Art des Ansatzes hängt dabei einerseits von der Form des
Elementes ab und anderseits kann auch das zu behandelnde Problem den zu
wählenden Ansatz beeinflussen. Denn die Ansatzfunktionen müssen beim
Übergang von einem Element ins benachbarte ganz bestimmte problemabhän-
gige Stetigkeitsbedingungen erfüllen. Die Stetigkeitsanforderungen sind häu-
fig aus physikalischen Gründen offensichtlich. Sie sind aus mathematischen
Gründen auch erforderlich, damit die Menge der Ansatzfunktionen eine für
das Extremalprinzip oder die Galerkinsche Methode zulässige Funktionsklas-
se bilden. Hat etwa u(x, y) die Bedeutung der Verschiebung eines kontinuierli-
chen Mediums in z-Richtung, so muß diese Funktion offenbar beim Übergang
von einem Element zum andern stetig sein, um die Kontinuität des Materials
zu gewährleisten. Im Fall der Balken- oder Plattenbiegung sind die Stetigkeits-
anforderungen höher, indem dort aus analogen physikalischen Gründen sogar
die Stetigkeit der ersten Ableitung, bzw. der beiden ersten partiellen Ableitun-
gen gefordert werden muß. Elemente mit Ansatzfunktionen, welche den
Stetigkeitsbedingungen genügen, heißen konform.
Eigentlich sind vom mathematischen Standpunkt aus nur konforme Elemente
zulässig. Insbesondere im Fall der Plattenbiegung sind die Stetigkeitsanforde-
rungen aber nur mit recht großem Aufwand zu erfüllen, weshalb man hier die
Bedingungen etwas lockert und meistens mit nichtkonformen Elementen
arbeitet. Obwohl das Vorgehen mathematisch unhaltbar erscheint, rechtferti-
gen die erzielten Ergebnisse das Vorgehen. Aber auch in anderen Gebieten
werden nichtkonforme Elemente sehr erfolgreich angewandt. Für elasto-
58 I Mathematische Grundlagen

mechanische Probleme wurde für die Elemente der sogenannte Patch- Test
[IrR72, MiWn, StF73] entwickelt, dem die Ansätze zu genügen haben, damit
bei Verfeinerung der Diskretisation die Konvergenz der Näherungslösung
gegen die exakte Lösung des Problems garantiert ist. Auf Grund von neuesten
theoretischen Untersuchungen und Ergebnissen ist der Patch-Test allerdings
in einigen Fällen in Frage gestellt worden [Stu80].
Abgesehen von den Stetigkeitsanforderungen an die Ansätze sollten die
verwendeten Polynomfunktionen bei linearen Transformationen von einem
kartesischen Koordinatensystem in ein anderes ihre Form unverändert
beibehalten. Nach einer solchen Drehung des Koordinatensystems soll die
approximierende Funktion auch noch dem Problem angepaßt sein. Diese
plausible Forderung an den Ansatz wird dadurch erreicht, daß er entweder
vollständig ist, d. h. sämtliche Potenzen bis zu einem bestimmten Grad
enthält wie (1.112) und (1.113), oder wenigstens die zueinander symmetri-
schen Terme enthält wie (1.114) oder beispielsweise das unvollständige
Polynom dritten Grades

(1.115)

Solche geometrisch isotropen Ansätze besitzen die Eigenschaft, daß sie


für festes x oder y stets ein vollständiges Polynom in der andern Variablen sind,
was für die Erfüllung der Stetigkeit von Bedeutung sein wird.
Um nun die Stetigkeitsforderungen tatsächlich zu erfüllen, eignen sich die
Ansätze mit den Koeffizienten Ck nicht. Vielmehr ist der Funktionsverlauf im
Element durch Funktionswerte und eventuell auch durch Werte von (partiel-
len) Ableitungen in bestimmten Punkten des Elementes, den sogenannten
Knotenpunkten, auszudrücken. Die in den Knotenpunkten benützten
Funktionswerte und Werte von Ableitungen nennt man die Knotenvaria-
blen des Elementes. Mit Hilfe dieser Knotenvariablen stellt sich die Ansatz-
funktion als Linearkombination von sogenannten Formfunktionen mit den
Knotenvariablen als Koeffizienten dar. Nehmen wir konkret den Fall an, daß
in den Knotenpunkten nur Funktionswerte uje) als Knotenvariable auftreten,
dann erhält die Ansatzfunktion für ein zweidimensionales Element mit p
Knotenpunkten die Darstellung

L
p
u(e)(x, y) = u~e) N?)(x, y). (1.116)
j=]

Da die Darstellung (1.116) für beliebige Knotenvariable uje) gültig sein muß, so
hat die Formfunktion Ni') (x, y) notwendigerweise die Interpolationseigen-
schaft aufzuweisen, im Knotenpunkt p)') mit den Koordinaten (x;e), y;e)) gleich
Eins zu sein und in den andern Knotenpunkten des Elementes zu verschwin-
1.5 Generelle Beschreibung der Methode der finiten Elemente 59

,den:
(e) (e) (e) _ { 1 für j = i
N I (j
x , y;)
. - 0 f'"ur }'-J-' (1.117)
-r- I

Der Ansatz (1,116) gilt für ein bestimmtes Element, was mit dem oberen Index
e präzisierend angedeutet ist.
Um an dieser Stelle einerseits die Verbindung zum Ritzschen Ansatz herzustel-
len und um anderseits auch die Grundlage für die Anwendung des Galerkin-
schen Verfahrens im Sinne der Methode der finiten Elemente vorzubereiten,
betrachten wir die globale Darstellung der gesuchten Funktion u(x,y) im
ganzen Grundgebiet, bestehend aus der Vereinigungsmenge der Elemente.
Der Ansatz für u(x,y) setzt sich stückweise zusammen aus den einzelnen
Ansätzen u(e)(x, y) aller Elemente und ist damit selbst gewissermaßen die
Vereinigung der Ansätze (1.116) über alle Elemente. Wenn wir sämtliche
Knotenvariablen fortlaufend durchnumerieren von I bis n, dann läßt sich das
Ergebnis der Zusammensetzung formulieren als
n
u(x, y) = L UkNk(X, y). (1.118)
k=l

Darin bedeutet jetzt Nk(x,y) die Zusammensetzung (Vereinigung) jener


Elementformfunktionen Nie)(x,y), welche im Knotenpunkt P k mit der Kno-
tenvariablen Uk den Wert Eins besitzen. Daraus wird einmal ersichtlich, daß
die globalen Formfunktionen Nk(x,y) nur in denjenigen Elementen von
Null verschieden sind, welche den Knotenpunkt Pk gemeinsam haben, so daß
also die Funktionen Nk(x,y) nur in einem sehr beschränkten Teilgebiet von
Null verschieden sind. Auf der andern Seite stellt aber (1.118) einen Ritz-
Ansatz dar, wobei die Entwicklungskoeffizienten Uk unmittelbar die gesuchten
Knotenvariablen darstellen. In Modifikation zum klassischen Ritz-Verfahren
wird mit Ansatzfunktionen Nk(x,y) gearbeitet, die nur einen lokalen Träger
aufweisen, und diese Betrachtungsweise ist ein wesentliches Charakteristikum
der Methode der finiten Elemente.
In einem Ansatz der Form (1.118) lassen sich geometrische Randbedingungen
auf einfachste Weise berücksichtigen durch Vorgabe entsprechender Werte für
die betreffenden Knotenvariablen. So löst sich auf triviale Art das an sich
schwierig erscheinende Problem, im Ritz-Ansatz inhomogene und homogene
geometrische Randbedingungen zu erfüllen.

3. Schritt Steht ein Extremalprinzip zur Verfügung, wird der Ansatz der
Gestalt (1.118) in das Funktional eingesetzt. Da die in Abschn. 1.2 behandel-
ten Extremalprinzipien als Integranden durchwegs quadratische Funktionen
in U und seinen Ableitungen aufweisen, entsteht zwangsläufig in allen Fällen
eine quadratische Funktion in den Knotenvariablen Uk. Diese quadratische
60 I Mathematische Grundlagen

Funktion, welche ja als Summe von Gebiets- und Randintegralen definiert ist,
wird als Summe der Beiträge der einzelnen Elemente und der Randkanten
aufgebaut. Damit ist die Aufgabe, die Gebiets- und Randintegrale zu
berechnen, auf das elementarere Problem reduziert, die einschlägigen Integra-
le für ein Element, bzw. für eine Randkante in Funktion der beteiligten
Knotenvariablen darzustellen. Diese zentrale Vorbereitungsarbeit wird in
Kapitel 2 ausführlich behandelt, wo gezeigt wird, wie die Beiträge eines
einzelnen Elementes in Form der quadratischen Funktionen in effizienter
Weise erhalten werden können. Anschließend sind die Elementbeiträge im
wesentlichen nur noch zur gesamten quadratischen Funktion zu addieren,
welche sich im Fall von stationären Problemen in der allgemeinen Gestalt
darstellen läßt.
1
1= - U T Su + dT U + c. (1.119)
2
Hier bedeuten u den Vektor der Knotenvariablen, S die symmetrische und in
der Regel sogar positiv definite Matrix, d den Koeffizientenvektor der linearen
Terme und c eine Konstante. Die Bedingung des Stationärwerdens des
Funktionals führt auf das lineare Gleichungssystem

Su +d = O. ( 1.120)

Daraus ist ersichtlich, daß schlußendlich bei diesen Problemen nur die Matrix
S und der Vektor d wirklich benötigt werden. Praktische Fragen, welche mit
der Kompilation von S entstehen, werden in Kapitel 3 besprochen.
Schwingungsaufgaben liefern demgegenüber eine reine quadratische Form in
den Knotenvariablen in der Gestalt

(1.121)

Die Bedingung des Stationärwerdens des Funktionals führt auf die allgemeine
Eigenwertaufgabe

Su =}..Mu (1.122)

mit symmetrischen Matrizen Sund M und positiv definiter Matrix M. Die


quadratische Form u T Mu entspricht im wesentlichen der kinetischen Energie
des Systems und ist als solche positiv definit. In Kapitel 5 werden einschlägige
Lösungsverfahren dargelegt.
Zur praktischen Durchführung des Galerkinschen Verfahrens wird für die
gesuchte (oder die gesuchten) Funktion(en) ein Ansatz der Form (1.118)
verwendet. Hier spielen die globalen Formfunktionen Nk(x,y) die Rolle der
Ansatzfunktionen, welche in den Galerkinschen Gleichungen auch wieder als
1.5 Generelle Beschreibung der Methode der finiten Elemente 61

Gewichtsfunktionen auftreten. Entsprechend dem allgemein geschilderten


Vorgehen von Abschn. 1.4 sind schließlich Gebiets- und Randintegrale
auszuwerten, die wiederum als Summe von entsprechenden Integralen über
die Elemente berechnet werden. Die Koeffizientenmatrix der resultierenden
Bedingungsgleichungen und der Konstantenvektor werden durch Aufsumma-
tion der Beiträge der einzelnen Elemente gebildet.
2 Elemente und Elementmatrizen

Für eine Auswahl von Elementen und Ansätzen werden im folgenden die
zugehörigen Beiträge der verschiedenen Integrale bereitgestellt. Einerseits
werden die zweckmäßigen Berechnungsarten dargestellt und anderseits wer-
den eine Reihe von sog. Elementmatrizen hergeleitet und zusammengestellt.
Diese Daten bilden die Grundlage zur Lösung von Problemen, wie sie etwa in
den Beispielen von Kapitel 1 skizziert worden sind.
Normalerweise werden die Formfunktionen zur Berechnung der Elementbei-
träge herangezogen und die tatsächliche Auswertung als numerische Aufgabe
dem Computer überlassen. Statt dessen wird im folgenden für geradlinige
Elemente eine elementare Methode entwickelt, welche die Elementbeiträge auf
effiziente und numerisch stabile Art aus sog. Grundmatrizen zu berechnen
gestattet. Im besonderen läßt sich für die elastomechanischen Probleme des
ebenen Spannungs- und des ebenen Verzerrungs zustandes eine enge Ver-
wandtschaft mit den zweidimensionalen stationären Feldproblemen ausnüt-
zen. Die Formfunktionen hingegen erweisen sich als zweckmäßig und
vorteilhaft im Fall von krummlinigen Elementen.

2.1 Eindimensionale Elemente

In diesem Abschnitt betrachten wir eindimensionale Integrale und setzen uns


zum Ziel, die betreffenden Beiträge in Abhängigkeit der Knotenvariablen
darzustellen. Dabei stellen wir die Ergebnisse zusammen, wie sie im Zusam-
menhang mit Zugstäben, Balkentorsion, Balkenbiegung und gleichzeitig mit
Randintegralen für geradlinige Kantenstücke benötigt werden. Für ein solches
allgemeines Element der Länge 1 betrachten wir die Integrale
I I I
f u'(x)2 dx, f u"(X)2 dx, f u(x) dx, (2.1)
o o o
die sich alle einheitlich bearbeiten lassen. Als Vorbereitung soll das Intervall
[O,/J auf das Einheitsintervall [O,IJ transformiert werden vermittels der
Variablensubstitution

x = I·~. (2.2)

Damit gehen die Integrale über in


I I I 1 I
f u 2(x) dx = 1 f u2(~) d~, f u,(x)2 dx = - f u'(~i d~,
o 0 o 1 0
2.1 Eindimensionale Elemente 63

I 1 1 I 1
f U"(X)2 dx = f3 f u"(~i d~, f U(X) dx = I f U(~) d~, (2.3)
o 0 o 0

worin U/(~) jetzt die Ableitung nach ~ bedeutet. Nachfolgend betrachten wir
nur noch die Integrale für das Einheitsintervall.

2.1.1 Linearer Ansatz

Für die Funktion u(~) soll ein linearer Ansatz von der Gestalt
u(~) = Cl + C2~ (2.4)
verwendet werden. Für die Balkenbiegung ist dies kein zulässiger Ansatz, so
daß das Integral für das Quadrat der zweiten Ableitung außer Betracht fällt.
Für die drei restlichen Integrale erhält man nach elementarer Rechnung
1 1 I
11 = f u2(~) d~ = f (Cl + C2~)2 d~ = d + CI C2 + - d
o 0 3
1 1
h = f u/(~)2 d~ = f d d~ = d
o 0

1 1 1
14 = f u(~) d~ = f (Cl + C2~) d~ = Cl +- C2·
00 2
Es resultieren quadratische Formen, bzw. eine lineare Form in den Koeffizien-
ten Cl und C2, die wir wie folgt schreiben wollen
li = cTSiC, (i=1,2), 14 =Fc (2.5)

mit C -- [ CC21 1, - = "61 [63 32 J'


SI -
S2 = [00 01 J' -b = 21 [211 . (2.6)
Die Koeffizienten Cl, C2 sind in einem nächsten Schritt durch die Knotenvaria-
blen Ul und U2 am Anfang und Ende des Elementes auszudrücken. Gemäß (2.4)
müssen gelten
Ul = Cl Cl = Ul
also (2.7)
U2 = Cl + C2 C2 = -Ul + U2·
Gleichung (2.7) läßt sich mit dem Vektor U e = (Ul, U2)T der Knotenvariablen
des Elementes in Matrixform darstellen als

C = AUe mIt A . = [1
-1 ~ J.
(2.8)
64 2 Elemente und Elementmatrizen

Damit lassen sich die quadratischen Formen und die Linearform (2.5)
umrechnen nach Substitution von (2.8) gemäß
T T - -T T- T
l i = ueA SiAue, 14 = bAue = (A b) U e.
Die Matrizen Si sind einer Kongruenztransformation mit der Matrix A zu
unterwerfen, um die gewünschte Abhängigkeit der Integrale von den Knoten-
variablen zu erhalten. Als Ergebnis erhalten wir
I
f u 2(x) dx = u'IMeue,
0
M
e
=~6 [2
1 ~1 (2.9)

I
f u'(x)2 dx = ue Se ue,
0
T S
e
=~I [
-1
1 -~ 1 (2.10)

I
I u(x) dx = b'I ue, b=~[IJ
e 2 1
(2.11 )
0

Die Matrix Me heißt Massenelementmatrix und Se die Steifig-


keitse1ementmatrix für ein lineares eindimensionales Element. In der
Formel (2.11) erkennt man die bekannte Trapezregel zur numerischen
Integration.

Fig.2.l
Formfunktionen, linearer Ansatz

Durch Substitution von (2.7) in den Ansatz (2.4) erhalten wir die Darstellung
(2.12)
worin die Formfunktionen Ni(f,) für ein Element erscheinen (Fig. 2.1).
Die Ergebnisse (2.9) bis (2.11) lassen sich im Prinzip auch direkt unter
Verwendung von (2.12) herleiten.

2.1.2 Quadratischer Ansatz

Mit einem quadratischen Ansatz


u(f,) = Cl + C2f, + C3f,2 (2.13)
ergeben sich die Integrale nach einfacher Rechnung zu
2.1 Eindimensionale Elemente 65
1 1
f U2(~) d~ = f [Cl + C2~ + C3e]2 d~ = eT.s\e
o 0
1 1
f u'(~id~= f [c2+2c3~]2d~=eTS2e
o 0
1 1
f u(~) d~ = f [Cl + C2~ + C3e] d~ = Pe
o 0
mit

-
Sl=-
1 f6030 30
20 2015 J , - 1
S2=-
60 3
20 15 12

h~+ fH c=
f :: J
Fig.2.2
Knotenpunkte für quadratischen Ansatz

Eine quadratische Funktion (2.13) ist durch drei Funktionswerte eindeutig


bestimmt. Als Knotenpunkte bieten sich hier auf natürliche Weise die beiden
Endpunkte und der Mittelpunkt an. Wird die Numerierung der Fig. 2.2
zugrundege1egt, lautet die Interpolationsbedingung
Ul = Cl

U2 = Cl + 0.5C2 + 0.25c3

Inversion dieser linearen Beziehungen führt mit dem Vektor Ue = (u], U2, U3)T

I
der Knotenvariablen des Elementes zu
I 0
e = AUe mit A = - 3 4 (2.14)
2 -4
Die Kongruenztransformation der Matrizen SI und 052 mit A und die
entsprechende Transformation von b liefert die Massenelementmatrix Me, die
Steifigkeitse1ementmatrix Se und den Vektor h e für ein quadratisches ein-
66 2 Elemente und Elementmatrizen

dimensionales Element zu

M=-
e 30
/
f ; 1~
-I 2
- ~]
4
,
S e = _1
3/ f-:I
b
e
=-
6
/

(2.15)
Substitution der Relationen (2.14) in den Ansatz (2.13) liefert die Darstellung
von u(~) mit Hilfe der Formfunktionen Ni(~)
3
U(~) = Ul(l - 3~ + 2e) + u2(4~ - 4~2) + U3(-~ + 2~2) = I uiNi(~)
i=l
(2.16)
Die für das Element gültigen Formfunktionen sind gegeben durch

Nl(~) = 1 - 3~ + 2e = (l - ~)(1 - 2~)


N2(~) = 4~ - 4~2 = 4~(1 - ~) (2.17)
N3(~) = -~ + 2e = -~(l - 2~)

und sind in Fig. 2.3 dargestellt.

QS

1...:::::::::::==:::7,~::::::==::::;:::;ot---;-
,- !
Fig. 2.3
Formfunktionen, quadratischer Ansatz

Selbstverständlich lassen sich die Resultate (2.15) direkt mit Hilfe des Ansatzes
(2.16) gewinnen, wobei die einzelnen Elemente allerdings teilweise durch etwas
kompliziertere Integralausdrücke definiert sind. Eine gewisse Vereinfachung
bringt die Verwendung von sogenannten natürlichen Koordinaten für die
Einheitsstrecke, nämlich

(2.18)

In diesen natürlichen Koordinaten lauten die Formfunktionen


2.1 Eindimensionale Elemente 67

Unter Beachtung von dLI/d~= 1, dL2/d~=-1 ergeben sich daraus für die
ersten Ableitungen nach der Produktregel
dN I
--=LI - 3L 2
d~ ,
Die Berechnung der Zahlwerte in (2.15) wird auf diese Art im wesentlichen
zurückgeführt auf die Auswertung von Integralen der Form

Ipq =
I
J LfLid~= J ~P(l-~)qd~=
I
(p:.q.
I I
1)1' (p,qEN o)·
o 0 q+ . (2.21)
Der angegebene Wert des Integrals ergibt sich auf Grund sukzessiver partieller
Integration.

2.1.3 Kubischer Ansatz

Mit einem kubischen Ansatz für die Funktion u(~) läßt sich ein auch für die
Balkenbiegung konformes Element gewinnen, falls neben den Funktionswer-
ten auch noch die ersten Ableitungen in den Endpunkten als Knotenvariable
eingeführt werden. Dadurch erreicht man die Stetigkeit der ersten Ableitung
beim Übergang von einem Element ins nächste.
Wir gehen aus vom Ansatz
u(~) = Cl + C2~ + C3e + C4~3 (2.22)
und erhalten für die Integrale die Darstellungen
I I
Ju2(~)d~ = cT .s\c, Ju'(~id~=cTS2c
0 0
I I
I u,,(~)2d~ = cTS3 C, I u(~)d~ = ijT c
0 0

l420 210
1051 0 0

l~
I@
_ 1 210 140 105 84 30 30
- 1
mit SI = 420 140 105
105 84
84
70
70
60
' S2=-
30 30 40
30 45 54
:1
0 0

S; ~ l~ 0
0
0
0
4
6
~J
12
_
ll21
b=U : '
1 6
c=

m
68 2 Elemente und Elementmatrizen

Die kubische Funktion (2.22) ist durch die vier Werte UJ, u[, U2 und us. eindeutig
bestimmt, die wir im Vektor der Knotenvariablen ue = (UI, u[, UZ, U2)T zusam-
menfassen. Die Hermitesche Interpolationsbedingung liefert die linearen
Beziehungen mit der zugehörigen inversen Matrix A
=

-n
UI Cl 0 0

l-i
U[ = Cl 0
A= (2.23)
U2 = CI + Cl + C3 + C4 -2 3
U2 = Cl + 2C3 + 3C4 -2
Damit können wiederum die notwendigen Transformationen ausgeführt
werden. Für die Massenelementmatrix Me, die Steifigkeitselementmatrix S~l)
bezüglich der ersten Ableitung, für die Steifigkeitselementmatrix sF) bezüg-

l
lich der zweiten Ableitung und für den konstanten Vektor be ergeben sich

36 3 -36 3l
A(I) _ 1 3 4 -3 -1
S --
e 301 -36 -3 36-3
3 -1 -3 4

(2.24)
Nun ist aber zu beachten, daß im Vektor ue die Ableitungen nach der
dimensionslosen Variablen ~ des betreffenden Elementes zu verstehen sind.
Dies ist für die später zu vollziehende Zusammensetzung von Elementen
verschiedener Länge ungeeignet. Damit die Ableitungen aneinanderstoßender
Elemente die gleiche Bedeutung besitzen, sind unbedingt die Ableitungen von
u nach der Ortsvariablen x zu verwenden. Für ein Element der Länge 1gilt ja
nach (2.2)
du _ du dx _ 1 du
(2.25)
d~ -~dZ- dx'

s~u d1aß Sic:u d1er. Übergang z~ den prOblemgerecht~n Knoten~ariablen U~'


- , Ul, - In den Matnzen und dem Vektor In (2.24) eInfach damIt
dx I dx 2
vollziehen läßt, daß die zweiten und vierten Zeilen und Kolonnen je mit 1
multipliziert werden. Anstelle von Me und betreten somit beispielsweise
l l
2.1 Eindimensionale Elemente 69

Ul
156 22/ 54
-13/
/ 22/ 4P 13/ -3P /
b =- (2.26)
Me = 420 54 13/ 156 -22/ ' e 12
-13/ -3P -22/ 4P
Aus der Matrix A (2.23) ergeben sich noch die Formfunktionen

Nl(~) = 1 - 3~2 + 2~3 = (1 - ~i(l + 2~) = (l + 2L1)L~


N 2 (O = ~ - 2~2 + ~3 = ~(1 - ~i = LILi
N3(~) = 3e - 2~3 = e(3 -
2~) = LT(l + 2L 2 )
(2.27)

N4(~) = -e + ~3 = -~2(1 -~) = -LT L 2

In Fig. 2.4 sind aus Symmetriegründen nur NI (~) und N2(~) dargestellt.

Fig.2.4
Formfunktionen, kubischer Ansatz 1 ~

2.1.4 Ergänzungen und Anwendungen

Bei Behandlung der Ansätze wurde stillschweigend vorausgesetzt, daß eventu-


elle multiplikative Funktionen in den Integranden konstant seien oder aber für
das Element als konstant angenommen werden. In vielen Fällen trifft dies auch
wirklich zu, doch soll im speziellen das Integral
I
Jq(~)u(~)d~ (2.28)
o
betrachtet werden, um aufzuzeigen, wie eine variable Belastung berücksichtigt
werden kann, ohne numerische Integrationsmethoden anzuwenden. Zu
diesem Zweck soll der Verlauf von q(x) durch einen gleichen Ansatz
approximiert werden wie die gesuchte Funktion u(x). Mit Hilfe der Formfunk-
tionen kann also angesetzt werden
p p
u(~) = L ukNk(~), q(~) = L qkNk(~),
k=l k=l

worin die Uk unbekannte Knotenvariable, qk hingegen durch q(~) gegebene


70 2 Elemente und Elementmatrizen

Werte darstellen. Dies ergibt eingesetzt in (2.28)

[ q(~)u(~) d~ = [ Ltl qjNJC~)} Ltl UkNk(~)} d~


= ± {±
k=l j=l
qj f Nj(~)Nk(~) d~}Uk =
0
qJMeue = bJue.

Die Integrale sind gleich den Elementen der Massene1ementmatrixMe, und die
Werte ql, q2, ... , qp sind im Vektor qezusammengefaßt. Der Vektor be kann also
vermittels Me und dem Vektor qe leicht berechnet werden. Für eine linear
veränderliche Be1astungsfunktion q(x), definiert durch die beiden Werte ql
und q2 wird b e unter Verwendung von (2.9)

be = ~
6
l2 qql ++ 2q2q2
1 J" .

Die beiden Komponenten von be können als Ersatz-Einze1kräfte interpretiert


werden, welche die kontinuierlich verteilten Kräfte ersetzen. Im Fall des
kubischen Ansatzes sind die entsprechenden Komponenten von b e als
Ersatzkräfte und Ersatzmomente zu deuten.
Die gesamte potentielle Energie eines Zugstabes ist nach (1.45) und für einen
linearen Ansatz nach (2.10) näherungsweise darstellbar als

[J= ;, EA(Ul, (2) l


l-~ -~ J ~~ J - (P1,F2) r ~~ l (2.29)

wo Ul die Verschiebungen und Pi die angreifenden äußeren Kräfte an den


Endknotenpunkten darstellen. Dabei ist ein (lokales) Koordinatensystem
zugrundege1egt, dessen x-Achse mit der Stabachse zusammenfallt. Um aber
die gesamte potentielle Energie eines räumlichen Fachwerks (Fig. 1.6)
aufzustellen, nützen diese auf ein lokales System bezogenen Verschiebungen
recht wenig. Dazu sind die Verschiebungen in einem globalen Koordinatensy-
stem zu verwenden. In Fig. 2.5 ist die allgemeine räumliche Lage eines
Zugstabes in einem kartesischen Koordinatensystem gezeichnet. Die Verschie-
bungen Ui in Stabrichtung besitzen im globalen (x, y, z)-Koordinatensystem die

Fig.2.5
Zugstab in allgemeiner Lage
2.1 Eindimensionale Elemente 71

Komponenten Ui, Vi, Wi, die durch l1 i und die Richtungskosinus


X2 - XI C = Y2 - Yl, Cz = Z2 - Zl
Cx = (2.30)
I Y I I
des Stabes gegeben werden durch
(2.31 )
Umgekehrt gilt die Relation
(2.32)
welche erlaubt, den Vektor der Knotenvariablen vermittels einer Matrix mit
dem Vektor der Verschiebungen im globalen System in Verbindung zu bringen
UI

VI

[~~ 1= [~x ~J
Cy Cz 0 0 Wl
(2.33)
0 0 C x cy U2

V2

W2

Die Beziehung (2.33) ist in (2.29) einzusetzen. Nach Ausmultiplikation der


Matrizen ergibt sich die neue Darstellung der gesamten potentiellen Energie
eines Zugstabes in allgemeiner räumlicher Lage
T , T
UI c; cxcy CxCz I -c; -cxcy -cxcz UI Fix UI

VI cxcy c2 Y crcz I -CxCy -ci -CyC z VI F ly VI

c} I
WI CxCz CyCz I -CxCz -CyC z -cl WI F lz WI
Il= EA ----------r---------
,
2/
U2 -c.; -cxcy -cxcz I c; c,cy CxCz U2 F 2x U2

V2 -cxcy - cy2 -cyc z I cxcy c2 cycz V2 F 2y V2


Y
I
W2 -CxCz -CyC z -ci I CxCz CyCz cz2 W2 F 2z "'2

(2.34)
Die zweireihige Steifigkeitselementmatrix in (2.29) ist infolge der Transforma-
tion auf globale Koordinaten und Verschiebungen durch eine sechsreihige
Steifigkeitselementmatrix ersetzt worden. Sie setzt sich aus vier dreireihigen,
bis aufs Vorzeichen identischen, Untermatrizen zusammen.
Eine ähnliche Situation stellt sich bei dreidimensionalen Rahmenkonstruktio-
nen, die sich aus Balkenelementen zusammensetzen. Zur problemgerechten
Behandlung eines allgemeinen Balkenelementes sind Biegungen in zwei
72 2 Elemente und Elementmatrizen

Fig.2.6
Balkenelement in allgemeiner Lage
Ebenen, Längsdehnung und Torsion zu berücksichtigen. Die Deformations-
energie allein ist dann für ein lokales (i,y, z)-Koordinatensystem, welches
nach Fig. 2.6 zum Balkene1ement gehört, gegeben als Summe der vier
Deformationsenergien
3 I 3 ,
IIB = ~ E {~ f w"(i)2 dx + ~ Jv"(x)2 dx
2 12 0 12 0

+ bh fo u'(x)2 dx + 2(1 I+ v) f 8'(x)2 dX}


t
0

Für die Balkenbiegungen w(x) und v(x) sind kubische Ansätze erforderlich,
während für die Längsdehnung u(x) wie auch für den Torsionswinke1 B(x)
lineare Ansätze angebracht sind. Mit Hilfe der einschlägigen Steifigkeitsele-
mentmatrizen (2.24) und (2.10) stellt sich die Deformationsenergie des
Balkene1ementes dar als quadratische Form in den 12 Knotenvariablen WI, WI,
W2, W2; VI, vi, V2, V2; 12 1, 122; BI, B2, und die zugehörige Steifigkeitselementmatrix
baut sich bei der angegebenen Reihenfolge der Knotenvariablen als Diagonal-
blockmatrix auf, mit zwei vierreihigen und zwei zweireihigen Untermatrizen in
der Diagonale. Die für die Rechenpraxis unzweckmäßige Reihenfolge wurde
nur der Übersichtlichkeit halber so gewählt, um den Aufbau der Steifigkeits-
matrix der Ordnung zwölf klar zu erkennen. Für die Rechenpraxis eignet sich
die Anordnung im Vektor der Knotenvariablen gemäß
(2.35)
besser, was in der eben beschriebenen Matrix gleichzeitigen Zeilen- und
Kolonnenpermutationen entspricht, die beim Aufbau der Matrix berücksich-
tigt werden können durch geeignete Indexmanipulationen im Computerpro-
gramm.
In (2.35) stellt wi die Steigung der Biege1inie im Knotenpunkt Pi in der (x, z)-
Ebene dar und ist für kleine Steigungen in erster Näherung gleich dem
Drehwinkel um die y-Achse. Ebenso ist vi der Drehwinkel in der (x,y)-Ebene
um die z-Achse, was die getroffene Wahl der Reihenfolge erklärt. Die auf das
lokale (x,y,z)-Koordinatensystem bezogenen Verschiebungen Ui, Vi, Wi und
Drehwinkel Bi, wi, vi sind mit den entsprechenden Verschiebungen Ui, Vi, Wiund
2.1 Eindimensionale Elemente 73

Winkeln (h w[, vi im globalen Koordinatensystem in Beziehung zu bringen.


Hierfür sind die neun Werte der Richtungskosinus Ch, Ciy, C.iz, Cjx, Cjy, Cjz, Ch,
Ciy, c,z maßgebend. Die Bestimmung der ersten drei Richtungskosinus bietet
auf Grund der Koordinaten der beiden Knotenpunkte P1(XI,YI,ZI) und
P 2(X2,Y2, Z2) keine Schwierigkeiten. Sie sind gegeben durch die Komponenten
des Vektors der Länge Eins in Richtung von PI nach P2

(2.36)

Für die weiteren Richtungskosinus wollen wir die vereinfachende und vom
praktischen Standpunkt aus annehmbare Annahme treffen, daß die y-Achse
parallel zur (x,y)-Ebene sei, was nur bedeutet, daß die Richtung der Breitseite
des Querschnitts des Balkens parallel zur (x,y)-Ebene ist, er also keiner
allgemeinen Drehung unterworfen worden ist. Die Richtung der y-Achse ist
damit orthogonal zur Projektion der x-Achse in die (x,y)-Ebene. Damit
ergeben sich mit l' = veix ei
+ y
Cjx
=_2L , Ch
c·yy =l"- Cjz = 0, falls l' =1= 0;
l' (2.37)
Cjx = 0, Cjy = 1, Cjz = 0, falls l' = 0,

die Komponenten des Vektors der Länge Eins in Richtung der y-Achse. Im
Ausnahmefall eines vertikalen Balkens wird die y-Achse parallel zur y-Achse
festgelegt, was nur einer tragbaren Einschränkung der Lage des Balkens
entspricht. Die Richtungskosinus der z-Achse sind schließlich als Komponen-
ten des Vektorprodukts der beiden Richtungsvektoren berechenbar.
Mit der dreireihigen Matrix C der Richtungskosinus stellen sich die Relationen
zwischen den lokalen und den globalen Gräßen gruppenweise wie folgt dar

(2.38)

Die Transformation der lokalen in die globalen Knotenvariablen im Vektor


(2.39)
ist mit der Blockdiagonalmatrix der Ordnung 12

° 0J
r
c
OCOO
0
D= (2.40)
OOCO
OOOC
74 2 Elemente und Elementmatrizen

darstellbar ist
Ue = Du e. (2.41 )
Bezeichnen wir mit Se die Steifigkeitselementmatrix zu Ue, so gilt
_ I AT A _ 1 T T 1 T
[Ja - - Ue Seue - - Ue D SeDue - - Ue Seue. (2.42)
A A _

2 2 2
Die Matrix Se ist der Kongruenztransformation mitD zu unterwerfen. Bei der
effektiven Ausführung ist aber darauf zu achten, daß Deine Blockdiagonal-
matrix ist, so daß sich die Transformation D T SeD = Se sehr effizient
durchführen läßt, wobei man beachtet, daß die Multiplikation von links oder
rechts mit D T oder D nur je drei aufeinanderfolgende Gruppen von Zeilen oder
Kolonnen betrifft.

CD Fig.2.7
o Einteilung des Durchlaufträgers

Beispiel2.1 Als einfache Anwendung sei der Durchlaufträger von Beispiel


1.12 nach der Methode der finiten Elemente behandelt. Der Durchlaufträger
werde in drei Balkenelemente nach Fig. 2.7 eingeteilt, wobei vernünftigerweise
die Knotenpunkte an den Auflagestellen und der Angriffstelle der Einzelkraft
gewählt werden.
Die Längen der Elemente sind verschieden, nämlich
1I = 150 cm, /2 = 50 cm, /3 = 100 cm.
Als Knotenvariable treten ohne Berücksichtigung von Randbedingungen

in den vier Knotenpunkten PI, P2, P3 , P4 auf. Nach (2.24) und gemäß (2.26)
lauten die Steifigkeitselementmatrizen für die drei Elemente

s<P= _2_3 r4S~


450
45000
-6 450
-450 22500
J
e 150 -6 -450 6 -450
450 22500 -450 45000

sp=_2 [ 15:
150
ISO
5000 -150 2500
-6
J
e 50 3 -6 -150 6 -150 '
150 2500 -150 5000
2.1 Eindimensionale Elemente 75

r30~
300
-6 3001
20000 -300 10000
s!J)= _2_
e 100 3 -6 -300 6 -300
I

300 10000 -300 20000

uCjJ=

Ferner sind die drei zugehörigen Konstantenvektoren nach (2.26)

b!J)= 150 (6 150 6 -150)T bCP = 22.. (6 50 6 -50)T


e 12 ' " , e 12 ' " ,

b!J)= 100 (6 100 6 -lOO)T.


e 12 ' "
Für die gesamte potentielle Energie erhalten wir mit E=2·10 7 N/cm 2 ,
1= 16 cm 4 , F= -100 N und qo = -2 N/cm
(2.43)

nach Addition der Elementbeiträge die Gesamtsteifigkeitsmatrix S und den


konstanten Vektor d zu
64 1600 64 1600 1

9 3 9 3 1

1600 160000 1600 80000 1


1
3 3 1 3 3 1
--------1---------1--------1
-~ 1600 1 1792 12800 1 -192 4800 1
9 3 i 9 3 1 1

S=160· 1600 1 12800


80000 640000 1 -4800 80000 1
3 1 3 3 3 1 1
--------L- ________ L _______ ~ _______ _
I I I
I -192 -4800 I 216 -3600 I -24 1200
I 4800 I - 3600
240000 I - 1200
80000 40000
L _________ L _______ J _______ _
I -24 -1200 I 24 -1200
I I
I 1200 40000 i -1200 80000
(2.44)
76 2 Elemente und Elementmatrizen

d = (0 0 100 0 100 5000 100 _ 5000


" " , 3' , 3
)T. (2.45)

Da einzig im dritten Balkenelement eine kontinuierliche Belastung auftritt,


liefert nur br; einen entsprechenden von Null verschiedenen Beitrag zu d, und
die Einzelkraft steuert die dritte Komponente in d bei. Die Gesamtsteifigkeits-
matrix S weist eine Bandstruktur auf, sie ist genauer blockweise tridiagonal.
Die Matrix ist, solange keine Randbedingungen berücksichtigt werden,
singulär, im Fall der Balkenbiegung beträgt der Rangabfa1l2 entsprechend der
translatorischen und der Drehbewegung des freien Balkens als Ganzes.
Die Randbedingungen verlangen Wj = wl = W3 = W4 = O. Im Ausdruck (2.43)
sind die betreffenden Knotenvariablen gleich Null zu setzen und das Minimum
der verbleibenden gesamten potentiellen Energie zu bestimmen. Das Nullset-
zen dieser Variablen ist gleichbedeutend damit, daß die erste, zweite, fünfte
und siebente Zeile und Kolonne in S und die entsprechenden Komponenten in
d gestrichen werden. Das lineare Gleichungssystem, welches aus der so
reduzierten quadratischen Funktion aus der Minimalbedingung folgt, lautet
nach Division aller Gleichungen durch 16'000
W2 W2 W3 W,4

1.99111 42.66667 48 0 0.00625


42.66667 2133.333 800 0 0
48 800 2400 400 0.104167
0 0 400 800 -0.104167

Die Lösung lautet


W2 = -0.006043 cm, W2 = 0.000114, w§ = 0.000020,
W4 = 0.000120.
Die Methode der finiten Elemente liefert an der Stelle der Einzelkraft mit W2
eine größere Durchbiegung im Vergleich zum recht groben Ritz-Ansatz im
Beispiel 1.12. Der hier verwendete flexiblere Ansatz wird der Problemstellung
schon besser gerecht.

2.2 Zweidimensionale Elemente

Zur Behandlung von stationären Feldproblemen nach dem Extremalprinzip


von Abschn. 1.2.1 oder von instationären Feldproblemen nach dem Verfahren
von Galerkin werden die Beiträge von Integralen über die Elemente benötigt.
Dieser Beitrag ist einerseits von der Art des Elementes und anderseits vom
2.2 Zweidimensionale Elemente 77

Typus des verwendeten Ansatzes für die gesuchte Funktion innerhalb des
Elementes abhängig. Als Arbeitshypothese werde angenommen, daß die in der
allgemeinen Formulierung des Variationsausdruckes I (1.25) von Satz I
auftretenden ortsabhängigen Funktionen kl(x,y), k 2(x,y), p(x,y) und f(x, y)
innerhalb des Elementes konstant seien. Unter dieser Voraussetzung geht es
darum, die Beiträge der folgenden Integrale zu bestimmen
(2.46)
0 0 0
worin Gi für das betreffende Gebiet des i-ten Elementes steht. Als Elemente
behandeln wir vorderhand nur geradlinige Dreiecke und Parallelogramme, für
die ausführlich die Beiträge für verschiedene Ansätze hergeleitet werden.

2.2.1 Vorbereitung

Um im folgenden einerseits die erforderliche Integration über ein Dreieck oder


Parallelogramm in allgemeiner Lage zu vereinfachen, und um anderseits die
verschiedenen Ansätze für die Funktion u(x, y) und die daraus resultierenden
Elementbeiträge einheitlich behandeln zu können, betrachten wir als Vorbe-
reitung die Abbildung eines Dreiecks oder Parallelogramms auf ein Einheits-
dreieck, bzw. Einheitsquadrat.

'1

Fig.2.8
a) Allgemeines Dreieck Ti (1,0) ~
b) Einheitsdreieck Ta c) b)

Ein Dreieck Ti in allgemeiner Lage mit den Eckpunkten PI(XI,yd, P 2(X2,Y2)


und P3(X3,Y3), welche im Gegenuhrzeigersinn fortlaufend numeriert seien, wie
dies in Fig. 2.8a) erfolgte, kann vermittels der linearen Transformation
x = Xl + (X2 - Xl)( + (X3 - XI)ry
(2.47)
Y = Yl + (Y2 - Yl)( + (Y3 - Yt>ry
bijektiv auf das gleichschenklig rechtwinklige Einheitsdreieck To mit Kathe-
tenlänge 1 abgebildet werden, wobei sich gleich indizierte Eckpunkte entspre-
chen (Fig. 2.8 b».
Mit der Variablensubstitution (2.47) wird die Berechnung eines Integrals über
das Dreieckelement Ti zurückgeführt auf ein einfacheres Gebietsintegral. Die
78 2 Elemente und Elementmatrizen

Gebietsintegrale sind nach den elementaren Regeln der Analysis zu transfor-


mieren. So ist das Flächenelement dxdy mit Hilfe der sog. Jacobi-Determi-
nante
2x 2y
2~ 2~
j=
2x 2y
21] 21]

der Transformation zu ersetzen durch

dx dy = ] d~ d1].

Die Jacobi-Determinante ist gleich der doppelten Fläche des Dreiecks Ti und
hat bei Beachtung der Orientierung der drei Eckpunkte einen positiven Wert.
Die partiellen Ableitungen im ersten Integral transformieren sich nach der
Kettenregel gemäß

Ux = u~~x + u~1]x
uy = U~~y + u~1]y

Auf Grund der linearen Transformation (2.47) ergeben sich nach partieller
Differentiation der beiden Beziehungen nach x zunächst

I = (X2 - XI)~x + (X3 - XI)1]x

o= (12 - YI)« + (Y3 - YI)1]x,

woraus sich nach Auflösung der beiden linearen Gleichungen nach ~x und 1]x
die Werte ergeben

~ = Y3 - YI . = _ Y2 - YI
x j' 1].\ j'

Durch partielle Differentiation nach Y erhält man analog


~ = _ X3 - XI = X2 - XI
y j' 1]y j'

Diese vier partiellen Ableitungen sind bei gegebenem Dreieck Ti konstante,


allein von der Geometrie und der Lage von Ti abhängige Größen.
Ergänzen wir das Dreieck Ti der Fig. 2.8 über die Seite P2 P 3 zu einem
Parallelogramm Qi in allgemeiner Lage, wobei wir den neu hinzukommenden
Eckpunkt in etwas inkonsequent erscheinender Weise mit P4 bezeichnen, so
wird dieses Parallelogramm vermöge derselben linearen Abbildung (2.47) auf
das Einheitsquadrat Qo abgebildet (Fig. 2.9).
2.2 Zweidimensionale Elemente 79

'1

Fig.2.9
a) Allgemeines Parallelo-
gramm Qi Ii 10.01
b) Einheitsquadrat Qo 01 bl

Die entwickelten Formelsätze bleiben somit unverändert bestehen mit dem


einzigen Unterschied, daß 1jetzt die Fläche des Parallelogramms darstellt. Die
Konvention über die Bezeichnung der Eckpunkte wird damit verständlich. Es
ist aber auch hier dafür zu sorgen, daß das Teildreieck PI P2P3 im Gegenuhrzei-
gersinn orientiert ist.
Auf Grund der übereinstimmenden Transformationen unterliegen die drei
Gebietsintegrale den gleichen Transformationen. Wenn wir somit mit Gi
entweder ein Dreieck Ti oder ein Parallelogramm Qi bezeichnen, so bedeute im
folgenden Go entweder das Einheitsdreieck Ta oder das Einheitsquadrat Qa.
Die Gebietsintegrale transformieren sich

ff (u; + u;) dx dy = ff [(u~~x + u1 11x)2 + (u~~y + u1 11yiJ 1 d~ dl7


Gi Go

=a ff uJ d~ dl7 + 2b ff u~u~ d~ dl1 + c ff u~ d~ dl7


Go Go Go (2.48)
mit den allein von der Geometrie von Gi abhängigen Konstanten

a = [(X3 - XI)2 + (Y3 - ydJ/1


b = -[(X3 - Xd(X2 - XI) + (Y3 - YI)(Y2 - YdJ/1
(2.49)
c = [(X2 - XI)2 + (Y2 - YI)2J/1
1 = (X2 - XI)(Y3 - YI) - (X3 - XI)(Y2 - y,)

(2.50)

ff u dx dy = 1 ff u d~ dl7 (2.51)
Gi Go
Im folgenden wird es einzig darum gehen, die fünf auftretenden Integrale für
spezifische Ansätze zu berechnen. Die ersten vier Integrale werden quadrati-
sche Formen in den Knotenvariablen mit zugehörigen Grundmatrizen liefern,
das letzte Integral eine lineare Form mit einem zugehörigen Grundvektor. Da
80 2 Elemente und Elementmatrizen

diese Integrale über das Einheitsgebiet zu erstrecken sind, sind sie von der
Geometrie unabhängig und nur vom verwendeten Ansatz abhängig. Aus
diesen nur einmal zu berechnenden Beiträgen sind die gewünschten Element-
matrizen und linearen Beiträge auf triviale Weise zu erhalten, wobei die
Geometrie berücksichtigt wird.
Bei der nachfolgenden Behandlung einer Reihe von speziellen Ansätzen für die
Funktion u werden Integrale von Produkten von Potenzen der unabhängigen
Veränderlichen über das Einheitsdreieck und das Einheitsquadrat zu berech-
nen sein. Deshalb werden noch die entsprechenden Integralformeln bereitge-
stellt.
Seien p und q zwei nichtnegative ganze Zahlen. Im Fall des Einheitsdreiecks
ergibt sich nach den elementaren Regeln der Integration und Anwendung der
partiellen Integration nacheinander unter der Annahme q > 0

=-q-
p+l
J "q~l
o
(IT ~p+l d~) dry
0
=-q-I ~.
p+1 p+l,q I

Durch rekursive Anwendung dieser Beziehung bezüglich des Indexes q erhält


man so
1 q(q - I)(q - 2) ""' I 1
pq = (p + I)(P + 2)(P + 3) ... (p + q) p+q,O

er ~p+q d~) dry


und mit

Ip+q,o = [
I
- - - f (I - t+ q +1 d - 1
p +q+1 0 " ,,- (p + q + I)(P + q + 2)

16 = ff ~p "'n q d~ d -
+ I)(P + 2) ...
q!
+ q + 2)
p!q!
pq To ,,- (p (p (p + q + 2)!
(2.52)
Das Resultat ist auch gültig für p = 0 oder q = 0 unter Beachtung der
Definition O! = 1. Der Integralwert I pq ist übrigens für alle p, q E lNo der
2.2 Zweidimensionale Elemente 81

Kehrwert einer ganzen Zahl, da in der ersten Darstellung von (2.52) der Zähler
stets ein Teiler des Nenners ist.
Für das Einheitsquadrat gilt

(2.53)

2.2.2 Linearer Ansatz im Dreieck

Im allgemeinen Dreieck Ti werde für die Funktion u(x,y) ein in xundy linearer
Ansatz angenommen in der Form

u(x, y) = Cl + C2X + C3Y. (2.54)

Diese Funktion ist durch die Vorgabe der Funktionswerte in den drei
Eckpunkten eindeutig bestimmt. Längs einer jeden Seite des Dreiecks wird
u(x,y) eine lineare Funktion der Bogenlänge. Längs einer gemeinsamen Seite
zweier aneinandergrenzender Dreiecke stimmen somit die Funktionswerte der
beiden Funktionen überein, falls die Werte in den gemeinsamen Eckpunkten
übereinstimmen. Dies gewährleistet die Stetigkeit der Ansatzfunktionen beim
Übergang von einem Element zum benachbarten. Die linearen Ansatzfunktio-
nen bilden damit eine für die vorliegende Variationsaufgabe zulässige
Funktionsklasse. Die resultierenden Elemente sind konform.
Die lineare Variablensubstitution (2.47) führt den Ansatz (2.54) in eine lineare
Funktion in ( und 17 über, so daß wir im Einheitsdreieck To mit dem Ansatz

(2.55)

arbeiten können. Die auch benötigten partiellen Ableitungen sind

Die Berechnung der fünf Integrale über das Einheitsdreieck ergibt mit (2.52)

11 = ff uJ d( d17 = ff a~ d( d17 = ~ a~
To To

h = 2 ff u~u~ d( d17 = 2 ff a2a3 d( d( = a2a3


To To

h = ff u~ d~ d17 = ff a ~ d~ d17 = ~ a ~
To To
82 2 Elemente und Elementmatrizen

/4 = fJ u 2 d~ d,! = fJ [al + a2~ + a3'!]2 d~ d,!


Ta Ta

= fJ [aT + 2ala2~ -I- 2ala3'! + a~~2 + 2aZa3~'! + a5,!2] d~ d,!


To
l z l 1 l z 1 l z
= - al +- ala? +- ala3 + - az +- aZa3 +- a3
2 3 - 3 12 12 12

/5 = fJ u d~ d,! = fJ
T: T
[al + az~ + a3'!] d~ d,! = -
266
1
al
1
+- a2
1
+- aJ
o '0
Die ersten vier Integrale liefern quadratische Formen in den Koeffizienten a\,
a2, a3,während das letzte Integral eine lineare Form ergibt. Die quadratischen
Formen lassen sich mit Hilfe der zugehörigen symmetrischen Matrizen und
mit dem Koeffizientenvektor a = (al, a2, a3)T schreiben als
T - .
/j=a Sja 1=1,2,3,4,
wobei die Matrizen Sj wie folgt definiert sind:

Die lineare Form für /5 kann mit dem Vektor


_ 1 T
SI =6(3, I, 1)

als /5 = sT a dargestellt werden.


Die Koeffizienten aj im Ansatz sind weiter durch die Werte der Funktion u in
den Eckpunkten, den Knotenvariablen, auszudrücken. Aus der Interpola-
tionsbedingung der linearen Ansatzfunktion im Einheitsdreieck ergeben sich
zunächst die linearen Beziehungen
Ul = al

U2 = al + a2
U3 = al + a3·
Inversion dieser Linearformen liefert die inversen Formen mit der zugehörigen
Matrix A
2.2 Zweidimensionale Elemente 83

A=r-: ~ ~l.
al = UI

l-1
a2 = -UI + U2 (2.56)
a3 = -UI + U3 0 IJ
Führen wir weiter den Vektor Ue = (UI, U2, U3) T der Knotenvariablen des
Dreieckelementes ein, lautet die letzte Beziehung

a = AUe. (2.57)

Die oben erhaltenen quadratischen Formen 11 bis 14 und die lineare Form 15
lassen sich mit (2.57) nach Substitution von a durch die Knotenvariablen
ausdrücken:
_ T T- _ T
li - ueA SiAue - Ue SiUe i = 1,2,3,4

/5 = sTAUe = (ATsI)T Ue = sT Ue

Die vier Matrizen Si sind einer Kongruenztransformation mit derselben


Matrix A zu unterwerfen, um die vier Grundelemen tma trizen Si zu liefern,
und SI ist mit AT zu multiplizieren, um den Grundelementvektor SI zu
erhalten. Nach Ausführung der Operationen erhalten wir zusammengefaßt die
Resultate:

H l-~ -ij
-I -1
I
SI=-
2
l-i 1
0
S2=-
1
2
-1
0
1

j
U
0 2 1 (2.58)

l ij
1 -1 1
S1=-
. 2 0 o , S4=- 1 2
24
0 1 I 1

I T
SI =6(1, 1, 1)

Für ein gegebenes Dreieck Ti berechnet sich die S teifigkei tselem en tm a trix
Se gemäß (2.48) durch Linearkombination der Grundmatrizen SI, S2 und S3
mit den Faktoren a, bund e (2.49)

ff (u; + u;) dx dy = u; SeUe, Se = aSI + bS 2 -1- eS3 (2.59)


Ti
84 2 Elemente und Elementmatrizen

Die Massenelementmatrix Me ergibt sich entsprechend zu (2.50) durch


Multiplikation von S4 mit dem Wert J

ff u 2 dx dy = uJMeue, Me = JS4 (2.60)


Ti

Den Elementvektor be zugehörig zum fünften Integral erhält man schließ-


lich durch Multiplikation von SI mit J.

ff u dx dy = bJ ue, be = JS I (2.61)
Ti

Die Funktion u(x,y) ist auf jeder Seite des Dreiecks eine lineare Funktion der
Bogenlänge S und ist damit durch die Werte der Knotenvariablen in den
entsprechenden Endpunkten eindeutig bestimmt. Eventuelle Beiträge von
Randintegralen können (2.9) und (2.11) entnommen werden.

2.2.3 Quadratischer Ansatz im Dreieck

Ein vollständiger quadratischer Ansatz

(2.62)

enthält sechs Koeffizienten und wird durch die Werte von u in sechs
Knotenpunkten eindeutig festgelegt. Als Knotenpunkte werden dabei die drei
Eckpunkte und die drei Seitenmittelpunkte gemäß der in Fig. 2.10 eingeführ-
ten Numerierung verwendet.

Fig.2.10
Knotenpunkte für quadratischen Ansatz
im Dreieck

Auf jeder Dreiecksseite reduziert sich die Ansatzfunktion auf eine vollständige
quadratische Funktion der Bogenlänge. Durch die Funktionswerte in den drei
Knotenpunkten ist diese quadratische Funktion eindeutig bestimmt. Diese
Tatsache garantiert wiederum die Stetigkeit der Ansatzfunktionen beim
Übergang von einem Dreiecke1ement in das längs einer Seite benachbarte
Element.
2.2 Zweidimensionale Elemente 85

Die lineare Variablensubstitution (2.47) führt den Ansatz (2.62) über in eine
quadratische Funktion in den Variablen t! und Yf

(2.63)

mit + 2a4t! + asYf


+ ast! + 2a6Yf
Die im linearen Fall sehr ausführlich dargestellte Methode zur Herleitung der
Grundmatrizen Si und des Grundvektors SI führt vollkommen analog zum
Ziel. Dabei sei darauf hingewiesen, daß die Berechnung der Matrizen Si mit
einem äußerst einfachen Rechenprogramm unter Benützung der Integralfor-
meln (2.52) erfolgen kann. Die Angabe der Vorfaktoren der Koeffizienten ai
und die zugehörigen Potenzen von t! und Yf des betreffenden Terms genügen,
um die Matrizen Si zu berechnen.
Die Interpolationsbedingung der quadratischen Funktion im Einheitsdreieck
führt auf die linearen Beziehungen

UI = al
Uz = al + a2
U3 = al + a3 + a6 (2.64)
U4 = al + O.5a2 + O.25a4
Us = al + O.5a2 + O.5a3 + O.25a4 + O.25as + O.25a6
U6=aI +O.5a3 +O.25a6
Die dazu inversen Beziehungen lauten mit den Vektoren

a = (al, a2, a3, a4, as, a6)T, Ue = (UI, U2, U3, U4, US, U6)T
a= AUe
mit der ganzzahligen Matrix

1 0 0 0 0 0
-3 -1 0 4 0 0
-3 0 -1 0 0 4
A= (2.65)
2 2 0 -4 0 0
4 0 0 -4 4 -4
2 0 2 0 0 -4
Als Grundelementmatrizen Si und Grundelementvektor SI erhält man nach
entsprechender elementarer Rechnung die Ergebnisse (2.66).
86 2 Elemente und Elementmatrizen

3 1 0-4 0 0 6 1 -4 0-4
1 3 0-4 0 0 1 0-1 -4 4 0
1 0 0 0 0 0 0 1 1 -1 0 0 4 -4
SI=- S2=-
6 -4 -4 0 8 0 0 6 -4 -4 0 8 -8 8
0 0 0 0 8 -8 0 4 4 -8 8 -8
0 0 0 o -8 8 -4 0-4 8 -8 8

3 0 0 0-4 6 -1 -1 o -4 0
0 0 0 0 0 0 -1 6 -1 0 o -4
1 1 0 3 0 0-4 1 -1 -1 6 -4 0 0
S]=- S4=--
. 6
0 0 0 8 -8 0 360 0 o -4 32 16 16
0 0 o -8 8 0 -4 0 0 16 32 16
-4 o -4 0 0 8 o -4 0 16 16 32

1 T
SI =6(0,0,0, 1, 1, 1)

(2.66)
Aus diesen Matrizen und dem Vektor SI ergeben sich die Steifigkeitselement-
matrix Se, die Massenelementmatrix Me und der Elementvektor be nach
denselben Formeln (2.59), (2.60) und (2.61) wie für den linearen Ansatz. Dies
gilt auch für die nachfolgend beschriebenen Ansätze, womit die einheitliche
Behandlung bereits deutlich in Erscheinung tritt.
Die Ansatzfunktion u(x,y) ist auf einer Randkante eine quadratische Funk-
tion der Bogenlänge und wird deshalb durch die Knotenvariablen UA, UM und
UB im Anfangsknotenpunkt PA, dem Mittelpunkt PM und dem Endpunkt PB
eindeutig festgelegt. Allfällige Beiträge von Randintegralen werden durch
(2.15) erfaß 1.

2.2.4 Bilinearer Ansatz im Parallelogramm

Um in einem Parallelogramm einen geeigneten Funktionsansatz definieren zu


können, der durch die vier Funktionswerte Ul bis U4 in den vier Eckpunkten
eindeutig bestimmt ist, muß man vom Einheitsquadrat ausgehen. Im Gegen-
satz zu Fig. 2.9 sollen die Eckpunkte im Gegenuhrzeigersinn fortlaufend
numeriert werden, wie dies für das Parallelogramm in allgemeiner Lage und
das Einheitsquadrat in Fig. 2.11 festgehalten ist. In den allgemeinen Formeln
(2.47) und (2.49) ist der Index 3 durch 4 zu ersetzen.
2.2 Zweidimensionale Elemente 87

Fig.2.11
Neunumerierung
der Knotenpunkte
imParallelogramm und
im Einheitsquadrat

Im Einheitsquadrat Qo wird für u((, 17) ein bilinearer Ansatz festgelegt

(2.67)

Man erkennt nun sofort, daß bei festem ( oder festem 17 der Ansatz eine lineare
Funktion der andern Variablen wird. Im speziellen ist U((,17) auf den
Randkanten von Qo eine lineare Funktion der Bogenlänge. Schließlich wird
U((,17) durch Vorgabe der vier Funktionswerte in den Ecken eindeutig
festgelegt.
Die bilineare Funktion (2.67) werde nun vermöge der zu (2.47) inversen
linearen Transformation auf das allgemeine Parallelogramm Qi transformiert
oder übertragen. Im allgemeinen wird die resultierende Funktion in x und y ein
vollständiges quadratisches Polynom sein, doch ist der Funktionsverlauf auf
den Parallelogrammseiten infolge der linearen Substitution nach wie vor
linear. Das bedeutet aber, daß die Funktionswerte an den Enden einer Seite
den linearen Verlauf eindeutig bestimmen, und daraus folgt die Stetigkeit der
Funktion beim Übergang von einem Element ins benachbarte. Zudem zeigt
diese Überlegung, daß ein Parallelogrammelement mit einem so definierten
Ansatz kombinierbar wird mit einem linearen Dreieckelement nach Abschn.
2.2.2 unter Wahrung der Stetigkeit.
Die Bestimmung der vierreihigen Matrizen Si ist hier sehr einfach, und es
bleibt noch die Substitution der Koeffizienten ai des Ansatzes (2.67) durch die
Knotenvariablen UI bis U4. Die Interpolationsbedingungen lauten mit der
zugehörigen inversen Matrix A

l-~ ~ ~ ~J
UI = al

U2 = al + a2
A = (2.68)
U3 = al + a2 + a3 + a / -1 0 0 1
U4 = al + a.3 1 -1 -1

Für den Vektor U e = (UI, U2, U3, U4)T der Knotenvariablen des Elementes
ergeben sich die Grundelementmatrizen Si und der Grundelementvektor SI
zu
88 2 Elemente und Elementmatrizen

1
S1=-
6 r-:
-1
1
-2 -1

-1
1
2 1
2 -2
-2 2
-: j 1
S2=-
2
r-i
0 -1
-1
0
1
0
1
0
)j
-'j
(2.69)
1 -1 4 2 1
1
S3=-
6

1
r-:
-2 -1
-2

T
2 -2 -1
2
1
1
2
S4=-
1
36
r
2
1
2
4
2
1
2
4
2
fj
S1 =-(1, 1, 1, 1)
4

Da die Ansatzfunktion auf jeder Seite des Parallelogramms linear ist, können
die Beiträge von Randintegralen aus Abschn. 2.1.1 übernommen werden.

2.2.5 Quadratischer Ansatz der Serendipity-Klasse im Parallelogramm

Um auch die Dreieckelemente mit Parallelogrammelementen kombinieren zu


können, ist es naheliegend, je auf den Parallelogrammseiten die Mittelpunkte
als weitere Knotenpunkte einzuführen, so daß im ganzen 8 Knotenpunkte
resultieren. In Fig. 2.12 ist die im folgenden gültige Numerierung der
Knotenpunkte angegeben.

P. 1% P.;

Pa Ps
Fig.2.12
Knotenpunkte für den
quadratischen Ansatz
P, ~ ~ der Serendipity-Klasse

Um den verwendeten Ansatz zu beschreiben, ist auch in diesem Fan vom


Einheitsquadrat auszugehen. Als Ansatz mit 8 unabhängigen Koeffizienten
kommt ein unvollständiges Polynom dritten Grades in Frage:

(2.70)
2.2 Zweidimensionale Elemente 89

mit den partiellen Ableitungen


+ 2a4'; + usl'/ + 2a7';1'/ + aSl'/2
u~ = + US'; + 2U61'/ + U7.;2 + 2us';l'/
Der Ansatz und die resultierenden Elemente werden von ihren Entdeckern
[EIZ68] nach der Märchenerzählung "Die drei Prinzen von Serendip" von
Horace Walpole so benannt, da sie offenbar wie die Helden der Sage die
Fähigkeit besaßen, unverhoffte und glückliche Entdeckungen durch Zufall zu
machen.
Die Ansatzfunktion hat die Eigenschaft, für festen Wert der einen Variablen
quadratisch in der andern Variablen zu sein. Demzufolge ist sie auf jeder Seite
des Einheitsquadrates eine quadratische Funktion der Bogenlänge. Bei der
linearen Abbildung des Einheitsquadrates auf ein allgemeines Parallelogramm
überträgt sich diese Eigenschaft. Auf jeder Seite ist die Funktion durch die drei
Werte in den Knotenpunkten eindeutig festgelegt, so daß daraus die Stetigkeit
beim Übergang in ein anstoßendes Parallelogramm oder Dreieck mit quadra-
tischem Ansatz folgt. Die Elemente werden damit tatsächlich miteinander
kombinierbar hinsichtlich der Stetigkeits bedingung.
Durch Inversion der acht Linearformen, welche die Interpolationsforderun-
gen beinhalten, ergibt sich die ganzzah1ige Matrix A (2.71) der Ordnung acht,
welche den Koeffizientenvektor a mit dem Vektor U e = (UI, U2, U3, ... , us)T der
Elementknotenvariablen verknüpft.

o o o o o o o
-3 -1 o o 4 o o o
-3 o o -1 0 o o 4
2 2 0-4 o o o o
A= (2.71 )
5 -1 -3 -1 -4 4 4 -4
2 0 o 2 o o o -4
-2 -2 2 2 4 0-4 o
-2 2 2 -2 o -4 0 4

Die Grundelementmatrizen SI bis S4, welche nach dem üblichen Vorgehen


berechnet werden, sind in Tab. 2.1 zusammengefaßt.
Da das Einheitsquadrat eine Rotationssymmetrie aufweist, sind die vierreihi-
gen Untermatrizen von S4 je zyklisch. Dies ist auch der Fall für die
Steifigkeitselementmatrix Se zugehörig zu einem Quadrat in beliebiger Lage
und von beliebiger Größe, weil ja a = 1, b = 0, c = 1 gilt. Se wird damit die
Summe von SI und S 3, und die zyklische Struktur der vierreihigen Untermatri-
zen ist offensichtlich.
Tab.2.1 Grundelementmatrizen und Grundelementvektor für quadratischen Ansatz der Serendipity-Klasse -0
0

52 28 23 17 1 -80 -6 -40 6 85 0 35 o 1 -40 -20 -20 -40


IV
1
28 52 17 23 1 -80-6 6 -40 o -85 o -35 11 40 40 20 20 [TI
(b
23 17 52 1
28 -40-6 6 -80 35 0 85 o 1 -20 -40 -40 -20 ,.3
I ::J
17 23 28 52 1 -40 -6 -80 6 o -35 o -85 11 20 20 40 40 <>
S, =_1 -----------1----------- 1 -----------1-----------
I S2=- ::J
'"
90 0-
90 -80 -80 -40 -40 I 160 0 80 0 -40 40 -20 20 I o -80 0 80 [TI
1 1 (b
-6 6 6 -6 1 0 48 0 -48 -20 40 -40 20 1 -80 0 80 0 3,.
::J
-40 -40 -80 -80 I 80 0 160 0 -20 20 -40 40 1 0 80 o -80
1 3
6 -6 -6 6 1 o -48 0 48 -40 20 -40 40 1 80 o -80 0 ~
...,
;::;.
(I)

-6 ' , ::J
52 17 23 28 1 6 -40 -6 -80 6 2 3 2 1 -6 -8 -8
17 52 28 23 1 6 -80 -6 -40 2 6 2 3 1 -6 -6 -8 -8
1 1
23 28 52 171 -6 -80 6 -40 3 2 6 2 1 -8 -6 -6 -8
1 1 6
28 23 17 52 1 -6 -40 6 -80 2 3 1
2 -6 -8 -8 -6
S3=_1 -----------1----------- 1 -----------I---~-------
I S4=-
90 6 6 -6 -6 1 48 0 -48 0 180 -6 -6 -8 -8 1
32 20 16 20
1 1
-40 -80 -80 -40 1 0 160 0 80 -8 -6 -6 -8 20
1 32 20 16
-6 -6 6 6 1 -48 0 48 0 -8 -8 -6 -6 1 16 20 32 20
1 I
-80 -40 -40 -80 I 0 80 0 160 -6 -8 -8 -6 I 20 16 20 32

I T
s, =12(-1,-1,-1,-1,4,4,4,4)
2.2 Zweidimensionale Elemente 91

Vom numerischen Standpunkt ist an diesem Ansatz die Tatsache unbefriedi-


gend, daß in der Integrationsformel

H
Qj
u dx dy = -
J
12
(-Uj - U2 - U3 - U4 + 4U5 + 4U6 + 4U7 + 4U8)

die Funktionswerte in den vier Eckpunkten mit negativen Gewichten einge-


hen.
Da die Ansatzfunktion auf den ParaUelogrammseiten quadratische Funktio-
nen der Bogenlänge werden, behalten die Beiträge von Randintegralen aus
Abschn. 2.1.1 ihre Gültigkeit.

2.2.6 Quadratischer Ansatz der Lagrange-Klasse im Parallelogramm

Ein andersgeartetes Parallelogrammelernent, welches ebenfalls mit den Drei-


eckelementen mit quadratischem Ansatz kombinierbar ist, erhält man so, daß
einerseits die Knotenpunkte des Elementes der Serendipity-Klasse durch den
Schwerpunkt ergänzt werden und anderseits der Ansatz für das Einheitsqua-
drat dementsprechend um einen neunten Term erweitert wird zu

U(~, Yf) = aj+ a2~ + a3Yf + a4~2 + a5~Yf + a6Yf 2 + a7eYf


+ a8~Yf2 + a9~2Yf2 (2.72)

Dieser biquadratrische Ansatz kann mit der zweidimensionalen Interpola-


tionsaufgabe über einem regelmäßigen Gitter in Verbindung gebracht werden
(Fig. 2.13), und er kann als allgemeines Produkt eines quadratischen
Polynoms in ~ und eines quadratischen Polynoms in Yf angesehen werden. Der
Ansatz ist ein unvollständiges Polynom 4. Grades, doch besitzt er die oben
erwähnte Symmetrieeigenschaft. Die Interpolationsaufgabe kann mit Hilfe
von Lagrange-Polynomen gelöst werden, und dies erklärt die Bezeichnung
dieser Elemente.
Die Kombinierbarkeit des allgemeinen Parallelogrammelementes mit dem
Dreieckelement aus Abschn. 2.2.3 folgt nach der vollkommen analogen
Überlegung wie im vorangehenden Abschnitt.

~
rz Po; ~

~ o~ ~
Fig.2.13
Knotenpunkte für den quadratischen Ansatz
der Lagrange-Klasse P, Ps ~
92 2 Elemente und Elementmatrizen

Die Berechnung der übrigens auch ganzzahligen Matrix A, der Grundelement-


matrizen Si und des Vektors Sj seien dem Leser als Übung überlassen.
Für diesen Ansatz ergibt sich als Integrationsformel

JJ U dx dy = ~ [Uj + Ü2 + U3 + U4 + 4(us + U6 + U7 + us) + 16u9]


Q; 36

die zweidimensionale Simpson-Regel mit lauter positiven Integrationsgewich-


ten.
Die Knotenvariable U9 zugehörig zum Schwerpunkt P9 des Parallelogramms
ist durch die Elementmatrizen mit den acht Knotenvariablen auf dem Rand
verknüpft. Bei der Addition der Beiträge aller Elemente wird die betreffende
Variable allein mit den acht umliegenden Variablen verknüpft bleiben. Diese
inneren Variablen eines jeden Elementes erhöhen damit die Anzahl der
Unbekannten unnötigerweise, was als gewissen Nachteil des Ansatzes zu
betrachten ist, falls man das Element in dieser Form verwendet. Wir werden
jedoch sehen, daß solche inneren Knotenvariablen durch den Prozeß der
Kondensation (s. Abschn. 3.3.1) im Fall von Gleichgewichtsaufgaben
eliminiert werden können, ohne dabei irgend einen Verlust hinsichtlich der
Approximationsgüte in Kauf nehmen zu müssen.

2.2.7 Übersicht über weitere Elementtypen

Nach den bisherigen Ausführungen dürfte klar geworden sein, daß der Grad
des Ansatzes beliebig erhöht werden kann, wobei selbstverständlich gleichzei-
tig die Anzahl der Knotenvariablen entsprechend vergrößert werden muß. Im
folgenden soll nur auf einige wenige der höhergradigen Ansätze hingewiesen
werden, wobei nur Funktionswerte in den Knotenpunkten als Knotenvariable
in Betracht fallen sollen. Das prinzipielle Vorgehen zur Bestimmung der
Grundmatrizen bleibt stets dasselbe.
Für einen vollständigen kubischen Ansatz im Einheitsdreieck
u(,;, ,,) = aj + a2'; + a3" + a4,;2 + as';" + a6,,2 + a7,;3
+ as,;2" + a9,;,,2 + alO,,3
sind 10 Knotenpunkte erforderlich, von denen neun auf den Seiten und einer
im Schwerpunkt gewählt wird (Fig. 2.14). Die Knotenpunkte auf jeder Seite
sind äquidistant verteilt.
Dieses Dreieckelement ist kombinierbar mit einem Parallelogrammelement
entweder der Serendipity-Klasse mit 12 Knotenpunkten (Fig. 2.15) oder der
Lagrange-Klasse mit 16 Knotenpunkten (Fig. 2.16).
2.2 Zweidimensionale Elemente 93

Fig.2.14 Dreieck mil Fig.2.15 Parallelogramm- Fig.2.16 Parallelogramm-


kubischem element der element der
Ansatz Serendipity-Klasse Lagrange-Klasse

Der Ansatz für das Einheitsquadrat im Fall der Serendipity-Klasse ist ein
unvollständiges Polynom vierten Grades

während derjenige im Fall der Lagrange-Klasse bikubisch ist

u«(, f/) = al + + a3f/ + a4(2 + as(f/ + a6f/2 + a7(3 + agef/


a2(

+ a9(f/2 + alOf/3 + all(3f/ + aI2(2f/2 + a13(f/3 + a14ef/3


(2.74)

und ebenfalls ein unvollständiges, aber wenigstens symmetrisches Polynom


ist.
Das Dreieckelement besitzt einen und das Parallelogrammelement der
Lagrange-Klasse vier innere Knotenpunkte, welche wiederum zweckmäßiger-
weise nach der Methode der Kondensation eliminiert werden sollten.
Einer weiteren Erhöhung des Grades sind theoretisch keine Grenzen gesetzt.
Aus praktischen Gründen werden aber bereits quintische Ansätze in Drei-
ecken nur selten verwendet. Denn die Zahl der Knotenvariablen pro Element
steigt rasch an, und damit werden bereits innerhalb eines Elementes entspre-
chend viele Variable miteinander verknüpft. Dies wirkt sich auf die Struktur
der Gesamtgleichungssysteme so aus, daß die Matrizen stärker besetzt sind
und eine größere Bandbreite aufweisen. Da wir bisher auch nur Elemente
betrachtet haben mit Funktionswerten als Knotenvariablen, steigt ihre totale
Anzahl auch rasch an. Obwohl die erforderliche Anzahl von Knotenvariablen
pro Element bei gegebenem Ansatz fest ist, kann im Fall von kubischen und
höhergradigen Ansätzen die Totalzahl der Knotenvariablen des Gesamtpro-
blems verringert werden, falls neben Funktionswerten auch partielle Ableitun-
gen als Knotenvariable verwendet werden.
94 2 Elemente und Elementmatrizen

2.2.8 Kubische Ansätze mit partiellen Ableitungen als Knotenvariablen

Neben dem bereits erwähnten Grund kann die EinfUhrung von panielJen
Ableitungen als Knotenvariable auch vom Problem her angebracht sein, um
etwa die Stetigkeit der ersten partiellen Ableitungen mindestens in einzelnen
Knotenpunkten zu erzwingen , oder da sie etwa als Verzerrungen bei ebenen
Spannungsproblemen eine unmittelbare physikalische Bedeutung besitzen.
Für den vollständigen kubischen Ansatz, gültig für das Einheitsdreieck,

u(~. I'/) = al + az<! + a 31'/ + a4e + as ~'1 + a6'1 2 + a 7e


+ a 8~2 '1 + a9~ '1 2 + a IO'l) (2.75)

mit den partiellen Ableitungen

ergibt sich mit den Abkürzungen

u{(Pi) = Pi, u~(P,) = qi (i = 1,2 , 3)

der Satz von zehn Interpolationsbedingungen in den drei Eckpunkten und


dem Schwerpunkt des Einheitsdreiecks

", o 0 10 0 0 10 0 0 0
PI = 0 0 I0 0 0 I0 0 0 0
q, o 0 1 :0 0 0 :0 0 0 0
-----,------r---------
u2= I 1 0 11 0 0 I ' 0 0 0
P2= 0 1 0 12 0 0 13 000
Q2= 0 0 10 0 1 0 100
_____ ~ ______ L ________ _

U3 = o 10
I
0 1 10
I
0 0 1
P3= 0 0 10 0 10 0 0
qJ = 0 0 I 10 0 2 10 0 0 3
----- ~ ------~---------
". ~ 1/ 3 1/ 3 I 1/ 9 1/ 9 1/ 9 I 1/ 27 1/27 1/ 27 1/ 27
~~~~~~~~~~-=~
2.2 Zweidimensionale Elemente 95

Die Inversion dieser zehnreihigen Matrix liefert die ganzzahlige Matrix

o 0 0 0 010 0 0 0
o 0 0 0 010 0 0 0
I
---; -----; - ~ T-; ~l- -0-:- ~ -~-;- -~
o 0 10 0 0 1 0 0 0 0

A = -13 - 3 - 3 I -7 2 -1 I -7 -1 2 27 (2.76)
-3 0 -2 I 0 0 0 I 3 0 -1 0
------~-----~--------
2 1 0 1-2 0 I 0 0 0 0
13 3 2 I 7 -2 2 I 7 1 -2 -27
I I
13 2 3 I 7 - 2 1 I 7 2 - 2 - 27
2 0 I 0 0 0 I -2 0 0

Nun ist es leicht, die zugehörigen Grundelementmatrizen zu berechnen,


welche die Grundlage zur Berechnung der Steifigkeits- und Massenelement-
matrix bilden. Sobald diese von der Geometrie unabhängigen Matrizen
vorliegen, ist aber zu beachten, daß die Matrizen bezüglich der Knotenvaria-
blen

gültig sind, d. h. für die partiellen Ableitungen nach ~ und 17 in den drei
Eckpunkten. Dies sind jedoch nicht die geeigneten Ableitungen im Hinblick
auf die Addition der Beiträge der verschiedenen Dreieckelemente. Zu diesem
Zweck sind die partiellen Ableitungen nach x und y, d. h. die Werte Ux und uy in
den Eckpunkten, die zuständigen Variablen, denn diese Ableitungen allein
haben für die in den Eckpunkten zusammenstoßenden Dreiecke eine globale
Bedeutung.
Nach der Kettenregel gelten einerseits

und anderseits sind auf Grund der linearen Abbildung (2.47)

X~ = X2 - XI = X2I, y~ = Y2 - YI = Y21,
(2.77)
x~ = X3 - XI = X31, Y~ = Y3 - YI = Y31·

Infolge der Linearität der Abbildung sind die Koeffizienten in der Transfor-
mation der partiellen Ableitungen konstant, allein von der Geometrie des
Dreiecks abhängig, aber insbesondere nicht von der speziellen Ecke. Sobald
96 2 Elemente und Elementmatrizen

die Elementmatrix Se zugehörig zum Integral


JJ [Cu; + u;) - (J • u 2] dx dy = uJ Seue
T;
als Linearkombination der Matrizen Si berechnet ist, sind noch die Substitu-
tionen (i) (i)
PI·=X21 Ux +Y21UY (i=1,2,3)
(2.78)
qi = x31ul') + Y31 U}')
auszuführen. Versteht man unter
Ue -
_ ( (1) (1) (2) (2) (3) (3)
Ul, Ux , u y , U2, Ux , u y , U3, Ux , u y , U4
)T

den eigentlichen für das Dreieck Ti zuständigen Vektor der globalen Knoten·
variablen, läßt sich der Übergang von ue zu U e formal mit einer Matrix C
beschreiben, welche Blockdiagonalgestalt aufweist gemäß
1

mit Cü = r X21
X31
Y21
Y31
1
(2.79)
Die zweireihigen Blockmatrizen Ci sind alle gleich. Die Matrix Se ist somit
noch mit C kongruent zu transformieren gemäß
(2.80)
Infolge der sehr speziellen Gestalt der Matrix C ist die Transformation (2.80)
nicht al~ volle Matrizenmultiplikation auszuführen. Bei der Produktbildung
Se C = Se werden nur die drei Paare von Kolonnen (2,3), (5,6) und (8,9) je
linear kombiniert gemäß der Vorschrift
~ij = X21 Sij + X31 Si,i+ 1
(i = 1,2, ... , 10; j = 2, 5, 8),
3i,i+1 = Y21 Sij+ Y31 Si,j+l

während für die ~brigen Elemente 3ij = sij gilt. Schließlich bewirkt die
Multiplikation C T Se nur eine Linearkombination der drei Paare von Zeilen
(2,3), (5,6) und (8,9) gemäß
Si} = X21 3ij + X31 3i+ l,i (j= 1,2, ... , 10; i=2, 5, 8),
= Y21 Si} + Y31 Si+ I,i
A A

Si+ l,i

während die übrigen Elemente sij = 3i} unverändert bleiben. Die Transforma·
tion von Se in Se kann durch eine geeignete Programmierung an Ort erfolgen
und benötigt insgesamt nur 240 Multiplikationen.
2.2 Zweidimensionale Elemente 97

Anmerkung Im Fall des Eigenwertproblems werden die Steifigkeits- und


Massenelementmatrizen getrennt benötigt. Die beiden entsprechenden Ele-
mentmatrizen sind deshalb in diesem Fall gesondert der beschriebenen
Transformation zu unterwerfen.
Für den in u linearen Integralausdruck ergibt sich

I
= -- [60al + 20a2 + 20a3 + lOa4 + 5as + IOa6
120
+ 6a7 + 2ag + 2a9 + 6aIO]
1
= 120 [ l1u I + PI + ql + 11u2 - 2P2 + q2 + Ilu3 + P3
- 2q3 + 27u4] = sTu e

mit SI = 1~0 (11,1,1,11, -2,1,11,1, -2,27)T. (2.81)

Selbstverständlich ist auch dieser lineare Beitrag unter Berücksichtigung der


Geometrie umzurechnen. Wegen
sTu e = sr CU e = (CTsdTu e = sTu e
entsteht SI aus SI einzig durch Linearkombination der drei Komponentenpaare
(2,3), (5,6) und (8,9) gemäß

Si =X2ISi+X31Si+1
(i = 2, 5, 8). (2.82)
Si+ I = Y21 Si + Y31 S;+ I
Die Bereitstellung der Beiträge von Randkanten bedarf einer zusätzlichen
Überlegung. Die Ansatzfunktion u (2.75) reduziert sich längs einer Dreiecks-
seite auf ein Polynom dritten Grades in der Bogenlänge s. Dieses Polynom ist
somit nach Abschn. 2.1.3 bestimmt durch die beiden Funktionswerte und den
beiden ersten Ableitungen in Richtung der Seite in den Endpunkten.
Bezeichnet UR = (UA, UA, UB, UB) den Elementvektor einer Randkante Cj nach
Fig. 2.17, wobei UA die Richtungsableitung nach s bedeutet, und besitzt die
Kante die Länge I, so werden die Integralbeiträge für UR gegeben durch

J u 2 ds = uRMeUR, (2.83)
cf
98 2 Elemente und Elementmatrizen

f uds = b;ÜR, (2.84)


cj
wobei Me und be nach (2.26) gegeben sind.

IX:.YB)
cj
/
'f'
AlxA,yA )
Fig.2.l7
Randkante Cj

Für die Ableitung in Richtung von A nach B gilt mit dem Winkel lfI

u., = -au = cos lfI


+uy '
sm 1fI, (2.85)
as
Ux

cos lfI =..!..I (XB - XA), sin lfI =..!..I (YB - YA)· (2.86)

Die Beziehung (2.85) gilt natürlich für beide Endpunkte A undB mit denselben
Werten für cos lfI und sin 1fI. Der Vektor UR = (UA, U~A), U~A), UB, u<t), u~B)l mit
den zum Kantenstück Cj gehörenden globalen Knotenvariablen ist mit dem
Vektor UR vermöge der linearen Transformation (2.87) verknüpft.

o o o o
cos lfI sin lfI 0 0
(2.87)
o o I 0
o o o cos lfI

Die Integralbeiträge (2.83) und (2.84) sind deshalb nach (2.87) zu transformie-
ren. Die Grundmatrix Me in (2.83) ist einer Kongruenztransformation mit C
zu unterziehen entsprechend

f u 2 ds = u1MeüR = u1 C T MeCuR = u1MRuR. (2.88)


cj
Die resultierende Matrix M R ist eine quadratische Matrix der Ordnung sechs.
Ihre Berechnung aus Me kann aber unter Ausnützung der sehr speziellen
Gestalt von C effizient durchgeführt werden. Eine triviale Rechnung zeigt, daß
sich M R aus der erweiterten sechsreihigen Hilfsmatrix
2.2 Zweidimensionale Elemente 99

156 22 22 54 -13 -13


22 4 4 13 -3 -3
~ I 22 4 4 13 -3 -3
M R =-- (2.89)
420 54 13 13 156 -22 -22
-13 -3 -3 -22 4 4
-13 -3 -3 -22 4 4
durch Multiplikation der zweiten und fünften Zeilen und Kolonnen mit
Xs - XA und der dritten und sechsten Zeilen und Kolonnen mit Ys - YA ergibt.
Entsprechend ist auch der Vektor bR aus be zu gewinnen gemäß

f uds = b;UR = b; CUR = (CTbe)T uR = bluR


cj

mit

Die Betrachtung zeigt, daß auch beim Hinzukommen von verallgemeinerten


Knotenvariablen wie partiellen Ableitungen die Elementbeiträge im wesentli-
chen nach dem normalen Vorgehen erhalten werden können, wobei nur
geringfügige Ergänzungen erforderlich sind.
Die dargestellte Methode läßt sich in offensichtlicher Weise auf Parallelo-
grammelemente mit kubischem Ansatz übertragen. Ein Parallelogrammele-
rnent, welches mit dem Dreieckelement kombinierbar ist, besitzt nur in jedem
der vier Eckpunkte je die drei Knotenvariablen u, Ux und uY ' Dieses Element
mit insgesamt zwölf Knotenvariablen gehört zur Serendipity-Klasse, denn
man kann das Parallelogrammelement der Fig. 2.15 einem Grenzübergang
unterziehen, bei welchem die beiden den Eckpunkten benachbarten Knoten-
punkte gegen diesen konvergieren und mit ihm verschmelzen. Bei diesem
Grenzübergang sind die Funktionswerte in den Seitenknotenpunkten durch
die partiellen Ableitungen zu ersetzen. Für dieses Element gilt im Einheitsqua-
drat der Ansatz (2.73).
Unterwirft man das Parallelogrammelement der Lagrange-Klasse (Fig. 2.16)
in Gedanken einem analogen Grenzübergang, wobei neben den beiden auf den
anstoßenden Seiten gelegenen benachbarten Knotenpunkten auch noch der
nächstgelegene Punkt im lnnern mit dem Eckpunkt verschmolzen wird,
entsteht ein Element mit den Knotenvariablen u, ux, uy und uxy in den vier
Eckpunkten. Diesem Parallelogrammelement liegt der bikubische Ansatz
(2.74) zugrunde. Es besitzt die besondere Eigenschaft, daß neben der Stetigkeit
der Funktion auch noch die Stetigkeit der Normalableitung beim Übergang
ins Nachbarelement sichergestellt ist. Dieses Element erfüllt die Anforderun-
gen bei Plattenproblemen und wird dort näher behandelt.
100 2 Elemente und Elementmatrizen

2.3 Formfunktionen für zweidimensionale Elemente

Für die Funktion u(~, 17) wurden innerhalb des Einheitsdreiecks und des
Einheitsquadrates Polynomansätze verwendet, wobei die Koeffizienten ai
anschließend durch die Knotenvariablen zu ersetzen waren. Die Funktion
u(~, 17) kann statt dessen auch direkt als Linearkombination der Formfunktio-
nen dargestellt werden mit den Knotenvariablen des betreffenden Elementes
als Koeffizienten. Die einschlägigen Formfunktionen sollen im folgenden
zusammengestellt werden, da sie für die formale Darstellung der Funktion
u(~, 17) innerhalb eines Elementes sehr zweckmäßig sind, und da sie sich zur
Behandlung von krummlinigen Elementen sehr gut eignen. Wir sprechen in
diesem Abschnitt stets von den Formfunktionen innerhalb eines Elementes.
Um die Schreibweise zu entlasten, lassen wir den an sich notwendigen oberen
Index e, wie er in Abschn. 1.5 zur Unterscheidung eingeführt worden ist, weg.
Die explizite Darstellung der Formfunktionen für die im vorangehenden
Abschnitt behandelten Elemente ergeben sich unmittelbar als Nebenprodukt
jener Behandlungsart. Es seien nämlich ganz allgemein a= (al, a2, ... , ap)T der
Koeffizientenvektor, ~ = (l,~, 17, ... ) der Vektor mit den im Ansatz auftreten-
den Potenzen, Ue = (UI, U2, ••• , up)T der Vektor der Knotenvariablen des Ele-
mentes und schließlich A die inverse Matrix, welche auf Grund der Interpola-
tionsbedingung die Vektoren aund Ue gemäß a= AUe miteinander in Relation
brachte. Für die Ansatzfunktion U(~,17) gelten damit folgende identische
Darstellungen
p
u(~, 17) = aT~ U; AT ~ u; N(~, 17) I
= = = ukNk(~, 17). (2.90)
k=I

In (2.90) wurde der Vektor N= (NI, N 2, ..• ,Npl der Formfunktionen einge-
führt, der sich also formal als Produkt von AT mit ~ ergibt. Das heißt aber, daß
die k-te Kolonne von A die Koeffizienten der Potenzen für Nk(~, 17) enthält. Die
Formfunktionen können deshalb von den einschlägigen Matrizen A direkt
abgeleitet werden. Dies rechtfertigt nachträglich die explizite Angabe der
Matrizen.
Mit Hilfe der Formfunktionen lassen sich die im vorigen Abschnitt hergeleite-
ten Grundmatrizen und Grundvektoren formal definieren. Nach (2.90) ist
beispielsweise

!
und deshalb

ff ul d~ d17 = u; ff N;Nl d~ d17} Ue = u; SIUe (2.91 )


Go Go
2.3 Formfunktionen für zweidimensionale Elemente 10 1

2 If u~u~ d~ d" = u; {If [N~NJ + N~Nl] d~ d,,} Ue = u; S2Ue (2.92)


Go Go

II uJ d~ d" = u; {JJ N~NJ d~ d,,} Ue = u; S3Ue (2.93)


Go Go

If u2 d~ d" = u; {If NN T d~ d,,} Ue = u; S4Ue (2.94)


Go Go

II ud~ d" = u; If N d~ d" = u; SI (2.95)


Go Go
Die Integranden der ersten vier Integrale stellen als Produkt eines Kolonnen-
vektors mit einem Zeilenvektor je eine Matrix dar, welche e1ementweise zu
integrieren ist.

2.3.1 Natürliche Koordinaten im Dreieck

Die formale Darstellung und damit auch die numerische Berechnung von
Formfunktionen im Dreieck vereinfacht sich, falls natürliche Dreiecks-
koordina ten verwendet werden. Für ein allgemeines Dreieck (Fig. 2.18) läßt
sich die Lage eines Punktes P in bezug auf dieses Dreieck durch drei natürliche
Koordinaten (I, (2 und (3 festlegen.

Fig.2.18
Natürliche Koordinaten

Es bedeute FI die vorzeichenbehaftete Fläche des Dreiecks PP2P3, F2 diejenige


des Dreiecks PP 3P I und F3 diejenige von PP I P2. Für einen Punkt P innerhalb
des Dreiecks sind alle Fi positiv. Nun bedeute C den Quotienten der Fläche Fi
zur Gesamtfläche F des gegebenen Dreiecks. Dann ist offenbar die Summe der
drei Werte (i gleich Eins.
(2.96)
Ein Wertetripe1 ((I, (2, (3) mit Summe Eins bestimmt die Lage eines Punktes P
relativ zum Dreieck eindeutig. Die drei Ecken des Dreiecks erhalten insbeson-
dere die natürlichen Koordinaten PI (1,0,0), P 2 (0, 1,0), P3 (0, 0, 1).
Der Zusammenhang zwischen den kartesischen Koordinaten x,y eines
Punktes P mit seinen natürlichen Dreieckskoordinaten (I, (2, (3 ergibt sich auf
102 2 Elemente und Elementmatrizen

Grund der bekannten Berechnung von Flächen


1 x Y 1 x Y I x Y
X2 Y2 , 2F2 = X3 Y3 , 2F3 =
X3 Y3 Xl Y1

Xl Y1 (2.97)

X3 Y3
Werden die Determinanten für 2F; je nach der ersten Zeile entwickelt, gelten
I
(I = 2F [(X2Y3 - X3Y2) + X(Y2 - Y3) + Y(X3 - X2)]

(2.98)

Löst man etwa die beiden letzten Beziehungen von (2.98) nach X und Y auf,
erhält man unter Berücksichtigung des Ausdrucks (2.97) für 2F und der
Relation (2.96) umgekehrt
(2.99)
Diese beiden äußerst einfachen Zusammenhänge (2.99) sind stets noch durch
(2.96) zu ergänzen.

Fig.2.19
~ Natürliche Koordinaten im Einheitsdreieck

Für das Einheitsdreieck To bestehen zwischen den kartesischen Koordinaten


~," und den natürlichen Koordinaten besonders einfache Relationen. Aus Fig.
2.19 liest man sofort ab
(I = I - ~ - '1
(2 = ~ (2.100)
(3 = '1
2.3 Formfunktionen für zweidimensionale Elemente 103

Die Beziehungen (2.100) dienen im folgenden dazu, die Formfunktionen auch


in natürlichen Koordinaten darzustellen. Diese Darstellung erweist sich für die
Rechenpraxis als nützlich.

2.3.2 Zusammenstellung von Formfunktionen

a) Linearer Ansatz in Dreiecken Aus (2.56) folgen


NI (~, Yf) = 1 - ~ - Yf = (I
N2(~, Yf) = ~ = (2 (2.10 1)
N3(~, Yf) = Yf = (3
Die Interpolationseigenschaft von NI (~, Yf) ist in Fig. 2.20 ersichtlich. Zusam-
menfassend gilt hier Nk(~,Yf) = (k.

Fig.2.20
Formfunktion NI

b) Quadratischer Ansatz in Dreiecken Die Matrix A (2.65) liefert


NI (~, Yf) = 1- 3~ - 3Yf+2e+4~Yf+2Yf2=(I-~ -Yf)(I- 2~ -2Yf) =(1 (2(1-1)
N2(~,rf)=-~+2e=~(2~-I) =(2(2(2-1)
N3(~, Yf) = -Yf + 2Yf2 = Yf(2Yf - 1) =(3(2(3 -1)
N4(~,Yf) =4~ -4e-4~Yf=4~(I-~ -Yf) =4(1(2
N5(~,Yf)=4~Yf =4(2(3
N6(~, Yf) = 4Yf - 4~Yf - 4Yf2 = 4Yf(1 - ~ - Yf) =4(1(3
(2.102)
Die Darstellung der Formfunktionen in natürlichen Koordinaten macht die
zyklische Vertauschbarkeit offensichtlich. In Fig. 2.21 sind zwei repräsentative
104 2 Elemente und Elementmatrizen

Formfunktionen veranschaulicht. Die Fläche, welche durch NI (~,,,) definiert


wird, enthält übrigens eine Schar paralleler Niveaugeraden parallel zur Seite
P2 P3.

c) Kubischer Ansatz in Dreiecken mit partiellen Ableitungen als Knotenvaria-


blen Nach (2.76) lauten die Formfunktionen nach leichter algebraischer
Umformung
NI (~,,,) = (1 - ~ - ,,)[(1- ~ + 2,,)(1 + 2~ -,,) - 16~,,] = (T(3 - 2(1) -7 (1 (2(3
N2(~,") = ~(1- ~ - 2,,)(1- ~ -,,) = (1 (2«(1 - (3)
N3(~,") = 1'/(1- 2~ - ,,)(1 - ~ -,,) = (1 (3«(1 - (2)
N4(~,") = ~2(3 - 2~) -7 ~,,(1- ~ -1'/) = (~(3 - 2(2) -7 (1 (2(3
N5(~, 1'/) = ~2(~ -1) + 2~,,(1- ~ -,,) = (~«(2 -1) + 2(1(2(3
(2.103)
N6(~,") = -~,,(l- 2~ -,,) = -(2(3«(1 - (2)
N7(~,") = ,,2(3 - 2,,) -7 ~,,(1- ~ -,,) = (~(3 - 2(3) -7 (1 (2(3
N8(~,") = -~I'/(1- ~ - 2,,) = -(2(3«(1 - (3)
N9(~,") = "2(,, - 1) + 2~,,(1- ~ -,,) = (~«(3 - 1) + 2(1 (2(3

Infolge der komplizierten Interpolationseigenschaften ist die Darstellung auch


entsprechend kompliziert geworden. Die Eigenschaften werden am besten
durch die anschauliche Darstellung von vier repräsentativen Formfunktionen
in Fig. 2.22 deutlich.

Pz S P,

Fig.2.22 Formfunktionen, kubischer Ansatz


2.3 Formfunktionen für zweidimensionale Elemente 105

d) Bilinearer Ansatz im Quadrat Für die Numerierung der Knotenpunkte nach


Fig. 2.l1 lauten die Formfunktionen auf Grund von (2.68)
NI(~, ,,) = (1 - ~)(1 - ,,)
N2(~, ,,) = ~(l - ,,) (2.104)
N3(~, ,,) = ~"
N4(~, ,,) = (1 - ~)"
Die Formfunktion NI (~, ,,) ist in Fig. 2.23 dargestellt. Die weiteren Formfunk-
tionen gehen aus ihr durch eine Drehung um 90°, 180°,270° hervor.

Fig.2.23
Formfunktionen NI (~, 1]), bilinearer Ansatz

Anmerkung Das Grundquadrat wird in der Literatur meistens so definiert,


daß die vier Eckpunkte die Koordinaten (± 1, ± I) erhalten. Mit dieser
Festsetzung lassen sich die Formfunktionen mit Hilfe von zwei Parametern
auf eine einheitliche Form bringen.
e) Quadratischer Ansatz der Serendipity-Klasse Auf Grund der Matrix A (2.71)
sind die ,Formfunktionen
NI (~, ,,) = (l - ~)CI - ,,)(1 - 2~ - 2,,) N5(~, ,,) = 4~(l - ~)(1 - ,,)
N2(~, ,,) = -~(l - ,,)(1 - 2~ + 2,,) N6(~, ,,) = 4~,,(1 - ,,)
(2.105)
N3(~, ,,) = -~,,(3 - 2~ - 2,,) N7(~, ,,) = 4~,,(l - ~)
N4(~, ,,) = -"CI - ~)(l + 2~ - 2,,) N8(~, ,,) = 4,,0 - ~)(1 - ,,)

In Fig. 2.24 sind NI (~, ,,) und N5(~, ,,) als Repräsentanten dargestellt.

Fig.2.24 Formfunktionen, quadratischer Ansatz der Serendipily-Klasse

f) Kubischer Ansatz der Serendipity-Klasse im Quadrat Obwohl dieser Fall


im Abschn. 2.2.8 nur angedeutet wurde, sollen hier von den insgesamt
106 2 Elemente und Elementmatrizen

12 Formfunktionen die drei ersten repräsentativen für den Knotenpunkt P,


angegeben werden.

N,(~, ,,) = (1 - ~)(l - ,,)[(1 - ~ - ,,)(1 + 2~ + 2,,) + 4~,,]


N2(~, ,,) = ~(l - ~i(l - ,,) (2.106)
N3(~, ,,) = ,,(1 - ~)(l - "i
Die Funktionen N2(~, ,,) und N3(~, ,,) sind symmetrisch bezüglich einer
Vertauschung der Variablen ~ und ". Fig. 2.25 stellt deshalb nur die
Formfunktionen N, (~, ,,) und N"(~, ,,) dar.

Fig.2.25 Formfunktionen, kubischer Ansatz der Serendipity-Klasse

2.3.3 Direkte Berechnung von Elementmatrizen

In der Literatur werden die Elementmatrizen in der Regel auf Grund der
Formfunktionen definiert und auch auf diese Weise berechnet. Für ein
Dreieckelement werden hierbei die natürlichen Koordinaten verwendet, da
sich die Formfunktionen darin sehr einfach formulieren lassen. Die Integra-
tion über ein Dreieckelement in allgemeiner Lage wird vermittels der
Beziehungen (2.98) und (2.99) auf eine Integration bezüglich der Dreiecks-
koordinaten zurückgeführt. Nach den elementaren Regeln der Integralrech-
nung ist das Flächenelement dxdy nach (2.99) und (2.96) zu ersetzen durch

dx dy = !y,x, -- X3
Y3
X2 - x3
Y2 - Y3 .
!
d(, d(2 = 2F d(, d(2 = J d(, d(2,

wobei zu berücksichtigen ist, daß nur zwei der natürlichen Koordinaten


unabhängig sind. Da die lacobi-Determinante konstant ist, erscheint die
doppelte Fläche des Dreiecks als Faktor, der mit dem Wert J (2.49) identisch
ist.
Beginnen wir mit dem durchsichtigsten und einfachsten Integral für ein
allgemeines Dreieck Ti, nämlich

fI u dx dy = ur fI N(x, y) dx dy = ur {J fI N«(" (2, (3) d(, d(2}.


~ ~ ~
2.3 Formfunktionen für zweidimensionale Elemente 107

Die k-te Komponente des Vektors be ist also gegeben durch

b~el = J II N k d([ d(2.


To
Da N k in den natürlichen Koordinaten recht einfache Darstellungen in Form
von Summen von Produkten aus Potenzen der Koordinaten besitzt, kann das
Integral fast mühelos auf Grund der allgemeinen Formel

IITypyqyrdYdY- p!q!r! (2.107)


o <,[<,2<,3 <,[ <,2- (p+q+r+2)!

berechnet werden. (2.107) ist eine Folge von (2.52). So ist etwa für den
quadratischen Ansatz in Dreiecken

b[(el =b2(el =b (el


3 =J II ([(2([-I)d([d(2=J r2-,
T
2! - -1,
4. 3.
j =0,
o

bi el = b~el = b~el = J JJ 4([(2 d([ d(2 = J~ ~


T 4!
=~.
6
o
Für die Massenelementmatrix Me

Me = JJ N(x, y)NT(x, y) dx dy = J HN«([, (2, (3)NT«([, (2, (3) d([ d(2


~ ~
ist das allgemeine Element definiert durch

mX l = J JJ NA([, (2, (3)Nk «([, (2, (3) d([ d(2.


To
Auch hier ergeben sich die Elemente, zwar mit etwas mehr Aufwand, jedoch
auf direkte Art.
Im Fall von kubischen Ansätzen mit partiellen Ableitungen als Knotenvaria-
blen werden üblicherweise Formfunktionen verwendet bezüglich der partiel-
len Ableitungen nach den globalen kartesischen Koordinaten xundy. Die
Formfunktionen (2.103) sind deshalb nicht unmittelbar anwendbar, da sich
hier die Ableitungen auf die lokalen Koordinaten ~ und" beziehen. Diesem
Umstand muß dadurch Rechnung getragen werden, daß geeignete Linearkom-
binationen der Formfunktionen (2.103) gebildet werden, nämlich die drei
Paare von Formfunktionen

(k = 2, 5, 8). (2.108)
108 2 Elemente und Elementmatrizen

Nach der Kettenregel der Differentiation folgt dann

aNk _
-- - X21
(3Nk 3(
----::-:- -~-
+ 3Nk -3'7)
-~-
+ X31 (3Nk+l 3(
- - - -~-
+ ONH1 0'7)
--~----
2x ce; cx c'7 OX O( cx Ci( ox

= -1 (X21Y31
ONk
-,- - X21Y21 -~-
oNk 2Nk+l
+ X31Y31 - -- -
ONH1
X31Y21 -~--
)

J oe; 0'7 a( Ci '7

Mit den analog gebauten Ableitungen oNday, oNk +1/0X und oNk+ l/ay
verifiziert man leicht auf Grund der Interpolationseigenschaften der Form-
funktionen (2.103), daß die neuen Funktionen (2.108) in den Knotenpunkten
die gewünschten Eigenschaften besitzen.
Man stellt fest, daß mit von der Geometrie des Dreiecks abhängigen
Formfunktionen gearbeitet werden muß, falls die Elementmatrizen direkt in
Abhängigkeit der global gültigen Knotenvariablen

berechnet werden sollen. Die Geometrie des Dreiecks geht damit bereits in die
zu verwendenden Ansätze der Formfunktionen ein.
Die Situation verhält sich analog im Fall der Steifigkeitselementmatrix Se. Sie
ist definiert durch

JJ (u; + u;) dx dy = uJ { JJ [NxN; + NyN]] dx dY } U e = uJ Seue.


Ti Ti
Das allgemeine Element von Se ist also gegeben durch

sX) = JJ [ON) cNk + 'ON) aNk 1dx dy.


T
I
CX OX oy ay J
Um auch hier die natürlichen Koordinaten verwenden zu können, ist einmal
nach der Kettenregel zu beachten, daß die Beziehungen
OU OU OU
Y23 - - + Y31 - - + Y I 2 - -
~ = 2u '0(1 +- OU 0(2 +~ 2(3 = 0(1 3(2 '0(3
ax 0(1 ax 2(2 2x 0(3 CX J
ou OU CU
X32 - - + Xl3 - - + X21 - -
cu = 2u 2(1 +~ '0(2 + 3u 2(3 = '0(1 '0(2 '0(3
3y ay
'0(1 '0(2 ay 3(3 3y J
gelten, worin (2.98) berücksichtigt worden ist und wiederum die Abkürzungen
xi) = Xi - X), Yi) = Yi - Y) verwendet wurden. Die Transformation des Integrals
auf die natürlichen Koordinaten konfrontiert uns mit der Aufgabe, Integrale
zu berechnen, deren Integranden sich zwar überschaubar aus einfachen
2.3 Formfunktionen für zweidimensionale Elemente 109

Ausdrücken aufbauen, in denen die partiellen Ableitungen der Formfunktio-


nen auftreten, die aber im ganzen von der Geometrie des Dreiecks in eher
undurchsichtiger Weise abhängig sind. Selbst die Integralformel (2.107) wird
uns kaum verlocken, die Elemente der Steifigkeitsmatrix Se in geschlossener
Form darzustellen. Der Ausweg besteht darin, die Matrix vermittels numeri-
scher Integration auszuwerten (vgl. Abschn. 2.4.3).
Dieser Zugang zu den Elementmatrizen wird in vielen Computerprogrammen
auch so realisiert, indem als besonderer Vorteil die große Flexibilität angeführt
wird, weil nur Unterprogramme auszuwechseln sind, welche die Formfunktio-
nen und die benötigten partiellen Ableitungen definieren. Die tatsächliche
Berechnung der Elementmatrizen erfordert dabei einerseits die numerische
Auswertung der Formfunktionen und ihrer Ableitungen an den Integrations-
punkten, und anderseits die Bildung der geometrieabhängigen Zwischengrö-
ßen und Aufsummation der als dyadisches Produkt gebildeten Matrizen.
Der so erforderliche Rechenaufwand ist aber größer im Vergleich zum
Aufwand, wie er nach der in Abschn. 2.2 dargelegten Methode der Grundma-
trizen benötigt wird. Die Effizienz jener Methode erklärt sich teilweise
dadurch, daß dort die Geometrie des Dreieckelementes sauber vom verwende-
ten Typus des Ansatzes getrennt werden konnte. Vom praktischen Standpunkt
hat deshalb jenes Vorgehen gewisse Vorteile.
Der Methode der Grundmatrizen könnte der Nachteil angelastet werden, daß
sie die Speicherung der vier Matrizen erfordert, was bei höhergradigen
Ansätzen einen großen Speicherbedarf beansprucht. Es darf aber nicht
übersehen werden, daß diese Grundmatrizen ganzzahlig mit relativ kleinen
Werten mit Hilfe von kurzen Computerwörtern speicherbar sind, so daß der
Speicherbedarf doch nicht allzu groß ist. Die Methode der Formfunktionen
erfordert anderseits Rechenprogramme, welche die Funktionen definieren, so
daß der so benötigte Speicherbedarf mit demjenigen der Grundmatrizen
vergleichbar wird.

2.3.4 Direkte Bestimmung von Formfunktionen

Die natürlichen Dreieckskoordinaten eignen sich zur Konstruktion von


Formfunktionen vorzüglich, indem sich die erforderlichen Interpolations-
eigenschaften durch entsprechende Überlegungen leicht realisieren lassen.
Dazu muß man sich nur vergegenwärtigen, daß ja (i = 0 ist auf der dem
Punkt Pi gegenüberliegenden Dreiecksseite, und daß (i = const ist auf einer
zu dieser Seite parallelen Geraden (vgl. Fig.2.26). Falls eine Formfunktion
beispielsw~ise auf einer Dreiecksseite verschwinden muß, so enthält die
Darstellung der Funktion notwendigerweise die betreffende natürliche Ko-
ordinate als Faktor.
110 2 Elemente und Elementmatrizen

Fig.2.26
Netz der natürlichen Koordinaten

Sollen etwa die Formfunktionen für den quadratischen Ansatz gefunden


werden, so betrachten wir zunächst die Funktion NI. Sie soll in PI gleich
Eins sein und in allen andern Punkten verschwinden. Insbesondere muß
sie auf P2P3 gleich Null sein, was den Faktor (1 ergibt. Da sie ferner in den
Punkten P4 und Ps den Wert 0 annehmen muß, die auf der Koordinatenlinie
(1 = ~ liegen, wird dies mit einem Faktor ((1 - ~) erreicht. Das Produkt

(1 ((1 - ~) verschwindet in den Knotenpunkten P 2 bis P 6, nimmt in PI mit

(1 = 1 aber den Wert J..2 an. Die richtige Formfunktion lautet also
NI = (1(2(1 - 1).

Die Funktionen N2 und N 3 müssen sich aus Symmetriegründen durch


zyklische Vertauschung der Indizes ergeben. Die Formfunktion N 4 muß auf
den Seiten P 2P 3 und P 1P 3 verschwinden, sich also bis auf einen konstanten
Faktor als (1(2 darstellen lassen. Der Faktor ist 4 und deshalb

Die intuitive Herleitung von Formfunktionen erweist sich in manchen Fällen


als äußerst nützlich und ist oft dem Vorgehen von Abschn. 2.2 sogar
überlegen. Dies soll im folgenden an einem Beispiel dargelegt werden.
Im Abschn. 2.2.8 wurde für ein Dreieckelement der kubische Ansatz mit einem
vollständigen Polynom dritten Grades behandelt. Die zehn Parameter erfor-
dern zur eindeutigen Festlegung zehn Knotenvariable. Neben den je drei
Knotenvariablen in den Eckpunkten mußte der Wert der Funktion im
Schwerpunkt des Dreiecks als zehnte Knotenvariable hinzugenommen wer-
den. Das resultierende Element besitzt für die Rechenpraxis den möglichen
Nachteil, in den vier Knotenpunkten eine unterschiedliche Anzahl von
Knotenvariablen aufzuweisen, was in einem Computerprogramm eventuell
eine Sonderbehandlung erfordert. Aus diesem Grund ist ein Dreieckelement
2.3 Formfunktionen für zweidimensionale Elemente 111

mit einem um einen Freiheitsgrad reduzierten Ansatz erwünscht, bei dem der
Schwerpunkt als Knoten entfallt.
In [Adi61] wurde vorgeschlagen, zur Verminderung der Parameter den Term
~IJ wegzulassen. Dieser reduzierte Ansatz führt zu Formfunktionen und
Elementmatrizen, welche als Folge des fehlenden Terms ~IJ nicht drehinva-
riant sind. Das will heißen, daß beispielsweise die Steifigkeitselementmatrix
wesentlich davon abhängt, bei welchem Eckpunkt die Numerierung begonnen
wird. Aus diesem mathematischen Grund ist der Ansatz unbrauchbar.
Um die Symmetriebedingung im Ansatz zu erfüllen, wurde in [Toc62] die
Funktion

U(~, IJ) = a1 + a2~ + a3IJ + a4e + a5~IJ + a6IJ 2 + a7e


+ a8(~21J + ~1J2) + a91J 3 (2.109)

vorgeschlagen, wo die beiden Terme ~21J und ~1J2 mit dem gleichen Gewicht
kombiniert werden. Formuliert man wie üblich im Einheitsdreieck die
Interpolationsbedingungen für die drei Eckpunkte, ist die Koeffizientenmatrix
singulär, was die Bestimmung der zugehörigen Formfunktionen verunmög-
licht. Die Singularität der Matrix ist aber nur durch· die spezielle Lage und
Form des Dreiecks bedingt.
Im folgenden werden in jeder Hinsicht brauchbare Formfunktionen für das
Dreieck hergeleitet. Ausgehend von den Formfunktionen (2.103) für den
vollständigen kubischen Ansatz stellt man fest, daß die dort auftretenden
Produkte (1(2(3 den Zweck erfüllen, im Schwerpunkt den Wert Null zu
erzielen, während dieser Beitrag auf allen Randkanten identisch verschwindet.
Werden diese Anteile in den Formfunktionen N 1 bis N 9 von (2.103) weggelas-
sen, sind die Interpolationseigenschaften in den Eckpunkten nach wie vor
erfüllt. Auf diese Weise resultieren die Formfunktionen für das Einheitsdrei-
eck

Nt(~, IJ) = (T(3 - 2(1), Nt(~, IJ) = (T(2, Nr(~, IJ) = (T(3
Nt(~, IJ) = d(3 - 2(2), N5(~, IJ) = (~«(2 - 1), Nt(~, IJ) = (~(3
Nt(~, IJ) = (5(3 - 2(3), Nt(~, IJ) = (2(5, N~(~, IJ) = (5«(3 - 1)

Die so konstruierten Formfunktionen NtU:',IJ) sind aber noch nicht brauch-


bar, obwohl sie die Interpolationseigenschaften erfüllen. Schreibt man an den
drei Eckpunkten die Werte Ui = 1 und verschwindende partielle Ableitungen
vor, entsteht im Einheitsdreieck die Funktion

U(~, IJ) = Nt + Nt + Nt = 3«(T + (~ + (}) - 2«(I + (~ + (j)


= 1 - 6(1(2(3 = 1 - 6~IJ + 6~21J + 6~1J2.
112 2 Elemente und Elementmatrizen

Die Linearkombination liefert nicht die konstante Funktion u(<;, ,,) = 1,


sondern eine um -6(1(2<;3 davon abweichende Funktion. Eine naheliegende
Kompensation besteht darin, zu Nt, N! und Nt gleichmäßig 2(1(2(3 zu
addieren.
Aber auch zu den übrigen Formfunktionen können Vielfache von (1 (2(3
hinzuaddiert werden. Wird zu Nt(<;, ,,) der Anteil ak(1 (2(3 hinzugefügt, so
muß einmal verlangt werden, daß sich eine allgemeine lineare Funktion
u(<;, ,,) = a(1 + b(2 + C(3 bei entsprechender Vorgabe der Knotenvariablen
darstellen lassen muß. Die Werte a, bund c stellen dabei die Werte der
Funktion in den drei Eckpunkten dar. Für die partiellen Ableitungen ergeben
sich die vom Eckpunkt unabhängigen Werte u~ = b - a und u~ = c - a. Aus der
Forderung, daß
a[Nt + 2(1(2(3] + beN! + 2(1(2(3] + c[Nt + 2(1(2(3]
+ (b - a)[Nf + Nt + Nt + (a2 + a5 + aS)(I(2(3]
+ (c - a)[Nf + Nt + Nt + (a3 + a6 + a9)(1(2(3] = a(1 + b(2 + C(3
ist, folgen nach elementarer Rechnung die Bedingungen
a2 + a5 + as = 0, a3 + a6 + a9 = o.
Damit im speziellen der Integralbeitrag JJ u(x, y) dx dy für ein allgemeines
Ti
Dreieckelement Ti die erwähnte Drehinvarianz aufweist, müssen unter
Berücksichtigung der Symmetrie im Vektor SI, definiert für das Einheitsdrei-
eck To

stue = JI u(<;, '1) d<; d" = JI NT (e" '1) d<; d" . Ue


To

die 2., 3., 6. und 8. Komponente gleich sein, die 5. und 9. Komponente
übereinstimmen und gleich dem (- 2)-fachen der 2. Komponente sein. Dies
ergibt sich aus (2.81). Aus dieser Forderung folgen die weiteren Bedingungen

so daß sich die Bedingungen im ganzen reduzieren auf


a5 = - 2a2.
Daraus ist ersichtlich, daß eine einparametrige Schar von Formfunktionen
existiert, welche die bisher betrachteten Forderungen erfüllt. Der Scharpara-
meter az wird eindeutig festgelegt, falls im Zusammenhang mit Plattenproble-
men gefordert wird, daß auch ein konstanter Krümmungszustand möglich
sein soll. Zienkiewicz et al. [BCI65] haben gezeigt, daß a2 =0.5 sein muß.
Somit lauten die nach ihm benannten Formfunktionen
2.4 Krummlinige Elemente 113

NI (~,11)= 1- 3~2_4~11- 3112+2~3+4el1+4~112+2113=(T(3-2(1)+2(1 (2(3


2 I
N2(~,I1)=~ - 2~2- ~~11 +~3+~el1+2.~112 =(1(2+-(1(2(3
2 2 2 2
3 2 1 2 3 232 1
N3(~,I1)=11 --~11-211 +-~ 11+-~11 +11 =(1(3+-(1(2(3
2 2 2 2

N4(~,I1)= 3e+2~11 -2e-2el1-2~I1Z =(~(3 -2(z)+2(1 (2(3


N5(~,I1)= - ~Z_ ~11 + e+ el1+ ~112 =(~«(2-1)-(I(Z(3
1 + -1 ~2 11-11
_ 1~ Z 2 1
N6(~,I1)= -~11 =(2(3+-(I(Z(3
2 2 2 2

N7(~,I1)= 2~11+ 311 2 -2el1-2~112- 211 3=(j(3 -2(3)+2( 1(2(3


1 _ -1 ~2 11 + -1 ~ 11 Z 2 1
N8(~,I1)= -~11 =(Z(3+-(1(2(3
2 2 2 2
N9(~,I1)= -~11-112 + ~211+ ~112+113 =(5«(3- 1)-(I(Z(3

(2.110)
In den Formfunktionen (2.110) treten alle Potenzen des vollständigen
kubischen Ansatzes auf. Da zudem die Potenzen ~211 und ~112 mit unterschied-
lichen Koeffizienten auftreten, entsprechen die Formfunktionen von Zienkie-
wicz nicht dem Ansatz (2.109). In Fig. 2.27 sind zur Illustration die
Funktionen NI (~, 17) und N2(~, 11) als typische Repräsentanten dargestellt.

Fig.2.27 Formfunktionen NI(~,") und N2(~,") nach Zienkiewicz

2.4 Krummlinige Elemente

Obwohl die recht flexible Einteilung eines gegebenen zweidimensionalen


Gebietes G in geradlinige Dreiecke und Parallelogramme bereits eine recht
gute Approximation erlaubt, kann es in manchen Anwendungen doch
wünschbar sein, den Rand mit Hilfe von krummlinigen Elementen besser
anzunähern. Dieser Wunsch ist insbesondere berechtigt im Fall von höhergra-
114 2 Elemente und Elementmatrizen

digen Ansatzfunktionen, welche zur Erzielung derselben Genauigkeit eine


Einteilung in größere Elemente zulassen, so daß dann zur hinreichend guten
und annehmbaren Approximation eines krummlinig berandeten Gebietes eine
zumindest lokal unnötig feine Einteilung erforderlich wäre.
Im folgenden werden die grundlegende Idee und das zweckmäßige Vorgehen
im Fall von krummlinigen Dreiecken und Vierecken ausführlich behandelt.
Dabei beschränken wir uns auf den für die Rechenpraxis wichtigsten Fall von
sogenannten isoparametrischen Elementen, bei denen die Abbildung des
krummlinigen Dreiecks Ti, bzw. des krummlinigen Vierecks Qi auf das
Einheitsdreieck T o, bzw. Einheitsquadrat Qo vermittels einer gleichgearteten
Transformation erfolgt, die dem Ansatz für die gesuchte Funktion entspricht.
Daraus ergeben sich einige rechentechnische Vereinfachungen.

Fig.2.28
x Krummliniges Dreieck Ti

2.4.1 Krummlinige Dreieckelemente

Wir betrachten zu Beginn das krummlinige Dreieck Ti der Fig. 2.28 mit den
drei Eckpunkten PI, P 2 , P 3 und den auf den Seiten angeordneten Punkten P 4 ,
P 5, P6, numeriert entsprechend den geradlinigen Dreiecken. Die Koordinaten
der sechs Punkte Pi (Xi, y;) seien gegeben. Ein solches allgemeines krummliniges
Dreieck läßt sich vermöge einer sowohl für x als auch für y quadratischen
Transformation auf das Einheitsdreieck abbilden. Die Koeffizienten des
Ansatzes

x = YI + Y2~ + 1'/31'/ + Y4~2 + Y5~1'/ + Y61'/2


e
Y = J I + J2~ + J 31'/ + J 4 + r55~1'/ + J 61'/2
(2.111 )

bestimmen sich aus der Forderung, daß die sechs Knotenpunkte in die
entsprechenden Punkte des Einheitsdreiecks abgebildet werden. Für die x-
2.4 Krummlinige Elemente 115

Koordinaten ergeben sich daraus die Bedingungsgleichungen


XI =YI

X2 = YI + Y2 +
X3 = YI + Y3 + Y6
(2.112)
X4 = YI + 0.5Y2 + 0.25Y4
Xs = YI + 0.5Y2 + 0.5Y3 + 0.25Y4 + 0.25ys + 0.25Y6
X6 = YI + 0.5Y3 + 0.25Y6
Für die y-Koordinaten erhält man ein vollkommen analoges System. Das
Gleichungssystem (2.112) besitzt die gleiche Koeffizientenmatrix wie (2.64).
Die Koeffizienten Yi und !5i von (2.111) lassen sich folglich aus den x- und y-
Koordinaten der sechs Knotenpunkte vermittels derselben Matrix A (2.65)
berechnen. Mit den Koordinatenvektoren
x = (XI, X2, X3, X4, XS, X6)T und Y = (YI, Y2, Y3, Y4, Ys, Y6)T
sowie den Koeffizientenvektoren
Y= (YI, Y2, Y3, Y4, Ys, Y6)T und 8 = (15 1, 152, 15 3,154, !5s, !56)T
gelten somit
y=Ax und 8=Ay. (2.113)
Die Abbildung eines krummlinig berandeten Dreiecks Ti auf das Einheitsdrei-
eck ist durch die Lage der sechs Punkte festgelegt. Die auf den Seiten gelegenen
Punkte P4, Ps und P6 sind weitgehend beliebig. Sie beeinflussen selbstverständ-
lich die Abbildung in dem Sinn, daß sie insbesondere den Verlauf der
krummen Randstücke entscheidend mitbestimmen. Zur Veranschaulichung
dieses Sachverhaltes ist in Fig. 2.29 die Approximation einer Viertelellipse mit
den Halbachsen 2 und 1 für variablen Punkt Ps auf dem Ellipsenbogen
dargestellt. Durch eine geschickte Wahl dieses Punktes mit Xs = 1. 732,
Ys = 0.500 kann eine erstaunlich gute Approximation erzielt werden. Die
ausgezogen eingezeichneten Kurven entsprechen den krummen Rändern für
den gestrichelten Ellipsenbogen.

Fig.2.29
Approximation einer Viertelellipse
durch krummliniges Dreieck, Variation
des Punktes Ps
116 2 Elemente und Elementmatrizen

Eine zentrale Frage bei jeder Transformation eines Gebietsintegrals vermittels


einer Variablensubstitution betrifft die Regularität oder Bijektivität der
Abbildung. Notwendig und hinreichend dafür ist das Nichtverschwinden der
lacobi-Determinante der Transformation für alle Punkte des Integrationsbe-
reiches. Da zudem die Orientierung bewahrt werden soll, muß einschränkend
die lacobi-Determinante im ganzen Bereich strikt positiv sein. Die lacobi-

I-I I-I
Determinante für die quadratische Transformation (2.111) ist

_I o(x, y) x~ y.; Y2 + 2Y4~ + Y5'1 152 + 2J4~ + 155'11 (2.114)


J- o(~, '1) - x" Y" - Y3 + Y5~ + 2Y6'1 153 + J5~ + 2156 '1
eine quadratische Funktion in ~ und '1, die für alle Punkte des Einheitsdreiecks
einen positiven Wert besitzen soll. Diese Bedingung läßt sich rein geometrisch
durch Aussagen über die gegenseitige Lage der Punkte ersetzen, die jedoch
nicht allzu viel besagen. In der Praxis überzeugt man sich von der Bijektivität
dadurch, daß man zu gegebenen Punkten eines krummlinigen Elementes den
Computer die Transformation rechnen und das Bild eines Netzes der (~, '1)-
Ebene auf einem Plotter oder Bildschirm darstellen läßt, wie dies in Fig. 2.30
für einige Beispiele illustriert ist. Die geforderte Bijektivität ist in der Regel
erfüllt, falls die krummlinigen Elemente mit einigem gesunden Menschenver-
stand festgelegt werden.

y y

Pz Pz

x
Fig.2.30 Quadratische isoparametrische Dreieckelemente mit Bildnetzen

Das beschriebene Vorgehen zur Abbildung eines krummlinigen Dreiecks auf


das Einheitsdreieck läßt sich sinngemäß übertragen auf Dreieckelemente mit
kubischem Ansatz. Falls hierbei das kubische Dreieckelement mit partiellen
Ableitungen als Knotenvariablen zur Anwendung gelangen soll, bietet die
problemgerechte Vorgabe der partiellen Ableitungen in den Knotenpunkten
2.4 Krummlinige Elemente 117

zur Erzielung der gewünschten Form des krumm1inigen Dreiecks eventuell


einige Schwierigkeiten. Hier kann der Computer im oben beschriebenen Sinn
helfen.

2.4.2 Krummlinige Viereckelemente


Neben krumm1inigen Dreiecken können krummlinig berandete Vierecke auch
zweckmäßig und problemgerecht sein. Dabei sollen nur krummlinige Vierecke
betrachtet werden, welche dem quadratischen Ansatz der Serendipity-Klasse
entsprechen. Die Transformation des Einheitsquadrates auf das krummlinige
Viereck (Fig. 2.31) wird beschrieben durch die Variablensubstitutionen
x = Yl + Y2'; + Y317 + Y4e + Ys';17 + Y617 2 + Y7e17 + Y8';17 2,
Y = J l + J 2 ,; + J 3 17 + J 4 ,;2 + J s ';17 + J 6 17 2 + J 7 ,;2 17 + J 8 ';17 2 ,
welche dem Ansatz (2.70) entsprechen. Aus der Forderung, daß die acht
Knotenpunkte PI bis P8 die entsprechenden Bildpunkte von PI bis P8 der Fig.
2.12 sind, ergeben sich die Koeffizientenvektoren rund /j aus den Koordina-
tenvektoren x und y nach den Relationen (2.113), aber mit der Matrix A (2.71).
Durch Vorgabe der acht Knotenpunkte ist die Abbildung und damit
insbesondere die Form des Randes eindeutig definiert. Selbstverständlich hat
die Lage der Punkte Ps bis P8 auf dem vorgegebenen Rand einen Einfluß auf
die resultierende Form des Vierecks. Als Beispiel ist in Fig. 2.32 die
Approximation eines Viertelskreisrings mit den Radien 2 und 3 durch ein
krummliniges Viereck wiedergegeben. Die Knotenpunkte Ps bis P8 sind je in
den Mitten der betreffenden Seiten gewählt. Die Approximation ist sehr gut
mit einer maximalen relativen Abweichung in radialer Richtung von ca. 1%.

y y

x
Fig.2.31 Krummliniges Viereck der Fig.2.32 Approximation eines
Serendipity-Klasse VierteJkreisringes durch
krummliniges Viereck
118 2 Elemente und Elementmatrizen

y y

P2

x x
Fig.2.33 Quadratische isoparametrische Viereckdemente der Serendipity-Klasse mit
Bildnetzen

Die lacobi-Determinante J der Transformation wird in diesem Fall ein


unvollständiges Polynom vierten Grades in c; und 11. Sie muß im ganzen
Einheitsquadrat positiv sein, damit die Bijektivität der Abbildung und die
Erhaltung der Orientierung garantiert sind. Im Zweifelsfall überzeugt man
sich davon durch Erstellen des Bildes eines quadratischen Netzes, wie dies zur
Illustration von weiteren krummlinigen Vierecken in der Fig. 2.33 geschehen
ist.

2.4.3 Berechnung der Elementmatrizen

Grundsätzlich könnte die Berechnung der Elementmatrizen mit Hilfe der


Polynomansätze für die Transformation wie für die Ansatzfunktion erfolgen.
Bei diesem Vorgehen resultiert ein zwar gangbarer aber wenig systematischer
Algorithmus. Es ist jetzt bedeutend zweckmäßiger, die Formfunktionen zu
verwenden, weil so für krummlinige isoparametrische Dreiecke und Vierecke
ein allgemein gültiger, einheitlich darstellbarer und durchführbarer Rechen-
prozeß entsteht. Erst die erforderliche numerische Integration ist vorn
Grundgebiet wieder abhängig.
Nach (2.90) gilt für die Funktion u(C;, 11) die Darstellung
u(c;, 11) = uJN(C;, 11)
mit dem Vektor N(C;,,,) der Formfunktionen, entsprechend des gewählten
Ansatzes. Im Fall von isoparametrischen krummlinigen Elementen ist die
Variablensubstitution (z. B. (2.111» mit denselben Formfunktionen darstell-
bar als
x=xTN(C;, ,,), y = yTN(C;, ,,), (2.116)
2.4 Krummlinige Elemente 119

worin x und y die Koordinatenvektoren der Knotenpunkte sind. Die Jacobi-


Determinante erhält damit die allgemeine Darstellung

(2.117)

Ihre Elemente sind jetzt vom Ort abhängige Größen, welche vermittels der
partiellen Ableitungen der Formfunktionsvektoren berechenbar sind.
Zur Berechnung der Steifigkeitselementmatrix Se für ein krummliniges
Element Gi (Ti oder Qi) wird das Integral vermöge der Substitution (2.116) auf
das Einheitsgebiet Go (To oder Qo) transformiert.

ff (u; + u;) dx dy = ff [(u~~x + u~l7xi + (u~~y + U~l7y)2]J d~ dl7


Gi Go

= ff [(uI N~~x + uI N~l7x)2 + (uI N,;~y + uI N~l7y)2]J d~ dl7


Go (2.118)
Der Integrand von (2.118) ist die Summe zweier Quadrate von skalaren
Größen, die ihrerseits das skalare Produkt zweier Vektoren sind. Um darin
den Vektor der Knotenvariablen als von ~ und 17 unabhängige Größe aus dem
Integral herauszuziehen, schreibt man das Quadrat des Skalarproduktes als

(2.119)

In (2.119) wurde von der Assoziativität des Matrizenproduktes Gebrauch


gemacht, es steht h abkürzend für N~~x + N~l7x, bzw. für N~~y + N~l7y, und hh T
stellt als (Matrizen-)Produkt eines Kolonnenvektors mit einem Zeilenvektor
eine quadratische, symmetrische Matrix dar, das gelegentlich als dyadisches
Produkt bezeichnet wird. Mit (2.119) erhält (2.118) die Darstellung

uI { b{ [(N,;~x+ N~l7x)(N~~x+ N~l7x)T + (N~~y+ N~l7y)(N;;~y+ N~l7y)T]J d~ d17 } ue·


(2.120)
Die geschweifte Klammer stellt direkt die Steifigkeitselementmatrix Se dar.
In der Integraldarstellung (2.120) treten die partiellen Ableitungen ~x, ~y, I7x, l7y
auf, die jetzt im Gegensatz zum Abschn. 2.1.1 vom Ort abhängen. Diese Werte
sind die Elemente der Jacobi-Matrix

3(~, 17) = [.;x '1x J, (2.121)


3(x, y) ';y '1y
120 2 Elemente und Elementmatrizen

welche bekanntlich gleich der Inversen der Jacobi-Matrix

3(x, y) =
[ x~ y~ J (2.122)
3(~, ,,) x~ y~

ist. Damit gilt


x-
"Y =-'
J. (2.123)

Aus (2.123) erkennt man die Tatsache, daß diese Ableitungen gebrochen
rationale Funktionen in ~ und" sind. Obwohl im Integranden ein Faktor J
auftritt, bleibt der Integrand im Schlußeffekt eine gebrochen rationale
Funktion. Eine geschlossene analytische Integration ist unmöglich. Die
Berechnung muß näherungsweise mit Hilfe einer numerischen Integrations-
formel erfolgen.
Für die Massenelementmatrix Me und für das in u lineare Integral erhält man
analog

JJ u 2 dx dy JJ u2(~, ,,)1 d~ d" JJ Cu: N(~, ,,)f J d~ d"


= =
Gi Go Go
(2.124)

.JJ u dx dy = JJ u(~, ,,)J d~ d" = u: JJ N(~, ,,)J d~ d" = u: be• (2.125)


Gi Go Go
Auch diese Integrale werden mit Hilfe einer zweidimensionalen Integrations-
formel der allgemeinen Form
m

JJ If/(~,,,) d~ d" = I If/(~i, "i)Wi (2.126)


Go i~l

berechnet, wobei die ~i und"i die Integrationsstützpunkte und die Wi die


zugehörigen Integrationsgewichte darstellen. In [AbS70, ArM86, HaS58,
Str71] sind solche Formeln zu finden. In Tab. 2.2 sind die StützsteIlen und
Integrationsgewichte für eine häufig benützte Formel für das Einheitsdreieck
To zusammengestellt, welche die exakten Integralwerte für Polynome bis zum
Grad fünf liefert. Die Integrationsstützpunkte R i liegen auf den drei Mittel-
linien, der erste im Schwerpunkt des Dreiecks T o (vgl. Fig. 2.34).
Für das Einheitsquadrat wird die numerische Integration in gewissem Sinn
einfacher, da eine zweifache Gaußsche Integrationsformelje der Ordnung
m herangezogen werden kann von folgender Form [ScS76, Scw88, StS66]
2.4 Krummlinige Elemente 121

Tab.2.2 IntegrationsstützsteIlen und Gewichte für Einheitsdreieck


i ~i 7Ji Wi

I 1/3 = 0.333333333 0.333333333 0.1125


2 (6 + v15)/21 = 0.470 142064 0.470142064
(155 + v15)/2400
3
4
(9 - 2 v15)/21
(6 + v15)/21
=
=
0.059715872
0.470 142064
0.470142064
0.059715872
} = 0.0661970764
5 (6 - v15)/21 = 0.101286507 0.10 I 286507
(155 - v15)/2400
(9 + 2 v15)/21
6
7 (6 - v15)/21
=
=
0.797426985
0.101 286507
0.10 1286507
0.797426985
} = 0.0629695903

Fig.2.34
Integrationsstützpunkte im Einheitsdreieck Ta

11m m
JJ I/f(~, r,) d~ dr, = JJI/f(~, r,) d~ dr, = I I WiWjl/f(<Ji, <J;). (2.127)
Qo 00 i=lj=l

In (2.127) bedeuten die (Ji die IntegrationsstützsteIlen und die Wi die zugehöri-
gen Integrationsgewichte der eindimensionalen Gaußschen Integrationsfor-
meIn. Eine Gaußsche Integrationsformel der Ordnung m liefert die exakten
Integralwerte für Polynome bis zum Grad (2m -1). In den Tab. 2.3 und 2.4
sind die IntegrationsstützsteIlen und die zugehörigen Gewichte für die
Integrationsformeln der Ordnung 3 und 4 zusammengestellt.
Die symmetrische Verteilung;;ier Integrationsstützpunkte im Einheitsquadrat
Qo ist im Fall der Gaußschen IntegrationsformeI der Ordnung m = 4 in Fig.
2.35 dargestellt.
StützsteIlen und Gewichte für Formeln höherer Ordnung sind in [AbS70,
DaR67, StS66] zu finden. Die Stützstellen und Gewichte sind dort üblicher-
weise für das Intervall [-1,1] tabelliert, da die StützsteIlen die Nullstellen von
Legendre-Polynomen sind. Bei Umrechnung auf das Intervall [0, 1] sind die
Gewichte zu halbieren.
Zusammenfassend erfolgt die gleichzeitige Berechnung der Steifigkeitsele-
mentmatrix Se, der MasseneIementmatrix Me und des Vektors be für ein
krummliniges isoparametrisches Element in folgenden Schritten. Für die
122 2 Elemente und Elementmatrizen

Tab.2.3 StützsteIlen und Gewichte der Gaußschen Integrations-


formel der Ordnung 3

i (Ji Wi

1 0.1127016654 5/18 = 0.2777777778


2 0.5 8/18 = 0.4444444444
3 0.8872983346 5/18 = 0.2777777778

Tab. 2.4 Stützstellen und Gewichte der Gaußschen Integrations-


formel der Ordnung 4

i (Ji Wi

1 0.0694318442 0.1739274226
2 0.3300094782 0.326072 5774
3 0.6699905218 0.326072 5774
4 0.9305681558 0.1739274226

Fig.2.35
Integrationsstützpunkte im Einheitsquadrat Qo,
~ Gaußsche Formel, vier Stützpunkte

Integrationsstützpunkte ~" 'I, der Integrationsforme1 führe man sukzessive


aus:
1. Man berechne die Vektoren N(~" 'I,), N~(~" 'I;), N~(~" 'I')'
2. Mit den Koordinatenvektoren x und y des Elementes berechne man die vier
Elemente x~, x~, y.;, y~ als Skalarprodukte gemäß (2.117) und die Jacobi-
Determinante J(~" 'I,).
3. Zur Rationalisierung der Berechnung der Steifigkeitse1ementmatrix Se
berechne man unter Substitution von (2.123) in (2.120) die beiden Hilfsvekto-
ren
(2.128)
4. Die numerische Integration erfolgt jetzt durch Akkumulation der Beiträge
w,(h,h! + h2 hJ.) zu Se, w,JNNT zu Me und w,JN zu h e. Aus Symmetriegründen
sind in Se und Me nur die Elemente in und unterhalb der Diagonale wirklich zu
berechnen.
2.4 Krummlinige Elemente 123

Der verblüffend einfache Algorithmus zur Berechnung der Elementmatrizen


für ein krummliniges Element erklärt die Beliebtheit und die Verbreitung
dieser Berechnungsart auch für geradlinige Elemente. Die Vorgehensweise
kann sehr flexibel gehandhabt werden, indem es im wesentlichen genügt, in
einem Rechenprogramm das Unterprogramm auszutauschen, welches die
Formfunktionen mit ihren partiellen Ableitungen liefert.
Falls übrigens partielle Ableitungen als Knotenvariable auftreten, sind zu
(2.108) analoge Modifikationen erforderlich.

2.4.4 Randintegrale für krumme Randstücke

Die beiden Randintegrale für ein krummliniges Randstück Cj als Berandung


eines krummlinigen Elementes lassen sich weitgehend analog behandeln.
Dazu sind noch einige vorbereitende Überlegungen erforderlich, welche den
Funktionsverlauf auf der krummen Berandung eines Elementes betreffen. Im
Einheitsdreieck oder Einheitsquadrat gilt für die Funktion u(c;, '7) ein solcher
Ansatz, der sich auf dem Rand auf eine quadratische oder kubische Funktion
der Bogenlänge reduziert. Der Funktionsverlaufwird durch eine entsprechen-
de Anzahl von Knotenvariablen auf der betreffenden Seite eindeutig festge-
legt. Im Fall von isoparametrischen Elementen wird eine Seite des Einheitsge-
bietes so auf die krummlinige Seite des Elementes abgebildet, daß die x- und
die y-Koordinaten je durch eine Polynomfunktion desselben Grades in Ab-
hängigkeit des Parameters gegeben sind. Gleichzeitig werden die Funktions-
werte in den zugehörigen Bildpunkt übertragen oder verpflanzt. Daraus folgt,
daß die Funktion auch auf dem krummen Rand die Stetigkeitseigenschaften
beim Übergang ins Nachbarelement beibehält, die krummlinigen Elemente
konform sind. Weiter wird auch klar, daß sich die Abbildung der Randseite
auf das Einheitsintervall durch je eine quadratische (oder kubische) Transfor-
mation der Koordinaten darstellen läßt. Die Behandlung der Randintegrale
fällt somit in den Rahmen von eindimensionalen isoparametrischen
Elementen. Die Beiträge der beiden Randintegrale lassen sich am bequem-
sten mit eindimensionalen Formfunktionen berechnen.
Es seien UR der Vektor der Knotenvariablen auf dem Randstück, welche den
Verlauf der Funktion auf dem Rand eindeutig festlegen, weiter x und y die
Koordinatenvektoren der Knotenpunkte auf dem krummlinigen Randstück
und N(a) der Vektor der einschlägigen eindimensionalen Formfunktionen für
die Einheitsstrecke. Im konkreten Fall eines isoparametrischen quadratischen
Elementes wird das Kurvenstück Cj durch die drei Punkte PA, PM, PB (Fig.
2.36) festgelegt, so daß UR =(UA, UM, UB)T, X = (XA,XM,XB)T, Y=(YA,YM,YB)T
sind, und die Formfunktionen durch (2.17) gegeben sind.
Damit stellt sich der Ansatz für u(a) auf der Einheitstrecke allgemein dar als
u(a) = ukN(a), (2.129)
124 2 Elemente und Elementmatrizen

Fig.2.36
x Krummliniges Randstück Cj

und die Koordinatentransformationen lauten


x = xkN(a), Y = ykN(a). (2.130)
Für die beiden Randintegrale erhält man damit
I
J u 2 ds = J u 2(a)
cj 0
I
= J [ukN(a)f V(xk N '(a))2 + (YkN'(a))2 da (2.131)
o

= uk { l N(a)NT (a) V(xkN'(a))2 + (YkN'(a))2 da} UR = ukMRUR,

f
J uds = ul { N(a) V(xIN'(a))2 + (YkN'(a))z da} = ukbR. (2.132)
cj 0
Die zahlenmäßige Berechnung von M R und bR erfolgt vermitte1s einer
Gaußschen Integrationsformel nach dem in Abschn. 2.4.3 beschriebenen
Vorgehen. Benötigt werden dazu die Formfunktionen und ihre Ableitungen
an den IntegrationsstützsteIlen ai nach Tab. 2.3 oder 2.4.
Werden kubische Ansätze mit partiellen Ableitungen als Knotenvariable
verwendet, sind analoge Maßnahmen zu ergreifen, wie sie im Abschn. 2.2.8
beschrieben worden sind.

2.4.5 Einige spezielle Elemente

Die Diskretisierung eines gegebenen Grundgebietes G in geradlinige Dreiecke


und Parallelogramme mag häufig einschränkend sein, und es sind allgemeine-
re geradlinige Viereckelemente wünschbar. Ein geradliniges Viereck mit den
vier Eckpunkten Pi(Xi,Yi) (vgl. Fig. 2.37) läßt sich vermittels einer für x und Y
bilinearen Transformation auf das Einheitsquadrat abbilden. Diese Varia-
blensubstitution formuliert sich mit den Formfunktionen (2.104) und den
Koordinatenvektoren x = (XI,XZ,X3, X4), Y = (YI,YZ,Y3,Y4) als
x = XT N(!;, 1]), Y = Y T N(!;, 1]). (2.133)
2.4 Krummlinige Elemente 125

x
Fig.2.37 Allgem<.:in<.:s Vicr<.:ck Fig. 2.38 Elemente im Fall
von Polarkoordinaten

Die zugehörige Jacobi-Determinante] ist selbst eine bilineare Funktion in ~


und 1], und die weiter benötigten Werte der partiellen Ableitungen ~x, ~Y' I]x,
I]y sind gebrochen rationale Funktionen in ~ und 1]. Diese Tatsache erfordert
die Berechnung der Elementmatrizen nach einer numerischen Integrations-
formel, ganz unabhängig davon, was für ein Ansatz für die Funktion u
gewählt wird.
Mit einem bi linearen Ansatz im Einheitsquadrat resultiert damit ein isopara-
metrisches Element, das zur Klasse der krummlinigen Elemente zu zählen ist,
obwohl die Ränder des Elementes geradlinig sind.
Für einen quadratischen Ansatz, etwa der Serendipity-Klasse, entsteht ein
subparametrisches Element, indem die Geometrie durch eine Polynom-
abbildung kleineren Grades beschrieben wird im Vergleich zum Grad des
Polynoms für die gesuchte Funktion. Dieses subparametrische Element ist
natürlich ein Spezialfall des isoparametrischen Elements aus Abschn. 2.4.2,
falls dort die Knotenpunkte Ps bis Pg als jeweilige Mittelpunkte der Seiten
festgelegt werden. Die allgemeine Transformation (2.115) reduziert sich auf
die bilineare Transformation (2.133). Die Behandlung als isoparametrisches
Element würde ein ineffizientes Vorgehen darstellen.
In gewissen Problemen kann es zweckmäßig sein, anstelle von kartesischen
Koordinaten ein krummliniges Koordinatensystem zu verwenden. Im Spezial-
fall der Polarkoordinaten in der Ebene sind die einfachsten durch Koordina-
tenlinien begrenzten Elemente die Kreisringsegmente und Kreissektoren (Fig.
2.38).
Die Grundgleichungen der Aufgabe sind in Polar koordinaten zu formulieren.
Mit x = r cos qJ, Y = r sin qJ, der zugehörigen Jacobi-Determinante

o(x, y) I I cos I
]= IoCr, qJ) -r sin
=
qJ
qJ
sin qJ
r cos qJ = r,
126 2 Elemente und Elementmatrizen

mit den Werten


1 . . 1
r x = cos ({J, ({Jx = - - sm ({J, ry = Sin ({J, ({Jy = --; cos ({J
r
ergibt sich für die Integrale

Jf (u;+u;)dxdy= JJ [u;+~u~lrdrd({J, (2.134)


G G r

Jf u2 dx dy = Jf uZr dr d({J, Jf u dx dy = JJ ur dr d({J. (2.135)


G G G G

Für ein viereckiges Element, welches durch die Radien rl < rz und die
Polarwinkel ({JI < ({J2 begrenzt wird, führen die Variablensubstitutionen

(2.136)

die Integration über das Gebiet Qi zurück auf diejenige über das Einheitsqua-
drat. Für (2.134) erhält man

U[u; + rl2 u~ 1rdr d({J '(2.137)


I I I I
= ({J2-({JI II[rl+(rz-rIKluld~dl1+ r2- r l II 1 u;d~dl1.
r2- r l 00 ({JZ-({JI 00 rl +('2-'I)~
Das erste Integral könnte nach der Methode der Grundmatrizen behandelt
werden, doch enthält das zweite Integral einen gebrochen rationalen Integran-
den, so daß seine Berechnung numerische Integration erfordert. Konsequen-
terweise werden alle Integrale (2.134), (2.135) gleich behandelt, als ob es sich
um krummlinige Elemente handeln würde.
Die Polarkoordinaten besitzen im Nullpunkt eine Singularität, welche ihren
Niederschlag in der Präsenz des Nenners von (2.134) findet. Die Singularität
des Integranden läßt sich im Fall eines Kreissektors durch eine geeignete
Modifikation des zu verwendenden Ansatzes elegant beheben. Aus (2.137)
ergibt sich durch einen Grenzübergang 'I ~ 0 für das Integral über einen
Kreissektor vom Radius 'Z und begrenzt durch die Polarwinkel ({JI < ({Jz

1 1 11
I I [ u; + -2 u~ , d, d({J = (({JZ - ({JI) I I ~ul d~ dl1 +
1
II - u; d~ dl1·
11 1

Q.' 00 ({Jz - ({JI 00 ~


I (2.138)
Obwohl das Kreissektorelement dreieckförmige Gestalt aufweist, erfolgt die
Integration in den (~, 17)-Variablen über das Einheitsquadrat Qo. Beim
Grenzübergang 'I ~ 0 verschmelzen Knotenpunkte, so daß die Anzahl der
2.4 Krummlinige Elemente 127

Knotenvariablen sinkt. Dementsprechend muß auch ein geeignet reduzierter


Ansatz für die Funktion u( ~,,,) verwendet werden, der nun so angesetzt
werden kann, daß der störende Nenner ~ im zweiten Integral von (2.138)
wieder wegfallt. Dazu ist nur dafür zu sorgen, daß die partielle Ableitung u" die
Variable ~ als Faktor erhält.
Soll für ein Kreisringsegment ein bilinearer Ansatz verwendet werden, erfüllt
für ein Kreissektorelement der modifizierte Ansatz
(2.139)
mit fehlendem linearen Term in " die gestellte Anforderung und zudem die
Stetigkeitsbedingung beim Übergang zu Nachbarelementen, weil die Funktion
auf jeder Seite linear ist.
Die beiden Integrale in (2.138) werden elementar und singularitätenfrei
berechenbar, nämlich
I I I I 1
ff ~uld~d,,= JJ [a~~+2a2a3~,,+ai~,,2]d~d,,=-(3a~+3a2a3+ai),
00 00 6
I I 1 I 1 1
JJ- u~ d~ dry = JJ a~~ d~ dry = - ai.
00 ~ 00 2
Die Interpolationsbedingungen und die dazugehörige Matrix A lauten

UI = al

U2 = al + a2 (2.140)
U3 = al + a2 + a3

Die Werte UI, U2, U3 sind die Knotenvariablen in den drei Ecken des
Kreissektors (Fig. 2.39). Die Herleitung der beiden Grundelementmatrizen für
(2.138) wie auch für (2.135) ist auf der Hand liegend.

Fig.2.39
Knotenpunkte im Kreissektorelement

Zum quadratischen Ansatz der Serendipity-Klasse im Kreisringsegment ist im


Kreissektor der passende Ansatz
u(~, ,,) = al + a2~ + a3~2 + a4~" + a5~2" + a6~1'/2. (2.141)
Hier fehlt im Vergleich zu (2.70) sowohl der lineare als auch der rein
quadratische Term in 1'/. Auf jeder Seite verhält sich u(~, ,,) quadratisch in der
128 2 Elemente und Elementmatrizen

verbleibenden Variablen. Das resultierende Element ist konform. Zur Voll-


ständigkeit sei noch die Matrix A angegeben, die sich aus der Interpolationsbe-
dingung ergibt.

0 0 0 0 0
-3 -1 0 4 0 0
2 2 0 -4 0 0
A= (2.142)
0 -1 -3 -4 4 4
0 -2 2 4 0 -4
0 2 2 0 -4 0
Mit ihr lassen sich gegebenenfalls die Formfunktionen bestimmen.

2.5 Ebene elastomechanische Elemente

Entsprechend der Feststellung in Abschn. 1.2.2 lassen sich die elastomechani-


schen Probleme des ebenen Spannungszustandes und des ebenen Verzerrungs-
zustandes vollkommen parallel behandeln, indem der einzige Unterschied in
der Matrix D liegt, vermittels welcher sich die Spannungen durch die
Verzerrungen ausdrücken. Im folgenden wird der Fall des ebenen Span-
n ungszus tandes, wie er bei Schei ben realisiert wird, ausführlich behandelt.
Die Übertragung der Berechnungsart auf Aufgaben des ebenen Verzerrungs-
zustandes ist trivial.
Der Verschiebungszustand einer Scheibe aus isotropem Material und
konstanter Scheibendicke h unter einer allgemeinen Belastung in der Schei-
benebene minimiert das Gesamtpotential

II = h r~ II
2 G
(1"T G dx dy - II p Tfdx dy - f qTfdS] -
G C
i
;=1
FJi. (2.143)

Darin bedeuten (1" den Spannungsvektor, G den Verzerrungsvektor, p den


Vektor der räumlich verteilten Kräfte, q den Vektor der Randkräfte, f den
Verschiebungsvektor, F; die Einze1kräfte undJi die Vektoren der Einze1ver-
schiebungen in den Angriffspunkten der Einzelkräfte. Ferner ist G das von der
Scheibe in der (x,y)-Ebene bedeckte Gebiet und C sein Rand.
Wir betrachten im folgenden nur wieder die Teilaufgabe, unter Berücksichti-
gung der Grundbeziehungen der linearen Elastizitätstheorie die Integralbei-
träge
(2.144)
2.5 Ebene elastomechanische Elemente 129

für ein Element Gi und ein Randelement Cj bereitzustellen. Zur Vorbereitung


multiplizieren wir die in den Verzerrungen Gx, Gy und Yxy quadratische Form des
ersten Integranden aus und ersetzen weiter die Verzerrungen durch die
partiellen Ableitungen der Verschiebungen nach (1.52).

-_ 1 _E v 2 [2
Gx + 2 vGxGy + Gy2+ 2"
1 (1 - 2J
v)Yxy (2.145)

= 1 ~v 2 [( : : r
+ 2v ( :: ) ( :; ) + ( :; r~
+ (1 - v) (:; + :: r J
Damit ist der Integrand durch die Verschiebungsfunktionen u(x,y) und v(x,y)
ausgedrückt. Die weitere Behandlung des Integrals ist davon abhängig, ob das
Gebiet Gi ein geradliniges Dreieck, bzw. Parallelogramm oder ein krummlini-
ges Element ist.

2.5.1 Geradlinige Scheibenelemente

Die Integration über ein geradliniges Dreieck oder Parallelogramm wird


vermittels der Variablensubstitution (2.47) auf die Integration im Einheitsdrei-
eck oder Einheitsquadrat zurückgeführt. Dabei sind die partiellen Ableitun-
gen von u und v nach x und y genauso wie in Abschn. 2.2.1 zu ersetzen. Zur
Vereinfachung der Schreibweise bedeute ux wieder die partielle Ableitung von
u nach x. Für den Integranden erhalten wir nach dieser Substitution

c: T Dc: = ~
1- v
[(u~.;x + u '7xl + 2v(u~';x + U~'7x)(v~';y + V~'7y)
,7

+ (v~';y + v~'7yl + ~ (1 - v)(u~';y + u~'7y + v:;,;x + v,,'7xl J


= ~
1 - v-
[fe + ~2 (1 - v).;i} ul + 2 {<!X'7X + ~ (1 - V)<!Y'7Y } ucu~
2 '

, '7x' 2" (1 - <'y' 2" (1 -


-I-{2-1- 1 1
v)2}2+{;:2-1-
'7y u~ v)'2}
C;x v;2

+ 2 {';Y'7Y + ~ (1 - V) (x'7x } v~v" + {'7; + ~ (1 - V) '7; }vJ


130 2 Elemente und Elementmatrizen

+ 2 {~ (1 + V)~X~y} u~v~ + 2 {v~X'ly + ~ (1 - V)~Y'lx} U~Vq


+ 2 {v~Y'lx + ~ (1 - V)~X'ly} UqV~ + 2 {~ Cl + V)'lX'ly} UqV'/ 1
Der solcherart entstandene Ausdruck für den Integranden erscheint auf den
ersten Blick alles andere als einfach. Doch ist zu beachten, daß die Ausdrücke
in sämtlichen geschweiften Klammern infolge der Linearität der Variablen-
substitution konstant sind und allein die Geometrie des Dreiecks Ti, bzw. des
Parallelogramms Qi beeinhalten. Das Ergebnis dieser Transformation kann
wie folgt zusammengefaßt werden, wobei die Werte der partiellen Ableitungen
~x etc. aus Abschn. 2.2.1 in den neu definierten Konstanten verwendet worden
sind.

Ti

-- - -Eh
-2 JJ [alu~2 + 2b1U~Uq + CIUq2 + a2v~2 + 2b2V~Vq + C2 Vq2 (2.146)
1- V
Tc

+ 2a3u~v~ + 2b3u;;vq + 2C3UqV~ + 2d3U'IVq] d~ d'l


. . 1
mit 1 = (X2 - XI)(Y3 - YI) - (X3 - XI)(Y2 - YI), fJ. = - Cl - v)
2
al = [fJ.(X3 - xd 2 + (Y3 - Yd 2]/1
bl = -[fJ.(X2 - XI)(X3 - XI) + (Y2 - YI)(Y3 - YI)]/1 (2.147)
CI = [fJ.(X2 - xli + (Y2 - Yli]/1
a2 = [(X3 - XI)2 + fJ.(Y3 - YI)2]/1
b2 = -[(X2 - Xd(X3 - xJ) + fJ.(Y2 - Yd(Y3 - YI)]/1 (2.148)
C2 = [(X2 - xj)2 + fJ.(Y2 - YI)2]/1
1
a3 = - - (1 + V)(X3 - Xd(Y3 - YI)/1
2
b3 = [V(X2 - XI)(Y3 - YI) + fJ.(X3 - XI)(Y2 - YI)]/1 (2.149)
C3 = [V(X3 - XJ)(Y2 - YI) + fJ.(X2 - XI)(Y3 - YI)]/1

d3 = -2"1 (1 + V)(X2 - XI)(Y2 - YI)/1

Das Ergebnis wurde für ein allgemeines Dreieck Ti formuliert, es behält aber
seine Gültigkeit für ein Parallelogramm Qi, falls unter (X3,Y3) das Koordina-
2.5 Ebene elastomechanische Elemente 131

tenpaar des üblicherweise mit P4 bezeichneten Eckpunktes verstanden wird


(Fig. 2.11).
Auf Grund der Darstellung (2.146) des Integrals setzt sich der Beitrag eines
Elementes aus zehn Anteilen zusammen. Die beiden Verschiebungsfunktionen
u(~, 1]) und v(~, 1]) sind voneinander unabhängig, doch wird man für sie
zweckmäßigerweise Ansätze desselben Typus verwenden. Deshalb besteht für
die ersten drei und die folgenden drei Anteile (2.146) eine formale Überein-
stimmung mit Integralen, die in (2.48) im Zusammenhang mit der Dirichlet-
sehen Randwertaufgabe aufgetreten und behandelt worden sind. Diese
Verwandtschaft der Probleme wird jetzt ausgenützt.
Die beiden Verschiebungsfunktionen u(~, 1]) und v(~, 1]) werden je durch
voneinander unabhängige Knotenvariable, zusammengefaßt in den Vektoren
ü e und ve , definiert. Fassen wir diese beiden Vektoren vorläufig in einem
Vektor ue von Knotenvariablen des Elementes gemäß

(2.150)

zusammen, liefert das Integral eine quadratische Form in Ue, deren zugehörige
Steifigkeitselementmatrix Se in vier Untermatrizen aufgeteilt werden kann.

h ffT [;
TD
[; d x dY -- Ue S
T '
A
eUe -
A - T , VT
Ue
(-
e-) [SII
' S,12 j [u_- j
e
(2.151)
S2l S22 Ve
I

Dabei gelten offensichtlich die Beziehungen

- -Eh
-2 ff [alu~2 2 d"~ d1] =
+ 2blu~u~ + CIU~] - T'
Ue -
SIIUe,
I-v To

- -Eh
-2 ff [a2V~2 + 2b2V~Vq + C2V~]2 d"~ d1] = -'-
VeS22Ve.
1- v To
Die beiden Untermatrizen SII und S22 sind gegeben durch
, Eh
Sii = - - - 2 (aiSI + b i S 2 + Ci S 3), (i = 1,2) (2.152)
1- v
mit den Grundelementmatrizen SI, S2 und S3 aus Abschn. 2.2, welche allein
vom Typus des Elementes und des Ansatzes abhängen. Desgleichen gilt nach
(2.146) und (2.151)

~
2Eh ff [a3u~v~ + b3U~V~ + C3UqV~ + d 3u q v q] d<;;~ d1] -T'
= Ue SI2Ve
-
+ Ve
-T'
S2IUe.
1- To (2.153)
Die vier letzten Integralbeiträge in (2.146) liefern die Matrizen 8 12 und 821 •
Diese beiden Matrizen sind selbst nicht symmetrisch, doch sind sie transpo-
132 2 Elemente und Elementmatrizen

niert zueinander, also si, s= '2. Das erste und letzte Integral in (2.153) liefern
Bilinearformen in den Knotenvariablen von üe und iie mit Matrizen, die mit S"
respektive mit S 3 übereinstimmen. In der Tat ist ja auf Grund der Darstellun-
gen von U(f,,11) und v(f" 11) vermittels der Formfunktionen

Jf u~v~ df, d11 = Jf üJ N~(f" 11)N[(f" 11)iie df, d11


To To

= ü; {U N~Nl df, d11 }iie = üJ S,iie


und analog

JJ UI1V"df,d11=üJ{JJ N"NJ df,d11}iie=ü;S3iie.


To To
Das zweite und dritte Integral in (2.153) ergeben Bilinearformen mit je
unsymmetrischen Matrizen, die jedoch zueinander transponiert sind.

Jf U~V'1df,d11=Ü;{JJ N~N,; df,d11}iie=ü;Siiie (2.154)


To To

Jf u'1v~ df, d11 = üJ {Jf N"Nl df, d11 } iie = üJ Si Tiie· (2.155)
To To

Dabei wurde berücksichtigt, daß (N"Nl)T =N~NJ gilt. Die unsymmetrische


Grundmatrix wurde mit Sr bezeichnet, da sie in engem Zusammenhang mit S2
steht. Es gilt nämlich
JJ (u~V'1 + u"v~) df, d11 = üJ (Si + SiT)iie = ü; S2 iie,
To

falls die Definition von S2 gemäß (2.92) beachtet wird.


Die Untermatrizen der Steifigkeitselementmatrix Se lassen sich somit für ein
beliebiges geradliniges Dreieck- oder Parallelogrammelement durch Linear-
kombination von nur drei Grundmatrizen aufbauen und damit sehr effizient
berechnen. In einem Computerprogramm werden zur Ökonomisierung des
Speicherplatzes die Matrizen SI, Si und S3 als feste Daten vorgegeben, da aus
Sr die Matrix S2 erhalten werden kann. Aus Symmetriegründen gilt schließ-
lich S2l = S[2, und so läßt sich die Berechnung der Steifigkeitselementmatrix
Se wie folgt zusammenfassen:
Eh
S·/1 = -
A

1 _- v2 [aS,
I
+ b(S2* + S~*T ) + eS3]
I - I,
(i = 1,2)
(2.156)
2.5 Ebene elastomechanische Elemente 133

Tab. 2.5 Grundmatrizen S2* für einige Scheibenelemente

a) Lineares Dreieckelement b) Bilineares Parallelogrammelement

st=~
- 2
f
-:
-I
-I
-I
-I -:
1
1
1 -I-I
c) Quadratisches d) Quadratisches Parallelogrammelernent,
Dreieckelement Serendipity-Klasse

3 0 I 0 o -4 17 -3 7 3 4 -4 -4 -20
1 o -I -4 4 0 3 -17 -3 -7 -4 20 4 4
0 0 0 0 0 0 7 3 17 -3 -4 -20 4 -4
S2* = -
1
6 -4 0 0 4 -4 4 -3 -7 3-17 4 4 -4 20
S2*=_I-
0 0 4 -4 4 -4 36 -20 20 -4 4 o -16 0 16
0 o -4 4 -4 4 -4 -4 4 4 -16 0 16 0
-4 4 -20 20 0 16 o -16
4 4 -4 -4 16 o -16 0

Für die Rechenpraxis ist noch der Vorteil hervorzuheben, daß die Ordnung der
drei benötigten Grundmatrizen nur halb so groß ist wie diejenige von Se, und
daß sie als ganzzahlige Datenmatrizen mit gemeinsamen Nennern in das
Rechenprogramm eingehen können. In Ergänzung zu den früher angegebenen
Grundmatrizen SI und S3 sind in Tab. 2.5 die Matrizen S1 für einige Elemente
und Ansätze zusammengestellt, die für das Dirichlet-Problem ausführlich
behandelt worden sind, damit der ganze Satz von Grundmatrizen für die
Anwendung auf ebene Spannungsprobleme und insbesondere auf Scheiben-
probleme verfügbar ist.
Die Bereitstellung der Steifigkeitselementmatrix Se entsprechend dem Beitrag
des Integrals

h JJ (TT E dx dy = u; Seue
G;

für ein Scheibenelement Gi mit der Scheibendicke h erfolgt zusammenfassend


in folgenden Teiloperationen: Aus den Eckenkoordinaten und der Poissonzahl
v berechne man die zehn Koeffizienten al bis d3 nach den Formeln (2.147) bis
(2.149) und multipliziere sie gleichzeitig mit dem gemeinsamen Faktor
Eh/(l - v 2 ). Mit diesen Koeffizienten werden die Form und Lage des
Elementes sowie seine elastischen Eigenschaften (E, v) berücksichtigt. Sodann
134 2 Elemente und Elementmatrizen

bilde man die Matrix Se durch Linearkombination der drei Grundmatrizen SI,
st und S3. Bei dieser Operation wird die Art des verwendeten Ansatzes für die
Verschiebungsfunktionen berücksichtigt.
Die weiteren Beiträge zum Gesamtpotential (2.143) sind einfacher zu behan-
deln unter der Annahme, daß die räumliche Kräfteverteilungp konstant oder
zumindest für jedes Element als konstant betrachtet werden kann, und
dasselbe für die Randkräfte q zutrifft, welche im folgenden mindestens für das
betreffende Randstück als konstant angenommen seien. Der Kraftvektor p
wird in seine beiden (konstanten) Komponentenpl undp2 in x- undy-Richtung
zerlegt, und der Verschiebungsvektor j in die Komponenten u und v. Damit
wird das Integral

Nach Abschn. 2.2 ergeben die beiden Integrale je in den Knotenvariablen


lineare Ausdrücke und können geschrieben werden als

ff U dx dy = b; Ue. ff vdxdy=b;ve ,
Gi Gi
worin sich der Vektor b e =Js I mit Hilfe des allein vom Ansatz abhängigen
Grundvektors SI ausdrückt. Mit dem Vektor ue nach (2.150) ergibt sich somit

h Jf pTjdxdy=b;ue mitb e = [hPlb e J. (2.157)


Gi hP2 b e
Mit q = (ql, q2)T erhalten wir für das Randintegral analog

h J qTjds=h J (qlu+q2 v)ds=hql J uds+hq2 J vds


cj cj cj cj
= hq,bluR + hq2 blvR = hkuR (2.158)

Der Vektor b R kann dem Abschn. 2.1 über eindimensionale Elemente für die
entsprechenden Ansätze entnommen werden.
Falls Einzelkräfte auftreten, so ist dafür zu sorgen, daß die Angriffspunkte
gleichzeitig Knotenpunkte von Elementen sind. Nach Zerlegung von Fi in die
m
Komponenten in x- und y-Richtung liefert I F!h unmittelbar einen in
;=1
den Verschiebungen der Knotenpunkte linearen Ausdruck.
2.5 Ebene elastomechanische Elemente 135

Der bisherigen Betrachtung zur Herleitung und Begründung der effizienten


Berechnung der Steifigkeitselementmatrix und der linearen Anteile zum
Gesamtpotential wurde der Übersichtlichkeit halber der Elementvektor ue der
Knotenvariablen zugrunde gelegt. Es ist aber üblich, die Knotenvariablen pro
Knotenpunkt zusammenzufassen, also einen Elementvektor

(2.159)

zu verwenden. Der Vektor U e geht aus ue durch eine simple Permutation


hervor. Die entsprechende Steifigkeitselementmatrix Se entsteht aus Se durch
eine gleichzeitige entsprechende Zeilen- und Kolonnenpermutation. Es ist
aber nicht nötig, zuerst Se zu berechnen, um anschließend die Permutationen
auszuführen, vielmehr kann Se direkt durch eine einfache Indextransforma-
tion erhalten werden. Dasselbe gilt auch für die Vektoren be und bR .
Für Eigenschwingungsprobleme wird die Massenelementmatrix Me entspre-
chend dem Integral

(2.160)
Gi Gi
benötigt. Die beiden Integrale bezüglich u 2 und v2 liefern formal identische
Beiträge, so daß bei Verwendung des Elementvektors ue die zugehörige
MassenelementmatrixMe eine diagonale Blockmatrix ist mit übereinstimmen-
den Untermatrizen M11 und M22. Diese Matrizen sind aber im Zusammenhang
mit dem Dirichletproblem hergeleitet und dort zahlenmäßig angegeben
worden. Die Matrix Me ergibt sich durch die oben beschriebenen Zeilen- und
Kolonnenpermutationen.
Kommen kubische Ansätze für u(~,,,) und v(~,,,) mit partiellen Ableitungen
als Knotenvariablen zur Anwendung, so sind die oben beschriebenen Element-
matrizen noch einer entsprechenden Kongruenztransformation wie (2.80) zu
unterwerfen. Sie ist für die u- und v-Komponenten getrennt auszuführen

Uc;(i) = x 21 u(i)
x
+ Y21 u(i)
y,
V(i)
c; = x 21 vii)
x
+ Y21 vii)
Y ,
(2.161)
U ~(i) = x 31 u(i)
x + Y 31 u(i)
y,
vii)
~
= x 31 vii)
x + Y 31 vii)
y ,

so daß die Matrix C von (2.79) entsprechend größer wird und für ein
Dreieckelement drei vierreihige Untermatrizen Cii längs der Diagonalen
enthält neben zweireihigen Einheitsmatrizen, die zu den Verschiebungspaaren
(Ui, Vi) gehören. Selbstverständlich sind auch die Vektoren b e und bR in diesem
Fall noch zu modifizieren.
136 2 Elemente und Elementmatrizen

2.5.2 Krummlinige Scheibenelemente

Die Berechnung der Steifigkeitselementmatrix und der Elementvektoren für


das Gebiets- und das Randintegral erfordern im Fall von krummlinigen
Elementen eine numerische Integration. Die Durchführung mit Hilfe der
Formfunktionen ergibt wiederum einen sehr einfachen Algorithmus. Dabei
können die Überlegungen von Abschn. 2.4.3 übernommen werden, und die
Formeln brauchen nur der neuen Situation angepaßt zu werden. Wir
beschränken uns auch hier auf den wichtigsten Fall von isoparametrischen
Elementen.
Für die Verschiebungsfunktionen U«(,I1) und V«(,I1) gelten mit den oben
eingeführten Elementvektoren iie und ve sowie für die Variablensubstitution
der isoparamerischen Abbildung die Darstellungen

u«(, 11) = ii; N«(, 11), v«(, 11) = v; N«(, 11) (2.162)

x=x TN«(,I1), (2.163)

Ausgehend von der Darstellung (2.145) für den Integranden ETDESZE erhält
man nach Substitution der Ansätze (2.162)

T _ E -T;: ;: T
E DESZE - ---2 [U e (N,:,<,x + N~l1x)(<,xN~ + I1xN~T )ue
_
1- v
+ 2 vii; (N~(x + N~l1x)«(yNl + l1yNJ)ve
+ v; (N~(x + N~l1y)«(yNl + l1yNJ)ve
+ -1 (1 - v) {_U T ;:
e (N~<,y + N~l1y) + Ve (N~<,x + N~l1x) ]
-T;: }2
2

= ~
I-v
[ii;{((xN~ + I1xN~)«(xN~ + I1xN~)T
+~ (1 - v)«(yN~ + l1yN~)«(yN~ + l1yN~)T}iie
+ v; {«(yN~ + l1yN~)«(yN~ + l1yN~)T
+~ (1 - v)«(xN~ + I1xN~)«(xN~ + '7xN~)T}ve
+ 2ii;{v«(xN~ + I1xN~)«(yN~ + '7yN~f
+ ~ (1 - v)«(yN~ + l1yN~)«(xN~ + '7xN~f}ve]
2.5 Ebene elastomechanische Elemente 137

Mit den zu (2.128) identisch gebauten Hilfsvektoren

h l = (~xN" + '7xNq) Jj = (YqN~ - y~N~)/Jj


(2.164)
h2 = (~yN~ + '7yN'1)Jj = (-xqN~ + x~N~)/Jj

vereinfacht sich das Integral über das Einheitsgebiet Go zu

h JJ GT D G J d~ d"
Go

= I :'h [üJ{b~ (hlhT + ~ (I-V)h2hi)d~d'7}üe


v2

(2.165)
+vJ{b!U (l-V)hlhT+h2hi)d~d,,}ve
+2üJ {b~ (Vh1hi + ~ (1 - V)h h{) d~ d'7 }veJ.
2

Nach (2.165) stehen im wesentlichen die drei Untermatrizen S11, S22 und S12 in
den drei geschweiften Klammern. Jeder der Integranden stellt eine quadrati-
sche Matrix dar. Die effektive Durchführung der numerischen Integration
erfolgt vollkommen analog zur algorithmischen Beschreibung in Abschn.
2.4.3.
Die Berechnung der verbleibenden Gebiets- und .Randintegrale erfolgt
entsprechend dem Vorgehen, wie es in den Abschn. 2.4.3 und 2.4.4 beschrieben
worden ist.
Im Fall von kubischen Ansätzen mit partiellen Ableitungen als Knotenvaria-
blen sind für die Formfunktionen die zu (2.108) analogen, von der Geometrie
abhängigen Modifikationen zu beachten.

2.5.3 Berechnung der Spannungen in Scheibenelementen

Bei Problemen des ebenen Spannungszustandes, also insbesondere bei Schei-


ben, interessieren vor allen Dingen die unter einer gegebenen Belastung
resultierenden Spannungen. Obwohl die Bestimmung der Spannungen aus
einem Zustand der Deformation eigentlich nicht viel mit der Bereitstellung der
Elementmatrizen zu tun hat, soll dieses für die Praxis wichtige Teilproblem an
dieser Stelle behandelt werden, um auch dazu einen einfachen und effizienten
Prozeß anzugeben.
Nach den Grundgleichungen (1.56) für den ebenen Spannungszustand gelten
ganz allgemein
138 2 Elemente und Elementmatrizen

Gx E
= ---, [ ex +Vey,
] Gy E
= ---, [ ]
Vex + ey, !xy = 2(1 E+ v) Yxy (2.166)
I - v- I - v-

Die Verzerrungen sind weiter ebenfalls allgemein gegeben durch (1.52), und
auf Grund der Transformation des Elementes auf das Einheitsgebiet Go
gelten damit im Fall von geradlinigen Elementen (Dreiecken und Parallelo-
grammen)

er =[Y3IU~-Y2IU,,]/l }

Gy = [- X31 V,
+ X21 v,,]/J (2.167)
Yry = (-X3I U(, + X2I U" + Y3I V.; - Y2I V,,]/J

Vermöge der Formelsätze (2.166) und (2.167) ist die zahlenmäßige Berech-
nung der drei Spannungen G x , Gy und !xy in einem bestimmten Punkt eines
Elementes zurückgeführt auf die Bestimmung der partiellen Ableitungen u~,
u", v~ und v" im entsprechenden Bildpunkt des Einheitsgebietes. Diese
Zahl werte lassen sich aber aus den Knotenvariablen des Elementes an
bestimmten Punkten vermittels der einschlägigen Formfunktionen sehr
einfach berechnen. Zu erwähnen ist noch, daß für (2.167) nur die Koordinaten-
paare (Xi,Yi) der Eckpunkte des Elementes erforderlich sind oder sogar nur die
vier Koordinatendifferenzen.
Die partiellen Ableitungen u~, u", v~, v" sind für lineare und quadratische sowie
teilweise auch bei kubischen Ansätzen der Verschiebungsfunktionen i. a.
unstetig beim Übergang von einem Element ins benachbarte. Für lineare und
quadratische Ansätze sind die partiellen Ableitungen in den Eckknotenpunk-
ten für die dort zusammenstoßenden Elemente untereinander verschieden, so
daß es gar nicht sinnvoll sein kann, die Spannungen in diesen UnstetigkeitssteI-
len zu bestimmen. Es ist deshalb üblich, die Spannungen nur im Sch wer-
punkt des Elementes zu berechnen, die dann als Mittelwerte für das
Element angesehen werden. Im folgenden werden die partiellen Ableitungen
im Schwerpunkt Z des Dreiecks To und des Quadrates Qo in Abhängigkeit der
Knotenvariablen angegeben, wie sie sich aus den Formfunktionen nach einer
trivialen Rechnung ergeben. Entsprechend des verwendeten Ansatzes und des
Grundgebietes erscheinen erwartungsgemäß Differentiationsformeln. Die
Formeln sind für U und v identisch, so daß nur die Differentiationsregeln für u
wiedergegeben werden.

a) Linearer Ansatz im Dreieck

u~(Z) = U2 - UI,

u'1(Z) = U3 - UI (2.168)
2.5 Ebene elastomechanische Elemente 139

b) Quadratischer Ansatz im Dreieck

1
uc(Z) = - [(U2 -
. 3 Ul) + 4(U5 - U6)]
(2.169)
1
u~(Z) = 3 [Cu) - Ul) + 4(U5 - U4)]

c) Bilinearer Ansatz im Quadrat

1
u,(Z) = - [(U2 -
. 2 Ul) + (u) - U4)]
(2.170)
1
u~(Z) = 2 [(U4 - ud + (U) - U2)]

d) Quadratischer Ansatz der Serendipity-Klasse im Quadrat

U~(Z) = U6 - Ug,

U,,(Z) = U7 - U5 (2.171)

Die auffällig einfachen Formeln (2.171) entsprechen dem zentralen Diffe-


renzenquotienten und stellen für eine in C; und 11 quadratische Funktion
u( C;, 11) die exakten Ableitungen dar. Die Differentiationsformeln (2.169)
erlauben eine Interpretation als gewogenes Mittel von zwei zentralen Diffe-
renzenquotienten im Punkt P4 und dem Mittelpunkt zwischen P6 und P5•
Die Gewichte berücksichtigen die Abstände dieser beiden Punkte zum
Schwerpunkt.
Für kubische Ansätze mit partiellen Ableitungen als Knotenvariable liefern
letztere direkt die notwendige Information zur Berechnung der Spannungen.
Da in diesem Fall die Stetigkeit der ersten partiellen Ableitungen wenigstens in
den Eckpunkten der Elemente gewährleistet ist und oft auch größere Elemente
verwendet werden können, ist es hier sinnvoll, Spannungen in weiteren
(inneren) Punkten des Elementes zu berechnen, um einen besseren Überblick
über den Spannungsverlaufzu erhalten. Die zweckmäßige Berechnung erfolgt
mit Hilfe der einschlägigen Formfunktionen.

2.5.4 Ebener Verzerrungszustand

Um die Steifigkeitselementmatrix für ein Problem des ebenen Verzerrungszu-


standes im Fall eines geradlinigen Elementes zu berechnen, ist (2.145) zu
ersetzen durch
140 2 Elemente und Elementmatrizen

v
I - v

_ _ _E_ _ _ [(1-V)E}+2ve xey +(1-v)e;+ 21 (1-2V)y;yJ


(I +v)(1-2v)

E [(I-V)U}+2VUxVy+(I-V)V;+ 21 (1-2V)(Uy +vr )21


(l+v)(1-2v)

Nach einer zu Abschn. 2.5.1 analogen Rechnung ergibt sich

Ti
E
- -- - - fJ [aluz + 2blu~u~ + CIU; + a2 vl + 2b2V~V~ + C2V;
(I + v)(1 - 2v) T o
+ 2a3u~v, + 2b3U~V~ + 2C3U'IV~ + 2d3U'IV~J d~ dry
mit 1 = (Xl - XI)(Y3 - YI) - (X3 - XI)(Y2 - YI), Jl = ~ (1 - 2v)

al = [Jl(X3 - xli + (I - V)(Y3 - YI)2J/1


bl = -[Jl(X2 - XI)(X3 - XI) + (1 - V)(Y2 - Y\)(Y3 - yJ)J/1
CI = [Jl(X2 - XI)2 + (1 - V)(Y2 - YliJ/1
a2 = [(I - V)(X3 - XI)2 + Jl(Y3 - YI)2]/1
b2 = -[(1 - V)(X2 - XI)(X3 - XI) + Jl(Y2 - YI)(Y3 - YI)]/1
C2 = [(1 - V)(X2 - XI)2 + Jl(Y2 - y\)2]/1
I
a3 = -- (X3 - X\)(Y3 - YI)/1
2
b3 = [V(X2 - X\)(Y3 - YI) + Jl(X3 - XI)(Y2 - y\)J/J
C3 = [V(X3 - X\)(Y2 - YI) + Jl(X2 - XI)(Y3 - y\)]/J
I
d3 = -2 (X2 - XI)(Y2 - YI)/J
2.6 Plattenelemente 141

2.6 Plattenelemente

Aufgaben der Plattenbiegung und der Plattenschwingung sind auf Grund


elastomechanischer Überlegungen und auch aus mathematischen Gründen
anspruchvoller in ihrer Behandlung, da die Durchbiegung w(x, y) nicht nur
stetig, sondern auch noch stetig differenzierbar sein muß. Mathematisch liegt
dies darin begründet, daß im Integral für die Deformationsenergie zweite
partielle Ableitungen auftreten. Damit das Variationsprinzip überhaupt
anwendbar ist, sind nur mindestens einmal stetig differenzierbare Funktionen
w(x, y) zulässig. Dies bedeutet nun, daß die Ansatzfunktionen für w(x, y) in
den Elementen die Eigenschaft besitzen müssen, die Stetigkeit der Normalab-
leitung längs den Seiten beim Übergang von einem Element ins benachbarte zu
gewährleisten. Die Forderung, konforme Elemente zu konstruieren, ist nur
mit sehr großem Aufwand und entsprechend umständlich zu erfüllen. Deshalb
besteht aus rein praktischen Überlegungen der Wunsch, die Stetigkeitsanfor-
derungen soweit zu lockern, daß mit den so resultierenden nichtkonformen
Elementen dennoch brauchbare Ergebnisse erzielt werden. Obwohl man bei
Verwendung von nichtkonformen Elementen mathematisch und mechanisch
eine Kriminalität begeht, so rechtfertigen die erzielten Resultate das Vorgehen
vollkommen. Um die Anwendbarkeit nichtkonformer Plattenelemente mathe-
matisch zu begründen, sind allgemeinere Variationsprinzipien vorgeschlagen
worden, welche das Extremalprinzip der gesamten potentiellen Energie
ersetzen [BuDO, Ga176, OdR76, Pia73, Pra68].

2.6.1 Konforme Elemente

Beginnen wir mit einem konformen Rechteckelernent, da seine Beschrei-


bung und die Verifikation der Stetigkeit der Normalableitung relativ einfach
sind. Im Einheitsquadrat Qo gelte für die Durchbiegung w( ~,Yf) ein bikubischer
Ansatz

w(~, Yf) = al + a2~ + a3Yf + a4~2 + a5~Yf + a6Yf2 + a7e


+ ase Yf + a9~Yf2 + alOYf 3+ all ~3Yf + a 12eYf 2 + a13~Yf3
(2.172)

als unvollständiges, aber die Symmetriebedingung erfüllendes Polynom


sechsten Grades mit insgesamt 16 Parametern. Auf jeder Seite des Einheits-
quadrates (~= 0 oder 1, Yf = 0 oder 1) reduziert sich die Funktion auf ein
vollständiges kubisches Polynom in der verbleibenden Variablen. Die N ormal-
ableitung auf jeder Seite ist, abgesehen vom Vorzeichen, entweder gleich der
142 2 Elemente und Elementmatrizen

partiellen Ableitung nach ~ oder 17 bei festem 17, bzw. ~. Nun sind

w~ = a2 + 2a4~ + as17 + 3a7~2 + 2a8~17 + a917 2+ 3all e17


+ 2aI2~172 + a1317 3+ 3 aI4~2172 + 2aIS~173 + 3 aI6~2173
w~ = a3 + as~ + 2a617 + a8e + 2a9~17 + 3 alO17 2+ all ~3
+ 2a12e17 + 3a13~172 + 2aI4~317 + 3als~2172 + 3aI6~3172

für festes ,;, bzw. 17 auch vollständige Polynome dritten Grades in der
verbleibenden Variablen. Die kubischen Funktionen der Durchbiegung und
der Normalableitungen sind aber nach dem in Abschn. 2.1.3 behandelten
kubischen Ansatz durch zwei Werte und zwei Ableitungen in den Endpunkten
der Seiten eindeutig festgelegt. Mit den je vier Knotenvariablen
(2.173)
in den vier Eckknotenpunkten kann das Gewünschte erreicht werden. Für die
Durch~iegung i.st die~ o~fensi.chtlich und fü: di~ N ormalableitun~ auf der Seite
P2 P 3 mit'; = list beispIelwelse w~ durch die vier Werte wFl, wJ~l, w?l, w~1J in
den Knotenpunkten P 2 und P 3 eindeutig festgelegt. Daraus folgt aber die
Konformität des Elementes für Plattenbiegung.
Die 16 Koeffizienten al bis al6 im Ansatz (2.172) sind vermittels der
Interpolationsbedingung mit den 16 Knotenvariablen des Elementvektors
_( (I) (I) (I) (2) (4) (4) (4»)T
We - WI, W~ ,w~ ,w~lJ' W2, W~ , ... , W4, W~ ,W~ ,w~1J (2.174)

in Beziehung zu bringen. Die Inversion der 16 Linearformen führt zu einer


Matrix A der Ordnung 16, die ganzzahlig ist. Sie kann zur Herleitung der
Grundmatrizen verwendet werden, und aus ihr könnten auch die einschlägi-
gen Formfunktionen abgeleitet werden. Die Formfunktionen ergeben sich in
diesem Fall aber fast zwangsläufig als Produkte von Formfunktionen (2.27)
des eindimensionalen Falls. Es gelten nämlich

NI (~, 17) = (1 - ,;i(1 + 2~)(1-17)2(1 + 217)


N 2(,;, 17) = ~(1- ~i(1-17i(1 + 217)
N 3(,;, 17) = (1 - ,;i(1 + 2';)17(1-17)2
N4(~,17)=,;(1_,;)217(1-17)2
Ns(~, 17) = ,;2(3 - 2';)(1-17)2(1 + 217)
N6(~,17)=-e(1-,;)(I-17i(1 +217)
N7(~, 17) = e(3 - 2~)17(1-17i
Ng(';, 17) = - ,;2(1- ';)17(1 -17)2
etc.
2.6 Plattenelemente 143

Der Übergang vom Einheitsquadrat zu einem Rechteckelement, dessen Seiten


parallel zur x- und y-Achse liegen, bietet keine besonderen Probleme, da die
partiellen Ableitungen und insbesondere die gemischte zweite Ableitung nur
durch konstante Faktoren zu transformieren sind, die von den Längen des
Elementes bestimmt werden. Anders verhält es sich bei einer Abbildung auf
ein allgemeines Parallelogramm, indem dann die gemischte zweite Ableitung
eine Linearkombination von allen drei partiellen zweiten Ableitungen wird.
Da aber w~~ und w~~ keine Knotenvariablen sind, erfordert die Behandlung der
neuen Situation einige trickreiche und aufwendige Maßnahmen. Aus diesem
Grund ist der bikubische Ansatz (2.172) praktisch auf ein rechteckiges
Plattenelement beschränkt.
Mit einem rein polynomialen Ansatz für die Durchbiegung gelangt man auf
einfachste Weise zu einem konformen Dreieckelement nur mit einem vollstän-
digen Polynom fünften Grades mit 21 Parametern, das wir in den Variablen x
und y ansetzen.
w( x, y) = CI + C2X +C3Y + C4X 2 + ... + c20xy4 + C21 i (2.176)
Zur eindeutigen Festlegung der Funktion werden 21 Knotenvariable benötigt.
In den drei Eckpunkten sollen je die sechs Werte
(2.177)
als Knotenvariable eingeführt werden. Als restliche drei Knotenvariable
kommen noch die Ableitungen awjan in Normalenrichtung in den Seitenmit-
telpunkten hinzu (Fig. 2.40).

Fig.2.40
Konformes Plattendreieckelement, Ansatz
fünften Grades x

Zum Nachweis der Konformität ist erstens festzustellen, daß die Funktion
w(x,y) (2.176) auf jeder Dreiecksseite ein vollständiges Polynom fünften
Grades der Bogenlänge s ist. Dieses Polynom ist durch die Werte der
Funktion, der ersten und zweiten Ableitung in Richtung der Seite in den
beiden Endpunkten eindeutig festgelegt als Lösung einer entsprechenden
Hermiteschen Interpolationsaufgabe. Zweitens ist die Ableitung in der
Normalenrichtung als Linearkombination von W x und w y längs jeder Dreiecks-
seite ein Polynom vierten Grades der Bogenlänge. Dieses ist eindeutig
144 2 Elemente und Elementmatrizen

bestimmt durch die Werte ew/3n und o2 w/ 2n es in den Endpunkten und dem
Wert ew/on im Mittelpunkt. Die Stetigkeit und einmal stetige Differenzierbar-
keit der Durchbiegung von einem Element ins nächste ist damit sichergestellt.
Dieses konforme Plattendreieckelement ist in der Rechenpraxis nicht sehr
beliebt, da die Knotenpunkte eine unterschiedliche Zahl von Knotenvariablen
aufweisen. Bei Befolgung einer bestimmten Philosophie der Datenvorberei-
tung wirkt sich diese Tatsache als Nachteil aus. Aus diesem Grund wurde nach
einer Möglichkeit gesucht, die unerwünschten Normalableitungen in den
Mittelpunkten zu eliminieren. Zu diesem Zweck wird der Verlauf der
Normalableitung vermittels der Werte von ow/en, e2w/en eS in den Endpunk-
ten als kubische (und damit für die beiden anstoßenden Elemente eindeutige!)
Funktion auf der Dreiecksseite eingeschränkt und der daraus resultierende
Wert der Normalableitung berechnet. Er wird damit durch Knotenvariable in
den Eckpunkten dargestellt und kann somit wieder eliminiert werden. Das
Element mit 21 Knotenvariablen wird so auf ein konformes Element mit 18
Knotenvariablen reduziert, welches für die Praxis zweckmäßiger ist. Für
weitere Details sei auf [And70, ArM86, AFS68, Be169, Hah75, HoBn, Ir069]
verwIesen.
Von verschiedenen Autoren [BCI65, CIF68, CIT65, Raz73] wurden mit
großem Erfindungsgeist und großer Anstrengung konforme Dreieckelemente
für Plattenbiegung mit weniger Knotenvariablen entwickelt. Eine Klasse
dieser Elemente geht von einem Dreieck aus, in welchem in den Eckpunkten
die drei Knotenvariablen w, W r und wy betrachtet werden. In (2.110) sind für
das Einheitsdreieck die zugehörigen Formfunktionen zusammengestellt. Auf
den Dreiecksseiten variiert die Funktion kubisch, und ist durch die Funk-
tionswerte und die Richtungsableitungen in den Endpunkten festgelegt. Die
Normalableitung ist eine quadratische Funktion der Bogenlänge und durch
die beiden entsprechenden Werte in den Endpunkten nicht eindeutig defi-
niert. Sie ist beim Übergang von Element zu Element nicht stetig. Um die
Stetigkeit der Normalableitung zu erreichen, werden zusätzliche, sogenannte
singuläre Formfunktionen betrachtet, welche gebrochen rationale Aus-
drücke in den Dreieckskoordinaten sind und die besondere Eigenschaft
haben, daß ihr Wert auf allen drei Seiten verschwindet, der Wert der
Normalableitung auf zwei Seiten ebenfalls verschwindet, aber auf der dritten
Seite parabolisch verläuft. Ein Beispiel einer singulären Formfunktion in
natürlichen Dreieckskoordinaten ist

Im Mittelpunkt der Seite (I = 0 nimmt die Normalableitung den größten Wert


an.
2.6 Plattenelemente 145

Addiert man drei solche singulären Formfunktionen mit beliebigen Koeffi-


zienten zum nichtkonformen kubischen Ansatz hinzu, so werden die Werte der
Funktion w und ihrer beiden ersten partiellen Ableitungen in den Eckpunkten
nicht verändert. Die Koeffizienten lassen sich aber so bestimmen, daß in den
Mittelpunkten der Dreiecksseiten die Normalableitungen dW/dn vorgegeben
werden können. Führt man diese Normalableitungen als weitere Knotenvaria-
ble hinzu, entsteht ein konformes Plattendreieckelement mit 12 Knotenvaria-
blen, da jetzt die quadratisch variierende Normalableitung auf jeder Seite
eindeutig bestimmt und damit stetig wird beim Übergang von Element zu
Element.
Auch in diesem Fall stört die ungleiche Zahl der Knotenvariablen in den
Knotenpunkten. Unter der Einschränkung, daß die Normalableitungen längs
den Seiten linear variieren, lassen sich die Knotenvariablen in den Seitenmit-
telpunkten eliminieren, so daß schließlich ein konformes Plattendreieckele-
ment mit 9 Knotenvariablen resultiert.
Diese unvollständige Übersicht über konforme Plattenelemente möge die
Schwierigkeiten und die daraus resultierende Komplexität aufzeigen.

2.6.2 Nichtkonforme Elemente

In Dreieck- und Viereckelementen mit je kubischen Ansätzen für die


Durchbiegung, welche durch die Werte der Durchbiegung und der beiden
ersten partiellen Ableitungen in den Eckknotenpunkten festgelegt werden,
haben wir bereits Elemente kennengelernt, welche zwar die Stetigkeit der
Durchbiegung garantieren, aber nicht diejenige der Normalableitung. Somit
scheinen die nichtkonformen Plattenelemente von Fig. 2.41 zur Verfügung zu
stehen. Das erste Dreieckelement (Fig. 2.41 a) mit dem vollständigen kubi-
schen Ansatz (2.75) erweist sich als unbrauchbar, da die Formfunktion,
zugehörig zum Schwerpunkt die Bedingung der sog. polynomialen Invarianz
zerstört, welche bei Verfeinerung der Triangulation die Konvergenz der
Näherungen gegen die richtige Lösung garantiert [Cia78].

a)

Fig.2.41 Nichtkonforme Dreieck- und Parallelogrammelemente für Platten biegung


146 2 Elemente und Elementmatrizen

Beim zweiten Dreieckelement von Fig. 2.41 b liegen zur Definition der
Verschiebungsfunktion die Formfunktionen (2.110) von Zienkiewicz zu-
grunde. Mit sehr subtilen Betrachtungen ist in [LaL75] gezeigt, daß die
Konvergenz der Näherungen gegen die richtige Lösung nur dann garantiert ist,
falls alle Dreiecksseiten der Triangulation parallel zu nur drei Richtungen
sind. Wird diese Bedingung verletzt, konvergieren die Näherungen bei
Verfeinerung der Triangulierung gegen falsche Grenzwerte!
Beim Rechteck- oder allgemeinen Parallelogrammelement von Adini [Adi62]
werden ebenfalls die Werte w, W x und wy in den vier Eckpunkten als
Knotenvariable gewählt, und es kommt ein kubischer Ansatz der Serendipity-
Klasse (2.73) zur Anwendung, der in Abschn. 2.2.8 nur angedeutet worden ist,
für den die ersten drei Formfunktionen in (2.106) formuliert sind.
Ein verblüffend einfaches nichtkonformes Dreieckelement erhält man auf
Grund eines vollständigen quadratischen Ansatzes mit sechs freien Parame-
tern. Als Knotenvariable kommen hier die Funktionswerte W\, W2, W3 in den
drei Eckpunkten und dazu die Werte der Normalableitung (ClwjCln)4, (ClwjCln)s,
(3w/3n)6 in den 3 Seiten mitten in Frage (Fig. 2.42).

Fig.2.42
Nichtkonformes Dreieckelement, quadratischer
x Ansatz

Waren bei den kubischen Elementen der Fig. 2.41 die Stetigkeit der Durchbie-
gung längs den ganzen Rändern der Elemente und die Stetigkeit der ersten
partiellen Ableitungen wenigstens in den Eckpunkten gewährleistet, so sind
jetzt beim Dreieckelement mit quadratischem Ansatz die Stetigkeitsbedingun-
gen noch bedeutend weiter gelockert worden: Die Stetigkeit der Durchbiegung
ist nur in den Eckknoten und die Stetigkeit der Normalableitung nur in den
Seitenmitten gefordert. Um mit diesem einfachen Element genügend aussage-
kräftige Ergebnisse zu erzielen, ist eine feine Einteilung erforderlich.

2.6.3 Zur Berechnung der Elementbeiträge

Auf Grund der Darstellung der gesamten potentiellen Energie bei Plattenbie-
gung (1.68) sind für ein Element Ti oder Qi die beiden Integrale bereitzustel-
len
2.6 Plattenelemente 147

11 = fJ [w';x + 2vwxx wyy + W;y + 2(1 - v)w';y] dx dy, (2.178)


Gi

h= fJ pw dx dy. (2.179)
Gi
Bei Schwingungsuntersuchungen kommt noch das Integral

h = JJ w 2 dx dy (2.180)
Gi
hinzu.
Wir betrachten zunächst das einfachste nichtkonforme Dreieckelement der
Fig. 2.42 mit dem quadratischen Verschiebungsansatz in den globalen (x,y)-
Koordinaten

(2.181)

Die Koeffizienten a1 bis a6 sind durch die Knotenvariablen auszudrücken,


welche im Knotenelementvektor

We = (W 1,W2,W3' (~:t (~:)5' (~:)JT (2.182)

zusammengefaßt seien. Injedem der Seitenmittelpunkte ist die Normalenrich-


tung festzulegen, die nicht unbedingt mit der Richtung der äußeren Normalen
übereinzustimmen hat. Diese Bemerkung ist im Hinblick auf das Gesamtpro-
blem zu verstehen, da für die zwei zusammenstoßenden Elemente dieselbe
NormaIenrichtung gültig sein muß, so daß sie für das eine Element nach außen
und für das andere nac.h innen gerichtet ist. Es sei Ci = COS rpi und Si = sin rpi, wo
rpi der Winkel zwischen der positiven x-Achse und der Richtung der Normalen
n im Punkt Pi (i = 4,5,6) bedeute. Dann gilt für die Richtungsableitungen

(-aw ) = Ci ( -aw ) + Si (-_-


aw ) , (i = 4, 5, 6). (2.183)
an i ax i dY i

Damit lautet die Interpolationsbedingung We = Ca mit der Matrix

XI Yl XI X1Yl YT
X2 Y2 xi X2Y2 yi
1 X3 Y3 x~ X3Y3 Y5
C= (2.184)
0 C4 S4 2C4X4 S4 X4 + C4Y4 2S4Y4

0 C5 S5 2C5X5 S5 X 5 + C5Y5 2S5Y5

0 C6 S6 2C6X6 S6 X6 + C6Y6 2S6Y6


148 2 Elemente und Elementmatrizen

Die Inverse dieser Matrix C- I = A liefert den gesuchten Zusammenhang


zwischen dem Koeffizientenvektor a und dem Knotenelementvektor W e mit
der jetzt von der Geometrie des Dreiecks abhängigen Matrix A
a=Aw e• (2.185)
Für das Integral (2.178) erhalten wir nach Substitution der zweiten partiellen
Ableitungen von (2.181)

Jf [4a~ + 8va4a6 + 4ag + 2(1 - v)a~] dx dy


Ti = Ae[4a~ + 8va4a6 + 4ag + 2(1 - v)a~]
eine quadratische Form in den Koeffizienten ai, wobei A e die Fläche des
Dreieckelementes bedeutet. Das Integral liefert somit in diesem Spezialfall
eine, abgesehen vom Faktor A e, von der Geometrie unabhängige Matrix SI

0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
SI =A e ' (2.186)
0 0 0 4 0 4v
0 0 0 0 2(1 - v) 0
0 0 0 4v 0 4
welche einzig die Poissonzahl v als Materialkonstante enthält. Das Integral/I
stellt sich mit (2.186) dar als

(2.187)

Die gesuchte Steifigkeitselementmatrix Se ergibt sich also, indem die (im


wesentlichen konstante) Matrix SI der Kongruenztransformation mit der von
der Geometrie abhängigen Matrix A unterworfen wird. Die Bereitstellung der
Matrix Se erfordert also die Inversion einer sechsreihigen Matrix und
anschließend zwei Matrizenmultiplikationen, die jedoch unter Beachtung der
vielen Nullelemente in SI sehr effizient durchführbar sind.
Zur Berechnung des Elementvektors zu h und der Massenelementmatrix Me
zu /3 geht man analog vor, wobei es hier zweckmäßig erscheint, die Integrale in
Abhängigkeit der Koeffizienten al bis a6 durch numerische Integration zu
berechnen, um dann noch die notwendigen Transformationen mit A vorzu-
nehmen.
Der dargestellte Prozeß kann grundsätzlich auch im Fall von höhergradigen
Durchbiegungsansätzen durchgeführt werden, und die einzelnen Schritte
lassen sich zudem mit Hilfe von Matrizen formal sehr schön beschreiben. Nun
ist aber zu bedenken, daß für einen kubischen Ansatz für jedes Element eine
2.6 Plattenelemente 149

zehn- oder zwölfreihige Matrix zu invertieren ist, die zu SI analoge Matrix


bereits durch numerische Integration zu gewinnen ist und schließlich die
Kongruenztransformation noch zwei Matrizenmultiplikationen erfordert, der
Rechenaufwand also rund 3n~ beträgt, wo ne die Zahl der Knotenvariablen des
Elementes bedeutet. Die Verwendung von Formfunktionen und von natür-
lichen Dreieckskoordinaten vereinfacht die Situation etwas, doch wird der
Rechenaufwand in die Berechnung der geometrieabhängigen Formfunktionen
und in Matrizenmultiplikationen verschoben.
Ein durchsichtiger und zudem sehr effizienter Algorithmus zur Berechnung
der Elementbeiträge ergibt sich, zumindest für die kubischen, nichtkonformen
Plattenelemente, auf der Basis der Grundmatrizen nach Abschn. 2.2.
Die Berechnung des Integrals /1 (2.178) für ein geradliniges Dreieckelement Ti
oder Parallelogrammelement Qi wird wiederum auf die Integration bezüglich
des Einheitsgebietes To, bzw. Qo vermittels der linearen Substitution (2.47)
zurückgeführt. Dazu sind insbesondere die zweiten partiellen Ableitungen in
(2.178) nach den einschlägigen Regeln zu ersetzen. Für die ersten Ableitungen
gelten zunächst
Wx = w~~x + w,,'lx, wy = W~~y + w,,'ly. (2.188)
In (2.188) sind ~x, '1x, ~y, '1y für ein gegebenes, geradliniges Element konstant.
Dies ist bei der Bildung der zweiten partiellen Ableitungen zu berücksichtigen
und man erhält weiter
Wxx = w~~~l + 2w~,,~x'lx + w",,'11,
wxy = W~~~x~y + w~,,(~x'ly + ~y'lx) + w",,'lx'1y, (2.189)
Wyy = w~~~; + 2w~,,~y'ly + w",,'l;,
Diese Ausdrücke (2.189) sind im Integral (2.178) einzusetzen und
dxdy=Jd~d'l zu setzen. Eine elementare Rechnung verbunden mit einiger
algebraischen Manipulation liefert das Resultat

h = fJ [wlx + 2vwxx wyy + W;y + 2(1 - v)wly] dx dy


Gi

fJ [alw~~ + a2w~~w~" + a3w~~w"" + a4w~" + a5w~"w"" + a6w~,,] d~ d'l


Go

(2.190)
mit al = (~l + ~;i J
a2 = 4(~x'lx + ~y'ly)(e + ~;)J
a3 = 2[(~x'1x + ~y'ly)2 + v(~x'ly - ~y'1x)2]J
a4 = [4(~x'1x + ~y'ly)2 + 2(1 - v)(~x'1y - ~Y'lx)2]J
150 2 Elemente und Elementmatrizen

a5 = 4(~xl'/x + ~yl'/y)(~; + I'/;)J


a6 = (1'/; + 1'/;)2J
Mit den Werten für ~x etc. nach Abschn. 2.2.1 und mit den Abkürzungen
xl} = Xi - xj, Yl} = Yi - Yj erhalten die Koeffizienten al bis a6 die Darstellung

al = (X51 + Y51)2/13
a2 = -4(X21X31 + Y21Y31)(x51 + Y51)/J 3
a3 = 2 [(X21X31 + Y21Y31)2 + vJ 2]/13
(2.191)
a4= [4(X21X31 + Y21Y31i + 2(1 - v)J2]/J3
a5 = -4(X21X31 + Y21Y31)(xil + yil)/J3
a6 = (xii + yil)2/13

Es ist interessant festzustellen, daß sich die Koeffizienten aus nur drei
verschiedenen Klammerausdrücken aufbauen, und daß die Poissonzahl v nur
in zwei Koeffizienten auftritt. Ihre Berechnung ist wenig aufwendig.
Für ein Rechteck mit den zur x- und y-Achse parallelen Seiten der Längen a
und b haben die Koeffizienten mit X21 = a, X31 = 0, Y21 = 0, Y31 = b, J = ab die
Werte

In diesem Spezialfall erhält man erwartungsgemäß im wesentlichen wieder den


ursprünglichen Integranden zurück.
Die Elementsteifigkeitsmatrix Se entsprechend zu 11 ist nach (2.190) darstell-
bar als Linearkombination von sechs Grundmatrizen SI bis S6 gemäß

fI wl~ d~ dl'/ = u; Sl Ue, fI w~~w~~ d~ dl'/ = u; S2 Ue,


Go Go

fI w~~w~~ d~ dl'/ = u; S3 U., ff wl~ d~ dl'/ = u; S4 Ue, (2.192)


Go Go

fI w~~ w~~ d~ dl'/ = u; S5U., ff w~~ d~ dl'/ = u; S6 U.,


Go Go
6
Se = I aiSi. (2.193)
i=l

Wie in Abschn.2.2.8 bedeutet Ue = (w\,p\, Ql, W2,P2, Q2, ... l den Vektor der
Knotenvariablen, wo die partiellen Ableitungen Pi = W~(Pi), Qi = W~(Pi) nach ~
und 1'/ zu verstehen sind. Die gesuchte Elentmatrix Se ergibt sich gemäß (2.80)
2.6 Plattenelemente 151

nach den dort im Detail wiedergegebenen Transformationsformeln. Die


Integrale lz und h lassen sich wie dort behandeln.
Zur praktischen Durchführung genügt es also, die Grundmatrizen SI bis S6
(2.192) für die Ansätze einmal zu berechnen. Es sind dies alles Matrizen mit
rationalen Elementen, die sich als ganzzahlige Matrizen mit gemeinsamen
Nennern im Programm einbauen lassen. Ihre Berechnung ist trivial, ob sie
nach der Methode von Abschn. 2.2 oder mit Hilfe der Formfunktionen erfolgt.
Die effektive Berechnung von Se erfordert bei Berücksichtigung der Symme-
trie rund 3n; Multiplikationen, und die Transformation in Se nochmals etwa
gleichviele Operationen. Der Gesamtaufwand ist deshalb nur rund 6n; im
Vergleich zu etwa 3n~ nach der ersten Methode.

2.7 Ausblick auf dreidimensionale Elemente

Die in den vorangehenden Abschnitten sehr ausführlich dargestellten Betrach-


tungen und Methoden lassen sich sinngemäß auf dreidimensionale Elemente
übertragen. Der Grundbereich des räumlichen Feldproblems, bzw. des räum-
lichen Elastizitätsproblems wird in räumliche Elemente unterteilt. Die Ansätze
der Feldfunktion bzw. der drei Verschiebungsfunktionen müssen so beschaffen
sein, daß die Funktionen auf den Grenzflächen der Elemente beim Übergang ins
Nachbarelement stetig sind. Ist diese Bedingung erfüllt, heißen die Elemente
konform. Ohne auf die offensichtliche Verallgemeinerung auf dreidimensiona-
le Elemente allzu sehr im Detail einzugehen, sollen im folgenden nur einige der
wichtigsten räumlichen Elemente vorgestellt werden. Wenn dabei vom Ansatz
für die Funktion gesprochen wird, ist dabei primär an die Feldfunktion u(x, Y, z)
gedacht. Für ein räumliches Elastizitätsproblem gelten für die beiden andern
Verschiebungsfunktionen v(x, y, z) und w(x,y, z) gleich gebaute Ansätze. Die
Zahl der Knotenvariablen verdreifacht sich dementsprechend.

2.7.1 Tetraederelemente

Das räumliche Analogon zum zweidimensionalen Dreieck stellt das Tetra-


ederelement mit vier Eckpunkten dar. Die Eckpunkte seien nach Fig. 2.43
derart mit PI bis P4 bezeichnet, daß die drei Richtungen PI P2, PI P 3, PI P4 ein
rechtshändiges System bilden. Sind die Koordinaten der Eckpunkte
Pi(Xi,Yi,Zi), läßt sich das allgemeine Tetraeder auf das Einheitstetraeder der
Fig. 2.44 vermittels der linearen Transformation
X=XI +(X2 - XI)~ +(X3 - xd" + (X4 - xd(
Y = YI + (Y2 - YI)~ + (Y3 - YI)" + (Y4 - YIK (2.194)
152 2 Elemente und Elementmatrizen

Fig.2.43 Tetraederelement Fig. 2.44 Einheitstetraeder

abbilden. Die Jacobi-Determinante von (2.194) ist gleich dem sechsfachen des
Volumens des Tetraeders. Die verwendeten Ansätze können damit wieder im
Einheitstetraeder untersucht werden.
Ein vollständiger linearer Ansatz

(2.195)

ist durch die Werte von u in den vier Knotenpunkten eindeutig bestimmt und
erfüllt die Bedingungen der Vollständigkeit, Symmetrie und Konformität. Die
Elementmatrizen lassen sich in vollkommener Analogie zum zweidimensiona-
len Fall aus Grundmatrizen aufbauen. Dies gilt auch für räumliche Span-
nungsprobleme.
Ein vollständiger quadratischer Ansatz

u(~, '7, 0 = al + a2~ + a3'7 + a4( + ase +a6~'7


+ a7~( + aS'7 2 + a9'7( + alO(2 (2.196)

erfordert zehn Knotenpunkte. Neben den Eckknotenpunkten sind noch die


sechs Kantenmittelpunkte hinzuzunehmen (Fig.2.44). Der Ansatz erfüllt
wiederum alle Anforderungen.
Der Grad des Ansatzes läßt sich weiter erhöhen, doch steigt die Anzahl der
Knotenvariablen rasch an. Für einen vollständigen kubischen Ansatz besitzt
das Tetraederelement bereits 20 Knotenvariable. Sehr zweckmäßige Knoten-
variable sind in diesem Fall u, UX> uy, U z in den vier Eckpunkten und der Wert
u in den Schwerpunkten der Seitenflächen. Allerdings ist die Zahl der
Knotenvariablen verschieden in den Knotenpunkten, weshalb man eher
einen unvollständigen kubischen Ansatz mit 16 Freiheitsgraden vorzieht,
welcher mit den vier Knotenvariablen in den Eckpunkten auskommt
[AFS68, ArM86].
2.6 Plattenelemente 153

2.7.2 Parallelepipedelemente

Die räumliche Verallgemeinerung des Parallelogramms ist das Parallelepiped


(Fig.2.45), welches sich durch eine zu (2.194) analoge Abbildung auf den
Einheitswürfel abbilden läßt (Fig. 2.46). Die Indizes 3 und 4 sind dort lediglich
durch 4 und 5 zu ersetzen.

Fig. 2.45 Parallelepiped Fig.2.46 Einheitswürfel

Am einfachsten ist der trilineare Ansatz


(2.197)
dessen acht Parameter durch die Werte der Funktion u in den acht Eckpunkten
eindeutig bestimmt ist. Auf jeder Seitenfläche reduziert sich der Ansatz auf
eine bilineare Funktion der beiden Koordinaten und ist durch die vier Werte in
den Eckpunkten eindeutig festgelegt, woraus folgt, daß das Element konform
ist.
Ein quadratischer Ansatz der Serendipity-K1asse
u(~, '1,0 = al + a2~ + a3'1 + a4( + a5~2 + a6~'1 + a7~(
+ a8'1 2 + a9'1( + a lQ(2 + all ~21J + al2e( + a 13~1J2 + aI4~'1(
+ aI5~(2 + a161J 2( + a17'1(2 + al8elJ( + aI9~'12( + a20~1J(2 (2.198)
mit zugehörigen Knotenpunkten nur in den Ecken und Kantenmittelpunkten
besitzt bereits 20 Freiheitsgrade mit Elementmatrizen entsprechend hoher
Ordnung. Die entsprechenden Knotenpunkte sind ebenfalls in den Fig.2.45
und 2.46 eingezeichnet.
Das nächsthöhere Element der Serendipity-Klasse mit einem kubischen
Ansatz läßt sich mit 32 Knotenvariablen realisieren. Zweckmäßig sind hier die
Werte von u, ux , uy, U z in den acht Eckpunkten.
Neben den Elementen der Serendipity-Familie sind auch dreidimensionale
Elemente der Lagrange-K1asse denkbar. Doch sind sie infolge der Knoten-
154 2 Elemente und Elementmatrizen

punkte auf den Seitenflächen und im Innern des Parallelepipeds aus prakti-
schen Gründen nicht zu empfehlen.

2.7.3 Prismenelemente

Die Diskretisierung eines komplizierteren räumlichen Grundgebietes wird


gelegentlich vereinfacht, falls man neben Parallelepipeden noch prismatische
Elemente verwendet, welche mit den vorerwähnten Elementen kombinierbar
sind. Damit sind insbesondere Prismen mit Dreiecksquerschnitt gemeint, die
als Füllelemente gebraucht werden können. Ein allgemeines schiefes dreiecki-
ges Prisma der Fig. 2.47 läßt sieh auf ein Normalprisma der Fig. 2.48 vermittels
einer linearen Transformation (2.194) abbilden.

""
/'
/'
/'
./
./, ""
x P1 P2 S
Fig.2.47 Allgemeines dreieckiges Prisma Fig,2.48 Einheitsprisma

Der einfachste Ansatz, welcher mit den linearen Parallelepipeden und den
linearen Tetraedern Stetigkeit gewährleistet, ist
u(~, 1'/, 0 = a1 + a2~ + a31'/ + a4( + as~( + a6rt(. (2.199)
In der Tat reduziert sich der Ansatz (2.199) auf jeder Rechteckseite auf eine
bilineare Funktion und auf jeder Dreieckseite auf eine lineare Funktion, die
durch die Funktionswerte in den Ecken eindeutig festgelegt sind.
Ergänzt man das Prisma durch die neun Kantenmittelpunkte zu einem
Element mit 15 Knotenpunkten, ist ein gleichsam mit den Parallelepiped- und
Tetraederelementen mit quadratischen Ansätzen kombinierbarer konformer
Ansatz gegeben durch
u(~, rt, 0 = a1+ a2~ + a31'/ + a4( + ase + a6~1'/ + a 7~( + ag 1'/2 + a9rt( + alO(2
+ all e( + a12~'1( + a13~(2 + a14'1 2( + a lS'1(2 (2.200)
Man überzeugt sich leicht davon, daß sich (2.200) auf jeder Rechteckseite auf
eine Funktion vom Typus (2.70) reduziert, während sie auf jeder Dreieckseite
vollständig quadratisch ist.
2.6 Plattenelemente 155

2.7.4 Isoparametrische Elemente

Die Verwendung von isoparametrischen räumlichen Elementen macht die


Erfassung von allgemeinen Grundgebieten möglich. Wie bei zweidimensiona-
len isoparametrischen Elementen empfiehlt es sich auch hier, mit den
entsprechenden Formfunktionen zu arbeiten. Die zahlenmäßige Berechnung
der Elementmatrizen muß mit Hilfe einer numerischen Integrationsformel
erfolgen. Die praktische Durchführung folgt sinngemäß dem in Abschn. 2.4.3
dargestellten Vorgehen. Drei Beispiele von isoparametrischen Elementen
mögen das Prinzip illustrieren (Fig. 2.49).

Fig.2.49 Isoparametrisches Tetraeder-, Quader- und Prismenelement


3 Das Gesamtproblem

Wir wenden uns jetzt der Aufgabe zu, aus den Integralbeiträgen der einzelnen
Elemente die zugehörigen Gleichungssysteme von konkreten stationären
Problemstellungen, bzw. die Matrizenpaare von Eigenwertaufgaben aufzu-
bauen. Dies wird ein weitgehend organisatorisches Problem der zweckmäßi-
gen Datenvorbereitung sein, um daraus die Gesamtmatrizen kompilieren zu
können. Weiter wird gezeigt, wie die Randbedingungen geeignet berücksich-
tigt werden können, und wie optimale Numerierungen der Knotenvariablen
gefunden werden können, um die Gleichungssysteme und Eigenwertaufgaben
effizient zu lösen. In diesem Zusammenhang wird auch der Prozeß der
Kondensation behandelt, mit welchem die Zahl der Knotenvariablen reduziert
wird.

3.1 Aufbau der algebraischen Gleichungen

3.1.1 Allgemeine Vorbereitungen

Da zur Lösung einer gegebenen Problemstellung oft verschiedene Element-


typen bezüglich Grad der Ansatzfunktion und der zugehörigen Elementkno-
tenvariablen zur Verfügung stehen, ist als erstes zu entscheiden, welche Art
von Elementen verwendet werden sollen. Dieser Entscheid hat einen Einfluß
auf die Diskretisa tion des Grundgebietes, denn ein Ansatz niedrigen Grades
verlangt eine feinere Einteilung als ein höhergradiger Ansatz, um eine gleich
gute approximierende Lösung zu erzielen. Die Feinheit der Elementeinteilung
ist einerseits abhängig von der gewünschten Genauigkeit der zu berechnenden
Lösung, sie muß anderseits auch bestimmten Problemcharakteristiken geeig-
net Rechnung tragen. So erfordern etwa einspringende Ecken in ihrer
Umgebung lokal feinere Einteilungen genauso wie Teilgebiete mit zu erwar-
tenden großen Spannungsänderungen bei elastomechanischen Problemen.
Nach erfolgter Elementeinteilung werden die Knotenpunkte, bzw. die
Knotenvariablen durchnumeriert. Die Frage nach der geeigneten Durch-
numerierung wird sich nach der Diskussion der resultierenden Matrizen
beantworten lassen. Die zu erfüllenden Randbedingungen sollen momentan
noch außer acht gelassen werden. Ihre Berücksichtigung wird im Abschn. 3.1.3
behandelt werden.
Falls zujedem Knotenpunkt gleich viele Knotenvariable gehören, so genügt es
die Knotenpunkte durchzunumerieren, da sich daraus unter der üblichen
Annahme, daß die Knotenvariablen pro Punkt fortlaufende Nummern
erhalten, die Nummern der Variablen einfach ableiten lassen. Dies ist
besonders für kubische Elemente mit partiellen Ableitungen als Knotenvaria-
3.1 Aufbau der algebraischen Gleichungen 157

bIen wie auch für Elemente zu elastomechanischen Problemen von Bedeutung,


da im letzten Fall zu jedem Knotenpunkt ohnehin mehr als eine Knotenvaria-
ble gehört. Für die Problemvorbereitung resultiert so eine wesentliche
Vereinfachung, welche erklärt, warum Elemente mit gleicher Anzahl von
Knotenvariablen pro Knotenpunkt in der Rechenpraxis bevorzugt werden.
Zur Berechnung der Elementmatrizen werden die Koordinaten der Eck-
punkte im Fall von geradlinigen Dreieck- und Parallelogrammelementen
benötigt. Für krummlinige isoparametrische Elemente sind noch die Koordi-
naten von Zwischenpunkten oder eventuell die Angabe von partiellen
Ableitungen erforderlich. Diese Daten sind entsprechend der gewählten
Numerierung bereitzustellen.
Schließlich sind für sämtliche Elemente die sie charakterisierenden Daten
zusammenzustellen. Die erforderlichen Daten sind weitgehend vom Problem
abhängig. Sie umfassen auf jeden Fall die Nummern der am Element
beteiligten Knotenvariablen, eventuell vereinfachend nur die Nummern der
Knotenpunkte und weiter die von Element zu Element variierenden Problem-
größen wie kontinuierliche Belastungen oder Koeffizienten. Wenn hier
allgemein von Elementen gesprochen wurde, sind bei zweidimensionalen
Problemen Randelemente eingeschlossen.

Fig.3.1
Grundgebiet zur Illustration

Beispiel3.1 Die notwendige Datenvorbereitung soll an einem recht einfachen


Problem ausführlich beschrieben werden. Für das Grundgebiet G der Fig. 3.1
soll der Integralausdruck

1= ij [~ (u; + u;) - 2u 1dx dy (3.1)

extremal gemacht werden unter Randbedingungen, die wir vorderhand nicht


berücksichtigen. Zur Lösung sollen quadratische Ansätze in Dreieckelemen-
ten verwendet werden. Die Elementeinteilung und die Numerierung der
Knotenpunkte, welche hier identisch ist mit derjenigen der Knotenvariablen,
158 3 Das Gesamtproblem

sind in Fig. 3.1 ebenfalls angegeben. Die Elemente wurden ebenfalls durch-
numeriert, um darauf Bezug nehmen zu können. Da nur geradlinige Dreiecke-
1emente auftreten, werden nur die Koordinaten der 13 Eckpunkte benötigt. Bei
der Bereitstellung der Knotennummern pro Element ist die Reihenfolge der
Referenznumerierung von Fig. 2.10 streng zu beachten. Beginnend mit
einem beliebigen Eckpunkt folgen die beiden weiteren Eckpunkte im Gegen-
uhrzeigersinn und anschließend die drei Nummern der Seitenmittelpunkte in
entsprechender Reihenfolge. Da p = 0 undf= -2 für alle Elemente gilt, sind
in Tab. 3.1 nur die übrigen Daten zusammengefaßt. ...

3.1.2 Kompilation der Gesamtmatrizen

Die Beiträge der einzelnen Elemente in Form von quadratischen Formen und
Linearformen in den zugehörigen Knotenvariablen sind je zu den gesamten
quadratischen Formen und Linearformen aufzusummieren. Nach den Aus-
führungen von Abschn. 1.5 sind nur die Gesamtmatrizen und der Gesamtvek-
tor der Linearform zu berechnen, die sich aus den Elementmatrizen und
Elementvektoren unter Berücksichtigung der aktuellen Nummern der am
Element beteiligten Knotenvariablen durch Superposition berechnen lassen.
Ganz allgemein beschreibt sich dieser Kompilationsprozeß wie folgt: Steht in
der Liste der Nummern der Knotenvariablen an der Positionj die Nummer p
und an der Position k die Nummer q, so ist beispielsweise der Wert des Elemen-
tes sJ) der Elementsteifigkeitsmatrix Se zum Element Spq der Gesamtstei-
figkeitsmatrix S zu addieren. Ferner ist die Komponente bj") des Element-
vektors he zur Komponente bp des Gesamtvektors h zu addieren. Aus Sym-
metriegründen ist nur die untere Hälfte der Gesamtsteifigkeitsmatrix aufzu-
bauen, d. h. die Addition eines Elementes der Elementmatrix zur Gesamtma-
trix erfolgt nur im Fall q <,.p.
Der Kompilationsprozeß ist in Fig. 3.2 im Fall des Beispiels 3.1 veranschau-
licht. Um das Prinzip zu erklären, ist die vereinfachende Annahme getroffen
worden, daß die Elementsteifigkeitsmatrix Se voll besetzt sei. Für recht-
winklige Dreieckelemente sind einige Werte in Se gleich Null. Der Element-
vektor he enthält hingegen für beliebige Dreieckelemente nur die drei letzten
von Null verschiedenen Komponenten. Dies ist in Fig.3.2 berücksichtigt.
Um die Übersichtlichkeit zu wahren, sind als Ausschnitt nur die verschieden
markierten Beiträge der ersten vier Elemente gemäß Tab. 3.1 schematisch
dargestellt.
An diesem Ausschnitt der Gesamtsteifigkeitsmatrix S erkennt man bereits,
daß S nur schwach mit von Null verschiedenen Elementen besetzt ist. Da die
weiteren Elemente nur Knotenvariablen enthalten, deren Nummern größer als
10 sind, bleiben die 10 ersten Zeilen und Kolonnen durch den nachfolgenden
Kompilationsprozeß unverändert. Aus dieser Bemerkung folgt weiter, daß die
3.1 Aufbau der algebraischen Gleichungen 159

I. :2. 3. Y. S:. 6. 7. 8. 9. H21.11.1:2.13.IY.IS:.16.

I. 000 00 o
:2. 000 00 o o
3. OOSooO$$O $+$
Y. 000 00 o o
S:. 000 00<> 0<><>
6. 000 00 0 o
7. 00$ 0$+ $++ $
8. $00 +$0 ++$ $
9. 000 00<> 0<><> o
1121. <> <><> <><><> <>
11·00$ 0$+ $++
1:2.
13.
+ ++ +++
$00 +$0<>++$<><>
+
IY. <> <><> <><><> <>
I S:. <> <><> <><><>
16.

Fig.3.2 Aufbau der Steifigkeitsmatrix und des Gesamtvektors


o 1. Element; + 2. Element; 03. Element; 04. Element

Tab.3.1 Daten zu Beispiel 3.1

Eckenkoordinaten Element Knotennummern pro Element


k Xk Yk PI P2 P3 P4 Ps P6
1 0 2 1 1 3 11 2 7 6
3 0 1 2 3 13 11 8 12 7
5 0 0 3 5 13 3 9 8 4
11 1 2 4 5 15 13 10 14 9
13 1 1 5 11 13 24 12 18 17
15 1 0 6 13 26 24 19 25 18
22 1,5 -0,5 7 15 26 13 20 19 14
24 2 2 8 15 28 26 21 27 20
26 2 1 9 15 22 28 16 23 21
28 2 0 10 26 33 24 30 29 25
33 3 2 11 26 35 33 31 34 30
35 3 1 12 28 35 26 32 31 27
38 4 2 13 35 38 33 37 36 34
160 3 Das Gesamtproblem

Gesamtmatrix eine Bandstruktur aufweist. Unter der Bandbreite einer


Bandmatrix S verstehen wir im folgenden die kleinste Zahl m, so daß

Sik=O für alle i,k mit li-kl >m (3.2)

gilt. Die Bandbreite ist somit gleich der Anzahl der Nebendiagonalen
oberhalb, resp. unterhalb der Hauptdiagonalen, welche von Null verschiedene
Matrixelemente enthalten. Sie ist gegeben durch das Maximum der maximalen
Indexdifferenzen der Knotenvariablen pro Element. Die Bandbreite der
Gesamtsteifigkeitsmatrix S für das Beispiel 3.1 ist gemäß Tab. 3.1 m = 13. Die
Bandbreite hängt ganz offensichtlich von der Numerierung der Knotenvaria-
blen ab.

0 0 0 514

0 0 523 524

0 532 533 534

541 542 543 544

551 552 553 554

561 562 563 %4

571 572 573 574 Fig.3.3


581 SS2 583 584
Speicherung der wesentlichen Elemente einer
symmetrischen Bandmatrix S

Die Bandstruktur und die Symmetrie von S können zur Speicherung der
relevanten Matrixelemente der unteren Hälfte, etwa im Hinblick auf die
Lösung eines linearen Gleichungssystems mit der Methode von Cholesky,
ausgenützt werden. Eine naheliegende und zumindest für Skalarrechner
geeignete Speicherung von S besteht darin, die Matrixelemente der Hauptdia-
gonale und der m Subdiagonalen in einem rechteckigen Bereich so anzuord-
nen, daß die Diagonalen als Kolonnen erscheinen und die Diagonalelemente
von S die letzte, d. h. (m + l)-te Kolonne bilden. In Fig. 3.3 ist die Speicher-
anordnung für eine symmetrische Bandmatrix der Ordnung n = 8 und der
Bandbreite m = 3 dargestellt. Man beachte, daß die i-te Zeile von S auch als
i-te Zeile des Feldes erscheint, und daß die Zuordnung

(3.3)

die notwendige Indexsubstitution definiert. Die nicht definierten Elemente im


linken oberen Dreieckbereich werden beispielsweise gleich Null gesetzt.
3.1 Aufbau der algebraischen Gleichungen 161

3.1.3 Die Berücksichtigung der Randbedingungen

Die Gesamtmatrizen und der Gesamtvektor wurden in Abschn. 3.1.2 unter der
ausdrücklichen Annahme aufgebaut, daß die Randbedingungen noch unbe-
rücksichtigt bleiben. Die so entstehende Gesamtsteifigkeitsmatrix S ist aber
auf jeden Fall singulär, so daß das zugehörige Gleichungssystem zu statischen
Problemen keine eindeutige Lösung besitzt. Beim Fehlen von irgendwelchen
geometrischen oder kinematischen Randbedingungen ist bei Dirichletschen
Randwertaufgaben der Vektor u der Knotenvariablen, welcher der konstanten
Lösung u(x,y) = const. entspricht, Lösung der homogenen Gleichungen
Su = 0, und bei elastomechanischen Problemen für Balken, Scheiben und
Platten sind die anschaulichen Verschiebungen der Körper als starre Systeme
ebenfalls Lösung der homogenen Gleichungen. Bei elastomechanischen
Problemen bezeichnet man diese Situation als statisch unbestimmte
Lagerung. Erst die korrekte und vollständige Berücksichtigung der problem-
gerechten Randbedingungen macht die linearen Gleichungssysteme eindeutig
lösbar. Statisch unbestimmte Systeme werden dadurch in statisch bestimmte
Systeme überführt. Für ein statisch bestimmtes System liefert jede nicht
identisch verschwindende Verschiebung einen positiven Wert der Deforma-
tionsenergie, welche durch die quadratische Form .l uT Su mit der Gesamt-
2
steifigkeitsmatrix S gegeben wird. Nach Berücksichtigung der Randbedingun-
gen wird damit die Matrix des linearen Gleichungssystems nicht nur regulär
sondern sogar positiv definit.
Die Berücksichtigung der Randbedingungen kann auf zwei Arten erfolgen.
Zuerst beschreiben wir das übliche Vorgehen und dann eine Alternative,
welche im Zusammenhang mit speziellen Lösungsmethoden eine gewisse Rolle
spielt.
Für eine statische AufgabensteIlung seien die Gesamtsteifigkeitsmatrix Sund
der Gesamtvektor b nach der in Abschn. 3.1.2 beschriebenen Methode ohne
Rücksicht auf Randbedingungen kompiliert worden. Die Ordnung n der
Matrix S und die Dimension des Vektors b ist gleich der Totalzahl der
Knotenvariablen zugehörig zur vorgenommenen Diskretisation, und das
Gleichungssystem als notwendige Bedingung für das Stationärwerden des
Funktionals lautet
Su+b=O. (3.4)
Bei Dirichletschen Randwertaufgaben oder elastomechanischen Problemen
sind für einige der Knotenvariablen ganz bestimmte Werte vorgegeben. Diese
vorgegebenen Zahlwerte können in (3.4) durch entsprechende Modifikationen
berücksichtigt werden, wobei darauf zu achten ist, daß die Symmetrie nicht
zerstört wird.
162 3 Das Gesamtproblem

Eine homogene Randbedingung erfordert die einfachsten Maßnahmen. Ist


ftir diej-te Knotenvariable der Wert Null vorgeschrieben, genügt es, in S diej-
te Zeile und Kolonne durch Nullelemente zu ersetzen, das j-te Diagonalele-
ment anschließend gleich Eins zu setzen und weiter die j-te Komponente in b
durch eine Null zu ersetzen. Dadurch erhält die j-te Knotenvariable in der
Lösung des modifizierten Gleichungssystems offensichtlich den geforderten
Wert Null.
Die Berücksichtigung einer inhomogenen Randbedingung benötigt eine
weitere Umformung. Ist ftir die k-te Knotenvariable der von Null verschiedene
Wert 'Pk vorgeschrieben, ist zu beachten, daß die Knotenvariable in allen
Gleichungen einen Beitrag zum Konstantenvektor b liefert, welcher das
'Pk-fache des k-ten Spaltenvektors Sk von S beträgt. Folglich ist zuerst zu b das
'Pk-fache von Sk zu addieren, um erst dann die oben beschriebenen Modifika-
tionen in S vorzunehmen und in h noch die k-te Komponente durch -'Pk zu
ersetzen.
Bei der algorithmischen Durchführung der Modifikationen ist die Bandstruk-
tur der Matrix S zu beachten, weshalb im Fall einer inhomogenen Randbedin-
gung in b höchstens 2m + I Komponenten betroffen werden. Ist der wesentli-
che Teil der Matrix S nach Fig. 3.3 gespeichert, stehen die Elemente der k-ten
Spalte von S in der von Sk, m + I schräg nach links unten verlaufenden
Diagonalen und aus Symmetriegründen in der k-ten Zeile zur Verfügung. Das
Nullsetzen der k-ten Zeile und Kolonne betrifft genau diese Elemente.
Das beschriebene Vorgehen hat den bestechenden Vorteil, daß die Gesamt-
steifigkeitsmatrix S und der Vektor h ganz unabhängig von irgendwelchen
Randbedingungen aufgebaut werden können, um erst dann die gegebenen
Werte von bestimmten Knotenvariablen zu berücksichtigen. Die erforderli-
chen nachträglichen Modifikationen sind äußerst einfach in einem Rechen-
programm zu realisieren. Als kleiner Nachteil der Methode wird in Kauf
genommen, daß die Ordnung des lösenden Gleichungssystems nicht redu-
ziert wird und das System eine Reihe von trivialen Gleichungen enthält.
Die Auflösung erfordert deshalb einen etwas größeren Rechenaufwand im
Vergleich zu einem System für die allein unbekannten Knotenvariablen.
Der Mehraufwand ist aber durchaus vertretbar, da die Anzahl der durch
Randbedingungen vorgegebenen Knotenvariablen recht klein ist. Für die
Rechenpraxis sind aber weitere Vorteile dieser Methode ausschlaggebend.
Soll etwa eine Reihe von Problemen ftir dasselbe Grundgebiet, aber unter
verschiedenen Randbedingungen gelöst werden, kann dies unter Benützung
derselben Numerierung der Knotenvariablen sehr zweckmäßig erfolgen,
indem nur die Daten der Randbedingungen für die einzelnen Probleme
neu vorzubereiten sind. Oder sollen etwa bei Scheibenproblemen aus den
Werten der Knotenvariablen die Spannungen berechnet werden, so sind
die gesuchten und die durch Randbedingungen gegebenen Knotenvariablen
3.1 Aufbau der algebraischen Gleichungen 163

im Lösungsvektor vollständig zusammengestellt und sind für die weitere


Rechnung verfügbar.
Die Behandlung der stets homogenen Randbedingungen bei Schwingungs-
aufgaben in der Gesamtsteifigkeitsmatrix S und der Gesamtmassenmatrix M
erfolgt sinnvollerweise nach einem andern Schema. Jede Knotenvariable, die
auf Grund der Randbedingungen den Wert Null annehmen muß, ist aus der
Eigenwertaufgabe zu eliminieren. Dies erfolgt dadurch, daß die betreffenden
Zeilen und Kolonnen in den Matrizen Sund M gestrichen werden, wodurch
sich nun auch die Ordnung reduziert. Die tatsächliche Streichung einer
einzigen Zeile und einer Kolonne ist mit einem Zusammenschieben der Matrix
verbunden. In Fig. 3.4 ist die Streichung einer Zeile und der zugehörigen
Kolonne im wesentlichen unteren Teil eines Ausschnittes einer Bandmatrix
der Bandbreite m = 4 dargestellt. Die eingerahmten Elemente seien zu
streichen. Die Elemente im Dreiecksbereich sind nach oben zu schieben, und
am frei werdenden rechten Rand sind m Nullelemente einzusetzen. Die
Matrixelemente rechts der zu streichenden Kolonne verschieben sich im Band
schräg nach links oben um eine Position. In der Anordnung der Matrixelemen-
te nach Fig. 3.3 bedeutet dies eine Umspeicherung der Elemente im Bereich A
um eine Position schräg nach rechts oben, im Bereich B um eine Position nach
oben und das Einsetzen von m Nullen am linken Rand des verschobenen
Bereiches A (vgl. Fig. 3.5).
Sind auf Grund der Randbedingungen mehrere Zeilen und Kolonnen zu
streichen, wird der Prozeß schrittweise vorgenommen. Zweckmäßigerweise
werden die Knotenvariablen in abnehmender Indexreihenfolge eliminiert,
weil dann die zu streichenden Zeilen und Kolonnen noch an der ursprüngli-
chen Stelle stehen.
Im Prinzip läßt sich der Prozeß der Komprimierung der Matrizen umgehen,
indem man nur die Zeilen und Kolonnen der durch die Randbedingungen
x x
xx xx o o
xxx xxx
xxxx xxxx
xxxxx xxxxx
xxxxx xxxxx
lXXXXX oxxxx
xxxxx oxxxx A
xxxxx oxxxx
xxxxx oxxxx
xxxxx xxxxx 8
xxxxx xxxxx
xxxxx
Fig.3.4 Streichen einer Zeile und einer Kolonne in der Fig.3.5 Zur Umspeiche-
normalen Anordnung der Matrix, untere Hälfte rung in der
des Bandes speziellen An-
ordnung der
unteren Hälfte
164 3 Das Gesamtproblem

vorgeschriebenen Knotenvariablen Null setzt und anschließend den betreffen-


den Diagonalelementen beispielweise den Wert Eins zuordnet. Beip Randbe-
dingungen wird auf diese Weise der p-fache Eigenwert Eins künstlich erzeugt,
welcher mit der Problemstellung gar nichts zu tun hat. Durch andere
Festsetzung der Werte der Diagonalelemente besteht eine Freiheit in der Wahl
des zusätzlichen Eigenwertes, der aber so gewählt werden soll, daß er nicht mit
den gewünschten Eigenwerten in irgend einer Weise interferiert oder das
Verfahren zur Bestimmung der gewünschten Eigenwerte ungünstig beeinflußt
(vgl. dazu KapitelS). Als Nachteil dieser Behandlung der Randbedingungen
wird die Ordnung des zu lösenden Eigenwertproblems nicht reduziert. Der
dadurch bedingte Mehraufwand fallt aber bei Eigenwertaufgaben stärker ins
Gewicht als bei Gleichungssystemen.
Abschließend soll noch auf eine andere Möglichkeit verwiesen werden, den
Randbedingungen so Rechnung zu tragen, daß durch den Kompilationspro-
zeß unmittelbar das lineare Gleichungssystem, bzw. die beiden Matrizen Sund
M für die eigentlichen unbekannten Knotenvariablen resultieren. Dazu
braucht man nur den nunbekannten Knotenvariablen die fortlaufenden
Nummern 1 bis n zu geben und den durch Randbedingungen gegebenen
Knotenvariablen die Nummern n + 1 und folgende. Die Numerierung kenn-
zeichnet damit apriori die gesuchten und bekannten Knotenvariablen.
Für Dirichletsche Randwertaufgaben oder statische Probleme der Elastome-
chanik sind neben den Eckenkoordinaten auch die Werte der bekannten
Knotenvariablen vor Beginn des Kompilationsprozesses vorzugeben. In
Modifikation des in Abschn. 3.1.2 beschriebenen Prozesses liefert eine Ele-
mentsteifigkeitsmatrix Se nur mit jenen Matrixelementen einen additiven
Beitrag zur Matrix S, falls das Paar der zugehörigen aktuellen Knotenvaria-
blen Indizes nicht größer als n hat. Ist hingegen eine der beiden Nummern
größer als n, so ist das Produkt des Matrixelementes mit dem entsprechenden
Randwert der Knotenvariablen zu derjenigen Komponente von b zu addieren,
welche dem andern kleineren Indexwert entspricht. Für jedes solche Indexpaar
hat die Addition nur einmal zu erfolgen, wie sofort aus dem quadratischen
Funktional für ein Element hervorgeht.

_l -lI
ne ne ne ne

Ie - -
2
T
Ue SeUe + beT Ue - -
2 i=]
s~)ul + I
i=]
I
j=i+]
(e)
Sij UiUj + I
i=]
bie)ui

(3.5)
Für eine Elementknotenvariable Ui mit einem aktuellen Index nicht größer als
n und eine Variable Uj mit aktueller Nummer größer als n liefert in der Tat der
Summand Si)e) Ui Uj bei fest gegebenem Wert für Uj einen in Ui linearen Term, der
wie b/ e ) einen Beitrag zu b ergibt. Sind schließlich beide aktuellen Indizes
größer als n, ergibt das betreffende Matrixelement multipliziert mit den beiden
zugehörigen Randwerten einen Beitrag zur Konstanten ein (1.119), welche im
3.1 Aufbau der algebraischen Gleichungen 165

Gleichungssystem (1.120) gar nicht mehr erscheint. Folglich kann dieser


Beitrag unberücksichtigt bleiben. Für die Addition des Elementvektors be in
den Vektor b ist selbstverständlich eine analoge Fallunterscheidung notwen-
dig.
Die Berücksichtigung der homogenen Randbedingungen bei Schwingungsauf-
gaben gestaltet sich besonders einfach, indem von Se und Me nur jene
Matrixelemente additive Beiträge zu Sund M liefern, falls beide Indizes der
zugehörigen aktuellen Knotenvariablen nicht größer als n sind.
Mathematisch ist die zweite Methode der Kompilation befriedigender, weil der
Umweg über zu große Matrizen vermieden wird und auf direktem Weg die zu
lösenden Gleichungssysteme ohne triviale Gleichungen und die Eigenwertauf-
gaben erzeugt werden. Für elliptische Randwertaufgaben wie auch für gewisse
Schwingungsaufgaben hat diese Methode zumindest ihre Berechtigung. Aus
praktischen Gründen weist sie aber für elastomechanische Aufgaben eine
Reihe von Nachteilen auf, welche vor allem die Datenvorbereitung und dann
auch das zugehörige Computerprogramm komplizierter gestalten. Die Kno-
tenvariablen, welche Indizes größer als n erhalten, stören die durchgehende
und systematische Numerierung. Besonders augenfallig ist dies bei kubischen
Dreieck- und Parallelogrammelementen mit partiellen Ableitungen als Kno-
tenvariablen. Zujedem Eckpunkt gehören im Fall von ebenen Spannungspro-
blemen sechs Knotenvariab1e. Jede durch Randbedingungen vorgeschriebene
Variable erfordert eine Sonderbehandlung der Numerierung in den zugehöri-
gen Elementen und verunmöglicht eine die Problem vorbereitung wesentlich
vereinfachende Durchnumerierung der Eckknotenpunkte.

3.1.4 Grundsätzlicher Aufbau eines Computerprogramms

Ohne auf programmiertechnische Details einzugehen, ist in Fig. 3.6 das


Blockdiagramm eines Computerprogramms wiedergegeben, welches die we-
sentlichen Schritte zur Kompilation der algebraischen Gleichungen in sehr
allgemeiner Form beschreibt. Welche Daten im konkreten Fall tatsächlich von
einem Datenträger eingelesen werden, ist problemabhängig.

3.1.5 Zur Struktur der Matrizen

Die resultierenden Matrizen der Gleichungssysteme und Eigenwertprobleme


sind stets nur schwach mit von Null verschiedenen Matrixelementen besetzt.
Die i-te Zeile einer Matrix, welche der i-ten Knotenvariablen zugeordnet
werden kann, enthält außer dem Diagonalelement in der Kolonne j(j*!}
höchstens dann ein von Null verschiedenes Matrixelement, falls die i-te undj-
te Knotenvariable wenigstens einem Element gemeinsam angehören. Die
166 3 Das Gesamtproblem

Eingabe von allgemeinen Problemdaten wie


Zahl der Knotenvariablen, Zahl der Elemente,
Zahl der Eckpunkte, Bandbreite der Matrizen,
allgemein gültige physikalische Konstanten,
etc.

Eingabe der Eckenkoordinaten.


Nullsetzen der Gesamtmatrizen
und des Gesamtvektors.

Eingabe der Daten des i-ten Elementes:


Typus, beteiligte Knotenvariable,
weitere Parameter des Elementes.
Berechnung der zugehörigen Elementbeiträge
entsprechend des Typus.
Addition der Beiträge zu den Gesamtmatrizen
und dem Gesamtvektor.

Berücksichtigung der Randbedingungen durch


Modifikation der Gesamtmatrizen und des
Gesamtvektors.

Lösen der algebraischen Gleichungen.

Ausgabe der Lösungen und ev. von


weiteren daraus berechneten Ergebnissen.
Fig.3.6
Blockdiagramm eines
Computerprogramms

Position der von Null verschiedenen Außendiagonalelemente hängt deshalb


wesentlich von der gewählten Numerierung der Knotenvariablen ab. Im
speziellen wird die Bandbreite der Matrix oder allgemeiner die Struktur der
Matrix durch die Numerierung beeinflußt. Diese Struktur wird ihrerseits in
3.1 Aufbau der algebraischen Gleichungen 167

Fig.3.7
Elementeinteilung des Grundgebietes
des Wärmeleitungsproblems.
108'-+--*---<--~-_"'--""'-
Quadratischer Ansatz

den Lösungsverfahren zu berücksichtigen sein, um die algebraischen Systeme


möglichst effizient zu lösen.
Beispiel3.2 Wir betrachten die Aufgabe, die stationäre Temperaturverteilung
aus Beispiel 1.1 zu berechnen. Das Problem soll mit geradlinigen Dreieckele-
menten mit quadratischem Ansatz behandelt werden. Die gewählte Triangu-
lierung des Grundgebietes ist in Fig.3.7 dargestellt. Die Totalzahl der
Knotenpunkte beträgt n = 114. Die Knotenpunkte werden im wesentlichen
zeilenweise von oben nach unten durchnumeriert, und es soll die erste in
Abschn. 3.1.3 beschriebene Methode zur Berücksichtigung der Randbedin-
gungen zur Anwendung gelangen. Die Fig. 3.8 zeigt die Besetzungsstruktur
der Gesamtsteifigkeitsmatrix S der Ordnung n = 114 unter der Annahme, daß
die Steifigkeitselementmatrizen Se voll besetzt sind. Dies trifft allerdings für
rechtwinklig gleichschenklige Dreieckelemente nicht zu, so daß die tatsächli-
che Besetzung wie auch die Bandbreite kleiner sind. Überdies sind in Fig. 3.8
noch keine Randbedingungen berücksichtigt worden, welche die Knoten 1, 8,
168 3 Das Gesamtproblem

s==
Fig.3.8
Potentielle Beset-
zung der Gesamt-
steifigkeitsmatrix
S, quadratische
Elemente

14, 20 und 27 betreffen. Schließlich stellt man an der Fig.3.8 fest, daß die
potentielle Bandbreite m = 27 nur durch wenige Matrixelemente bestimmt
wird und das Band selbst viele verschwindende Matrixelemente enthält.
Dieselbe Aufgabe soll auch mit Hilfe von kubischen Dreieckelementen gelöst
werden unter Verwendung derselben Triangulierung. Ferner gelangt das
kubische Dreieckelement nach Zienkiewicz mit neun Knotenvariablen zur
Anwendung. Zu jedem Knotenpunkt gehören die drei Knotenvariablen
U, ux , UY. Die Kompilation der Gesamtsteifigkeitsmatrix S soll wieder nach der
ersten in Abschn. 3.1.3 beschriebenen Methode erfolgen, so daß die Knoten-
punkte von I bis 35 durchnumeriert werden können (siehe Fig. 3.9). Ist k die
Nummer eines Knotenpunktes, so sind die zugehörigen Indizes der drei
Knotenvariablen gegeben durch 3k - 2, 3k - I, 3k. Für diesen Ansatz ergeben
sich somit insgesamt n = 105 Knotenvariable.
In Fig. 3.10 ist die Besetzungsstruktur der zugehörigen Gesamtsteifigkeitsma-
trix S vereinfachend so dargestellt, daß jede (3 X 3)-Untermatrix, die einem
einzelnen Knotenpunkt entspricht, durch ein ~ gekennzeichnet ist. Da die
maximale Differenz der Knotennummern pro Element gleich 8 ist, beträgt die
Bandbreite von Sm = 26. Im Vergleich zur Fig. 3.8 ist das Band stärker besetzt
als Folge des höhergradigen Ansatzes. Wie dort wird die Bandbreite nur in
sehr wenigen der 105 Zeilen wirklich ausgeschöpft. Die Bandbreite läßt sich
vermittels einer geeigneteren Numerierung der Knotenpunkte verringern, wie
im folgenden Abschnitt gezeigt werden wird. A
Beispiel3.3 Das in Beispiel!.1 formulierte Problem sei so beschaffen, daß
entweder auf Grund von unsymmetrischen Randbedingungen oder unsymme-
3.1 Aufbau der algebraischen Gleichungen 169

Fig.3.9
Kubische Dreieckelemente,
Wärmeleitungsproblem 32 33 34 35

s==
Fig.3.10
Besetzung der
Matrix S rur
kubische Dreieck-
elemente
170 3 Das Gesamtproblem

trisch verteilten Wärmequellen die elliptische Randwertaufgabe für das ganze


Gebiet zu lösen sei. Zur Lösung sollen wie im Beispie13.2 die kubischen
Dreiecke1emente mit neun Knotenvariablen verwendet werden. Da jeder
Knotenpunkt drei Knotenvariable aufweist, genügt es, nur die Verknüpfungen
der Knotenpunkte durch die Elemente zu betrachten, um dann in der
resultierenden prinzipiellen Besetzungsstruktur jedes Matrixelement durch
eine im allgemeinen voll besetzte dreireihige Matrix zu ersetzen.

Fig.3.11

,
Triangu1ierung des vollständigen
Grundgebietes

."'1
....
~ ..
: -t=- •

s==
Fig.3.12
Besetzungsstruktur
von S für das
Ringgebiet
3.2 Optimale Numerierung der Knotenvariablen 171

Die Triangulierung sei symmetrisch zu Fig. 3.9 fortgesetzt (vgl. Fig. 3.11). Bei
zeilenweiser Durchnumerierung der Knotenpunkte würde eine Bandmatrix
mit einer recht großen Bandbreite resultieren. Statt dessen sollen die Knoten
gemäß Fig. 3.11 je radial im Gegenuhrzeigersinn numeriert werden. Die
Gesamtmatrix S weist im wesentlichen eine Bandstruktur auf. Da aber die
Knotenpunkte 1 und 2 mit den Knotenpunkten 64 bis 66 durch Dreiecksseiten
verbunden sind, existieren in der rechten oberen und linken unteren Ecke von
Null verschiedene Untermatrizen der Ordnung drei (vgl. Fig. 3.12). Ähnlich
strukturierte Matrizen treten in der Praxis im Fall von ringförmigen Grundge-
bieten und entsprechender Numerierung, aber auch bei periodischen Randbe-
dingungen auf. ~

3.2 Optimale Numerierung der Knotenvariablen

Die Diskussion im Abschn.3.1.5 hat gezeigt, daß die Numerierung der


Knotenpunkte einen entscheidenden Einfluß auf die Besetzungsstruktur der
resultierenden Matrizen hat. Für direkte Methoden zur Lösung der Glei-
chungssysteme und für die meisten Verfahren zur Behandlung der Eigenwert-
aufgaben ist entweder die Bandbreite oder in Verfeinerung das sogenannte
Profil einer Matrix entscheidend, indem diese Größen sowohl den Speicher-
bedarf als auch den Rechenaufwand bestimmen. Deshalb ist es wichtig, eine
möglichst optimale Numerierung zu finden, für welche entweder die Band-
breite oder besser das Profil minimal ist. Die für diesen Zweck entwickelten
Algorithmen sollen zu einer gegebenen Verknüpfung der Knotenvariablen
auf Grund der gewählten Elementeinteilung eine geeignete Numerierung der
Variablen liefern. Die Algorithmen arbeiten nach heuristischen Prinzipien
und liefern deshalb nicht mit Sicherheit die optimale Numerierung mit der
minimal möglichen Bandbreite oder dem minimalen Profil der zugehörigen
Matrizen. Die Prinzipien der Algorithmen geben Hinweise, wie man bei der
manuellen Vorbereitung einer Aufgabe zweckmäßig vorzugehen hat. Die
Algorithmen sind im Zusammenhang mit der automatischen Datenvorberei-
tung durch den Computer von eminenter Bedeutung, weil nach interaktiver
Festlegung der Elementeinteilung mit Hilfe des Bildschirms oder vollautoma-
tischer Netzgenerierung noch eine geeignete Numerierung bestimmt werden
muß.

3.2.1 Der Algorithmus von Cuthill-McKee

Der von Cuthill und McKee vorgeschlagene Algorithmus [Cut72, CuM69]


basiert auf einigen graphentheoretischen Überlegungen. Als Vorbereitung
werden deshalb diejenigen Begriffe und Tatsachen aus der Graphentheorie
172 3 Das Gesamtproblem

zusammengestellt, soweit sie für das Verständnis des Algorithmus erforderlich


sind.
Es sei X= {X],X2, ... , xn } die Menge von n Knoten, die wir im folgenden von
1 bis n durchnumerieren werden. Ein ungeordnetes Paar (Xi, Xj) von zwei
verschiedenen Knoten heißt eine (ungerichtete) Kante zwischen dem Knoten
Xi und dem Knoten Xj. Ein Graph G besteht aus der Menge X und einer
Teilmenge aller möglichen Kanten. Falls die Kante (Xi, Xj) zu G gehört, dann
gehört auch (Xj, Xi) zu G, aber ein Graph Genthält definitionsgemäß keine
sogenannten Schleifen. Ein Graph G besitzt eine anschaulich geometrische
Darstellung wie etwa in Fig. 3.13 im Fall von fünf Knoten und sechs Kanten.
Formal läßt er sich durch eine symmetrische Verknüpfungsmatrix V
beschreiben mit Elementen

vi} = { 1, falls (Xi, Xj) E G


(3.6)
0, falls (Xi, Xj) tf:. G

Fig.3.13
Graph G

Zum Graphen der Fig. 3.13 gehört so die Matrix (3.7) der Ordnung n = 5.
0 1 0 0
0 1 0 1
V= 0 0 0 (3.7)
1 0 1 0 1
0 0 0
Umgekehrt kann einer beliebigen symmetrischen Matrix A ein Graph G(A)
zugeordnet werden, indem jedem Matrixelement Qij =fo 0 eine Kante (Xi, Xj)
entspricht. Dabei müssen die Diagonalelemente von A außer acht gelassen
werd~n, da ja G(A) keine Schleifen enthalten darf. Aus dem Graphen G(A)
geht somit nicht hervor, ob die Diagonalelemente gleich oder ungleich Null
sind. Im Hinblick auf die Anwendung auf Steifigkeitsmatrizen ist dies
bedeutungslos, da ihre Diagonalelemente ohnehin streng positiv sind.
Zwei Knoten Xi und Xj eines Graphen G heißen benachbart, falls sie durch
eine Kante direkt verbunden sind. Zwei Knoten Xi und Xj heißen verbunden,
3.2 Optimale Numerierung der Knotenvariablen 173

falls ein Kantenzug von Xi nach Xj existiert. Unter dem Grad eines Knotens
versteht man die Anzahl der Kanten, die vom betreffenden Knoten ausgehen
und ist damit gleich der Zahl der benachbarten Knoten. In einem Graphen
G(A) einer beliebigen symmetrischen Matrix A ist somit der Grad des Knotens
Xi gleich der Anzahl der von Null verschiedenen Nichtdiagonalelemente von A
in der i-ten Zeile.
Schließlich ist ein Untergraph eine Teilmenge eines Graphen, die selbst ein
Graph ist. Unter einem Baum versteht man einen Graphen, der einen Knoten
mehr als Kanten aufweist und keine isolierten Knoten besitzt, d. h. in welchem
jeder Knoten mit jedem andern Knoten verbunden ist.
Mit diesen wenigen Begriffen aus der Graphentheorie wenden wir uns dem
eigentlichen Algorithmus von Cuthill-McKee zu. Wir gehen davon aus, daß
der Graph G(S) der Steifigkeitsmatrix S zu einer gegebenen Diskretisierung
und zu einer Ausgangsnumerierung der Knotenvariablen, die jetzt gleichzeitig
die Rolle der Knoten in G(S) spielen, bekannt sei. Wir werden noch sehen, wie
der Graph G(S) auf Grund der einzelnen Elemente aufgebaut wird.
1. Schritt: Man suche in G(S) einen Knoten mit minimalem Grad. Dieser
Knoten sei der sogenannte Startknoten, und er bekomme die Nummer 1.
2. Schritt: Zum Startknoten Xl bestimme man alle benachbarten Knoten.
Diese Knoten sollen mit zunehmendem Grad fortlaufend numeriert werden.
Bei benachbarten Knoten mit gleichem Grad besteht selbstverständlich eine
Willkür in der Reihenfolge der Numerierung. Die in diesem Schritt numerier-
ten Knoten haben alle die Distanz 1 vom Startknoten Xl. Sie bilden die erste
Stufe.
3. Schritt: Zu den Knoten der ersten Stufe mit aufsteigenden (neuen)
Nummern bestimme man sukzessive ihre benachbarten und noch nicht neu
numerierten Knoten und numeriere sie je mit zunehmendem Grad. Die in
diesem Schritt numerierten Knoten besitzen die Distanz 2 vom Startknoten
und bilden die zweite Stufe im Numerierungsprozeß.
In den nachfolgenden allgemeinen Schritten verfährt man vollkommen analog
zum dritten Schritt, bis alle Knoten des Graphen, d. h. alle Knotenvariablen
durchnumeriert sind.
Die heuristische Begründung des beschriebenen Vorgehens besteht einfach
darin, daß im Graphen G(S) benachbarte Knoten möglichst bald im
Numerierungsprozeß berücksichtigt werden müssen, andernfalls große Index-
differenzen auftreten entsprechend einer großen Bandbreite von S. Die
Festsetzung, die Knoten innerhalb einer Stufe fortlaufend unter Berücksichti-
gung ihres zunehmenden Grades zu numerieren, beruht auf der einleuchten-
den Strategie, daß Knoten mit vielen Nachbarn möglichst hohe Nummern
erhalten sollen, um die im nächstfolgenden Schritt auftretenden Indexdifferen-
zen klein zu halten.
174 3 Das Gesamtproblem

Daß der Algorithmus mit einem Startknoten von minimalem Grad begonnen
werden soll, entspricht weitgehend einer Erfahrungstatsache. Im allgemeinen
existieren in einem Graphen C(S) mehrere Knoten mit minimalem Grad. Aus
diesem Grund ist der Prozeß mit allen Knoten mit minimalem Grad zu
wiederholen, um unter diesen Startknoten denjenigen zu finden, der die
kleinste Bandbreite liefert. Die resultierende Bandbreite ist in der Tat von der
Wahl des Startknotens abhängig (s. Beispiel 3.4). Ferner existieren Fälle von
Graphen, für welche der Algorithmus von Cuthill-McKee auf Grund ihres
speziellen Aufbaus nicht die minimale Bandbreite zu liefern vermag, falls nur
Startknoten minimalen Grades berücksichtigt werden. Deshalb ist es ange-
zeigt, auch Startknoten mit größerem Grad zuzulassen [CuM69].
Um die Güte der erzielten Bandbreite beurteilen zu können, sind Schranken
wünschenswert. Eine untere Schranke für die Bandbreite kann sofort
apriori aus dem Maximum der Grade aller Knoten von C(S) gewonnen
werden. Es sei D der maximale Grad. Zur zugehörigen Knotenvariablen
existieren somit in der betreffenden Zeile von S D von Null verschiedene
Nichtdiagonalelemente. Ist D gerade, so können diese Elemente bestenfalls je
zur Hälfte links und rechts des Diagonalelementes ohne dazwischenliegende
Nullelemente angeordnet sein, so daß die Bandbreite mindestens gleich D/2
sein muß. Ist D eine ungerade Zahl, so muß die Bandbreite mindestens gleich
(D + 1)/2 sein. Zusammenfassend gilt

m >[~ (D + 1) ] mit [x] = ganzer Teil von x. (3.8)

Eine obere Schranke für die Bandbreite läßt sich aposteriori aus dem
Algorithmus von Cuthill-McKee gewinnen und zwar auf Grund der Anzahl
der Knoten in den einzelnen Stufen. Betrachten wir zwei aufeinanderfolgende
Stufen kund k + 1 mit N k und Nk+ 1 Knoten. Falls im schlimmsten Fall der
kleinstindizierte Knoten im Niveau k mit dem größtindizierten Knoten im
Niveau k + 1 benachbart ist, resultiert eine Indexdifferenz von N k + Nk + 1 - 1.
Das Maximum dieser möglichen Indexdifferenzen über alle Stufen ist eine
sichere obere Schranke. Bei insgesamt v Stufen und mit der Festsetzung No = 1
für den Startknoten gilt
m< max
k= l •...• v
(Nk - 1 + Nk - 1). (3.9)

Ein Startknoten, für den die maximale Anzahl Knoten pro Stufe minimal ist,
liefert nach (3.9) eine kleine obere Schranke für die Bandbreite und stellt einen
aussichtsreichen Kandidaten für den Algorithmus dar.
Beispiel3.4 An einem übersichtlichen Graphen soll die prinzipielle Funk-
tionsweise des Algorithmus von Cuthill-McKee dargelegt werden. Gegeben sei
der Graph von Fig.3.14, in welchem die 16 Knoten mit Buchstaben
3.2 Optimale Numerierung der Knotenvariablen 175

c~--------~~--------~

Fig.3.14
Graph G(S)

Fig.3.15 Numerierung und Stufen für Fig.3.16 Numerierung und Stufen für
den Startknoten A den Startknoten C

gekennzeichnet sind, um im anschließenden Numerierungsprozeß eine klare


Situation zu schaffen. Als Startknoten mit minimalem Grad 3 kommen A, B,
e, H, I, M, N, P und Q in Betracht. Wir wollen aber den Prozeß nur für die
beiden Startknoten A und e betrachten. Die resultierenden Numerierungen
sind in Fig. 3.15 für A und in Fig. 3.16 für e zusammen mit den zugehörigen
Stufen dargestellt. Die Tab. 3.2 enthält alle Information über die Entscheidun-
gen für den Startknoten A. In diesem Fall ist die Numerierung zwangsläufig.
Im Fall des Startknotens e besteht zweimal eine Willkür, weil die Nachbarn
von G = 4, das sind Kund L, den gleichen Grad 6 aufweisen und im nächsten
Schritt die Nachbarn N und P von 9 je den Grad 3 haben.
Da der maximale Grad der Knoten für G gleich 7 ist, liefert (3.8) als untere
Schranke für die Bandbreite den Wert 4 für beide Fälle. Für Aals Startknoten
liefert (3.9) als obere Schranke 8, während sie tatsächlich m = 5 beträgt,
bestimmt durch die beiden Kanten (3, 8) und (4, 9) in Fig. 3.15. Mit e als
Startknoten ergibt (3.9) als obere Schranke für die Bandbreite 11 und ist
effektiv m=7, bestimmt durch die einzige Kante (4,11) in Fig.3.16. Die
beiden Startknoten mit minimalem Grad liefern in der Tat Numerierungen mit
deutlich verschiedenen Bandbreiten. Im zweiten Fall entstehen weniger Stufen
mit entsprechend mehr Knoten pro Stufe. Dies ist der Grund für die
resultierende größere Bandbreite.
176 3 Das Gesamtproblem

Tab. 3.2 Zum Ablauf des Algorithmus von Cuthill-McKee für den Startknoten A

Schritt Knoten Noch nicht numerierte Grad Nummer Nk


Nachbarknoten

1 1 B 3 2 3
D 6 4
E 5 3

2 2 C 3 5 5
3 F 4 7
K 6 8
M 3 6
4 G 7 9

3 5 - 4
6 N 3 10
7 -
8 0 5 11
9 H 3 12
L 6 13

4 10 -
11 P 3 14 3
12 I 3 15
13 Q 3 16

In den Fig. 3.15 und 3.16 wurde die Geschichte der Numerierung dadurch
hervorgehoben, daß die Kanten von den Knoten einer Stufe zu den neu
numerierten Nachbarknoten dicker gezeichnet wurden. Offenbar erzeugt der
Algorithmus von Cuthill-McKee zum gegebenen Graphen G einen gespann-
ten Baum. A.

Beispiel3.5 Auf die Diskretisierung des Beispiels 3.2 nach Fig.3.9 soll der
Algorithmus von Cuthill-McKee angewandt werden. Für jene Ausgangsnu-
merierung haben die Knotenpunkte 1 und 32 je den minimalen Grad 2, die
resultierenden maximalen Differenzen von Knotennummern pro Element
betragen jedoch 7 bzw. 8. Die Startpunkte mit den Nummern 4,12,31 und 35
vom Grad 3 liefern maximale Knotennummerndifferenzen von 6. Interessant
ist weiter, daß für den Startpunkt 27 mit Grad 4 und sogar für die Startpunkte
2 und 7 je mit dem Grad 5 dieselbe Bandbreite resultiert. Das Beispiel möge
illustrieren, daß es in der Regel notwendig sein kann, auch Startpunkte mit
höherem Grad als Kandidaten zu betrachten.
Für den Startknoten 4 gemäß Fig. 3.9 ist die resultierende Numerierung mit
einer Bandbreite m = 20 für die zugehörige Matrix S in Fig. 3.17 festgehalten.
3.2 Optimale Numerierung der Knotenvariablen 177

Fig.3.17
Eine Numerierung nach dem Algorithmus
von Cuthill-McKee mit den zugehörigen
Stufen

Die einzelnen Stufen sind ebenfalls eingetragen und die die Bandbreite
bestimmenden Kanten hervorgehoben.
Der maximale Grad eines Knotens beträgt 7 und auf Grund der in Fig. 3.17
angegebenen Stufen ergeben (3.8) und (3.9) die Schranken 4< m* < 9 für die
minimale Indexdifferenz.
An diesem einfachen und durchsichtigen Beispiel sei noch auf eine Eigen-
schaft der resultierenden Knotenumerierung hingewiesen, die sich für die
spätere Behandlung der algebraischen Aufgaben als sehr nützlich erweisen
kann. An der Fig. 3.17 erkennt man die offensichtliche, allgemein gültige
Tatsache, daß die Knoten einer bestimmten Stufe auf Grund der Konstruk-
tion nur benachbarte Knoten in derselben, vorhergehenden oder nachfol-
genden Stufe besitzen. Deshalb induziert die Stufenstruktur automatisch
eine tridiagonale Blockstruktur der zugehörigen Gesamtmatrix, wie sie
in Fig. 3.18 dargestellt ist. Die Ordnung jeder Blockmatrix in der Diagonale
ist gleich der Anzahl der Knoten der betreffenden Stufe. Lineare Glei-
chungssysteme mit Matrizen von tridiagonaler Blockstruktur können mit
Hilfe einer speziellen Rechentechnik effizient aufgelöst werden (vgl. Ab-
schn.4.5). ...
178 3 Das Gesamtproblem

""",,,,,,,..-----'T-------,..----- -- ---,..-----r------'----r.,
-t-------~----- -- ----:------:-------i----~_:
I I I I I I
I 1 r I I I

--
I I I I 11
---"'1------t-------~----~..,
I I I 11
t I I I t

1 : :: 1
,, -- ----I------...
t I
-------I----~-I
I I I

,,, , 1 1 1 1:
,, , I I I I

,
"r'----r----
t
- - -.,-----
I
I f
-,I - -----,--
11
-- r.,
I ' I

s
:: :, r
I 1
I I
I
I
I
I
I

,------r--------..,----r'
"
,
::----r-----r -1----:-:
I I I I I
" I I I I I
I I I I I I r I I

:l-- --r -----r-------:-- ,,, "

-:----;1, ,
t
"
I I I I
"
t-,---- t--- -- +-------}- -----
:: : : :
LI' I I

I I , I 1 ,, ,,
r'---- r- ---- T- ------r- ---- r-
11 I I 1 I
ri Fig.3.18
Besetzungsstruktur
:: :
:: : : : I

: : der Matrix S nach


: : ____ .1.
1....1 : _____ ...
: _______ 1..
: _____ 1.. r ___ .JI __ _
I __ .L..

:: : : : l: : Neunumerierung
I I I I I

~ ~- -- - ~--- --~ - ----- -~ ----- ~- - ~---..:- -- --


I I
mit Blocktridiago-
L. .J ____ 1. _____ .l. _______ L _____ L __ 1. ___ ...J ______ L ____ _
nalgestalt

3.2.2 Varianten des Algorithmus von CuthiIl-McKee

Der ursprüngliche Algorithmus von Cuthill-McKee wurde in verschiedener


Hinsicht verfeinert oder modifiziert, um auf diese Weise praktischen Erfah-
rungen und Feststellungen gerecht zu werden.
Wie in den Beispielen bereits festgestellt worden ist, wird die Bandbreite einer
Matrix im allgemeinen nur durch sehr wenige Nichtdiagona1elemente be-
stimmt, und die einzelnen Zeilen weisen eine variable Bandbreite auf. Aus
diesem Grund wird in Verfeinerung des Begriffs der Bandbreite einer
symmetrischen Matrix S der Ordnung n das sogenannte Profil eingeführt. Zu
diesem Zweck bezeichne fieS) den Kolonnenindex des ersten von Null
verschiedenen Matrixelementes sij der Hen Zeile, d. h.
fieS) = min UISij =1= O,j < i}. (3.10)
Weiter sei
mieS) = i - fieS), i = 1,2, ... , n (3.11)
die (linksseitige) Bandbreite der i-ten Zeile. Für die in (3.2) erklärte Bandbreite
m der Matrix S gilt offenbar
m = max mieS). (3.12)
1 <;:;i<;:;n

Soll ein lineares Gleichungssystem mit der Systemmatrix S aufgelöst werden,


wird im Abschn. 4.3 gezeigt werden, daß während des Auflösungsprozesses
3.2 Optimale Numerierung der Knotenvariablen 179

(Verfahren von Cholesky) nur diejenigen Matrixelemente eine Rolle spielen,


deren Indexpaare (i,}) der Hüll e oder E n v e I0 p p e von S angehören, definiert
durch
Env (S) = {(i,})Ij;(S) <,,} <" i, 1 <" i <" n}. (3.13)
Die Hülle von S umfaßt somit jene Indexpaare (i,}) von Elementen sij, welche
innerhalb der zei1enabhängigen Bandbreiten liegen. Die Anzahl der Indexpaa-
re, welche der Hülle angehören, nennt man das Profil p der Matrix S. Sein
Wert ist gegeben durch
n
p = IEnv (S)I = n + I mieS). (3.14)
i=1

Das Profil p ist gleich der Anzahl der Elemente von S, welche im Verlauf des
Choleskyschen Algorithmus effektiv benötigt werden. Deshalb ist das Profil
einer Matrix S maßgebend für den Speicherbedarf bei Verwendung einer
entsprechenden Anordnung der Matrixelemente. Aus diesem Grund wird oft
die Minimierung des Profils anzustreben sein und nicht die Minimierung der
Bandbreite.

Tab. 3.3 Daten zu Fig. 3.19

i fieS) mieS)

I I 0
2 1 1
3 2 1
4 1 3
5 2 3
6 4 2
7 5 2
8 4 4
9 6 3
10 7 3

m=4
10
p = 10 + L
i=!
mieS) = 32
Fig.3.19 Hülle einer Matrix

Beispiel3.6 Zur Illustration der verschiedenen Begriffe betrachten wir eine


symmetrische Matrix S nach Fig. 3.19, deren von Null verschiedene Elemente
durch ein Kreuz markiert sind. In Tab. 3.3 sind die zugehörigen Werte j;(S)
und mieS) und der Wert des Profils p zusammengestellt. Die Hülle der Matrix
180 3 Das Gesamtproblem

S ist in Fig. 3.19 veranschaulicht, indern die Elemente, deren Indexpaare dazu
gehören, eingerahmt sind. ...
Beispiel 3. 7 Für das ringförmige Gebiet von Beispiel 3.3 mit der in Fig. 3.11
gegebenen Triangulierung und Numerierung der Knotenpunkte soll unter-
sucht werden, ob jene Numerierung oder eine solche nach dem Cuthill-McKee
Algorithmus erzeugte Numerierung ein kleineres Profil zu liefern vermag. Für
die Startpunkte mit den Nummern 22 und 37, welche den Grad fünf besitzen,
ergeben sich mit dem Programm in [Scw9l] Numerierungen mit je einer
maximalen Indexdifferenz von 9, so daß die zugehörigen Gesamtsteifigkeits-
matrizen die Bandbreite m = 29 erhalten, die aber nur von drei Nichtdiagonal-
elementen unterhalb der Diagonale bestimmt wird. Der Speicherbedarf zur
Speicherung der Bandmatrix gemäß Fig. 3.3 beträgt bei n = 198 Knotenvaria-
blen N = 30 X 198 = 5940 Plätze.

Tab. 3.4 Werte des Profils für das Beispiel 3.3

Numerierung Fig.3.11 Nach Cuthill-McKee mit Startpunkt


40 61 28 41 58 59

Profil p = 4104 4302 4320 4338 4347 4347 4365


Profil PRCM = - 3924 3987 4041 3960 3996 3978

Interessanterweise resultiert mit dem im Innern gelegenen Startknoten mit der


Nummer 40 das kleinste Profil auf Grund des Cuthill-McKee Algorithmus,
während die Eckpunkte mit den Nummern 10,27,42 und 59 mit dem kleinsten
Grad als Startknoten zu leicht größeren Profilen führen. Kleine Profile liefert
der Algorithmus auch für die Startknoten 28, 41,58 und 61, deren Grade vier
oder fünf beträgt. In Tab. 3.4 sind einige Werte der resultierenden Profile
zusammengestellt. Die geringen Unterschiede sind teilweise durch die beste-
hende Willkür der Numerierung der Knotenpunkte bei gleichen Graden und
durch die gegebene Numerierung zu erklären, welche den Ablauf des Prozesses
mitbestimmt. Die Numerierung nach Fig. 3.11 ergibt das kleinste Profil im
Vergleich zu denjenigen, wie sie mit dem Cuthill-McKee Algorithmus erhalten
werden können. Das Profil der Gesamtsteifigkeitsmatrix S läßt sich in diesem
Beispiel durch eine im folgenden dargelegte Modifikation noch geringfügig
reduzieren.
In Fig. 3.20 ist die Besetzungsstruktur der Gesamtsteifigkeitsmatrix S für die
Cuthill-McKee Numerierung im Fall des Startpunktes 40 dargestellt, wobei ~
eine im allgemeinen vollbesetzte (3 X 3)-Matrix bedeutet. ...

Der Algorithmus von Cuthill-McKee, der primär zur Minimierung der


Bandbreite der resultierenden Matrix konzipiert worden ist, minimiert
3.2 Optimale Numerierung der Knotenvariablen 181

s==
Fig.3.20
Besetzungsstruktur
der Matrix Sauf
Grund der Nume-
rierung des Cuthill-
McKee Algorith-
mus

gleichzeitig auch das Profil, weil auch die einzelnen Zeilenbandbreiten klein
gehalten werden. Studiert man die resultierenden Strukturen der Matrizen S
etwas genauer, so stellt man fest, daß das Profil oft ganz wesentlich verkleinert
werden kann, falls die Knotenvariablen exakt in der umgekehrten Reihen-
folge durchnumeriert werden, wie sie der oben beschriebene Prozeß liefert.
Erfolgt nach ausgeführtem Cuthill-McKee Algorithmus (kurz CM-Algorith-
mus) noch die Umkehrung der Numerierung vermittels der Substitu,tion
k -n - k + 1, (3.15)
so entsteht der umgekehrte Cuthil-McKee Algorithmus (reverse Cuthill-
McKee, abgekürzt RCM) [Ge071]. Durch die Indexsubstitution (3.15) wird
die Matrix S an der Nebendiagonalen von links unten nach rechts oben
gespiegelt. Dadurch verändert sich die Bandbreite von S ganz offensichtlich
nicht, weil die maximalen Beträge der Indexdifferenzen von benachbarten
Knotenpunkten gleich bleiben.
Anders verhält es sich mit dem Profil der gespiegelten Matrix SRCM. Zur
Begründung, daß sich das Profil dabei im allgemeinen verkleinert, ist
folgendes zu beachten. Auf Grund der Strategie, nach welcher die Nachbar-
knoten der nachfolgenden Stufe im Cuthill-McKee Algorithmus numeriert
werden, bilden die resultierenden Wertefi(S) mit zunehmendem Index i eine
monotone, nicht abnehmende Folge. Deshalb kann die Hülle der nach dem
CM-Algorithmus resultierenden Matrix SCM keinen einspringenden Umriß
aufweisen (vgl. Fig. 3.18 und Fig. 3.20). Rechts von den Matrixelementen,
welche die Hülle bestimmen, existieren aber oft Matrixelemente gleich Null
182 3 Das Gesamtproblem

innerhalb der Hülle, zu denen es in derselben Kolonne unterhalb kein von Null
verschiedenes Matrixelement mehr gibt, so daß die zugehörige Kolonnen-
bandbreite kleiner ist. Diese Situation tritt für einen Knotenpunkt immer dann
auf, wenn er in der nachfolgenden Stufe entweder keinen Nachbarpunkt
besitzt oder diese Nachbarpunkte schon numeriert worden sind. Bei der
Spiegelung der Matrix gehen aber diese Kolonnenbandbreiten in Zeilenband-
breiten über, so daß dadurch das Profil in der Tat reduziert wird. Umgekehrt
wurde in [LiS76] gezeigt, daß das Profil der Matrix SRCM nicht größer als das
Profil von SCM sein kann. Überdies zeigen die experimentellen Ergebnisse in
[LiS76], daß für quadratische und vollständige kubische Ansätze in Dreiecke-
lementen die RCM-Numerierungen gegenüber den CM-Numerierungen dra-
stische Reduktionen des Profils und damit auch des Rechenaufwandes zur
Lösung von zugehörigen linearen Gleichungssystemen bewirken. Dies gilt
natürlich auch für quadratische Ansätze in Parallelogrammen, ganz besonders
für den vollständigen Ansatz mit einem inneren Knotenpunkt. Im Fall von
linearen Ansätzen in Dreiecken und den damit graphentheoretisch äquivalen-
ten kubischen Dreieckelementen nach Zienkiewicz resultiert jedoch keine
wesentliche Reduktion des Profils, die Profile der Matrizen SCM und SRCM sind
oft sogar gleich groß.
In der Tab. 3.4 sind auch die Profile PRCM der Gesamtsteifigkeitsmatrizen
SRCM für das ringförmige Gebiet der Fig. 3.11 angegeben. Mit der zwar nur
geringfügigen Reduktion des Profils um rund zehn Prozent erhält man jetzt
Besetzungsstrukturen, die im Vergleich zur Numerierung von Fig. 3.11 ein
etwas kleineres Profil aufweisen. Die Struktur der Matrix SRCM ergibt sich
durch Drehen der Fig. 3.20 um 180°.
Beispiel3.8 Die wesentliche Reduktion des Profils und damit des Speicher-
bedarfs mit Hilfe des RCM-Algorithmus wird am Beispiel des Grundgebietes
des Autolängsschnittes illustriert (vgl. Beispiel 1.5 und Fig. 1.5).

Fig.3.21
Elementeinteilung für
Autolängsschnitt.
Startpunkte für CM-
und RCM-Algorith-
mus
3.2 Optimale Numerierung der Knotenvariablen 183

Für die Triangulierung nach Fig. 3.21 und mit quadratischen Ansätzen in den
Dreiecken resultieren 185 Knotenpunkte. Obwohl zahlreiche rechtwinklige
gleichschenklige Dreiecke auftreten, für welche die Steifigkeitselementmatrix
nicht voll besetzt ist, sollen die Elementmatrizen dennoch als voll besetzt
behandelt werden.

Fig.3.22
Graph eines Dreieckelementes, quadratischer Ansatz

Für den Cuthill-McKee Algorithmus ist der Graph der zugehörigen Diskreti-
sation in Verbindung mit dem verwendeten Ansatz maßgebend. Für quadrati-
sche Ansätze ist unter der getroffenen Annahme jede Knotenvariable mit jeder
andern desselben Elementes verknüpft. Deshalb ist der Graph eines Dreieck-
elementes mit quadratischem Ansatz durch Fig. 3.22 gegeben. Kanten, die sich
in Fig. 3.22 schneiden, bedeuten dabei keine Verbindung. Jeder Knoten des
Graphen hat den Grad 5. Für die Anwendung des CM-Algorithmus auf die
Elementeinteilung des Autolängsschnittes ist zu beachten, daß die Netzeintei-
lung von Fig. 3.21 nicht identisch ist mit dem einschlägigen Graphen.
Infolge der recht allgemeinen Form des Grundgebietes und der unterschied-
lich feinen Einteilung in Dreiecke ist eine optimale Numerierung der
Knotenvariablen nicht offensichtlich. Der CM-Algorithmus stellt hier ein
brauchbares Hilfsmittel dar.

Tab. 3.5 Bandbreiten und Profile für den Autolängsschnitt

Startpunkt A B C D E F

Grad 5 5 5 11 11 20
m= 31 38 38 38 37 32
PCM= 3816 3871 3953 3813 3891 3789
PRCM = 2247 2254 2291 2246 2234 2232
Stufenzahl 11 11 10 10 10 10

In Tab. 3.5 sind die Werte für die Bandbreite m und die Profile PCM und PRCM
zusammengestellt, wie sie auf Grund des CM- und des RCM-Algorithmus für
die ausgewählten Startpunkte A, B, C, D, E und F der Fig. 3.21 resultieren. Es
wurde eine bei weitem nicht optimale Startnumerierung gewählt, bei der die
Knotenpunkte im wesentlichen zeilenweise von oben nach unten durch nu me-
184 3 Das Gesamtproblem

riert waren. Die Bandbreiten liegen zwischen 31 und 38, so daß für die
Speicherung der Matrix in Bandform im besten Fall N=n(m+ 1) =
185 X 32 = 5920 Plätze erforderlich wären. Das optimale Profil mit
PRCM = 2232 ist doch wesentlich kleiner und auch bedeutend kleiner als das
optimale Profil aus dem CM-Algorithmus. Interessant an der Zusammenstel-
lung ist die Tatsache, daß der Startpunkt Fmit dem sehr hohen Grad 20 (wohl
etwas zufällig) das kleinste Profil und die zweitkleinste Bandbreite liefert.

~ t==r,====f=====i======f=======r======i======l=====~

:Ir----_I- !lt1I-
II!I
1-----
;1:
+---- --+ -------}- ---- --+ ----- -,- ----~
: : : i ::
::
~ _____
):
~~,.
- ~ _~L~}l
~ I : ______ ~: _______ :~ ______ !: ______ ~: _____ ~::
11 1 n. I 1 I I 11

:
tI
: -----t
I _-1 •
I: I
:
1
:
1
:
1
:
U

~-----~----~~
11 1 I •
. ~_J-JI_------~------1------~-----!
.- I t i n

: : :- . -; I : : : ::

s
: : : ..;' ... -PI.: : : :
~ --- --~- - - - - ~ - -- - - ~.... - ~1_ - r.-. -----~ --- ---~- ----f,
rO-l I
1: : :
11 r I I ~ I I lt
11 I I _ r ••• I 1 11

1 = =:
., I 1 11

1r-----r-----T"-----T------~ .. ! ...I- I - -11------~-----.;:


n I I 1 I :i • - ,.. I n
11 I
I
I
L
I
I
1
I
I
I
l~~-
I
I"::
.1
•••••
I' "
I

I
11

11

If.-----I------l _____ .;. ______ l _______ ~ •.__


11 1 1 1 1 1 ...
I I -=-_~'-----E
• _ 11

u: : : -:::- J • ~- J ::

n
r
r
1 t·~.
r - 1-::'. _\
I.

~ -----~ -----~ -----~ ------t-------~ ----~.~~~~


1 1 t

11 1 1 1 1 t.
11 1 I ! 1
11 t 1 I I
n i l 1 I I \
~=====~=====~=====~======.=======~======~======

Fig.3.23 Struktur für die RCM-Numerierung. Tridiagonale Blockstruktur

In Fig. 3.23 ist die Besetzungsstruktur der Gesamtsteifigkeitsmatrix S gemäß


der RCM-Numerierung für den Startpunkt F zusammen mit der tridiagonalen
Blockstruktur auf Grund der zugehörigen Stufen dargestellt. Man erkennt an
der Fig. 3.23 deutlich die erzielte Reduktion des Profils vermittels des RCM-
Algorithmus infolge der zahlreichen tiefen Einbuchtungen des Umrisses. Die
Besetzungsstruktur, zugehörig zur CM-Numerierung ergibt sich zum Ver-
gleich durch Drehen der Fig. 3.23 um 180°. ..
Die Numerierung der Knoten einer Stufe erfolgt im CM-Algorithmus
fortlaufend für zunehmenden Grad der Knoten, wobei der Grad des Knotens
im gegebenen Graphen maßgebend ist. Eine naheliegende Verfeinerung der
Numerierungsstrategie besteht nach King [Kin70] darin, die Knoten in jeder
Stufe auf Grund der Zahl von Nachbarknoten in der nächsten Stufe
3.2 Optimale Numerierung der Knotenvariablen 185

anzuordnen und entsprechend durchzunumerieren. Zur Implementierung ist


dazu etwa die Information über den Grad eines Knotens laufend nachzufüh-
ren, indem die bereits numerierten Knoten und die Nachbarknoten derselben
Stufe in Abzug gebracht werden.
Eine weitere Verbesserung des Algorithmus von Cuthill-McKee beruht auf der
Feststellung, daß die Bandbreite und das Profil im allgemeinen dann am
kleinsten ausfällt, wenn die Anzahl der Stufen maximal und damit die mittlere
Anzahl von Knoten pro Stufe am kleinsten ist. So haben Gibbs, Po oie und
Stockmeyer [GPS76] vorgeschlagen, zuerst einen sogenannten Durchmes-
ser des Graphen zu bestimmen, der durch zwei Knoten festgelegt wird, deren
kürzester Verbindungsweg im Graphen am längsten ist. Seine Bestimmung
erfolgt mit Hilfe des CM-Algorithmus. Für einen Startknoten v, etwa mit
minimalem Grad, wird die zugehörige Stufenstruktur ermittelt. Mit allen
Knoten der letzten Stufe wiederhole man den Prozeß. Falls dabei eine tiefere
Stufenstruktur gefunden wird, übernimmt der betreffende Knoten die Rolle von
v, für den die Stufenstruktur bereits bekannt ist. Andernfalls wählt man unter
den Knoten der letzten Stufe denjenigen u aus, für welchen die maximale Anzahl
von Knoten pro Stufe am kleinsten ist. Die so ermittelten Knoten u und v bilden
nicht mit Sicherheit die Endpunkte eines Durchmessers, doch wird ihre Distanz
annähernd maximal sein, und man begnügt sich mit einem Pseudod urchmes-
ser. Dieser erste Schritt des Algorithmus von Gibbs, Poole und Stockmeyer ist
sehr geeignet, automatisch günstige Startknoten für den CM- oder RCM-
Algorithmus zu bestimmen, da der Aufwand relativ gering ist und in der Regel
nur wenige Startpunkte getestet werden müssen um einen Pseudodurchmesser
zu finden. In vielen Anwendungsbeispielen können aber die erfolgversprechen-
den Startknoten mit einiger Überlegung oder auf Grund von Erfahrungen leicht
angegeben werden, für welche die Numerierungen zu ermitteln sind.
In einem zweiten Schritt sollen die beiden Stufenstrukturen, welche zu den
beiden Startpunkten u und v auf einem (Pseudo-) Durchmesser gehören, zu
einer neuen Stufenstruktur kombiniert werden. Dazu bilden die Durchschnitte
entsprechender Stufen einen ersten Kern der neuen Stufen, die anschließend
nach bestimmten Auswahlkriterien mit den noch nicht einbezogenen Knoten
so ergänzt werden, daß jede Stufe schließlich eine möglichst kleine Zahl von
Knoten enthält. Zum Schluß werden die Knoten innerhalb der neuen
Stufenstruktur in Anlehnung an den CM-Algorithmus mit gewissen Modifika-
tionen durchnumeriert, da jetzt eine Stufe Knoten enthalten kann, die nicht
mehr zu einem Knoten der vorangehenden Stufe benachbart sind. Die oben
erwähnte, aus der CM- oder RCM-Numerierung resultierende tridiagonale
Blockstruktur der zugehörigen Matrix S geht natürlich verloren. Für weitere
Details sei auf die Originalarbeit [GPS76] und für eine Implementierung der
verschiedenen Ideen auf [Lew82] verwiesen. Weiterführende Betrachtungen
findet man in [DER86].
186 3 Das Gesamtproblem

3.3 Elimination von inneren Freiheitsgraden, Kondensation


Im Dreieckelement mit vollständigem kubischem Ansatz (2.75) mußte neben
den Knotenvariablen in den Eckpunkten noch der Funktionswert im Schwer-
punkt als zehnte Knotenvariable hinzugenommen werden, um den zehn
Freiheitsgraden des Ansatzes gerecht zu werden. Der Schwerpunkt stellt einen
sogenannten inneren Knotenpunkt des Elementes dar im Gegensatz zu den
äußeren Knotenpunkten, welche allgemein auf dem Rand des Elementes
liegen. Die Knotenvariablen von inneren Punkten sind vermöge der Integral-
beiträge des betreffenden Elementes nur mit seinen äußeren Knotenvariablen
verknüpft. Sie werden aber auch bei der Addition der Teilbeiträge aller
Elemente nur mit den äußeren Knotenvariablen des Elementes selbst verbun-
den bleiben. Dies ist eine Folge der Tatsache, daß die zu den inneren
Knotenvariablen gehörigen Formfunktionen nur innerhalb des Elementes von
Null verschieden sind. Auf Grund der Extremalprinzipien lassen sich aber die
Werte der inneren Knotenvariablen durch die Werte der äußeren Knotenvaria-
blen darstellen und damit eliminieren. Um dies einzusehen, soll angenommen
werden, daß die äußeren Knotenvariablen eines Elementes bereits bekannt
seien. Dann stellen sich die inneren Knotenvariablen derart ein, daß sie die
gesamte potentielle Energie des Elementes minimieren, oder allgemeiner das
Variationsintegral stationär machen. Vermöge der so formulierten Bedin-
gungsgleichungen können die inneren Knotenvariablen in der Tat eliminiert
werden. Nach ihrer Elimination bleibt ein reduziertes System in den äußeren
Knotenvariablen übrig, das als Bedingungsgleichungen eines Variationsinte-
grals in den äußeren Variablen allein interpretiert werden kann. Die resultie-
rende Matrix und den Konstantenvektor bezeichnet man als die kondensier-
te Steifigkeitse1ementmatrix, bzw. den zugehörigen kondensierten
Elementvektor.
Der Prozeß der Kondensation verfolgt den primären Zweck, einerseits
unerwünschte innere Knotenvariable zu eliminieren und anderseits die
Gesamtzahl der Unbekannten zu verringern. Die Idee bildet weiter die
Grundlage zur Konstruktion von flexibleren Elementen durch das Zusam-
mensetzen von einfachen Elementen und anschließender Elimination von
inneren Hilfsknotenpunkten. Die konsequente Weiterführung dieser Idee
führt schließlich zum Vorgehen der Substrukturierung, bei welcher größere
und komplex aufgebaute Strukturen wie etwa Brücken, Schiffe, Flugzeuge,
Raumfahrtkonstruktionen usf. in Teile zerlegt werden, welche dann selbst in
die zweckmäßigen Elemente eingeteilt werden. In jeder dieser Substrukturen
lassen sich sämtliche inneren Knoten eliminieren, so daß nach ausgeführter
Kondensation die Einzelteile vermittels ihrer Randknoten wieder zusammen-
gesetzt werden können. Bei der Anwendung der Substrukturierung erzielt man
eine beträchtliche Reduktion der Unbekannten, welche die Behandlung
gewisser Probleme überhaupt erst möglich macht.
3.3 Elimination von inneren Freiheitsgraden, Kondensation 187

3.3.1 Statische Kondensation

Für Potentialprobleme, Probleme der ebenen Elastomechanik oder der


Platten biegung kann der Gesamtbeitrag eines Elementes zum Variationsinte-
gral allgemein in der Form
1 T
I e = - U e Seue + heT Ue (3.16)
2
geschrieben werden mit der Elementsteifigkeitsmatrix Se, dem Elementvektor
he und dem Vektor Ue der Knotenvariablen. Die notwendige Bedingung für das
Stationärwerden von I e führt auf das lineare Gleichungssystem
(3.17)

Die Knotenvariablen zu äußeren Knotenpunkten seien im Vektor Ua und die


Variablen zu den inneren Knotenpunkten in Ui zusammengefaßt, so daß bei
entsprechender Anordnung in U e die Darstellung

(3.18)

gilt. Das Gleichungssystem (3.17) werde entsprechend aufgeteilt, indem


sowohl die Matrix Se wie auch der Vektor he partitioniert werden.

(3.19)

Aus (3.19) folgen die Beziehungen


(3.20)
SiaUa + SaUi + hi = O. (3.21 )

Die Untermatrix Sii ist regulär, ja sogar positiv definit. In der Tat stellt
~ uJ Seue eine Energie dar, und Se ist eine semidefinite symmetrische Ma-
2
trix. Werden im Ausdruck der Energie die äußeren Knotenvariablen gleich
Null gesetzt, so ist der verbleibende Energieausdruck ~ ur SiiUi für nicht
2
identisch verschwindende Vektoren Ui stets positiv. Deshalb kann (3.21)
formal nach Ui aufgelöst und der erhaltene Ausdruck in (3.20) eingesetzt
werden.
Ui = -Sill SiaUa - Sill hi (3.22)
(Saa - SaiSil I Sia)Ua + (ba - SaiSil 1hi) = 0 (3.23)
188 3 Das Gesamtproblem

Das System (3.23) stellt das reduzierte Gleichungssystem dar für die äußeren
Knotenvariablen und stellt die Extremalbedingung dar für das reduzierte
Integral in den äußeren Knotenvariablen

(3.24)

mit der kondensierten Steifigkeitselementmatrix

(3.25)

und dem kondensierten Elementvektor

(3.26)

Man bezeichnet den Übergang von Se und be zu S:


und b: als statische
Kondensation, weil der Reduktion, d. h. der Elimination der inneren
Knotenvariablen die Extremalbedingung des statischen Gleichgewichts zu-
grunde gelegt ist.
Die geschlossenen Darstellungen (3.25) und (3.26) für die kondensierten
Gräßen sollten allerdings niemanden dazu verleiten, den Prozeß der Konden-
sation auch tatsächlich auf diese Art zu vollziehen. Am zweckmäßigsten und
effizientesten erfolgt die Kondensation schrittweise, indem die inneren
Knotenvariablen sukzessive eliminiert werden. Deshalb betrachten wir den
Spezialfall, daß nur eine einzige innere Knotenvariable zu eliminieren sei. Das
Element habe insgesamt m Freiheitsgrade, und die zu eliminierende Knoten-
variable sei die letzte Komponente des Vektors U e• Die partitionierten
Gleichungen (3.20) und (3.21) lauten ausgeschrieben
m-I
I SjkUk+Sjmum+bj=O, (j=1,2, ... ,m-l),
k=1
m-I
L SmkUk + SmmUm + bm = o.
k=1

Aus der letzten Gleichung folgt

und nach Substitution in die (m -1) ersten Gleichungen

I
m-I (
Sjk
_ SjmSmk
- - ) Uk + ( bj _ Sjm _._
- - b m ) - 0, (J - 1,2, ... , m
_
1).
k=1 Smm Smm
3.3 Elimination von inneren Freiheitsgraden, Kondensation 189

Danach ergeben sich die Elemente der kondensierten Matrix S* und des
Vektors h* nach den bekannten Formeln eines Gaußschen Eliminationsschrit-
tes [Sti76, Scw88] mit dem Pivot Smm zu
*
Sjk = Sjk -
Smk
Sjm - - , (3.27)
Smm

(j, k = 1,2, ... , m - 1), (j = 1,2, ... , m - 1).

Da die Symmetrie bei einem solchen Eliminationsschritt erhalten bleibt,


benötigt der Kondensationsschritt nur rund ~ m 2 multiplikative Opera-
2
tionen.
Die sukzessive Elimination von inneren Knotenvariablen ist tatsächlich nach
der beschriebenen Art durchführbar, da die Untermatrix Sii positiv definit ist
und deshalb injedem Gauß-Eliminationsschritt in der Diagonale ein von Null
verschiedenes, sogar positives Pivotelement zur Verfügung steht.
Bei dieser Betrachtungsart kann der Kondensationsprozeß auf der Ebene eines
Elementes auch als vorgezogene Eliminationsschritte zur Lösung des Gesamt-
gleichungssystems interpretiert werden. Aus diesem Grund ist die Kondensa-
tion auch in jenen Fällen anwendbar, wo kein Extremalprinzip im Hinter-
grund steht.

3.3.2 Konstruktion von zusammengesetzten Elementen

Die Elimination von inneren Knotenvariablen vermittels des Kondensations-


prozesses besitzt eine wichtige Anwendung in der Bildung von Elementen,
welche sich im Innern mosaikartig aus einfachen Elementen zusammensetzen.
Auf diese Weise ist es möglich, im Innern des Elementes eine feinere
Diskretisation zu verwenden, wodurch eine bessere Approximation der
gesuchten Funktion ermöglicht wird, ohne dabei die Gesamtzahl der Unbe-
kannten zu vergrößern. Zudem ist es mit diesem Prozeß auf einfache Weise
möglich, allgemeine viereckige Elemente zu bilden, ohne dieselben als
subparametrische oder isoparametrische Elemente zu behandeln. Ein allge-
meines konvexes Viereck läßt sich entweder aus zwei oder sogar vier Dreiecken
zusammensetzen, wie dies in Fig. 3.24 unter der Annahme eines quadratischen

Fig.3.24
Zusammengesetzte Viereck-
elemente
190 3 Das Gesamtproblem

Ansatzes veranschaulicht ist. Im Fall a) ist ein innerer, im Fall b) sind fünf
innere Knotenpunkte zu eliminieren. In beiden Fällen entsteht nach ausge-
führter Kondensation ein Viereckelement mit acht Knotenpunkten auf dem
Rand. Die Viereckelemente sind mit entsprechenden Dreieck- und Parallelo-
grammelementen kombinierbar, da die Funktion auf dem Rand je einen
eindeutigen quadratischen Verlauf aufweist.

Fig.3.25
Zusammengesetztes Quadrat
Beispiel3.9 Das Prinzip der Konstruktion sei an einem Beispiel illustriert,
welches so ausgewählt ist, daß die Zahl werte überblickbar einfach ausfallen.
Für den Integralausdruck
1
1=- fI
(u; + u}) dx dy + u dx dy fI (3.28)
2 G G
soll für das Quadrat der Seitenlänge 1 (Fig. 3.25) die kondensierte Steifig-
keitselementmatrix S:
und der Vektor b:
aufgestellt werden unter der
Annahme, daß in den 4 Teildreiecken ein linearer Ansatz angewendet werde.
Der Rechnung legen wir die Referenznumerierung der Fig. 3.25 zugrunde.
Benötigt werden die Steifigkeitselementmatrix für ein rechtwinklig gleich-
schenkliges Dreieck und der zugehörige Elementvektor. Die Zahl werte sind
I
J= 2' a= 1, b = 0, c = 1, so daß nach (2.58) und (2.61) gelten

Sb.
e
=~
2 [ 2-1 -1]
-1
-1
1
0
0
1
'
bb.
e
= _1_
12
[1]
1
1
.

Durch Addition der vier Matrizen und Vektoren folgen


2 0 0 0 I -2 Ul

0 2 0 0 I -2 U2

SO=~ 0 0 2 0 I -2 bD=~ up= U3


e 2 I e 6
0 0 0 2 I -2 U4
--------1--
-2 -2 -2 -2 I 8 2 U5
3.3 Elimination von inneren Freiheitsgraden, Kondensation 191

[-: -ll
Der Kondensationsschritt nach den Formeln (3.27) ergibt

-1 -1

[J [~J
3 -1
-1
s*=l
e 4
b*=l
e 4 ui = . (3.29)
-1 -1 3 -1 '
-1 -1 -1 3

Die kondensierte Matrix Si (3.29) ist nicht identisch mit der Steifigkeitsele-
mentmatrix Se des Quadrates mit bilinearem Ansatz nach (2.69), nämlich

S
e
1
=-
6 [-: -~ =~ =~J
-2 -1 4 -1 '
b
e
=l4 [;1 1'
(3.30)

-1 -2 -1 4 1

hingegen herrscht Übereinstimmung für die Vektoren bi und be . Die


Verschiedenartigkeit der Steifigkeitselementmatrizen bei gleichem Element
und gleichen Knotenvariablen ist bedingt durch die verschieden gearteten
Ansätze im Innern des Quadrates. ....

3.3.3 Kondensation bei Eigenwertaufgaben

Der Kondensationsprozeß besitzt eine weitere wichtige Anwendung bei


Eigenwertaufgaben, da hier die Reduktion der Zahl der Freiheitsgrade durch
Elimination von Knotenvariablen von eminenter Bedeutung sein kann, um die
Eigenwertaufgabe überhaupt mit vertretbarem Aufwand lösen zu können. Es
sind hier zwei Vorgehensarten zu unterscheiden, die im Endeffekt dasselbe Ziel
anstreben und analoge Kondensationsschritte anwenden,jedoch entweder auf
der Basis der Elemente arbeiten oder aber erst nach vollendeter Kompilation
der Gesamtmatrizen. Wir betrachten deshalb allgemein die Elimination von
Knotenvariablen in einem Eigenwertproblem, wobei wir wie in Abschn. 3.3.2
die zu eliminierenden Knotenvariablen in Ui und die verbleibenden Variablen
in U a zusainmenfassen. Die Eigenwertaufgabe

Su=ÄMu (3.31)

schreibt sich in partitionierter Form

(3.32)
192 3 Das Gesamtproblem

oder ausgeschrieben

(3.33)

(3.34)

Aus (3.34) folgt die Beziehung

(3.35)

Unter der Annahme, daß die symmetrische Matrix Sii - AMii , wo A ja einen
unbekannten Parameter, nämlich einen gesuchten Eigenwert darstellt, regulär
sei, folgt aus (3.35)
(3.36)

Die Gleichung (3.36) stellt die vom zu bestimmenden Eigenwert A abhängige


exakte Beziehung her zwischen den zu eliminierenden Variablen Ui und den
verbleibenden Variablen U a . Da aber A nicht bekannt ist, wird sein Wert in
(3.36) kurzerhand gleich Null gesetzt, so daß man im Sinn einer statischen
Kondensation in Analogie zu (3.22) jetzt näherungsweise setzt

(3.37)

Im nächsten Schritt geht es darum, die Eigenwertaufgabe (3.31) vermittels der


Relation (3.37) zu reduzieren. Zu diesem Zweck wird der Vektor U vermittels
der in (3.37) definierten Matrix durch U a allein dargestellt. Es gilt

U = [ua J= [ I JU a = Tua. (3.38)


U, T/a
Darin bedeutet I die Einheitsmatrix, deren Ordnung gleich der Dimension des
Vektors U a ist, und Tia stellt eine im allgemeinen rechteckige Matrix dar. Die
Substitution von (3.38) in (3.31) liefert

(3.39)

In dieser Form stellen ST und MT rechteckige Matrizen dar, weshalb zur


Gewinnung eines brauchbaren Eigenwertproblems mit quadratischen (und
symmetrischen!) Matrizen die Gleichung (3.39) von links mit der transponier-
ten Matrix TT multipliziert wird. Dies führt zum statisch kondensierten
Eigenwertproblem

TT STu a = ATTMTu a oder I S* U a = AM*ua I (3.40)

Der Kondensationsprozeß ist formal durch die Matrizenoperationen vollstän-


dig beschrieben. Wir wollen uns aber die kondensierten Matrizen S* und M*
3.3 Elimination von inneren Freiheitsgraden, Kondensation 193

genauer ansehen, um zu ihrer Berechnung einen praktikablen Algorithmus zu


entwickeln.

(3.41)

Wegen S~ = Sai und Sii lT = Sii l folgt aus (3.41)

(3.42)

Dies entspricht der Formel (3.25) der statischen Kondensation, womit sich die
oben eingeführte Bezeichnung rechtfertigt. Für die Matrix M* ergibt sich
analog zu (3.41) die kompliziertere Form, da keine Vereinfachungen möglich
sind,

Der tatsächliche Kondensationsprozeß erfolgt zweckmäßigerweise schrittwei-


se durch sukzessive Elimination einer einzigen Knotenvariablen. Als Arbeits-
hypothese sei angenommen, die Ordnung der Matrizen Sund M sei f1 und der
Index der zu eliminierenden Knotenvariablen sei dementsprechend auch
gleich f1. Die Matrizen Si; und M ii haben in diesem Spezialfall die Ordnung
Eins und sind Skalare. Ebenso ist Sii l selbst ein Skalar, der mit den Matrizen
vertauschbar ist. Die Matrizen Sai und Mai sind Kolonnenvektoren der
Dimension (f1- 1) und Sia und M ia Zeilenvektoren derselben Dimension. Für
die Elemente von S* und M* ergeben sich aus (3.42) und (3.43) die einfachen
Darstellungen

(3.44)

(3.45)

(j, k = 1,2, ... , f1 - 1)

Die Kondensationsformeln (3.44) und (3.45) sind am effIzientesten durchführ-


bar mit den Hilfsgrößen

(J} = - .!.& (J' -- 1, 2, ... ,,,.- 1) ,


/J (3.46)
s/l/l
194 3 Das Gesamtproblem

so daß sie sich vereinfachen zu


S;! = Sjk + Sjifh,
mJ = m;k + ajmjik + mjijak + ajakmjiji, (3.47)
(j, k = 1,2, ... , Jl - 1).
Aus Symmetriegründen sind nur die Elemente sJ und mJ in und unterhalb der
Diagonale zu berechnen, was in (3.46) und (3.47) schon berücksichtigt ist.
Die Kondensation kann auf der Stufe der Elemente zur Elimination von
inneren Knotenvariablen wie auch zur Konstruktion von zusammengesetzten
Elementen verwendet werden. Sie wird aber häufiger auf der Stufe des
Gesamtproblems angewendet, um erst nach vollständiger Kompilation der
Matrizen Sund Meine bestimmte Auswahl von sogenannten untergeordne-
ten Knotenvariablen (in der englischsprachigen Literatur als "slave
variables" bezeichnet) zu eliminieren, so daß ein kondensiertes Eigenwertpro-
blem für die sogenannten Meistervariablen (master variables) resultiert.
Die richtige Auswahl der Meistervariablen ist ausschlaggebend für die Güte
der aus dem kondensierten Eigenwertproblem resultierenden Eigenwerte.

Beispiel 3.10 Es soll das Problem der Torsionsschwingungen oder Längs-


schwingungen eines Stabes, bzw. der Transversalschwingungen einer Saite
unter Verwendung von Elementen mit quadratischem Ansatz behandelt
werden, wobei die Knotenvariable im Mittelpunkt eliminiert werden soll.
Wenn die Knotenvariablen im Hinblick auf den Kondensationsprozeß
umgeordnet werden gemäß

üe = (Ul, u3, U2?,

l
so lauten nach (2.15) für em Element der Länge 1 die entsprechenden
Elementmatrizen

-
S=-
1
7
1
1 I
7 I -8
I
-81 (3.48)
e 31 =;-=~T~~
Unter Verwendung des Formelsatzes (3.46) und (3.47) ergeben sich mit
al = 1/2, a2 = 1/2 die statisch kondensierten Elementmatrizen

S* _ 1 [
e -31 3
-3
-3]=~[
3 1-11-1] W--30I [105
l' e

Die erhaltenen kondensierten Elementmatrizen sind identisch mit (2.10) und


(2.9) für den linearen Ansatz! Das Ergebnis läßt sich damit erklären, daß die
3.3 Elimination von inneren Freiheitsgraden, Kondensation 195

innere Variable auf Grund einer s t a ti s c h e n Kondensation eliminiert worden


ist, welche so festgelegt wird, daß die Deformationsenergie minimal wird. Dies
ist genau dann der Fall, wenn u innerhalb des Elementes linear verläuft, so daß
zwangsläufig die Elementmatrizen des linearen Ansatzes resultieren müssen.
Mit dieser Kondensation ist selbstverständlich eine sehr starke Verfälschung,
genauer gesagt eine Vergrößerung der Eigenwerte verbunden. So sind für eine
beidseitig eingespannte Saite der Länge Eins die exakten Eigenwerte
Akx = (krrf In Tab. 3.6 sind die Näherungswerte Ak für Elemente mit
quadratischem Ansatz und die Näherungswerte Ar
nach dem Kondensations-
prozeß für verschiedene Elementanzahlen nel zusammengestellt. Die relativen
Fehler nehmen mit zunehmendem Index k zu. Man beachte die Gesetzmäßig-
keiten und die offensichtlich gültigen Fehlergesetze, nach denen die relativen
Fehler abnehmen [StF73]. ..
Tab. 3.6 Eigenwerte der schwingenden Saite

nel k ).ZX Ak rel. Fehler .*


).,k rel. Fehler

1 9.8696044 9.8716979 2.12' 10- 4 10.198390 3.33 . 10- 2


5 2 39.478418 39.604985 3.21 . 10- 3 44.888128 1.37· 10- 1
3 88.826440 90.149020 1.49 . 10- 2 116.1174 3.07' 10- 1

1 9.8696044 9.8697372 1.35 . 10- 5 9.9510430 8.25 . 10- 3


10 2 39.4788418 39.486792 2.12' 10- 4 40.793560 3.33 . 10- 2
3 88.826440 88.919526 1.05 . 10- 3 95.575492 7.60' 10- 2

1 9.8696044 9.8696127 8.45 . 10- 7 9.8899146 2.05 . 10- 3


20 2 39.478418 39.478949 1.35 . 10- 5 39.804172 8.25 . 10- 3
3 88.826440 88.832453 6.77 . 10- 5 90.482100 1.86· 10- 2

BeispieI3.11 Die Eigenfrequenzen der Biegeschwingungen eines homogenen


Balkens der Länge Eins sollen einmal mit Elementen berechnet werden, welche
durch Zusammensetzung zweier Elemente je der Länge 1und Elimination der
beiden inneren Knotenvariablen wund w' gewonnen werden. Nach (2.24) sind
die Elementmatrizen des zusammengesetzten Elementes gegeben durch

6 31 0 0 I -6 31
31 2/ 2 0 0 I -31 P
I
S=-
2 0 0 6 -31 I -6 -31
e 13 0 0 -31 21 2 I 31 P
-------------~-------
-6 -31 -6 31 I 12 0
I
31 P -31 P I 0 4P
196 3 Das Gesamtproblem

156 221I 54 -131 0 0


221 4P 0 0 I 131 -3P
I
/ 0 0 156 -221 I 54 131
M=-
e 420 0 0 -221 4P I -131 -3/2
---------------+--------
54 13/ 54 -13/ I 312 0
I
-131 -3P 13/ -3P I 0 8P
wobei im Hinblick auf die Kondensation die Knotenvariablen in U e = (Wl, wj,
w" wJ, W:~, w2) T gemäß Fig. 3.26 angeordnet sind.

L, .I. Fig.3.26
Zusammengesetzte Balkenelemente
Es sind hier zwei Kondensationsschritte auszuführen. Der erste Eliminations-
schritt für W2 mit
3 I 1
0"1 =- 4/' 0"2 = - 4' 0"4=-4' 0"5 = 0

liefert als Zwischenergebnis die Matrizen

15 9/I -24 9 31
91 7P 31 -/2 I -121
S* =_1_ 9 31 15 -91 I -24
e 2/ 3 I
-31 -P -9 7P I 121
---------------+---
-24 -121 -24 12/ I 48

1161
720 -96 281 I 216
24P -281
116/ 8P I 521
-96 -281 I 216
720 -1161
M*=_I- I
e 1680 8P -116/ 24P
28/ I -521
-----------------r---
216 52/ 216 -52/ I 1248
Der zweite Kondensationsschritt für W2 liefert mit
1 1
0"1 ="2' 0"4=--/
4 '
l
3.3 Elimination von inneren Freiheitsgraden, Kondensation 197

31 -3
s** = _1_
e 21 3 :1
4P -31 31
2P J und
-3 -3/ 3 -3/

l~l
31 2P -31 4P

156 441
16P
54
26/
-261
-12P
J
M** =_1_
e 210 54 261 156 -441 .
-261 -l2P -441 16P

Beachtet man an dieser Stelle, daß 1 = l..1* gleich der halben Länge des zu-
2
sammengesetzten Elementes ist, so verifiziert man sofort, daß die kondensier-
ten Matrizen identisch sind mit den Matrizen für das Balkenelement der Länge
1*. Die Kondensation hat in diesem Fall nur den Effekt, daß man tatsächlich
mit einer Diskretisation in Balkenelemente der doppelten E1ementlänge
arbeitet. Der Rechenaufwand für die beiden Kondensationsschritte war also
nicht der Mühe wert. Die Eigenwerte sind deshalb mit entsprechend größeren
Fehlern behaftet, wie aus Tab. 3.7 ersichtlich ist.
Die Zahl der Unbekannten kann aber auch so auf die Hälfte reduziert werden,
daß die Auslenkungen als Meistervariable und die Ableitungen als die
untergeordneten, zu eliminierenden Knotenvariablen betrachtet werden. Zur
Illustration betrachten wir einen am linken Ende eingespannten Balken der

Tab. 3. 7 Eigenwerte für Balkenschwingung, ohne und mit Kondensation

net = 3 6 9 12 18

Wl = 3.516372 3.516038 3.5160198 3.5160167 3.516015555


(1.01 . 10- 4 ) (6.55 . 10- 6) (1.30' 10- 6) (4. I3 . 10- 7) (8.13 . 10- 8)
wl'= 3.516987 3.516059 3.516023 3.5160174 3.516015645
(2.76 . 10- 4 ) (1.24' 10- 5) (2.20 . 10- 6) (6.05' 10- 7) (1.07' 10- 7)

W2 = 22.106859 22.039932 22.035598 22.034845 22.034562


(3.28 . 10- 3) (2.47 . 10- 4 ) (5.02 . 10- 5) (1.61 . 10- 5) (3.19' 10- 6)
W1 = 22.236188 22.044814 22.036268 22.035008 22.034584
(9.15 . 10- 3) (4.68 . 10- 4) (8.06' 10- 5) (2.34 . 10- 5) (4.20 . 10- 6)

w3= 62.465982 61.810105 61.720942 61.704878 61.698750


(1.25 . 10- 2) (1.83 . 10- 3) (3.85 . 10- 4 ) (1.24 . 10- 4 ) (2.49 . 10- 5)
wf= 62.668511 61.932409 61.736965 61.708665 61.699248
(1.57' 10- 2) (3.81 . 10- 3) (6.44 . 10- 4 ) (1.86 . 10- 4) (3.30 . 10- 5)
198 3 Das Gesamtproblem

Fig.3.27
Eingespannter Balken

Länge Eins, eingeteilt in drei Elemente gleicher Länge 1= 1/3 (Fig. 3.27). Die
Gesamtsteifigkeits- und Gesamtmassenmatrizen lauten unter Berücksichti-
gung der beiden geometrischen Randbedingungen w = w' = 0 im Knoten-
punkt der Einspannung bei einer Anordnung der Knotenvariablen gemäß

(3.49)
nach Einsetzen des Wertes 1= 1/3
12 -6 0 I 0 1 0
-6 12 -6 I -1 0 1
I
0 -6 6 I 0 -1 -1
S= 54 --------~------------
0 -1 0 I 4/9 1/9 0
1 0 -1 I 1/9 4/9 1/9
I
0 -1 I 0 1/9 2/9

312 I 0
54 -13/3 0 0
54 312 54 I 13/3 0 -13/3
I
0 54 156 I 0 l3/3 -22/3
1
M = - - -------------r------------
1260
0 13/3 0 I 8/9 -1/3 0
-13/3 0 13/3 I -1/3 8/9 -1/3
I
0 -l3/3 -22/3 I 0 -1/3 4/9
Die daraus resultierenden kondensierten Matrizen S* und M* der Ordnung
drei sind beide vollbesetzt. Dies trifft auch zu bei feinerer Balkenunterteilung.

Fig.3.28
Struktur der Matrizen vor Kondensation
3.3 Elimination von inneren Freiheitsgraden, Kondensation 199

In Fig. 3.28 ist die identische Besetzung der beiden Matrizen Sund Mbei einer
zu (3.49) analogen Anordnung der Knotenvariablen für neun Balkenelemente
dargestellt. Die vier Untermatrizen sind je tridiagonal. Nach Elimination der
untergeordneten Knotenvariablen wj entstehen zwei vollbesetzte Matrizen S*
und M* der Ordnung neun.
Es ist in der Tat eine allgemeine Regel, daß die Kondensation die Bandstruktur
der Matrizen zerstört und vollbesetzte Matrizen liefert, oder zumindest so
besetzte Matrizen, daß sie als vollbesetzt zu behandeln sind. Unter diesem
Aspekt muß eine wesentliche Reduktion der Zahl der Unbekannten erfolgen,
damit der Rechenaufwand zur Lösung der verbleibenden allgemeinen Eigen-
wertaufgabe mit vollbesetzten Matrizen auch kleiner wird im Vergleich zum
Aufwand zur Behandlung des nichtkondensierten Eigenwertproblems zwar
von höherer Ordnung, jedoch mit Bandmatrizen.
In Tab. 3.7 sind die drei kleinsten Kreisfrequenzen Wk = Jf; für einige Ele-
mentzahlen nel ohne Kondensation und die entsprechenden Werte wt der
kondensierten Matrizenpaare S* und M* bei Elimination der Ableitungen je
mit den relativen Fehlern zusammengestellt. Die exakten Werte der Kreisfre-
quenzen als Lösung der transzendenten Gleichung
cos z . eh z + 1 = 0, w = z2

sind wr" = 3.516015269, wi = 22.03449156, w·r = 61.697214.


x

Die Kondensation bezüglich der Ableitungen vergrößert die Eigenfrequenzen


praktisch nicht im Vergleich zur Kondensation von Knotenpunkten, d. h.
gleichzeitiger Elimination von Wert und Ableitung. Die Ableitungen sind
deshalb echte untergeordnete Variable, welche mit Recht eliminiert werden
dürfen.
Anderseits zeigen die Zahlwerte der Kreisfrequenzen nach Kondensation die
allgemein gültige Tatsache auf, daß die höheren Eigenwerte eine relativ
stärkere Vergrößerung erfahren. Diese Erscheinung kann damit erklärt
werden, daß für die eliminierten Variablen vermöge der statischen Konden-
sation mit A. = 0 Werte vorgeschrieben werden, die nicht den Werten des
uneingeschränkten Eigenwertproblems entsprechen. Insbesondere den höhe-
ren Eigenvektoren, die ja die Eigenschwingungsformen darstellen, wird
dadurch ein Zwang auferlegt, welcher notwendigerweise eine immer stärkere
relative Vergrößerung der Eigenwerte nach sich zieht. ...
Eine grundsätzliche Verbesserung der Situation bringt die frequenzabhän-
gige oder dynamische Kondensation, indem in der Gleichung (3.36) für A.
ein dem Problem angepaßter fester Wert eingesetzt wird. Die eliminierten
Variablen erhalten dann nämlich ihre exakten Werte, falls für A. ein Eigenwert
der nicht kondensierten Aufgabe eingesetzt wird. Setzt man wenigstens einen
Näherungswert ein, so erfährt der betreffende Eigenwert unter der dynami-
200 3 Das Gesamtprobiern

schen Kondensation eine geringe Änderung. Sollen zumindest bestimmte der


höheren Eigenwerte genauer bestimmt werden, so bietet sich das folgende
Vorgehen an: Mit dem Näherungswert, der sich nach statischer Kondensation
ergeben hat, wird die Rechnung mit einer frequenzabhängigen Kondensation
wiederholt.
Zu diesem Zweck sind die oben entwickelten Formeln entsprechend zu
verallgemeinern. Für die dynamische Kondensation ist anstelle der Matrix T ia
nach (3.37) die Matrix

I ria = -(Sü - XMü)-I(Sia - XMia ) I (3.50)

mit einem vorgegebenem Wert X zu verwenden. Der weitere Rechengang ist


formal identisch, so daß sich vollkommen analog die kondensierten Matrizen
ergeben

(3.51)
(3.52)

Für die Elimination einer einzigen Knotenvariablen folgen daraus die leicht
modifizierten Rechenregeln zur Berechnung der kondensierten Matrizen. Man
bilde die Hilfsgrößen

_
Gj - -
s 0 - Xmf!j
, (j = 1,2, . .. ,.u - 1) (3.53)
sf!f!-J..mf!f!

und damit die Elemente der kondensierten Matrizen

l
Sjt = Sjk + GjSf!k + Sf!jGk + GjGkSj1f!
mjt = mjk + Gjmf!k + mf!jGk + GjGkmf!f! (3.54)
(j, k = 1,2, ... ,.u - 1)
Die Elemente der kondensierten Steifigkeitsmatrix berechnen sich jetzt nach
derselben komplizierter aufgebauten Formel wie diejenigen der kondensierten
Massenmatrix. Die Werte Gj sind von Xabhängig, so daß die Vereinfachung im
Fall der Steifigkeitsmatrix nicht mehr wie oben möglich ist. Es liegt auf der
Hand, daß die dynamische Kondensation, angewendet zur Elimination von
inneren Knotenvariablen, in den Beispielen 3.10 und 3.11 zu anderen
kondensierten Matrizenpaaren führt.
BeispieI3.12 Um die Wirkung der dynamischen Kondensation zu illustrieren,
betrachten wir die Aufgabe, die Eigenwerte der schwingenden Membran von
Beispiel 1.4 zu berechnen. Dazu sollen quadratische Ansätze der Lagrange-
Klasse (2.72) in Rechteckelementen gemäß der Elementeinteilung nach Fig.
3.3 Elimination von inneren Freiheitsgraden, Kondensation 201

3.29 verwendet werden. Die fünf kleinsten Eigenwerte des uneingeschränkten


Problems mit n =91 Knotenvariablen sind Al =0.686211, . 1. 2 = 1.268091,
. 1. 3 = 2.530602, . 1.4 = 2.555006, ..1. 5 = 3.136886.

0 0 0 0 0 0

0 0 0 0 0 0

0 0 0 0 0 0

Fig.3.29 0 0 0 0 0 0

Diskretisation der Membran

Sodann wurden die inneren Knotenpunkte der Elemente nach der dynami-
schen Kondensationsmethode eliminiert. Die Ordnung der kondensierten
Matrizen S* und M* beträgt n * = 67. Durch diese Kondensation bleibt die
Bandstruktur der Gesamtmatrizen erhalten. In Fig. 3.30 ist die Abhängigkeit
der fünf kleinsten Eigenwerte von X dargestellt. Ist X gleich einem der
Eigenwerte Ab so stimmt der betreffende Eigenwert ..1.: mit Ak exakt überein,
während die übrigen Eigenwerte ..1./ des kondensierten Eigenwertproblems
teilweise wesentlich zu hoch ausfallen.

x
.1.5

3.0
l4
':3

2.0

l'z

1.0
Fig.3.30 li
Frequenzabhängige Konden-
sation. Elimination von inneren
Elementknotenvariablen.
Membranschwingung 00 1.0 2.0 3.0 i
202 3 Das Gesamtproblem

Das Beispiel wurde absichtlich so gewählt, daß die Frequenzabhängigkeit der


Eigenwerte des kondensierten Problems stark ausfällt. Die eliminierten
inneren Knotenvariablen der Elemente stellen keine geeigneten untergeord-
neten Variablen dar. Bei problemgerechter Wahl der Meistervariablen wer-
den die höheren Eigenwerte weit weniger beeinflußt (vgl. Beispiele m
Kapitel 6). ..
4 Behandlung der linearen Gleichungssysteme

In diesem Kapitel befassen wir uns damit, die anfallenden linearen Glei-
chungssysteme in sehr vielen Unbekannten unter Berücksichtigung ihrer
Struktureigenschaften möglichst effizient zu lösen. Die konkrete Wahl einer
der im folgenden beschriebenen Methoden zur Lösung eines sehr großen
Gleichungssystems mit schwach besetzter Matrix wird entscheidend be ein-
flußt durch die hardwaremäßigen Gegebenheiten des verwendeten Rechners.
So wird in erster Linie die Kapazität des Speichers mit schnellem Zugriff, dann
werden ebenfalls die Übertragungsgeschwindigkeit zwischen dem Zentralspei-
cher und den Hilfsspeichermedien, wie etwa Plattenspeicher, ausschlaggebend
sein, und die Architektur des Computers hinsichtlich Vektorisierung und
Parallelisierung ihren wesentlichen Einfluß haben.
Grundsätzlich ist zu unterscheiden zwischen direkten und iterativen
Methoden. Die erstgenannten beruhen auf der sukzessiven Elimination der
Unbekannten mit dem Gauß-Algorithmus oder dem Cholesky-Verfahren. Die
Eliminationsmethoden erfordern die Speicherung der Systemmatrix und des
Konstantenvektors oder zumindest von bestimmten Teilen davon, damit im
Verlauf des Prozesses ein direkter Zugriff auf die benötigten Werte möglich ist.
Die Größe des Zentralspeichers bildet oft eine natürliche Schranke für die
Ordnung der so lösbaren Gleichungssysteme, weshalb hier Fragen der
ökonomischen Speicherung zentral sind. Falls aber infolge der Größe des zu
lösenden Problems Hilfsspeicher verwendet werden müssen, so muß die
Lösungsmethode den Charakteristiken der Hilfsspeicher Rechnung tragen,
um insbesondere die Zeit für Transferoperationen klein zu halten. In diesem
Zusammenhang kann der Ursprung der zu lösenden Gleichungssysteme zur
Entwicklung von geeigneten Rechentechniken so berücksichtigt werden, daß
die sukzessive Kompilation der linearen Gleichungen mit der gleichzeitigen
Elimination verknüpft wird, was zur Band- und Frontlösungsmethode
führt.
Die iterativen Verfahren bestimmen die gesuchte Lösung als Grenzwert einer
Folge von Näherungen, und haben insbesondere die Eigenschaft, die schwache
Besetzung der Koeffizientenmatrix ausnützen zu können und die Matrix
unverändert lassen. Diese Tatsache erfordert nur die Speicherung der von Null
verschiedenen Matrixelemente, so daß der dafür nötige Speicherbedarf im
Vergleich zu den Eliminationsmethoden oft bedeutend geringer ist. Für
bestimmte Iterationsverfahren ist eine permanente Speicherung der Steifig-
keitsmatrix nicht erforderlich, weil die Iterationsschritte ganz auf der Basis der
Elementarmatrizen durchführbar sind. Auf diese Weise gelingt es, sehr große
lineare Gleichungssysteme mit minimalem Speicherbedarf zu lösen, wobei
allerdings der Rechenaufwand ansteigt, weil die Elementmatrizen in jedem
Iterationsschritt neu zu berechnen sind. Für Rechenanlagen mit relativ
204 4 Behandlung der linearen Gleichungssysteme

kleinem Zentralspeicher stellen iterative Lösungsverfahren eine praktikable


Alternative dar, mit welchen doch Probleme von respektabler Größe bewältigt
werden können. Schließlich besitzen die iterativen Verfahren zur Lösung von
linearen Gleichungssystemen, die in der Methode der finiten Elemente
auftreten, eine zunehmende Bedeutung für Vektorrechner, da der Grad der
Vektorisierbarkeit im Vergleich zu direkten Methoden höher ist, falls die
Koeffizientenmatrix speziell strukturiert ist oder falls geeignete Datenstruktu-
ren verwendet werden.

4.1 Klassische Eliminationsmethoden

Die behandelten Probleme führen auf Gleichungssysteme mit symmetrischen


und positiv definiten Koeffizientenmatrizen. Da solche Matrizen die Eigen-
schaft haben, daß insbesondere ihre Hauptabschnittsdeterminanten aufstei-
gender Ordnung positiv sind, ist der Gauß 'sehe Algorithmus mit Pivotele-
menten in der Hauptdiagonalen durchführbar, so daß die reduzierten Systeme
wiederum symmetrisch sind [Scw88]. Die positive Definitheit vereinfacht den
Auflösungsprozeß wesentlich, weil einerseits keine Pivotsuche nötig ist und
anderseits aus Symmetriegründen nur mit den Elementen in und unterhalb der
Diagonale gearbeitet werden kann. Obwohl der Gauß'sche Algorithmus zu
den bekannten elementaren numerischen Verfahren gehört, sollen der Formel-
satz und die algorithmische Beschreibung zusammengestellt werden, um
daraus sowohl die spezielleren Techniken abzuleiten als auch die Aspekte der
Vektorisierbarkeit zu berücksichtigen.
Zu lösen sei das symmetrisch-definite Gleichungssystem

Ax + b = 0, AT = A, A positiv definit (4.1)

in n Unbekannten. Ausgeschrieben lautet (4.l) allgemein


n
.L aikXk + bi = 0, (i = 1,2, ... , n). (4.2)
k~1

Im ersten repräsentativen Eliminationsschritt wird im System (4.2) die


Unbekannte XI aus der zweiten bis n-ten Gleichung eliminiert, indem von der
i-ten Gleichung das (ail/ all)-fache der ersten Gleichung subtrahiert wird. Die
Koeffizienten des ersten reduzierten Gleichungssystems in den Unbekannten

n
'"
L. (I) Xk
Qik + b(l)
i -- , ° (._ 2, 3, ... ,
1- n) (4.3)
k~2
4.1 Klassische Eliminationsmethoden 205

sind gegeben durch


(1) ail alk
aik = aik - ---, (i, k = 2, 3, ... , n), (4.4)
an

bI(l) = b·I - an b l ,
(i = 2, 3, ... , n.) (4.5)
all

Aus (4.4) ist offensichtlich, daß das reduzierte System (4.3) symmetrisch ist als
Folge der Symmetrie von A. Zur Reduktion des Rechenaufwandes werden
zweckmäßig die Faktoren

In =~, (i = 2,3, ... , n) (4.6)


all
definiert, mit deren Hilfe sich die Formeln (4.4) und (4.5) vereinfachen zu

(4.7)
(i = 2, 3, ... , n; k = 2, 3, ... , i).
In (4.7) wurde bereits berücksichtigt, daß nur mit der unteren Hälfte der
Matrix A gearbeitet wird, indem alk durch akI ersetzt worden ist und der
Kolonnenindex k nur bis zum Wert i läuft.
Die Faktoren In nach (4.6) besitzen eine weitere Bedeutung: Dividieren wir die
erste Gleichung von (4.2) durch all, so lautet sie unter Berücksichtigung der
Symmetrie von A
n
Xl + I hlXk + Cl = 0 mit Cl = bI/all' (4.8)
k=2

Dies stellt die sogenannte erste Endgleichung dar, aus welcher sich die
Unbekannte Xl aus bekannten Werten für X2, X3, ••• , X n berechnen läßt. Da diese
Zahlwerte für diesen Zweck benötigt werden, speichert man sie zweckmäßiger-
weise an die Stelle der entsprechenden an- Werte. Nach (4.7) darf dies aber erst
nach erfolgter vollständiger Berechnung der Koeffizienten geschehen. aW
Desgleichen kann nachträglich auch Cl aus (4.8) an den Platz von b l
gespeichert werden.
Mit dem reduzierten Sxstem (4.3) verfährt man analog. Infolge der positiven
Definitheit von A ist a2~) > 0, so daß die Unbekannte X2 aus den Gleichungen
für i = 3,4, ... , n eliminiert werden kann. Man bildet die Faktoren
(I)
li2 = a~~), (i = 3,4, ... , n) (4.9)
a22
206 4 Behandlung der linearen Gleichungssysteme

und die Koeffizienten des zweiten reduzierten Systems


(2) _ (I) 1 (I) b(2) - b(l) 1 b(l)
aik - aik - i2 a k2, i-i - i2 2 , (4.10)
Ci = 3, 4, ... , n; k = 3, 4, ... , i).

Die zweite Endgleichung lautet


n
X2 + I h2 Xk + C2 = 0 mit C2 = bil)/ag). (4.11 )
k=3

Nach (n - 1) Eliminationsschritten besteht das reduzierte System aus der


einzigen Gleichung

für die letzte Unbekannte Xn , welche nach Division durch a~~ - I) zur n-ten
Endgleichung wird

(4.12)

Die gesuchten Unbekannten ergeben sich in der Reihenfolge X n , Xn-I, ... , X2, XI
aus den entsprechenden Endgleichungen durch den Prozeß des Rückwärts-
einsetzens.
Der Gaußsche Eliminationsprozeß besitzt eine Intepretation als Zerlegung der
gegebenen Matrix A in das Produkt einer Linksdreiecksmatrix L mit Diago-
nalelementen gleich Eins und einer Rechtsdreiecksmatrix R. Fassen wir die
Faktoren lik in einer Linksdreiecksmatrix L und die Koeffizienten der ersten
Gleichung sowie die Koeffizienten je der ersten Gleichung der reduzierten
Systeme zu einer Rechtsdreiecksmatrix R nach (4.l3) zusammen, wo die
Situation für n = 4 dargestellt ist, so zeigt eine elementare Rechnung, daß die
Matrizengleichung (4.14) gilt.

r;"
0

131 132
0
0
0
0
0 r~"
al2

0
(1)
a22
an
(1)
a23
(2)
a"
(1)
a24
(2)
J ra"
a21
al2 a13

a22 a23
a24 J (4.13)
a"
J
a33 a34 a31 a32 a33 a34
141 142 143 0 o (3)
a44 a41 a42 a43 a44

L R A (4.14)
Auf Grund der Definition der Faktoren l ik läßt sich die Rechtsdreiecksmatrix
R als das Produkt einer Diagonalmatrix D, deren Diagonalelemente gleich den
positiven Pivotelementen all, ag), ... , a~~-I) sind und der zu L transponierten
Matrix darstellen. In der Tat gilt im konkreten Fall n = 4
4.1 Klassische Eliminationsmethoden 207

R=[~" ~~ :lr, :~t[~" ~g> ~ß) ~ 1. [~ ~:


o 0 0 all J 0 0 0 a~)J 0 0
t ; : LDLT
0 1 J (4.15)
Mit der aus (4.14) und (4.15) folgenden Produktdarstellung der symmetrischen
und positiv definiten Matrix A

IA =LDLT I Gauß (4.16)


wird das zu lösende Gleichungssystem (4.1)

LDL T x + b = O. (4.17)

Definieren wir weiter die Hilfsvektoren y und c durch


y = -DLTx, Dc = y, (4.18)
so ist (4.17) äquivalent zu den Relationen

-Ly +b = 0 (4.19)
-Dc+ y = 0 (4.20)
LT X +C = 0 (4.21)
Die Gleichungen (4.19) und (4.20) fassen die Formeln zusammen zur
Berechnung der Komponenten der Konstantenvektoren der reduzierten
Systeme und damit des Konstantenvektors c der Endgleichungen (4.21). Die
Rechenvorschrift (4.19) und (4.20) beinhaltet den Prozeß des Vorwärtsein-
setzens, da sich die Komponenten von c in aufsteigender Reihenfolge
ergeben. Schließlich faßt (4.21) das Rückwärtseinsetzen zusammen.
Der Gauß sehe Eliminationsalgorithmus besteht somit aus den drei getrennten
Teilprozessen der Zerlegung von A nach (4.16), dem Vorwärtseinsetzen und
dem Rückwärtseinsetzen. In der Regel wird die Faktorisierung (4.16) der
Matrix A separat als Programm realisiert, da die Prozesse des Vorwärts- und
Rückwärtseinsetzens die Matrizen L und D nicht verändern. Es besteht so die
Möglichkeit, nacheinander mehrere Gleichungssysteme mit derselben Matrix
A aber verschiedenen Konstantenvektoren b zu lösen. Davon wird in manchen
Anwendungen Gebrauch gemacht.
Die algorithmische Implementierung der Zerlegung (4.16) hat bei alleiniger
Verwendung der unteren Hälfte der Matrix A die geringfügige Problematik,
daß die Zahlenwerte der Matrixelemente /ik erst dann an die Stelle der
entsprechenden aik gespeichert werden können, wenn der betreffende Elimina-
tionsschritt beendet ist. Die dargestellte Faktorizierung entspricht dem
kolonnen weisen Aufbau der Dreiecksmatrix L. Durch eine geeignete
208 4 Behandlung der linearen Gleichungssysterne

Änderung der Operationsreihenfolge kann die Matrix L auch zeilenweise


aufgebaut werden, und in dieser Form besitzt die F aktorisierung (4.16)
zusammen mit den Prozessen des Vorwärts- und Rückwärtseinsetzens (4.19)
bis (4.21) günstige Eigenschaften bezüglich der Vektorisierung für Matrizen
mit bestimmten Strukturen.
Die erwähnte Problematik wird in der symmetrischen ZerIegung von A
nach Cholesky [Ben24] eliminiert. Dazu werden anstelle der Faktoren In in
(4.6) mit Hilfe der Quadratwurzel aus dem positiven Pivot element all die
Größen

In = i-,
yall
(i = 2, 3, ... , n) (4.22)

definiert, so daß sich die Formeln (4.4) zur Berechnung der KoeffIzienten a\P
des ersten reduzierten Systems vereinfachen zu

alk) = aik -Inhl, (i = 2,3, ... , n; k = 2, 3, ... , i) (4.23)

Da gemäß (4.23) für den Reduktionsschritt neben den Matrixelementen aik mit
i~2 und k~2 nur die neu definierten Faktoren (4.22) benötigt werden,
können dieselben sofort anstelle der entsprechenden Werte an gespeichert
werden.
Die erste Endgleichung (4.8) erfährt natürlich auch eine Modifikation, damit
die neuen Werte (4.22) eine Bedeutung erhalten. Dazu ist die erste Gleichung
von (4.2) durch va;;
zu dividieren und wird, falls wir gleich die weiteren
Hilfsgrößen

(4.24)

definieren, zu
n
IllXl + I
hlXk + Cl = O. (4.25)
k=2
Die Formel (4.5) zur Berechnung der Konstanten des ersten reduzierten
Systems wird nach (4.22) und (4.24)

bP) = bi -InCl, (i = 2, 3, ... , n). (4.26)

Die Fortsetzung des Prozesses verläuft vollkommen analog. Der zweite


Eliminationsschritt erfordert die Berechnung der Größen
(1)
122 = y aW,
r7T'l
li2 = ---r;; ,
ai2 (i = 3, 4, ... , n), (4.27)
4.1 Klassische Eliminationsmethoden 209

aIr = alk) - li2 h2, (i = 3,4, ... , n; k = 3, 4, ... , i), (4.28)


b~l)
C2 = - - , (4.29)
h2
b12) = bP) - li2c2, (i = 3,4, ... , n). (4.30)

Die Formeln (4.27) und (4.28) stellen in offensichtlicher Verallgemeinerungs-


fihigkeit den symmetrischen Zerlegungsalgorithmus nach Cholesky dar,
während (4.29) und (4.30) den Prozeß des Vorwärtseinsetzens definieren.
Die nach der Cholesky-Zerlegung resultierende Linksdreiecksmatrix L besitzt
für n = 4 die Gestalt

L=
~ ~ : ~2 ~ ~ J
131 132 133 0
141 142 143 144
Ihre Diagonalelemente sind gleich den Quadratwurzeln der Diagonalelemente
der Diagonalmatrix D in (4.15). Die Linksdreiecksmatrix L Cho1 der Cholesky-
Zerlegung entsteht aus der Linksdreiecksmatrix L Gauß der Gauß-Zerlegung
durch Multiplikation mit der Diagonalmatrix D 1/2
(4.31 )
Anstelle von (4.16) gilt somit für eine symmetrische und positiv definite Matrix
A die symmetrische Produktdarstellung

Cholesky (4.32)

Mit (4.32) wird das zu lösende Gleichungssystem (4.1)


LLTx +b = 0,
welches mit dem einzigen Hilfsvektor c = - L T x äquivalent ist zu den beiden
Systemen

-Lc +b=O (4.33)


LTx +c= 0 (4.34)

Der Hilfsvektor c ergibt sich aus (4.33) durch den Prozeß des Vorwärtseinset-
zens, während sich anschließend der Lösungsvektor x aus (4.34) durch
Rückwärtseinsetzen berechnen läßt.
Die Methode von Cholesky erfordert im Vergleich zum Gauß-Algorithmus
zusätzlich die Berechnung von n Quadratwurzeln, welche einzig dadurch
210 4 Behandlung der linearen Gleichungssysteme

bedingt sind, daß die Zerlegung der Matrix A unter Wahrung der Symmetrie
durchgeführt wird. Dieser unwesentliche Mehraufwand wirkt sich einerseits in
einer Vereinfachung des Computerprogramms aus, da die Zerlegung der
Matrix A in die Linksdreiecksmatrix L auf dem Platz von A erfolgen kann, und
anderseits zeichnet sich die Methode von Cholesky durch eine bemerkenswerte
numerische Stabilität aus [Wi169]. Aus diesen beiden Gründen geben wir im
folgenden der Variante von Cholesky den Vorzug.
Eine mögliche algorithmische Beschreibung des Prozesses der Zerlegung
(4.32), basierend auf den oben entwickelten Formeln, sowie des Vorwärtsein-
setzens (4.33) und des Rückwärtseinsetzens (4.34) lautet wie folgt unter der
Annahme, daß mit den unteren Hälften der Matrizen A und L gearbeitet wird
und daß die übliche Indizierung verwendet wird. Die Anweisungen sind
teilweise im dynamischen Sinn zu verstehen, und es ist stillschweigend
angenommen, daß leere Schleifen übersprungen werden.
Zerlegung:
für p = 1,2, ... , n:
Ipp = Va;;
für i = P + 1,p + 2, ... , n: (4.32')
lip = aipllpp

für k = p + 1,p + 2, ... , i:


aik = aik -liphp

Vorwärtseinsetzen:
fürk= 1,2, ... ,n:
s = bk
für i = 1,2, ... , k - 1: (4.33')
s = s - hiCi

Ck = slhk

Rückwärtseinsetzen:
für k = n, n - 1, ... , 1:
s= Ck

für i = k + 1, k + 2, ... , n: (4.34')


s = s + likXi
Xk = -sllkk
4.1 Klassische Eliminationsmethoden 211

Auf Grund der oben gemachten Feststellung können in (4.32') die Elemente
likmit den entsprechenden Matrixelementen aik identifiziert werden, so daß
nach ausgeführter Zerlegung die Matrix A die Elemente von L enthält. Eine
analoge Identifikation ist einerseits in (4.33') für c und b und anderseits auch
in (4.34') für c und x möglich, so daß der Lösungsvektor x an der Stelle von b
erscheint.
Als Vorbereitung für die Modifikation des Cholesky-Verfahrens zur Lösung
von linearen Gleichungssystemen mit Band- und Hüllenstruktur unter dem
Gesichtspunkt einer guten Vektorisierbarkeit betrachten wir die Zerlegung
(4.32) für eine vollbesetzte Matrix A E lR n x n, wobei A und L wie folgt unterteilt
seien.

A~l a2l
[ a2l a22 (4.35)
A 3l a32

In (4.35) sollen mit i > 2 gelten


All, L ll E lR(i-l)X(i-l); a2l, 121 E lR(i-l); an 122 E lR;

A 3l , L 3l E lR(n-OX(i-l); a32, 132 E lR(n-i); A 33 , L 33 E lR(n-i)X(n- il.

Durch Vergleich entsprechender Elemente der partitionierten Matrix A


ergeben sich insbesondere

All = LllL(l;

(4.36)

Für i=2 sind All und L ll Matrizen der Ordnung Eins und es folgt für das
einzige Matrixelement 111 = ,;;;;;. Wir wollen jetzt annehmen, daß L ll für
>
ein i 2 bekannt sei und zeigen, daß III und lz2 als nächste Zeile von L
berechnet werden können. Aus (4.36) folgen die beiden Gleichungen

(4.37)
Die erste Gleichung besagt, daß der Vektor 121 durch den elementaren Prozeß
des Vorwärtseinsetzens gewonnen werden kann, weil L 11 eine Linksdreiecks-
matrix darstellt, und die zweite Gleichung liefert /22 im wesentlichen mit Hilfe
eines Skalarproduktes. Die beiden Beziehungen (4.37) bilden die Grundlage
für einen zeilenweisen Aufbau der Matrix L der Cholesky-Zerlegung
(4.32).
212 4 Behandlung der linearen Gleichungssysteme

4.2 Rechentechniken für Bandmatrizen

Bei entsprechender Numerierung der Knotenvariablen haben die zu lösenden


Gleichungssysteme oft Bandstruktur. Diese Eigenschaft der Koeffizientenma-
trix reduziert nicht nur den Speicherbedarf sondern auch den Rechenaufwand
zur Lösung eines linearen Systems ganz wesentlich, denn das Verfahren von
Cholesky bewahrt die Bandstruktur. Besitzt die Matrix A die Bandbreite m, so
hat die Linksdreiecksmatrix L der Cholesky-Zerlegung A = LLT ebenfalls die
Bandbreite m, d. h. für die Elemente unterhalb der Diagonalen gilt

lik = 0 für alle i > k + m. (4.38)


Es genügt zu zeigen, daß im ersten Eliminationsschritt die Matrix L in der
ersten Kolonne nur von Null verschiedene Elemente erhält, welche innerhalb
der m Nebendiagonalen liegen, und daß die Matrix des reduzierten Glei-
chungssystems (4.3) wiederum die Bandbreite m besitzt. Dann gilt die Aussage
a fortiori für die nachfolgenden Eliminationsschritte. In der Tat folgt nach
(4.22) sofort, daß

l i! ai!- = 0 f··url. > m +1


=-
va;; (4.39)

gilt als Folge der Bandstruktur von A mit ai! = 0 für i-I> m. Nach (4.23)
überträgt sich die Bandgestalt von A auf die Matrix Al mit derselben
Bandbreite m, da für ein reduziertes Element der unteren Hälfte

(4.40)

mit i > k + m sowohl das Matrixelement aik verschwindet als auch wegen (4.39)
Ii! = 0 ist, da i> k + m ;> m + 2 gilt. Daraus folgt die Behauptung

a)ll = 0 für alle Ii - k I > m.

x
xx
xxx
xx xl~"
xxxxIX',
xx 'xx',
x XiX x x",
x ~2<_~_~_',.
xxxxx
xxxxx
xxxxx
xxxx~~,
xxxx x'"
xx 'xx', Fig.4.l
x ~X2<~,
Zur Reduktion einer symmetrischen Bandmatrix
4.2 Rechentechniken für Bandmatrizen 213

Folglich spielt sich die Zerlegung einer positiv definiten Bandmatrix A


vollständig innerhalb der unteren Hälfte des Bandes ab, und die Matrix L
nimmt genau den Platz von A ein. Ferner erkennt man aus (4.39) und (4.40),
daß ein einzelner Reduktionsschritt nur die Elemente des Bandes in einem
dreieckigen Bereich erfaßt, welche in den nachfolgenden m Zeilen liegen, falls
die Faktorisierung kolonnenweise durchgeführt wird. In Fig. 4.1 ist der
typische p-te Reduktionsschnitt für eine Bandmatrix der Bandbreite m = 4
dargestellt wie auch ein später Reduktionsschritt, welcher die Elemente in
einem entsprechend kleineren Dreiecksbereich verändert.
Der Rechenaufwand für einen allgemeinen Zerlegungsschritt nach Cholesky
erfordert eine Quadratwurzel für lpp = ..Ja;~ -1) , m Divisionen für die Werte
lip = a~-I)/lpp und ~ m(m + 1) Multiplikationen zur Berechnung der Ele-
2
mente ai~) = ay-I) - liphp. Für eine Matrix der Ordnung n ergibt sich ein
Rechenaufwand von n Quadratwurzeln und höchstens ~ nm(m + 3)multi-
2
plikativen Operationen. Der Rechenbedarf für eine Cholesky-Zerlegung ist
direkt proportional zur Ordnung n und zum Quadrat der Bandbreite m. Zur
Minimierung des Rechenaufwandes ist somit die Bandbreite m möglichst klein
zu halten, was jetzt die Bedeutung des Algorithmus von Cuthill-McKee zur
Bestimmung einer optimalen Numerierung der Knotenpunkte erklärt. Kann
beispielsweise als Resultat des Numerierungsalgorithmus die Bandbreite um
25 % verkleinert werden, so reduziert sich der Rechenaufwand für die
Zerlegung fast auf die Hälfte, falls nur die Bandstruktur berücksichtigt wird.
Selbstverständlich erfahren auch die Prozesse des Vorwärts- und Rückwärts-
einsetzens für Bandmatrizen eine entsprechende Vereinfachung, weil in (4.33')
und (4.34') die Summationen nur über (höchstens) m Indexwerte zu erfolgen
hat. Deshalb beträgt der Rechenaufwand für beide Prozesse zusammen
höchstens 2n(m + 1) wesentliche Operationen. Er ist somit direkt proportional
zur Ordnung n und zur Bandbreite m.
Zur Implementierung der Cholesky-Zerlegung einer symmetrischen, positiv
definiten Bandmatrix ist es sicher naheliegend, eine Speicheranordnung nach
Fig. 3.3 zu verwenden. In Fig. 4.2 sind in Übereinstimmung zu Fig. 4.1 die im
typischen p-ten Eliminationsschritt sowie im (n - 3)-ten Schritt zu behandeln-
den Elemente gekennzeichnet. Für Skalarrechner mit Zufallszugriffspeichern
(sog. RAM) ergibt sich eine einfache und zweckmäßige Realisierung der
Zerlegung und der Prozesse des Vorwärts- und Rückwärtseinsetzens, wobei
lediglich eine simple Indexsubstitution erforderlich ist. Für Rechner mit
virtueller Speicherstruktur, welche beim Zugriff auf Matrixelemente aus
verschiedenen Kolonnen der Anordnung gemäß Fig. 4.2 einen Seitenwechsel
(pa ging) erfordern können, wie auch für Vektorrechner ist diese Datenstruk-
214 4 Behandlung der linearen Gleichungssysteme

o 0 0 0 X
o 0 X X
o XXX

~
o ~XX~
X xi
xi
X
__
~ ~~_~J
xxxxx
xxxxx
xxxxx
xxxx[g]
XM!5<1
X xi Fig.4.2
X ~ __>$_~J
Zur Cholesky-Zerlegung einer Bandmatrix

tur zusammen mit der kolonnenweisen Berechnung der Dreiecksmatrix L


weniger geeignet.
Deshalb ist es notwendig, sowohl die Datenstruktur der Bandmatrix als auch
die algorithmische Vorgehensweise den Gegebenheiten der modernen Rechner
anzupassen. Es ist zweckmäßiger, die Elemente der unteren Hälfte einer
symmetrischen und positiv definiten Bandmatrix A mit der Bandbreite m
zeilenweise abzuspeichern in einem eindimensionalen Feld, wobei für jede
Zeile (m + 1) Plätze vorgesehen werden, so daß die Diagonalelemente aii an
den gleichabständigen Stellen mit dem Indexj= i(m + 1) gespeichert sind (vgl.
Fig. 4.3 im Fall m = 3).

o 0 0 a11 0 0 a21

Fig.4.3 Zeilenweise Speicherung einer Bandmatrix A

Die Cholesky-Zerlegung soll jetzt mit einem zeilenweisen Aufbau der MatrixL
erfolgen gemäß (4.37). Zur Berechnung der Elemente der i-ten Zeile von L mit
2 ~ i ~ m stellt L 11 in (4.37) eine Linksdreiecksmatrix der Ordnung (i - 1) dar,
und das Element Ilj mit I ~j ~ i-I berechnet sich nach der Formel

Ilj = (alj - J
k=1
I : lik1Jk)/ljJ, Ci = 1,2, ... , i-I), (4.41)

während sich das Diagonalelement lii aus

li; = [aii - iI:


k=1
dk]1/2 (4.42)

ergibt. Für m < i ~ n ist zu beachten, daß einerseits die Matrix L Bandstruktur
besitzt und anderseits im Vektor a21 wegen der Bandgestalt von A nur die
4.2 Rechentechniken für Bandmatrizen 215

letzten m Komponenten VOn Null verschieden sind, wasja auch für hl zutrifft.
Deshalb beschränkt sich der Prozeß des Vorwärtseinsetzens zur Berechnung
der relevanten Elemente von 121 auf eine Untermatrix, welche nur die
vorhergehenden m Zeilen von L umfaßt und selbst von Dreiecksgestalt ist. Die
Formeln (4.41) sind zu modifizieren in

lij = ( aij - L
j-l )
lik1jk Iljj , (j = i - m, i - m + 1, ... , i-I), (4.43)
k=l-m

während in (4.42) analog der Anfangswert k durch i - m zu ersetzen ist. Die


beiden Situationen lassen sich mit j: = max (1, i - m) als untere Grenze für
den Summationsindex k und für den kleinsten Index} gemeinsam behandeln.
Weiter kann die Berechnung der Klammerausdrücke in (4.43) und (4.42)
kombiniert werden, falls anschließend eine Fallunterscheidung erfolgt. Der
Zerlegungsprozeß für eine symmetrische, positiv definite Bandmatrix Ader
Ordnung n und der Bandbreite m läßt sich wie folgt formulieren, falls die
übliche Indizierung verwendet wird.

für i = 2, 3, ... , n:
f = max (1, i - m)
für} = f,f+ 1, ... , i:
(4.44)
für k = f, f + 1, ... ,} - 1:
s = s -likljk
falls} < i dann lij = siljj
sonst li; = .JS
Da das Matrixelement aij in (4.44) zum letzten Mal gebraucht wird zur
Berechnung von lij, kann I mit a identifiziert werden, so daß nach vollendetem
Algorithmus die Matrix A durch L ersetzt ist. Dabei wird L zeilenweise
aufgebaut in der Art, daß in der Anordnung von A gemäß Fig.4.3 der
Zerlegungsprozeß VOn links nach rechts fortschreitet. Injedem Stadium ist nur
der Zugriff auf höchstens (m + 1)2 Matrixelemente erforderlich, welche zudem
aufeinanderfolgend gespeichert sind. Dies wirkt sich vorteilhaft aus bei
Rechnern mit virtuellem Speicher, da die Zahl der Seitenwechsel reduziert
wird. Schließlich sind im wesentlichen in der innersten Schleife Skalarproduk-
te zu bilden von Vektoren, welche der i-ten und}-ten Zeile von L entnommen
sind. Ihre Komponenten sind je aufeinanderfolgend gespeichert, so daß diese
Operationen vektorisierbar sind. Allerdings nimmt die Länge des Skalarpro-
duktes von 1 auf (m - 1) zu.
216 4 Behandlung der linearen Gleichungssysteme

Der Prozeß des Vorwärtseinsetzens (4.33) ist der Bandstruktur anzupassen,


wie dies in (4.43) bereits beschrieben worden ist. Die algorithmische Beschrei-
bung lautet:

für i = 1,2, ... , n:


s = bi
f = max (1, i - m)
für j = f, f + 1, ... , i-I: (4.45)
s= S -/ijCj

Cj = S//ii

In (4.45) erscheint wiederum als wesentliche Operation ein Skalarprodukt


eines Vektors, bestehend aus den Nichtdiagonalelementen der i-ten Zeile von
L, und einem Teilvektor c. Für i> m haben die Skalarprodukte die Konstante
Länge m und betreffen Vektoren mit aufeinanderfolgend gespeicherten
Komponenten, was eine Vektorisierung erlaubt.
Um auch für das Rückwärtseinsetzen eine analoge Vektorisierung zu erzielen,
muß das Vorgehen gegenüber (4.34') modifiziert werden. Zu diesem Zweck
verwende ich die Feststellung, daß nach berechneter letzter Unbekannten X n
die Lösung von L T x + C = 0 auf die Behandlung eines Gleichungssystems der
Ordnung (n -1) zurückgeführt werden kann, indem man X n eliminiert. Die
Elimination von X n erfolgt durch Addition des xn-fachen der letzten Kolonne
von L T (ohne Diagonalelernent) zum Vektor c und nachfolgendem Streichen
der letzten Gleichung. Mit jeder weiter berechneten Unbekannten verfährt
man genau so. Nun ist aber zu beachten, daß die genannten Kolonnen von L T
den Zeilen von L entsprechen, deren Komponenten aufeinanderfolgend
gespeichert sind, so daß eine typische Vektoraddition (sog. Triade) auszufüh-
ren ist. Die Formulierung des Rückwärtseinsetzens unter Berücksichtigung
der Bandstruktur lautet somit:

für i = n, n - 1, ... , 1:
Xi = - C;//ii

f = max (1, i - m) (4.46)


fürj= f,f+ 1, ... , i-I:

In (4.46) gilt wiederum, daß c durch x ersetzt werden kann. Dasselbe muß dann
auch in (4.45) geschehen, so daß der Hilfsvektor c eliminiert ist. Im Prinzip läßt
sich weiter x mit b identifizieren, derart daß der Lösungsvektor x anstelle von b
resultiert.
4.2 Rechentechniken für Bandmatrizen 217

Das Vorgehen zum kolonnenweisen oder zeilenweisen Aufbau. der Matrix L


wurde unter der stillschweigenden Annahme dargestellt, daß die Matrix A
innerhalb des Bandes voll besetzt ist. Oft werden aber die in (3.11) definierten
zeilenabhängigen Bandbreiten mi(A) teilweise stark variieren, und es sind
innerhalb dieser individuellen Bandbreiten verschwindende Matrixelemente
vorhanden. Im Verlauf der Zerlegung erhalten bestimmte Nullelemente
innerhalb der zeilenabhängigen Bandbreiten Werte ungleich Null, d. h. die
schwach besetzte Bandmatrix wird teilweise aufgefüllt. Die variablen Band-
breiten können im Fall des kolonnenweisen Aufbaus von L vermittels eines
einfachen Tests berücksichtigt werden, indem im allgemeinen p-ten Reduk-
tionsschritt die Elemente a~) der i-ten Zeile nur dann berechnet werden, falls
das Element hp =1= 0 ist. Wird jedoch L zeilenweise aufgebaut, dann lassen sich
die individuellen Zeilenbandbreiten im Zerlegungsalgorithmus (4.44) zumin-
dest teilweise dadurch berücksichtigen, daß anstelle der Werte f die von i
abhängigen Werte .fi(A) nach (3.10) verwendet werden, weil diejenigen
verschwindenden Matrixelemente aij der i-ten Zeile, welche links von ersten
von Null verschiedenen Matrixelemente liegen, wegen (4.43) ein lij = 0 ergeben.
Das bedeutet gleichzeitig, daß sich die variable Bandbreitenstruktur von A auf
die Linksdreiecksmatrix L überträgt. In beiden Fällen kann mit diesen
Maßnahmen oft eine beträchtliche Reduktion der Rechenzeit erzielt werden.
Eine zusätzliche Verminderung des Rechenaufwandes bei Berücksichtigung
der variablen Bandbreiten wird mit der hüllenorientierten Rechentechnik
erzielt (vgl. Abschn. 4.3).
Infolge der Tatsache, daß L die gleichen zeilenabhängigen Bandbreiten mi(A)
besitzt, lassen sich die Algorithmen des Vorwärts- und Rückwärtseinsetzens
(4.44) und (4.45) ebenfalls effizienter gestalten. Dort sind die Werte f durch
.fi(A) zu ersetzen, so daß in beiden Fällen der i-te Schritt nur mi(A) + 1
wesentliche Operationen erfordert. Mit dieser Modifikation beträgt der
Rechenaufwand für das Vorwärts- und Rückwärtseinsetzen nur
n
ZV+R = 2n +2 L mi(A) = 2p (4.47)
i=l

multiplikative Operationen und ist gleich dem doppelten Wert des Profils p
(3.14) der Matrix A. Da im Regelfall die Bandbreite m von den zeilenabhängi-
gen Bandbreiten mi(A) nur selten ausgeschöpft wird, ist ZV+R (4.47) oft um
einiges kleiner als 2n(m + I).
Die Größe des verfügbaren Zentralspeichers begrenzt die Anzahl der speicher-
baren Matrixelemente und setzt für das Produkt aus der Ordnung n und der
Bandbreite m der lösbaren Gleichungssysteme eine Limite. Zur Behandlung
von größeren Systemen müssen Hilfsspeicher benutzt werden, und der
Speicher mit schnellem Zugriff wird nur diejenigen Zahlenwerte enthalten, die
momentan zur Ausführung einer bestimmten Teiloperation nötig sind.
218 4 Behandlung der linearen Gleichungssysteme

Es wurde oben bereits festgestellt, daß entweder für einen Eliminationsschritt


der Cholesky-Zerlegung nur die Elemente in (m + 1) aufeinanderfolgenden
Zeilen der unteren Hälfte von A oder aber beim zeilenweisen Aufbau von L nur
die betreffende Zeile von A und die Untermatrix von L, bestehend aus den m
vorangehenden Zeilen, gleichzeitig erforderlich sind. In beiden Fällen sind dies
die Matrixelemente in einem Dreiecksbereich mit ~ (m + I)(m + 2) Plätzen.
2
Für die folgenden Betrachtungen wird angenommen, daß im Zentralspeicher
mindestens dieser Platz vorhanden sei, daß die Matrix A in Blöcken zu je einer
Zeile von (m + 1) Werten in der Anordnung von Fig. 4.3 vom Hilfsspeicher
abrufbar sei, und daß L zeilenweise aufgebaut werde.
Die Cholesky-Zerlegung einer sehr großen Bandmatrix A wird etwa so
initialisiert, daß die ersten m Zeilen in den Zentralspeicher geholt werden. Aus
Gründen der Speicherökonomie sollen die Matrixelemente der einzelnen
Zeilen aufeinanderfolgend in einem eindimensionalen Feld gemäß Fig.4.4
gespeichert werden. Zur besseren Übersicht ist die übliche Indizierung
verwendet und der Fall m = 4 dargestellt. Das Matrixelement aij ist die k-te
Komponente des Feldes mit k = i(i - 1)/2 + j.

Fig.4.4 Zeilenweise Speicherung einer Dreiecksmatrix. Cholcsky-Zerlegung einer


großen Bandmatrix

Für diese Untermatrix All der Ordnung m ist als Vorbereitung die Cholesky-
Zerlegung All = LllLfl nach einer der beiden dargelegten Varianten zu
berechnen, und die resultierende Teilmatrix L 11 ist zeilenweise in den
Hilfsspeicher zu übertragen. Jetzt ist die (m + l)-te Zeile von A in den
Zentralspeicher zu holen, so daß dort die Situation gemäß Fig. 4.5 herrscht.

Fig.4.5 Zeilenweise Zerlegung einer großen Bandmatrix

Die (m + 1)-te Zeile von L berechnet sich vermittels (4.41) und (4.42), wobei die
resultierenden I-Werte an die Stelle der a-Werte gesetzt werden können. Nach
vollendeter Berechnung der neuen Zeile von L ist dieselbe in den Hilfsspeicher
zu übertragen. Zudem ist im Arbeitsfeld die Untermatrix umzuspeichern, um
für die Behandlung der nächsten Zeile die analoge Situation zur Fig. 4.5 zu
schaffen, und die nächste Zeile von A ist zu transferieren (vgl. Fig.4.6).
Die Umspeicherung von L braucht nicht erst nach vollendeter Berechnung der
neuen Zeile zu erfolgen, wenn man beachtet, daß beispielsweise das erste
4.3 Hüllenorientierte Rechentechniken 219

Fig.4.6 Reduktion mit gleichzeitiger Umspeicherung

Diagonalelement der Untermatrix nicht mehr benötigt wird, sobald das erste
Element der neuen Zeile berechnet ist. Deshalb kann im Verlauf der
Berechnung des zweiten Elements bereits das zweite Diagonalelement umge-
speichert werden. So kann für k > 1 die Berechnung des k-ten neuen Elementes
mit der gleichzeitigen Umspeicherung der k-ten Teilzeile der Untermatrix
kombiniert werden.
Die Prozesse des Vorwärts- und Rückwärtseinsetzens erfolgen mit Hilfe der
Zeilen von L, welche im ersten Fall in aufsteigender und im zweiten Fall in
absteigender Reihenfolge vom Hilfsspeicher geholt werden müssen. Die
Algorithmen (4.45) und (4.46) sind nur mit den entsprechenden Transferope-
rationen zu versehen. Der Speicherbedarf im Zentralspeicher beläuft sich nur
auf gut m + n Plätze, falls die Vektoren h, c und x miteinander identifiziert
werden.
Das Verfahren von Cholesky für sehr große Bandgleichungssysteme wurde der
Durchsichtigkeit halber auf der Basis des Transfers einer einzigen Zeile von A,
bzw. von L beschrieben. In Abhängigkeit von der Bandbreite m und der Größe
des Zentralspeichers sind Varianten möglich, bei denen gleichzeitig mehrere
Zeilen transferiert werden. Bei geschickter Organisation und entsprechenden
technischen Möglichkeiten lassen sich Transferoperationen und arithmetische
Operationen entkoppeln, so daß sie weitgehend parallel ablaufen können und
Wartezeiten der Zentraleinheit minimal werden.

4.3 Hüllenorientierte Rechentechniken

Als Verfeinerung des Begriffs der Bandstruktur wurde im Abschn. 3.2.3 die
Hülle oder Enveloppe einer symetrischen Matrix eingeführt. Das Beispiel
3.8 zeigt, daß das Profil einer Matrix bei geeigneter Numerierung der
Knotenvariablen nach dem umgekehrten CuthiIl-McKee Algorithmus bedeu-
tend kleiner sein kann als der Wert n(m + 1), falls nur die Bandstruktur
berücksichtigt wird.
Zur numerischen Lösung eines linearen Gleichungssystems mit dem Gauß-
Algorithmus oder mit der Methode von Cholesky genügt es jedoch mit den
Elementen der Matrix A zu arbeiten, welche der Hülle von A angehören. Um
220 4 Behandlung der linearen Gleichungssysteme

das einzusehen soll gezeigt werden, daß durch den Eliminationsprozeß höch-
stens diejenigen Elemente verändert werden, welche der Hülle angehören.
Somit ist das sogenannte A uffüllen der Matrix (englisch: Fill-in)nichtnurauf
das Band sondern sogar auf die Hülle beschränkt. Es genügt zu zeigen, daß der
erste Reduktionsschritt gemäß (4.22) und (4.23) nur Elemente der Hülle betrifft,
weil dann diese Tatsache auch für die folgenden Eliminationsschritte zutrifft.
In der Tat liefern offensichtlich nur jene Elemente ai! der ersten Kolonne von A
von Null verschiedene Werte Ii!, welche zur Hülle gehören. Die Berechnung
der ersten Kolonne der Cholesky-Matrix L führt damit sicher nicht zur Hülle
heraus. Nun wenden wir uns dem Eliminationsschritt zu. Hier sind zwei Fälle
zu unterscheiden. Falls das Indexpaar (i, 1) mit i ~ 2 zur Hülle von A gehört, so
ist ai! i= 0 und damit auch Ii! =1= O. Für die betreffende i-te Zeile istfi(A) = 1, und
somit gilt für alle Indexpaare (i, k) E Env(A) mit 2< k < i. Genau die
entsprechenden Matrixelemente werden aber von der Elimination mit Ii!
erfaßt. Es sei aber gleich festgehalten, daß nur jene Elemente aik auch
tatsächlich verändert werden, falls hl =1= 0 ist. Falls also aik = 0 ist, erfolgt nur
dann ein Auffüllen mit aW =1= 0, wenn hl =1= O. Für die Hülle der reduzierten
MatrixA 1 gilt also für die i-te Zeile in diesem Fallfi(A 1) = 2 > fi(A) = 1. Gehört
aber das Indexpaar (i, 1) mit i~2 nicht zur Hülle von A, so bedeutet dies
fi(A) > 1, ai! = 0 und damit auch Ii! = O. Daraus folgt, daß die ganze i-te Zeile
von A unverändet bleibt, und es gilt damitfi(A I) = fi(A). Die Kombination der
beiden Aussagen über die Zeilenbandbreiten bedeutet aber, daß die Hülle von
Al in der Hülle von A enthalten ist:
Env(A 1) C Env(A) (4.48)

Da die Hülle einer Matrix nur Indexpaare von Elementen in und unterhalb der
Diagonalen betrifft, folgt weiter, daß die Hülle von L identisch ist mit
derjenigen von A, d. h. es gilt
Env(L) = Env(A). (4.49)

Folglich werden für die Durchführung der ChoIesky-ZerIegung nur diejenigen


Matrixelemente von A benötigt, deren Indexpaare der Hülle von A angehören,
und die Linksdreiecksmatrix kann an der Stelle von A gespeichert werden. Um
die variablen, zeilenabhängigen Bandbreiten auch speicherplatzmäßig auszu-
nützen, werden die wesentlichen Matrixelemente, nach einem Vorschlag von
Jennings [Jen66], Zeile um Zeile, je beginnend mit dem ersten von Null
verschiedenen Element bis und mit dem Diagonalelernent, fortlaufend in
einem eindimensionalen Feld gespeichert. Der dazu erforderliche Speicherbe-
darf entspricht dem Profil der Matrix. Diese Datenstruktur erfordert für den
einfachen Zugriff auf ein Matrixelement eine zusätzliche Information in Form
eines Vektors z mit n Zeigern, welche die Position der Diagonalelemente im
eindimensionalen Feld festlegen. In Fig. 4.7 ist die skizzierte Speicherung der
4.3 Hüllenorientierte Rechentechniken 221

Fig. 4.7 Zeilenweise Speicherung der Matrixelemente der Hülle

Matrixelemente einer Matrix A der Ordnung n = 6 mit einem Profil p = 16


zusammen mit dem Zeigervektor z dargestellt.
Man beachte, daß auch für Matrixelemente von A mit dem Wert Null, welche
zur Hülle gehören, ein Speicherplatz zu reservieren ist, weil damit zu rechnen
ist, daß im Verlauf der Zerlegung ein Auffüllen stattfindet. Im Fall der Matrix
Ader Fig. 4.7 ist der Fill-in sogar vollständig, und die Matrix L ist innerhalb
der Hülle voll besetzt.
Die zweckmäßige und wohl effizienteste Durchführung der Cholesky-Zer-
legung einer Matrix A mit variabler Bandbreite, gespeichert in der kompakten
Form gemäß Fig. 4.7, erfolgt zeilenweise unter Verwendung der Formeln
(4.41) und (4.42), die nur der Hüllenstruktur anzupassen sind. Dabei spielen
die Indexwerte ji(A) gemäß (3.10), welche die ersten von Null verschiedenen
Matrixelemente aij der i-ten Zeile kennzeichnen, eine Rolle. Denn die in (4.41),
bzw. (4.43) auftretenden Skalarprodukte sind für k nur vom größeren der
beiden Indizesji(A) undJj(A) bis und mit (j -1) zu bilden. Nach entsprechen-
der Modifikation von (4.44) kann die Cholesky-Zerlegung wie folgt formuliert
werden, falls wir dazu die übliche Indizierung der Matrixelemente verwenden.

111 = Va;;
für i = 2, 3, ... , n:
für} = ji,ji + 1, ... , i:
5 = aij

j.J. = max (fi,Jj) (4.50)


für k = j.J., j.J. + 1, ... ,} - 1:
5 = 5 -/ikl;k
falls} < i dann lij = 511))
sonst la = Vi
222 4 Behandlung der linearen Gleichungssysteme

Selbstverständlich kann in (4.50) die Matrix L am Platz von A aufgebaut


werden, wozu die Variable I durch a zu ersetzen ist. Im Algorithmus (4.50) ist
die Berechnung der Skalarprodukte in der innersten Schleife optimal vektori-
sierbar, denn die Werte lik und ljk sind in der zeilenweisen Speicherung nach
Fig. 4.7 je aufeinanderfolgend gespeichert. Allerdings kann die Länge des
Skalarproduktes mit (j - J1) Summanden in vielen Fällen klein sein.
Die Datenstruktur der kompakt gespeicherten Matrix A in Hüllenform wird
durch die Zeiger Zi auf die Position der Diagonalelemente beschrieben. Aus
dieser Information kann auf die WerteJ;(A) für i > 1 geschlossen werden, denn
die Differenz Zi - Zi - I ist gleich der Anzahl der Matrixelemente der i-ten Zeile
und somit gleich mi(A) + 1. Aus (3.11) folgt also

J;(A)=i+l+Z i - I -Zi , (i=2,3, ... ,n). (4.51)

Das Matrixelement aij mit (i,j) E Env(A) ist als k-te Komponente des
eindimensionalen Feldes gespeichert mit

k = Zi - i + j, (i, j) E Env(A). (4.52)

Im Algorithmus (4.50) sind die Indexpaare (i,j) der Matrixelemente durch den
Wert (4.52) zu ersetzen, um der kompakten Speicherung von A Rechnung zu
tragen.
Der Prozeß des Vorwärtseinsetzens läßt sich in Analogie zu demjenigen für
Bandmatrizen formulieren, wobei die Indexwerte J;(A) Verwendung finden.
Wegen (4.51) ist es zweckmäßig, den ersten Wert CI getrennt zu behandeln.

CI = bI!111
für i = 2,3, ... , n:
s =b i
für j = J;, J; + 1, ... , i-I: (4.52)
s = s -lijCj

Ci = sllii

Die zu berechnenden Skalarprodukte der innersten Schleife sind wiederum


vektorisierbar, da die auftretenden Komponenten je aufeinanderfolge nd
gespeichert sind.
Das Rückwärtseinsetzen erhält folgende algorithmische Beschreibung, falls
aus dem oben erwähnten Grund die zuletzt berechnete Unbekannte XI
gesondert behandelt wird.
4.3 Hüllenorientierte Rechentechniken 223

für i = n, n - 1, ... ,2:


Xi= -cJh
für j = fi, fi + 1, ... , i - I : (4.53)
Cj = Cj + xJij
XI = -CIIlll

Die innerste Schleife stellt eine Standardvektoroperation (sog. Triade) mit


dem konstanten Multiplikator Xi dar für aufeinanderfolgend gespeicherte
Vektorkomponenten und ist optimal vektorisierbar. Falls in (4.52) und (4.53)
der Hilfsvektor c mit x identifiziert wird, so entsteht in (4.53) die Anweisung
Xj = Xj + xJij, welche einer automatischen Vektorisierung durch einen Precom-
piler Schwierigkeiten bieten kann infolge eines möglichen Indexkonfliktes.
Mit einer Hilfsgröße für Xi kann die Situation für den Compiler allenfalls
geklärt werden.
Die Algorithmen des Vorwärts- und Rückwärtseinsetzens (4.52) und (4.53)
enthalten die Division durch die Diagonalelemente als skalar ausführbare
Operation. Der Grad der Vektorisierbarkeit von diesen beiden Prozessen kann
noch erhöht werden, falls anstelle der Cholesky-Zerlegung die Zerlegung
A = LDL T (4.16) verwendet wird. Werden zudem anstelle der Diagonalele-
mente von D die reziproken Werte gebildet, so ist zur Berechnung von c aus
- Dc + Y = 0 gemäß (4.20) eine komponentenweise Multiplikation von zwei
Vektoren anwendbar, und die erwähnten Divisionen in den beiden Teilschrit-
ten (4.19) und (4.21) entfallen, weil die Matrix L in diesem Fall in der
Diagonale Elemente gleich Eins aufweist.
Um die Matrix L zusammen mit D zeilenweise berechnen zu können,
betrachten wir die zu (4.35) analoge Zerlegung mit partitionierten Matrizen

All 021 AII] [Lll ] [DI ] [LII 12l


[ aZI a22 aI2 = ITI 1 d2
A31 032 A33 L31 132 L33 D3
wo mit i ~ 2 insbesondere folgendes gelten soll:
All, L ll , D I E !RU - I) X U- I); 021,/21 E IRU - I); a22, d2 E IR.
Daraus folgen durch Vergleich im speziellen die Beziehungen
All = LIIDIÜI;
ail = tiIDIÜI; a22 = tilDd21 + dz. (4.55)
Für i = 2 sind All, L ll und D I Matrizen der Ordnung Eins, und weil das
Element von L II gleich Eins ist, folgt für d ll = all. Jetzt sei angenommen, daß
224 4 Behandlung der linearen Gleichungssysteme

L II und D I für ein i ~ 2 berechnet seien. Dann lassen sich III und anschließend
d2 wegen (4.55) berechnen aus
L ll D I / 21 = a21 und d2 = a22 -/!JDlhl. (4.56)
Mit dem Hilfsvektor y E IR (i-I) erhalten wir 121 vermittels der beiden
Teiloperationen
(4.57)
d. h. durch ein Vorwärtseinsetzen den Vektor y und dann durch eine
komponentenweise Division mit den Diagonalelementen der Diagonalmatrix
D I die Elemente der i-ten Zeile von L. Das neue Diagonalelement d2 ergibt sich
aus a22 durch Subtraktion des Skalarproduktes, gebildet aus /21 undy = D I /2\.
Bei der Implementierung von (4.57) ist zu beachten, daß die Diagonalelemente
von L II gleich Eins sind, so daß die erste Komponente von y gleich der ersten
Komponente von a21 ist. In der nachfolgenden aigorithmischen Beschreibung
der Zerlegung vonA = LDLT wird der Vektor y an der Stelle der i-ten Zeile von
A aufgebaut, weshalb diese Berechnung erst mit dem zweiten Element der i-ten
Zeile startet. Da y und 121 benötigt werden zur Ermittlung des Hen
Diagonalelementes ist für letzteren ein Hilfsvektor erforderlich. Erst nach
Berechnung von d ii kann eine Umspeicherung erfolgen. Schließlich werden zur
Vermeidung der Divisionen die Kehrwerte der Diagonalelemente gespeichert
an den Ort der ursprünglichen Diagonalelemente.

all = I/all

für i = 2, 3, ... , n:
für} = Ji + I,Ji + 2, ... , i - 1:
= max (Ji,jj)
fl
für k = fl, fl + 1, ... ,} - 1:
aij = aij - aikajk
für} = Ji,Ji + 1, ... , i-I: (4.58)
lj = aijajj
für} = Ji,Ji + 1, ... , i-I:
aii = aii - aylj
für} = Ji,Ji + 1, ... , i-I:
a y = lj
aii = l/aii

Der Zerlegungsalgorithmus (4.58) ist für eine direkte Implementierung auf


einem Vektorrechner formuliert. Soll er auf einem Skalarrechner durchgeführt
4.3 Hüllenorientierte Rechentechniken 225

werden, so können die drei letzten Schleifenanweisungen zusammengefaßt


und die indizierte Variable lj kann durch eine temporäre, nichtindizierte
Variable ersetzt werden.
Das Vorwärts- und Rückwärtseinsetzen nach (4.19) bis (4.21) wird durch die
drei entsprechenden Programmteile beschrieben, wobei der Vektor c sogleich
durch x ersetzt wird.

Xj=-h

für i = 2, 3, ... , n:
xi=-b i (4.59)
für j = /;,/; + 1, ... , i-I:

für i = 1, 2, ... , n:
(4.60)
Xi = Xilii

für i = n, n - 1, ... ,2:


für j = /;,/; + 1, ... , i-I: (4.61)

Die innersten Schleifen in (4.59) und (4.61) lassen eine gute Vektorisierung zu
als Skalarprodukt, bzw. Triade für aufeinanderfolge nd gespeicherte Kompo-
nenten. In der Speicherung gemäß Fig. 4.7 ist (4.60) weniger gut vektorisier-
bar, weil die Diagonalelemente lji nicht einmal gleichabständig gespeichert
sind. Um auch in diesem Schritt eine optimale Vektorisierung zu erreichen, ist
die Datenstruktur zu ändern. Dazu sind die Diagonalelemente der Matrix A
und damit auch von L so zusammenzufassen, daß sie aufeinanderfolgend
gespeichert sind. Eine mögliche Realisierung besteht darin, zuerst die Nicht-
diagonalelemente der Hülle zeilenweise, je aufeinanderfolgend, und anschlie-
ßend die n Diagonalelemente im eindimensionalen Feld anzuordnen (vgl.
Fig.4.8). Die Zeigerwerte Zi geben jetzt die Position des letzten Nichtdiago-
nalelementes der i-ten Zeile an, und das i-te Diagonalelement befindet sich an
der Stelle k = Zn + i.
Damit die beschriebene Rechentechnik für eine der beiden Datenstrukturen
zur kompakten Speicherung der Matrixelemente der Hülle überhaupt an-
wendbar ist, muß die Systemmatrix selbstverständlich auch in der betreffen-
den Form aufgebaut werden. Der Speicherplan muß vor Beginn der Kompila-
tion der Gesamtsteifigkeitsmatrix (und der Gesamtmassenmatrix im Fall von
Eigenwertaufgaben) bekannt sein. In beiden Speicherungsarten spielen die n
Werte j,(A) die zentrale Rolle, welche sich für die aktuelle Numerierung der
226 4 Behandlung der linearen Gleichungssysteme

A=

Fig.4.8 Speicherung der Matrixelemente der Hülle für Vektorrechner

Knotenvariablen auf Grund ihrer Verknüpfungen durch die Elemente einfach


bestimmen lassen. Mit diesen Zahlenwerten bauen sich die Zeigerwerte Zi im
Fall der Anordnung gemäß Fig. 4.7 wie folgt auf
zl=l, Zi=Zi-l+i-h(A)+I, (i=2,3, ... ,n), (4.62)

während sie im Fall der Datenstruktur von Fig. 4.8 gegeben sind durch
ZI = 0, Zi = Zi-l +i - h(A), (i = 2, 3, ... , n). (4.63)

Der prinzipielle Aufbau eines Computerprogramms nach Fig. 3.6 ändert sich
nicht. Die Berücksichtigung der Randbedingungen ist selbstverständlich dem
Speicherplan anzupassen.

4.4 Band- und Frontlösungsmethode

Eine besondere Technik zur Lösung der sehr großen linearen Gleichungssyste-
me, die bei der Anwendung der Methode der finiten Elemente auftreten,
besteht darin, den Kompilationsprozeß zur Aufstellung der Gleichungen mit
der sukzessiven Cholesky-ZerJegung und dem Vorwärtseinsetzen zu kombi-
nieren. Die Idee beruht auf der schon im Abschn. 4.2 gemachten Feststellung,
daß für eine Bandmatrix mit der Bandbreite m für jeden Eliminationsschritt
nur (m + I) aufeinanderfolgende Zeilen der Matrix im Zentralspeicher verfüg-
bar sein müssen. Diese Tatsache wird in der einfachen und durchsichtigen
Bandlösungsmethode in der Weise ausgenützt, daß die Gleichungen in
strikt aufsteigender Reihenfolge zusammen mit den damit verknüpften m
nachfolgenden Gleichungen aufgebaut werden. Sobald alle Elemente, welche
die Knotenvariable mit dem kleinsten momentanen Index enthalten, im
4.4 Band- und Frontlösungsmethode 227

Kompilationsprozeß verarbeitet sind, erfährt die betreffende Gleichung durch


die nachfolgenden Kompilationsschritte keine Änderung mehr. Mit dieser
endgültigen Gleichung kann der Eliminationsschritt ausgeführt werden, und
die resultierenden Werte lip und cp der p-ten Endgleichung können in einen
Hilfsspeicher transferiert werden. Kompilation und Elimination werden in
geeignetem Wechsel ausgeführt, bis die Zerlegung und das Vorwärtseinsetzen
beendet sind. Die Unbekannten des Gleichungssystems ergeben sich anschlie-
ßend aus den Endgleichungen durch Rückwärtseinsetzen, wobei die betreffen-
den· Werte in umgekehrter Reihenfolge vom Hilfsspeicher geholt werden
müssen.
Die praktische Durchführung der bestechend einfachen Idee bedarf noch
einiger Präzisierungen und klärenden Erläuterungen. Eine erste Überlegung
betrifft die Vertauschbarkeit der Kompilation und der Elimination. Wir
betrachten den repräsentativen Fall der ersten Gleichung. Es seien alle
Beiträge derjenigen Elemente in der Gesamtmatrix und im Konstantenvektor
verarbeitet, welche die erste Knotenvariable enthalten. Die erste Gleichung ist
damit endgültig. Sie enthält bei einer Bandbreite m höchstens die (m + 1)
ersten Unbekannten, und die Koeffizienten der ersten Endgleichung sind nach
(4.24) und (4.22) gegeben. Die aktuellen Matrixelemente a7k und Konstanten
bf der nachfolgenden m Gleichungen, welche durch den Reduktionsschritt
(4.23) betroffen werden, sind aber in diesem Moment im allgemeinen noch
nicht endgültig, vielmehr werden sie durch die weiteren Kompilationsschritte
zusätzliche addi ti ve Beiträge erhalten. Infolge der Kommutativität der
Addition darf aber die Reduktion (4.23) an den noch nicht endgültigen
Matrixelementen a7k und den konstanten Termen bf vorgenommen werden,
indem die spätere Addition von weiteren Beiträgen zu den richtigen reduzier-
ten Elementen aW und b)1) führen. Aus numerischen Gründen können infolge
der Nichtkommutativität der Computerarithmetik allerdings leicht verschie-
dene Zahl werte resultieren.
Ein zweiter Punkt betrifft die Reihenfolge, in welcher die Daten der einzelnen
Elemente in den Rechenprozeß einzugehen haben. Damit die Kompilation
und fortlaufende Elimination in der beschriebenen Weise durchführbar sind,
sind die E1ementdaten so zu ordnen, daß die kleinsten Nummern der pro
Element beteiligten Knotenvariablen eine im schwachen Sinn monoton
zunehmende Folge bilden. Damit wird gewährleistet, daß die p-te Gleichung,
d. h. die p-te Kolonne in der Gesamtsteifigkeitsmatrix genau dann endgültig
geworden ist, wenn der kleinste Index q der am folgenden Element beteiligten
Knotenvariablen größer als p ist. Ist der Index q > P + 1, so bedeutet dies, daß
im ganzen q - p Gleichungen endgültig geworden sind, also q - p aufeinander-
folgende Eliminationsschritte durchführbar sind.
Eine dritte Frage betrifft den effektiv benötigten Speicherbedarf im Zentral-
speicher. Dazu muß von der Annahme ausgegangen werden, daß die
228 4 Behandlung der linearen Gleichungssysteme

Bandbreite m der dem Problem zugrundeliegenden Gesamtmatrix Aals


maximale Differenz der Indizes der pro Element beteiligten Knotenvariablen
bekannt sei. Dann wird genau der Platz für die wesentlichen Elemente von
(m + 1) aufeinanderfolgenden Gleichungen benötigt, d. h. bei Einschluß der
zugehörigen (m + 1) Konstanten beträgt dieser Bedarf
1 1
- (m + l)(m + 2) + (m + 1) = - (m + 1)(m + 4).
2 2
In der Tat liefert jeder Teilschritt der Kompilation, bestehend aus einer
Addition einer Elementmatrix zur Gesamtmatrix und eines Elementvektors
zum gesamten Konstantenvektor, unter den getroffenen Voraussetzungen
über die Reihenfolge der Elemente und die Bandbreite die Kolonne und
Komponente mit der momentan kleinsten Nummer der Knotenvariablen und
dazu einige unter den m darauffolgenden Kolonnen und Komponenten.
Dieser sogenannte aktive Teil der Koeffizientenmatrix wird zweckmäßiger-
weise in einem eindimensionalen Feld gemäß Fig. 4.4 und der aktive Teil des
Konstantenvektors in einem zusätzlichen Feld gespeichert. Auf Grund der
vorliegenden Situation muß jeder Reduktionsschritt im Sinn eines kolonnen-
weisen Aufbaus der Matrix L durchgeführt werden. Im ersten repräsentativen
Schritt werden die Werte 111,l21, ... ,lm+l,1 nach (4.32') und Cl berechnet und
sofort in einem eindimensionalen Feld abgespeichert, um so einerseits die
Übertragung der Zahl werte als Block auf den Hilfsspeicher vorzubereiten und
um anderseits die betreffenden Plätze im Arbeitsbereich für den Eliminations-
schritt frei zu machen. Anstatt die Elemente an ihrem Platz zu reduzieren und
anschließend eine Umspeicherung vorzunehmen, kann die Umspeicherung
mit der Reduktion der Matrixelemente kombiniert werden. Der erste repräsen-
tative Reduktionsschritt mit der zugehörigen Datenumspeicherung ist in
Fig. 4.9 im Fall m = 4 dargestellt. Dasselbe erfolgt auch mit dem aktiven Teil
des Konstantenvektors bei der Ausführung der Operationen des Vorwärtsein-
setzens. Nach erfolgtem Eliminationsschritt sind die letzten (m + 1) frei
gewordenen Plätze im Arbeitsspeicher der Matrix A sowie die letzte Kompo-
nente des Konstantenvektors mit Nullwerten zu besetzen, damit die nachfol-
genden Additionen von Elementbeiträgen in diese Stellen richtig behandelt
werden.

Fig.4.9 Bandlösungsmethode, Reduktion und Datenumspeicherung


4.4 Band- und Frontlösungsrnethode 229

Neben dem bereits erwähnten Speicherbedarf wird im wesentlichen noch der


Platz für die größte auftretende Elementmatrix und den Elementvektor , sowie
die notwendigen Angaben der Eckenkoordinaten, letztere allenfalls nur für
den aktuellen Teil der Elemente, benötigt. Dieser Speicherplatz ist aber bei
Aufgaben mit größerer Bandbreite m von untergeordneter Bedeutung, so daß
die Cholesky-Zerlegung zusammen mit dem Vorwärts einsetzen nach der
Bandlösungsmethode mit einem wesentlichen Speicherbedarf für etwa
J... m(m + 7) Werte durchführbar ist.
2
Schließlich müssen im Ablauf der Bandlösungsmethode die Randbedingungen
geeignet mitberücksichtigt werden, weil andernfalls die Cholesky-Zerlegung
wegen der Singularität der Gesamtsteifigkeitsmatrix bei Abwesenheit von
Randbedingungen gar nicht möglich wäre.
Wir wollen annehmen, daß die beteiligten Knotenvariablen von 1 bis n
durchnumeriert seien. Dann sind vor Beginn des Prozesses die Indizes und die
Randwerte der betreffenden Knotenvariablen zu definieren. Im Kompilations-
prozeß ist jetzt die zweite in Abschn.3.2.3 beschriebene Vorgehensweise
anzuwenden. Eine Addition eines Matrixelementes der Elementmatrix in den
aktiven Teil der Gesamtmatrix darf nur dann stattfinden, falls beide Indizes zu
unbekannten Knotenvariablen gehören. Ist eine der beiden Knotenvariablen
durch einen Randwert vorgegeben, liefert der betreffende Wert der Element-
matrix, multipliziert mit dem Randwert, einen additiven Beitrag zur Kompo-
nente des Konstantenvektors mit dem Index der anderen Knotenvariablen.
Sind beide Knotenvariablen vorgegeben, geschieht nichts. Die Addition des
Elementvektors zum Konstantenvektor unterliegt einer analogen Fallunter-
scheidung.
Auf diese Weise behalten alle Elemente der Gesamtmatrix, welche in einer
Zeile und Kolonne liegen, die einer durch eine Randbedingung vorgegebenen
Knotenvariablen entsprechen, den Wert Null sowohl für die Kompilation als
auch injedem Eliminationsschritt. Wird eine solche Gleichung endgültig, sind
im Reduktionsschritt einzig Ipp = 1, lip = 0 für i = P + 1, P + 2, .. .,p + m sowie
cp gleich dem negativen Randwert zu setzen, und die Matrixelemente im
Arbeitsbereich nach Fig. 4.9 sind nur umzuspeichern, um unnötige Multipli-
kationen mit Null zu vermeiden.
Die Bandlösungsmethode ist ein durchsichtiges und einfach realisierbares
Verfahren zur Lösung von sehr großen symmetrisch-definiten Gleichungssy-
stemen mit Bandstruktur, da nur der aktive Teil des Systems aufgebaut und
darauf der Eliminationsprozeß so weit als möglich angewendet wird. Der
Transfer der Koeffizienten der Endgleichungen auf den externen Speicher
erfolgt im Wechsel mit den Kompilations- und Eliminationsschritten, so daß
Wartezeiten minimal sind. Der Ablauf der Bandlösungsmethode ist im
230 4 Behandlung der linearen Gleichungssysteme

I Start I
t
Eingabe von allgemeinen Problemdaten, wie Zahl
der Knotenvariablen, Zahl der Elemente, Zahl

,
der Eckpunkte, Bandbreite m, allgemein gültige
physikalische Konstanten, etc.

Eingabe der Eckenkoordinaten.


Eingabe der durch Randbedingungen
gegebenen Knotenvariablen und deren Werte.
Nullsetzen des Arbeitsspeicherplatzes
ftir die Matrix und den Konstantenvektor.

I •
Elementzähler: i = I
Gleichungszähler: p = 1
I
t
Daten des i-ten Elementes wie Typus, beteiligte
Knotenvariable und weitere Parameter.

,
Bestimmung der kleinsten Variablennurnmer q .

N • I
q>p?
J

Eliminationsschritt ftir die endgültige p-te


Gleichung mit Test, ob die p-te Knotenvariable
durch Randbedingung gegeben ist oder nicht.
2pp , 2P + 1 • P " •. ,2 p + m ,p; cp -~ Hilfsspeicher.
Nullsetzen der m + 1 letzten Plätze im Arbeitsspeicher.
t N
I p = n? p := p + I
tJ
Lösung des Systems: Rückwärtseinsetzen.
i
I I
..
Ende

Addition der Elementbeiträge zur Gesarntrnatrix


und zum Konstantenvektor unter Berücksichti-
gung der Randbedingungen.
t J
I i = nel? q-n+ll
tN
I i:= i + 1

Fig.4.10 Blockdiagramm zur Bandlösungsmcthode


4.4 Band- und Frontlösungsmethode 231

wesentlichen im Blockdiagramm der Fig.4.10 zusammengefaßt. Dabei ist


angenommen, daß nur ein einziges Gleichungssystem zu lösen sei.
Beispiel4.1 Zur Illustration der Bandlösungsmethode betrachten wir die
überblickbare AufgabensteIlung von Beispiel 3.1. Zur Vervollständigung der
Aufgabe seien Dirichletsche Randbedingungen am oberen und unteren Rand
vorgegeben, so daß sie mit der Numerierung der Knotenpunkte nach Fig. 4.11
lauten
Ul = U6 = Ull = U17 = U24 = U29 = U33 = U36 = U38 = 1,

Us = UlO = UIS = U16 = U22 = O. (4.64)

Fig.4.11
Bandlösungsmethode
Tab.4.1 Knotennummern pro Element

Element PI P2 P3 P4 Pj P6 q P

1 I 3 11 2 7 6 1 -
2 3 13 11 8 12 7 3 1-2
3 5 13 3 9 8 4 3 -
4 5 15 13 10 14 9 5 3-4
5 11 13 24 12 18 17 11 5-10
6 13 26 24 1 25 18 13 11-12
7 15 26 13 20 19 14 13 -
8 15 28 26 21 27 20 15 13-14
9 15 22 28 16 23 21 15 -
10 26 33 24 30 29 25 24 15-23
11 26 35 33 31 34 30 26 24-25
12 28 35 26 32 31 27 26 -
13 35 38 33 37 36 34 33 26-32
- - - - - - - 39 33-38

Die Numerierung der Elemente erfüllt die Voraussetzung der Bandlösungsme-


thode, wonach die kleinsten Indexwerte q der Elemente eine nichtabnehmende
Folge bilden müssen. In Tab.4.1 sind die Knotennummern der einzelnen
Elemente zusammen mit den Indexwerten q zusammengestellt. Die letzte
232 4 Behandlung der linearen Gleichungssysteme

Kolonne zeigt die Indexwerte p an, für welche die Elimination durchführbar
ist, bevor das betreffende Element in den Kompilationsprozeß eingeht. An
Fig. 4.11 können mit Hilfe der Tab. 4.1 die abwechselnden Kompi1ations- und
Eliminationsschritte nachvollzogen werden. Nach erfolgter Kompilation des
letzten Elementes wird q = 39 gesetzt, und die restlichen endgültigen Gleichun-
gen 33 bis 38 können dem Eliminationsprozeß unterzogen werden.

13 14 15 16 17 18 19 20 21 22 23 24 25 26
13 X
14 XX
r--------------------
15 X XiX
16 I
X I X
17 I
18 X I XX
I
19 X XI XX
I
20 X XI XX
21 I
I
22 I
I
23 I
I
24 X XXX X
I
I
Fig.4.l2
25 X XX XX
I Aktiver Teil der Gesamtmatrix,
26 X XI XXX XXX
Bandlösungsmethode

Greifen wir die Situation nach erfolgter Addition des Beitrages von Element 7
heraus. In Fig.4.12 ist der aktive untere Teil der Gesamtmatrix in der
normalen Anordnung wiedergegeben, wobei die potentiell von Null verschie-
denen Elemente mit einem Kreuz markiert sind. Zur besseren Orientierung
sind die Indexwerte der Knotenvariablen und Gleichungen oben und am
linken Rand angegeben. Man beachte, daß in diesem Stadium die Diagonalele-
mente der Gesamtmatrix mit den Indexwerten 16,21,22 und 23 noch den Wert
Null besitzen, wie auch die zugehörigen Zeilen, da die betreffenden Knoten-
punkte erst in den Elementen 8 und 9 auftreten. Da überdies die Bandbreite der
Gesamtmatrix m = 13 beträgt, wird der gesamte Arbeitsbereich für 14
aufeinanderfolgende Zeilen in der momentanen Situation auch benötigt.
In Fig.4.l2 ist vereinfachend nicht berücksichtigt, daß im speziellen die
Variablen U15 und U24 durch Randwerte vorgegeben sind. Deshalb dürften in
den zugehörigen Zeilen und Kolonnen keine von Null verschiedenen Elemente
vorhanden sein.
Bevor der Beitrag von Element 8 im aktiven Teil der Systemmatrix verarbeitet
werden kann, sind die Gleichungen 13 und 14 zu eliminieren. Die unbekannte
Knotenvariable Ul3 ist bei diesem Eliminationsschritt im Prinzip mit allen
Variablen U14 bis U26 verknüpft. Die Menge dieser Knotenvariablen bildet die
sogenannte momentane Front im Eliminationsprozeß. Die zugehörigen
Knotenpunkte sind in Fig. 4.12 durch ausgefüllte Kreise hervorgehoben.
4.4 Band- und Frontlösungsmethode 233

Sobald auch U14 eliminiert ist, stehen die Elemente im eingerahmten Teilbe-
reich nach ihrer Reduktion um zwei Plätze nach links oben verschoben. Unten
erscheinen zwei leere, mit Nullwerten aufgefüllte Zeilen, welche damit für die
Aufnahme der Beiträge des Elementes 8 bezüglich der Knotenvariablen 27 und
28 bereit sind.
Am Beispiel 4.1 ist eine Schwäche des Bandlösungsverfahrens erkennbar.
Obwohl die gewählte Numerierung nicht der optimalen mit minimaler
Bandbreite entspricht, so wird aus der Fig. 4.12 deutlich, daß der aktive Teil
der Gesamtmatrix einige Zeilen und Kolonnen enthält, welche überhaupt
nicht besetzt sind, weil sie Unbekannten entsprechen, welche Elementen
angehören, die erst in einem späteren Kompilationsschritt behandelt werden,
deren Indizes aber kleiner als 26 sind. Im besonderen betrifft dies die
Knotenvariablen U16, U21, U22 und U23, welche im betrachteten Stadium der
Bandlösungsmethode nicht nur den aktiven Teil der Matrix, sondern auch den
Rechenaufwand unnötigerweise erhöhen. ...
Die Idee der Bandlösungsmethode kann aber so verfeinert werden, daß eine im
allgemeinen entscheidend effizientere Durchführung der Kompilations-/Eli-
minationsschritte resultiert. Dazu muß man nicht die Numerierung der
Knotenvariablen in den Vordergrund stellen, sondern die Kompilation und
die Elimination sollen auf der Basis der Elemente durchgeführt werden.
Dieses Vorgehen wurde von Irons [Iro70, IrA80] und von Melosh und
Bamford [MeB69] als Frontlösungsmethode vorgeschlagen. Das prinzi-
pielle Vorgehen besteht aus folgenden Schritten: Der Kompilationsprozeß
wird mit einem geeigneten Element gestartet und die entsprechende Element-
matrix in der sogenannten aktiven Frontmatrix A gespeichert, wofür in
diesem Moment nur der Platz der unteren Hälfte der Elementmatrix erforder-
lich ist. Desgleichen wird der Elementvektor in einem aktiven Konstanten-
vektor b abgespeichert. Zusätzlich sind im sogenannten Frontvektor die
Indizes der aktiven Knotenvariablen, zugehörig zur Frontmatrix, festzuhal-
ten.
Sind unter den aktiven Knotenvariablen solche enthalten, die in den weiteren
Elementen nicht mehr auftreten, so sind die betreffenden Gleichungen der
aktiven Frontmatrix und des aktiven Konstantenvektors endgültig und
können somit eliminiert werden. Im allgemeinen sind die entsprechenden
Unbekannten nicht an der ersten Stelle der Frontmatrix. Deshalb ist der
Reduktionsschritt der Cholesky-Methode zu modifizieren. Hat die aktive
Frontmatrix A die momentane Ordnung m, soll die p-te Unbekannte eliminiert
werden, so wird im Hilfsvektor I mit den (m + 1) Komponenten

Ip := v'i;;; Ij:= apj/lpp, j = 1,2, ... , m;j =1= p;

Im+l :=bp/lpp
234 4 Behandlung der linearen Gleichungssysteme

gebildet. Damit kann der Reduktionsschritt an der Matrix A und dem


Konstantenvektor b wie folgt ausgeführt werden:

aij = aij -IJj, (i = 1,2, ... , m;j = 1,2, ... , i)


bj = bi -IJm+J. (i = 1,2, ... , m) (4.65)

Eigentlich müßten in (4.65) die Indexwerte i =p undj= p ausgelassen werden,


doch sind anschließend die Matrixelemente der p-ten Zeile und Kolonne
ohnehin durch Null zu ersetzen, so daß die resultierenden falschen Werte an
b;
jenen Stellen nicht stören. Ebenso ist = 0 zu setzen.
Der Vektor I, dessen Komponenten die Koeffizienten der betreffenden
Endgleichung im Verfahren von Cholesky darstellen, können, ergänzt mit der
Information über die Position des Pivotelementes lp, auf einen Hilfsspeicher
übertragen werden. Diese Daten werden später für den Prozeß des Rückwärts-
einsetzens benötigt.
Im Frontvektor ist die Stelle der eliminierten Unbekannten frei zu geben, indem
dort etwa eine Null eingesetzt wird, um dadurch die Information festzuhalten,
daß in der aktiven Frontmatrix und im Konstantenvektor diese Stellen für die
Aufnahme neuer Beiträge von andern Unbekannten verfügbar sind.
Die Eliminationsschritte sind selbstverständlich für alle momentan endgülti-
gen Knotenvariablen durchzuführen. Ist der Eliminationsprozeß so weit
ausgeführt, daß das Frontgleichungssystem nur noch Knotenvariable enthält,
welche noch andern Elementen angehören, ist ein weiteres Element in den
Kompilationsprozeß einzubeziehen. Dieses Element ist zweckmäßigerweise so
zu wählen, daß mindestens eine seiner Knotenvariablen einem der bisher
behandelten Elemente angehört und daß dabei möglichst wenig neue Knoten-
variablen hinzukommen. Der Kompilationsschritt, bestehend aus der Addi-
tion der Elementbeiträge in die Frontmatrix und den aktiven Konstantenvek-
tor, erfordert zuerst eine Aktualisierung des Frontvektors. Um die Ordnung
der aktiven Frontmatrix minimal zu halten, werden die neu hinzukommenden
Knotenvariablen auf die allenfalls freigewordenen Plätze des Frontvektors
verteilt und die verbleibenden am Schluß angefügt. Die Elementbeiträge
können jetzt auf Grund des Frontvektors zu den entsprechenden Werten des
Frontgleichungssystems addiert werden. Sobald dies geschehen ist, ist zu
entscheiden, ob wieder ein oder mehrere Eliminationsschritte ausführbar sind.
Dirichletsche Randbedingungen können in Analogie zum Bandlösungsverfah-
ren berücksichtigt werden. Ist im Frontgleichungssystem die Knotenvariable
Uk endgültig und durch einen Randwert 'Pk vorgegeben, so ist einmal zum
Konstantenvektor das Vielfache der entsprechenden Kolonne der aktiven
Frontmatrix zu addieren. Anschließend sind in der Frontmatrix die entspre-
chende Zeile und Kolonne sowie die Komponente des Konstantenvektors
gleich Null zu setzen.
4.4 Band- und Frontlösungsmethode 235

Im abzuspeichernden Hilfsvektor I sind neben Nullwerten nur die Komponen-


te des Pivots gleich Eins und die letzte Komponente gleich - epk zu definieren.
Im übrigen entfällt der eigentliche Eliminationsschritt durch diese Maßnah-
men. Selbstverständlich ist auch im Frontvektor die Zeile und Kolonne frei zu
geben.
Die eigentliche algorithmische Durchführung der Frontlösungsmethode er-
fordert die Festlegung einer geeigneten Elementreihenfolge zur Minimierung
der maximalen Frontbreite. Darunter versteht man die maximale Ordnung
der aktiven Frontmatrix. Dazu existiert ein Algorithmus, welcher ähnlich zu
demjenigen von Cuthill-McKee arbeitet, da eine andere Zielsetzung vorliegt
[Sl086, SIR83]. Auf Grund dieser so festgelegten Reihenfolge sind die
Eingabedaten zu ordnen, und die verschiedenen Elementtypen (wie Dreieck,
Parallelogramm, Randkante etc.) sind zu kennzeichnen. Ferner ist das letzte
Erscheinen eines Knotenpunktes etwa dadurch zu charakterisieren, daß seine
Nummer negativ ist. Die beiden letztgenannten Maßnahmen lassen sich zu
gegebener Elementreihenfolge auf einfache Weise durch ein Rechenprogramm
realisieren.
Die zweckmäßige Speicherung der aktiven Frontmatrix erfolgt zeilenweise
gemäß Fig. 4.4. Um die Addition der Elementbeiträge zum aktiven Frontglei-
chungssystem zu vereinfachen, ist ein sog. Destinationsvektor nützlich,
dessen Komponenten die Zuordnung der Elementmatrix und des Elementvek-
tors zu den entsprechenden Plätzen der Frontmatrix und des Konstantenvek-
tors festlegen. Der Destinationsvektor wird bei der Aktualisierung des
Frontvektors definiert.
Beispiel4.2 Die Frontlösungsmethode wird an der Aufgabe von Beispiel 3.1
illustriert und der prinzipielle Ablauf dargelegt. Im Gegensatz zur Fig. 3.1 oder
Fig. 4.11 wird eine andere Reihenfolge der Elemente festgelegt, um die Anzahl
der aktiven Knotenvariablen in jedem Schritt möglichst klein zu halten, so daß
der Rechenaufwand eines jeden Eliminationsschrittes minimal ist. Wir

17 24 29 33 36 38

Fig.4.13
Zur Frontlösungsmethode 22
236 4 Behandlung der linearen Gleichungssysteme

beginnen wieder mit der Elementnumerierung in der linken oberen Ecke


(vgl. Fig. 4.13). Im weiteren befolgen wir die Strategie, zu den jeweils aktiven
Knotenpunkten dasjenige Element mit der nachfolgenden Nummer zu
belegen, welches die kleinste Anzahl von neuen Knotenpunkten bringt. Im
graphen theoretischen Sinn sind die aktiven Knoten mit dem kleinsten Grad
maßgebend. Bei gleichem Grad soll zuerst das Nachbarelement zu demjenigen
mit der kleineren Nummer gewählt werden. Die Elementreihenfolge mit den
Knotennummern der beteiligten Variablen ist in Tab. 4.2 zusammengestellt.
Die zuletzt auftretenden Knotennummern sind durch einen negativen Index-
wert gekennzeichnet. In Tab.4.3 ist der Ablauf der Frontlösungsmethode
vermittels des Frontvektors vor der Kompilation und nach den Eliminations-
schritten für die einzelnen Elemente dargestellt.

Tab.4.2 Datenvorbereitung für 'Frontlösungsmethode

Element PI P2 P3 P4 Ps P6
I -I 3 II -2 7 -6
2 3 13 II 8 12 -7
3 5 13 -3 9 -8 -4
4 -11 13 24 -12 18 -17
5 -5 15 13 -10 14 -9
6 13 26 24 19 25 -18
7 15 26 -13 20 -19 -14
8 26 33 -24 30 -29 -25
9 15 28 26 21 27 -20
10 26 35 33 31 34 -30
11 -15 -22 28 -16 -23 -21
12 -28 35 -26 -32 -31 -27
13 "':35 -38 -33 -37 -36 -34

Man erkennt daran, wie die Dimension des Frontvektors zunimmt, aber auch
abnehmen kann. In diesem einfachen Beispiel bleibt die Ordnung der
Frontmatrix von Element 3 bis Element 9 konstant gleich 8, weil die
hinzukommenden Knotenvariablen jeweilen die frei gewordenen Plätze
einnehmen können. Die ma~imale Frontl:ireite ist 'gleich i2 und wird mit dem
Element 11 erreicht. Die Ordnung der Frontmatrix nimmt anschließend auf 10
ab, doch bleiben zwei Zeilen und Kolonnen beFder'Bearbeitung von Element
12 unbenützt. Diese Situation ist im 13. Schritt noch ausgeprägter, da dort
sogar vier Stellen im Frontvektor leere Plätze signalisieren. Dies ist eine
analoge Eigenschaft, wie sie im Bandlösungsverfahren festgestellt worden ist.
In der Frontlösungsmethode könnte diese Situation im Prinzip durch eine
Umspeicherung der Frontmatrix verbessert werden, doch würde dies die
Bereitstellung von zusätzlicher Information für das Rückwärtseinsetzen
4.4 Band- und Frontlösungsmethode 237

Tab.4.3 Ablauf der Frontlösungsmethode

EI. Frontvektoren

1 (1,3,11,2,7,6) (0,3,11,0,7,0)
2 (13,3,11,8,7,12) (13,3,11,8,0,12)
3 (13,3,11,8,5,12,9,4) (13,0,11,0,5,12,9,0)
4 (13,24,11,18,5,12,9,17) (13,24,0,18,5,0,9,0)
5 (13,24,15,18,5,10,9,14) (13,24,15,18,0,0,0,14)
6 (13,24,15,18,26,19,25,14) (13,24,15,0,26,19,25,14)
7 (13,24,15,20,26,19,25,14) (0,24,15,20,26,0,25,0)
8 (33,24,15,20,26,30,25,29) (33,0,15,20,26,30,0,0)
9 (33,28,15,20,26,30,21,27) (33,28,15,0,26,30,21,27)
10 (33,28,15,35,26,30,21,27,31,34) (33,28,15,35,26,0,21,27,31,34)
11 (33,28,15,35,26,22,21,27,31,34,16,23) (33,28,0,35,26,0,0,27,31,34)
12 (33,28,32,35,26,0,0,27,31,34) (33,0,0,35,0,0,0,0,0,34)
13 (33,38,37,35,36,0,0,0,0,34) -

erfordern. In Fig. 4.13 sind die aktiven Knotenpunkte während der Behand-
lung von Element 9 durch ausgefüllte Kreise gekennzeichnet. Sie bilden die
sogenannte Front der Frontlösungsmethode. ...
Im Vergleich zur Bandlösungsmethode besitzt die Frontlösungsmethode
wesentliche rechentechnische Vorteile. Insbesondere ist die maximale Front-
breite nicht größer als die Bandbreite, und die aktuelle Frontmatrix besitzt oft
eine bedeutend kleinere, und zudem variable Ordnung, so daß für den
Eliminationsprozeß eine entscheidende Reduktion des Rechenaufwandes
resultiert. Dasselbe trifft auch in vermindertem Maß für das Rückwärtseinset-
zen zu. Kann schließlich durch eine geeignete Elementnumerierung eine im
Vergleich zur minimalen Bandbreite echt kleinere maximale Frontbreite
erzielt werden, so ist es möglich, auf Kleinrechnern bedeutend größere
Probleme zu bearbeiten.
Da die Frontlösungsmethode auf der Basis der Elemente arbeitet und nicht auf
der Numerierung der Knotenpunkte basiert, läßt sich die lokale Verfeinerung
einer gegebenen Elementeinteilung sehr einfach behandeln. Ist es nötig, lokal
einige Elemente zu unterteilen, so können die neu hinzukommenden Knoten-
punkte schlicht fortlaufend mit höheren Nummern versehen werden. Dadurch
werden die bisherigen Daten von Eckenkoordinaten nicht beeinflußt, sondern
brauchen nur ergänzt zu werden. Ferner sind die unterteilten Elemente im
wesentlichen nur durch die neuen zu ersetzen, falls auf eine Optimierung der
maximalen Frontbreite verzichtet wird. Andernfalls ist die Elementreihenfol-
ge neu festzulegen.
Die Frontlösungsmethode ist in neuerer Zeit verallgemeinert worden zu
sogenannten Mehrfrontenverfahren, um so zu erreichen, daß an mehreren
238 4 Behandlung der linearen Gleichungssysteme

Stellen des zugrundeliegenden Problems unabhängig voneinander Teilaufga-


ben gelöst werden können, die dann den Prozessoren von Parallelrechnern zur
Bearbeitung zugewiesen werden können.

4.5 Blockeliminationsmethoden

Die Größe eines zu lösenden Gleichungssystems in Bezug auf den Zentralspei-


cher oder die Struktur der Matrix können die Anwendung von Blockelimina-
tionsmethoden erfordern oder nahelegen. Solche Methoden haben für Vektor-
rechner eine Bedeutung erlangt, weil bestimmte Matrizenoperationen mit
Hilfe von spezieller Software äußerst effizient ausgeführt werden. Aus diesem
Grund ist es oft auch zweckmäßig, die gegebene Aufgabenstellung so
vorzubereiten, daß die Koeffizientenmatrix auf natürliche Weise in Unter-
matrizen zerfällt und der Lösungs- und Konstantenvektor in entsprechende
Teilvektoren aufgeteilt werden kann. Die Größe der Untermatrizen muß so
bemessen sein, daß der Zentralspeicher soviele Untermatrizen aufnehmen
kann, wie für die Ausführung eines Teilschrittes der Cholesky-Zerlegung
notwendig sind.

Beispiel4.3 Zur Motivation der im folgenden entwickelten Rechentechnik


betrachten wir die Aufgabe von Beispiel 1.2, die Temperaturverteilung im
Grundgebiet G der Fig.4.14 zu bestimmen, wobei wir das Problem so
vorbereiten, daß auf natürliche Weise eine Blockstruktur der Koeffizienten-
matrix resultiert. Dazu wird das Grundgebiet G durch drei Schnitte gemäß
Fig. 4.14 in vier kongruente Teilgebiete GI. G2 , G3 und G4 eingeteilt, also eine
Substrukturierung vorgenommen.

A".-------,

Fig.4.l4
c:k:....--------IQ Einteilung in Teilgebiete
4.5 Blockeliminationsmethoden 239

Tab.4.4 Knotennumerierung der Gebietseinteilung

Teilgebiet Knotennummern Schnitt Knotennummern

GI I bisp KL s + I bis t
G2 p + I bis q AI t + I bis U
G3 q + I bis r BH u + I bis V
G4 r + I bis s CF v + I bis w
DE w + I bis n

Weiter werden die Knotenvariablen der einzelnen Teilgebiete, die weder auf
den Schnitten noch auf den Randstücken DE und KL liegen, je fortlaufend
numeriert. Anschließend erhalten die Knotenvariablen auf den beiden Rand-
stücken und den Schnitten die weiteren Nummern gemäß Tab. 4.4.
Für das folgende treffen wir noch die Zusatzannahme, daß die Elementeintei-
lungen der Teilgebiete genügend fein seien, so daß die Knotenpunkte auf
verschiedenen Schnitten keinem Element gemeinsam angehören. Dann besitzt
die Gesamtsteifigkeitsmatrix ganz unabhängig von der Art der Ansatzfunktio-
nen die Blockstruktur nach Fig. 4.15. Die Untermatrizen längs der Diagonalen
sind quadratisch und besitzen bei geeigneten Numerierungen innerhalb der
Teilgebiete oft Bandgestalt. Die im allgemeinen rechteckigen Untermatrizen
außerhalb der Diagonale sind in der Regel schwach besetzt, da die zugehörigen
Knotenvariablen der Schnitte nur mit den Knotenvariablen der nächstgelege-
nen Knotenpunkte der Teilgebiete verknüpft sind.
Falls die in Fig. 4.15 auftretenden, von Null verschiedenen Untermatrizen als
vollbesetzt angesehen werden, so besitzt die Cholesky-Matrix L der Zerlegung
A = LL T fast die gleiche Blockstruktur. Auf Grund der Betrachtungen über
das Auffüllen einer Matrix innerhalb ihrer Hülle im Verlauf der Cholesky-
Zerlegung betrifft der Fill-in höchstens Untermatrizen, welche rechts von den
von Null verschiedenen nichtdiagonalen Untermatrizen liegen. Eine genauere

A· L·

q q
Fig.4.15 Grundsätzliche Blockstruktur Fig. 4.16 Blockstruktur der
der Systemmatrix Cholesky-Matrix L
240 4 Behandlung der linearen Gleichungssysteme

Analyse zeigt im vorliegenden Fall, daß sich das Auffüllen in L auf die
wenigen, in Fig. 4.16 schraffierten Untermatrizen beschränkt. ..
Anmerkung Die Gesamtsteifigkeitsmatrix erhält eine tridiagonale Blockstruk-
tur, falls die Knotenpunkte in naheliegender Weise so durchnumeriert werden,
daß in einem Randstück, etwa KL, begonnen wird und dann abwechslungswei-
se diejenigen des anschließenden Teilgebietes und dann des andern Schnittes
fortlaufend numeriert werden. Diese spezielle Blockstruktur ist im betrachte-
ten Beispiel nur möglich auf Grund der gewählten Gebietsunterteilung.
Um das prinzipielle Vorgehen der Blockeliminationsmethode darzulegen,
betrachten wir die genügend repräsentative Situation, einer Partitionierung
der Matrix A in neun Untermatrizen mit entsprechender Aufteilung des
Lösungs- und des Konstantenvektors. Das zu lösende Gleichungssystem laute

(4.66)

Die Matrizen A ii sind quadratisch, symmetrisch und auch positiv definit, sie
können von unterschiedlicher Ordnung sein. Deshalb sind die Matrizen A ik
(i =I=- k) im allgemeinen rechteckig, doch symmetrisch zur Diagonale gelegene
Untermatrizen sind transponiert zueinander, d. h. es gilt A ik = Ali. Bei
entsprechender Partitionierung hat die Cholesky-Matrix L die Form

(4.67)

wo L ii Linksdreiecksmatrizen und die L ik (i =I=- k) rechteckige Matrizen bedeu-


ten. Aus A = LL T ergeben sich für die Untermatrizen aus (4.66) und (4.67) die
Beziehungen
L lI L(1 =A 1b L Z1 L(1 =A Zb L 31 L(1 =A 3b (4.68)

L Z1 LL +L 22 IJz=A 22 , (4.69)

L 31 IJl + L 32 IJ2 = A 32 , (4.70)

L 31 Lh + L 3Z Lh + L 33 L1 = A 33 • (4.71)

Nach der ersten Matrizengleichung von (4.68) ist L 11 die Cholesky-Matrix All
und kann auf bekannte Weise berechnet werden. Die nichtdiagonalen
Blockmatrizen L Z1 und L 31 sind nach (4.68) formal gegeben durch
(4.72)
4.5 Blockeliminationsmethoden 241

worin L l1 T vereinfachend die Transponierte der Inversen vonL l1 bedeutet. Die


Matrix L ZI soll nicht als Produkt von AZI und L l1 T berechnet werden, um die
Inversion von L ll und die aufwendige Matrizenmultiplikation zu vermeiden.
Zudem geht die oft vorhandene schwache Besetzung vonAll, etwa Bandstruk-
tur, bei der Inversion verloren. Die Matrizen L Z1 und L 31 ergeben sich
bedeutend efflzienter durch direktes Auflösen der beiden Matrizengleichun-
gen (4.68), welche nach Transponieren lauten
(4.73)
(4.73) stellt für die Kolonnen von LL und Llt und damit für die Zeilen von L 21
und L 31 ein System von Gleichungen mit der Linksdreiecksmatrix L ll dar. Die
Zeilen von L2l und L 31 ergeben sich sukzessive durch mehrfaches Vorwärtsein-
setzen, wobei sich insbesondere eine vorhandene Hüllenstruktur von L ll zur
Reduktion des Rechenaufwandes ausnützen läßt.
Weiter ist nach (4.69) mit L 21 die reduzierte Untermatrix AW aus A 2Z durch
Subtraktion des Matrizenproduktes L ZI Ltl zu bilden, um anschließend L 22
vermittels einer Cholesky-Zerlegung zu erhalten. Diese beiden Schritte lauten
zusammengefaßt
A Z2 -L 21 LL =AW=L 22 Lt2' (4.74)
Gemäß (4.70) berechnet sich L 32 so, daß zuerst die Matrix A 32 mit L 31 und L ZI
reduziert und dann mehrfaches Vorwärtseinsetzen angewandt wird:
A 3Z -L 31 LL =AW=L 32 Ltz (4.75)
Schließlich muß A 33 gemäß (4.71) zweimal reduziert werden, um dann L 33 aus
Ag) durch eine Cholesky-Zerlegung zu erhalten vermöge folgender Schritte:

(4.76)
Ein Vergleich der blockweisen Cholesky-Zerlegung mit der elementweisen
Zerlegung nach Abschn. 4.1 zeigt, daß sich folgende Operationen entsprechen:
Das Ziehen der Quadratwurzel aus einem reduzierten Diagonalelement wird
ersetzt durch eine Cholesky-Zerlegung einer reduzierten Untermatrix in der
Diagonale. Die Division eines Nichtdiagonalelementes durch ein Diagonalele-
ment entspricht jetzt einem Vorwärtseinsetzen, angewandt auf die Zeilen einer
reduzierten nichtdiagonalen Blockmatrix, und ein Reduktionsschritt eines
Elementes wird ersetzt durch eine Subtraktion eines Matrixproduktes von
einer entsprechenden Blockmatrix.
Die Durchführung der blockweisen Zerlegung erfordert pro Schritt im
Maximum den gleichzeitigen Zugriff auf drei Untermatrizen im Zentralspei-
cher im Fall der Reduktion einer nichtdiagonalen Blockmatrix nach (4.75).
Sind die Blockmatrizen zeilenweise vom externen Speicher abrufbar, kann
der Speicherbedarf im wesentlichen auf den Platz von zwei Matrizen verrin-
242 4 Behandlung der linearen Gleichungssysteme

gert werden, weil dann nur beispielsweise A 32 und L 31 im Zentralspeicher


gehalten werden müssen. Denn mit einer einzelnen Zeile von L 21 läßt sich
die entsprechende Kolonne von AW berechnen. Eine zeilenweise Speiche-
rung der Nichtdiagonalmatrizen L ik ist ohnehin naheliegend, da sich ihre
Zeilen nach (4.73) und (4.75) sukzessive ergeben. Die eben beschriebene
Realisierung ist höchstens für Skalarrechner mit kleinem Zentralspeicher
von Bedeutung.
Ein Reduktionsschritt für eine in der Diagonale liegende Blockmatrix
erfordert nur die Matrix selbst und eine nichtdiagonale Blockmatrix von L.
Die Untermatrizen in der Diagonale werden aus Symmetriegründen als untere
Dreiecksmatrizen in einem eindimensionalen Feld gespeichert. Auch wenn
diese Matrizen in A schwach besetzt sind und eine Hüllenstruktur aufweisen,
ist im allgemeinen mit einem starken Auffüllen zu rechnen, so daß die
ursprüngliche Struktur verloren gehen kann. Die nichtdiagonalen Blockmatri-
zen unterliegen ganz besonders dem Auffüllprozeß durch die Reduktions-
schritte und dann ausgeprägt bei der Berechnung der Matrizen L ik vermittels
des Vorwärtseinsetzens. Diese werden oft voll besetzt werden, falls nicht
spezielle Strukturen vorliegen. Anderseits ist zu berücksichtigen, daß Unter-
matrizen A ib welche zwar innerhalb der blockweisen Hülle von A liegen
und gleich Null sind, nicht notwendigerweise aufgefüllt werden, so daß dann
auch die L ik Nullmatrizen werden.
In Fig. 4.17 ist ein möglicher Ablauf der blockweisen Cholesky-Zerlegung
einer Matrix A, welche in /12 Untermatrizen partitioniert sei, als Blockdia-
gramm dargestellt. Es sollen nur die wirklich nötigen Matrizenoperationen
ausgeführt werden, indem vorausgesetzt wird, daß die Information vorliegt,
welche nichtdiagonalen Untermatrizen von A undL von Null verschieden sind.
Anderseits werden keine Detailprobleme berücksichtigt, welche die Informa-
tion über die Ordnungen der Untermatrizen und deren Auffinden auf dem
externen Speicher betreffen.
Auch das Vor- und Rückwärtseinsetzen werden auf Grund der Blockeintei-
lung ausgeführt. Für den Hilfsvektor C: = -L T x, entsprechend unterteilt,
lautet der Satz von Gleichungen für die Partitionierung (4.67)

(4.77)

Daraus berechnet sich Cl vermittels Vorwärtseinsetzens mit L II . Dann ist von


b2 das Produkt L2l CI zu subtrahieren, um aus dem resultierenden Vektor
vermöge des Vorwärtseinsetzens mit L 22 den Vektor C2 zu erhalten. Der
Teilvektor C3 ergibt sich analog aus der dritten Gleichung von (4.77).
4.5 Blockeliminationsmethoden 243

I Start I
t
I p:= 1I
,

,
Hole App ; App = LppL~p (Cholesky)
Lpp --+ externer Speicher

J
Ende P = IJ? 1

I i :=p+
'N 1 I
t
N
Ajp *O?
I
tJ
Hole Ajp (und falls nötig Lpp )
Lppqp = A;p (Vorwärtseinsetzen)
Ljp - .... externer Speicher

t
I k:= p + 1I

r
J , N
i?
k
t N
HoleA jj ; 1 Lkp *O? k :=k+ 11
, J
Ajj := A jj - LjpLTp
A jj - .... ext. Speicher Falls Ajk * 0:
Hole Ajk> sonst Ajk = O.
Hole L kp r--

Ajk := Ajk - LjpL~p


Ajk --+ ext. Speicher

N
I i = IJ? i :=i + 1
J
p:= p+ 1
Fig.4.17 Blockweise Cholesky-Zerlegung bei Verwendung von
externem Speicher
244 4 Behandlung der linearen Gleichungssysteme

Die Gleichungen für das Rückwärtseinsetzen lauten im konkreten Fall

L!JxI + Lllx2 + Lll x3 + CI = 0


(4.78)

Daraus berechnet sich X3 aus C3 vermittels Rückwärtseinsetzens mit L 33 . Zu C2


ist dann das Produkt L12 x3 zu addieren und auf den resultierenden Vektor des
Rückwärtseinsetzens mit L 22 anzuwenden, um X2 zu erhalten. Der Teilvektor
XI ergibt sich analog aus der ersten Gleichung von (4.78).
Den bisherigen Betrachtungen der Blockeliminationsmethode lag eine allge-
meine Situation zugrunde, und spezielle vorliegende Blockstrukturen der
Matrix blieben unberücksichtigt. Diese sind jedoch in verschiedener Hinsicht
ausschlaggebend für effiziente Implementierungen der Methode. Um diese
Aspekte darzulegen, betrachten wir die Blockstruktur der Matrix A nach
Fig. 4.15, welche folgende Struktur aufweist, falls nur die von Null verschiede-
nen Untermatrizen aufgeführt sind.

All AIS AI6


A 22 A 26 A 27

A 33 A 37 A 38

A 44 A 48 A 49

A= A51 Ass (4.79)


A61 A 62 A 66

A 72 A 73 An
A 83 A 84 A 88

A 94 A 99

Die nichtdiagonalen Untermatrizen sind einerseits schwach besetzt, und


anderseits werden sie im Fall der speziellen Struktur (4.79) im Verlauf der
blockweisen Cholesky-Zerlegung durch die Reduktionsschritte nicht verän-
dert. Für die Matrizen A Sb A 6b A 72 , A 83 und A 94 ist dies auf Grund der
blockweisen Hülle klar. Für die Matrizen A i + 4,i (i = 2, 3, 4) folgt die Aussage
aus der Tatsache, daß in der Cholesky-Matrix zwar L i +4,i-1 =F 0 ist, daß aber
die Matrix Li, i-I = 0 ist. Folglich entstehen die entsprechenden Untermatri-
zen der Linksdreiecksmatrix L direkt aus den ursprünglichen Untermatrizen
von A vermittels des Vorwärtseinsetzens mit bestimmten Unterrnatrizen L ii in
Analogie zu (4,73). Die auf diese Weise resultierenden nichtdiagonalen
4.5 Blockeliminationsmethoden 245

Blockmatrizen vonL werden im Vergleich zu den entsprechenden Untermatri-


zen von A im allgemeinen bedeutend stärker besetzt sein, weil ein starkes
Auffüllen stattfindet. Diese Tatsache erhöht einerseits den Speicherbedarf für
L und anderseits auch den Rechenaufwand zur Ausführung von Reduktions-
schritten mit diesen stärker besetzten Matrizen. Eine Verbesserung der
Situation kann eine von George [Ge076, Geo77] vorgeschlagene, unsymme-
trische Variante der Cholesky-Zerlegung bringen, bei der die Abspeiche-
rung der nichtdiagonalen Matrizen L ik vermieden wird, und stets mit den
gegebenen Untermatrizen A ik gearbeitet wird. Im Fall der Matrix (4.79)
besteht die wesentliche Idee darin, etwa die Matrix Lst. welche auf Grund der
Gleichung

(4.80)

definiert ist, nur implizit dazu zu verwenden, die reduzierte Matrix

(4.81)

zu berechnen. Der innerste Klammerausdruck von (4.81) stellt natürlich


die stärker besetzte Matrix L!I dar, so daß bis zu diesem Punkt der
Rechenaufwand unverändert bleibt. Doch kann die Berechnung der Hilfs-
matrix Y aus LtIY=(L111A!I) zusammen mit der Multiplikation A 51 Y
weniger aufwendig sein im Vergleich zur Produktbildung Ls1L!t. falls die
schwache Besetzung von L ll (Band- oder Hüllenstruktur) und von A 51
vollständig ausgenützt wird. Schließlich kann die Formel (4.81) kolonnen-
weise ausgeführt werden, wobei im letzten Schritt die Symmetrie von Ag>
so berücksichtigt wird, daß nur ihre untere Hälfte berechnet wird. Die
skizzierte Idee überträgt sich sinngemäß auf die übrigen Matrizenpaare,
und die zweimalige Reduktion der Matrizen A66 bis A 99 ist entsprechend
realisierbar.
Für die Partitionierung (4.79) der Matrix A entstehen in der Cholesky-Matrix
L durch den Auffüllprozeß die Matrizen L 6S , L 76 , L S7 und Lgg ungleich Null.
Falls auch diese Matrizen nur implizit verwendet werden sollen, entstehen in
der Rechentechnik der unsymmetrischen Zerlegung so komplizierte Aus-
drücke, daß sie unbrauchbar werden. Weil einerseits diese neu entstehenden
Untermatrizen abgespeichert werden müssen und man anderseits am Kon-
zept der unverändert zu verwendenden nichtdiagonalen Untermatrizen von A
festhalten möchte, ist für die Matrix A eine andere Partitionierung zu wählen.
Das Ziel kann erreicht werden, indem man die Untermatrizen A 5S und A 66 zu
einer Untermatrix und die drei weiteren zu einer zusammenfaßt und dasselbe
auch auf die nichtdiagonalen Matrizen überträgt. Mit dieser neuen Partitio-
nierung geht (4.79) über in
246 4 Behandlung der linearen Gleichungssysteme

All AIS
A 22 A 2S A 26

A 33 A 36
A= (4.82)
A 44 A 46

A SI A S2 Ass
A 62 A 63 A 64 A 66

mit gegenüber (4.79) teilweise anderen Bedeutungen der Untermatrizen. Für


die partitionierte Matrix (4.82) erfolgt der Auffüllprozeß nur innerhalb der
Matrizen Ass und A 66 , deren diagonale Blockstruktur verloren geht, und die
Cholesky-Zerlegung ist auf die unsymmetrische Variante durchführbar. Die
nichtdiagonalen Blockmatrizen A ik mit i> k werden unverändert verwendet,
und nur die Cholesky-Zerlegung der in der Diagonale stehenden, reduzierten
Untermatrizen werden explizit ausgeführt und die Ergebnisse abgespeichert.

Fig.4.18
Graph G(A) der Matrix A (4.82)

Die Durchführbarkeit der unsymmetrischen Cholesky-Zerlegung ist eine


Folge der Tatsache, daß der Graph der BlockmatrixA (4.82) ein Baum ist, wie
er in Fig. 4.18 dargestellt ist. Der Knoten mit der Nummer 6 ist die Wurzel des
Baumes. Vertauscht man dort die Nummern 2 und 5, entsteht ein monoton
geordneter Baum, in welchem jeder Knoten vor seinem Vater numeriert ist.
Jeder Baum wird bei geeigneter Numerierung zu einem monoton geordneten
Baum, wobei natürlich seine Wurzel die höchste Nummer erhält. Wichtig ist
nun die Tatsache, daß für Matrizen und im besonderen für Blockmatrizen,
deren Graph ein monoton geordneter Baum ist, erstens im Verlauf der
Cholesky-Zerlegung kein Auffüllen erfolgt [Par69], und daß zweitens die
nicht diagonalen Elemente, bzw. Untermatrizen während der Reduktion keine
Änderungen erfahren [Geo77]. Der unsymmetrische Zerlegungsalgorithmus
ist deshalb auf Blockmatrizen beschränkt, deren Graph ein monoton geordne-
ter Baum ist. Eine dieser Bedingung genügende Partitionierung kann entweder
mit Geschick oder mit Hilfe eines Algorithmus gefunden werden [Geo77].
4.5 Blockeliminationsmethoden 247

Einen besonders einfachen Spezialfall stellen die blockweisen tridiagonalen


Matrizen dar, deren Graph unmittelbar ein monoton geordneter Baum ist.
Blocktridiagonalmatrizen ergeben sich automatisch auf Grund des Algorith-
mus von Cuthill-McKee, falls die Knotenvariablen eines jeden Niveaus
zusammengefaßt werden. Denn die Variablen, deren Indizes einem bestimm-
ten Niveau angehören, sindja gemäß Konstruktion höchstens noch verknüpft
mit Variablen, deren Indizes einem benachbarten Niveau angehören. Die
unsymmetrische Cholesky-Zerlegung ist in diesem Fall also anwendbar.
Die Prozesse des Vorwärts- und Rückwärtseinsetzens können ebenfalls mit
Hilfe der Dreiecksmatrizen L ii und der ursprünglichen Untermatrizen A ik
durchgeführt werden. Das Vorwärtseinsetzen erfordert die Multiplikation von
Teilvektoren mit nichtdiagonalen Matrizen L ik . Im Fall der Matrix A (4.82) ist
etwa c, mit Ls, = As,LilT zu multiplizieren. Das ist äquivalent damit, auf c,
zuerst das Rückwärtseinsetzen mit Lr, anzuwenden, um dann den erhaltenen
Vektor mit A s, zu multiplizieren. Das Rückwärtseinsetzen erfordert etwa die
Berechnung von L~X6 = L;;;;,' A~X6 = L;;;;,' (A~X6), was nach der Multiplikation
von X6 mit A~ durch ein Vorwärtseinsetzen mit L 44 realisiert wird.
Da die nichtdiagonalen Untermatrizen von A im skizzierten Rechenprozeß
nicht verändert werden, können ihre von Null verschiedenen Matrixe1emente
in konzentrierter Form mit der zusätzlichen Angabe ihrer Position innerhalb
der Blöcke gespeichert werden. Die dazu nötigen ganzzahligen Zeiger bilden
den sogenannten Überhang (overhead). Ferner können die anfallenden
Cholesky-MatrizenL ii in einem einfach indizierten Feld sukzessive angeordnet
werden, wobei jede Dreiecksmatrix L ii zeilenweise in der Anordnung von
Jennings (v gl. Fig.4.7) unter Ausnützung der variablen Bandbreite gespei-
chert werden kann. Mit einem zweiten Zeigervektor muß noch der Beginn der
einzelnen Blöcke festgelegt werden. Weitere Details dazu findet man in
[Geo77].
Im Beispiel 4.3 wurde das Grundgebiet G durch Schnitte in Teilgebiete
eingeteilt, um so die Blockstruktur zu motivieren. Selbstverständlich kann die
Strukturierung durch weitere Schnitte in den einzelnen Teilgebieten weiterge-
führt werden und führt zu der Methode der fortgesetzten Zerschneidung
(nested dissection) von George [Ge073, Geo77, Geo77]. Für bestimmte
Testbeispiele konnte nachgewiesen werden, daß sich der Rechenaufwand an
wesentlichen Operationen zur Lösung der linearen Gleichungssysteme tat-
sächlich wesentlich reduzieren läßt, falls die fortgesetzte Zerschneidung
geeignet angewandt und die Blockstruktur optimal ausgenützt werden. Die zu
Beginn der Untersuchungen verwendeten komplizierten Programme mit einer
aufwendigen Index- und Speichermanipulation brachten nicht die erhoffte
Reduktion der Rechenzeit, bis Peters auf Grund einer subtilen Analyse des
Prozesses eine effiziente Realisierung der Methode präsentieren konnte
[Pet80].
248 4 Behandlung der linearen Gleichungssysteme

Zum Zeitpunkt der Entwicklung der Methode der fortgesetzten Zerschneidun-


gen in Kombination mit der unsymmetrischen Variante der Cholesky-
Zerlegungen stand die effiziente Ausnützung des verfügbaren Speicherplatzes
und die Verringerung der Zahl der wesentlichen Operationen für Skalarrech-
ner im Vordergrund. Mit dem Aufkommen von Vektor- und Parallelrechnern
erhält die Methode der fortgesetzten Gebietsunterteilungen oder äquivalent
dazu die Methode der Substrukturierung, eine neue Bedeutung als
Hilfsmittel zur geeigneten Problemvorbereitung mit dem Ziel, solche Block-
strukturen für A herzustellen, die sich für die direkte Lösung der G1eichungs-
systeme mit der verfügbaren Rechnerarchitektur am besten eignen.
So ist beispielweise die Blockstruktur der Matrix A (4.82) für einen Parallel-
rechner mit zwei oder vier Prozessoren sehr geeignet, weil die Cholesky-
Zerlegungen der Matrizen All, A 22 , A 33 undA 44 unabhängig voneinander, d. h.
gleichzeitig von vier Prozessoren ausgeführt werden können. Nach Beendi-
gung dieser Teilaufgaben können die Reduktionen der Matrizen A 55 und A 66 ,
etwa im Sinn der unsymmetrischen Variante, unabhängig voneinander
ausgeführt werden wie auch die nachfolgenden Cholesky-Zerlegungen. Ana-
log lassen sich das Vorwärts- und Rückwärtseinsetzen in parallel ausführbare
Teilaufgaben zerlegen. Im Fall des Vorwärtseinsetzens sind dies zuerst die
Berechnung der Teilvektoren c], C2, C3 und C4 vermittels der Matrizen L II , L 22 ,
L 33 und L 44 , dann die Multiplikation dieser Teilvektoren mit nichtdiagonalen
Untermatrizen L ik zur Modifikation des restlichen Konstantenvektors, und
schließlich die Berechnung der beiden Teilvektoren C5 und C6.

4.6 Iterative Methoden

Im folgenden werden iterative Verfahren dargestellt mit der gemeinsamen


Eigenschaft, daß die Koeffizientenmatrix A des zu lösenden Gleichungs-
systems nicht zu verändern ist, so daß die schwache Besetzung der Matrix
ausgenützt werden kann. Da die Verfahren nur die von Null verschiedenen,
unveränderten Matrixelemente benötigen, können diese in einer konzentrier-
ten, speicherplatzsparenden Weise angeordnet werden. Zudem spielt die
Besetzungsstruktur der Matrix, wie etwa Band- oder Hüllenstruktur, bei den
iterativen Verfahren im allgemeinen keine zentrale Rolle, so daß keine
optimale Numerierung der Knotenvariablen gefunden werden muß. Für eine
effiziente Implementierung auf Vektorrechnern können jedoch bestimmte
Besetzungsstrukturen im Zusammenhang mit Datenstrukturen wieder eine
Rolle spielen.
Die iterativen Methoden weisen den grundsätzlichen Nachteil auf, daß zur
Lösung mehrerer Gleichungssysteme mit gleicher Koeffizientenmatrix aber
verschiedenen Konstantenvektoren, etwa bei verschiedenen Lastfällen, der
4.6 Iterative Methoden 249

ganze Lösungsprozeß wiederholt werden muß, während bei den direkten


Methoden nur die relativ wenig aufwendigen Prozesse des Vorwärts- und
Rückwärtseinsetzens erforderlich sind. Im besten Fall kann bei benachbarten
Lastfällen die Lösung des einen Systems als Startnäherung für das andere
verwendet werden, oder es können bestimmte Parameter oder vorbereitende
Berechnungen, welche für die Konvergenzverbesserung nötig sind, übernom-
men werden.

4.6.1 Die Methode der konjugierten Gradienten

Das zu lösende symmetrisch-definite Gleichungssystem (4.l) stellt ja die


notwendige Bedingung für das Stationärwerden, genauer für die Minimierung
des quadratischen Funktionals dar. Die Lösung des Gleichungssystems ist
daher äquivalent zur Aufgabe, direkt das Minimum des Funktionals

F(x) = .lxTAx + bTx (4.83)


2
zu bestimmen. Im Verfahren der konjugierten Gradienten von Hestenes-
Stiefel [HeS52] wird das Minimimum von F(x) iterativ bestimmt, indem in
jedem Teilschritt von der Richtung des Gradienten der zu minimierenden
Funktion Gebrauch gemacht wird, der ja gegeben ist durch

grad F(x) = Ax +b = , (4.84)

und gleich dem Residuenvektor , zum Vektor x ist. Der Gradient der
Funktion F(x) weist im Punkt x in die Richtung der lokal stärksten Zunahme
der zu minimierenden Funktion F(x). Es ist deshalb sehr naheliegend, die
Richtung des negativen Gradienten zur Festlegung der Relaxationsrich-
tung zu verwenden, in welcher das Minimum von F(x) in einem Relaxations-
schritt zu suchen ist. Ohne auf Details einzugehen, sollen im folgenden nur die
wesentlichen Punkte des Verfahrens skizziert werden, welche zum Algorith-
mus führen. Für die detaillierte Herleitung mit den zugehörigen Beweisen sei
auf [SRS72] verwiesen, von wo auch die Schreibweise übernommen ist.
Es bedeutet v(O) einen gewählten Startvektor. Um F(v(l)) < F(v(O)) zu erreichen,
wird im ersten Schritt des Verfahrens die Relaxationsrichtungp(l) durch den
negativen Residuenvektor ,(0) = Av (0) + b festgelegt.

p(l) = _,(0) = -grad F(v(O)) = -(Av(O) + b) (4.85)

Ausgehend von v(O) sucht man in Richtung p(l) das Minimum der Funktion
F(v). Mit dem Parameter ql im Ansatz

v(l) = v(O) + qlp(l)


250 4 Behandlung der linearen Gleichungssysteme

führt dies auf die Forderung

F(v(I» = ~ (v(O) + qlp(l)lA(v(O) + qlp(l» + h T(v(O) + qlp(l»


2

= ~ qfP(l)TAp(l) + qlp(I)T,(o) + F(v(O» = Min!


2
Differentiation nach ql und Nullsetzen des resultierenden Ausdrucks als
notwendige Bedingungen für ein Minimum der Funktion in bezug auf den
Parameter ql liefert
p(l)T ,(0)
ql = - (l)T (I) (4.86)
P Ap
Im zweiten und allgemeinen k-ten Relaxationsschritt wird als Relaxations-
richtung p(k) eine Linearkombination von _,(k-I) = -gradF(v(k-I» =
_(Av(k-I) + h) und der vorhergehenden Relaxationsrichtung p(k-I) so be-
stimmt, daß die beiden Richtungenp(k-I) undp(k) konjugiert sind in Bezug auf
die Ellipsoide F( v) = const. Diese Wahl der neuen Relaxationsrichtung kann
damit geometrisch begründet werden, daß das Minimum von F( v) jetzt nicht in
der Richtung des negativen Gradienten allein, sondern in der von dieser
Richtung und der vorangehenden Relaxationsrichtung aufgespannten zweidi-
mensionalen Ebene durch den Punkt v(k-I) bestimmt werden soll. Diese
Ebene schneidet aber das Ellipsoid F( v) = F( v(k - I» in einer Ellipse, an welche
p(k -I) im Punkt v(k -I) Tangente ist. Das Minimum von F(v) in der erwähnten
Ebene wird im Mittelpunkt der Schnittellipse angenommen, und die Richtun-
gen der Tangente im Berührungspunkt v(k - I) und vom Berührungspunkt zum
Mittelpunkt sind bekanntlich konjugiert zueinander bezüglich der Ellipse und
damit auch zum Ellipsoid.
Für die k-te Relaxationsrichtung lautet der Ansatz

(4.87)
Der Koeffizient ek - 1 bestimmt sich aus der Bedingung der Konjugiertheit von
und p(k-l), nämlich
p(k)

p(k)TAp(k-l) = 0
(k-l)T A (k-I)
zu ek-I= '(k-l)TAP(k-l) , (k~2). (4.88)
P P
Mit der nach (4.87) und (4.88) bestimmten Richtungp(k) ergibt sich der neue
Näherungsvektor

(4.89)
4.6 Iterative Methoden 251

mit dem analog zu (4.86) ermittelten Wert


(k)T (k-I)
=_p r (k~2) (4.90)
qk p(k)TAp(k) , 9"

Unter Berücksichtigung der Tatsache, daß der Residuenvektor r(k) =


Av(k) + h(k ~ 2) orthogonal zur Ebene steht, aufgespannt durch r(k -I) und
p(k), lassen sich die Formeln für ek-I (4.88) und für qk (4.90) umformen in

r(k -1)Tr(k -I)


(k ~ 2), (4.91 )
p(k)TAp(k) '

wobei die Darstellung für qk wegen (4.86) auch für k = 1 gilt. Infolge der
positiven Definitheit von A sind die Zahlwerte ek - I und qk als Quotienten VOn
positiven Ausdrücken gegeben. Solange r(k -IL,", 0 ist, d. h. v(k - I) nicht die
Lösung des Gleichungssystems darstellt, sind ek - I und qk positiv.
Das Verfahren der konjugierten Gradienten ist im folgenden Algorithmus
zusammengefaßt.

Start: Wahl von v(O);

r(O) = Av(O) + h; p(l) = -r(O)

Allgemeiner Relaxationsschritt (k = 1,2, ... ):


ek-I= r(k-I)T r (k-I)/r(k-2)T r (k-2) }
falls k ~ 2 (4.92)
p(k) = -r(k-I) + ek_IP(k-l)
qk = r(k-I)Tr(k-I)/p(k)T(Ap(k)

v(k) = v(k -I) + qkp(k)


r(k) = r(k-I) + qk(Ap(k)

In der letzten Gleichung VOn (4.92) wurde berücksichtigt, daß zur Verminde-
rung des Rechenaufwandes der Residuenvektor r(k) zur Näherung v(k) rekursiv
berechenbar ist auf Grund der Beziehung

Ein allgemeiner Relaxationsschritt erfordert die Matrix-Vektormultiplikation


Ap(k), wobei die schwache Besetzung VOn A ausgenützt werden kann. In
repräsentativen Problemen ist die Anzahl der von Null verschiedenen
Matrixelemente nur direkt proportional zur Ordnung n von A. Bedeutet y den
Mittelwert der von Null verschiedenen Matrixelemente pro Zeile, so beträgt
der Rechenaufwand zur Bildung von z = Ap(k) nur yn Multiplikationen. Dazu
kommt noch der Aufwand zur Berechnung von zwei Skalarprodukten und VOn
drei Multiplikationen von Vektoren der Dimension n mit einem Skalar. Pro
252 4 Behandlung der linearen Gleichungssysteme

Iterationsschritt beträgt der Rechenaufwand deshalb etwa

Zcg = (y + 5)n (4.93)


Multiplikationen. Er ist somit direkt proportional zu n, weil für schwach
besetzte Matrizen A der Methode der finiten Elemente der Wert y nicht nur
klein im Vergleich zu n, sondern für eine bestimmte Problem klasse sogar
konstant und unabhängig von der Ordnung n ist.
Die Methode der konjugierten Gradienten besitzt die theoretische Eigen-
schaft, daß die Relaxationsrichtungen ein System von paarweise konjugierten
Richtungen bilden und daß die Residuenvektoren paarweise orthogonal sind.
Die letzte Aussage hat zur Folge, daß die Methode theoretisch die Lösung
nach höchstens n Relaxationsschritten liefert, da ein System von paarweise
orthogonalen Vektoren im n-dimensionalen Vektorraum höchstens n von
Null verschiedene Vektoren enthalten kann. Die paarweise Orthogonalität
der Residuenvektoren ist jedoch aus numerischen Gründen nicht exakt
erfüllt, und zwar um so schlechter, je größer die Konditionszahl der Matrix A
ist [Axe77]. Grundsätzlich stört die Abweichung von der Theorie nicht, weil
der iterative Prozeß allenfalls über die n Schritte hinaus fortgesetzt werden
kann, da der Wert des quadratischen Funktionals (4.83) in jedem Relaxa-
tionsschritt weiter verkleinert wird. Die Iteration wird üblicherweise abge-
brochen, sobald die euklidische Norm des Residuenvektors eine geeignet
vorgegebene Toleranz unterschreitet. Dabei ist nur zu beachten, daß die
Längenquadrate der Residuenvektoren ,(k) keine monoton abnehmende
Folge zu bilden brauchen (vgl. dazu [EGR59, SRS72] oder Abschn. 6.1.3.1).
Die Erfahrung zeigt aber, daß zur Lösung von großen linearen Gleichungssy-
stemen aus der Methode der finiten Elemente in bestimmten Fällen oft
bedeutend weniger als n Iterationsschritte erforderlich sind, um die Unbe-
kannten mit einer für die praktischen Anforderungen genügenden Genauig-
keit zu berechnen (vgl. Kapitel 6).
Für die Durchführung der Methode der konjugierten Gradienten wird
Speicherplatz für die vier Vektoren v(kl, ,(k), p(k) und z = Ap(k) benötigt,
während die Zahl werte ek - 1 und qk nur momentane Bedeutung besitzen. Dazu
kommt natürlich der Speicherbedarf für die von Null verschiedenen, zur
Berechnung von z = Ap(k) wirklich benötigten Matrixelemente von A. Unter
Beachtung der Symmetrie sind dafür nur die Matrixelemente in und unterhalb
der Diagonale erforderlich, also (y + 1)nj2 Werte, wozu allerdings noch ein
Überhang von mindestens ebenso vielen Indexwerten kommt, welche die
Positionen der Matrixelemente festlegen (vgl. dazu Abschn. 4.6.4).
Die Methode der konjugierten Gradienten wurde als erstes iteratives Verfah-
ren behandelt, weil der Algorithmus (4.92) nach Wahl des Startvektors v(O)
keine Parameter erfordert, welche die Konvergenz garantieren oder beschleu-
nigen, und somit problemlos in der Anwendung ist.
4.6 Iterative Methoden 253

4.6.2 Gesamtschrittverfahren und Methode der Überrelaxation

Da die Koeffizientenmatrix des linearen Gleichungssystems positiv definit ist,


sind notwendigerweise alle ihre Diagonalelemente aii positiv. Deshalb kann die
i-te Gleichung
n

I aijX; + bi = 0
j=1

nach der Unbekannten Xi aufgelöst werden. Im Fall n = 3 erhalten wir so


XI = - { al2X2+ a13X3 + bd/all
X2 = -{a21XI + a23X3 + b2}/a22 (4.94)
X3 = -{a3IxI + a32X2 + b 3}/a33
Auf Grund von (4.94) lassen sich verschiedene iterative Verfahren zur Lösung
von linearen Gleichungssystemen definieren. Um dies zu tun, bedeute v(k) den
Näherungsvektor im allgemeinen k-ten Iterationsschritt und v(k+ I) die
Näherung nach dem (k + 1)-ten Schritt.
Das Gesamtschrittverfahren oder Jacobi- Verfahren ergibt sich aus
(4.94) dadurch, daß die Komponenten von v(k) in der rechten Seite von (4.94)
eingesetzt, und die Näherung v(k+ I) gesamthaft berechnet wird gemäß
vfk+ I) = - { t) + a13v~k) + bd/all
al2 v

(4.95)
(k + I) (k) (k)
V3 = -{a31 VI + a32v2
Wird die Matrix Ades Gleichungssystems als Summe einer Diagonalmatrix D,
gebildet mit den (positiven) Diagonale1ementen, einer unteren Dreiecksmatrix
E und einer oberen Dreiecksmatix F=E T gemäß

A = E + D + F, F = ET (4.96)
geschrieben, so lautet (4.95) in Matrixschreibweise
v(k+I) = -D-1{(E + F)v(k) + b}. (4.97)
In Verallgemeinerung des Gesamtschrittverfahrens (4.97) wird zur Verbesse-
rung der Konvergenzeigenschaften die Korrektur v(k TI) - v(k) mit einem
konstanten Relaxationsfaktor w > 0 multipliziert und diese modifizierte
Korrektur zu v(k) addiert. So entsteht das Gesamtschrittverfahren mit
Überre1axation (Jacobi overrelaxation = JOR)
v(k+ I) := v(k) + w[ -D-1{(E + F)v(k) + b} - v(k)]

= v(k) - wD-1{Av(k) + b}. (4.98)


254 4 Behandlung der linearen Gleichungssysteme

Die in (4.98) auftretende Matrix


MJOR(w) := 1- wD- 1A, (4.99)
mit welcher v(k) formal multipliziert wird, ist die Iterationsmatrix der
JOR-Methode. Zudem erfüllt die Folge der Fehlervektoren
fk) := x - v(k), k = 0, 1,2, ... (4.100)
als Differenz zwischen Lösung x des Gleichungssystems und der Näherung v(k)
die Beziehung
fk+l) = MJOR(w)fkl, k = 0,1,2, ... (4.101)
Denn die Lösung x von Ax + b = 0 ist offensichtlich Fixpunkt der Iteration
(4.98) und erfüllt die Gleichung
x = x - wD- 1{Ax + b} (4.102)
Wird (4.102) von (4.98) subtrahiert, so resultiert (4.101).
Die notwendige und hinreichende Bedingung für die Konvergenz der
JOR-Methode besteht darin, daß alle Eigenwerte der Iterationsmatrix betrags-
mäßig kleiner als Eins sind. Im Fall der Konvergenz bestimmt der betrags-
größte Eigenwert PI von MJOR(w) die asymptotische Abnahme des Fehlervek-
tors, indem für hinreichend großes k die Normen der Fehlervektoren wie eine
geometrische Folge mit dem Konvergenzquotienten l.ull gegen Null
konvergieren. Der Spektralradius
p(MJOR(w)) = max l.ujl = l.ull (4.103)
j
als Betrag des dominanten Eigenwertes der Iterationsmatrix bestimmt das
asymptotische Konvergenzverhalten, das umso besser ist, je kleiner der
Spektralradius ist.
Die bestechende Einfachheit der JOR-Methode zusammen mit der einfachen
Vektorisierbarkeit der Rechenvorschrift (4.98) lassen das Verfahren trotz
schlechter Konvergenzeigenschaften wieder attraktiv erscheinen zur iterativen
Lösung von bestimmten Klassen von linearen Gleichungssystemen. Die
effiziente Implementierung der Matrix-Vektor-Multiplikation Av(k) setzt aller-
dings eine entsprechende Speicherung der schwach besetzten Matrix A voraus.
Im Gegensatz zum Gesamtschrittverfahren entsteht das Einzelschrittver-
fahren oder Gauß-Seide1sche Verfahren aus (4.94), indem die i-te
Komponente von v(k+ 1) sukzessive aus der i-ten Gleichung berechnet wird,
wobei die bereits bekannten Werte von v(k+ 1) verwendet werden.
vfk+l) = -{ + a13dk) + bd/all
al2 vY)
vY+ 1) = -{a2Iv;k+l) + a23 vjk) + b2}/a22 (4.104)
vjk+l) = -{a3I v fk+l) + a32 vik+l) + b3}/a33
4.6 Iterative Methoden 255

Daraus resultiert die Methode der Überrelaxation (successive over-


relaxation = SOR), indem die Korrektur der i-ten Komponente t::,.v~k) = v~k+ I)
- V\k) mit einem konstanten Relaxationsfaktor w > 0 multipliziert und dann zu
v~k) addiert wird. Die resultierende Rechenvorschrift lautet demnach:
(k-t- I) _
VI - -w {
(k+l) {(k+l)
V2 = -w a21 VI (4.105)
(k+l) _
V3 -
{ (k+l)
-w a31vI
+ a32 v 2(k+l)
Mit der Darstellung von A gemäß (4.96) lautet (4.1 05) in Matrixschreibweise
v(k+ I) = -wD-I{Ev(k-t-I) + Fv(k) + b} + (1 - w)v(kl,

oder nach Multiplikation mit ~D und geordnet


w
(E + w-1D)v(k-t-l) = -[F+ (1 - w-I)D]v(k) - b. (4.106)

Die Matrix (E + w -I D) stellt eine Linksdreiecksmatrix dar mit positiven


Diagonalelementen. Sie ist deshalb regulär, so daß (4.1 06) nach v(k + I)
aufgelöst werden kann.

Die in (4.107) auftretende Matrix


MSOR(w) = -(E + w-ID)-l[F + (1 - w-I)D] (4.108)

stellt die Iterationsmatrix der Überrelaxationsmethode dar, es gilt auch hier


für die Fehlervektoren (4.100) die Beziehung /k+ I) = MSOR(w)/k),
k = 0,1,2, ... , und der Konvergenzquotient wird durch den Spektralradius
p(MSOR(w)) bestimmt.
Für symmetrisch-definite Gleichungssysteme kann gezeigt werden, daß die
Vektorfolge v(k) der SOR-Methode für alle Werte w E (0, 2) gegen die Lösung x
konvergiert [SRSn, You71]. Allerdings ergibt sich im allgemeinen Fall keine
Aussage über die optimale Wahl des Relaxationsfaktors w, welcher den
Spektralradius p(MSOR(w)) minimiert und damit bestmögliche Konvergenz
garantiert. Man ist deshalb auf Versuche und die praktische Erfahrung bei der
Lösung von ähnlichen Problemen angewiesen. Eine Möglichkeit, einen fast
optimalen Überrelaxationsfaktor Wb zu bestimmen, basiert auf der Theorie der
Charakterisierung des optimalen Relaxationsfaktors Wopt im Fall von soge-
nannten 2-zyklischen oder diagonal blockweise tridiagonalen Matri-
zen A [SRSn, Var62, You71]. In diesem Fall ist wopt gegeben durch
wopt = 2/(1 + "iI - AT), (4.109)
256 4 Behandlung der linearen Gleichungssysteme

wobei Al den größten Eigenwert der· Matrix B=-D- l (E+F)=MJO R(I)


bedeutet. Die Eigenwerte Aj der Matrix B sind reell, weil B ähnlich ist vermöge
der Diagonalmatrix D 1/2 zur symmetrischen Matrix - D -1/2 (E + F)D -112.
Weiter gilt dann zwischen den Eigenwerten f1.j von MSOR(w) und den Aj die
eineindeutige Zuordnung
(f1.j +W - 1)2/f1.j = W 2Aj, (4.110)
die sich im Fall des Einzelschrittverfahrens mit W = 1 auf die Beziehungf1.j= A}
reduziert.
Obwohl die Matrizen A, die in der Methode der finiten Elemente auftreten, in
der Regel die oben genannten Eigenschaften nicht besitzen, wird die Beziehung
(4.109) doch dazu verwendet, eine annehmbare Schätzung für einen fast
optimalen Wert Wb zu gewinnen. Der dazu erforderliche Spektralradius
p(B) = IAll kann aus dem Verlauf einer Startrechnung mit W = 1 aus der
Abnahme der Differenz aufeinanderfolgender Näherungen approximativ
ermittelt werden. Nach (4.107) und (4.108) gelten
d(k+l) = v(k+l) - v(k) = [MSOR(w) - I]v(k) - (E + w-1D)-lb,
d(k) = v(k) - v(k-l) = [MSOR(w) - I]v(k-l) - (E + w-1D)-lb.

Durch Subtraktion der beiden Beziehungen folgt weiter


d(k+ 1) - d(k) = [MSOR(w) _l](v(k) - v(k-l)) = [MSOR(w) - I]d(k),

und damit nach erneuter Addition von d(k)

d(k+ 1) = MsoR(w)d(k).

Deshalb gilt für hinreichend großes k für irgend eine Vektornorm


Ild(k+l)II/lld(k)11 = 1f1.11 =AT. (4.111)
Sobald der Quotient der Normen konvergiert, kann mit dem resultierenden
Wert AT der Schätzwert Wb aus (4.109) berechnet und mit diesem Wert die
eigentliche Überrelaxation gestartet werden.
Um bereits in der Startrechnung eine bessere Konvergenz zu erzielen, ist es
angebracht, einen Versuchswert w mit 1< w < Wb zu wählen. Der nach (4.111)
ermittelte Grenzwert 1f1.11 ist gleich p(MSOR(w)), so daß AT aus (4.110) zu
berechnen ist. Ist w > Wb gewählt worden, dann oszilliert der Quotient (4.111)
in der Regel mit wachsendem k, weil in diesem Fall der dominante Eigenwert
von MSOR(w) meistens komplex ist, weshalb w zu verkleinern ist. In [ApI77]
werden erfolgreiche numerische Experimente zur Bestimmung von Wb darge-
stellt.
Die Konvergenzeigenschaft der Überrelaxationsmethode ist im allgemeinen
bedeutend besser im Vergleich zur JOR-Methode. Da der Rechenaufwand pro
4.6 Iterative Methoden 257

Iterationsschritt gleich groß ist, ist die SOR-Methode unter diesem Gesichts-
punkt vorzuziehen. Eine effiziente Implementierung auf Vektorrechnern ist
jedoch in der Regel, insbesondere im Fall von schwach besetzten Matrizen,
kaum möglich, weil der iterierte Vektor v(k+ I) komponentenweise zu berech-
nen ist, die Längen der Vektoroperationen oft relativ kurz sind und dabei
unregelmäßig verteilte Komponenten eines Vektors betroffen sind.

4.6.3 Vorkonditionierung

Ist die Konditionszahl der Systemmatrix A für direkte Lösungsverfahren bei


gegebener Stellenzahl des verwendeten Computers maßgebend für den Verlust
an sicheren Stellen der berechneten Lösung, bezogen auf die absolut größte
Lösungskomponente [FoM67, Go V89, SRSn, Scw88], so hat für iterative
Methoden eine große Konditionszahl eine schlechte Konvergenz zur Folge.
Deshalb sollte die Konditionszahl durch geeignete Maßnahmen verkleinert
werden.
Als einfachste Maßnahme bietet sich die Skalierung der Matrix an. Um die
Symmetrie von A zu erhalten, kommen nur gleichzeitige Zeilen- und Kolon-
nenskalierungen in Betracht, wobei die i-te Zeile und Kolonne mit dem
Zahl wert di > 0 skaliert, d. h. multipliziert wird. Eine optimale Skalierung wird
erreicht, falls die Matrix äquilibriert ist [Bau63, WiI61], d. h. daß die
euklidischen Normen von allen Zeilen und damit aus Symmetriegründen auch
von allen Kolonnen die Länge Eins besitzen gemäß

d; [ ±
J=I
i
(ai}d jI /2= 1, (i = 1,2, ... , n).

Die Bestimmung der optimalen Skalierfaktoren d; aus diesen nicht linearen


Gleichungen ist aufwendig. Für praktische Zwecke begnügt man sich mit der
einfacheren Wahl der Skalierfaktoren
d; = I/v;:;, (i = 1,2, ... , n). (4.112)
Die mit (4.112) skalierte Matrix A =DsADs mit den Matrixe1ementen
Gi} = diai}dj besitzt Diagonalelemente Gii = I, und für die Nichtdiagonalelemen-
te gilt wegen der positiven Definitheit von A und A notwendigerweise
[SRSn]
.2
ai} < 1, I. -r- }.
-L •

Enthält die i-te Zeile Yi von Null verschiedene Matrixelemente, so erfüllen die
Zeilen- und Kolonnennorrnen der so skalierten Matrix A die Ungleichungen

1<; [±J=I
G&j1 /2 <;VY:, (i= 1,2, ... ,n).
258 4 Behandlung der linearen Gleichungssysteme

Für große und schwach besetzte Matrizen wird mit den Skalierfaktoren (4.112)
jedenfalls eine vernünftige Konditionsverbesserung erzielt, da mit der Skalie-
rung ein Schritt in Richtung der Äquilibrierung getan wird.
Die Zunahme der Konditionszahl der Matrix A bei Verfeinerung der
Elementeinteilung und der damit verbundenen Vergrößerung der Anzahl der
Knotenvariablen liegt für festen Elementtypus in der Natur der Sache, da die
Matrix A die Diskretisierung eines unbeschränkten kontinuierlichen Opera-
tors darstellt. Die Konditionszahl der nicht skalierten Matrix A kann auch
dann groß sein, falls große Unterschiede von physikalischen Größen des
Problems vorhanden sind oder dimensionsbehaftete Größen in den Steifig-
keitselementmatrizen auftreten. Dies ist insbesondere dann der Fall, wenn
neben Auslenkungen auch erste und höhere Ableitungen als Knotenvariablen
verwendet werden, weil dann die Diagonalelemente verschiedene Potenzen
einer die Größe des Elementes charakterisierenden Länge enthalten. Die
dadurch verursachten starken Größenunterschiede in den Diagonalelementen
hat eine große Konditionszahl zur Folge, da der kleinste (größte) Eigenwert
einer symmetrischen Matrix höchstens (mindestens) so groß wie das kleinste
(größte) Diagonalelement und die Konditionszahl mindestens gleich dem
Quotienten aus dem größten und dem kleinsten Diagonalelement einer positiv
definiten Matrix ist. Die Skalierung der Matrix A mit den Faktoren (4.112)
bringt in den skizzierten Situationen eine Konditionsverbesserung.
Die Skalierung der Koeffizientenmatrix A = E + D + F vermittels einer be-
liebigen, regulären Diagonalmatrix D s in 1 = DsAD s = E + D + F mit
E=DsEDs, D = DsDD s und F=DsFD s hat auf die Konvergenz des JOR-
Verfahrens keinen Einfluß, weil für die zu 1 gehörende Iterationsmatrix gilt
MJOR(w) = [- wD- 11 = [ - WDSID-IDsIDsADs
= D S I [[ - wD-IAJD s = DsIMsOR(w)Ds.
Wegen der Ähnlichkeit der Iterationsmatrizen sind ihre Spektralradien gleich.
Dasselbe gilt auch für die Überrelaxationsmethode wegen
MSOR(w) = -(E + w- ID)-I[F+(1 - w-I)DJ
= -(DsED s + w-IDsDDs)-I[DsFDs + (1 - w-I)DsDDsJ
= -DSI(E + w-ID)-I[F+ (1 - w-I)DJD s = DSIMsOR(W)Ds.
Hingegen kann die Skalierung (4.112) mit der dadurch erreichten Verkleine-
rung der Konditionszahl die Anzahl der Iterationsschritte der Methode der
konjugierten Gradienten in bestimmten Fällen beträchtlich reduzieren (vgl.
Beispiele in Kapitel 6).
In Verallgemeinerung der Skalierung kann eine weitere bedeutende Reduktion
der Konditionszahl von A mit einer nichtdiagonalen Matrix erzielt werden, mit
welcher die Matrix A kongruent zu transformieren ist, um das Spektrum
4.6 Iterative Methoden 259

entsprechend zu beeinflussen. Diese Vor konditionierung ist für die Metho-


de der konjugierten Gradienten von entscheidender Bedeutung, da hier das
Konvergenzverhalten direkt mit der Konditionszahl in Verbindung gebracht
werden kann. Verwendet man die A-Norm eines Vektors y, definiert als
(4.113)
dann gilt für die Abweichung des k-ten iterierten Vektors v(k) von der exakten
Lösung x von Ax + b = 0 die Abschätzung [AxB84]

Ilx - v(k)IIA < 211x - v(O)IIA [ Vx(A) - I Jk. (4.114)


vx(A) + 1
Startet man die Methode der konjugierten Gradienten (4.92) speziell mit
v(O) = 0, so erhält man aus (4.114) für die Anzahl der erforderlichen Iterations-
schritte k zur Erzielung einer relativen Genauigkeit e : = Ilx - v(k) IIAlllxllA die
Schätzung

k < -vx(A)
I
2
In (2Ie) + 1. (4.l15)

Auch wenn die obere Schranke für k im allgemeinen pessimistisch ist, zeigt
(4.115) die Bedeutung, die Konditionszahl wesentlich zu verkleinern.
Es sei C eine reguläre Matrix der Ordnung n, mit welcher das zu lösende lineare
Gleichungssystem Ax + b = 0 in die äquivalente Form
C-1AC·TCTx + C-1b = 0 (4.116)
gebracht wird. Mit den neuen Gräßen
A= C-1AC- T, i = CTx, b= C-1b (4.117)
lautet das transformierte System
Ai+b = 0, (4.118)
worin A auch eine symmetrische, positiv definite Matrix ist. Die Matrix C soll
so beschaffen sein, daß die Konditionszahl x(A) bedeutend kleiner als x(A) ist.
Ein Hinweis über eine problemgerechte Wahl der Matrix C liefert die
Feststellung, daß A ähnlich ist zu
(4.119)
Aus (4.119) ist ersichtlich, daß die symmetrische und positiv definite Matrix
M:= CC T (4.120)

die entscheidende Rolle spielt. Mit der (optimalen!) Wahl M = A wäre A


ähnlich zur Einheitsmatrix I und folglich die Konditionszahl x(A) = 1. Eine
260 4 Behandlung der linearen Gleichungssysteme

solche Wahl ist aber nicht sinnvoll, denn sie würde beispielsweise eine
Cholesky-Zerlegung von A erfordern, womit eine Lösung des Gleichungssy-
stems direkt erhalten werden könnte. Jedoch sollte demnach M eine Approxi-
mation der Matrix A sein, damit eine gute Konditionsverbesserung erreicht
wird. Man bezeichnet deshalb M (4.120) als Vorkondi tionierungsma trix.
Wir werden später auf die Wahl von Meingehen.
Nach (4.92) lautet der Algorithmus der konjugierten Gradienten zur Lösung
des vorkonditionierten Systems (4.118) nach Wahl eines Startvektors jj(O)
,(0) = Xjj(O) + h, p{l) = _,(0). (4.121)

Für k = 1,2, ... :


- _ -(k - I)T -(k - I)/-(k - 2)T_(k - 2)
ek-I-r r r r (4.122)
} falls k? 2
p(k) = _,(k - I) + ek _ IP(k - I) (4.123)
eh = ,(k - I)T,(k - l)/p(k)\A.p(k») (4.124)
jj(k) = jj(k - I) + ihp(k) (4.125)
,(k) = ,(k - I) + ih(Xp(k») (4.126)
Der Algorithmus soll aber nicht auf der Basis der transformierten Matrix X
oder deren Darstellung (4.117) durchgeführt werden, vielmehr soll die
Vorkonditionierung auf implizite Weise vorgenommen werden unter Benüt-
zung des ursprünglich gegebenen Gleichungssystems Ax + b = O. Zu diesem
Zweck werden die Rechenschritte (4.121) bis (4.126) so umformuliert, daß
wieder die Orginalgrößen erscheinen. Wegen (4.116) und (4.117) stellen die
Relationen
(4.127)
den Zusammenhang her zwischen Nährungsvektoren und Residuenvektoren
der beiden Gleichungssysteme. Ferner definieren wir Hilfsvektoren s(k) durch
(4.128)
womit verdeutlicht werden soll, daß die Relaxationsrichtungen p(k) im
vorkonditionierten Algorithmus für k > 1 in keiner Relation zu den Vektoren
p(k) des Verfahrens der konjugierten Gradienten für das gegebene System
stehen. Aus (4.125) ergibt sich mit (4.127) und (4.128)
CTv(k) = CTv(k-l) + ihC-ls(k)
und nach Multiplikation mit C- T von links wegen (4.120)
v(k) = v(k-I) + i!h(M-1s(k»).
4.6 Iterative Methoden 261

Analog wird aus (4.126) nach den entsprechenden Substitutionen


C-1r(k) = C-1r(k-l) + ihC-1AC-TC-1s(k)
und nach Multiplikation mit C von links
r(k) = r(k - 1) + ihAOl-r 1S(k)). (4.129)

Aus (4.123) resultiert nach Substitutionen und anschließender Multiplikation


mit C- T von links

(4.130)

Mit (4.130) ist eine Rekursionsformel für die Vektoren


g(k) := M-1s(k) (4.131)

entstanden, wenn wir auch noch die Vektoren


(lek) := M-1r(k) (4.132)

einführen. Mit diesen Vektoren g(k) und (lek) lassen sich schließlich die in
(4.122) und (4.124) auftretenden Skalarprodukte wie folgt darstellen:
;:(k)T;:(k) = r(k)T C- T C-1r(k) = r(k)T M -lr(k) = r(k)T (lek)

p(k)TAp(k) = s(k)T C-TC-1AC-TC-1s(k) = s(k)TM -lAM-1s(k)

= (M-1s(k))TA(M-1s(k)) = g(k)TAg(k)

Zuletzt wurde die Symmetrie von M und damit von M- 1 benutzt.


Ein Vergleich der Formeln des Algorithmus (4.92) mit den Rechenvorschriften
der implizit durchgeführten Vorkonditionierung zeigt, daß die Relaxations-
richtungt:n p(k) durch die Vektoren g(k) ersetzt worden sind. Neben dem
Residuenvektor r(k) ist zusätzlich der Vektor (lek) mitzuführen. Die Matrix C,
von der wir ursprünglich ausgegangen sind, tritt in den neuen Formeln nicht
mehr auf, sondern nur noch die Vorkonditionierungsmatrix M. Beim Start des
Verfahrens ist zu einer Startnäherung v(O) der Residuenvektor r(O) = Av(O) + b
zu berechnen und dazu der Vektor (l(0) als Lösung von M{l(O) = r(O). Für g(l)
erhalten wir unter Verwendung von (4.131), (4.120), (4.128), (4.121), (4.127)
und (4.132)
g(l) = M-1s(l) = C-TC-1S(l) = C-Tp(l) = _C-T;:(O)

= -C-TC-1r(O) = -M-1r(0) = -(l(0).

Der vorkonditionierte Algorithmus der konjugierten Gradienten


lautet damit wie folgt:
262 4 Behandlung der linearen Gleichungssysteme

Start: Wahl von M; v(O);

r(O) = Av(O) + b;
Allgemeiner Relaxationsschritt (k = 1,2, ... ):
MV(k - 1) = r(k-l)

falls k = 1: g(k) = -V(k-l)


_ _ (k-l)T (k-l)/ (k-2)T (k-2)
{ ek-l- r V r V
fallsk~2: (k)_ (k-l) _ (k-l) (4.133)
g - -V + ek-lg
ih ~ r(k-l)T V(k-l)/[g(k)T(Ag(k))]
v(k) = + ihg(k)
v(k-l)

r(k) = r(k -1) + ih(Agk)

Test auf Konvergenz

Der vorkonditionierte Algorithmus (4.l33) erfordert im Vergleich zum


normalen Algorithmus (4.92) in jedem Relaxationsschritt die zusätzliche
Auflösung des Gleichungssystems MV(k-l) = r(k-l) nach V(k-l). Damit dieser
Schritt nicht zu aufwendig ist, muß die Vorkonditionierungsmatrix M auch
unter diesem Gesichtspunkt gewählt werden. Aus diesem Grund kommen in
erster und naheliegender Weise für M solche Matrizen in Betracht, die sich als
Zerlegung M = ce T mit schwach besetzten Linksdreiecksmatrizen C darstel-
len lassen, so daß die Prozesse des Vorwärts- und Rückwärtseinsetzens
effizient durchführbar sind. Wir beginnen damit, einige Möglichkeiten zur
Wahl von C vorzustellen, welche die gemeinsame Eigenschaft besitzen, daß die
Matrix C dieselbe Besetzungsstruktur wie die untere Hälfte der Matrix A
aufweist, woraus sich für die Implementierung einige Vorteile ergeben.
Anschließend wird noch auf weitere Varianten zur Festlegung von M
hingewiesen.
Im folgenden setzen wir voraus, daß die Matrix A bereits vermittels der
Skalierfaktoren (4.112) skaliert worden sei, so daß ihre Diagonalelemente
aii = I sind und daß sich anstelle von (4.96) A als Summe einer unteren
Dreiecksmatrix E, der Einheitsmatrix I und einer 0 beren Dreiecksmatrix F wie
folgt darstellen läßt
A= E + 1+ F, F = E T. (4.134)
Eine erste Wahl der Vorkonditionierungsmatrix M geht zurück auf Evans
[Eva68, Eva73] und wurde insbesondere von Axe1sson [Axe72, Axe76,
Axe77, Axe85] weiter untersucht. Mit einem noch geeignet zu wählenden
Parameter w sei
M:= (I + wE)(I + wF) mit C = 1+ wE. (4.135)
4.6 Iterative Methoden 263

Offensichtlich ist die so definierte Matrix C regulär und besitzt die gleiche
Besetzungsstruktur wie die untere Hälfte von A. Die Definition (4.135) hat den
rechentechnischen Vorteil, daß für M, respektive C, kein zusätzlicher Spei-
cherplatz benötigt wird, denn die Auflösung des Systems MQ = r erfolgt in den
zwei Schritten

(I + wE)y = r und (I + wF)Q = y, (4.136)

wobei dil! gespeicherten Matrixelemente von A verwendet werden können.


Wird die schwache Besetzung der Matrix C ausgenützt, die Einselemente in
den Diagonalen der Systeme (4.l36) beachtet und schließlich die Multiplika-
tion mit w geschickt ausgeführt, so beträgt der Rechenaufwand zur Lösung
von (4.136) nur (y+ l)n Multiplikationen. Der Rechenaufwand eines Itera-
tionsschrittes der vorkonditionierten Methode der konjugierten Gradienten
erhöht skh gegenüber (4.93) auf etwa

ZVCG = (6 + 2y)n (4.137)

Multiplikationen. Im Vergleich zum normalen Algorithmus (4.92) verdoppelt


sich der Aufwand pro Schritt etwa. Für eine bestimmte Klasse von Matrizen A
wird die Konditionszahl von X (4.117) bei optimaler Wahl von w größenord-
nungsmäßig gleich der Quadratwurzel aus derjenigen von A [AxB84], so daß
sich auf Grund der Schätzung (4.115) die Anzahl der Iterationsschritte so stark
reduziert, daß sich der Mehraufwand mehr als rechtfertigt.
Die Vorkonditionierungsmatrix M (4.l35) stellt für w ~ 0 in gewissem Sinn
eine Approximation der skalierten Matrix A (4.134) dar, denn es gilt

M=I+wE+wF+w 2EF=w[A +(w-1-I)I+wEF].

Für w = 0 reduziert sich M auf I, so daß in diesem Fall die vorkonditionierte


cg-Methode in den normalen Algorithmus für die skalierte Matrix übergeht.
Den Algorithmus (4.l33) mit der Vorkonditionierungsmatrix M (4.l35)
bezeichnen wir mit SSORCG, da die Matrix M in der sogenannten symmetri-
schen Überrelaxationsmethode (symmetrie successive overrelaxation =
SSOR) auftritt [AxB84, SRS72], wenn auch nicht als Iterationsmatrix. Zudem
besteht eine typische Analogie darin, daß die Anzahl der erforderlichen
Iterationsschritte in Abhängigkeit von w in der Gegend des optimalen Wertes
ein flaches Minimum aufweist. Diese Tatsache erleichtert die Wahl eines
zumindest guten Wertes von w, da die Konvergenzgüte nicht sehr empfindlich
auf kleine Abweichungen vom optimalen w reagiert. Man vergleiche dazu die
Beispiele in Kapitel 6.
Eine Verallgemeinerung der SSOR-Vorkonditionierungsmatrix (4.135) be-
steht darin, zur Matrix A in der skalierten Form (4.l34) eine positiv definite
264 4 Behandlung der linearen Gleichungssysteme

Matrix M mit dem Ansatz [Axe72, DKR68]


M = (D + E)D-1(D + F) (4.l38)
zu definieren, wo D eine zu bestimmende Diagonalmatrix mit posItIVen
Diagonalelementen di darstellt. Die Matrix D soll unter der Bedingung, daß M
im wesentlichen die gleichen entsprechenden Zeilensummen wie A hat,
bestimmt werden. Der Ansatz wurde ursprünglich als Vorkonditionierungs-
matrix für Differenzengleichungen von elliptischen Randwertaufgaben konzi-
piert, wobei es sich als vorteilhaft erwies, wenn zu den Diagonalelementen ein
geeigneter Bruchteil ihres Wertes addiert wird. Da die Diagonalelemente von
A gleich Eins sind, lautet die Kombination der beiden Bedingungen mit dem
Vektor e :=(1, 1, ... , I)T
Me = (A + aI)e, (4.l39)
wo a;;::' 0 einen Störungsparameter darstellt. Aus (4.139) ergibt sich nach
Ausmultiplikation der Darstellung für M, anschließender Vereinfachung und
Umordnung
De = (l + a)e - ED-1Fe.
Weil F eine obere und E eine untere Dreiecksmatrix ist, stellt dies unmittelbar
eine Rekursionsformel zur Berechnung der Diagonalelemente di dar. Wegen
F T = E lautet sie

di = (1 + a) - I~~
k=l
aikdk 1 { ±
j=k+l
alk}' Ci = 1,2, ... , n) (4.140)

In (4.140) erscheinen die Spaltensummen der unteren Dreiecksmatrix E, und


der Parameter a;;::' 0 ist so zu wählen, daß die Diagonalelemente di strikt
positiv sind, damit die Matrix M auch positiv definit ist. Um eine zu schlechte
Kondition von M zu vermeiden, sind die Diagonalelemente etwa der
Bedingung di ;;::' 10- 6 zu unterwerfen. Die Wahl von a geschieht mit Hilfe einer
zunehmenden Folge von Werten, beispielsweise für ao = 0, aj = 0.01,
ak = 2 ak - I, k > 2, bis die aus (4.140) resultierenden d i strikt positiv sind.
Eine einfachere Bestimmung der Matrix D beruht auf der Forderung, daß die
Diagonalelemente von M mit denjenigen von A + aI übereinstimmen sollen.
Daraus folgt die Rekursionsformel, in welcher wiederum F T = E zu berück-
sichtigen ist,
i-k
di=(l+a)- I aldk 1, (i=I,2, ... ,n). (4.141)
k=!

Sie kann unter Ausnützung der schwachen Besetzung sehr einfach ausgewertet
werden.
4.6 Iterative Methoden 265

Die Vorkonditionierung mit einer Matrix M der Gestalt (4.138) wird


gelegentlich als DKR-Methode bezeichnet, da eine Darstellung von M in
[DKR68] vorgeschlagen wurde. Sie hat den Vorteil, die MatrixD nach (4.140)
oder (4.141) mit geringem Aufwand zu liefern und als zusätzlichen Speicher
nur die n Plätze für die Diagonalelemente di zu benötigen. Die Auflösung des
G1eichungssystems MtJ = r erfolgt jetzt in den drei Schritten

(D + E)y = r, Z = Dy, (D + F)tJ = Z (4.142)


als Vorwärtseinsetzen, Multiplikation mit der Diagonalmatrix D und als
Rückwärtseinsetzen. Dabei werden die Nichtdiagonalelemente von A verwen-
det, einmal in E und einmal in F. Wird die schwache Besetzung ausgenützt,
beträgt der Rechenaufwand für (4.142) nur (y + 2)n wesentliche Operationen,
so daß sich im Vergleich zum normalen Algorithmus (4.92) der Aufwand pro
Iterationsschritt wieder etwa verdoppelt.
Eine dritte Methode eine Vorkonditionierungsmatrix M mit den oben
genannten Eigenschaften zu gewinnen besteht in einer sogenannten partiel-
len Cholesky-Zerlegung der gegebenen Matrix A. Darunter versteht man
eine approximative Cholesky-Zerlegung, bei der jedes Auffüllen (fill-in)
unterdrückt wird, derart daß sich die Besetzungsstruktur der unteren Hälfte
von A auf die Matrix C überträgt. Das Prinzip ist in Fig. 4.19 für den ersten
repräsentativen Schritt für eine Matrix der Ordnung 8 dargelegt. Wir gehen
aus von d,~r Struktur der gegebenen Matrix gemäß Fig. 4.19a, wo x Matrixele-
mente ungleich Null bedeuten. Fig. 4.19b stellt die Situation nach dem ersten
Schritt einer vollständigen Cholesky-Zerlegung dar, wobei * diejenigen
Matrixelemente darstellen, die durch das Fill-in entstehen. Genau diese Werte
bleiben für die folgenden Schritte unberücksichtigt, so daß nach dem ersten
Schritt der partiellen Cholesky-Zerlegung die Besetzungsstruktur von
Fig. 4.19c gilt.
Die partidle oder unvollständige Cholesky-Zerlegung braucht für beliebige
symmetrische, positiv definite Matrizen A nicht zu existieren, weil eine
reduzierte Matrix indefinit werden kann, was sich durch einen negativen

xx xx X X
xxx X XXX**X xxx X
xx X xx X xx X
X X xx X* X* xx x x xx
X X X X*X*x X X X
X X X X X X X X X
X X X X X X
X X X X X X X X X
01 bl cl
Fig.4.19 Prinzip der partiellen Cholesky-Zerlegung
266 4 Behandlung der linearen Gleichungssysteme

Radikanden äußert [AxB84, GoV89, JeM77, Ker78, MeV77]. Sie ist stets
durchführbar für sogenannte M-Matrizen, die insbesondere bei Differenzen-
approximationen auftreten [Me V77]. Um auch injenen Fällen vermittels einer
unvollständigen Cholesky-Zerlegung eine brauchbare Vorkonditionierungs-
matrix zu erhalten, sollen nach einem Vorschlag von Manteuffel [Man79] die
Nichtdiagonalelemente der skalierten Matrix A (4.134) mit einem gemeinsa-
men Faktor reduziert werden zur Matrix

- I
A =I+--(E+F). (4.143)
I+a
Der Parameter a ~ 0 soll möglichst klein gewählt werden, da ja die
Nichtdiagonalelemente von A betragsmäßig umso stärker verkleinert werden,
je größer a ist. Die aus Xresultierende Matrix C liefert mit wachsendem a mit
M = CCT eine zunehmend schlechtere Approximation von A, und der
Vorkonditionierungseffekt wird verringert [Scw81]. Auch hier muß eine zu
schlechte Kondition von M vermieden werden, was etwa durch die Bedingung
cii~1O-3, (i=1,2, ... ,n) erfolgen kann. Die problemgerechte Wahl von a
erfolgt vermittels einer Folge von versuchsweisen partiellen Cholesky-Zerle-
gungen mit zunehmenden Parameterwerten a, wie sie oben angegeben sind.
Die Zahl der doch recht aufwendigen und mißlungenen Versuchszerlegungen
sollte klein gehalten werden, weshalb es empfehlenswert ist, mit einem
entsprechenden Startwert ao zu beginnen, falls Erfahrungswerte vorhanden
sind.
Die Methode der konjugierten Gradienten mit einer Vorkonditionierungs-
matrix M= CC T auf Grund einer partiellen Cholesky-Zerlegung setzt die
Berechnung von C voraus. Der zwar nur einmalige, aber nicht geringe
Rechenaufwand setzt sich aus den Multiplikationen zur Reduktion der
Nichtdiagonalelemente der unteren Hälfte von A, aus sehr zahlreichen Tests
auf Fill-in und aus den andernfalls auszuführenden Multiplikationen zur
Reduktion zusammen. Im Gegensatz zu den beiden vorher diskutierten
Vorkonditionierungsmethoden wird jetzt der zusätzliche Speicherplatz für die
Matrixelemente von C benötigt, der jenem zur Speicherung der von Null
verschiedenen Matrixelemente der unteren Hälfte von A entspricht. Da ihre
Besetzungsstrukturen identisch sind, sind die Indexinformationen für A
gleichzeitig für C verwendbar. Dennoch steigt der Speicherbedarf auf etwa das
Doppelte an. Für eine effiziente Implementierung der partiellen Cholesky-
Zerlegung ist eine geeignete Speicherung der unteren Hälfte von A nötig, auf
die im nächsten Abschnitt eingegangen wird.
Die Berechnung von Q aus MQ=CCTQ=r erfordert (y+l)n wesentliche
Operationen, weil die Diagonalelemente von C im allgemeinen von Eins
verschieden sind. Deshalb ist der Rechenaufwand pro Iterationsschritt auch
gegeben durch (4.137).
4.6 Iterative Methoden 267

In bestimmten Anwendungen liefert eine modifizierte partielle Cholesky-


Zerlegung eine bessere Vorkonditionierungsmatrix M. Anstatt bei der
Berechnung von C den möglichen Fill-in der Reduktionsschritte zu unter-
drücken, werden diese Werte zu den Diagonalelementen derselben Zeile
addiert. Die resultierende Vorkonditionierungsmatrix M = CC T hat die
gleichen Zeilensummen wie A [AxB84, Gus80, Gus83]. Die modifizierte
partielle Cholesky-Zerlegung hat deshalb eine gewisse Analogie zur DKR-
Methode und ist in bestimmten Fällen sogar mit ihr identisch [Axe85].
Die skizzierten Vorkonditionierungsmethoden reduzieren die Anzahl der
Iterationsschritte sehr beträchtlich, doch ist ihr Effekt in den verschiedenen
Anwendungsgebieten unterschiedlich. Auf Grund von Experimenten scheint
die Vorkonditionierung auf der Basis einer partiellen Cholesky-Zerlegung
(PACHCG) im Fall von Aufgaben aus dem Ingenieurbereich (Fachwerke,
Rahmenkonstruktionen, Scheibenprobleme, Plattenprobleme) am effiziente-
sten zu sein (vgl. Beispiele in Kapitel 6). Es gibt sogar sehr große Gleichungs-
systerne, für welche die vorkonditionierte Methode der konjugierten Gradien-
ten den direkten Verfahren nicht nur in bezug auf Speicherbedarf sondern
auch totaler Rechenzeit überlegen ist.
Die VorkDnditionierung mit einer MatrixM = CC T , wo C eine Linksdreiecks-
matrix da.rstellt, eignet sich für Skalarrechner recht gut. Auf Vektorrechnern
ist aber eme effiziente Implementierung des Vorwärts- und Rückwärtseinset-
zens mit der schwach besetzten Matrix C kaum möglich, da einerseits eine
indirekte Adressierung nötig ist und anderseits die Längen der Vektoropera-
tionen variabel und vor allem relativ kurz sind. Auch aus diesem Grund sind
verschiedene andere Vorkonditionierungsmethoden entwickelt worden. In
erster Linie sind die oben dargestellten Zerlegungen auf Blockmatrizen
verallgemeinert worden, für welche ebenfalls unvollständige Cholesky-Zerle-
gungen erklärt werden [CGM85]. Dabei werden Inverse von in der Diagonale
liegenden Blockmatrizen selbst durch geeignete schwach besetzte Matrizen
approximiert. Andere Methoden beruhen auch auf Substrukturierungen oder
auf Gebietszerlegungen, sie sind dann allerdings meistens auf bestimmte
Problemklassen beschränkt. Eine ausführliche Übersicht findet man in
[Axe85].

4.6.4 Datenstrukturen und Rechentechniken

Die iterativen Lösungsmethoden erfordern pro Iterationsschritt entweder die


Multiplikation der Matrix A mit einem Vektor oder die sukzessive Berechnung
der einzdnen Komponenten von Av. Im Fall der Vorkonditionierung sind
zudem die Prozesse des Vorwärts- und Rückwärtseinsetzens für schwach
besetzte Dreiecksmatrizen durchzuführen. Dazu werden nur die von Null
verschiedenen Matrixelemente benötigt. Zuerst betrachten wir die günstige
268 4 Behandlung der linearen Gleichungssysteme

Speicherung und effiziente Implementierung der genannten Operationen rur


Skalarrechner.
Eine naheliegende Anordnung der von Null verschiedenen Matrixelemente
besteht in einer zeilenweisen Speicherung in einem eindimensionalen Feld. Um
die Position der betreffenden Matrixelemente innerhalb der Zeile festzulegen,
ist ein ebenso langes erstes Feld mit den zugehörigen Kolonnenindizes
notwendig. Mit einem zweiten Feld mit (n + 1) Zeigern werden diejenigen
Stellen festgelegt, an denen die einzelnen Zeilen beginnen. Bei dieser Anord-
nung der Matrixelemente ist es wohl zweckmäßig, die Diagonalelemente an
den Beginn der Zahlenwerte pro Zeile zu setzen, damit auf diese Elemente mit
Hilfe der Zeiger direkt zugegriffen werden kann. Die Reihenfolge der
Nichtdiagonalelemente ist in der Regel belanglos, in Fig.4.20 sind sie mit
zunehmenden Kolonnenindizes angeordnet.

a11 a13 a16


"22 a24 a25
a31 8J3
k a42 a« a46
a52 ass
a61 a64 a66

Alan a1.l a~ "22 ~4 ~i 8J3 ~li a« a42 ~ass~a66"s1~

Fig.4.20
Zeilenweise Speicherung
iner schwach besetzten
~. L -_ _ _ _---'---' Matrix
Die Kompilation der Gesamtmatrix A aus den Elementmatrizen direkt in der
Anordnung nach Fig.4.20 erfordert die Kenntnis der Grade der beteiligten
Knotenvariablen im Sinn der Graphentheorie. Auf Grund der an den
einzelnen Elementen beteiligten Knotennummern kann diese Information
ohne weiteres durch ein Rechenprogramm vor Beginn der Kompilation
beschafft werden. Sie liefert den Zeigervektor (mit den Komponenten

worin gi den Grad der i-ten Knotenvariablen darstellt. Der Vektor k der
Kolonnenindizes wird zusammen mit A aufgebaut. Er ergibt sich an sich auch
als Nebenprodukt bei der Gradbestimmung. Die Berücksichtigung von
Randbedingungen erfolgt nach beendeter Kompilation entsprechend modifi-
ziert zum Vorgehen nach Abschn. 3.1.3.
Die Speicherung von A nach Fig. 4.20 weist die offensichtliche Redundanz auf,
daß gleiche Zahlwerte von symmetrisch gelegenen Nichtdiagonalelementen
doppelt auftreten. Diese Datenstruktur ist sicher dann zweckmäßig, falls
4.6 Iterative Methoden 269

sukzessivt: einzelne Komponenten von Av zu berechnen sind, wie dies in der


Methode der Überrelaxation mit sich veränderndem Vektor v zutrifft.
Wenn jedoch ein Vektor mit einer symmetrischen Matrix zu multiplizieren ist,
wie in der Methode der konjugierten Gradienten oder im wesentlichen in der
JOR-Methode, so werden dazu nur die von Null verschiedenen Matrixelemen-
te in und unterhalb der Diagonalen benötigt. Diese Zahlwerte werden
zweckmäßigerweise in kompakter, zeilenweiser Form gemäß Fig. 4.21 gespei-
chert, wobei jetzt das Diagonalelement als letztes der Zeile angeordnet ist, so
daß folglich nur n Zeiger nötig sind, welche auf die Enden der jeweiligen Zeilen
weisen und ebenfalls einen direkten Zugriff auf die Diagonalelemente
gestatten. Die Reihenfolge der Nichtdiagonalelemente ist zur Bildung des
Produktes Matrix mal Vektor irrelevant. Mit jedem Nichtdiagonalelement der
unteren Hälfte sind zwei Multiplikationen mit entsprechenden Vektorkompo-
nenten und Additionen zu zugehörigen Komponenten auszuführen. Die
Matrix-Vektor-Multiplikation zur Bildung von z = Ap kann mit den Index-
und Zeigervektoren von Fig.4.21 wie folgt beschrieben werden, wenn man
beachtet, daß die Kolonnenindizes für die i-te Zeile stets kleiner als i sind:

Zl = alPI

für i = 2, 3, ... , n:
Zi = akiPi

fürj= k i - l + 1, k i - l + 2, ... , k i -1: (4.144)


Zi = Zi + ajPkj
Zkj = Zkj + ajPi

an a 12 a14 alS
a21 a22 a 23 a26
a32 a 33 a3S
Ä=
a4l a44 a46
aSl a53 aSS
a62 a64 a66

k:
Fig.4.21
Zeilenweise kompakte Spei-
cherung der unteren Hälfte
~ :
einer Matrix
270 4 Behandlung der linearen Gleichungssysteme

Damit eine partielle Cholesky-Zerlegung effizient durchführbar ist, müssen


die von Null verschiedenen Matrixelemente pro Zeile mit strikt aufsteigenden
Kolonnenindizes angeordnet sein, wie dies in Fig.4.21 in natürlicher Weise
geschehen ist. Die partielle Cholesky-Zerlegung erfolgt dann im wesentlichen
mit dem Algorithmus (4.50), der selbstverständlich so zu modifizieren ist, daß
der schwachen Besetzung und der speziellen Datenstruktur Rechnung getra-
gen wird [Scw91). Ebenso kann das Vorwärts- und Rückwärtseinsetzen mit
einer Linksdreiecksmatrix C, die in der kompakten, zeilenweisen Form
gespeichert ist, mit den entsprechend modifizierten Algorithmen (4.52) und
(4.53) ausgeführt werden.
Die Kompilation einer Gesamtmatrix A in der kompakten, zeilenweisen
Anordnung nach Fig.4.21 erfordert die Kenntnis der Anzahl der von Null
verschiedenen Matrixelemente einer jeden Zeile links vom Diagonalelernent,
um den Speicherplatz für die einzelnen Zeilen, d. h. die Zeiger (i festzulegen.
Diese Information kann auf Grund der an den einzelnen Elementen beteiligten
Knotenvariablen beschafft werden. Im Prinzip ist zu jedem Knotenpunkt
festzustellen, mit wievielen Knotenpunkten mit kleinerer Nummer er ver-
knüpft ist. Bei dieser Zählung anhand der Nummern pro Element sind aber
Doppelzählungen auszuschließen. Zu diesem Zweck ist festzuhalten, welche
Knotennummern in irgend einem vorhergehenden Element schon einmal
aufgetreten sind. Für ein solches Knotenpaar ist die allfällige weitere Zählung
zu unterlassen, da es zwei Elementen gemeinsam ist und deshalb bereits
berücksichtigt worden ist. Das Beispiel von Fig. 3.1 möge zur Illustration des
Gesagten dienen. Sobald die grundsätzliche Datenstruktur von A festliegt,
kann die Kompilation zusammen mit dem Aufbau des Indexvektors k
erfolgen.
Der Speicherbedarf zur Durchführung der Methode der konjugierten Gra-
dienten ohne Vorkonditionierung läßt sich dadurch stark reduzieren, daß die
Koeffizientenmatrix A gar nicht explizit gebildet wird und die Multiplikation
Ap auf Grund der Elementmatrizen ausgeführt wird. Da die Gesamtmatrix A
durch Addition der Elementmatrizen entsteht, kann das Produkt Ap ebenso
gut durch Superposition der Beiträge der einzelnen Elemente berechnet
werden. Die Randbedingungen sind bei diesem Vorgehen mit geeigneten
Maßnahmen einzubeziehen.
Der Konstantenvektor des zu lösenden Gleichungssystems werde zunächst aus
den betreffenden Elementbeiträgen ohne Beachtung von Randbedingungen
gebildet. Falls nur homogene Randbedingungen auftreten, können die
betreffenden Komponenten im Konstantenvektor einfach gleich Null gesetzt
werden. Im Fall von inhomogenen Randbedingungen ist der Konstantenvek-
tor gemäß Abschn. 3.1.3 zu modifizieren. Die erforderliche Addition von
Vielfachen von Kolonnen der unveränderten Gesamtmatrix A o zum Konstan-
tenvektor muß auch auf der Basis der Elementmatrizen erfolgen, indem das
4.6 Iterative Methoden 271

Produkt Aoho gebildet wird, wo ho den Vektor bedeutet, der in den entspre-
chenden Komponenten die Randwerte enthält und sonst gleich Null ist. Der
Vektor Aoho ist zum Konstantenvektor zu addieren, und anschließend sind die
negativ gt::nommenen Randwerte in die entsprechenden Komponenten einzu-
setzen.
In den einzelnen Iterationsschritten sind die im Abschn. 3.1.3 beschriebenen
Modifikationen an der Gesamtmatrix Ao nach erfolgter Multiplikation von Ao
mit einern Vektor entsprechend auszuführen. Dabei sind zwei Fälle im
Algorithmus (4.92) zu unterscheiden. Der Startvektor v(O) wird zweckmäßig so
gewählt, daß er die Randbedingungen erfüllt. Werden nun im Vektor Aov(O) die
Randwerte erneut eingesetzt, erreicht man damit, daß die entsprechenden
Komponenten von r(O) und damit auch von p(l) verschwinden. Das hat zur
Folge, daß der Vektor v(l) die Randbedingungen wieder erfüllt. Damit diese
Eigenschaft in den weiteren Iterationsschritten erhalten bleibt, sind im Vektor
Aop(k) die durch homogene und inhomogene Randbedingungen vorgeschrie-
benen Komponenten gleich Null zu setzen. Damit verschwinden die betreffen-
den Komponenten in r(k) und in p(k), so daß die iterierten Vektoren v(k) die
Randbedingungen erfüllen.
Mit der beschriebenen Rechentechnik sind die iterativen Verfahren mit
geringem Speicherbedarf durchführbar. Als Grundlage werden nur die
Knotenpunktkoordinaten und die Daten der Elemente benötigt. Ferner
wird der Speicherplatz für mindestens eine Elementmatrix und die im
iterativen Verfahren auftretenden Vektoren gebraucht. Die Reduktion des
Speicherbedarfs geht allerdings auf Kosten eines wesentlich erhöhten
Rechenaufwandes.

Beispiel4.4 Der Speicherbedarf und der Rechenaufwand sollen an einern


kleinen, typischen Beispiel aufgezeigt werden. Wir betrachten ein Scheiben-
problem, das mit quadratischen Ansätzen in Dreieckelernenten behandelt
wird. Die Diskretisation führt auf ne/ = 72 Elemente und n = 384 Knotenvaria-
ble. An Speicher werden benötigt 2n Plätze für die Eckenkoordinaten, 6n el
Werte für die ganzzahligen Nummern der Knoten, 144 Plätze für die
Elementsteifigkeitsmatrix Se und 4n Plätze für die vier Vektoren des Verfah-
rens der konjugierten Gradienten. Für die Randbedingungen ist noch eine
kleine vernachlässigbare Datenmenge erforderlich. Der wesentliche Speicher-
bedarf beträgt somit ungefahr

SCGE = 6(n + nel) + 144 = 2880.

In diesem Beispiel ist die Anzahl der potentiell von Null verschiedenen
Matrixelemente der unteren Hälfte NA = 3720, wozu noch die Indexinforma-
tion von N J =4104 ganzzahligen Werten hinzukommt. Werden diese Werte
272 4 Behandlung der linearen Gleichungssysteme

nur mit einem Viertel gewichtet, so ist der Speicherbedarf rund


SCGA = 4n + NA + O.25NI = 6282,
also gut doppelt so groß.
Unter der Annahme, daß alle Elementmatrizen in jedem Iterationsschritt neu
berechnet werden, setzt sich der Aufwand an multiplikativen Operationen für
einen einzigen Schritt der Methode der konjugierten Gradienten zusammen
aus der Aufstellung der ne/ Steifigkeitselementmatrizen Se (nach (2.156) je 404
Multiplikationen), der Multiplikation von Se mit den zugehörigen Kompo-
nenten eines Vektors Ge 144 Multiplikationen) und den 5n Operationen des
Relaxationsschrittes. Zusammengefaßt sind dies
ZtGE = (404 + 144)n el + 5n = 41376
Operationen. Der erste Anteil in ZtGE ist im Vergleich zum Term
yn (= 2NA - n = 7056) in (4.93) bedeutend größer. Die stets neue Berechnung
der Elementmatrizen mit 404n el Operationen fällt stark ins Gewicht. Bei
regelmäßiger Triangulierung und geeignet gewählter Referenznumerierung
werden nur einige verschiedene Steifigkeitselementmatrizen benötigt, die zu
Beginn zu berechnen und zu speichern sind. Bei entsprechend erhöhtem
Speicheraufwand reduziert sich der Rechenaufwand auf rund
ZtbE = 144n el + 5n = 12'288
Operationen. Im Vergleich zum Aufwand (4.93) mit kompilierter Matrix A,
ZCGA = yn + 5n = 7056 + 1920 = 8976,
ist der Mehraufwand nur noch geringfügig größer.

Jetzt wenden wir uns dem Problem der Vektorisierung der grundlegenden
Operationen zu. Die Matrix-Vektor-Multiplikation Ap für eine zeilenweise,
kompakt gespeicherte Matrix A mit dem Algorithmus (4.144) besitzt auf einem
Vektorrechner kaum eine effiziente Implementierung, weil in der innersten
Schleife indirekte Adressierungen auftreten und die Längen dieser Vektorope-
rationen meistens noch recht kurz sind. Aus diesem Grund sind andere
Datenstrukturen oder Rechentechniken notwendig.
So hat die Idee, die Matrix-Vektor-Multiplikation z = Ap auf Elementbasis
durchzuführen, für Vektor- und Parallelrechner an Bedeutung gewonnen. Die
effiziente Vektorisierung beruht im wesentlichen darauf, die Reihenfolge der
Operationen so zu vertauschen, daß die innerste Schleife die Elemente betrifft.
Erstens ist die Berechnung der Elementmatrizen eines bestimmten Typus so zu
konzipieren, daß die Matrixelemente mit gleichen Indexpaaren simultan
berechnet werden. Gemäß der Methode der Grundelementmatrizen sind als
Vorbereitung die erforderlichen elementabhängigen Konstanten bereitzustel-
4.6 Iterative Methoden 273

len, so daß dann mit diesen Werten die genannten Matrixelemente vermitteIs
typischer Vektoroperationen (Triaden) berechenbar sind. Die gleichindizier-
ten Matrixelemente sind aufeinanderfolgend zu speichern.
Zweitens ist dann der Vektor z = Ap mit Hilfe der Elementknotennummern
analog aufzubauen. Die Tab.3.1 von Beispiel 3.1 möge die folgenden
Erläuterungen konkretisieren helfen. Die Matrixelemente S&!J der Element-
matrizen mit festem Indexpaar (i, j) sind komponentenweise mit denjenigen
Vektorkomponenten vonp zu multiplizieren, deren Indizes denj-ten Knoten-
variablen der Elementknotennummern entsprechen, und der resultierende
Vektor ist zu denjenigen Vektorkomponenten von z zu addieren, deren Indizes
den i-ten Knotenvariablen entsprechen. Der erste Teil der Operation ist trotz
der indirekten Adressierung problemlos mit Hilfe der gather-Anweisung
vektorisierbar, auch wenn gleiche Indizes in der betreffenden Kolonne
vorkommen. Da aber in diesem Fall im zweiten Teil mehrere Komponenten
zur gleichen Komponente von z zu addieren sind, stellt dies eine nicht
vektorisierbare Rekursion dar! Die teilweise Vektorisierbarkeit bringt den-
noch Vorteile, weil jene Vektoroperationen eine (große) konstante Länge
haben, die gleich der Anzahl der Elemente ist. Um auch den zweiten Teil
vektorisieren zu können, muß durch eine Gruppeneinteilung der Elemente
dafür gesorgt werden, daß pro Gruppe in jeder Kolonne nur untereinander
verschi,edene Indizes auftreten. Dies ist durch eine geeignete Anordnung der
Elemente stets erreichbar.
Schließlich sei vermerkt, daß durch geeignete Maßnahmen nur die unteren
Hälften der Elementmatrizen zu speichern sind, um den Speicherbedarf zu
reduzieren.
Ist auf diese Weise das Problem der Matrix-Vektor-Multiplikation für Vektor-
und Parallelrechner zufriedenstellend gelöst, so sind auch für die Vorkonditio-
nierung der Methode der konjugierten Gradienten andere Methoden anzu-
wenden. Vorschläge in dieser Richtung bestehen darin, die Matrix C für den
Vorkonditionierungsschritt mit Hilfe von vollständigen Cholesky-Zerlegun-
gen der Elementsteifigkeitsmatrizen zu definieren. Da die Elementmatrizen
singulär sind, wird ihre positive Definitheit dadurch erreicht, daß etwa
Beiträge der entsprechenden Diagonalelemente der Gesamtmatrix A zu den
Diagonalelementen addiert werden [HFH87]. Eine bessere Vorkonditionie-
rungsrnatrix M wird erzeugt, falls vollständige Cholesky-Zerlegungen von
Submatrizen aus A verwendet werden, die den Elementen entsprechen [Bar89].
In dieslern Fall ist eine Kompilation auf der Basis der Elemente erforderlich,
aber die positive Definitheit der den Elementen zugeordneten Matrizen ist
garantiert. Die Cholesky-Zerlegungen sind wiederum so vektorisierbar, daß
sie simultan für alle Matrizen ausgeführt werden. Dasselbe wird auch für die
Prozesse des Vorwärts- und Rückwärtseinsetzens angewandt unter Berück-
sichtigung der oben erwähnten Indexkonflikte.
274 4 Behandlung der linearen Gleichungssysteme

7 13 19 2S 31

2 8 14 20 26 32

3 9 15 21 27 33

4 10 16 22 28 34

5 11 17 23 29 35
Fig.4.22
Regelmäßige Elementeinteilung
6 12 18 24 30 36
eines Rechteckes

Um eine andere Datenstruktur zur Speicherung von schwach besetzten,


symmetrischen Matrizen zu motivieren, welche eine optimale Vektorisierung
der Matrix-Vektor-Multiplikation erlaubt, betrachten wir ein rechteckiges
Grundgebiet G mit einer regelmäßigen Elementeinteilung in Rechtecke gemäß
Fig. 4.22. Ist eine elliptische Randwertaufgabe zu lösen und werden in den
Rechtecken bilineare Ansätze verwendet, so erhält die Gesamtsteifigkeits-
matrix A, ohne Berücksichtigung von Randbedingungen, die prinzipielle
Besetzungsstruktur von Fig.4.23, wo insgesamt nur neun Diagonalen mit
Matrixelementen besetzt sind, die aber nicht alle von Null verschieden zu sein
brauchen. Diese typische Diagonalstruktur ergibt sich auch für andere

Ä==

Fig.4.23
Diagonalstruktur
einer Matrix
4.6 Iterative Methoden 275

Problemstellungen und andere Elementtypen stets dann, wenn regelmäßige


Elementeinteilungen verwendet werden, wobei die Zahl der Diagonalen
problemabhängig ist. Die Diagonalstruktur kann für allgemeinere Gebiete oft
so erzwungen werden, daß die verwendete Elementeinteilung, konkret etwa in
Vierecke, topologisch äquivalent zu einer regelmäßigen Einteilung auf einem
Rechteck ist, beispielweise zu einer solchen wie in Fig.4.22, und daß die
N umerierung der Knotenpunkte dementsprechend gewählt wird. Eine derarti-
ge Problem vorbereitung kann allerdings krummlinige, isoparametrische oder
subparametrische Elemente erfordern.
Für die Matrix-Vektor-Multiplikation z = Ap einer Matrix A mit Diagonal-
struktur existiert eine höchst effizient vektorisierbare Variante mit langen
Vektoroperationen. Man braucht nur zu beachten, daß sich z als Summe von
komponentenweisen Vektorprodukten, gebildet aus den Diagonalen von A
und Teilvektoren von p, darstellen läßt. Für eine Subdiagonale von A, welche
um k ~ 1 Positionen gegenüber der Hauptdiagonalen versetzt ist und somit an
der Stelle (k+ 1, 1) beginnt, lautet die Rechenvorschrift für den additiven
Beitrag
Zk+j = Zk+j + Gk+j,j X Pj, (j = 1,2, ... , n - k). (4.145)

Für die dazu symmetrisch gelegene Superdiagonale, beginnend an der Stelle


(l,k+ I), lautet die entsprechende Anweisung

Zj = Zj + Gk+j.j X Pk+j, (j = 1,2, ... , n - k) (4.146)

mit denselben Nichtdiagonalelementen wie in (4.145). Die effizienteste


Ausführung der Operationen (4.145) und (4.146) ergibt sich dann, wenn die
Matrixelemente der einzelnen Diagonalen aufeinanderfolgend gespeichert
sind. Diese Forderung wird durch eine der beiden folgenden Datenstrukturen
erfüllt: Anordnung der Diagonale und der m besetzten Subdiagonalen
kolonnwweise in einem zweidimensionalen Feld zu (m + 1) Kolonnen und n
Zeilen, wobei für die Subdiagonalen einige Plätze unbesetzt bleiben, oder
sukzessive in einem eindimensionalen Feld, wobei zur Vereinfachung für jede
Subdiagonale ebenfalls n Plätze reserviert seien. In beiden Fällen ist zu jeder
Diagonale der oben genannte Index kais Zusatzinformation nötig.
Im allgemeinen besitzt die Matrix A nicht eine regelmäßige Diagonalstruktur
gemäß Fig. 4.23. Die Idee der Diagonalspeicherung wird deshalb in geeigneter
Form verallgemeinert und eine für die Vektorisierung zweckmäßige Daten-
struktur festlegt. Wir behandeln im folgenden die in der ITPACK-Programm-
bibliothek verwendete Anordnung, die mit zusätzlichem Speicheraufwand der
zeilenweisen Speicherung nach Fig.4.20 entspricht. Es bedeute m die Maxi-
malzahl von Matrixelementen pro Zeile, die ungleich Null sind. Dann soll die
schwach besetzte Matrix A mit Hilfe von zwei zweidimensionalen Feldern zu n
Zeilen und m Kolonnen gespeichert werden. Das erste Feld enthält zeilenweise
276 4 Behandlung der linearen Gleichungssysterne

die von Null verschiedenen Werte der Matrixelemente der betreffenden Zeile,
je beginnend mit dem Diagonalelement, und das zweite Feld enthält die
zugehörigen Kolonnenindizes. Jene Zeilen des ersten Feldes, welche Zeilen der
Matrix mit weniger als m von Null verschiedenen Matrixelementen entspre-
chen, sind mit Nullen aufzufüllen, während die zugehörigen Indizes beliebige
Werte zwischen 1 und n sein dürfen. Die Datenstruktur ist in Fig. 4.24 mit den
Matrizen A und K dargestellt.

a" a13 a" a13 0 0 3 x x


a 22 a 24 a25 a 22 a 24 a25 0 2 4 5 x

a31 a33 a36 a33 a31 a36 0 3 6 x

A= a42 a44 a45 a47 A: a44 a42 a45 a47 K: 4 5 7

a52 a54 a55 a57 ass a52 a54 a57 5 4 7

a63 a66 a66 a63 0 0 x x

a74 a75 an a77 a74 a75 0 7 4 5 x

Fig.4.24 Speicherung einer schwach besetzten Matrix für Vektorrechner


Diese Speicherung einer symmetrischen, schwach besetzten Matrix A besitzt
wiederum die Redundanz, symmetrische Matrixelemente doppelt zu enthal-
ten, was aber für eine problemlose Implementierung von z = Ap notwendig ist.
Zur sukzessiven Berechnung von z sind die Werte der j-ten Kolonne von A
komponenten weise mit den Komponenten von p zu multiplizieren, deren
Indizes durch diej-te Kolonne von K gegeben sind. Der resultierende Vektor
ist dann ein Summand für z ohne indirekte Adressierung. Die Matrix-Vektor-
Multiplikation benötigt neben gather-Anweisungen die komponentenweise
Vektormultiplikation und die Vektoraddition, so daß tatsächlich eine hohe
Effizienz erwartet werden kann.
Für schwach besetzte Matrizen mit recht unterschiedlicher Zahl der von Null
verschiedenen Matrixelementen pro Zeile kann die Effizienz dadurch gestei-
gert werden, daß die Zeilen von A nach abnehmender Zahl ihrer Matrixele-
mente ungleich Null angeordnet werden und dann mit den tatsächlichen
Längen der Vektoroperationen gearbeitet wird unter Ausführung der allein
notwendigen Operationen. Der resultierende Vektor z ist natürlich entspre-
chend permutiert.
Von den verschiedenen Varianten von effizient vektorisierbaren Vorkonditio-
nierungen sei nur die vielversprechendste dargestellt, bei der einerseits die
Matrix darstellbar ist in der allgemeinen Form
M = (I + L)D(I + L T ), (4.147)
4.6 Iterative Methoden 277

19 4 22 7 25

10 28 13 31 16 34

2 20 5 23 8 26

11 29 14 32 17 35

3 21 6 24 9 27

Fig.4.25
12 30 15 33 18 36
Mehrf<i.rbung der Knotenpunkte

wo Deine Diagonalmatrix und L eine untere Dreiecksmatrix darstellt, und


anderseits eine spezielle Diagonalstruktur der beteiligten Matrizen in (4.147)
vorliegt. Die oben behandelten SSOR- und DKR-Methoden wie auch die
partiell I: Cholesky-Zerlegung fallen bei geeigneter Definition der Matrizen D
und L in die Klasse der Vorkonditionierungsmatrizen M (4.147). Die
Diagonalstruktur wird dadurch erreicht, daß die Knotenpunkte der Diskreti-
sation so durch (möglichst wenige) verschiedene Farben gekennzeichnet
werden, daß jede Knotenvariable der einen Farbe stets nur verknüpft ist mit
Variablen mit anderen Farben [Ort88]. Sodann sind die Knotenvariablen der
einzelnen Farben zusammenzufassen und je fortlaufend durchzunumerieren.
Im Beispiel von Fig. 4.25 genügen vier verschiedene Farben, gekennzeichnet

Ä=:

Fig.4.26
Blockstruktur einer
Matrix bei Mehr-
f.übung
278 4 Behandlung der linearen Gleichungssysteme

durch verschiedene Symbole, und die Matrix A erhält die Blockstruktur von
Fig. 4.26 mit den typischen Diagonalstrukturen der Untermatrizen. Insbeson-
dere sind die Blockmatrizen in der Diagonale selbst Diagonalmatrizen.
Die Diagonalstruktur von A überträgt sich auf diejenige von L in den drei
genannten Methoden zur Gewinnung von M, und die Ausführung der
partiellen Cholesky-Zerlegung erlaubt die Ausnützung der Strukturen der
Blockmatrizen und damit eine effiziente Vektorisierung im Fall von sehr
regelmäßigen Strukturen gemäß Fig.4.26. Sind die Blockmatrizen je in der
Diagonalform gespeichert, so besitzen die Prozesse des Vorwärts- und
Rückwärtseinsetzens effiziente vektorisierbare Implementierungen. Für das
Vorwärtseinsetzen (I + L)y = Y ist bei entsprechender Einteilung von y und Y
unter Beachtung der Block- und Diagonalstruktur

(4.148)

YI= rl, Y2 = r2 - L2IYI, Y3 = Y3 - L 31 YI - L 32Y2; Y4 = Y4 - L 41 YI - L 42Y2


- L 43Y3, so daß die Matrix-Vektor-Multiplikationen tatsächlich effizient
ausführbar sind. Dasselbe gilt auch für das Rückwärtseinsetzen. Die Idee läßt
sich verallgemeinern auf weniger regelmäßige Diagonalstrukturen, doch ist
die Implementierung nicht sehr einfach. Weitere Details und Verfeinerungen
findet man in [Ort88, Po086, Po087]. Das zentrale Problem besteht darin,
erstens eine Mehrfärbung (multicoloring) zu finden und zweitens diejenige
Numerierung zu bestimmen, daß auch noch mit maximalen Vektorlängen
gearbeitet werden kann. In dieser Situation ergibt eine Variante der vorkondi-
tionierten Methode der konjugierten Gradienten von Eisenstat [AxB84,
Eis81, Po087] eine effizientere Implementierung.
5 Behandlung der Eigenwertaufgaben

Werden Schwingungsaufgaben mit der Methode der finiten Elemente behan-


delt, ist schließlich ein allgemeines Eigenwertproblem Ax = )'Bx zu lösen, wo A
und B symmetrische Matrizen sind und B positiv definit ist. In der Regel
werden nur relativ wenige, und meistens die kleinsten Eigenwerte mit den
zugehörigen Eigenvektoren gesucht, da in den technischen AufgabensteIlun-
gen nur die Eigenfrequenzen in einem bestimmten Intervall von Interesse sind.
Überdies sind die höheren Eigenwerte als Folge der Diskretisation mit
zunehmenden relativen Fehlern behaftet und werden deshalb für die Problem-
stellung bedeutungslos.
Im folgenden werden solche Verfahren dargestellt, welche der genannten
Zielsetzung und der Struktur der Matrizen Rechnung tragen. Einleitend wird
die Eigenwertaufgabe für voll besetzte Matrizen betrachtet, wie sie etwa im
Zusammenhang mit der statischen oder dynamischen Kondensation oder
auch in Spezialfallen als Teilprobleme in den nachfolgenden Methoden zu
lösen sind. Sodann werden solche Verfahren dargestellt, welche die schwache
Besetzung der großen Matrizen A und B wenigstens in Form der Band- und
Hüllen,truktur ausnützen. Dazu gehört die Methode der Vektoriteration,
welche grundsätzlich die kleinsten Eigenwerte oder in einer Variante auch die
Eigenwerte in einem Intervall liefert. Mit der Bisektionsmethode können
gezielt die Eigenwerte mit vorgegebenem Index oder diejenigen innerhalb eines
gegebenen Intervalls ermittelt werden. Neben diesen beiden klassischen
Verfahren werden die Grundlagen des Lanczos-Algorithmus dargestellt,
welcher die Eigenwertaufgabe wohl am effizientesten zu lösen vermag, jedoch
infolge von verschiedenen Tücken nicht allzu einfach zu implementieren ist.
Schließlich wird noch ein Verfahren zur Minimierung des Rayleighschen
Quotienten vorgestellt, welches die schwache Besetzung der Matrizen vollstän-
dig ausnützen kann und allein mit den gegebenen, von Null verschiedenen
Matrixelementen arbeitet. Deshalb ist für dieses Verfahren der Speicherbedarf
für A und B am kleinsten, doch kann der Rechenaufwand größer sein im
Vergleich zu anderen, speicheraufwendigeren Methoden.
Es ist schwierig, Richtlinien anzugeben, welche Methode die gewünschten
Eigenwerte und Eigenvektoren am effizientesten liefert, da dies von verschie-
denen Faktoren abhängt. Für Matrizenpaare mit relativ kleiner Bandbreite
und praktisch vollbesetztem Band kann die Bisektionsmethode sehr effizient
sein, weil einerseits die Zerlegungen nicht zu aufwendig sind und die Zahl der
Iterationsschritte apriori abgeschätzt werden kann. Im Fall einer größeren
Bandbreite oder Profils wird die Methode der simultanen Vektoriteration
überlegen, falls die kleinsten Eigenwerte verlangt sind. Eine gute Implementie-
rung des Lanczos-Algorithmus ist in der Regel den beiden vorerwähnten
Verfahren eindeutig überlegen. Ist jedoch die Bandbreite oder das Profil der
280 5 Behandlung der Eigenwertaufgaben

Matrizen sehr groß und die Hülle sehr schwach besetzt, wie dies für
dreidimensionale Aufgaben typisch ist, dann wird die Methode der Rayleigh-
Quotient-Minimierung mindestens konkurrenzfähig hinsichtlich des Rechen-
aufwandes oder bleibt als der einzig gangbare Weg auf Grund des verfügbaren
Speicherplatzes. Für Vektor- und Parallelrechner spielen die Aspekte der
Rechnerarchitektur zusätzlich eine Rolle bei der Beurteilung der Verfahren.

5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen

Die symmetrischen Matrizen A und B der Ordnung n mit positiv definiter


Matrix B der allgemeinen Eigenwertaufgabe
Ax =ABx (5.1)
seien in diesem Abschnitt voll besetzt. Gesucht werden die p ~ n kleinsten
Eigenwerte AI ~ A2 ~ ... ~ Ap von (5.1) mit den zugehörigen Eigenvektoren
XI,X2, ••• ,xp • Den äußerst seltenen Fall, daß alle n Eigenwerte mit den
zugehörigen Eigenvektoren zu bestimmen sind, kann man nach dem gleichen
Verfahren behandeln. Die Lösung der Aufgabe besteht aus mehreren Teil-
schritten.

5.1.1 Reduktion auf ein spezielles symmetrisches Eigenwertproblem

Als erster Vorbereitungsschritt wird das allgemeine Eigenwertproblem (5.1)


auf eine gewöhnliche Eigenwertaufgabe mit einer symmetrischen Matrix
zurückgeführt. Infolge der vorausgesetzten positiven Definitheit der Matrix B
existiert ihre Cholesky-Zerlegung gemäß Abschnitt 4.1
(5.2)
Die Zerlegung (5.2) von B wird in (5.1) eingesetzt, die Gleichung von links mit
L -I multipliziert und schließlich noch die Identität 1= L - TL Teingefügt.
(L -I AL -T)(LTx) = A(L -I L)(LTx) (5.3)
Mit den Substitutionen
C=L-IAL- T, y=LTx (5.4)
wird (5.3) in der Tat ein spezielles Eigenwertproblem
Cy = AY (5.5)
mit der symmetrischen Matrix C, deren Eigenvektoren Yj vermöge (5.4) mit
den Eigenvektoren Xj von (5.1) zusammenhängen. Die Symmetrie von C
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 281

bestätigt man unter Benützung der Symmetrie von A durch


CT = (L -l AL -T)T =L -lA T L -T = L -lAL -T = C. (5.6)
Die Eigellvektoren Yj einer symmetrischen Matrix C bilden bei entsprechender
Normierung ein Orthonormalsystem, indem gilt
Y/Yk = t5jk , (j, k = 1,2, ... , n). (5.7)
Wegen der Relation (5.4) bilden die Eigenvektoren Xj der allgemeinen
Eigenwertaufgabe (5.1) ein System von orthonormierten Vektoren im verall-
gemeinerten Sinn bezüglich der positiv definiten Matrix B. Sie erfüllen die
Beziehungen
(5.8)
Mit dieser Normierung der Eigenvektoren Xj folgt aus der Eigenwertbeziehung
AXk = hBxk nach Multiplikation mit xl von links unter Benützung von (5.8)
überdies
(5.9)
Das bedwtet, daß die Eigenvektoren zu verschieden indizierten Eigenwerten -
die Eigenwerte dürfen dabei gleich sein - sowohl bezüglich B als auch
bezüglich A im verallgemeinerten Sinn orthogonal sind. Diese Tatsache wird
in bestimmten Verfahren zu berücksichtigen sein.
Die tatsächliche Reduktion von (5.l) in (5.5) erfordert nach erfolgter
Cholesky-Zerlegung von B die Berechnung der Matrix C nach (5.4). Dazu ist
die Inversion der Linksdreiecksmatrix L und die beiden Matrizenmultiplika-
tionen gar nicht nötig. Vielmehr läßt sich die Matrix C am effizientesten und
mit kleinstem Speicherbedarf wie folgt berechnen. Die Hilfsmatrix H = AL - T
wird aus HL T = A kolonnenweise bestimmt. Für n = 4 lautet diese Matrizen-

j
gleichung

[~"
h 21
h 3l
h 4l
h 22
1132

1142
h 13
h23 h 24
h"
h 34
h44
HI" 121
h2
131
132 142
h3 143
", j [""
144
a2l

a3l

a4l
a12

a22

a32

a42
a13

a23

a33

a43
a"
a24

a34

a44

(5.10)
In (5.10) wurde in der MatrixA angedeutet, daß aus Symmetriegründen nur die
übliche untere Hälfte von A gespeichert und damit als Zahl werte vorhanden
sind. Obwohl die Matrix H nicht symmetrisch ist, genügt es, wie im zweiten
Teilschritt der Reduktion ersichtlich sein wird, nur die Elemente in und
unterhalb der Diagonale wirklich zu berechnen. Für diese Elemente erhält
282 5 Behandlung der Eigenwertaufgaben

man den dem Vorwärtseinsetzen entsprechenden Formelsatz

(5.11)

(k = 1,2, ... , n; i = k, k + 1, ... , n).


Für k = 1 ist selbstverständlich die Summe leer.
Die resultierende Matrix C = L -1 H ist symmetrisch, weshalb nur die eine

l
Hälfte aus der Matrizengleichung L C = H berechnet werden muß. Für n = 4
lautet die Bestimmungsgleichung

::: ::: ::: J ~:: ~:: ~:: ~:: J


C32 C33 C34 - h 31 h 32 h 33 h 34 •

C42 C43 C44 h4 1 h42 h43 h44


(5.12)
In (5.12) ist mit der Treppenlinie in Hangedeutet, daß nur die Elemente in und
unterhalb der Diagonale bekannt sind. Diese genügen aber vollkommen, um
die wesentlichen Elemente von C in und unterhalb der Diagonale zeilenweise
sukzessive zu berechnen, wobei im Prozeß des Vorwärtseinsetzens zu berück-
sichtigen ist, daß die Elemente von C oberhalb der Diagonale nicht verfügbar
sind und durch die dazu symmetrischen Elemente zu ersetzen sind.

(5.13)

(i = 1,2, ... , n; k = 1,2, ... , i).


Für bestimmte Indexkombinationen sind in (5.13) entsprechende Summen
leer.
Was den Speicherbedarf anbetrifft, kann die Cholesky-Matrix L nach
Abschn. 4.1 am Platz von B aufgebaut und gespeichert werden. Die Hilfsma-
trixHkann nach (5.11) genau so an die Stelle von A gespeichert werden, da das
Element aik nur zur Berechnung des betreffenden Elements hik mit den gleichen
Indizes gebraucht wird. Dieselbe Bemerkung gilt für (5.13), so daß die Matrix
C, genauer gesagt ihre untere Hälfte, am Platz von H und damit von A
aufgebaut werden kann. Der ganze Reduktionsalgorithmus benötigt über-
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 283

haupt keinen zusätzlichen Speicherplatz, falls die erwähnten Matrizen je


miteinander identifiziert werden. Für die Matrizen A und B, bzw. für die
resultierenden Matrizen C und L beträgt der totale Speicherbedarf n 2 + n
Plätze. Hierbei ist je eine zeilenweise Anordnung der Matrixelemente in einem
eindimensionalen Feld angenommen.
Der Rechenaufwand für die vollständige Reduktion der allgemeinen Eigen-
wertaufgabe auf die spezielle, bestehend aus der Cholesky-Zerlegung von B
und der Berechnung von C nach (5.11) und (5.13) beläuft sich gräßenord-
nungsmäßig auf

2 3
n + O(n ).
2
ZRed = - (5.14)
3

5.1.2 Das zyklische Jacobi-Verfahren

Das weitgehend problemloseste und numerisch sicherste, dafür aber aufwen-


digste Vc:rfahren zur Bestimmung der Eigenwerte und Eigenvektoren einer
symmetr:.schen Matrix C ist das zyklische J acobi- Verfahren. Auf Grund
des Hauptachsentheorems wird die Matrix C durch eine Folge von Ähnlich-
keitstransformationen mit einfachen orthogonalen Transformationsmatrizen
der Form

Uii = 1 i =1= p, q
.I upp = cos qJ, upq = sin qJ

cos qJ sm qJ <-p uqp = - sin qJ, U qq = cos qJ


1
V= uij = 0 sonst
.1
-sin qJ cos qJ ~q V-I = V T
1
.1 (5.15)

sukzessive auf Diagonalform transformiert. Das Indexpaar (p, q) mit


1 <.p < q <. n heißt das Rotationsindexpaar und qJ ist der Drehwinkel der
als Drehung in der (p,q)-Ebene interpretierbaren Transformation vermit-
tels U. Die orthogonalen Ähnlichkeitstransformationen mit V wurden von
J aco bi im Jahr 1846 [Jac46] zur Diagonalisierung von Matrizen vorge-
schlagen.
Eine einzelne Ähnlichkeitstransformation einer Matrix C mit V (5.15) in
C" = U- I CU = V T CU verändert nur die Elemente von C in den p-ten und
q-ten Zeilen und Kolonnen. So sind die Elemente von C' = UT C durch
284 5 Behandlung der Eigenwertaufgaben

C~j = Cpj c~s rp - Cqj sin rp}


Cqj = Cpj sm rp + Cqj cos rp (j = 1,2, ... , n). (5.16)
cij = cij für i =I=- p, q

Die Elemente von C" =C' U ergeben sich zu

ci;' = c[p cos rp - c[q sin rp}


c:~ = c!p s.~n: + c[q cos rp (i = 1,2, ... , n) (5.17)
cij = cij furJ =I=- p, q

An den Kreuzungsstellen der p-ten und q-ten Zeilen und Kolonnen werden die
Elemente sowohl nach (5.16) als auch nach (5.17) transformiert. Nach
Substitution sind die betreffenden Elemente definiert durch
Cpp
" = Cpp cos 2 rp - 2 Cpq cos rp sm
. rp +Cqq·sm
2 rp }
" =
Cqq Cpp sm
·2 rp +2 Cpq cos rp sm
. rp + Cqq COS 2 rp (5.18)
C;q = C~p = (cpp - Cqq ) COS rp sin rp + Cpq(cos 2 rp - sin 2 rp)
Das Ziel einer einzelnen lacobi-Transformation besteht darin, das Paar von
Außendiagonalelementen C;q und c~p zum Rotationsindexpaar (p, q) zu Null
zu machen.
Nach (5.18) führt diese Forderung auf die Bestimmungsgleichung für den
Drehwinkel rp
(5.19)
Die Transformation hat natürlich nur Sinn, falls cpq = cqp =I=- 0 ist. Unter dieser
Voraussetzung folgt aus (5.19) unter Verwendung von trigonometrischen
Identitäten mit endlichem Wert des Quotienten
c - c
cot (2rp) = qq pp = e. (5.20)
2cqp
Für t = tan rp = sin rp/cos rp und auf Grund der Identitäten cot (2rp) =
(1 - tan 2 rp)/(2 tan rp) und cos 2 rp + sin 2 rp = 1 ist t Lösung der quadratischen
Gleichung t 2 +28t - 1 = 0, wobei die absolut kleinere der beiden möglichen
Lösungen gemäß

(5.21)
für e= 0
gewählt wird. Damit wird erreicht, daß einerseits im Nenner von (5.21) keine
numerische Auslöschung stattfindet und daß anderseits Itan rpl 1 wird, so <
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 285

daß der Drehwinkel <p auf das Intervall-1I:/4 < <p 11:/4 beschränkt wird. Aus -<
dem Wert für tan <p ergeben sich die benötigten Werte
1 .
cos <p = ~' sm <p = t . cos <po (5.22)
vI +
(2

Damit kann die Transformation der Matrix C in C" nach den Formeln (5.16)
und (5.17) durchgeführt werden. Zur Verbesserung der numerischen Eigen-
schaften werden für die Umrechnung der beiden Diagonalelemente cpp und Cqq
die Dars1:ellungen (5.18) unter Ausnützung des nach (5.19) bestimmten
Drehwinkels umgeformt in die bedeutend einfacheren Formen
C;p = cpp - 2cpq cos <p sin <p + (c qq - cpp )sin2 <p
. COS 2 <p - sin 2 <p }
= Cpp - cpq { 2 cos <p sm <p - . sin 2 <p = cpp - cpq tan <po
cos <p sm <p
Es folgen so die Darstellungen
C;D = cpp - cpq tan <p, C;q = Cqq + cpq tan <po (5.23)
Im speziellen zyklischen Jacobi-Verfahren werden die Rotationsindexpaare
pro Zyklus in der folgenden Reihenfolge durchlaufen:
(1,2), (1, 3), ... , (I, n), (2, 3), (2, 4), ... , (2, n), (3,4), ... , (n - I, n).
(5.24)
Das bedeutet, daß die Außendiagonalelemente der untern Hälfte kolonnen-
weise pro Zyklus genau einmal zu Null rotiert werden.
In [Hen58] ist gezeigt, daß die Matrizen Ck = uI Ck -) Uk mit Co = C, gebildet
nach dem speziellen zyklischen Jacobi-Verfahren mit der Indexreihenfolge
(5.24) und mit den Drehwinkeln <Pk nach (5.21) gegen eine Diagonalmatrix
konvergieren, indem die Werte S( Ck) der Summe der Quadrate der Außendia-
gonalelernente von Ck eine monotone, nicht zunehmende Nullfolge bilden.
Infolge der Ähnlichkeit der Matrizen Ck stellen die Diagonalelemente der
Grenzmatrix die Eigenwerte von C dar. Mit feineren Hilfsmitteln kann sogar
bewiesen werden, daß die Wertefolge S(Ck ) von einem bestimmten Moment
an sogar quadratisch gegen Null konvergiert, indem S(Ck-"-N) nach einem
vollständigen Zyklus von N = n (n - 1)/2 Rotationen im wesentlichen gleich
dem Quadrat von S(Ck ) ist [Hen58, Rut76, Scö6l, Wil62].
Die Summe der Quadrate der Außendiagonalelemente S (Ck) liefert gleichzei-
tig eine generelle absolute Fehlerschranke, mit welcher die Diagonalelemente
von Ck , das seien der Größe nach geordnet dfk) d~k) d~k), die -< -< ... -<
Eigenwerte ,1.) ,1.2 -< -< ... -<
An approximieren, indem gleichzeitig gilt [Hen58]

(5.25)
286 5 Behandlung der Eigenwertaufgaben

Die Eigenvektoren der Matrix C = Co können parallel zu den Eigenwerten


berechnet werden. Für hinreichend großes k ist ja

(5.26)

mit V= U I U2 •.• Uk - I Uk. Ist S( Ck) genügend klein, stellt C k praktisch eine
Diagonalmatrix D dar, so daß approximativ gilt

VTCV~D oder CV~ VD. (5.27)

Die Matrix Vist als Produkt von orthogonalen Matrizen selbst orthogonal und
enthält gemäß (5.27) in der j-ten Kolonne eine Näherung für den normierten
4
Eigenvektor zur Eigenwertnäherung k ). Die in V stehenden Näherungen der
Eigenvektoren bilden innerhalb der numerischen Genauigkeit auf alle Fälle
ein System von paarweise orthogonalen und normierten Vektoren. Dies trifft
auf Grund der Konstruktion auch im Fall von mehrfachen Eigenwerten zu.
Die Matrix V berechnet sich rekursiv durch Aufmultiplikation der Transfor-
mationsmatrizen Uk gemäß

Va =1; Vk=Uk-IUk, (k=I,2, ... ). (5.28)

Da die Matrizenfolge Ck durch geeignete Maßnahmen am Platz der gegebenen


Matrix C gespeichert werden kann, für die Matrizen Vk Speicherplatz für eine
volle (n X n)-Matrix nötig ist, weil sie nicht symmetrisch sind, wird Speicher-
platz für rund 3n 2/2 Werte benötigt.
Die Anzahl der Rechenoperationen für eine einzelne lacobi-Transformation
setzt sich zusammen aus der Zahl der Operationen der Ähnlichkeitstransfor-
mation für Ck und derjenigen der rekursiven Berechnung von Vk . Bei
Berücksichtigung der Symmetrie von Ck sind je rund 4n Multiplikationen
nötig, insgesamt also 8n. Pro Zyklus von N = n(n - 1)/2 Transformationen
macht dies etwa 4n 3 Operationen. Die Praxis zeigt, daß in der Regel 6 bis 8
Zyklen genügen, um die Eigenwerte mit hinreichender Genauigkeit zu
bestimmen, so daß der totale Rechenaufwand größenordnungsgemäß etwa

(5.29)

Multiplikationen beträgt.
Die lacobi-Methode liefert simultan sämtliche n Eigenwerte und die zugehöri-
gen Eigenvektoren von C. Das Verfahren kann deshalb der etwas speziellen
AufgabensteIlung nicht Rechnung tragen, falls nur ein bestimmter Teil
gewünscht ist.
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 287

5.1.3 Die Methode von Householder

Um die gewünschten Eigenwerte und anschließend die zugehörigen Eigenvek-


toren einer symmetrischen Matrix C gezielt und effizient berechnen zu
können, wird C durch eine geeignete Folge von endlich vielen orthogonalen
Ähnlichki:itstransformationen in eine tridiagonale Matrix übergeführt.
Dazu existieren zwei grundlegend verschiedene Verfahren, welche das Ge-
wünschte leisten. Die Methode von Givens [Giv54, Scw88] verwendet
lacobiscbe Transformationsmatrizen, ist im Aufbau sehr durchsichtig und
einfach und benötigt (n -l)(n - 2)/2 einzelne Schritte, in denen je ein
Außendiagonalelement in Null transformiert wird. Der Rechenaufwand der
Methode von Householder [Hou58, Wi160] ist aber nur halb so groß,
weshalb nur dieser etwas komplizierter aufgebaute Algorithmus im folgenden
dargestellt wird.
Für die Ähnlichkeitstransformation werden orthogonale Matrizen U der
Gestalt
U = 1- ßww T mit w =1= 0 und ß = 2/w TW (5.30)
verwendet, wo weinen n-dimensionalen, reellen Kolonnenvektor bedeutet, so
daß ww Teine (n X n)-Matrix darstellt. Die Matrix U (5.30) ist offensichtlich
symmetrisch und wegen
UTU = UU = (I - ßwwT)(I - ßww T)
= I - 2ßww T + ß 2 w(w Tw)w T = I - 2ßww T + 2ßww T = I
orthogonal.
Da der Vektor w später geeignet zu wählen sein wird, stellen wir eine
Eigenschaft der Matrix U (5.30) fest. Wir betrachten dazu einen beliebigen
Vektor x i= 0, der sich als Summe von zwei Vektoren y und z darstellen läßt,
wobei y =, yw ein Vielfaches von wund z orthogonal zu w ist. Dann gilt für den
Bildvektor
x' = Ux = (I - ßww T)(y + z)
= y - ßyww T W +z- ßww T Z = Y - 2y +z= -y + z.
Er ist somit das Spiegelbild von x bezüglich der Hyperebene durch den
Ursprung, welche senkrecht zu w ist. Die Matrix U entspricht also einer
Spiegelung.
Als weitere Vorbereitung betrachten wir die Aufgabe, den Vektor w für eine
Matrix U so festzulegen, daß der Bildvektor eines beliebig gegebenen Vektors
x =1= 0 ein Vielfaches des Einheitsvektors el ist. Auf Grund der ürthogonalität
von U bat der Bildvektor die gleiche euklidische Norm wie x, so daß
Ux=± Ilxilel gilt. Wegen der Spiegelungseigenschaft von Umuß der Vektor
288 5 Behandlung der Eigenwertaufgaben

w die Richtung einer der beiden Winkelhalbierenden der Richtungen von x und
el besitzen, so daß notwendigerweise
w =x ± Ilxllei (5.31)
sein muß. Um Stellenauslöschung in der ersten Komponente zu vermeiden,
wird das Vorzeichen in (5.31) gleich demjenigen der ersten Komponente Xl von
x gesetzt. Für Xl =0 soll das obere Vorzeichen gelten. Mit dieser Festsetzung
ergibt sich aus (5.31) für
wT w = IIxl1 2 ± 2Xlllxli + IIxl1 2 = 211xll (Ilxii + lxIi)
und deshalb für ß die Darstellung

ß= 1 (5.32)
Ilxll(llxll + lxIi)
Schließlich resultiert für den Bildvektor von x
(I - ßww T ) X =x - ßw(w T x) =x - ß(IIxl1 2 + lXII '1Ixll)w = + IIxlleI,
d. h. die erste Komponente erhält das zu Xl entgegengesetzte Vorzeichen, bzw.
das negative Vorzeichen im Fall Xl = O.
Für die folgende Anwendung betrachten wir noch die verallgemeinerte
Aufgabe, den Vektor Wk einer Householder-Matrix Uk (5.30) so festzulegen,
daß im Bildvektor eines beliebigen Vektors x die ersten k Komponenten
unverändert bleiben und die letzten (n - k -1) Komponenten von x' = Ukx
verschwinden. Aus der ersten Forderung folgt, daß im Vektor Wk die ersten k
Komponenten gleich Null sein müssen. Die zweite Bedingung ist dann
äquivalent damit, den Vektor x* =(0,0, ... ,0, Xk+I, Xk+2, •.. , xn)T in ein
Vielfaches des Einheitsvektors eH I abzubilden. In Verallgemeinerung von
(5.31) ist der Vektor Wk gegeben durch
Wk = x* ± Ilx*lleHI, (5.33)
und der zugehörige Wert ßk erhält die Darstellung
1
ßk=------- (5.34)
Ilx*II(llx*11 + IXHIJ)
Im ersten Transformationsschritt sollen in C die Matrixelemente C31, C4I. •.. ,
Cn Iund aus Symmetriegründen die entsprechenden Elemente der ersten Zeile
zum Verschwinden gebracht werden. Dieses Ziel wird mit einer Matrix U I
(5.30) erreicht, gebildet mit einem Vektor WI = (0, W2, W3, ... , wn)T, dessen erste
Komponente verschwindet. Die zugehörige Matrix U 1 stimmt in der ersten
Zeile und Kolonne mit der Einheitsmatrix überein. Für die Ähnlichkeitstrans-
formation C" = U1 I CUI =UI CUI gilt für den Teilschritt C' = U 1 C, daß die
erste Zeile von C ungeändert bleibt, und für den zweiten Teilschritt C" = C' UI ,
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 289

daß jetzt die erste Kolonne von C nicht geändert wird. Deshalb gilt
insbesondere clI = ci I = CII, und auf Grund der vorbereitenden Betrachtung
ist WI gemäß (5.33) festgelegt mit x*=(O, C21, C31, ... , cndT . Die zu
berechnenden Größen sind somit
n
sf = I cll, ßI = l/{SI(SI + Jc2J!)}, (5.35)
i=2

mit denen sich die wesentlichen Komponenten von WI ergeben zu

+ 1 falls C21 ~ 0
W2 = C21 + (TISI, (Tl = { (5.36)
-1 falls C21 <0
Wf = Cil, (i=3, 4, ... , n). (5.37)

Mit den so festgelegten Komponenten von WI wird die Transformation


C" = U I CUj am effizientesten wie folgt durchgeführt. Für die Zwischenmatrix
C=UIC=(I-ßIWIW()C=C-ßIW1W(C=C-ßIWI(CwJ)T wird der
Hilfsvektor p = CWI mit den Komponenten
n n
Pj = I CjkWk = I CjkWk, Ci = 1,2, ... , n) (5.38)
k=l k=2

berechnet, so daß die Elemente ci; die Darstellung


ci; = Cij-ßIWiPj, (i,j=1,2, ... ,n) (5.39)

erhalten. Dann sind die Elemente von C" = U I CU! = CUI =


C(I - ßI WI W() = C - ßl(CWI)W( gegeben durch

C:;=Cij-ßIWiPj-ßI{ ± (Cik - ßIWiPdWk}Wj

± ±
k=l

= Cij - ß! WiPj - ßI { CikWk-ßIWi PkWk}Wj (5.40)


k=l k=2

= cij - ßI WiPj - ßIPiWj + ßrgwiWj


mit der weiteren Hilfgröße
n
g= I PkWk· (5.41)
k=2

Schließlich lassen sich die Elemente der transformierten Matrix C" mit den
Größen
qi = ßI(Pi - gw;), (i = 2, 3, ... , n) (5.42)
290 5 Behandlung der Eigenwertaufgaben

besonders einfach berechnen gemäß


ci} = cij - w;qj - q;Wj, (i,j = 2, 3, ... , n;j < i). (5.43)
Nach den früheren Feststellungen sind diese Formeln zu ergänzen durch
(5.44)
Der zweite Transformationsschritt wird mit einer Householder-Matrix U2
analog durchgeführt, wobei im Vektor W2 die beiden ersten Komponenten
gleich Null sind. Die Transformation mit U2 läßt die erste Kolonne und Zeile
unverändert und bringt die zweite Kolonne und Zeile auf die gewünschte
Gestalt. Nach (n - 2) Schritten ist C auf tridiagonale Gestalt J transformiert.
Im allgemeinen k-ten Schritt setzt sich der Rechenaufwand z}1) im wesentli-
chen zusammen aus den multiplikativen Operationen zur Berechnung von sf
nach (5.35), der (n - k) Komponenten Pj nach (5.38), von g gemäß (5.41), der
weiteren (n - k) Hilfsgrößen qj nach (5.42) und schließlich der neuen
Matrixelemente ci} nach (5.43), wobei die Symmetrie zu beachten ist. Somit ist
z}1) =0 2(n - k)2 + 5(n - k). (5.45)
Summation von (5.45) über k von 1 bis (n - 2) ergibt einen wesentlichen
Rechenaufwand zur Transformation einer symmetrischen Matrix der Ord-
nung n auf Tridiagonalgestalt nach der Methode von Householder von
_ 2 3 2
ZHous - - n + O(n ) (5.46)
3
multiplikativen Operationen.
Die Vektorisierung des Reduktionsalgorithmus ist im Prinzip leicht realisier-
bar, da die meisten auszuführenden Operationen als solche mit Vektoren
interpretierbar sind. So erfordert die Berechnung von sk ein Skalarprodukt.
Die Berechnung der wesentlichen (n - k) Komponenten des Vektors p = CWk
erfolgt als Linearkombination der letzten (n - k) Teilspalten der aktuellen
Matrix C, und g ist das Ergebnis eines weiteren Skalarproduktes. Die Größen
q; nach (5.42) sind das Resultat einer Triade und einer skalaren Vektormultipli-
kation. Die transformierten Matrixelemente cf] ergeben sich kolonnenweise
durch Subtraktion sowohl des q;-fachen von Wk als auch des wrfachen von q
von der j-ten Kolonne von C. Damit die Berechnungen von p und der
transformierten Matrixelemente effizient ausführbar sind, ist mit der ganzen
Matrix zu arbeiten, so daß sich die Zahl der Operationen etwa verdoppelt. Es
ist zudem zu beachten, daß die Längen der Vektoroperationen mit zunehmen-
den k abnehmen.
Durch die orthogonale Ähnlichkeitstransformation V T CV = J der Matrix C
in die tridiagonale Matrix J bleiben die Eigenwerte unverändert, doch die
Eigenvektoren unterliegen der Transformation mit V. Aus der Eigenwertbezie-
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 291

hung Cy = AY folgt
VT CVVTy = AVTy oder Jz = AZ
mit Z = VTy oder y = Vz.
Die Matrix Vist hierbei das Produkt der (n - 2) Housholder-Transformations-
matrizen Uk gemäß
V = Un - 2 Un - 3 .•. U2 U1•
Um bei bekannten Eigenvektoren Zj der Matrix I die Rücktransformation in
die Eigenvektoren Yj von C durchzuführen, ist es nicht nötig, die bis auf die
erste Zeile und Kolonne vollbesetzte Matrix V während der Householder-
Transformation aufzubauen. Vielmehr kann die Rücktransformation schritt-
weise auf der Basis der Vektoren Wl, W2, . .. , Wn-2 und der zugehörigen Skalare
ßl, ß2, ... , ßn-2 erfolgen, welche die Matrizen Uk definieren. Auf Grund der
Definition (5.30) erfordert die Multiplikation von U mit einem Vektor Z wegen
Uz = (I - ßww T)Z = Z - ßw(w T z)
die Bildung des Skalarproduktes w T Z und anschließend die Subtraktion des
ß(w T z)-fachen des Vektors w von Z als eine typische Vektoroperation. Dabei ist
in der sukzessiven Multiplikation von Z mit U1, U2, •.. , Un - 2 die zunehmende
Zahl der verschwindenden Komponenten in Wk zu beachten. Die so ausgeführte
Rücktransformation benötigt etwa n (n -1) Multiplikationen pro Vektor z,
also genau so viele wie die Berechnung von Vz. Der Aufwand zur expliziten
Bildung wird aber eingespart, und der Speicherplatz für die vollbesetzte Matrix
Vwird gar nicht benötigt, falls die Diagonal- und Nebendiagonalelemente von I
in zwei Vektoren abgespeichert werden und die frei werdenden Plätze in C für
die Vektoren Wk und die Skalare ßk verwendet werden.

5.1.4 Die Eigenwertberechnung für tridiagonale Matrizen

Das charakteristische Polynom der symmetrischen und tridiagonalen Matrix


I, deren Diagonalelemente mit ai und deren Nebendiagonalelemente mit ßi
bezeichnet werden, ist definiert durch
A - al - ßl
- ßl A - a2 - ß2
- ß2 A - a3 - ß3
P(A) = lU-li =
- ßn-l
- ßn-l A - an
(5.47)
292 5 Behandlung der Eigenwertaufgaben

Bezeichnet man mit fk(Je) das charakteristische Polynom zur k-reihigen


Hauptabschnittsdeterminanten, gebildet aus den ersten k Zeilen und Kolon-
nen von (5.47), so erfüllen sie nach dem Entwicklungssatz für Determinanten
mit
fo(Je) = I, fl().) =). - al (5.48)
die dreigliedrige Rekursionsformel
(5.49)
Offensichtlich istf,,().) = P(Je). Für die Folge von n + I Rekursionspolynomen
fO().),fl().), ... ,fn().) ist die Tatsache wesentlich, daß sie unter der Vorausset-
zung, daß alle Nebendiagonalelemente ßi =1= 0 sind, eine Sturmsche Kette
bilden, wie dies ausführlich in [SRS72] gezeigt ist. Dies folgt unmittelbar aus
der Eigenschaft, daß die Nullstellen vonfk().) für k = 1,2, ... , n als Eigenwerte
einer symmetrischen Matrix reell sind und daß die Nullstellen von fk().)
diejenigen von fk+ 1 ().) trennen. Deshalb können zwei aufeinanderfolgende
Polynome der Folge (5.49) keine gemeinsamen Nullstellen besitzen, so daß
auch die Eigenwerte einer symmetrischen und tridiagonalen Matrix J mit
ßi =1= 0 für i = I, 2, .... n - I einfach sind. Es ist aber durchaus möglich, daß
Eigenwerte einer nicht zerfallenden tridiagonalen Matrix J innerhalb der
verwendeten Rechengenauigkeit übereinstimmen können, so daß scheinbar
ein mehrfacher Eigenwert vorliegt.
Die Eigenschaft der Rekursionspolynome fk().), eine Sturmsche Kette zu
bilden, stellt die Grundlage dar, die gewünschten Eigenwerte von J nach der
Methode der fortgesetzten Intervallhalbierung (Bisektion) zu bestimmen.
Denn die Anzahl m derjenigen Nullstellen von P()') = fn().), welche kleiner als
ein Wert.u sind, ist gleich der Zahl der Vorzeichenf olgen VF(.u) in der Folge
der Werte der Rekursionspolynome fo(.u), fl (.u), ... , fn(.u). Diese Aussage
erlaubt uns, vermittels eines einfachen und recht wenig aufwendigen Rechen-
verfahrens, bestimmte Eigenwerte mit beliebiger Genauigkeit zu lokalisieren.
Die Eigenwerte von J seien in aufsteigender Reihenfolge numeriert ).1 <).2 <
... < An, wobei angenommen sei, daß die Matrix J nicht zerfallt. Andernfalls
zerfallt auch die Aufgabe der Eigenwertberechnung in die Teilprobleme, die
Eigenwerte der Teilmatrizen zu berechnen. Um den j-ten Eigenwert Aj mit
vorgegebenem Index j zu bestimmen, muß notwendigerweise von einem
Intervall [a, b] ausgegangen werden, welches den gesuchten Eigenwert enthält.
Falls gar nichts bekannt ist über die Lage des Eigenwertes Aj, liefert jede
Matrixnorm, beispielsweise die Zeilenmaximumnorm eine sichere obere
Schranke für die Beträge der Eigenwerte, so daß das Intervall [a, b] mit

a=-b
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 293

alle Eigenwerte von J enthält. Oft können aber für die konkrete Problemstel-
lung apriori engere Intervallgrenzen angegeben werden, z. B. a = 0 für eine
positiv definite Matrix J.
Jedenfalls gilt VF(a) <j und VF(b) ~ j. Für den Intervallmittelpunkt
J-l = (a + b)/2 wird die Zahl VF(J-l) der Vorzeichenfolge bestimmt. Ist
VF(J-l) <j, stellt J-l eine neue untere Schranke a für Aj dar, andernfalls ist J-l eine
neue obere Schranke b. Das Intervall, in welchem A.j enthalten ist, wird folglich
in jedem Schritt halbiert. Die halbe Länge des momentanen Intervalls stellt
stets eine absolute Fehlerschranke für den Mittelpunkt als Näherungswert für
A.j dar. Bei einem gegebenen Anfangsintervall Ca, b] ist deshalb die Anzahl t der
Bisektionsschritte zum voraus bestimmbar, um Aj mit einer vorgegebenen
absoluten Genauigkeit e zu berechnen, nämlich

t ~
be
10g2 ( - a)
- - - 1.

Sind etwa die p kleinsten Eigenwerte Al < A2 < ... < Ap von J zu berechnen, so
wird mit einem Intervall Ca, b] gestartet, das alle p Eigenwerte enthält. Jeder
Bisektionsschritt liefert eine Information über die Lage der gesuchten
Eigenwerte und damit laufend bessere untere und obere Schranken. Diese
Information ist in der Rechenpraxis zu verwerten, weil so der Rechenaufwand
wesentlich reduziert werden kann, da nach Berechnung des oder der ersten
Eigenwerte bereits bedeutend kleinere Intervalle bekannt sind, welche die
noch zu bestimmenden Eigenwerte enthalten.
Für die numerische Bestimmung der Anzahl der Vorzeichenfolgen VF(J-l) für
einen gegebenen Wert J-l stehen die Rekursionsformeln (5.48) und (5.49) zur
Verfügung. Wilkinson [WiI65] hat gezeigt, daß die Berechnung von VF(J-l)
numerisch stabil ist. Der Rechenaufwand pro Bisektionsschritt beträgt rund
2n Multiplikationen unter der Annahme, daß die Quadrate der Nebendiago-
nalelemente zum voraus berechnet werden.
Die Bestimmung des Zahlenwertes VF(J-l) kann nach einer Idee von Barth
[BMW67] noch effizienter und auf numerisch ebenso stabile Art als Anzahl
der positiven Quotienten der Werte aufeinanderfolgender Rekursionspoly-
nome berechnet werden. Er definiert zu gegebenem Wert J-l die Quotienten
_ fk(j.J.) (_
qk - , k - 1,2, ... , n). (5.50)
fk-l(j.J.)
Nach Division der Rekursionsformel (5.49) durch/k-l (J-l) =1= 0 folgt daraus mit
(5.50) und (5.48) die neue Rekursion

(5.51)
294 5 Behandlung der Eigenwertaufgaben

Auf den ersten Blick läßt die notwendige Division die Rekursionsformel
problematisch erscheinen, da nicht auszuschließen ist, daß qk - I = 0 werden
kann, z. B. ql = 0 für f.J. = al. Sobald ein Wert qk verschwindet, bedeutet dies,
daß das Rekursionspolynom fk(f.J.) = 0 ist. In diesem Fall ist es in der
Sturmsehe Kette gleichgültig, welches Vorzeichen dem Wert zugeordnet wird,
weilfk - I (f.J.) undfH 1(f.J.) wegen (5.49) entgegengesetzte Vorzeichen besitzen,
in der Folge fk - I (f.J.),fk(f.J.),fH 1(f.J.) somit genau ein Zeichenwechsel vorhan-
den ist. Somit ist es zulässig, ein verschwindendes qk durch den kleinen Wert
e=JIIJII zu ersetzen, wo filii die Norm von J darstellt und J die kleinste
positive Zahl des verwendeten Rechenautomaten bedeutet, so daß in der
Computerarithmetik 1 + J =1= 1 gilt. Wird qk durch e ersetzt, sobald Iqk I < eist,
so wird dadurch die Zählung der positiven qk nicht verfälscht.
Ein erster Vorteil des numerisch stabilen Algorithmus (5.51) gegenüber (5.49)
ist der kleinere Rechenaufwand von nur (n -1) wesentlichen Operationen pro
Bisektionsschritt. Ein zweiter Vorteil liegt darin, daß die Werte der Rekur-
sionspolynomeACu) für größere Ordnung n sehr groß oder sehr klein werden
können und damit die Gefahr von Überfluß oder Unterfluß besteht. Für die
Quotienten qk ist diese Schwierigkeit eliminiert.
Die Berechnung aller Eigenwerte einer symmetrischen, tridiagonalen Matrix J
erfolgt am effizientesten mit dem QR-Algorithmus oder einer seiner Varian-
ten. Denn bei optimaler Wahl von Spektralverschiebungen sind pro Eigenwert
im Mittel nur etwa zwei Iterationsschritte erforderlich, und der Rechenauf-
wand pro QR-Schritt ist nur proportional zur sukzessive abnehmenden
Ordnung der tridiagonalen Matrix. Für Details und eine algorithmische
Beschreibung siehe etwa [Scw88, Ste73, WiR71].

5.1.5 Berechnung der Eigenvektoren von tridiagonalen Matrizen

Die gewünschten Eigenwerte der tridiagonalen Matrix J seien mit genügender


Genauigkeit berechnet worden. Im Fall von eng benachbarten Eigenschaften
seien sie nach der Bisektionsmethode mindestens so lokalisiert, daß in jedem
Intervall genau ein Eigenwert liegt.
Es sei Xdie Näherung zum Eigenwert Aj. Der zugehörige Eigenvektor Zj von
Jzj=AjZj wird nach der gebrochen inversen Vektoriteration nach
Wielandt [Wie44] berechnet. Beginnend mit einem weitgehend beliebigen
normierten Vektor ~(O) wird die Folge der iterierten Vektoren ~(k) gebildet nach

(J - XI)~(k) = ~(k-I), (k = 1,2, ... ). (5.52)

Unter den getroffenen Voraussetzungen gilt

IX - Ajl < IX - A;I für alle i oft j. (5.53)


5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 295

Die Eigenvektoren Zi der symmetrischen Matrix Jbilden ein orthonormiertes


System im n-dimensionalen Vektorraum. Deshalb besitzen die iterierten
Vektoren g(k) die eindeutigen Darstellungen

(5.54)
i=l i=l

Die Entwicklungskoeffizienten c?k) für aufeinanderfolgende iterierte Vektoren


erfüllen wegen (5.52) die Relationen
(k-l)

c?k) = (~: _ ,1.)' (i = 1,2, ... , n),

so daß gilt

;:(k)=
.,
~
.L
e(.o)
1
1 z.= 1 [e(.o)z+
(X-A)k 1 (X-A)k J 1 .L 1
e(.o) ~ (Aj-~
X-A
)\.].
1
(5.55)
1=1 1 1 1=1 1
i*j
FaIls e;D) =1= 0, d. h. falls g(.o) eine Komponente nach dem Eigenvektor Zj be-
sitzt, konvergiert g(k) mit zunehmendem k wegen (5.53) gegen ein Viel-
faches des Eigenvektors Zj. Um eine rasche Konvergenz zu erzielen, muß
qmax = max I(Aj - X)/(Ai - X)I klein sein.
i*j
Dies erreicht man dadurch, daß die Eigenwerte Ai mit hoher Genauigkeit
bestimmt werden. Bei guter Trennung der Eigenwerte wird qmax sehr klein
ausfallen, so daß ausgesprochen wenige Iterationsschritte nötig sind, um Zj aus
g(k) mit hoher Genauigkeit zu erhalten.

Nach (5.55) wachsen die iterierten Vektoren g(k) sehr rasch an. Es ist deshalb
nach jedem Iterationsschritt eine Normierung von g(k) erforderlich, um
Überfluß zu vermeiden.
Das nach (5.52) in jedem Iterationsschritt zu lösende tridiagonale Gleichungs-
system ist zwar symmetrisch, doch ist seine Konditionszahl sehr groß. Das
Gleichungssystem ist vermittels einer unsymmetrischen Eliminationsmethode
mit partieller kolonnenweiser Pivotsuche dennoch numerisch sicher auflösbar
[WiI65]. Die unsymmetrische Zerlegung von J - XI dient auch dazu, einen
Startvektor g(.o) so zu bestimmen, daß er, abhängig von der Näherung X= A,
eine Komponente nach Zj enthält. Nach Wilkinson [Wi165] gewinnt man g(6)
aus einem halben Iterationsschritt durch den Prozeß des Rückwärtseinsetzens,
angewendet auf den Vektor mit allen Komponenten gleich Eins.
Eine gewisse numerische Problematik stellt sich ein bei sehr benachbarten oder
gar innerhalb der verwendeten Stellenzahl übereinstimmenden Eigenwerten.
Damit die gebrochen inverse Vektoriteration verschiedene Vektoren liefert,
sind die Näherungswerte der zusammenfallenden Eigenwerte um die kleinen
296 5 Behandlung der Eigenwertaufgaben

Werte JIIJII zu stören. Die resultierenden Näherungen der Eigenvektoren sind


noch dem Orthogonalisierungsprozeß zu unterziehen, um der Theorie gerecht
werdende Eigenvektoren zu erhalten.

5.1.6 Vergleich des Rechenaufwandes

Sollen p ~ n Eigenwerte mit den zugehörigen Eigenvektoren einer symmetri-


schen Matrix C bestimmt werden, so beläuft sich der Rechenaufwand für die
Bisektionsmethode auf etwa t· p . n Multiplikationen. Die mittlere Anzahl
benötigter Bisektionsschritte pro Eigenwert liegt realistisch zwischen 20 und
30, falls G = 10- 10 (b - a) gesetzt wird. Damit wird mit t = 30

ZBis ~ 30pn. (5.56)

Die gebrochen inverse Vektoriteration erfordert für jeden Eigenwert die


unsymmetrische Zerlegung von J - AI mit rund 3n Multiplikationen und im
Normalfall zwei Iterationsschritte mit je Sn Multiplikationen für das Vor-
wärts- und Rückwärtseinsetzen und die Normierung. Bei zwei Iterationen
nach einern halben Schritt zu 3n Multiplikationen beträgt der Rechenaufwand
für die p Eigenvektoren von J unter Einschluß einer Normierung in der
euklidischen Norm

ZIV ~ 18pn. (5.57)

Die Rücktransformation der Eigenvektoren von J in diejenigen von C auf


Grund der Householder Transformation benötigt ZRück = pn(n - I) Multipli-
kationen. Zusammengefaßt beträgt der Aufwand einschließlich der Transfor-
mation von C auf J nach Householder etwa
2
ZHBIV ~ - n
3
+ pn 2 + 50pn. (5.58)
3
Mit P = n ergibt sich als wesentlichen Aufwand Z ~ ~ n 3 + 0(n 2).Im Ver-
3
gleich zum Aufwand (5.29) nach der lacobi-Methode geht daraus die deutliche
Überlegenheit der Householder-Methode in Verbindung mit der Bisektion
und der gebrochen inversen Vektroiteration hervor, ganz besonders dann, falls
nicht alle n Eigenwerte und Eigenvektoren verlangt werden. Auf der anderen
Seite erfordert diese effizientere Methode einen komplizierteren Programm-
aufbau. Fertige Rechenprogramme findet man etwa in [SBG74, WiR71].
5.2 Vektoriteration 297

5.2 Vektoriteration

In diesem Abschnitt wird eine erste Methode beschrieben, um die p kleinsten


Eigenwerte 0 < Al ,.1,2 < <." <
Ap mit den zugehörigen Eigenvektoren Xl, X2,
... , x p der allgemeinen Eigenwertaufgabe Ax = ABx zu berechnen. Wir gehen
von der Annahme aus, daß die symmetrischen, positiv definiten und schwach
besetzten Matrizen A und B von hoher Ordnung n durch geeignete Numerie-
rung der Variablen eine minimale Bandbreite oder besser ein minimales Profil
besitzen. In der Methode der Vektoriteration kann die Hüllenstruktur von A
optimal ausgenützt werden. Dies trifft für die explizite Reduktion der
allgemeinen Eigenwertaufgabe auf ein spezielles Eigenwertproblem sicher
nicht zu, weil dabei die schwache Besetzung und die Hüllenstruktur völlig
verloren gehen.

5.2.1 Die einfache Vektoriteration

Zur Bestimmung des kleinsten Eigenwertes Al und des zugehörigen Eigenvek-


tors Xl wird die Folge der iterierten Vektoren x(k) auf Grund der vorläufigen
Iterationsvorschrift
AX(k) =BX(k-l), (k = 1,2, ... ) (5.59)
gebildet, wobei mit einem weitgehend beliebigen Startvektor x(Q) begonnen
wird. Der Startvektor x(Q) soll eine nichtverschwindende Komponente nach
dem Eigenvektor Xl besitzen, so daß in der Entwicklung von x(Q) nach dem
vollständigen System von B-orthonormierten Eigenvektoren Xl, X2, ••• , X n

I C;Q\i
n
x(Q) = (5.60)
i=l

der Koeffizient d Q
) =1= 0 ist. Der k-te iterierte Vektor x(k) kann analog dargestellt
werden als
n
x(k) = I cik)xi, (k = 0, 1,2, ... ). (5.61)
i=l

Nach Substitution von (5.61) in (5.59) ergibt sich unter Verwendung der
Beziehung AXi = AiBxi (i = 1, 2, ... , n)

I I I
n n n
Ax(k) = C;k) AXi = Aic;k) BXi = Bx(k-l) = c;k - 1) BXi.
i=l i=l i=l

Unter Ausnützung der B-Orthogonalität (5.8) der Eigenvektoren Xi und damit


der linearen Unabhängigkeit der Vektoren BXi folgen daraus die Relationen
298 5 Behandlung der Eigenwertaufgaben

zwischen den Entwicklungskoeffizienten


(k) 1 (k-I) .
C; =-C; , (1=1,2,oo.,n;k=1,2,oo.). (5.62)
,1,;

Hierbei wurde die Voraussetzung verwendet, daß auch die Matrix A positiv
definit ist, so daß die Eigenwerte ,1,; positiv sind und vor allem nicht
verschwinden. Wegen (5.62) besitzt der k-te iterierte Vektor die Darstellung

X(k) = ±(~)k
;=1 ,1"
ci0)x; = (_1 )k
AI
[c(0)XI + ±(~)k
;=2 ,1"
ci0)x;]. (5.63)

Unter der vereinfachenden Annahme, der kleinste Eigenwert AI sei einfach, so


>
daß ,1,; > ,1, I für i 2 gilt, konvergieren die Quotienten (,1, 1/,1,; l mit wachsendem
Index k gegen Null, so daß wegen da)
=1= 0 die Vektoren x(k) gegen die Richtung
des Eigenvektors XI konvergieren. Der größte Quotient (AIiA2) unter den
Quotienten (,1,1/,1,;) bestimmt für hinreichend großes k die Konvergenz, mit
welcher der Anteil der Summe in (5.63) gegenüber dem festen Teil dO)xI
gegen Null abnimmt. Ein kleiner Quotient (AIiA2) gewährleistet eine rasche
Konvergenz, während ein Wert des Quotienten nahe bei Eins im Fall von
benachbarten Eigenwerten eine entsprechend langsame Konvergenz der
Vektorfolge X(k) gegen die Richtung von XI zur Folge hat. Ist AI ein mehrfacher
Eigenwert, konvergiert x(k)gegen die Richtung eines Eigenvektors entspre-
chend der Komponenten von x(O) bezüglich des Eigenraums von AI.
Die Entwicklung (5.63) für x(k) zeigt, daß die Vektoren entweder groß oder
aber klein werden, je nachdem ob ,1,1< I oder ,1,1> I ist. Um Überfluß oder
Unterfluß zu vermeiden, sind die iterierten Vektoren zu normieren. Es ist
angezeigt, die Normierung im verallgemeinerten Sinn bezüglich B vorzuneh-
men. Dann konvergiert x(k) tatsächlich gegen den B-normierten Eigenvek-
tor XI.
Ein Iterationsschritt (5.59) erfordert erstens die Multiplikation des Vektors
x(k) mit der Matrix B. Dabei kann die schwache Besetzung von Bausgenützt
werden, falls B in kompakter Form gespeichert ist (vgl. Abschn.4.6.3).
Zweitens ist ein Gleichungssystem mit der festen Matrix A aufzulösen. Wegen
der vorausgesetzten positiven Definitheit von A erfolgt dies nach einmaliger
Cholesky-Zerlegung A = LL T durch die Prozesse des Vorwärts- und Rück-
wärtseinsetzens. Um diesen Schritt hinsichtlich Speicher- und Rechenaufwand
am effizientesten zu realisieren, eignet sich die hüllenorientierte Speicherung
von A nach J ennings am besten (vgl. Abschn. 4.3). Für die Matrizen A und B
sind somit unterschiedliche Speicherungsarten zu verwenden.
Der Eigenwert AI bestimmt sich näherungsweise etwa aus den Quotienten der
absolut größten Kom~onenten von zwei aufeinanderfolgenden iterierten
Vektoren x(k) und x(k- ) ohne Normierung. Bedeutend genauere Näherungs-
5.2 Vektoriteration 299

werte liefern die Rayleighschen Quotienten der iterierten Vektoren. Der


Rayleighsche Quotient zum Eigenwertproblem Ax = ABx für einen Vektor
x i= 0 ist definiert als
xTAx
R[x] = - T - ' X oft O. (5.64)
x Bx

Die Berechnung dieses Quotienten für einen iterierten Vektor x(k) ist gar nicht
so aufwendig, wie dies auf den ersten Blick erscheinen mag. Seine Berechnung
muß nur im richtigen Zeitpunkt auf Grund entsprechend vorbereiteter Daten
erfolgen. Die Normierung des Vektors x(k) erfordert ja ohnehin die Berech-
nung von x(k)T BX(k), und der Vektor Ax(k) steht als Bx(k-I) im allgemeinen
Iterationsschritt vor Bestimmung von X(k) zur Verfügung. Jener Vektor darf
durch das Vorwärts- und Rückwärtseinsetzen nicht zerstört werden, damit er
zur Bildung von x(k)T (Ax(k») noch zur Verfügung steht. Der Algorithmus der
einfachen Vektoriteration ist in (5.65) zusammengefaßt.

Start: Wahl von x(ü) oft 0; Z = X(O)TAx(Ü) (Zähler)


A = LL T (Cholesky-Zerlegung)
Allgemeiner Iterationsschritt (k = 1,2, ... ):
N = x(k-I)T h
h = Bx(k-l), (Nenner)
i(k-I) =x(k-l)/VN (Normierung)
b= h/VN (= Ax(k») (5.65)
R=Z/N (Rayleigh-Quotient)
Ly -h = 0 (Vorwärtseinsetzen)
L T x(k) - Y = 0 (Rückwärtseinsetzen)
Z = x(k)T b (Zähler)

Die Iteration kann abgebrochen werden, sobald zwei aufeinanderfolgende


normierte iterierte Vektoren i(k -I) und i(k) innerhalb der gewünschten
Genauigkeit übereinstimmen. Ein anderes Abbruchkriterium ergibt sich aus
den Rayleighschen Quotienten R[x(k)]. Da der kleinste Eigenwert AI gleich
dem Minimum des Rayleighschen Quotienten (5.64) ist, stellen die Näherun-
gen R[x(k)] stets obere Schranken für Al dar. Überdies kann noch eine
qualitative Aussage über die Genauigkeiten, mit denen i(k) den Eigenvektor XI
darstellt und R[x(k)] den Wert AI approximiert, angegeben werden. Dazu
werde der Vektor x(k), abgesehen von einem unwesentlichen Normierungsfak-
tor , zerlegt gemäß

X(k) = XI + cd, (5.66)


300 5 Behandlung der Eigenwertaufgaben

worin Xl den normierten Eigenvektor zu}'! darstellt mitxl BXI = 1, xlAXI = ÄI ,


und d einen zu Xl B-orthogonalen und normierten Vektor bedeutet mit
d T BXI = 0, d T Bd = 1. Der Parameter E stellt eine kleine Größe dar, falls X(k)
eine gute Näherung zu Xl ist. Die Abweichung Ed wird im wesentlichen durch
die Summe in (5.63) gegeben und gehört dem Unterraum der Eigenvektoren
X2, X3, ... , X n an. Deshalb gilt weiter xl Ad = 0. Für den Wert des Rayleighschen
Quotienten ergibt sich folglich

R[x(k)] = R[xi + Ed] = (XI + Ed) TA (Xl + Ed)


(Xl + Ed) T B(XI + Ed)

Der Rayleighsche Quotient R[x(k)] approximiert den Eigenwert ÄI mit einem


Fehler der Größenordnung E2, falls die Abweichung von x(k) gegenüber Xl von
der Größenordnung E ist. Das bedeutet, qualitativ, daß der Rayleighsche
Quotient den Eigenwert etwa mit der doppelten Stellenzahl wiedergibt wie der
Näherungsvektor den Eigenvektor annähert.
Ist der Eigenvektor XI zum kleinsten Eigenwert berechnet, kann der Eigenvek-
tor X2 zum zweitkleinsten Eigenwert Ä2 analog so bestimmt werden, daß die
Iteration der Vektoren X(k) im Unterraum erfolgt, der aufgespannt wird durch
X2, X3, ... , X n . Diese Forderung wird so erfüllt, daß einerseits der Startvektor x(O)
B-orthogonal zu Xl gewählt wird und anderseits der resultierende Vektor nach
dem Rückwärtseinsetzen wieder zu Xl B-orthogonalisiert wird. Dieser Schritt
erfordert allerdings eine weitere Multiplikation mit der Matrix B.
Sind allgemeiner bereits die ersten (/- 1) Eigenvektoren X I, X2, ... , XI_ I zu den
(1- 1) kleinsten Eigenwerten Ä J, Ä2 , ... , ÄI _ I berechnet, ist mit einem Vektor
x(O) zu starten, welcher B-orthogonal zu XI, X2, ... , XI-I ist. Der nach (5.59)
iterierte Vektor i(k) ist zur Sicherheit wieder der B-Orthogonalisierung
bezüglich Xl, X2, ... , XI-I zu unterziehen, indem gebildet wird
I-I
x(k) = i(k) - I [xT (Bi(k»)]x;. (5.68)

Der Orthogonalisierungsschritt (5.68) erfordert nur eine Multiplikation von


i(k) mit B und im weiteren (1- 1) Skalarprodukte und ebenso viele skalare
Multiplikationen eines Vektors als typische vektorisierbare Operationen. Die
aufwendige Matrix-Vektor-Multiplikation in (5.68) kann eliminiert werden,
falls neben den berechneten Eigenvektoren auch die Vektoren Bx;, (i= 1,2,
... , 1-1) abgespeichert werden, so daß die Skalare [X( (Bi (k»)] in der Form
[(Bx;) T i (k)] berechenbar sind.

Die sukzessive Berechnung der Eigenvektoren und der zugehörigen Eigenwer-


te in aufsteigender Reihenfolge weist beim Vorhandensein von benachbarten
5.2 Vektoriteration 301

Eigenwerten den Nachteil auf, daß die Iterationsvektoren für die betreffenden
Eigenwerte sehr langsam konvergieren, weil in Verallgemeinerung zu (5.63)
die Konvergenzquotienten sehr nahe bei Eins liegen. Eine wesentliche
Verbesserung bringt die simultane Vektoriteration.

5.2.2 Die simultane Vektoriteration

Es entspricht dem Prinzip des direkten Angriffs, die gesuchten p kleinsten


Eigenwerte mit den zugehörigen Eigenvektoren dadurch zu bestimmen, daß
gleichzeitigp Vektoren iteriert werden, welche entsprechend der B-Orthogona-
lität der gewünschten Eigenvektoren stets paarweise B-orthogonal und auch
B-normiert sein sollen. Da bei diesem Vorgehen ein p-dimensionaler Unter-
raum iteriert wird, wird das Verfahren dementsprechend auch als Unter-
raum-Iteration bezeichnet [Bat86, Par80].
Die p Iterationsvektoren xfk), xY), ... , x~k) werden als Kolonnenvektoren zu
einer rechteckigen (n X p )-Matrix X(k) zusammengefaßt. Wegen der geforder-
ten paarweisen B-Orthonormiertheit der Spalten von X(k) muß gelten
X(k)TBx<k) = I p , (k = 0,1,2, ... ), (5.69)
wo Ip die Einheitsmatrix der Ordnung p darstellt. Im allgemeinen k-ten
Iterationsschritt werden analog zu (5.59) Vektoren zi k ) bestimmt, so daß gilt
AZi(k) -BXi
_ (k - I)
, . -
(1-1, 2, ... ,p). (5 .7 0)

Werden die Vektoren zi k ) zu einer (n Xp)-Matrix Z(k) zusammengefaßt, lautet


(5.70) kurz
(5.71)
Die Kolonnen der Matrix Z(k) werden i. allg. nicht mehr B-orthonormiert sein,
weshalb mit Hilfe des Schmidtschen Orthogonalisierungsprozesses [SRS72]
die Eigenschaft wieder hergestellt wird. Der B-Orthonormierungsprozeß ist
tatsächlich durchführbar, da die Matrix Z(k) auf Grund der positiven
Definitheit von A und B wie X(k - I) den maximalen Rang p aufweist. Der
allgemeineB-Orthonormierungsschritt (I = 1,2, .. .,p) setzt sich zusammen aus
I-I
h= zY) - I (Zfk)T BX;k»)X;k) (5.72)
i=1

(k) _ h
(5.73)
XI - -JhTBh

Bei geeigneter Organisation erfordert die B-Orthonormierung insgesamt nur


p-mal die Multiplikation eines Vektors mit der Matrix B als aufwendigste
302 5 Behandlung der Eigenwertaufgaben

Operation neben den Skalarprodukten und den Multiplikationen von Vekto-


ren mit Skalaren. Es ist nur zu beachten, daß die Vektoren Bx)k) bis auf die
Normierungskonstanten als entsprechende Produkte Bh vorhanden sind.
Ein einzelner Iterationsschritt der simultanen Vektoriteration besteht somit in
der Berechnung der p Vektoren Z;k) nach (5.70), wozu insgesamtp Multiplika-
tionen mit Bund p-mal das Vorwärts- und Rückwärtseinsetzen ausgeführt
werden müssen. Hinzu kommt die B-Orthonormierung nach (5.72) und (5.73)
mit nochmals p Multiplikationen mit B.
Werden die Startvektoren x;O) so gewählt, daß die p Unterräume Vj(O) = {xlO),
... , xjO)} (j= 1,2, ... , p), aufgespannt durch die ersten} Vektoren x)O), nicht
B-orthogonal zum Eigenvektor Xj sind, und gilt zudem Ap + 1> Ap , dann
konvergieren die Kolonnen der Matrizen X(k) gegen die Eigenvektoren der p
kleinsten Eigenwerte [SRS72]. Das Konvergenzverhalten der i-ten Kolonne
von X(k) wird bestimmt durch den Quotienten qi = ..1.;/ Ap + 1 [Par80]. Liegt
insbesondere der Quotient qp = Ap / Ap + 1 nahe bei Eins, konvergiert die p-te
Kolonne in X(k) langsam gegen xp , während benachbarte Eigenwerte ..1./- 1 und
<p
..1./ mit I< I die Konvergenz nicht beeinträchtigen. Aus dem genannten
Grund wird die simultane Vektoriteration mit zusätzlichen Vektoren durchge-
führt, so daß bei p* simultan iterierten Vektoren der Quotient Ap / Ap ' + 1 auch
für den letzten gewünschten Eigenvektor xp eine annehmbare Konvergenz
gewährleistet ist. In [Bat86] wird auf Grund von praktischen Erfahrungen der
Wert p* = min {2p, p + 8} vorgeschlagen.
Die Iteration wird gestoppt, sobald die p gewünschten Näherungsvektoren
innerhalb einer vorgegebenen Genauigkeit konvergiert sind. Dazu wird jeder
der p ersten Vektoren x;k-l) bezüglich des Unterraumes V;k) B-orthogonali-
siert. Die Normen der resultierenden Restvektoren stellen die Beträge der
sinus-Werte der Winkel zwischen x;k -1) und V;k) dar. Die größte dieser
Normen ist ein Maß dafür, wie sich der p-dimensionale Unterraum unter der
Iteration ändert. Da die Näherungsvektoren zu den kleinsten der gewünschten
Eigenwerte am schnellsten konvergieren, braucht der Konvergenztest nicht
mehr auf jene Vektoren angewandt zu werden, deren Konvergenz bereits
festgestellt worden ist.
Die Eigenwertnäherungen zu den Vektoren x;k) sind als Rayleighsche Quotien-
ten zu berechnen. Da die Vektoren X;k) durch die B-Orthogonalisierung aus
den Vektoren Z)k) gewonnen werden, stehen die Produkte Ax;k) nicht direkt
zur Verfügung wie im Fall der einfachen Vektoriteration. Da die Matrix A
durch ihre Cholesky-Matrix L ersetzt wurde, steht A auch nicht mehr zur
Verfügung. Nun ist aber
(5.74)
so daß statt dessen das Produkt L T X;k) zu bilden ist. Anstelle des oben
erwähnten Abbruchkriteriums können auch die Eigenwertnäherungen nach
5.2 Vektoriteration 303

(5.74) berechnet und auf ihre Konvergenz getestet werden. Die p Multiplika-
tionen mit B sind ersetzt worden durch p Multiplikationen mit L T .
Bei ungünstiger Wahl der Startvektoren x~O) besteht der Nachteil, daß die
B-Orthogonalisierung die Vektoren Z~kl stets in der Reihenfolge aufsteigender
Indizes i in den Prozeß einbezieht. Falls zufällig xfOl keine Komponente nach XI
enthält, kann xfk) theoretisch gar nicht gegen den ersten Eigenvektor
konvergieren. Ist die Komponente sehr klein, sind viele Iterationen nötig, bis
xfk l den ersten Eigenvektor darstellt.
Durch den B-Orthogonalisierungsprozeß (5.72) und (5.73) ist eine spezielle
Linearkombination der Kolonnen von Z(k) in diejenigen von X(k) gemäß
Z(kl = xi k)R k oder X(k) = Z(k) R"k I mit einer regulären Rechtsdreiecksmatrix
definiert, die einer QR-Zerlegung entspricht [Scw88]. In Verallgemeinerung
soll jetzt xi k) als Linearkombination von allen Vektoren Z~k) entstehen, was mit
einer regulären (pXp)-Matrix Gk in der Form
X(k) = Z(klG k (5.75)
beschrieben werden kann. Mit X(k) soll nicht nur die Bedingung (5.69) der
B-Orthogonalität erfüllt werden, sondern die Vektoren X;k) sollen auch die
Eigenvektoren zu den kleinsten Eigenwerten von Ax = ABx möglichst gut
annähern. Da die gesuchten x;k) demp-dimensionalen Unterraum angehören,
zi
der aufgespannt wird von den Vektoren k ), besteht die Lösung darin, die p
stationären Werte des Rayleighschen Quotienten R[x] für Vektoren X aus
diesem Unterraum zu bestimmen. Sie besitzen die Darstellung x = Z(k) g, und
die Aufgabe lautet
x TAx T Z(k)T AZ(k) TA
R[x] = - - = g g = ~ = stationär! (5.76)
x T Bx gT Z(kl TBZ(k)g gTEg

mit (5.77)
Die (p Xp)-Matrizen AundE nennt man die Projektionen vonA und B auf den
d
Unterraum der Vektoren k ). Die beiden Matrizen A und E sind symmetrisch
und positiv definit. Die Vektoren gund damit die Kolonnen der Matrix Gk sind
die Eigenvektoren der allgemeinen Eigenwertaufgabe
(5.78)
Die Eigenvektoren gi können als B-orthonormiert vorausgesetzt werden, und
sie seien so angeordnet, daß die zugehörigen Eigenwerte Xi in aufsteigender
Reihenfolge angeordnet sind. Dann gilt aber nach (5.76) für die Rayleighschen
Quotienten der zugehörigen Vektoren xi k) = Z(k l gi
(k) _ - ._
R[xi ] - Ai, (I - 1,2, ... , p), (5.79)
so daß die Eigenwertnäherungen mit wachsendem Index i zumindest zuneh-
304 5 Behandlung der Eigenwertaufgaben

men. Für die Matrix X(k) = Z(k) Gk gilt weiter

wo I p die p-reihige Einheitsmatrix darstellt. Somit ist auch die B-Orthogonali-


tät der Matrix X(k) erfüllt.
Der beschriebene Prozeß zur Gewinnung der Matrix X(k) aus Z(k) nennt man
xi
einen Ri tz-Schri tt. Die resultierenden Vektoren k ) heißen Ri tz- Vektoren
und die li die Ri tz- Werte zugehörig zum Unterraum, aufgespannt durch die
zi
p Vektoren k ). Die Ritz-Vektoren und Ritz-Werte sind die bestmöglichen
Approximationen zu Eigenvektoren und Eigenwerten von Ax = ABx aus dem
Unterraum [GvL89, Par80].
Der Ritz-Schritt ist in der dargestellten Form im Vergleich zur B-Orthogonali-
sierung (5.72) und (5.73) aufwendiger. Zur Berechnung der Projektions matrix
X ist zu beachten, daß die Produktmatrix AZ(k) gemäß (5.71) als BX(k-l)
verfügbar ist, so daß nur pep + 1)/2 Skalarprodukte erforderlich sind. Für B
ist aber BZ(k) zu berechnen, und zusammen mit denp(p + 1)/2 Skalarproduk-
ten entspricht dieser Aufwand etwa demjenigen des B-Orthogonalisierungs-
schrittes. Anschließend ist die allgemeine Eigenwertaufgabe (5.78) mit Matri-
zen der relativ kleinen Ordnung p nach der in Abschn. 5.1 dargestellten
Technik zu behandeln, und die Matrix X(k) ist schließlich nach (5.75) zu
berechnen.
Um den Rechenaufwand des Ritz-Schrittes zu reduzieren, existieren verschie-
dene Varianten zur Gewinnung der interierten Matrix X(k), die teilweise auf
anderen Zielsetzungen beruhen. Zudem zeigt die Erfahrung, daß die erzielte
Konvergenzverbesserung die Anwendung des aufwendigeren Ritz-Schrittes
nicht injedem Schritt rechtfertigt. Eine Kombination ist sehr zweckmäßig, bei
der der kompliziertere Schritt nur nachje einer festen Anzahl von Iteratio~en
angewendet wird.

5.2.3 Praktische Durchführung der Vektoriteration

Eine erste, in mancher Hinsicht zweckmäßige Realisierung der Vektoritera-


tion besteht darin, die allgemeine Eigenwertaufgabe formal auf ein spezielles
symmetrisches Eigenwertproblem nach Abschn. 5.1.1 zurückzuführen, ohne
jedoch die in (5.4) definierte Matrix C explizit zu berechnen. Dieses Vorgehen
erlaubt einerseits eine Gleichbehandlung der Matrizen A und B hinsichtlich
Speicherung, und anderseits sind die Eigenvektoren der symmetrischen Matrix
C orthogonal in der euklidischen Metrik.
Nach Abschn. 5.1.1 wird die Cholesky-Zerlegung der Matrix B benötigt. Da
auch die Cholesky-Matrix zu A erforderlich sein wird, müssen die beiden
5.2 Vektoriteration 305

Matrizen unterschieden werden. Wir setzen demzufolge an


A = L AL1, B = LBd. (5.80)
Nach (5.4) lautet die Matrix C formal
(5.81)
und die Eigenvektoren y von C sind mit den Eigenvektoren x von Ax = lBx
verknüpft durch
y =Lh. (5.82)
Zur Bestimmung der kleinsten Eigenwerte von C ist die inverse einfache
oder simultane Vektoriteration anwendbar, wobei in beiden Fällen zu einem
Vektor yCk -I) ein iterierter Hilfsvektor Z(k) aus
CZ(k) = y(k -I) (5.83)

zu bestimmen ist. Die Berechnung von Z(k) erfolgt in vier Teilschritten, die in
(5.84) auf Grund von (5.81) zusammengefaßt sind.

hl = LBy(k -I) (Multiplikation mit L B)


LAh l - h l = 0 (Vorwärtseinsetzen mit LA) (5.84)
L}h 3 - h 2 = 0 (Rückwärtseinsetzen mit LA)
Z(k) = dh 3 (Multiplikation mit d)

Die nach (5.65) oder (5.71) auszuführenden Multflikationen mit B sind


ersetzt durch zwei Multiplikationen mit L B, bzw. L B. Die Matrix L B ist im
allgemeinen viel stärker besetzt als die untere Hälfte von B, so daß der
Rechenaufwand in diesem Teilschritt eindeutig größer ist. Als Vorteile sind
aber hervorzuheben, daß die gleichen Hüllenstrukturen von A und B
ausgenützt werden können, da von beiden Matrizen die Cholesky-Zerlegun-
gen benötigt werden, daß die Kompilation der beiden Matrizen nach dem
gleichen Schema erfolgen kann und daß sich die vier Teilschritte von (5.84) für
Matrizen hoher Ordnung und großem Profil gut vektorisieren lassen. Der
Mehraufwand an Rechenoperationen wird mindestens teilweise wieder da-
durch wettgemacht, daß im Orthonormierungsschritt oder Ritz-Schritt die
Multiplikationen mit B entfallen.
In der simultanen Vektoriteration fassen wir die Vektoren Y?) in der (n X p)-
Matrix y(k) zusammen. Nach Berechnung der Matrix Z(k) aus CZ(k) = y(k-I)
ist im einfachen Orthonormierungsschritt auf die Kolonnen von Z(k) der
normale, sog. modiftzierte Schmidtsche Orthogonalisierungsprozeß anzuwen-
den, in welchem imj-ten Schritt nach Normierung desj-ten Kolonnenvektors
die übrigen (p - j) Vektoren zu diesem orthogonal gemacht werden [GvL89,
306 5 Behandlung der Eigenwertaufgaben

Par80, SRS72]. Das Resultat des Orthogonalisierungsprozesses ist als QR-


Zerlegung von Z in das Produkt einer Matrix Q mit orthonormierten
Kolonnenvektoren und einer regulären Rechtsdreiecksmatrix R interpretier-
bar. Wird die Matrix Q an der Stelle von Z aufgebaut, lautet der Algorithmus
in Vektorform, falls Zj die j-te Kolonne von Z bedeutet:

für j= 1, 2, ... , p:
rjj=,j zl Zj
Zj=Zj/rjj
(5.85)
für i=j+ 1,j+2, ... ,p:
rji=zl Zi
Zi = Zi - rjiZj

Der Algorithmus (5.85) benötigt p(p + 1)/2 Skalarprodukte und ebenso viele
skalare Multiplikationen von Vektoren, bzw. Triaden, so daß der totale
Rechenaufwand rund p(p + 1)n multiplikative Operationen beträgt. Die
Matrix R der QR-Zerlegung wird im folgenden noch eine Rolle spielen.
Für den Ritz-Schritt werden in der neuen Situation der Projektionen der
Matrizen C und I auf den durch ZCk) definierten Unterraum benötigt. Es ist
nun zweckmäßig, für die Projektion die in der QR-Zerlegung Z(k) = Q(k) R(k)
gewonnene orthogonale Basis zu verwenden, so daß
C= QCk)T CQ(kl, 1= QCkJY QCk) = I (5.86)
werden, das heißt, daß nur ein spezielles Eigenwertproblem mit der Matrix C
zu lösen ist. Da aber die Berechnung von C die Matrizenmultiplikation CQCk)
erfordert, ist dieser Schritt viel zu aufwendig. Die Situation kann nach einer
Idee von Rutishauser [Rut70] wesentlich verbessert werden, falls anstelle
von C die Projektion von C 2 auf den Unterraum von Z(k) verwendet wird.
Denn dafür gilt
C= QCk)T C 2 QCk) = (ZCk) RCk)-I) T C2(ZCk) R(k)-l)

= RCk)-T Z(k)T CCZ(k) R(k)-l


(5.87)
= RCk)-T (CZ(k)) T (CZ(k))RCk)-1 .

= R(k)-T yCk-I)T yCk-l) RCk)-1 = (R(k) R(k)T)-l.

Die Eigenwerte von C 2 sind bekanntlich die Quadrate der Eigenwerte von C,
und somit liefern die Ritz-Werte der Projektion C von C 2 bestmögliche
Approximationen für die Quadrate der Eigenwerte von C. Da aber weiter die
Eigenvektoren einer Matrix identisch sind mit denjenigen ihrer Inversep und
die Eigenwerte in die Kehrwerte übergehen, kann anstelle von C das
5.2 Vektoriteration 307

Eigenwertproblem ebenso gut mit ihrer Inversen


(;-1 = C= R(k) R(k)T (5.88)

gelöst werden, um daraus die gewünschte orthogonale Matrix Gk aus der


Diagonalisierung von C
(5.89)
zu erhalten, wo die Diagonalmatrix Dk Näherungen der Quadrate der
reziproken Eigenwerte enthält. Damit schließlich die Näherungsvektoren in
y(k) = Q(k) Gk Rayleighsche Quotienten mit zunehmenden Werten haben, sind
die Eigenwerte in Dk in absteigender Reihenfolge anzuordnen.
Entscheidend an dieser Variante ist die Tatsache, daß die Berechnung der
Hilfsmatrix C als Produkt einer (p X P)-Rechtsdreiecksmatrix mit ihrer
Transponierten einen vernachlässigbaren Aufwand erfordert. Die wesentli-
chen Schritte dieser Variante der simultanen, inversen Vektoriteration können
wie folgt zusammengefaßt werden:

Start: Wahl von y(O); (orthonormierte Kolonnen)


A = LALI B = LBd (Cholesky-Zerlegungen)
Iteration (k= 1, 2, ... ):
CZ(k) = y(k-l) (~Z(k) gemäß (5.84))
Z(k) = Q(k) R(k) (QR-Zerlegung (5.85)) (5.90)
C = R(k) R(k)T
GICGk=Dk (Diagonalisierung, J acobi)
y(k) = Q(k)Gk

Konvergenztest

Nach erfolgter Konvergenz der Iterationsvektoren y~k) gegen die Eigenvekto-


ren Yi von C sind sie nach (5.92) durch das Rückwärtseinsetzen mit L s auf
die eigentlich gesuchten Eigenvektoren Xi zurückzutransformieren. Die Eigen-
werte Ai ergeben sich als Rayleighsche Quotienten
.l.=R[x.] = x(Ax; = x(LAL1 x i = (L1x;)T(L1x;) (5.91)
, , X( BXi xfLsLhi Y(Yi
wozu effektiv nur die Multiplikation mit L~ nötig ist, da ja die Vektoren Yi zur
Verfügung stehen.
In einer anderen, effizienten Realisierung der simultanen Vektoriteration mit
allgemeinerem Orthogonalisierungsschritt wird keine Reduktion des allgemei-
nen Eigenwertproblems vorgenommen und deshalb für die Speicherung von A
308 5 Behandlung der Eigenwertaufgaben

undB unterschiedliche Arten vorgesehen. A sei in der hüllenorientierten Form


und B zeilenweise, kompakt als untere Hälfte gespeichert. Der Grundschritt
(5.71) wird mit der Cholesky-Zerlegung vonA = LL T in die drei Einzelschritte
der Multiplikation mit der Matrix B, dem Vorwärts- und dem Rückwärtsein-
setzen aufgeteilt:
(5.92)
Mit der Matrix V wird die Hilfsmatrix VT V gebildet, die wegen der dritten
Gleichung von (5.92)
(5.93)
die Projektion von A auf den Unterraum von Z(kl darstellt. Die symmetrische,
positiv definite (p X p)- Matrix .I wird diagonalisiert gemäß
GI.IGk = Dk, (5.94)

wo Gk eine orthogonale Matrix und Dk eine Diagonalmatrix mit strikt


positiven Diagonalelementen sind. Aus Z(kl , Gk und Dk wird die iterierte
Matrix
(5.95)
definiert, die wegen (5.93) und (5.94) aber A-orthonormierte Kolonnen besitzt,
denn es gilt
X(klTAX(kl = Dk 1/ 2 G[Z(klTAZ(kl Gk D k 1/ 2 = I p• (5.96)

Bei diesem Vorgehen wird im wesentlichen der Eigenschaft (5.9) der gesuchten
Eigenvektoren im Verlauf der Iteration Rechnung getragen.

5.2.4 Indefinite Matrix A

In gewissen Schwingungsaufgaben erfüllt die Gesamtsteifigkeitsmatrix A die


Bedingung der positiven Definitheit nicht, da das zugrundeliegende System
etwa Verschiebungen des starren Körpers zuläßt, wie dies beispielsweise bei
der Analyse der Eigenschwingungen eines frei schwebenden Satelliten zutrifft.
Die getroffene Voraussetzung stellt aber keine Einschränkung dar, da die
Eigenwertaufgabe mit im allgemeinen indefiniter Matrix A und positiv
definiter Matrix B durch eine Spektralverschiebung stets auf eine modifizierte
Eigenwertaufgabe mit positiv definitem Paar .I, B zurückgeführt werden kann.
Wird nämlich in der gegebenen Eigenwertaufgabe Ax = ABx mit einer
positiven Zahl c > 0 auf beiden Seiten cBx addiert, so besitzt das modifizierte
Eigenwertproblem
(A + cB)x = (A + c)Bx oder .Ix = ~Bx (5.97)
5.3 Bisektionsmethode 309

die Eigenwerte

Ai = Ai + C, (5.98)

während die Eigenvektoren offensichtlich dieselben sind. Mit einem geeigne-


ten c > 0 wird die Matrix A = A +cB positiv definit. Im praktisch wichtigsten
Fall einer positiv semidefiniten Matrix A wird theoretisch mit jedem c > 0 die
Matrix A positiv definit. Doch ist bei der Wahl von c auf zwei verschiedene
numerische Tatsachen zu achten. Auf der einen Seite bestimmen bestimmte
Quotienten von aufeinanderfolgenden Eigenwerten 2p /2 p + 1 = (A p + c)/
(A p + 1 + c) die Konvergenz der Vektoriteration. Dieser Quotient wird mit
wachsendem Wert c vergrößert. Um die Konvergenz nicht zu stark zu
verschlechtern, sollte ein möglichst kleines c > 0 gewählt werden. Auf der
andern Seite ist die Matrix A = A + cB für sehr kleines c fast singulär, und die
Konditionszahl der Matrix A ist groß. Dies führt zu numerischen Schwierig-
keiten in der Cholesky-Zerlegung von A und zu den bekannten großen
Fehlerschranken für die resultierenden Lösungsvektoren von zugehörigen
Gleichungssystemen. Um diese Schwierigkeiten zu vermeiden, ist ein großer
Wert von c zu wählen. Man hat folglich eine Kompromißlösung zu finden mit
einem Wert c, der beiden Gesichtpunkten gebührend Rechnung trägt. Ein
problemgerechter Wert c liegt in der Gegend des kleinsten positiven Eigenwer-
tes A der gegebenen Eigenwertaufgabe. Darüber existieren häufig Anhalts-
punkte bei konkreten AufgabensteIlungen.

5.3 Bisektionsmethode

Im folgenden wird ein Verfahren beschrieben, welches erlaubt, ganz bestimm-


te Eigenwerte mit den zugehörigen Eigenvektoren zu berechnen, sei es, daß die
Indizes der gesuchten Eigenwerte vorgegeben sind oder sei es, daß die
Eigenwerte in einem gegebenen Intervall gesucht sind. Für die beiden Matrizen
A und B wird die Symmetrie und für B die positive Definitheit vorausgesetzt.
Die Methode eignet sich nur dann, falls A und B Bandmatrizen oder in
Verfeinerung Matrizen mit gleicher Hüllenstruktur sind. Sowohl die Band-
struktur als auch die Hüllenstruktur werden weitgehend ausgenützt, um den
Speicherbedarf und den Rechenaufwand zu minimieren. Das angewandte
Verfahren der fortgesetzten Intervallhalbierung zur Berechnung bestimmter
Eigenwerte des allgemeinen Eigenwertproblems stellt eine Verallgemeinerung
der Bisektionsmethode für tridiagonale Matrizen von Abschn. 5.1.4 dar und
beruht auf der Tatsache, daß die Eigenwerte von Ax = ABx analog lokalisiert
werden können. Die Eigenvektoren bestimmen sich anschließend mit Hilfe der
gebrochen inversen Vektoriteration.
310 5 Behandlung der Eigenwertaufgaben

Peters und Wilkinson haben einen Algorithmus für Bandmatrizen ent-


wickelt, der auf der Tatsache beruht, daß die Folge der führenden Hauptab-
schnittsdeterminanten der Matrix A - fJ.B im wesentlichen eine Sturmsche
K e tt e bilden [Pe W 69]. Zur numerisch sicheren Berechnung der Hauptab-
schnittsdeterminanten werden Pivotierungen mit Zeilenvertauschungen ange-
wendet, wodurch die Symmetrie und auch die gegebene Bandstruktur von
A -fJ.B verloren gehen [MaW67, PeW69]. Der grundlegende Algorithmus
wurde später von Gupta effizienter gestaltet [Gup72, Gup73]. Statt dessen
wird ein anderer Zugang zur Lokalisierung der Eigenwerte dargestellt, dessen
algorithmische Realisierung den Vorteil hat, die Symmetrie zu erhalten. In
einer speziell konzipierten Variante läßt sich die Hüllenstruktur von A - fJ.B
optimal ausnützen.

5.3.1 Die Reduktion einer quadratischen Form

Als Vorbereitung zur Begründung des Verfahrens wird die Reduktion einer
quadratischen Form

Q= i~ jtl lijxixj = XT Fx = it
l
ai (jtl CjiXj)
2
(5.99)

in n Variablen, zugehörig zu einer symmetrischen (n X n)-Matrix F vom Rang


r ~ n, auf eine Summe von r Quadraten linear unabhängiger Linearformen
n
Yi = ICjiXj benötigt, wobei die Vorzeichen ai der Quadrate gleich ± 1 sein
j=l
können. Die Zurückführung einer quadratischen Form auf eine kanoni-
sche Darstellung einer Summe von vorzeichenbehafteten Quadraten
kann im wesentlichen nach dem Gaußschen Eliminationsprozeß mit Pivots
in der Diagonalen, bzw. nach einer Cholesky-ähnlichen Zerlegung erfol-
gen. Im Verlauf der Reduktion sind drei verschiedene Situationen möglich,
welche am ersten und gleichzeitig repräsentativen Schritt dargestellt wer-
den sollen.
1. Es sei 111 ~ O. Alle Summanden von Q, welche Xl enthalten, werden zu
einem vollständigen Quadrat ergänzt, nachdem das Vorzeichen al = sgn (/11)
ausgeklammert worden ist.
n n n
Q= 111 x? + 2 I !jIXjX. + I I fijXiXj
j=2 i=2 j=2
5.3 Bisektionsmethode 311

n n
= alyt + L L fi?lX;Xj (5.100)
;=2 j=2

Die Koeffizienten Cjl der ersten Linearform sind gegeben durch

- PfI
CII-VI}III, -
aJ!jl
Cjl- --, 2
( j. -- , 3, )
... ,n, (5.101)
Cll

und entstehen weitgehend analog zu den Elementen der ersten Kolonne der
Cholesky-Matrix L einer positiv definiten Matrix. Die Elemente j,Y) der
reduzierten quadratischen Form
n n
Ql = L L fJIl XiXj (5.102)
i=2 j=2

in den (n - I) Variablen X2, X3, ... , X n entstehen nach (5.100) unter Verwendung
der Koeffizienten Cjl (5.10 I) gemäß
j,ij(ll_j,
- ij-aICilCjl, (
I," -,2, 3
j- )
... ,n. (5.103)
Auch hier ist die Verwandtschaft mit der Cholesky-Zerlegung deutlich.
2. Es sei fll = 0, und es existiere ein Index q ~ 2 mit fql =F O. Diese Situation
wird auf die vorhergehende zurückgeführt mit der Variablensubstitution
Xq = ± (I + (q, Xi = (i für alle i =F q, (5.104)
welche mit der regulären Matrix

(5.105)
±I +-q

als x = C h g geschrieben werden kann und die quadratische Form Q = x T Fx


transformiert in Q = e
cI FCh g= Fg mit e
F=cIFCh • (5.106)
(5.106) stellt eine Kongruenztransformation von F vermittels C h dar und hat
die Wirkung auf F, daß zuerst die q-te Zeile von F zur (von der) ersten Zeile
addiert (subtrahiert) und anschließend die q-te Kolonne der veränderten
Matrix zur (von der) ersten Kolonne addiert (subtrahiert) wird. Die im
312 5 Behandlung der Eigenwertaufgaben

Moment allein interessierenden Elemente der ersten Kolonne von F ergeben


sich somit zu
(5.107)
Damit die Hilfskongruenztransformation (5.106) mit Sicherheit ein von Null
verschiedenes Element 111 erzeugt und dabei auch Auslöschung von führen-
den Stellen vermieden wird, verfügen wir an dieser Stelle über das Vorzeichen
in (5.104). Das Vorzeichen sei positiv, fallsjqI!qq ~O, andernfalls negativ. Da
jetzt in F das Element 111 =1= 0 ist, ist ein Reduktionsschritt nach 1) möglich.
3. Es seijjl =0 für allej= 1,2, ... , n. Die quadratische Form enthält keine
Terme mit XI, es kann kein Quadrat gebildet werden und der Reduktionsschritt
wird als ganzes übersprungen. In diesem Ausnahmefall definiert man in
Verallgemeinerung zu (5.99) eine Linearform YI = XI und den Wert 0"1 = O.
Mit dieser Ergänzung definieren die n linear unabhängigen Linearformen Yi
eine reguläre Matrix C derart, daß mit y = C T x nach (5.99) gilt
n
Q= X T Fx = L O"iy1 = Y T Dy = X T CD C T x, (5.108)
i=1

worin Deine Diagonalmatrix bedeutet, deren Diagonale1emente + 1, -1 oder


o sind. Die Reduktion einer quadratischen Form auf ihre kanonische Form
kann damit auch so formuliert werden: Zu jeder symmetrischen Matrix F
existiert eine reguläre, aber nicht eindeutig bestimmte Matrix C, so daß F die
kongruent transformierte Matrix einer Diagonalmatrix D mit Diagonalele-
menten +1, -1 und 0 ist. Nach (5.108) gilt also die Beziehung
F = CDC T . (5.109)
Obwohl die Matrix C der Kongruenztransformation (5.109) nicht eindeutig
ist, gilt der Trägheitssatz von Sylvester für quadratische Formen [Gan70],
wonach die totale Anzahl r der Quadrate in der kanonischen Form unabhän-
gig von C gleich dem Rang der Matrix F ist, und daß die Anzahl p der positiven
Quadrate (O"i = + 1) und die Anzahl q der negativen Quadrate (O"i = -1)
invariante Größen der Matrix F bezüglich aller regulärer Kongruenztransfor-
mationen sind.

5.3.2 Lokalisierung der Eigenwerte

Der Trägheitssatz von Sylvester bildet den Schlüssel zur Lokalisierung der
Eigenwerte der allgemeinen Eigenwertaufgabe und damit zur Bisektions-
methode.

Satz 5.1 Die Anzahl der Eigenwerte Ai von Ax = ABx, welche größer, kleiner oder
gleich einem gegebenen reellen Wert Il sind, ist gleich der Anzahl der positiven,
5.3 Bisektionsmethode 313

negativen resp. verschwindenden (Jj in irgend einer kanonischen Form der


quadratischen Form zu F= A - /lB.

Beweis Zum gegebenen Eigenwertproblem Ax =ABx betrachten wir das um


/l spektraltransformierte Problem
(A -/lB)x = (,.1, - /l)Bx oder Fx = A'Bx (5.110)
mit den Eigenwerten AI = Ai - /l (i = 1, 2, ... , n). Zur symmetrischen Matrix B
existiert nach dem Hauptachsentheorem eine orthogonale Matrix U, welche B
auf Diagonalform D j und gleichzeitig F in eine symmetrische Matrix F'
transformiert.
(5.111)

Infolge der positiven Definitheit von B sind die Diagonalelemente von D 1 als
die Eigenwerte von B positiv, so daß die Matrix DII2 im reellen Zahlbereich
gebildet werden kann.
Damit läßt sich (5.110) zumindest formal auf eine spezielle Eigenwertaufgabe
zurückführen, nämlich
(5.112)
das mit der symmetrischen Matrix
F" = Di 1/ 2 UT FUDi 1/ 2 und DV2 U T x = y (5.113)
kurz geschrieben werden kann als F" y = A' y. Zu F" existiert eine weitere
orthogonale Matrix V, so daß
(5.114)
eine Diagonalmatrix mit den Eigenwerten Ai = Ai - /l als Diagonalelementen
ist. Nach (5.114) und (5.113) ist D 2 die kongruent transformierte Matrix von F
vermöge der regulären Transformationsmatrix UDjl/2 V. Ferner ist die
Diagonalmatrix D 2 trivialerweise kongruent zu einer Diagonalmatrix D mit
Diagonalelementen + I, -1 und 0, derart, daß die Vorzeichen der von Null
verschiedenen Diagonalelemente unverändert bleiben. Damit ist eine Kongru-
enztransformation konstruiert worden, aus deren zugehörigen kanonischen
Form die Vorzeichen der Eigenwerte Ai hervorgehen. Nach dem Trägheitssatz
von Sylvester ist die Anzahl der positiven, negativen und verschwindenden
Eigenwerte Ai gleich der Anzahl der positiven, negativen, resp. verschwinden-
den (Ji in irgendeiner kanonischen Form von F = A - /lB. Mit Ai = Ai + /l ist
damit die Aussage des Satzes bewiesen. 0

Um zu einem Wert /l zu bestimmen, wieviele Eigenwerte kleiner als /l sind, ist


die zur Matrix F = A - /lB gehörige quadratische Form in ihre kanonische
314 5 Behandlung der Eigenwertaufgaben

Form zu transformieren, d. h. es ist im wesentlichen eine Cholesky-ähnliche


Zerlegung, verbunden mit geeigneten Hilfskongruenztransformationen
durchzuführen. Die Anzahl der negativen (Ji ist nach Satz 5.1 gleich der Zahl
der Eigenwerte Ai, die kleiner als f.1 sind.

5.3.3 Der Reduktionsalgorithmus für Bandmatrizen

Die praktische Anwendung des Satzes soll für den Fall skizziert werden, daß
die Matrizen A und B und damit F Bandstruktur mit der Bandbreite m
aufweisen. Diese Eigenschaft von F soll so weit als möglich ausgenützt werden.
Da die Symmetrie im Reduktionsalgorithmus erhalten bleibt, wird wie üblich
mit der unteren Hälfte von F gearbeitet.
Wir beginnen mit der Beschreibung des ersten Reduktionsschrittes. Um die
numerische Stabilität zu erhöhen, wird die Hilfskongruenztransformation
(5.106) stets dann ausgeführt, falls /11 nicht das absolut größte Element der
ersten Kolonne ist. Deshalb wird das absolut größte Element /ql der ersten
Kolonne ermittelt.
max IJiI I (5.115)
l';;i';;m+1
Ist /ql =0 oder realistischer l/qI! ~JIIFII, so liegt der Fall 3) vor. Darin
bedeutet J die kleinste positive Zahl im Rechenautomaten, für die 1 + t5 =1= 1
gilt. IIFII ist eine Norm von F Es gilt somit (JI = 0 und der Eliminationsschritt
kann übersprungen werden.
Ist hingegen I/qll >t5IIFII mit q= 1, kann mit/li als Pivot der Reduktions-
schritt nach (5.101) und (5.103) durchgeführt werden. Falls aber q > 1 ist, wird
die Hilfskongruenztransformation (5.106) mit der dort definierten Vorzei-
chenfestsetzung angewendet. Damit wird erreicht, daß das Pivotelement
11111> 1/111 wird, da in (5.107) I/qll > I/lI! ist. Allerdings kann nicht
garantiert werden, daß auch 11111 > 1];,1 für i = 2, 3, ... , m + 1 gilt, da das
Überwiegen vonll1 von den Elementen der q-ten Kolonne abhängig ist.
Durch eine solche Hilfskongruenztransformation wird die Bandstruktur der
gegebenen Matrix F in der ersten Kolonne (und Zeile) teilweise zerstört. Im
extremsten Fall mit q = m + I können in der ersten Kolonne unterhalb des
Bandes m zusätzliche von Null verschiedene Elemente erscheinen, wie dies in
Fig. 5.1 schematisch dargestellt ist. Für eine innerhalb des Bandes schwach
besetzte Matrix F brauchen selbstverständlich nicht alle zusätzlichen Elemente
auch tatsächlich von Null verschieden zu sein. Die Hülle der Matrix F wird in
der Regel vergrößert.
Hat eine Hilfskongruenztransformation stattgefunden, so erzeugt der Reduk-
tionsschritt eine Matrix F I = (J;JIl) der Ordnung (n - 1), wobei in einem
dreieckigen Bereich außerhalb des Bandes von Null verschiedene Matrixele-
5.3 Bisektionsmethode 315

mente entstehen können, wie dies in Fig. 5.2 für die extremste Situation nach
Fig. 5.1 gezeigt ist. Sehr oft wird der hervorgehobene Bereich nicht voll besetzt
sein, vielmehr kann hier die Hülle von F Berücksichtigung finden.

Fig. S.l Mögliche Struktur von F Fig. S.2 Struktur der reduzierten
nach Hilfskongruenztrans- Matrix nach dem ersten
formation, erster Schritt Schritt, ohne erste Kolonne

Würden zur Fortsetzung der Reduktion sämtliche 2m ElementeAll (i = 2,3,


... , 2m + 1) für die nächste Hilfskongruenztransformation zugelassen, könn-
ten im schlimmsten Fall weitere m von Null verschiedene Elemente in der
zweiten Kolonne unterhalb des Dreiecksbereichs entstehen. Der Eliminations-
schritt würde in einem noch größeren Dreiecksbereich von Null verschiedene
Elemente erzeugen, und die skizzierte Strategie würde die Matrix in wenigen
Schritten auffüllen.
Aus diesen Grund ist eine partielle Pivotierung anzuwenden, bei der die
Suche nach dem absolut größten Elementfqql auf die (m + 1) Kandidatenh~l),
fS J, ••• ,f~ll2,2 eingeschränkt wird. Liefert diese partielle Suche ein Element
IfJ1 l 1 > <>IIFII mit q> 2, erzeugt eine allfällige Hilfskongruenztransformation
eine zu Fig.5.1 analoge Situation mit maximal m von Null verschiedenen
Elementen in der zweiten Kolonne unterhalb des ursprünglichen Bandes. Der
Unterschied zu Fig. 5.1 kann darin bestehen, daß auch noch andere von Null
verschiedene Elemente außerhalb des Bandes im besonders schraffierten
Bereich der Fig. 5.2 vorhanden sein können. Der nachfolgende Reduktions-
schritt führt zu einer Matrix E2 mit analoger Struktur wie EI, wobei sich der
dreieckige Bereich außerhalb des Bandes nur um eine Position nach rechts
unten verschoben hat.
Zu erwähnen ist ein Ausnahmefall der partiellen Pivotierung. So kann nach
dem (p -I)-ten Reduktionsschritt die Situation eintreten, daß alle in Frage
kommenden Elemente hY-I), f<t;:i,ljJ, ... , fp~-;":~ betragsmäßig kleiner als
<>lIEIl sind, daß aber unter den Elementenfp~-;"l).l,p, ... ,fp~2'!j+ l,p mindestens
eines existiert mit größerem Betrag. In diesem Fall kann als erste Möglichkeit
das absolut größte der m nachfolgenden Diagonalelemente fp~JJ+ 1, ... ,
316 5 Behandlung der Eigenwertaufgaben

fp~-;":~+m bestimmt werden. Sei.!U-l) dieses Element mit Iffq-l)1 >oIIFII,


dann entsteht durch Vertauschung der p-ten und q-ten Zeilen und Kolonnen
an der Stelle (p,p) ein Diagonalelernent, mit welchem der Reduktionsschritt
durchführbar ist. Die Permutation läßt die Struktur der Matrix gemäß Fig. 5.2
unverändert. Das so erzeugte Pivotelement.!U' -1) kann im Prinzip durch eine
zusätzliche Hilfskongruenztransformation weiter vergrößert werden.
Sollte der unwahrscheinliche Fall eintreten, daß sich der Ausnahmefall nicht
auf die beschriebene Art behandeln läßt, existiert eine Kombination einer
Hilfskongruenztransformation mit einer nachfolgenden . Permutation
[Scw77], auf die hier nicht weiter eingegangen werden soll.
Die Reduktion, bestehend aus Hilfskongruenztransformationen, Permutatio-
nen und Eliminationsschritten betrifft in einem einzelnen Schritt nur die
Elemente eines dreieckigen Bereichs, der (2m + 1) Zeilen und Kolonnen
umfaßt. Bei entsprechender Anordnung der Matrixelemente wird deshalb nur
ein Arbeitsspeicher für diese (m + 1) (2m + 1) Zahl werte benötigt. Ein
Reduktionsschritt erfordert maximal m(2m + 3) Multiplikationen, so daß der
Rechenaufwand für eine vollständige Reduktion höchstens etwa 2nm 2 wesent-
liche Operationen beträgt.
Der Algorithmus zur Bestimmung der Anzahl der negativen ai arbeitet trotz
der partiellen Pivotstrategie recht stabil, und die Sicherheit, mit welcher die
Eigenwerte lokalisiert werden, ist vergleichbar mit derjenigen des Algorithmus
von Peters und Wilkinson. Die Variablensubstitution (5.104) mit der
zugehörigen Kongruenztransformation (5.105) und (5.106) kann allerdings
gelegentlich numerisch unbefriedigend sein. Dazu betrachten wir die dreireihi-
ge Matrix [WaI82]
0,1
F= [ ~,1 o
0,5]
1O~ .
(5.116)
0,5 100
Da 131 = 0,5 das betragsgrößte Element der ersten Kolonne ist, liefert die
Hilfskongruenztransformation die Matrix F und der Reduktionsschritt die
Matrix F 1•
100,1
F=[ 1O~,1 o 100
0,5]

0,5 100 o
(5.117)
F- [
-10020,01 49,95 J
1- 49,95 -0,25
Für den nächsten Reduktionsschritt steht ein sehr großes Pivotelement direkt
zur Verfügung. Nach den Formeln (5.101) und (5.103) ergibt sich für das
5.3 Bisektionsmethode 317

verbleibende reduzierte Matrixelement


fBl = -0,25 - (-1) (-0,499000999)2 = -0,000998003.
Die in diesem Schritt auftretende Stellenauslöschung wird durch das große
Pivotelement in F 1 verursacht, welches im wesentlichen das Quadrat vonf32 ist.
Eine Verbesserung dieser Situation wird durch eine anders geartete Hilfskon-
gruenztransformation erreicht, die im folgenden Abschnitt dargestellt wird.

5.3.4 Der Reduktionsalgorithmus für Matrizen mit Hüllenstruktur

Um der Hüllenstruktur der Matrizen A und B, die in den Anwendungen häufig


anzutreffen ist, Rechnung zu tragen, wird jetzt ein Reduktionsalgorithmus
entwickelt, welcher die Cholesky-ähnliche Zerlegung unter Einschluß von
Hilfskongruenztransformationen so durchführt, daß die Hülle von
F=A -J.lB soweit als möglich ausgenützt wird. Falls wir im Verlauf einer
Reduktion keine Hilfkongruenztransformation benötigen, oder falls wir
dieselben gar nicht in Betracht ziehen, so ist die Zerlegung auf Grund der
Überlegungen von Abschn.4.3 in der Hülle von F durchführbar. Eine
Zerlegung ohne jede Pivotierung dürfte für eine im allgemeinen indefinite
Matrix F numerisch recht zweifelhaft sein, obwohl sie meistens eine richtige
Zählung der negativen ai liefert. Deshalb soll eine Pivotstrategie eingeschlos-
sen werden, welche unter einer zwar stark eingeschränkten Zahl von Matrixe-
lementen ein doch brauchbares Pivotelement erzeugt, und welche die Eigen-
schaft hat, daß die Hilfstransformationen und die Reduktionen in einer zum
voraus bestimmten, leicht erweiterten Hülle durchführbar sind.
Die verwendete Pivotstrategie entstammt im wesentlichen einem Algorithmus
von Bunch und Kaufman [BuK77] zur Bestimmung der Trägheit einer
symmetrischen Matrix. Die Zerlegung von F erfolgt dort im Sinn des
Gaußsehen Algorithmus nach Abschn. 4.1 entweder mit einem Pivotelement
in der Diagonalen oder aber blockweise mit einer zweireihigen Pivotmatrix,
von der zwei Elemente in der Diagonale liegen. Im letzten Fall eines
sogenannten (2 X 2)-Pivotschrittes werden gleichzeitig zwei Unbekannte elimi-
niert. Die beschriebene Wahl der Pivotmatrix garantiert die Symmetrie der
reduzierten Matrix. Die Wahl der Art des Pivotschrittes und der Pivotelemente
selbst erfolgt nach dem Kriterium, daß die Wachstumsrate der betragsgrößten
Matrixelemente in der Folge von reduzierten Matrizen ein bestimmtes Maß
nicht überschreitet. Der Algorithmus wird in diesem Sinn als stabil bezeichnet
und nicht unter dem sonst üblichen Kriterium von W ilkinson mit betrags-
mäßig durch Eins beschränkten Multiplikatoren [WiI69].
Wir beginnen damit, die Idee der Zerlegung nach Bunch und Kaufman für
eine voll besetzte Matrix zu skizzieren, um dann die dazu äquivalente Variante
mit Hilfskongruenztransformationen und einzelnen Reduktionsschritten dar-
318 5 Behandlung der Eigenwertaufgaben

zulegen. Schließlich vollziehen wir die Spezialisierung auf den hüllenorientier-


ten Algorithmus. Die Regeln für die Wahl des Pivotschrittes sind für den ersten
repräsentativen Eliminationsschritt mit dem Wert 10 = 611 FII und der Konstan-
ten a = 0,6404 [WaI82]:
1. Es seifql das absolut größte Außendiagonale1ement der ersten Kolonne von
F mit kleinstem Index q, und wir setzen
(5.118)

Falls MI <;10 und IflIl <;10, so liegt der Fall 3) von Abschn. 5.3.1 vor, und mit
(}I= 0 ist der Eliminationsschritt zu überspringen.
2. Sind jedoch die Bedingungen
Iflll ~aMI und Iflll >10 (5.119)
erfüllt, wirdflI als Pivote1ement für einen Reduktionsschritt verwendet. Das
absolut größte Außendiagonale1ement der ersten Kolonne übersteigt den
Betrag des Pivotelementes höchstens um den Faktor 1,562, so daß im Gauß-
Algorithmus Multiplikatoren größer Eins auftreten können.
3. Ist (5.119) nicht erfüllt, bestimme man das Maximum M 2 der Beträge der
Außendiagonale1emente der q-ten Zeile
M2 = max Ifqd. (5.120)
I~j~n
jioq

Falls jetzt die Bedingungen


aMr<;lflIlM2 und IflI! >10 (5.121)
erfüllt sind, soll ebenfallsfll als Pivotelement für einen normalen Reduktions-
schritt verwendet werden.
4. Andernfalls prüfe man, ob das q-te Diagonale1ement f qq die zu (5.119)
analogen Bedingungen

(5.122)

erfüllt. Trifft (5.122) zu, vertausche man die ersten und q-ten Zeilen und
Kolonnen von F, womit die Voraussetzungen geschaffen sind, das (neue)
ElementflI als Pivot für einen Reduktionsschritt zu verwenden.
5. Haben die vorangehenden Auswahlrege1n zu keinem annehmbaren Ma-
trixe1ement als Pivot geführt, so ist damit gleichzeitig sichergestellt, daß die
Untermatrix der Ordnung zwei, gebildet aus den Elementen

[f
ll flq J (5.123)
fql fqq
5.3 Bisektionsmethode 319

regulär ist. Durch Kombination aller Bedingungen, die ja nicht erfüllt sind,
kann gezeigt werden, daß die Determinante der Matrix (5.123) einen negativen
Wert hat. Deshalb kann mit dieser Untermatrix im Sinn der Blockelimination
ein (2 X 2)-Pivotschritt durchgeführt werden. Zur Systematisierung des Pro-
zesses sollen stets zwei aufeinanderfolgende Variablen gleichzeitig eliminiert
werden. Falls q > 2 ist, werden aus diesem Grund die zweiten und q-ten Zeilen
und Kolonnen vorgängig zu diesem Schritt vertauscht, so daß jetzt die
zweireihige, reguläre Untermatrix

(5.124)

als Pivotmatrix zur Verfügung steht.


Wenn wir die Matrix F in der partitionierten Form

F= r ~ ~T 1 (5.125)

ansetzen, erhalten wir in Analogie zu (3.25) aus K die reduzierte Matrix K(2)
der Ordnung n - 2
K(2)=K-HG- 1H T . (5.126)
Der Reduktionsschritt (5.126) ist für voll besetzte Matrizen problemlos
durchführbar. Im Hinblick auf unsere Zielsetzung, die Reduktion auf
Matrizen mit Hüllenstruktur anzuwenden, wollen wir den (2 X 2)-Pivotschritt
durch zwei einfacher zu programmierende, dazu äquivalente Reduktions-
schritte ersetzen. Da aber weder 111 noch das (neue) Matrixelement 122 als
Pivots brauchbar sind, muß zuerst eine geeignete Hilfskongruenztransforma-
tion auf die (neue) Matrix F(5.125) angewandt werden. Damit die Wachstums-
rate des betragsgrößten Matrixelementes auch in der ersten reduzierten
Zwischenmatrix beschränkt bleibt [WaI82], ist die Matrix der Kongruenz-
transformation wie folgt anzusetzen:

s 0
I 0 0 ... 0
1 1 I 0 0 ... 0
---~--------
Ch= 0 0 I 1 0
I
0
[: OT 1mlts=
. + M-
_ 2
(5.127)
[.-2 Al1
0 0 I 0 1 0
I
0 0 I 0 0
Komponentenweise lautet die Variablensubstitution Xl = S(l, X2 = (1 + (2,
= (i, i;;:;' 3. Das Vorzeichen von s wird noch geeignet festgelegt werden. Mit
Xi
320 5 Behandlung der Eigenwertaufgaben

Ch ergibt sich die kongruent transformierte Matrix

_ T
F= Ch FCh =
[ST
0 OT
In - 2
] [G
H
HTJ
K
[s0
OT ]
I n -2
(5.128)
= [~:GS ~THTJ.
Die Hilfskongruenztransformation mit C h kann so interpretiert werden, daß
zuerst die erste Zeile und Kolonne von F mit s multipliziert werden, worauf
noch die zweite Zeile zur ersten und die zweite Kolonne zu ersten addiert
werden. Da auf Grund der Definitionen (5.118) und (5.120) für MI und M2 für
1si:> 1 gilt, kann man auch von einer geeigneten Vorskalierung der ersten Zeile
und Kolonne sprechen.
Es ist interessant festzustellen, daß die aus F resultierende Matrix K(2),
vollkommen unabhängig von der regulären Matrix S in (5.127), mit K(2)
(5.126) übereinstimmt. In der Tat folgt aus (5.128)
K(2) = K - (HS) (ST GS)-I(STHT)
=K-HSS-IG-IS-TSTHT =K-HG-IHT =K(2).

Damit ist aber die mathematische Äquivalenz eines (2 X 2)-Privotschrittes mit


einer geeigneten Hilfskongruenztransformation, gefolgt von zwei normalen
Reduktionsschritten nachgewiesen, sofern die letzteren ausführbar sind.
Nach (5.128) ergibt sich für das transformierte MatrixeIement
111 = S2 /11 + 2sh! + 122. (5.129)
Das Vorzeichen von s in (5.127) wird nun so festgelegt, daß
(S2III + 122) (sh!) :> 0 (5.130)
gilt. Damit erreichen wir, daß wegen (5.118) und (5.120)
11111 = Is 2/11 + 122 + 2shll = Is 2/11 + 1221 + 2lsl'lhii
M2
:> 2- MI = 2M2 :> 2MI > 2e
MI
ist. Ein Reduktionsschritt mit dem Pivot 111 liefert eine Zwischenmatrix, in
welcher das absolut größte Element höchstens dreimal größer ist als das
absolut größte Element in F, so daß die Wachstumsrate tatsächlich beschränkt
bleibt [WaI82]. Zudem steht mit dem reduzierten Elementh~l) ein zweites Pivot
ungleich Null zur Verfügung, weil die Determinante der zweireihigen Unter-
matrix negativ ist. Der zweite Reduktionsschritt ist ohne zusätzliche Maßnah-
men ausführbar und führt zur Matrix K(2), für welche die Stabilität auf Grund
5.3 Bisektionsmethode 321

des Algorithmus von Bunch und Kaufman feststeht. Die oben formulierte
Regel 5 kann ersetzt werden durch
5'. Falls q> 2 ist, vertausche man die zweiten und q-ten Zeilen und Kolon-
nen. Dann führe man die Hilfskongruenztransformation (5.128) durch, wobei
das Vorzeichen von s gemäß (5.130) festgelegt ist. Anschließend sind zwei
Reduktionsschritte mit den Pivots 1]] und 12~) auszuführen.
Auf Grund der Regeln ist klar, daß die Reduktion von F durch eine Cholesky-
ähnliche Zerlegung, verbunden mit eventuellen Zeilen- und Kolonnenpermu-
tationen (Regeln 4 und 5') und mit Hilfskongruenztransformationen (Regel 5')
durchführbar ist. Diese Form der Zerlegung wird für Matrizen mit Hüllen-
struktur bedeutend einfacher zu realisieren sein als eventuelle (2 X 2)-Pivot-
schritte.
Bevor wir zum eigentlichen hüllenorientierten Algorithmus übergehen, wollen
wir uns davon überzeugen, daß die Pivotstrategie im Fall der Matrix (5.116)
den gewünschten Effekt hat. In jenem Beispiel ist M] = 0,5 = f3], q = 3,
M z = 100, und es ist erwartungsgemäß Regel 5' anzuwenden. Die Zeilen- und
Kolonnenvertauschungen und die nachfolgende Hilfskongruenztransforma-
tion mit s = 200 ergibt nacheinander die Matrizen

P,5
0,5 100
0,1 ] [ 200 120 ]
0 100 und 100 0 10~ .
0,1 100 0 120 100
Die beiden einzelnen Reduktionsschritte liefern

F]= [ -50 40 ] F2 = K(2) = [-40].


40 -72 '
Die Rechnung verläuft jetzt numerisch problemlos ohne große Zahlwerte.
Wenn wir den Reduktionsalgorithmus nach den formulierten Regeln in seiner
vollen Allgemeinheit auf eine Matrix F = A - f.lB mit Hüllenstruktur anwen-
den, so geht diese Eigenschaft durch die notwendigen Zeilen- und Kolonnen-
permutationen sowie durch die Kongruenztransformationen verloren. Um
dennoch sowohl die Hüllenstruktur weitgehend auszunützen als auch von den
Stabilitätseigenschaften des Zerlegungsalgorithmus möglichst zu profitieren,
ist eine numerisch vertretbare Kompromißlösung zwischen keiner und voller
Pivotierung zu treffen. Sie besteht darin, die genannten Kriterien 1 bis 5' für
die Bereitstellung eines, bzw. von zwei aufeinanderfolgenden Pivotelementen
auf die dreireihige Untermatrix
f]z fI3]
f22 123 (5.131)
132 f33
322 5 Behandlung der Eigenwertaufgaben

anzuwenden. Selbstverständlich kann bei dieser Strategie nicht mehr gezeigt


werden, daß das Wachstum der Beträge der Elemente der reduzierten
Matrizen beschränkt bleibt. Numerische Versuche rechtfertigen jedoch die
partielle Pivotierung vollauf, da sie gezeigt haben, daß damit die Stabilitäts-
eigenschaften des ursprünglichen Algorithmus von Bunch und Kaufman
doch im wesentlichen erhalten bleiben. In der Tat sind die im Cholesky-
ähnlichen Zerlegungsalgorithmus auftretenden Multiplikatoren Cip, i> P in
der Regel betrags mäßig nicht allzu groß, falls die Matrizen A und B geeignet
skaliert werden, z. B. so daß aii = 1 und max bi; = I gilt.
;

Die allfällig nach den Regeln 4 und 5' auszuführenden Zeilen- und Kolonnen-
permutationen sowie die Kongruenztransformationen produzieren trotz der
eingeschränkten Pivotstrategie von Null verschiedene Matrixelemente außer-
halb der Hülle von F. Wenn man aber die verschiedenen Operationen genauer
analysiert, erkennt man rasch, daß es genügt, die Hülle von F = A - flB um
höchstens zwei Indexpaare in jeder Zeile nach links zu erweitern. Mit den aus
(3.10) abgeleiteten Werten

lieF) = max {Ji(A) - 2; I}, (i =1, 2, ... , n) (5.132)

definieren wir die erweiterte Hülle von F als


Env(F) = {(i,j)IJ;(F) ~j ~ i, 1 ~ i ~ n}. (5.133)
Für das Profil der erweiterten Hülle von F gilt wegen (5.132)
p= IEnv(F) I ~ IEnv(A)1 + 2n = p + 2n. (5.134)
In Fig. 5.3 ist für eine repräsentative Situation die Hülle einer Matrix A durch
eine dünne Linie und die erweiterte Hülle von F durch eine dicke Linie
illustriert. Anhand von Fig. 5.3 möge sich der Leser selbst davon überzeugen,
daß vor allem die Permutationen und Kongruenztransformationen nicht aus
der erweiterten Hülle von F herausführen, so daß dann die eigentlichen

Fig.5.3
Erweiterte Hülle für den Reduktionsalgorithmus
5.3 Bisektionsmethode 323

Reduktionsschritte ohnehin in Env(F) verlaufen. Somit ist der Reduktions-


algorithmus mit der eingeschränkten (3 X 3)-Pivotierung vollständig in der
nach (5.133) definierten erweiterten Hülle von F durchführbar [WaI82]. Damit
steht aber ein hinsichtlich Speicherbedarf und Rechenaufwand effizienter
Algorithmus zur Reduktion einer Matrix F mit Hüllenstruktur zur Verfügung.
An dieser Stelle sei darauf hingewiesen, daß die Reduktionsschritte der
Cholesky-ähnlichen Zerlegung in der ersten Form von Abschn. 4.3 ausgeführt
werden müssen, da sie abwechselnd mit eventuellen Permutationen und
Kongruenztransformationen vollzogen werden müssen. Ein detailliertes Fluß-
diagramm für die (3 X 3)-Pivotstrategie sowie ein zugehöriges Rechenpro-
gramm sind in [Scw91] gegeben, wo auch Spezialfälle behandelt sind, die in der
obenstehenden Beschreibung der wesentlichen Idee nicht ausdrücklich ge-
nannt worden sind.
Anmerkung: Die (3 X 3)-Pivotstrategie kann selbstverständlich auch im Fall
des Reduktionsalgorithmus für Bandmatrizen angewendet werden. Insbeson-
dere verbessert die Hilfkongruenztransformation mit der Matrix eh (5.127) die
numerische Sicherheit. Ferner ist die Bandbreite für die Zerlegung von F
gegenüber derjenigen von A und B nur um zwei zu vergrößern. Damit erzielt
man auch in jenem Fall eine bedeutende Verringerung des Speicher- und
Rechenbedarfs.

5.3.5 Die Berechnung der Eigenwerte und Eigenvektoren

Der Eigenvektor Xi zum Eigenwert Ai von Ax = ABx wird mit Hilfe der
ge brochen in versen Vektori tera tion berechnet. Um den Eigenvektor und
den Eigenwert gleichzeitig auf effiziente Weise zu bestimmen, folgen wir einer
Idee von Gupta [Gup73]. Die fortgesetzte Intervallhalbierung zur Lokalisie-
rung des gesuchten Eigenwertes Ai wird gestoppt, sobald ein Intervall [ai, bi]
ermittelt worden ist, welches Ai als einzigen Eigenwert enthält. Bezeichnen wir
mit v(.u) die Anzahl der negativen (Ji, die sich in der Cholesky-ähnlichen
Zerlegung von F = A - flB ergeben. Die genannte Situation liegt genau dann
vor, falls v(ai) = i - I von v(b i) = i gelten. In diesem Fall ist Ai der nächstgele-
gene Eigenwert zum Mittelpunkt AM=(ai + bi)/2 des Intervalls. Somit muß die
Folge von Vektoren xfk), berechnet aus
_ (k) _ (k-I) _
(A AMB)Xi - BXi ,(k - 1,2, ... ) (5.135)
theoretisch gegen die Richtung des Eigenvektors Xi zu Ai konvergieren unter
der Voraussetzung, daß der Startvektor xfO) eine Komponente nach dem
Eigenvektor Xi enthält. Die Konvergenz kann jedoch beliebig langsam sein,
falls Ai zufällig sehr nahe an einem Intervallende liegt und gleichzeitig
benachbart zu einem anderen Eigenwert ist. Trennt beispielsweise die obere
324 5 Behandlung der Eigenwertaufgaben

Intervallgrenze bi die eng benachbarten Eigenwerte Ai und Ai+ I, so ist der die
Konvergenz bestimmende Quotient q=(Ai-AM)/(Ai+I-AM) nahe bei Eins.
Diese Situation muß aber ausgeschlossen werden. Deshalb wollen wir
verlangen, daß die gebrochen inverse Vektoriteration mit einem festen Wert
AM erst dann gestartet wird, falls ein Konvergenzquotient von höchstens 0,5
garantiert ist. Dies trifft sicher dann zu, falls mit zwei zusätzlichen Reduktio-
nen festgestellt wird, daß Ai sogar im Innern des Teilintervalls [(ai + AM )/2,
(bi + AM )/2] liegt. Die dazu nötigen und aufwendigen Zerlegungen sollten aber
nach Möglichkeit vermieden werden. So ist zu beachten, daß im Verlauf der
fortgesetzten Intervallhalbierung mit jedem Wert f.J. Information vorliegt, mit
welcher die unteren und oberen Schranken der gesuchten Eigenwerte verbes-
sert werden können. Falls nun die untere Schranke ai + 1 für Ai + 1 größer als die
obere Schranke bi für Ai ist, ist die geforderte Konvergenzgüte bezüglich Ai+ 1
<
sichergestellt, falls der einfache Test (bi - AM )/(ai+ 1 - AM) 0,5 erfüllt ist. Ist
im Zug der Berechnung mehrerer Eigenwerte Ai _I bereits bekannt, garantiert
das Erfülltsein der Ungleichung (AM-ai)/(AM-Ai-I)<0,5 die gewünschte
Konvergenzgüte bezüglich Ai - I.
Die nach (5.135) iterierten Vektoren xY) sind in geeigneter Weise zu
normieren, um Zahlenbereichsüberschreitung im Rechner zu vermeiden. Die
Normierung gemäß xY)T BxY) = I ist zweckmäßig, da jeder Iterationsschritt
ohnehin die Multiplikation mit B erfordert, so daß die Normierun~ damit
kombiniert werden kann. Unter dieser Normierunrsbedingung für x} ) liefert
der zugehörige Rayleighsche Quotient R [x}k)] = x} ) T Ax}k) eine Näherung für
den Eigenwert Ai. Infolge des garantierten Konvergenzquotienten für die
Iterationsvektoren ist ein Konvergenztest bezüglich des Rayleighschen Quo-
tienten problemlos.
Nach Berechnung der rechten Seite von (5.l35) ist jenes Gleichungssystem
nach x}k) aufzulösen. Dazu kann der oben beschriebene Reduktionsalgorith-
mus für die Matrix F=A -AMB benützt werden, sei es für Matrizen F in
Bandform oder mit Hüllenstruktur. Denn er entspricht ja im wesentlichen
einer Cholesky-Zerlegung, kombiniert mit Kongruenztransformationen und
Permutationen. Um die Prozesse des Vorwärts- und Rückwärtseinsetzens auf
die rechte Seite von (5.135) problemgerecht anwenden zu können, wird die
Information über die erfolgten Zeilen-/Kolonnenvertauschungen und die
ausgeführten Hilfskongruenztransformationen mit den dabei verwendeten
Werten s nach (5.127) benötigt, sowie neben den Elementen der Linksdreiecks-
matrix C mit Band- oder Hüllenstruktur auch noch die Vorzeichen ai.
Um die Maßnahmen in den Prozessen des Vorwärts- und Rückwärtseinsetzens
zu beschreiben, legen wir die (3 X 3)-Pivotstrategie des vorhergehenden
Abschnitts zugrunde. Falls vor Ausführung des p-ten Reduktionsschrittes eine
Zeilen- und Kolonnenpermutation stattgefunden hat, so ist im Vorwärtsein-
setzen dieselbe Vertauschung im (momentanen) Konstantenvektor zu vollzie-
5.3 Bisektionsmethode 325

hen. Eine Kongruenztransformation ist entsprechend durch eine Multiplika-


tion der p-ten Komponente des (momentanen) Konstantenvektors mit dem
betreffenden Wert s und eine Addition der nachfolgenden Komponenten zu
berücksichtigen. Der eigentliche p-te Schritt des Vorwärtseinsetzens auf den
Konstantenvektor erfolgt dann mit den Elementen der p-ten Kolonne der
Linksdreiecksmatrix C. Die Vorzeichen (Ji sind erst nach vollendetem
Vorwärtseinsetzen zu berücksichtigen. Im Rückwärtseinsetzen ist schrittweise
mit den Elementen von C die übliche Substitution durchzuführen. Hat vor dem
p-ten Reduktionsschritt eine Kongruenztransformation stattgefunden, ist ihr
nach Berechnung der p-ten Komponente dadurch Rechnung zu tragen, daß die
Variablensubstitutionen in der Reihenfolge Xp+1 :=Xp+Xp+l, x p :=sxp voll-
zogen werden. Eine Permutation ist erst dann entsprechend auszuführen.
Ein guter Startvektor xjO) wird nach Wilki~son [WiI65] durch einen halben
Iterationsschritt gewonnen, wobei das Rückwärtseinsetzen auf den Vektor
e = (1, 1, ... , 1) T angewendet wird mit der von AM abhängigen Zerlegung von
F=A -A,v:B.
Die Durchführung der gebrochen inversen Vektoriteration erfordert den
Aufbau und die Speicherung der Linksdreiecksmatrix C der Zerlegung von F.
Wenn wir für die folgende Gegenüberstellung die (3 X 3)-Pivotierung zugrun-
de legen, so sind für C im Fall von Bandmatrizen A und B mit der Bandbreite m
bei Speicherung nach Fig. 3.3 n(m + 3) Plätze und im Fall von Matrizen mit
Hüllenstruktur p Plätze gemäß (5.134) vorzusehen. Für das Profil p der
erweiterten Hülle gilt natürlich p ~n(m + 3). In beiden Fällen sind für die
Information über Kongruenztransformationen, Permutationen und Vorzei-
chen (Ji drei Vektoren der Länge n erforderlich. Der total notwendige
Arbeitsspeicher beträgt somit höchstens n(m + 6) Plätze. Der von Peters und
Wilkinson vorgeschlagene Eliminationsalgorithmus ist mit etwa n(3m + 3)
Plätzen bedeutend speicheraufwendiger.
Neben diesem Arbeitsspeicher werden die Matrizen A und B sowohl zur
wiederholten Bildung von F= A - fJ.B zu gegebenem Wert J1 als auch zur
Berechnung des Rayleighschen Quotienten und von Bxjk -I) benötigt. Zur
effizienten Ausführung dieser Operationen ist eine zeilenweise, kompakte
Speicherung der unteren Hälfte der schwach besetzten Matrizen zweckmäßig.
Die beiden Indexvektoren kund (sind für beide Matrizen identisch.
Der Rechenaufwand eines einzelnen Schrittes der gebrochen inversen Vektor-
iteration setzt sich zusammen aus der Berechnung von Bxjk-I), der Normie-
rung des Vektors, dem Vorwärts- und Rückwärtseinsetzen mit C und der
Berechnung des Rayleighschen Quotienten. Besitzen A und B je yn von Null
verschiedene Matrixelemente und Bandstruktur mit der Bandbreite m, beträgt
der Rechenaufwand im Fall der (3 X 3)-Pivotierung größenordnungsmäßig

ZIV ~ (2y + 3)n + 2(m + 3)n = (2m + 2y + 6)n (5.l36)


326 5 Behandlung der Eigenwertaufgaben

multiplikative Operationen. Bei praktischen Anwendungen ist das Band der


Matrizen A und B selbst schwach besetzt, so daß y < m gilt. Somit benötigt ein
Iterationsschritt weniger als 4mn Multiplikationen. Im Vergleich zum Auf-
wand von etwa
I 1 2 1 2
- n(m + 2)(m + 5) ~ - n(m + 3) ~ - nm
2 2 2
Operationen für eine Zerlegung, d. h. für einen Bisektionsschritt, ist es
offensichtlich ökonomischer, den Eigenwert Ai vermittels einer Reihe von
Vektoriterationsschritten zu berechnen, anstatt zusätzliche Bisektionsschritte
durchzuführen. Bei einer typischen Bandbreite m = 40 kosten 5 Iterationen
gleich viel Rechenzeit wie ein Bisektionsschritt. Da ein Konvergenzquotient
<
q 0,5 garantiert ist, ist nach höchstens 20 Iterationsschritten der Eigenvektor
auf 6 Stellen nach dem Komma richtig (größte Komponente gleich Eins). In
der Regel sind aber bedeutend weniger Iterationen nötig. Alle Überlegungen
gelten sinngemäß auch für Matrizen mit Hüllenstruktur.
Anstatt den Eigenwert Ai mit Hilfe des zugehörigen Rayleighschen Quotienten
zu berechnen, kann effizienter der Eigenwert A;= Ai - AM mit R'[x] =
x T (A - AMB)xjx T Bx berechnet werden, wobei die im Abschn. 5.2.1 beschrie-
bene Technik angewandt werden kann, so daß die Multiplikation Ax entfallt.

5.4 Das Vedahren von Lanczos

In diesem Abschnitt soll diejenige Methode zur Berechnung von Eigenwerten


und Eigenvektoren von Ax = ABx in ihren Grundzügen dargestellt werden,
welche die Aufgabe in der Regel am effizientesten zu lösen vermag. Der
grundlegende Algorithmus ist zwar von bestechender Einfachheit, doch
erfordert seine erfolgreiche Implementierung eine Reihe von Maßnahmen, um
die numerischen Probleme sicher zu meistern.

5.4.1 Grundlagen des Verfahrens

Die Behandlung der allgemeinen Eigenwertaufgabe Ax = ABx wird wiederum


formal auf eine spezielle Eigenwertaufgabe zurückgeführt werden. Deshalb
werden die Grundzüge des Lanczos-Verfahrens am speziellen Eigenwertpro-
blem
Cy = AY (5.137)
mit symmetrischer, nicht notwendigerweise positiv definiter Matrix C der
Ordnung n dargestellt. In dem von Lanczos [Lan50] vorgeschlagenen
Verfahren geht man von einem Startvektor 11 =1= 0 aus und bildet in Analogie
5.4 Das Verfahren von Lanczos 327

zur Vektoriteration die Folge von Vektoren

12 = C/l, 13 = Cfz, ... , Im = Clm-l, (m-<n). (5.138)

Diese Vektoren bilden den sogenannten Krylov-Unterraum, zugehörig


zum Startvektor /1 und der Matrix C, bezeichnet mit

(5.139)

Wir untersuchen die naheliegende Frage nach der linearen Unabhängigkeit


der VektorenJi (5.138) und damit der Dimension des Krylov-Unterraumes
K(m)(fl). Ist etwall im speziellen gleich irgend einern Eigenvektor von C, dann
sind die weiteren Vektoren 12, 13, ... proportional zu 11, und die Dimension
von K(m)(fl) ist in diesem Fall offensichtlich gleich Eins. Allgemeiner sei r n -<
der kleinste Index, so daß die Vektoren /1, 12, ... , Ir linear unabhängig, die
(r + 1) Vektoren/l,fz, ... ,Ir,fr + 1 = Clraberlinear abhängig sind. Das bedeutet
einerseits, daß der Krylov-Unterraum K(r)(fl) die volle Dimension r besitzt,
daß anderseits Ir + 1 Linearkombination der vorhergehenden VektorenJi sein
muß und folglich K(r+ 1)(fl) = K(r)(fl) gilt. Deshalb gilt dann für einen
beliebigen Vektor xEK(r)(fl), daß sein Bildvektor x'= Cx wieder dem
Krylov-Unterraum K(r)(f]) angehört, und somit stellt in der betrachteten
Situation K(r)(f]) einen invarianten Unterraum bezüglich der Matrix C
dar. Die Invarianz eines durch 11 erzeugten Krylov-Unterraumes wird eine
gewisse Rolle spielen, und sie wird im nachfolgend beschriebenen Prozeß
automatisch erkannt werden.
Wir wollen annehmen, der Krylov-Unterraum K(m)(fJ) besitze die Dimension
m. Für diesen Unterraum soll jetzt ein Ritz-Schri tt durchgeführt werden, um
die bestmöglichen Approximationen von Eigenwerten und Eigenvektoren von
C zu erhalten. Zu diesem Zweck soll in K(m)(f]) zuerst eine orthonorrnierte
Basis von m Vektoren ql, q2, ... , qm bestimmt werden, damit die Projektion der
Matrix C auf den Unterraum auf ein spezielles Eigenwertproblem führt, wie
dies in Abschn. 5.2.3 dargelegt ist. Dazu wenden wir den originalen Schmidt-
schen Orthogonalisierungsprozeß sukzessive auf die Folge der Vektoren/l,f2,
.. . ,Im an, um dann zu erkennen, daß die gesuchten Basisvektoren einfacher
und direkt berechnet werden können. Der erste Basisvektor q] entsteht aus/]
durch Normierung gemäß

(5.140)

Im zweiten Schritt wäre der Vektor 12 = CI] = Po( Cql) gegenüber q] zu


orthogonalisieren und anschließend zu normieren. Der skalare Faktor Po i= 0
ist belanglos, weshalb der Vektor Ul := Cq] den gleichen zweiten Basisvektor
328 5 Behandlung der Eigenwertaufgaben

q2 liefert. Die beiden genannten Schritte lauten


'I = UI - alql mit al := q!UI,
(5.141)

Im dritten Schritt wäre im Prinzip der Vektor


13 = CIz = C(ßOUI) = ßo(Cu/) = ßOC(ßlq2 + alq/)
= ßOßI Cq2 + ßoal Cql = ßOßI Cq2 + ßoalu/
bezüglich ql und q2 zu orthogonalisieren. Da aber U/ nach (5.141) Linearkom-
bination von ql und q2 ist, braucht dieser Anteil nicht berücksichtigt zu
*
werden, und da der Faktor ßOßI 0 im verbleibenden Teil belanglos ist, darf
anstelle von/3 der Vektor U2: = Cq2 verwendet werden, um q3 zu bestimmen.
Für den Faktor, der bei der Orthogonalisierung von U2 gegenüber ql auftritt,
gilt
q!U2 = q! Cq2 = (Cql)T q2 = U!q2 = (rl + alq/lq2 = r!q2 = ßI,
also liefert dieser Teilschritt den Zwischenvektor
(5.142)
der sodann noch gegenüber q2 zu orthogonalisieren und dann zu normieren ist
gemäß
r2 = r2 - a2q2 mit a2:= q!'2,
(5.143)
mit ß2 := Il r 2112.
Beachtet man, daß auf Grund der bisherigen Konstruktion Cq\ Linearkombi-
nation von q/ und q2 ist, und Cq2 Linearkombination der drei Vektoren q\, q2
und q3 ist, dann folgt unmittelbar für/4 = C/3, daß er Linearkombination von
Cq3 und der Vektoren q\, q2 und q3 ist. Deshalb kann zur Konstruktion von q4
im Krylov-Unterraum K(4)(fI) der Vektor U3:= Cq3 verwendet werden.
Entscheidend an dieser Stelle ist die Tatsache, daß keine Orthogonalisierung
von U3 bezüglich q/ nötig ist, weil der diesbezügliche Faktor
q! Cq3 = ql (Cq/) = ql (YI q/ + Y2q2) = 0
ist. Der Vektor U3 braucht deshalb in der Tat nur bezüglich q2 und q3
orthogonalisiert zu werden, wobei in Analogie zu oben gilt
q! U3 = q! Cq3 = ql (Cq2) = ql U2 = ql'2 = ql r2 = ß2,
so daß die Schritte (5.142) und (5.143) entsprechend ausgeführt werden
können.
Durch vollständige Induktion kann gezeigt werden, daß im allgemeinen
(k+ l)-ten Orthonormierungsschritt der Basisvektor qk+/ aus dem Vektor
Uk:= Cqk durch alleinige Orthogonalisierung bezüglich der beiden Vektoren
5.4 Das Verfahren von Lanczos 329

qk-I und qk und anschließender Normierung gewonnen werden kann. Die


zugehörigen Formeln lauten

Uk = Cqk
rk = Uk - ßk-Iqk-I
(5.144)
r" = rk - akqk mit ak = qlrk
qk+1 = rk/ßk mit ßk = IIr,,112
Durch sukzessive Substitution ergibt sich aus (5.144) für die Basisvektoren qk
die Relation
(5.145)

die auch für k = 1 gültig bleibt, falls qo = 0 gesetzt wird. Die konstruierten
Basisvektoren erfüllen also eine dreigliedrige Rekursionsformel.
Die oben erwähnte Invarianz eines durch!1 erzeugten Krylov-Unterraumes,
charakterisiert durch die Tatsache, daß der (k + I)-te Krylov-VektorA+ I zum
ersten Mal von den vorhergehenden Vektoren linear abhängig wird, wird bei
der Konstruktion der orthonormierten Basis dadurch erkannt, daß in (5.144)
der Vektor r" = 0 und damit ßk = 0 wird, so daß der (k + l)-te Basisvektor
nicht gebildet werden kann.
Unter der Annahme, daß der Krylov-Unterraum K(m)(fl) die Dimension m
bestitzt, können die m Basisvektoren ql, q2, ... , qm konstruiert werden. Diese
orthonormierten Vektoren qk fassen wir zu einer (n X m)-Matrix

(5.146)

zusammen. Für die Projektion von C auf den Krylov-Unterraum K(m)(fl) gilt

al ßI
ßI a2 ß2
ß2 a3 ß3
T m := Q~CQm = (5.147)

ßm-2 am-Ißm-1
ßm-Iam

weil die k-te Kolonne von CQm die Linearkombination (5.145) enthält und bei
der Bildung von Q;'(CQm) die Orthonormiertheit der qk zu beachten ist.
Wegen ßi =1= 0 für i = 1, 2, ... , m -1 ist die tridiagonale Matrix Tm (5.147)
330 5 Behandlung der Eigenwertaufgaben

irreduzibel. Die Eigenwerte Bi der Eigenwertaufgabe

Tms i = Bis i , (i = 1,2, ... , m) (5.l48)


stellen als Ritz- Werte bestmögliche Approximationen für Eigenwerte AjVOn
C dar. Zudem sind die Ritz- Vektoren

Zi = QmSi, (i = 1,2, ... , m) (5.l49)

optimale Näherungen für die zu Aj gehörenden Eigenvektoren Yj von C


[GvL89, Par80].
Nach diesen Betrachtungen ist das klassische Lanczos- Verfahren für das
spezielle Eigenwertproblem Cy = Ay in seinem Grundprinzip vorgezeichnet.
Es besteht darin, sukzessive die Basisvektoren qk zu berechnen, wobei injedem
Schritt gleichzeitig die beiden Skalare ak und ßk resultieren, welche eine
nächste Zeile der tridiagonalen Matrix Tk definieren. Nach jedem solchen
Lanczos-Schritt werden die Ritz-Werte und Ritz-Vektoren der momenta-
nen Matrix Tk berechnet und auf Konvergenz getestet. Der Prozeß besitzt
folgende, bestechend einfache algorithmische Beschreibung, in welcher einige
Anweisungen im dynamischen Sinn zu verstehen sind, und gegenüber der
Herleitung geringfügige Notationsänderungen vorgenommen worden sind.

Start: Wahl von ro =1= 0; ßo = Ilrol12; qo = 0;


Lanczos-Schritt (k = 1,2, ... ):
1. qk=rk-J/ßk-l (N ormierung)
2. Uk = Cqk
3. rk =Uk - ßk-lqk-l (Orthog. bez. qk-l)
4. ak = qIrk (5.150)
5. rk = rk - akqk (Orthog. bez. qk)
6. ßk = II rkl12
7. Ritz-Werte Bi und Ritz-Vektoren Zi aus Tk;

Test auf Konvergenz

Ein einzelner Lanczos-Schritt erfordert neben der aufwendigsten Multiplika-


tion von qk mit der Matrix C im wesentlichen nur die Berechnung von zwei
Skalarprodukten und drei Vektoroperationen und schließlich noch die
Bestimmung der Eigenwerte Bi und der Eigenvektoren Si der tridiagonalen
Matrix Tk, deren Ordnung k im Vergleich zur Ordnung n von C im allgemeinen
sehr klein sein wird. Der zuletzt genannte Rechenaufwand ist deshalb in der
Regel von untergeordneter Bedeutung.
5.4 Das Verfahren von Lanczos 331

Die Berechnung der Eigenwerte Bi der tridiagonalen Matrix Tk kann mit Hilfe
der Bisektionsmethode (vgl. Abschn. 5.1.4) erfolgen, weil über die Lage der
Eigenwerte eine gute Information vorliegt. Denn auf Grund der Tatsache, daß
die charakteristischen Polynome fk(A) der tridiagonalen Matrizen Tk die
dreigliedrige Rekursionsformel (5.49) erfüllen, folgt unmittelbar, daß die
Eigenwerte von Tk - I diejenigen von Tk trennen. Werden die Eigenwerte von
Tk mit B?) bezeichnet und der Größe nach geordnet, gelten die Ungleichungen
Bl k) < Blk - I) < B~k) < BY- I ) < B~k) < ... < B~"21 < BY-=-II) < B~k). (5.151)

Für die Eigenwerte Bfk) sind deshalb bereits Intervalle bekannt, die genau einen
gesuchten Eigenwert enthalten, falls für die äußersten Eigenwerte noch die
Zeilenmaximumnorm von Tk herangezogen wird, die sich aus derjenigen von
Tk-I leicht rekursiv berechnen läßt.
Da die Eigenwerte von Tk optimale Approximationen von gewissen Eigen-
werten A) von C darstellen, kann die Konvergenz von Ritzwerten Bfk) gegen
konstante Werte als eine mögliche Testbedingung für den Abbruch des
Lanczos-Algorithmus verwendet werden. Die Güte der Approximation eines
Ritzpaares (Bi, Zi) wird aber in der Regel mit Hilfe des zugehörigen Residuen-
vektors Pi:= CZ i - Biz i beurteilt [Par80]. Seine euklidische Norm kann
interessanterweise ohne explizite Berechnung des Ritz-Vektors Zi bestimmt
werden. Zu diesem Zweck wird der Satz von Relationen (5.145) mit Hilfe der
Matrizen Qm und Tm unter Einbezug des Basisvektors qm + I in der folgenden
Form zusammengefaßt:
(5.152)
Die (nXm)-Matrix Fm enthält in der m-ten Kolonne den Vektor ßmqm+1
entsprechend der Rekursionsformel (5.145) für k = m, und em stellt den m-ten
m-dimensionalen Einheitsvektor dar. Deshalb gelten wegen (5.149), (5.148)
und (5.152) für m = k die Gleichungen

11 Pil12 = 11 CZi - Biz;l12


11 CQkSi - Qk Bisill2
=

= 11 CQkSi - Qk TkSil12 = II(CQk - Qk Td sil12 (5.153)


= II F ksil12 = ßkllqk+l(eIsi)112 = ßkleIs;I.
Dabei wurde benutzt, daß ßk positiv ist und qk+ I die euklidische Norm Eins
hat. Die Bedeutung der Darstellung (5.153) liegt darin, daß die Norm des
Residuenvektors Pi berechenbar ist aus ßk und der letzten Komponente des
ebenfalls als normiert vorausgesetzten Eigenvektors Si. Dieses Resultat zeigt
aber gleichzeitig, daß einige Ritz-Vektoren Zi selbst dann gute Näherungen
von Eigenvektoren darstellen können, wenn ßk nicht klein ist, jedoch die letzte
Komponente von Si betragsmäßig sehr klein ist. Im eher unwahrscheinlichen
Fall, daß ßk für ein bestimmtes k gleich Null ist, wären somit alle Ritz-
332 5 Behandlung der Eigenwertaufgaben

Vektoren Eigenvektoren von C zu den zugehörigen Ritz-Werten als Eigenwer-


ten, als Folge der Tatsache, daß dann der Krylov-Unterraum K(k) (fd invariant
ist bezüglich C.
Die praktische Bedeutung und Anwendung der berechneten Norm des
Residuenvektors Qi ist gegeben durch folgende Aussage [Par80). Sei Zi ein
normierter Vektor, in unserer konkreten Anwendung ein Ritz-Vektor, und sei
Bi der zugehörige Rayleigh-Quotient, in unserem Fall der Ritz-Wert. Weiter sei
Aj derjenige Eigenwert von C, welcher am nächsten zu Bi liegt, Yj der
entsprechende Eigenvektor und d der Abstand zum nächstgelegenen Eigen-
wert At. Dann gelten für den Winkellfl zwischen den Vektoren Zi und Yj, sowie
für den Fehler der Eigenwertnäherung die Abschätzungen
(5.154)
Ist also der approximierte Eigenwert Aj von C gut von den andern getrennt, so
entspricht eine kleine Residuennorm tatsächlich einer guten Näherung, im Fall
von eng benachbarten Eigenwerten mit sehr kleinem Wert von d hingegen
nicht.

5.4.2 Eigenschaften des Lanczos-Algorithmus

Es sollen einige Eigenschaften und darauf beruhende Modifikationen des


klassischen Lanczos-A1gorithmus (5.150) besprochen werden, die gleichzeitig
die Motivation für eine mögliche praktische Durchführung abgeben sollen.
Die bestechende Einfachheit des Algorithmus ist leider begleitet von einigen
numerischen Problemen. Als auffli.lligste Erscheinung stellt man fest, daß die
Orthogonalität der berechneten Basisvektoren qk mit zunehmender Schritt-
zahl k verloren geht und zwar so dramatisch, daß die Vektoren linear abhängig
werden und man deshalb kaum mehr von einer Basis sprechen kann. Aus
diesem Grund wurde der Lanczos-Algorithmus während etwa zwanzig Jahren
als instabil und nicht brauchbar betrachtet. Die Situation hat sich geändert, als
Paige [Pai71, Pai72, Pai76, Par80) zeigen konnte, daß die Orthogonalität der
Vektoren qk verloren gehen muß, sobald ein Ritzpaar (Bi, zD gegen ein
Eigenpaar (Aj, Yj) von C konvergiert ist. Der Lanczos-Prozeß kann dessen
ungeachtet problemlos fortgesetzt werden, sofern in Kauf genommen wird,
daß mehrfache Kopien derselben Eigenpaare produziert werden. Dieses
Verhalten des Algorithmus erfordert natürlich die Ausscheidung der Dupli-
kate von Ritz-Werten und Ritz-Vektoren und derjenigen Ritz-Werte, die keine
brauchbaren Näherungen von Eigenwerten darstellen.
Da der Krylov-Unterraum K(m)(fl) durch eine Vektorfolge /k erzeugt wird
ähnlich zur Vektoriteration, wobei die Komponenten von!l nach Eigenvekto-
ren zu den betragsgrößten Eigenwerten Aj von C verstärkt werden, ist
verständlich, daß der Algorithmus (5.150) vorwiegend die betragsgrößten
5.4 Das Verfahren von Lanczos 333

Eigenwerte und die zugehörigen Eigenvektoren liefert. Auf Grund von


theoretischen Untersuchungen sollte er Eigenwerte an beiden Enden des
Spektrums approximieren. Möchte man insbesondere die kleinsten Eigenwer-
te einer symmetrischen und positiv definiten Matrix C hoher Ordnung n mit
dem Lanczos-Verfahren (5.150) bestimmen, so zeigt die praktische Erfahrung,
daß man in der Regel eine größere Anzahl der größten Eigenwerte mit hoher
Genauigkeit erhält bis auch ein kleiner Eigenwert entsprechend genau
approximiert wird. Diese Erscheinung kann mit der Separation der Eigenwer-
te erklärt werden. Zur Bestimmung der kleinsten Eigenwerte mit zugehörigen
Eigenvektoren ist aus diesem Grund wie im Fall der Vektoriteration mit der
inversen Matrix C- 1 zu operieren, so daß für die Bildung der Krylov-Vektoren
fk = C-1/k_l, bzw. für die Konstruktion der Basisvektoren qk, eine Zerlegung
der Matrix C erforderlich sein wird.
Die Orthogonalität der berechneten Basisvektoren qk kann in naheliegender
Weise durch eine vollständige Ortho gonalisierung bezüglich aller voran-
gehender Vektoren qi numerisch erzwungen werden, um auf diese Weise der
Theorie gerecht zu werden und um zu vermeiden, daß der Algorithmus
Duplikate von Eigenpaaren erzeugt. Mit zunehmender Anzahl k von Lanczos-
Schritten wird der Rechenaufwand der vollständigen Orthogonalisierung
prohibitiv groß, selbst wenn die erforderlichen Operationen optimal vektori-
sierbar sind. Zudem sind bei großen Problemen die Basisvektoren auf
Hilfsspeicher zu übertragen, so daß noch eventuell zeitaufwendige Transfer-
operationen hinzukommen. Die Untersuchungen von Paige zeigen aber, daß
eine sogenannte selektive Orthogonalisierung genügt, welche darin
besteht, den Basisvektor qk im k-ten Lanczos-Schritt nur gegen die bereits
konvergierten Ritz-Vektoren Zi zu orthogonalisieren. Solche guten Eigenvek-
tornäherungen können einerseits auf Grund der Residuennorm (5.153)
erkannt werden und sind anderseits auch zu berechnen. Da die Anzahl der
konvergierten Ritz-Vektoren im Vergleich zu k klein ist, wird der Rechenauf-
wand der selektiven Orthogonalisierung im Vergleich zur vollständigen
Orthogonalisierung wesentlich reduziert. Die praktischen Gesichtspunkte, die
es bei der selektiven Orthogonalisierung zu berücksichtigen gilt, sind darge-
stellt in [PaS79, Par80].
Sind die genannten Maßnahmen im Lanczos-Algorithmus minutiös eingebaut
worden, so stellt man dennoch fest, daß gelegentlich Eigenwerte ausgelassen
werden. Da somit nicht gewährleistet ist, alle Eigenwerte in einem Intervall zu
erhalten, muß die Vollständigkeit des berechneten Teilspektrums nachträglich
überprüft werden. Das kann nur durch Lokalisierung der Eigenwerte vermit-
tels zusätzlicher Zerlegungen von Matrizen F = A - f.1.B mit geeigneten Werten
von f.1. erfolgen (siehe dazu Abschn. 5.3).
Schließlich ist noch darauf hinzuweisen, daß der Lanczos-Algorithmus
mehrfache Eigenwerte grundsätzlich nicht bestimmen kann, weil eine irreduzi-
334 5 Behandlung der Eigenwertaufgaben

ble, tridiagonale Matrix Tm (theoretisch) nur paarweise verschiedene Eigen-


werte haben kann. Wenn damit zu rechnen ist, daß unter den gewünschten
Eigenwerten von C einige mehrfach sind, ist der klassische Lanczos-Algo-
rithmus so zu verallgemeinern, daß eine Krylov-Folge (5.138) auf der Basis
von mehreren, simultan iterierten Vektoren gebildet wird. Die Projektion
von C liefert eine blockweise tridiagonale Matrix T, wobei die Ordnung der
einzelnen Blockmatrizen der Anzahl der gleichzeitig iterierten Vektoren
entspricht [GoUn, GvL89]. Dieses Block-Lanczos-Verfahren kann weiter
so umformuliert werden, daß es wieder sehr ähnlich zum klassischen
Algorithmus wird. Mit dieser Modifikation wird die Projektion von C eine
Bandmatrix T, deren Bandbreite gleich der Anzahl der Startvektoren ist,
und man bezeichnet diese Version als Band-Lanczos- Verfahren [Ruh79,
Par80].

5.4.3 Praktische Variante des Lanczos-Verfahrens

Wir kehren zurück zum allgemeinen Eigenwertproblem Ax = ABx und wollen


eine der wohl erfolgreichsten Varianten des Lanczos-Verfahrens darstellen.
Ihre Zielsetzung besteht darin, ganz bestimmte Gruppen von Eigenwerten und
Eigenvektoren zu berechnen. Da die Ritz-Werte besonders rasch gegen die
betragsgrößten Eigenwerte konvergieren, falls dieselben noch gut getrennt
sind, nimmt man ein inverses, spektral verschobenes Eigenwertproblem
zu Hilfe [ErR80, Eri83, Wa185]. Zu diesem Zweck wird auf die gegebene
Eigenwertaufgabe Ax = ABx zuerst eine Spektralverschiebung um j1 =1= Ak,
(k = 1,2, ... , n) angewandt, und wir erhalten so

(A - j1B)x = (A - j1)Bx. (5.155)

Die spektralverschobene, allgemeine Eigenwertaufgabe (5.155) wird so dann


mit Hilfe der Cholesky-Zerlegung von B = LL T in der üblichen Art formal auf
eine spezielle Eigenwertaufgabe zurückgeführt gemäß

Cy = L -l(A - j1B)L -Ty = (A - j1)y mit y = L T x. (5.156)

Die Zielsetzung besteht jetzt darin, die betragskleinsten Eigenwerte von C, das
sind diejenigen Eigenwerte von Ax = ABx, welche am nächsten zum Wert j1
liegen, zu bestimmen. Deshalb wird mit der Inversen von C im Lanczos-
Algorithmus gearbeitet, deren Eigenwerte p = 1/(A - j1) sind. Mit dieser
Spektraltransformation werden diejenigen Eigenwerte Ak, welche am nächsten
zuj1liegen, in betragsgroße, in der Regel auch gut getrennte Eigenwerte Pk = 1/
(Ak - j1) übergeführt, so daß eine sehr gute Konvergenz der betreffenden Ritz-
Werte und Ritz-Vektoren des Lanczos-Algorithmus zu erwarten ist.
5.4 Das Verfahren von Lanczos 335

Im Schritt 2. des Algorithmus (5.150) ist deshalb der Vektor Uk als

(5.157)

zu berechnen. Seine Berechnung erfordert somit einerseits die Cholesky-


Matrix L zur Ausführung der Multiplikation von qk mit L und der Multiplika-
tion mit L T , und anderseits die Lösung eines linearen Gleichungssystems mit
der zwar symmetrischen, im allgemeinen aber indefiniten Matrix F = A - J1.B.
Dazu kann der Zerlegungsalgorithmus mit der partiellen Pivotierung von
Abschn. 5.3.4 verwendet werden.
Die in dieser Form des Lanczos-Algorithmus erforderlichen beiden, speicher-
aufwendigen Matrixzerlegungen mit unterschiedlicher Hüllenstruktur in
Verbindung mit dem Rechenaufwand der Matrizenmultiplikationen mit L und
L T sind nicht sehr zweckmäßig. Die Cholesky-Zerlegung von B läßt sich mit
Hilfe einiger einfacher Modifikationen am Algorithmus (5.150) wieder
eliminieren. Dazu multiplizieren wir die erste, dritte und fünfte Gleichung von
(5.150) sowie (5.157), die ja als zweite Gleichung in (5.150) zu ersetzen ist, mit
L -T von links und definieren die neuen Vektoren

(5.158)

Für die Skalare ak und ßk resultieren mit (5.158) die Darstellungen

(5.159)

Schließlich folgt aus (5.157)

(5.160)

Aus (5.159) und (5.160) geht hervor, daß die Orthogonalisierungen bezüglich
qk - 1 und qk übergehen in B-Orthogonalisierungen bezüglich iik - 1 und ii.b und
die Basisvektoren ii.k sind B-orthonormiert. Weiter ist zu beachten, daß nur
eine Multiplikation der MatrixB mit einem Vektor nötig sein wird, weil der im
fünften Schritt berechnete Vektor'k in (5.150) im darauffolgenden Lanczos-
Schritt zu qk+l normiert wird. Deshalb gilt hk=Bii.k=Bh-dßk-l' so daß
keine Multiplikation von ii.k mit B nötig ist.
Mit diesen Vorbereitungen lautet der Lanczos-Algorithmus für das inverse,
spektralverschobene Eigenwertproblem wie folgt:
336 5 Behandlung der Eigenwertaufgaben

Start: Wahl von f.1 und ro; Zerlegung von F=A - f.1B;
ho=Bro; ßo=(hJrO)I/2 (= IlroIIB); qo=O.
Lanczos-Schritt (k = 1, 2, ... ):
1. qk = rk - 11ßk - I (Normierung)
hk =hk-1Ißk-1 (=Bqd
2. (A -f.1B)Uk=h k (~Uk)

3. rk=uk-ßk-Iqk-I (B-Orthog. bez. qk-I) (5.161)


4. ak = rkh k (= rkBqk)
5. h = h - akqk (B-Orthog. bez. qk)
5a. vollständige/selektive B-Orthogona1isierung von rk
6. hk = Brk; ßk = (rkhd/ 2 (= IIrklIB)
7. Ritzwerte BI, B2 , ••• , Bk aus Tk;
ev. Eigenvektoren von Tk und Ritz-Vektoren;
Test auf Konvergenz

Der wesentliche Rechenaufwand eines Lanczos-Schrittes von (5.161) setzt sich


ohne Nachorthogonalisierungen im Schritt 5a zusammen aus der Lösung des
linearen Gleichungssystems im Schritt 2 unter Ausnützung der erweiterten
Hülle von F = A - f.1B, einer Multiplikation von rk mit B, wobei die schwache
Besetzung vonB berücksichtigt werden kann, sowie aus zwei Skalarprodukten
und vier skalaren Vektoroperationen. Im Fall einer Nachorthogonalisierung
im Schritt 5 a ist eine weitere Multiplikation mit B nötig, sowie eine Reihe von
Skalarprodukten und Triaden. Es ist zweckmäßig, die Matrizen A und B in
kompakter, zeilenweiser Anordnung der unteren Hälfte zu speichern, um
daraus zu gegebenem f.1 die Matrix F = A - f.1B in der erweiterten Hülle
aufzubauen.
Der praktische Einsatz des Algorithmus (5.161) kann nach verschiedenen
Strategien erfolgen. So wird in [ErR80, Eri83] vorgeschlagen, zu gewähltem
Wert f.1 möglichst viele Lanczos-Schritte auszuführen unter Einschluß der
vollständigen oder selektiven Orthogonalisierung, um auf diese Weise von der
rechenaufwendigen Zerlegung von F = A - f.1B möglichst lange Gebrauch zu
machen und um auch möglichst zahlreiche Eigenwerte Ak in der Umgebung
von f.1 zu bestimmen. Anschließend wird mit einem andern Wert von f.1 der
Lanczos-Prozeß wiederholt, bis alle gewünschten Eigenpaare berechnet sind.
Um nach Möglichkeit zu verhindern, daß nochmals die bereits berechneten
Eigenwerte bestimmt werden, ist der Startvektor ro B-orthogonal zu den
bekannten Eigenvektoren zu wählen. Auch mit einer solchen Wahl ist nicht
5.4 Das Verfahren von Lanczos 337

völlig auszuschließen, daß bereits bekannte Eigenwerte nochmals produziert


werden, weil ja nur Näherungen der Eigenvektoren vorliegen und somit '0
nicht B-orthogonal zu den exakten Eigenvektoren ist. Es ist also ein
entsprechender Test notwendig, doch anderseits können auf diese Weise
auch mehrfache Eigenwerte berechnet werden, die in diesem Fall sukzessive
in aufeinanderfolgenden Läufen erscheinen und so auch erkannt werden
können, daß die Eigenvektoren verschieden und B-orthonormierbar sind.
Zudem lierfert jede Zerlegung von F = A - f1.B die Information über die
Anzahl der Eigenwerte Ab welche kleiner als f1. sind, so daß die Vollständig-
keit des berechneten Teilspektrums zumindest für diese Eigenwerte leicht
überprüfbar ist. Die problemgerechte Wahl der einzelnen Spektralverschie-
bungen f1. ist entscheidend für den Erfolg des auf diese Weise durchgeführ-
ten Lanczos-Algorithmus. In [ErR80, Eri83] wird etwa der nächste Wert f1.
nach einem bestimmten Gesetz auf Grund der bereits berechneten Eigen-
werte unter der Annahme einer gleichmäßigen Eigenwertverteilung be-
stimmt. Eine solche Wahl von f1. braucht natürlich nicht in jeder Situation
angepaßt zu sein.
Eine andere Strategie besteht darin, mit Hilfe von einigen wenigen Zerlegun-
gen von F=A-f1.B eine grobe Übersicht über die Lage und Verteilung der
gewünschten Eigenwerte zu erhalten oder sogar Intervalle zu bestimmen, in
denen nur eine beschränkte Zahl von Eigenwerten liegen [WaI85]. Damit wird
einerseits die Grundlage für eine Vollständigkeitsprüfung der nachfolgend
berechneten Eigenwerte gegeben, und anderseits stehen mit den Mittelpunkten
der so ermittelten Intervalle sehr geeignete Spektralverschiebungen zur
Verfügung. Befinden sich zudem in einem Intervall nur relativ wenige
Eigenwerte, z. B. vier bis sechs, so sind zur gezielten Berechnung dieser
speziellen Eigenwerte nur kurze Lanczos-Läufe mit typischerweise acht bis
zwanzig Schritten erforderlich, weil die betreffenden Eigenwerte des inversen,
spektralverschobenen Eigenwertproblems betragsmäßig groß und gut ge-
trennt sind. Aus diesem Grund ist die vollständige Orthogonalisierung
attraktiv, und die Implementierung des Lanczos-Verfahrens vereinfacht sich
stark. Infolge der raschen Konvergenz der betragsgrößten Ritz-Werte braucht
in diesem Fall nur die Konvergenz der interessierenden Werte überprüft zu
werden als Konvergenzkriterium. Die zugehörigen Eigenvektoren der tridia-
gonalen Matrix Tk sind erst jetzt zu berechnen, um einerseits die Fehlerab-
schätzungen (5.154) anzuwenden, und um anderseits die Ritz-Vektoren als
Approximationen der Eigenvektoren zu erhalten. Es ist klar, daß die zweite
Variante des Lanczos-Verfahrens eine höhere Rechenzeit im Vergleich zur
ersten erfordert als Folge der zusätzlichen und ins Gewicht fallenden
Zerlegung von Matrizen F= A- f1.B für mehrere Werte f1. und der Tatsache,
daß die für den Lanczos-Prozeß verwendete Zerlegung nur für die Bestim-
mung von wenigen Eigenpaaren eingesetzt wird.
338 5 Behandlung der Eigenwertaufgaben

Abschließend kann gesagt werden, daß das Lanczos-Verfahren in einer guten,


zuverlässig arbeitenden Implementierung ohne Zweifel die effizienteste Me-
thode darstellt, die Eigenwertaufgabe zu behandeln, besonders dann, wenn die
Anzahl der gewünschten Eigenpaare relativ groß ist. Diese Überlegenheit
kann damit begründet werden, daß die Information, welche in der Krylov-
Folge (5.138) enthalten ist, in optimaler Weise dazu ausgenützt wird,
Eigenwerte und Eigenvektoren bestmöglich zu approximieren. Dies trifft für
die simultane Vektoriteration nicht zu, weil in diesem Prozeß nur ein Satz von
Näherungsvektoren durch einen andern ersetzt wird und die Vorgeschichte
unberücksichtigt bleibt, wodurch Information verloren geht.

5.5 Rayleigh-Quotient-Minimierung

Die bisher betrachteten Verfahren zur Berechnung von Eigenwerten und


Eigenvektoren für sehr große Matrizenpaare A, B erfordern Zerlegungen von
entsprechend großen Matrizen. Das kann insbesondere für dreidimensionale
Probleme zu sehr großen Profilen der Matrizen führen und einen derart hohen
Speicher- und Rechenaufwand zur Folge haben, daß die Durchführung auf
einer gegebenen Rechenanlage unmöglich sein kann. Die im folgenden
beschriebene Methode erlaubt, die schwache Besetzung der Matrizen A und B
in dem Sinn voll auszunützen, daß sie mit den gegebenen Matrizen in
unveränderter Form arbeitet. Dadurch wird der Speicherbedarf stark redu-
ziert. Mit dem Verfahren können allerdings nur die kleinsten Eigenwerte mit
den zugehörigen Eigenvektoren bestimmt werden. Der grundlegende Algo-
rithmus basiert auf der Minimierung des Rayleighschen Quotienten mit Hilfe
der Methode der konjugierten Gradienten. Wegen der Verwandtschaft mit der
entsprechenden iterativen Methode zur Lösung von linearen Gleichungssyste-
men bringt eine analoge Vorkonditionierung der Eigenwertaufgabe eine
wesentliche Konvergenzverbesserung.

5.5.1 Der Grundalgorithmus

Der kleinste Eigenwert Al von Ax = ABx mit symmetrischen Matrizen A und B


und positiv definiter Matrix B ist gleich dem Minimum des Rayleighschen
Quotienten
1 . R[] . xTAx
11.1 = mIn x = mIn - T - - ' (5.162)
x#O x#O X Bx

Der Vektor x, für den das Minimum angenommen wird, ist ein Eigenvektor Xl
aus dem Eigenraum zu Al. Das Ziel der Methode besteht darin, das Minimum
von R [x] iterativ zu bestimmen. Dazu soll ein Iterationsvektor x Ck ) in Richtung
5.5 Rayleigh-Quotient-Minimierung 339

eines geeigneten Vektors Pk+ 1 so geändert werden, daß der Rayleighsche


Quotient bezüglich dieser Richtung minimiert wird. In Verallgemeinerung der
Methode der konjugierten Gradienten zur Minimierung eines quadrati-
schen Funktionals auf allgemeinere, nichtlineare Funktionale [BrF66,
HeK5l] wird die Suchrichtung PH 1 analog mit Hilfe des Gradienten des
Rayleighschen Quotienten festgelegt, der gegeben ist durch
g = g(x) = grad R[x] = 2 {Ax - R[x]Bx}j(x T Bx). (5.163)
Bezeichnen wir mit gk = g(x(k)) den Gradienten von R[x] für den Vektor x(k),
so lautet die Definition von Pk + 1
T
Pl=-gO; PH1=-gk+ /kgk Pb (k=1,2, ... ). (5.164)
gk-lgk-l
Der Iterationsvektor x(k + 1) wird mit dem Ansatz

(5.165)

aus der Bedingung (mit bk + 1 = 15)

R[x(Hl)] = min (X(k) + bPH1)TA(x(k) + bpHl)


b (x(k l + bpk+I)TB(x(kl + bpk+l)
x(klTAx(kl + 2bpl+IAx(k) + b 2pl+IApHl
= mln
x(klTBx(kl + 2bpl+IBx(k) + b2pl+1BpHI

= min a + 2ßb + Y~~ = min 1(15) (5.166)


b p + 20'15 + ro- b

bestimmt mit den folgenden Hilfsgrößen


a = X(klTAx(k l , ß = pl+IAx(k l , Y = pl+ IApk+ I,
(5.167)
P=X(k)TBX(k l , a=pl+IBx(k l , r=pl+IBpk->-l.

Die erste Ableitung von/(b) ist


f'(b) = 2[(ßp - aa) - (ar - yp)b + (ya - ßr)b 2J.
(5.168)
(p + 20'6 + rb 2)2
Wegen der Minimumbedingung für 15 muß 15 eine Nullstelle der quadratischen
Funktion des Zählers von (5.168) sein. Da zwei reelle Lösungen der
quadratischen Gleichung existieren, muß die Diskriminante
1:::,. = (ar - yp)2 - 4(ya - ßr)(ßp - aa) >0 (5.169)

sein. Diejenige Lösung der quadratischen Gleichung, welche das Minimum


340 5 Behandlung der Eigenwertaufgaben

mit!"(J) > 0 liefert, ist gegeben durch


[ar - yp + VZ]/[2(ya - ßr)], falls ar - yp ~ 0
6k+1 = { (5.170)
2(ßp - aa)/[ar - yp - VZ], falls ar - yp <0
Damit sind bereits alle Elemente des Algorithmus zur Minimierung des
Rayleighschen Quotienten vermittels der Methode der konjugierten Gradien-
ten bereitgestellt. Zur einfachen algorithmischen Beschreibung führen wir
noch die Vektoren Vk = Ax(k) und Vk = Bx(k) ein, welche im folgenden rekursiv
gemäß vk+ 1 = Ax(k+ 1) = Ax(k) + 6k+ 1(Apk+ 1) berechnet werden mit den zu-
sätzlichen Vektoren Wk = APk und Wk = Bpk. Mit diesen Bemerkungen lautet
der Prozeß zusammengefaßt wie folgt:

Start: Wahl vonx(O)#O;


Vo = Ax(O), Vo = Bx(O); ao = X(O)T Vo, Po = X(O)T vo;
qo = aol Po (= Rayleighscher Quotient zu x(O))
Iteration (k= 1,2, ... ):
gk-1 =(Vk-1-qk-1 Vk-d(2IPk-d
falls k = 1: Pk = -gk-1
_ T
ek-1-gk-1gk-1 I gk-2gk-2
T
falls k> 1: {
Pk=-gk-1 +ek-1Pk-1 (5.171)
Wk = APk, Wk = BPk;
ß=x(k-1)T wk , y=plwk, a=x(k-1)T Wk, r=plwk;
berechne 6k aus (5.169) und (5.170);
x(k) = x(k - 1) + 6kPk,
Vk=Vk-1 +6kWk, Vk=Vk-1 +6kWk;
ak =x(k)T Vk, Pk =x(k)T Vk; qk = akl Pk;
Test auf Konvergenz

Ein allgemeiner Iterationsschritt erfordert als wesentlichen Rechenaufwand


die zwei Matrix-Vektor-Multiplikationen APk und Bpk, sieben Skalarprodukte
und sechs Multiplikationen eines Vektors mit einem Skalar, bzw. Triaden.

5.5.2 Vorkonditionierung des Minimierungsalgorithmus

Die Konvergenz der Vektorfolge X(k) des Algorithmus (5.171) gegen die
Richtung des Eigenvektors Xl des kleinsten Eigenwertes Al ist für größere
Matrizenpaare oft derart schlecht, daß der Algorithmus infolge der hohen
5.5 Rayleigh-Quotient-Minimierung 341

Zahl von Iterationsschritten zu rechenaufwendig ist. Ruhe [Ruh77] hat


gezeigt, daß die Konvergenz im wesentlichen von der Konditionszahl der
Hesseschen Matrix H(x) des Rayleighschen Quotienten R[x]
2
H(x) = - T - {A - R[x]B - g(x)(Bx) T - (Bx)g(x) T},
x Bx
ausgewertet für den Eigenvektor XI, bestimmt wird. Der Eigenvektor XI darf
als B-normiert vorausgesetzt werden, und weil der Gradient g(xI) = 0 ist,
erhalten wir für die maßgebende Hessesche Matrix

(5.172)

Die Eigenvektoren xi von Ax = ABx erfüllen die Relationen

(5.173)

Für die Matrix H I = H(xI) ist nun eine geeignete Matrixnorm zu definieren.
Dazu betrachten wir die beiden Vektornormen

(5.174)

und die ihnen zugeordnete Matrixnorm [GvL89, Scw88]

IIHlxlls-l
IIHIIIB,B-l := sup = max IIHlxlls-l
.<7'0 IlxilB IlxlIB= I

= max (xTHIB-IHIXI)I/2=2(An-AI)' (5.175)


IIxIlB= 1

Die letzte Gleichheit ergibt sich so, daß man den B-normierten Vektor X als
Linearkombination der Eigenvektoren xi darstellt, dann für Hlx (5.173)
anwendet, die B-Orthonormiertheit der xi verwendet und im resultierenden
Ausdruck erkennt, daß das Maximum für X = X n angenommen wird.
Da die Matrix H I singulär ist, weil ein Eigenwert in (5.173) gleich Null ist, die
übrigen Eigenwerte jedoch strikt positiv sind, muß die übliche Definition der
Kondition modifiziert werden [Ruh77]. Dazu wird das Minimum von
IIH1xlls-l für alle B-normierten Vektoren x, welche aber B-orthogonal zum
Eigenraum zu AI sind, herangezogen, und es gilt, unter der Annahme AI sei
einfach,
min IIHlxlls-1 = 2(A2 - AJ).
!lxiIB= 1
xTBxl=O

Die Konditionszahl von H I wird damit erklärt durch

(5.176)
342 5 Behandlung der Eigenwertaufgaben

Sie wird also bestimmt durch das Verhältnis der Länge des Spektrums An - Al
und des Abstandes des zweitkleinsten zum kleinsten Eigenwert. Die Kondi-
tionszahl ist bei größeren Problemen naturgemäß oft sehr groß, so daß eine
sehr langsame Konvergenz der Vektorfolge x ek ) gegen den Eigenvektor Xl zu
erwarten ist. Wir übernehmen aus [AxB84] die Abschätzung (4.115) der
Anzahllterationsschritte zur Lösung eines Systems von linearen Gleichungen
mit der Methode der konjugierten Gradienten als Richtlinie zur Schätzung der
erforderlichen Iterationsschritte des Algorithmus (5.171), um eine relative
Genauigkeit e für den Eigenvektor Xl zu erreichen, nämlich

J.1s ~~ .jXB,B-l (H l ) In ( ~ ). (5.177)

Für große Konditionszahlen liefert (5.177) offensichtlich recht prohibitiv


große Schätzwerte, die sich im allgemeinen zwar als zu pessimistisch erweisen.
Um zumindest den Schätzwert für die Zahl der notwendigen Iterationsschritte
zu reduzieren, muß die Konditionszahl der Hesseschen Matrix drastisch
gesenkt werden. Das kann in der Tat mit einer geeigneten Vorkonditionie-
rung der Eigenwertaufgabe erzielt werden in weitgehender Analogie zu den
linearen Gleichungssystemen. Dazu setzen wir
y = C T X oder X = C- TY (5.178)
mit einer zunächst beliebigen, aber regulären Matrix C. Mit dieser Substitu-
tion wird der Rayleighsche Quotient transformiert in
R X = yTC-lAC-Ty = yTXy =R
[] yTC-lBC-Ty yT By [y] (5.179)

mit den zu A und B kongruenten Matrizen


X = C-lAC- T , B = C-lBC-T , (5.180)
die wie A und B symmetrisch und positiv definit sind. Das gegebene
Eigenwertproblem geht dadurch über in Xy = ABy, dessen Eigenvektoren
yj= C T Xj, ()= 1,2, ... , n) zu denselben Eigenwerten Aj sind. Die Hessesche
Matrix von R[y], ausgewertet für den Eigenvektor Yl zum kleinsten Eigenwert
Al ist wegen (5.172)
B(y]) = 2(X - AlB) = 2C- l (A - AlB)C- T = C-lH(Xl)C- T (5.181)
und ist folglich kongruent zur Hesseschen Matrix H(Xl)' Überdies ist sie
ähnlich zur Matrix
(5.182)
Die hier erscheinende Matrix M : = C C T, die selbst symmetrisch und positiv
definit ist, heißt Vorkonditionierungsmatrix. Ein Hinweis für ihre
5.5 Rayleigh-Quotient-Minimierung 343

zweckmäßige Wahl liefert der


Satz 5.2 Falls M = A gilt, so besteht zwischen den Konditionszahlen von
B(Yl) = BI und H(Xl) = H l die Beziehung
(5.183)

Beweis Aus der Voraussetzung über Mfolgt aus (5.182) für


K = 2A- l (A - AlB) = 2(1 - A1A-1B),
und folglich gilt für die Eigenvektoren Xj von Ax = ABx

KXj = 2(1 - AIA -IB)xj = 2 ( 1 - ~~ ) Xj, (j = 1,2, ... , n). (5.184)

Wegen der Ähnlichkeit der Matrizen K und BI sind deshalb die Eigenwerte der
Matrix O,5Bl , in aufsteigender Reihenfolge angeordnet,

0=1 - ~ < 1 - ~ <; I- ~ <; ... <; 1- ~ < 1. (5.185)


Al A2 A3 An
Da (5.184) eine spezielle Eigenwertaufgabe darstellt, die Xj aber B-orthonor-
miert sind, gilt für die Konditionszahl von BI in der Notation (5.176)
- 1 - AI/An A2 An - Al A2
Xs s(Hl ) = = -' = - Xs s-l(Hl ). 0
. I-A1IA2 An A2-Al An .
Abgesehen davon, daß in (5.183) verschiedene Normen auftreten, wird mit
jeder Vorkonditionierungsmatrix M = A die Konditionszahl wesentlich ver-
kleinert, falls A2 ~ An gilt. Dies ist aber geradezu typisch für Eigenwertpro-
bleme aus praktischen Anwendungen. Zu erwähnen ist auch, daß wegen
(5.185) die Eigenwerte von BI immer dann keine spezielle Verteilung
aufweisen, wenn dies nicht für die Eigenwerte Aj der gegebenen Eigenwertauf-
gabe zutrifft. Deshalb ist für das Konvergenzverhalten im allgemeinen die
Konditionszahl von BI tatsächlich die ausschlaggebende Größe.
Nach Satz 5.2 wäre jede Vorkonditionierungsmatrix M = CC T = A hervorra-
gend geeignet, das Konvergenzverhalten des Rayleigh-Quotient-Minimie-
rungsalgorithmus entscheidend zu verbessern. Folglich wäre es naheliegend,
die Cholesky-Zerlegung von A = CC T , wo jetzt C eine Linksdreiecksmatrix
darstellt, zu verwenden. Diese Zerlegung läuft aber unserer Zielsetzung
zuwider, die schwache Besetzung der gegebenen Matrizen konsequent auszu-
nützen, und die genannte Zerlegung ist insbesondere zu vermeiden. Deshalb
müssen wir mit einer nicht optimalen Vorkonditionierungsmatrix M arbeiten,
die natürlich die Matrix A einerseits möglichst gut approximiert, aber
anderseits auf die schwache Besetzung Rücksicht nimmt. So kommen alle
344 5 Behandlung der Eigenwertaufgaben

Vorkonditionierungen in Frage, welche im Zusammenhang mit der Methode


der konjugierten Gradienten in Abschn. 4.6.3 dargestellt sind. Im folgenden
wird angenommen, C sei eine Linksdreiecksmatrix mit der gleichen Beset-
zungsstruktur wie die untere Hälfte von A.

5.5.3 Neuformulierung des Algorithmus

Es ist nicht zweckmäßig, die Vorkonditionierung so zu implementieren, daß


im Algorithmus (5.171) einfachA undB durchÄ undB und noch X(k) durch/ k )
ersetzt werden. Es ist viel vorteilhafter, die Vorkonditionierung in impliziter
Form durchzuführen, in weitgehender Analogie zum Vorgehen im Fall von
linearen Gleichungssystemen. Zu diesem Zweck wird der Algorithmus (5.171)
in den Größen Ä, Bund y formuliert, und dann werden die einzelnen
Anweisungen und Formeln mit Hilfe von geeigneten Beziehungen und von
neuen Größen bearbeitet. Im Startschritt erhalten wir so
Vo = Äy(O) = C~lAC~T C T x(O) = C~l(Ax(O») = C~lvO;
fi o = By(O) = C-1BC- T C Tx(O) = C-l(Bx(O») = C-lvo;
&0 = y(O)T Vo = X(O)T CC- l Vo = X(O)T Vo =: ao;

Po = /O)T fio = X(O)T CC-lvO = x(O)Tvo =: Po.

Wenn wir diese Beziehungen verallgemeinern zu Vk = Ä/k) = C- l Vk und


fi k = B / k ) = C- l Vk erhalten wir für den Gradienten
gk-l = (Vk-l - fi
Qk-l k-l)(2/Pk-l)
(5.186)
= C-l(Vk_l - Qk~lVk-l)(2/Pk-l) =: C-lgk_l,

wo der hier definierte Vektor gk-l den Gradienten zum Iterationsvektor


x(k~ 1) des vorkonditionierten Algorithmus bedeutet und im allgemeinen
verschieden zu gk-l des Algorithmus (5.171) sein wird.
Um die Darstellung des Zählers (und des Nenners) von h-l zu vereinfachen,
definieren wir den Vektor hk auf Grund der Relation

(5.187)

Damit wird der Zähler von ek-l mit (5.186) zu


~T -
gk-lgk-l
T C-TC-l gk-l = gk-l
= gk-l T hk-l·
T (CCT)-l gk-l = gk-l

Als nächstes multiplizieren wir die Formel für die Abstiegsrichtung h von
links mit C-T und erhalten
C -T~ -
Pk--
C~T~
gk~l
+~
ek-l
C- TPk-l
- =-
(CCT)-l gk-l +~ek-l (C~T~ )
Pk-l·
5.5 Rayleigh-Quotient-Minirnierung 345

Dies stellt eine Rekursionsformel für die Vektoren


Sk:= C-Th

dar in der Form sk=-h k - 1+lk-1Sk-l. Weiter sollen Vektoren Wk und Wk


definiert werden gemäß
Wk = Ah = C-1AC-Th = C-1(Ask) =: C-1Wb Wk:= ASk;
J',k =Bh = C-1BC-Th = C-1(Bs k ) =: C-1Wk, Wk:= Bsk.

Mit diesen Definitionen werden die Multiplikationen von Pk mit A und B


ersetzt werden durch solche von Sk. Die Skalare ßund Si erhalten mit den neuen
Größen die Darstellungen
ß- -_ Y
(k-l)T - _
Wk - X
(k-l)TCC-l _
Wk - X
(k-l)T .
Wb

Si = ftIWk = sI CC-1Wk = SIWk'


Für die beiden andern Konstanten (J und r ergeben sich analoge Skalarproduk-
te. Die verbleibenden Formeln für die rekursive Berechnung vonyCk), Vk und f)k
können in offensichtlicher Weise ersetzt werden. Damit lautet der Algorith-
mus zur Minimierung des Rayleighschen Quotienten mit der vorkonditionier-
ten Methode der konjugierten Gradienten (RQPCG) zusammengefaßt in
(5.188) folgendermaßen.

Vorgabe der Vorkonditionierungsmatrix M


Start: Wahl von x(O) =1= 0; So = 0, (a = 1;
vo=Ax(O), vo=Bx(O); ao=x(W vo , PO=X(O)T VO ;
qo = aol Po (= Rayleighscher Quotient zu x(O»)
Iteration (k= 1, 2, 3, ... ):
gk-l =(Vk-l -qk-1 Vk-l)(2IPk-l)
Mh k - 1= gk-l (Vorkonditionierungsschritt) (5.l88)
(=gl-lh k- 1; ck-l=(j(a;
sk=-hk- 1+ck-1Sk-l;
Wk = Ask , Wk = Bs k;
ß=x(k-l)TWk, y=SIWb (J=x(k-1 TWb r=sIwk;
Berechnung von Jk aus (5.169) und (5.170)
X(k) = x(k - 1) + JkS k ,
Vk=Vk-l + JkWb Vk=Vk-l + JkWk,
ak = x(k)T vb Pk = x(k)T Vk; qk = ad Pk; (a = (;
Test auf Konvergenz
346 5 Behandlung der Eigenwertaufgaben

Zur Vermeidung von Fallunterscheidungen für k = 1 sind bei der Formulie-


rung des RQPCG-Algorithmus der Vektor So sowie die Größe (a definiert
worden.
Ein Iterationsschritt des Algorithmus (5.188) erfordert die Lösung des linearen
Gleichungssystems Mh k - I = gk-I nach hk-I, die Multiplikation des Vektors
Sk mit den Matrizen A und B, sieben Skalarprodukte und sechs Multiplikatio-
nen eines Vektors mit einem Skalar. Falls die Auflösung des Gleichungs-
systems Mh k - I = gk - I den gleichen Rechenaufwand wie die Multiplikation
eines Vektors mit A benötigt, was im Fall, daß die Matrix C in M= CC T die
gleiche Besetzung wie die untere Hälfte von A aufweist, zutrifft, so erhöht die
Vorkonditionierung den Rechenaufwand im Vergleich zum Grundalgorith-
mus (5.171) um etwa 50 Prozent. Die erzielte Konvergenzverbesserung
rechtfertigt aber den Mehraufwand bei weitem.
Als Abbruchkriterium kann auf Konvergenz der Rayleighschen Quotienten qk
getestet werden. Es wäre naheliegend, eine Norm des Residuenvektors
~k = Ax(kl - R[x(kl]Bx(k l durch Verallgemeinerung der Fehlerabschätzung
(5.154) auf die allgemeine Eigenwertaufgabe als Testgröße zu verwenden, da
dieser Vektor im wesentlichen mit gk verfügbar ist. Mit der formalen
Zurückführung von Ax = ABx auf Cy = AY mit C = L -I AL - T, B = LL T,
Y =L T x gilt für die euklidische Vektornorm des entsprechenden Residuenvek-
tors 1Jk:= C/kl - R[/kl]/k l für den als normiert vorausgesetzten Vektor
y(k l = L Tx(kl jedoch

R[/kl]/kl I1 1
II1Jk111 = 11 C/kl -
= IIL-IAL-TLTx(k l -R[x(kl]LTx(klI11 (5.189)
= IIL -I (Ax(k l - R[X(kl]Bx(k l ) 11 ~ = IIL -I ~kll ~ = II~kI11-I.
Wegen 11 ~kI11-1 = ~IB-I ~k mit der Notwendigkeit, B- I ~k zu berechnen, stellt
dies im allgemeinen wohl keinen praktikablen Weg dar, es sei denn B sei im
speziellen eine Diagonalmatrix. Die Formel (5.189) wird sich im folgenden
Abschnitt in einem andern Zusammenhang als nützlich erweisen.

5.5.4 Höhere Eigenwerte und Vorkonditionierung

Der vorkonditionierte Algorithmus (5.188) berechnet den kleinsten Eigenwert


AI mit dem zugehörigen Eigenvektor XI. Um auf analoge Weise die weiteren
Eigenpaare von Ax = ABx bestimmen zu können, wird eine Deflation ange-
wandt, die auf einer partiellen Spektralverschiebung beruht.
Wir wollen annehmen, es seien die (I-I) kleinsten Eigenwerte
AI<; A2 <; ... <; AI_ I und die B-normierten Eigenvektoren XI, X2, ... , XI_ I
näherungsweise bekannt. Das folgende Eigenpaar (AI, XI) kann dann als
Minimum des Rayleighschen Quotienten zum Matrizenpaar (AI, B) bestimmt
5.5 Rayleigh-Quotient-Minimierung 347

werden mit
1-)
AI := A + I O"v(Bxv)(Bx v) r, (5.190)
v=)

wo O"v > 0 Verschiebungen darstellen mit der Eigenschaft, daß Av + o"v > AI,
(v = 1, 2, ... , 1-1) gelten. Die letzte Forderung wird sofort klar aus der
Tatsache, daß für die Eigenwerte und Eigenvektoren von Alx = ABx unter
Beachtung der B-Orthonormiertheit der Xj gilt
1-)
Alxj = AXJ + I O"v(Bxv)(Bxv) T Xj
v=)

(j = 1,2, ... ,1- 1) (5.191)


(j=I,I+I, ... ,n)

Die bekannten Eigenwerte A), A2, ... , AI_) werden unter der oben gemachten
Bedingung so verschoben, daß im Spektrum von Alx = ABx der Eigenwert AI
am kleinsten ist, so daß in der Tat (AI, XI) vermittels des Algorithmus (5.188)
berechenbar ist, wobei A durch AI(5.190) zu ersetzen ist. Die jetzt erforderliche
Multiplikation eines Vektors x mit AI wird so ausgeführt, daß zum Vektor Ax,
der unter Ausnützung der schwachen Besetzung berechnet wird, skalare
Vielfache von (Bx v ) addiert werden, wobei die Skalare im wesentlichen
gegeben sind durch die Skalarprodukte (Bx v) T x. Für dieses Vorgehen ist es
zweckmäßig, die Hilfsvektoren (Bx,), (v = 1, 2, ... ,1- 1) zu speichern, so daß
der Rechenaufwand pro Iterationsschritt erhöht wird um je (1- 1) Skalarpro-
dukte und Triaden.
Der Deflationsprozeß auf Grund einer partiellen Spektralverschiebung ist
numerisch stabil, auch wenn anstelle der exakten Eigenvektoren Xv in (5.190)
nur berechnete Näherungen x:
Verwendung finden können. Wir wollen den
Einfluß auf die höheren Eigenwerte und Eigenvektoren anhand des typischen
ersten Deflationsschrittes untersuchen. Der erste Eigenvektor xt sei mit einer
relativen Genauigkeit e berechnet worden. Der Fehlervektor kann als B-
orthogonal zu X) angenommen werden, so daß eine Darstellung für xt der
Form
n n
xt = C)x) +e I Ci Xi mit 11 I cixillB = 1 (5.192)
i=2 i=2

gilt. Der Vektor xt seiB-normiert, so daß für die Entwicklungskoeffizienten Ci


folgt
n
cr + e2 I d = cr + e2 = 1, oder cf = 1 - e 2• (5.193)
i=2
348 5 Behandlung der Eigenwertaufgaben

Ohne Einschränkung dürfen wir Cl > 0 annehmen. Die zu xt gehörige Matrix


A 2* ist deshalb gegeben durch
A 2* = A + 0'1 (Bxt)(Bxt) T

= A + 0'1 [ C1Bx1 + 10 .I
1=2
CiBXil [C1BX1 + cI J=2
CjBXjlT

r
=A + 0'1 Cr(BX1)(Bx 1) T

r
+ 100'1 Cl {(BX 1) [jt2 Cj(BXj) +[ i t Ci (BXi)
2
}BXd T}

+ 10 20'1 [ it2 Ci (BXi) 1[j~ Cj(BXj)


Verwendet man (5.193) und die daraus folgende Beziehung Cl ~ 1 -.l 8 2, so
ergibt sich für Ai nach entsprechender Zusammenfassung 2
n
A 2* = A 2 + W1 L Cj{(BX1)(BXj) T + (BXj)(Bx 1) T}
j=2 (5.194)

+ C20'1 {- (BX 1)(Bx 1) T+ i~ jt2 cicABxi)(Bxj) T} + 0(c 3).

Um die Abweichungen der Eigenvektoren xt und der Eigenwerte At, (k ~ 2)


der Eigenwertaufgabe Ai x = ABx von Xk und Ak abzuschätzen, kann (5.154) in
Verbindung mit (5.189) verwendet werden, indem dort Xk mit dem zugehörigen
Rayleighschen Quotienten eingesetzt werden. Als Vorbereitung ergibt sich aus
(5.194)
n
A2* Xk = A2Xk + CO'l Ck(Bx1) + 8 20'1 Ck L Ci (BXi) , (k ~ 2),

und somit für die Rayleighschen Quotienten


* xkAi Xk
R [Xk] = T =
T
XkA2Xk + c 2 O'lCk2 = Ak + c2 O'lCk·2
XkBXk
Folglich sind die zugehörigen Residuenvektoren

!!k = A2* Xk - R* [Xk]Bxk = CO'l Ck(Bx1) + 0(8 2), (k ~ 2),

und die Normen (5.189)

II!!kllr l = IICO'lCk(Bx1) + 0(e2)llrl = CO'klckl + 0(8 2).


5.5 Rayleigh-Quotient-Minimierung 349

Somit ergibt die Fehlerabschätzung (5.154) für die Winkel 'IIk = 1:: (xt, Xk) und
die Eigenwerte At

(5.195)

mit dk := min IAk - Ad. Der Fehler in xt, verursacht durch den fehlerbe-
i*k
hafteten Vektor xt ist also von derselben Größenordnung e, falls der Abstand
dk zwischen Ak und dem nächstgelegenen Eigenwert nicht allzu klein ist, und
der Eigenwert At unterscheidet sich von Ak um einen Wert von der Größenord-
nung e2• Die Schranken in (5.195) hängen einerseits von Ck, d. h. der Größe der
Komponente des Fehlers nach Xk ab, und anderseits auch von 0"1. Der Betrag
von Ck ist durch Eins beschränkt, und 0"1 ist bei geeigneter Skalierung der
Matrizen A und B (Diagonalelemente von A gleich Eins und Diagonalelemente
von B kleiner gleich Eins) ebenfalls kleiner als Eins wählbar. Diese Tatsachen
wirken sich günstig auf die Schranken (5.195) aus. Eine feinere Fehleranalyse
mit Hilfe einer aufwendigeren Störungsrechnung liefert das interessante,
theoretische Ergebnis, daß die resultierende Eigenvektornäherung xi in erster
Ordnung von e nur eine Fehlerkomponente in Richtung von XI haben kann.
Fehlerkomponenten bezüglich der anderen Eigenvektoren werden natürlich
durch den Prozeß verursacht.
Falls die gewählte Vorkonditionierungsmatrix M unverändert zur Minimie-
rung des Rayleighschen Quotienten zum Matrizenpaar (AI, B) verwendet wird,
so geht der Vorkonditionierungseffekt mit wachsendem Iverloren. Ferner sind
die Verschiebungen O"y einerseits so zu wählen, daß sogar Av + o"v > AI+ I gilt für
v = 1, 2, ... , 1-1, doch verringern anderseits zu groß gewählte Spektralver-
schiebungen den Vorkonditionierungseffekt stark, da die Matrix M in diesem
Fall offensichtlich keine problemgerechte Approximation von AI mehr
darstellen kann. Deshalb ist eine zu AI angepaßte Vorkonditionierungsmatrix
MI zu verwenden, welche den Deflationsschritten Rechnung trägt. Da AI
gemäß (5.190) durch eine Folge von Rang-Eins-Modifikationen entsteht,
ist es naheliegend, die Vorkonditionierungsmatrix MI wie folgt zu definieren
I-I
MI = M + I O"v(Bxv)(Bxv) T. (5.196)
v~ I

Denn die so definierte Matrix MI stellt im Spezialfall M = A die exakte,


nachgeführte Vorkonditionierungsmatrix dar. Der Vorkonditionierungs-
schritt im Algorithmus (5.188) ist deshalb zu ersetzen durch die Aufgabe, das
Gleichungssystem

(5.197)
350 5 Behandlung der Eigenwertaufgaben

nach h zu lösen. Dazu kann die Technik der Rang-Eins-Modifikation


angewandt werden, die wir im Fall I = 2 darlegen wollen, um die notwendigen
Schritte zu entwickeln. Wir betrachten das Gleichungssystem
(5.198)
für h unter der Annahme, daß die Lösung von Mh(ü) = g leicht berechenbar ist.
Die Formel von Sherman-Morrison liefert als Hilfsmittel dazu die Inverse
einer Rang-Eins modifizierten, regulären Matrix in expliziter Form. Es seien
allgemein u und v zwei reelle n-dimensionale Vektoren, welche die Bedingung
1 + v T M- l U =1= 0 erfüllen sollen. Dann ist die Inverse von M + uv T gegeben
durch
(5.199)

Man verifiziert die Formel (5.199) so, daß man die rechte Seite mit (M + uv T)
multipliziert und zeigt, daß das Produkt gleich I ist. Mit u = (BXl), v = 0"1 (BXl)
und dem Vektor Yl =M- l u =M-l(Bxl) folgt aus (5.199) für die Lösungh von
(5.198)
h=M-lg_YlVTM-lg =h(ü)- O"l(BXdTh~) Yl.
(5.200)
1 + VTYl 1 + 0"1 (BXl) Yl
Um (5.200) anwenden zu können, muß zum berechneten Eigenvektor Xl der
von der Vorkonditionierungsmatrix M abhängige Vektor Yl als Lösung von
(5.201)
ermittelt werden. Mit diesem einmal berechneten Vektor wird dann weiter
(Bx[)TYl =: Cl (=(BXl)TM-l(Bxl) = IIBxlll~I) eine positive Konstante, so
daß wegen 0"1> 0 gleichzeitig sichergestellt ist, daß der Nenner in (5.200) nicht
nur ungleich Null, sondern sogar größer als Eins ist. Die Formel (5.200)
erfordert somit bei bekanntem h{ü) im wesentlichen ein Skalarprodukt
(Bx[) T h(ü) und die Substraktion eines Vielfachen von Yl vom Vektor h(ü).
Im allgemeinen Fall sind zur Lösung von (5.197) die skizzierten Schritte
sukzessive auszuführen. Die Berechnung von h kann wie folgt beschrieben
werden, falls die Vektoren (Bx v) undyv sowie die Konstanten Cv = (Bx v)Tyv für
v = 1,2, ... ,1-1 verfügbar sind:

Mh(Ü) = g ~ h(ü)
für v = 1,2, ... ,1- 1: (5.202)

Mit dieser Nachführung der Vorkonditionierung erhöht sich der Rechenauf-


wand pro Iterationsschritt um je (1- 1) Skalarprodukte und Triaden. Zu-
5.5 Ray!eigh-Quotient-Minimierung 351

dem wird der Speicherbedarf um den Platz für die (1-1) Vektoren Yv
vergrößert.
Trotz der verbesserten Vorkonditionierung beeinflussen allzu große Verschie-
bungen a v das Konvergenzverhalten im negativen Sinn, solange M =f. A ist.
Deshalb sind die individuellen Spektralverschiebungen problemgerecht zu
wählen, wobei der Eigenwertverteilung Rechnung getragen werden muß. Eine
mögliche Strategie, die sich in der Praxis recht gut bewährt hat, besteht darin,
die bereits berechneten Eigenwerte in einen entsprechend mehrfachen Eigen-
wert d zu verschieben, wo d> AI+ 1 gelten soll. Die Verschiebungen sind
gegeben durch a, = d - A" und d selbst wird als Vielfaches des zuletzt
berechneten Eigenwertes AI-l bestimmt. Der dabei verwendete Faktor kann
von einem Startwert sukzessive abnehmen bis auf einen Grenzwert größer als
Eins. Jede solche Strategie kann im Fall von pathologischen Eigenwertvertei-
lungen, etwa beim Auftreten von großen Lücken, versagen. Eine mögliche
falsche Wahl mit d< AI wird leicht dadurch entdeckt, daß das Minimum des
Rayleighschen Quotienten gleich d sein wird. Ein ungünstiger Wert mit
AI< d < AI+ 1 verschlechtert das Konvergenzverhalten.
Die Aussage des Satzes 5.2 im Spezialfall M = A läßt sich übertragen auf
die Eigenwertaufgabe Alx = ABx. Unter der Voraussetzung, daß Av + a v > AI+ 1
für v = 1, 2, ... , 1- 1 gilt, ist die Konditionszahl der Hesseschen Matrix
H I = H(YI) gegeben durch
- ) At.;.
?CBB (H1 = - - '
1 An - AI (5.203)
. An AI-'-1 - AI
Der Abstand von AI + 1 von AI ist der entscheidende Faktor und wird es auch im
FallM =f. A sein. Folglich ist bei der Berechnung von AI durch Minimierung des
Rayleighschen Quotienten eine langsame Konvergenz zu erwarten, falls AI+ 1
sehr benachbart ist. Eine Verbesserung dieser Situation kann durch simultane
Iteration von mehreren Vektoren erzielt werden [SPG89].
Schließlich ist noch zu erwähnen, daß es angezeigt ist, den Prozeß der
Rayleigh-Quotient-Minimierung nach einer gewissen Anzahl von Iterationen
mit dem momentanen Näherungsvektor neu zu starten. Denn die Eigenschaft
der Konjugiertheit der Suchrichtungen wird mit zunehmender Iterationszahl
in Frage gestellt, da die Methode der konjugierten Gradienten auf ein
nichtquadratisches Funktional angewandt wird. Ein Neustart ist empfehlens-
wert nach etwa 40 Schritten.

5.5.5 Simultane Rayleigh-Quotient-Minimierung

Um den Rechenaufwand des RQPCG-Algorithmus (5.188) im Fall von


benachbarten Eigenwerten zu reduzieren, besteht eine naheliegende und
vielversprechende Idee darin, durch simultane Iteration von p Vektoren die p
352 5 Behandlung der Eigenwertaufgaben

kleinsten stationären Werte des Rayleighschen Quotienten zu bestimmen


[LoM80, Scw81, SPG89]. Selbstverständlich muß bei diesem Vorgehen dafür
gesorgt werden, daß die iterierten Vektoren B-orthonormiert sind um zu
verhindern, daß sie bei der Minimierung des Rayleighschen Quotienten gegen
denselben Eigenvektor XI des kleinsten Eigenwertes AI konvergieren. Mit
dieser Zusatzbedingung wird der Eigenschaft (5.8) der gesuchten Eigenvekto-
ren Rechnung getragen, deren Berücksichtigung entsprechende Maßnahmen
erfordern wird.
Wir wollen die notwendigen Ergänzungen und Erweiterungen direkt am
Algorithmus (5.188) der Rayleigh-Quotient-Minimierung mit impliziter Vor-
konditionierung darlegen und das prinzipielle Vorgehen beschreiben. Wir
bezeichnen mit x~k), (i = I, 2, ... , p) die simultan iterierten Vektoren nach dem
k-ten Iterationsschritt und fassen sie in der (n Xp )-Matrix X(k) zusammen. Die
Kolonnenvektoren von X(k), (k = I, 2, ... ) seien B-orthonormiert und zudem
so angeordnet, daß die zugehörigen Rayleighschen Quotienten R[xfkl mit
wachsendem Index i eine monoton zunehmende Folge bilden. Diese Forde-
rung kann entweder durch eine einfache Vertauschung der Kolonnen oder
allenfalls auch vermittels eines Ritz-Schrittes erreicht werden. Es ist auch jetzt
zweckmäßig, zu den Iterationsvektoren x~k) die Vektoren v;(k): = Ax~k) und
v~k): =Bx~k), (i = 1,2, .. .,p) zu definieren und rekursiv mitzuführen, um so die
Anzahl der erforderlichen Matrix-Vektor-Multiplikationen möglichst klein zu
halten.
In der simultanen Rayleigh-Quotient-Minimierung werden im (k + I)-ten
Iterationsschritt die p Vektoren xfk), xi k), ... , x~k) nacheinander mit Hilfe je
einer zugehöri~en Abstiegsrichtung s~k+ I) so geändert, daß der Rayleighsche
Quotient R[x~ ) + 1l;s;k+ I)] sein Minimum annimmt. Die i-te Suchrichtung
s;k+ I) wird mit Hilfe des Gradienten g;k), zugehörig zu x;k), nach der
vorkonditionierten Methode der konjugierten Gradienten bestimmt, wobei
jedoch der Vektor hjk) als Lösung von Mh~k) = g;k) noch einer B-Orthogonali-
sierung bezüglich der neuen Vektoren xik + I), ... , x)~~ I) unterworfen wird.
Damit wird einerseits eine teilweise Restriktion der resultierenden Abstiegs-
richtung sfk+ I) erzielt und anderseits wird die Eigenschaft der Konjugiertheit
der Richtungen s~k + I) und sfk) am wenigsten gestört [LoM80].
Mit dem nach (5.169) und (5.170) ermittelten Wert 6; werden der iterierte
Vektor xfk+ I) zusammen mit den beiden zugehörigen Vektoren vfk+ I) und
v~k+ I) zunächst analog wie früher berechnet. Dann ist noch der B-Orthonor-
.
mierung ··1·IC h XI(k+l) , ... , X;-I
von X;(k+l)b ezug k+I)R ec h nung zu tragen, wo b el·d·Ie
für x~k+ I) auszuführenden Operationen zwecks Nachführung auch auf v~k+ I)
und v~k + I) anzuwenden sind. Schließlich ergibt sich der Wert des Rayleigh-
schen Quotienten infolge der B-Normierung von x;k+ I) einfach als
5.5 Rayleigh-Quotient-Minimierung 353

1
R [xjk+ 1 = xjk+ 11T vjk + 11• Wegen dem B-Orthogonalisierungsschritt brauchen
die Rayleighschen Quotienten für festes i> 1 keine monoton abnehmende
Folge zu bilden.
Sind alle p Iterationsvektoren auf die beschriebene Art behandelt, so bilden sie
wieder ein System von B-orthonormierten Vektoren. Als Abbruchkriterium
der Iteration kann die maximale relative Änderung der Rayleighschen
Quotienten des Iterationsschrittes verwendet werden. Der problemgerechte
Konvergenztest auf Grund der Normen (5.l89J der Residuenvektoren
l1jk1= Axjk) - R[xjk1]Bxjk1= vjk1- R[X(k1]vjk1= Ihgi 1 ist wegen der Metrik
bezüglich B -I nicht in voller Strenge anwendbar. Statt dessen kann eventuell
die mathematisch äquivalente euklidische Norm IIl1jkl l12 mit dem erwähnten
Konvergenztest kombiniert werden.
Die Rechenpraxis zeigt, daß die p Iterationsvektoren xjk1 im allgemeinen
verschieden rasch gegen die gesuchten Eigenvektoren Xi konvergieren. Wer-
den diejenige Vektoren xjk1, für welche die Konvergenz bereits festgestellt
worden ist, weiterhin dem Iterationsprozeß unterworfen, so wird für sie nur
unnötige Rechenarbeit aufgewendet. Der Rechenaufwand läßt sich um einiges
reduzieren, wenn die mit genügender Genauigkeit konvergierten Vektoren xjk1
nicht mehr iteriert werden. Die Konvergenz der einzelnen Vektoren hängt
teilweise vom Abstand des betreffenden Eigenwertes vom nächst höheren ab j
es spielen aber auch noch andere Faktoren eine Rolle. Da der erste Vektor xik
unabhängig von den andern Vektoren auf Grund der normalen Vorschrift des
RQPCG-Algorithmus iteriert wird, ist klar, daß eine Konvergenz nach wie vor
wesentlich von der Differenz A2 - AI bestimmt wird. Für die andern tritt die
entsprechende Differenz infolge der Interaktionen, insbesondere bei benach-
barten Eigenwerten, in den Hintergrund, so daß hier eine bedeutend bessere
Konvergenz beobachtet wird. Schließlich ist zu beachten, daß die Vorkondi-
tionierungsmatrix M fest ist, so daß der konvergenzbeschleunigende Einfluß
für die höheren Eigenpaare geringer sein kann.
Zwei wichtige Elemente sind noch nötig, um die simultane Rayleigh-Quotient-
Minimierung erfolgreich werden zu lassen, nämlich Ritz-Schritte und
N eus tarts des Verfahrens. Die Ritz-Schritte dienen dazu, zu gegebenen p
Vektoren xi k), xi k1 , ... , X~k1 in dem von ihnen aufgespannten Unterraum die
bestmöglichen Approximationen zu Eigenvektoren und den zugehörigen
Eigenwerten zu liefern. Ein solcher Schritt ist sicher zu Beginn der Iteration
angezeigt, um damit gleichzeitig zu erreichen, daß die Rayleighschen Quotien-
ten monoton geordnet sind. Da die p Vektoren xjk1 als B-orthonormiert
vorausgesetzt sind, erfordert der Ritz-Schritt die Behandlung einer speziellen
Eigenwertaufgabe für die Projektionsmatrix A: = x'k)T AX(k) der Ordnung p.
Stellt U die Eigenvektormatrix zu A dar zu den Eigenwerten, die in
zunehmendem Sinn geordnet sind, dann ist X(k) : = X(k1 U die Matrix der Ritz-
Vektoren. Ein Ritz-Schritt soll auch dann angewandt werden, wenn die
354 5 Behandlung der Eigenwertaufgaben

Rayleighschen Quotienten R[xfk)] nach vollendetem k-ten Iterationsschritt


nicht mehr monoton zunehmend sind, um auch in diesem Fall die bestmögli-
chen Approximationen zu gewinnen.
Die Suchrichtungen sfk l verlieren infolge der B-Orthogonalisierungsschritte
mit zunehmender Iterationszahl k für die größeren Indexwerte i die fundamen-
tale Eigenschaft der Konjugiertheit, so daß die Konvergenz stark beeinträch-
tigt wird. Deshalb muß der Prozeß nach einer bestimmten Anzahl von
Iterationen mit den momentanen Vektoren xfk l neu gestartet werden. Die
Erfahrung zeigt, daß mit Neustarts nach etwa 10 bis 20 Iterationsschritten die
besten Resultate erzielt werden. Es ist auch sinnvoll, jeden Neustart mit einem
Ritz-Schritt zu kombinieren.
Der Algorithmus der simultanen Rayleigh-Quotient-Minimierung mit implizi-
ter Vorkonditionierung (SRQPCG) lautet somit in seinen wesentlichen
Elementen in (5.204) zusammengefaßt wie folgt, wobei unnötige Indizes
weggelassen werden (siehe Seite 355).
Die Implementierung des SRQPCG-Algorithmus (5.204) erfordert an Spei-
cher den Platz für die Matrixelemente von A und B der unteren Hälfte sowie
denjenigen für die Matrix L der Vorkonditionierungsmatrix M = LL T . Neben
denp Iterationsvektoren x}k l , xik), ... , x~kl sind sowohl die je p Vektoren vfk l und
vfk l als auch die p Abstiegsrichtungen sY) zu speichern. Da weiter die
auftretenden Vektoren g, h, wund wnur momentane Bedeutung besitzen, sind
dafür nur vier Vektoren der Dimension n vorzusehen. Für den Ritz-Schritt
wird noch der untergeordnete Platz für die Matrizen A und Uje der Ordnungp
benötigt sowie einige Vektoren der Dimension p. Der wesentliche Speicherbe-
darf beläuft sich somit auf 3NZ + 4(p + l)n Plätze, wo NZ die Anzahl der von
Null verschiedenen Matrixelemente der unteren Hälften von A undB, bzw. von
L unter der Annahme einer unvollständigen Cholesky-Zerlegung, bedeutet.
Im Vergleich zum RQPCG-Algorithmus ist der Speicherbedarf um rund pn
Plätze größer, da dort nur die berechneten Eigenvektoren Xi zusammen mit
den Vektoren BXi sowie den Hilfsvektoren Yi für die partielle Spektralverschie-
bung zu speichern sind, während im übrigen ähnliche Vektoren auftreten.
Der wesentliche Rechenaufwand an multiplikativen Operationen eines Itera-
tionsschrittes für den i-ten Vektor xfk l setzt sich folgendermaßen zusammen,
wenn wir mit N = 2NZ - n die Totalzahl der von Null verschiedenen
Matrixelemente von A, resp. B bezeichnen: 2n Operationen zur Berechnung
von g, N + n Operationen zur Ausführung des Vorkonditionierungsschrittes,
2(i - l)n Operationen für dieB-Orthogonalisierung von h, 2n Operationen zur
Bestimmung von sfk), 2N Operationen für die beiden Matrix-Vektor-Multipli-
kationen und 4n Operationen für die Skalare ß, y, (J und r. Die Berechnung von
xfkl, vfk) und vfk l erfordert weitere 3n Operationen, die B-Orthonormierung
von xfk l mit der Nachführung der vfk) und vfk) benötigt 4in Operationen, wozu
schließlich noch das Skalarprodukt für qi mit n Operationen hinzukommt. Das
5.5 Rayleigh-Quotient-Minimierung 355

Wahl der Vorkonditionierungsmatrix M = LL T ;


Start: Vorgabe von X(o) mit X(O)T BrO) = I, k = 0;
Neustart:X=rk)TArkl; UTXU=D; X(k) :=X(k)U

für i = 1,2, ... ,p:


v(k) = Ax(k) v·(k) = Bx(kl. q. = x(k)TV(k).
I I ,I I ,I I I,

s}k) = 0; Vi = 1;
Iteration:
für 1= 1,2, ... , neust:
k = k + 1;
für i = 1,2, ... , p:
(k-I) (k-I»)
a=qi, p = l ; g=2(Vi -avi ;

Mh = g (Vorkonditionierung)
B-Orthogonalisierung von h; (5.204)
z = g T h; e = zivi; Vi = z;
SI(k) = - h + vos(k
I ,
- I). w = As(k) w' =
I ,
Bs(k).
I ,

(k-I)T (k)T
ß= Xi W, Y= Si W,
(k-I)T (k)T
(J = Xi W, r = Si W;
Berechnung von t5 i ;
x(k) = x(k-I)
I I
+ v/'.s(k) I ,

v(k) = v(k-I) + t5w v(k) = v(k-I) + 'Wo


I I I ,I I VI ,

B-Orthonormierung von X}k),

Nachführung von v}k) und v}k);

qi = x}k)T v}k); (Rayleighscher Quotient)


Konvergenztest für X}k);

falls Monotonie der qi verletzt: Neustart;


gehe nach Neustart;

ergibt 3N + (11 + 6i)n multiplikative Operationen. Den Rechenaufwand eines


Iterationsschrittes für alle p Vektoren erhalten wir daraus durch Summation
über i und 1 bis p zu

ZSRQPCG = {3N + (14 + 3p)n}p. (5.205)


356 5 Behandlung der Eigenwertaufgaben

Ein unmittelbarer Vergleich des Rechenaufwandes (5.205) mit demjenigen des


RQPCG-Algorithmus ist nicht möglich, weil die Anzahl der Iterationsschritte
für die einzelnen Eigenpaare recht unterschiedlich sein kann. Auf Grund der
Betrachtungen in den Abschnitten 5.5.3 und 5.5.4 beträgt der Rechenaufwand
eines Iterationsschrittes für den i-ten Eigenwert unter Berücksichtigung der
partiellen Spektralverschiebung und der Nachführung der Vorkonditionie-
rung 3N + (9 + 4i)n wesentliche Operationen. Für alle p Vektoren erhalten wir
nach Summation über i für einen typischen Schritt den Rechenaufwand
ZRQPCG = {3N + (11 + 2p)n}p. (5.206)
Die kleinere Anzahl von Rechenoperationen (5.206) im Vergleich zu (5.205)
erklärt sich dadurch, daß im RQPCG-Algorithmus die Iterationsvektoren
nicht B-normiert werden. Die Gegenüberstellung zeigt immerhin, daß die
simultane Rayleigh-Quotient-Minimierung nur dann der Einzeliteration über-
legen sein kann, wenn die Anzahl der Iterationsschritte wesentlich kleiner als
der Mittelwert der Iterationsschritte des RQPCG-Algorithmus ist. In [SPG89]
wird von sehr erfolgreichen Anwendungen des SRQPCG-Algorithmus berich-
tet, doch wird er mit einer Version des RQPCG-Algorithmus ohne Nachfüh-
rung der Vorkonditionierung verglichen. Auf Grund unserer Erfahrungen
unterscheiden sich die Rechenzeiten des RQPCG-Algorithmus und des
SRQPCG-Algorithmus in der Regel nur unwesentlich voneinander (siehe
Beispiele in Kap. 6). Für die Anwendung der simultanen Rayleigh-Quotient-
Minimierung spricht einzig die Tatsache, daß keine Parameter gewählt werden
müssen, welche die partielle Spektralverschiebung definieren. Der Einsatz des
SRQPCG-Algorithmus ist in dieser Hinsicht problemloser.
6 Anwendungen mit Resultaten

An einer Reihe von praxis bezogenen Beispielen aus verschiedenen Anwen-


dungsgebieten soll die Durchführung der Methode der finiten Elemente
aufgezeigt werden. In einigen Fällen werden zu Vergleichszwecken Resultate
für verschiedene Ansätze und Elementeinteilungen zusammengestellt. Dann
soll aber auch die Wirkungsweise der numerischen Verfahren zur Lösung der
linearen Gleichungssysteme und der Eigenwertprobleme dargelegt werden.
Dem Charakter eines Lehrbuches entsprechend sind die Beispiele einerseits
möglichst typisch und repräsentativ, anderseits aber überblickbar genug
gewählt, so daß sie mit Hilfe von Computerprogrammen ohne weiteres
nachvollzogen werden können. Die Ergebnisse wurden zum größten Teil mit
Rechenprogrammen erhalten, die in [Scw9l] enthalten sind, oder die daraus
mit einigen Modifikationen gewonnen werden können. Die Berechnungen
wurden auf einem IBM Personal System/2, Modell 80-071 , unter DOS 3.30
durchgeführt. Allenfalls angegebene Rechenzeiten sind, falls nichts anderes
angegeben ist, auf diesem System gemessen worden. Sie sind nicht nur vom
Compiler, sondern auch von der Zahl der Output-Anweisungen für Zwi-
schenergebnisse über den Ablauf der Rechnung abhängig. Sie sollen haupt-
sächlich Relationen der Effizienz verschiedener Verfahren aufzeigen.

6.1 Stationäre Probleme

6.1.1 Stationäre Temperaturverteilung

Die Aufgabe, die stationäre Temperaturverteilung des Beispiels 1.1 zu bestim-


men, soll für einen konkreten Fall für verschiedene Elementeinteilungen und
Ansätze behandelt werden. Fig. 6.1 hält das Grundgebiet mit den zugehörigen
Abmessungen in Längeneinheiten fest, für welches die Randwertaufgabe
!:::.U = -20 inG (6.1)
u=O auf AB (6.2)
dU
-=0 auf BD, DE, EF, LM, MA (6.3)
an
au
-+2u=0 aufFHIKL (6.4)
an
zu lösen ist. Das Grundgebiet soll mit geradlinigen Elementen approximiert
werden, wobei die Eckpunkte der Elemente auf dem Halbkreis äquidistant
verteilt sind. Dadurch wird die Fläche des approximierenden Gebietes größer
358 6 Anwendungen mit Resultaten

A------M f
2 2
1B 1
L

10 C

Fl
2

O,e._-----.... EJ Fig.6.1
I. .1 Grundgebiet, Temperaturverteilung

~~
ry.
~ :\
l--'

W
')V
1'\ 9
I/J
~
1/
1\,\
V 0-,
I/~
l(h,.
I? :;;~
/1'--1//

Fig.6.2 Feinere Einteilung. Fall b) Fig.6.3 Feinste Einteilung. Fall c)

als diejenige des gegebenen Grundgebietes. Die Fig.3.9 (Fall a), Fig.6.2
(Fall b) und Fig. 6.3 (Fall c) stellen die verwendeten Diskretisationen dar. Im
Fall a) der gröbsten Elementeinteilung werden nur Dreiecke verwendet,
6.1 Stationäre Probleme 359

Tab.6.1 Charakterisierung der Fälle, Temperaturverteilung

Fall Einteilung, Ansatz Elemente n m n(m + 1) P N

I a) quadratisch 45 114 27 3192 1348 621


II b) quadratisch 72 205 33 6970 3044 1291
III c) quadratisch 176 537 37 20406 12592 3861

IV a) kubisch 45 105 26 2835 1461 921


V b) kubisch 72 201 32 6633 3669 2076
VI c) kubisch 176 543 41 22806 16188 6450

IIIC III + Cuthill-McKee 176 537 - - 10255 3861


VIC VI + Cuthill-McKee 176 543 - - 15738 6450

während in den beiden andern Fällen das Gebiet soweit als möglich
regelmäßig mit Quadraten überdeckt wird und nur Dreieckelemente in der
Nähe des krummlinigen Randes verwendet werden.
Für die drei Elementeinteilungen gelangen quadratische und kubische Ansätze
zur Anwendung. Dabei wird das kubische Dreieckelement von Zienkiewicz
(v gl. Abschn. 2.3.4) verwendet und für die Quadrate das dazu kombinierbare
Element mit dem unvollständigen kubischen Ansatz der Serendipity-Klasse
mit 12 Knotenvariablen. In Analogie dazu wird auch der quadratische Ansatz
der Serendipity-Klasse in den Quadraten mit Elementmatrizen der Ordnung 8
verwendet. In Tab. 6.1 sind die sechs verschiedenen Fälle zusammengestellt
mit Angaben über die Zahl der Elemente, die Anzahl n der Knotenvariablen,
die Bandbreite m bei Verwendung einer im wesentlichen zeilenweisen und
damit nicht optimalen Numerierung der Knotenpunkte, den Speicherbedarf
n(m + 1) für die Bandmatrix, das Profil p der Hülle und die Anzahl N der
potentiell von Null verschiedenen Matrixelemente der unteren Hälfte der
Gesamtsteifigkeitsmatrix S. Die Einsparung von Speicherplatz bei kompakter
zeilenweiser Speicherung der wesentlichen Elemente der Matrix S gemäß
Fig. 4.21, wie sie im Zusammenhang mit den vorkonditionierten Methoden
der konjugierten Gradienten zweckmäßig ist, ist im Vergleich zur Speicherung
in Band- oder Hüllenform für die quadratischen Ansätze größer als für die
kubischen Ansätze. Darin kommt die relativ stärkere Besetzung der Matrix S
im Fall der kubischen Ansätze deutlich zum Ausdruck. Für die beiden feinsten
Einteilungen sind noch die Profile p der Matrizen S nach Anwendung des
Algorithmus von Cuthill-McKee angegeben. Für den quadratischen Ansatz
wird eine stärkere Reduktion des Profils erzielt.
In Tab. 6.2 sind die Werte der resultierenden Temperaturen in den neun
ausgewählten Punkten C bis M nach Fig. 6.1 zusammengestellt, um die
Konvergenz auf Grund der Verfeinerung der Diskretisation und des Ansatzes
360 6 Anwendungen mit Resultaten

Tab. 6.2 Temperaturen in ausgewählten Punkten

Fall Uc UD UE UF UH UI uK UL UM

I 85,18 158,29 105,90 38,79 41,16 31,67 25,08 27,87 74,99


II 84,17 156,66 104,28 37,22 39,57 30,44 24,10 26,85 74,15
III 84,05 156,10 103,71 36,65 39,11 30,09 23,95 26,53 74,02

IV 83,88 158,02 106,20 38,67 41,64 31,69 24,85 27,56 74,80


V 83,15 156,45 104,19 37,18 39,80 30,21 23,83 26,66 73,64
VI 83,51 155,99 103,67 36,64 39,64 30,02 23,79 26,45 73,76

zu illustrieren. Die Temperaturwerte zeigen fast durchwegs die Tendenz, bei


Verfeinerung der Elementeinteilung abzunehmen.
Diese Tatsache kann teilweise damit begründet werden, daß die Fläche des
approximierenden Grundgebietes abnimmt und damit auch die in G produ-
zierte Wärmemenge. Diese Erklärung wird tatsächlich bestätigt durch eine
Rechnung, welcher eine Diskretisation des Grundgebietes mit teilweise
krummlinigen Dreieckelementen zugrundeliegt. Werden die Elementeintei-
lungen der Fälle I bis III derart abgeändert, daß längs des Halbkreises
krummlinige Dreieckelemente entstehen mit der Eigenschaft, daß die Mittel-
punkte der krummlinigen Randstücke auch auf dem Halbkreis liegen, so
resultiert eine sehr gute Approximation des Grundgebietes. Die für diese
Elementeinteilungen resultierenden Temperaturwerte in den ausgewählten
Punkten sind in der Tat kleiner als die entsprechenden Zahlwerte, die sich für
die feinen Einteilungen ergeben (vgl. Tab. 6.3).

Tab. 6.3 Temperaturen in ausgewählten Punkten. Krummlinige Elemente, quadra-


tischer Ansatz

Fall Uc UD UE UF UH UI UK UL UM

I' 82,69 155,10 102,56 36,00 38,50 29,48 23,36 26,05 73,03
II' 83,05 155,23 102,78 35,90 38,28 29,40 23,28 25,98 73,27
III' 83,42 155,29 102,86 35,88 38,36 29,48 23,47 26,02 73,52

Die Methode der statischen Kondensation ist einmal dazu verwendet


worden, im Sinn von Abschn. 3.3.2 zusammengesetzte Elemente zu konstru-
ieren. Indem jedes Dreieck in drei Teildreiecke eingeteilt wird, wobei der
Schwerpunkt als neuer Eckpunkt gewählt wird (Fig. 6.4), bzw. jedes Quadrat
in vier Teildreiecke nach Fig. 6.5 unterteilt wird, erzielt man damit eine feinere
Einteilung in Elemente. Da die inneren Knotenvariablen vor der Kompilation
zum Gesamtsystem eliminiert werden, resultiert ein Gleichungssystem mit
6.1 Stationäre Probleme 361

Fig.6.4 Einteilung eines Dreiecks Fig.6.5 Einteilung eines Quadrates


in Teildreiecke, quadratischer in Teildreiecke, quadratischer
Ansatz. Vier innere Ansatz. Fünf innere
Knotenpunkte Knotenpunkte
gleich vielen Unbekannten wie ohne Anwendung der statischen Kondensa-
tion. Die Kondensationsschritte können ja als Eliminationen von Unbekann-
ten interpretiert werden, welche vor der Auflösung des schließlich resultieren-
den Gleichungssystems erfolgen. In Tab. 6.4 sind die Anzahl der Dreiecke und
Parallelogramme der Elementeinteilungen der Fälle I bis 111, die Totalzahl n
der Knotenpunkte vermöge der Unterteilung, sowie die Zahl n* der Unbe-
kannten nach Kondensation zusammengestellt.

Tab. 6.4 Zur Kondensation mit quadratischen Ansätzen

Fall Einteilung Dreiecke Quadrate n n* n/n*

I" a) 45 0 294 114 2,58


II" b) 48 24 517 205 2,52
III" c) 56 120 1361 537 2,53

Obwohl in allen drei Fällen die Zahl n rund das 2.5-fache von n* beträgt,
unterscheiden sich die Temperaturwerte im allgemeinen recht wenig von den
entsprechenden Werten ohne Kondensation. In Tab. 6.5 sind wiederum die
Temperaturen in den ausgewählten Punkten zusammengestellt. Die große
Übereinstimmung mit den entsprechenden Werten von Tab. 6.2 erklärt sich
dadurch, daß die diskreten Grundgebiete dieselben sind. Größere Unterschie-
de zeigen sich nur in Knotenpunkten in unmittelbarer Nähe des Punktes B von
Fig. 6.1, da dort lokal starke Temperaturänderungen auftreten.

Tab. 6.5 Temperaturen in ausgewählten Punkten. Kondensation

Fall Uc UD UE UF UH UI UK UL UM

I" 85,18 158,44 105,77 38,85 40,94 31,80 25,10 27,98 74,96
II" 84,32 156,68 104,33 37,23 39,58 30,51 24,18 26,90 74,28
III" 84,14 156,11 103,72 36,65 39,12 30,12 23,99 26,55 74,07
362 6 Anwendungen mit Resultaten

Schließlich soll zur Lösung der Aufgabe noch die Methode der Substruk-
turierung in Verbindung mit der statischen Kondensation zur Anwendung
gelangen. Zu diesem Zweck sei das Grundgebiet nach Fig. 6.6 in insgesamt
zwölf Teilgebiete eingeteilt, so daß je vier zueinander kongruente Teilgebiete
entstehen, welche durch indizierte römische Ziffern gekennzeichnet sind. Jede
der drei grundlegenden Substrukturen wird in geeigneter Weise in Elemente

Fig.6.6
Substrukturierung

Fig.6.7
Einteilung der
Substrukturen
6.1 Stationäre Probleme 363

eingeteilt, wie dies in Fig. 6.7 gezeigt ist. In den Substrukturen I und II werden
soweit als möglich Quadrate verwendet und durch Dreiecke ergänzt, während
zur möglichst guten Gebietsapproximation für die Substruktur In lauter
geradlinige Dreiecke angezeigt sind. Zur Bearbeitung des Problems sollen
quadratische Ansätze in den Dreieckelementen und quadratische Ansätze der
Serendipity-Klasse in den Parallelogrammelementen zur Anwendung gelan-
gen. Für die drei Substrukturen werden die je zugehörigen Steifigkeitsmatrizen
und die Konstantenvektoren aufgebaut, sodann die Knotenvariablen von
sämtlichen inneren Knotenpunkten vermöge der Kondensation eliminiert, so
daß die kondensierten Steifigkeitsmatrizen und Konstantenvektoren resultie-
ren. Diese werden zur Gesamtsteifigkeitsmatrix S und zum Gesamtkonstan-
tenvektor b kompiliert, entsprechend den in Fig. 6.6 verbleibenden n* = 249
Knotenpunkten. Jetzt werden die Randbedingungen berücksichtigt und das
lineare Gleichungssystem gelöst. In Tab. 6.6 sind die Substrukturen nach
Fig. 6.7 beschreibenden Daten zusammengestellt.

Tab.6.6 Daten der Substrukturen

Substruktur Zahl der Zahl der Knoten- mnere äußere


Typus Quadrate Dreiecke punkte Knoten- Knoten-
punkte punkte

I 18 3 80 42 38
II 6 4 39 15 24
III 0 32 81 49 32

Die resultierende Temperaturverteilung in den 249 Knotenpunkten entspricht


einer Diskretisierung der Aufgabe mit n = 673 Knotenpunkten, da durch die
Kondensation effektiv 4(42 + 15 + 49) = 424 innere Knotenvariable eliminiert
werden. Da mit der vorliegenden Elementeinteilung der Kreisbogen recht gut
approximiert wird, sind die Temperaturwerte als die genauesten anzusehen. In
Tab. 6.7 sind die Werte in den ausgewählten Punkten zusammengestellt.
Die in den Fällen I bis VI anfallenden linearen Gleichungssysteme sind einmal
mit Hilfe der iterativen Verfahren der konjugierten Gradienten ohne Vorkon-
ditionierung und der Überrelaxation gelöst worden. Die Methode der
konjugierten Gradienten wurde sowohl direkt auf die Gleichungssysteme als
auch nach deren Skalierung mit Diagonalelementen gleich Eins angewendet,

Tab. 6.7 Temperatur in ausgewählten Punkten. Substrukturierung

Uc UD UE UF UH Ur UK UL UM

83,70 155,65 103,24 36,25 38,71 29,78 23,69 26,28 73,75


364 6 Anwendungen mit Resultaten

um diesen Einfluß aufzuzeigen. Gestartet wurden die Verfahren mit dem


Nullvektor als Startnäherung, und die Iteration wurde abgebrochen sobald die
Bedingung für den Residuenvektor ,Ck)
II,Ck)11 2 <; 1O- 16 1I,CO)11 2 (6.5)
erfüllt war. Da der Residuenvektor im Fall der Überrelaxation nicht verfügbar
ist, wurde er nur nach je fünf Iterationsschritten berechnet und das Abbruch-
kriterium (6.5) angewandt. Der optimale Überrelaxationsfaktor Wopt wurde
experimentell ermittelt. Die in Tab.6.8 angegebenen Rechenzeiten (CPU)
betreffen nur den iterativen Lösungsprozeß.

Tab.6.8 Iterative Lösung der Gleichungssysteme, Temperaturverteilung

Fall n konjugierte Gradienten Überrelaxation


ohne Skalierung mit Skalierung
nit epu nit epu Wopt nit epu
I 114 61 2,9 54 2,8 1,695 65 3,5
II 205 84 8,1 80 7,6 1,740 95 10,1
III 537 161 42,2 150 39,3 1,845 190 56,2

IV 105 79 4,9 35 2,5 1,410 35 3,0


V 201 103 14,1 37 5,2 1,540 45 7,5
VI 543 179 70,9 62 24,7 1,735 75 36,0

Das Konvergenzverhalten der betrachteten Iterationsverfahren ist, bei ver-


gleichbarer Anzahl der Unbekannten, deutlich verschieden für den quadrati-
schen und kubischen Ansatz, bei dem neben den Funktionswerten auch die
ersten partiellen Ableitungen als Knotenvariable auftreten. Bringt die Skalie-
rung der Gleichungssysteme im Fall der quadratischen Ansätze keine
nennenswerte Reduktion der Iterationsschritte der Methode der konjugierten
Gradienten, so ist die Konvergenzverbesserung im Fall der kubischen Ansätze
doch beträchtlich. In allen Fällen ist die erforderliche Anzahl der Iterations-
schritte nur gleich einem Bruchteil der Ordnung n des zu läsenden Gleichungs-
systems, wobei dieser Bruchteil bei zunehmender Verfeinerung der Element-
einteilung sogar abnimmt. Eine Skalierung der Gesamtsteifigkeitsmatrix
ändert am Konvergenzverhalten der Überrelaxationsmethode nichts, weil die
Iterationsmatrizen MSOR(w) zueinander ähnlich sind und damit denselben
Spektralradius besitzen.
Die vorkonditionierten Methoden der konjugierten Gradienten bringen im
Vergleich zur Skalierung eine deutliche Reduktion der Iterationsschritte, falls
die auftretenden Parameter optimal gewählt werden. In Fig. 6.8 ist die Anzahl
6.1 Stationäre Probleme 365

der erforderlichen Iterationsschritte der vorkonditionierten SSORCG-Metho-


de in Abhängigkeit von (J) für die Fälle I, II, IV und V dargestellt, wobei das
Abbruchkriterium (6.5) zugrunde gelegt ist. Da die Anzahl der Schritte in der
Gegend des optimalen (J)- Wertes nicht stark ändert, genügt es, einen einiger-
maßen guten (J)- Wert zu wählen. Auch hier ist ein unterschiedliches Verhalten
der SSORCG-Methode bezüglich der verwendeten Elementtypen festzustel-
len. Mit zunehmender Verfeinerung der Diskretisation wächst der optimale
Wert von (J) im Fall der quadratischen Ansätze rascher als im Fall der
kubischen Ansätze.

Ncg

80

lOOk

10-10
10

1O-9-----+---~r----------"\--
0.5 1.0 1.5 U)

Fig.6.8 Vorkonditionierter Fig.6.9 Verlauf des Residuenquadrates im


SSORCG-Algorithmus. Verfahren der konjugierten
Temperaturveneilung Gradienten. Fall V der
Temperaturverteilung

Bei guter Wahl des Parameters (J) reduziert sich die Zahl der Iterationsschritte
im Vergleich zur Skalierung (entsprechend (J) = 0) in allen Fällen auf mehr als
die Hälfte. Obwohl sich der Rechenaufwand bei Vorkonditionierung pro
Schritt nahezu verdoppelt, resultiert eine Reduktion des Gesamtrechenauf-
wandes. An diesen Beispielen ist doch bemerkenswert, daß Gleichungssysteme
mit etwa 200 Unbekannten vermittels 15 bis 25 vorkonditionierten cg-
Schritten lösbar sind.
In Fig. 6.9 ist für den repräsentativen Fall V je das Quadrat der euklidischen
Norm des Residuenvektors r(k) in Abhängigkeit der Schritte dargestellt, das im
366 6 Anwendungen mit Resultaten

Verfahren der konjugierten Gradienten für die nichtskalierte und die skalierte
Matrix sowie im vorkonditionierten SSORCG-Algorithmus resultiert. Da das
Residuenquadrat im vorkonditionierten Algorithmus (4.126) nicht auftritt,
wurde es zusätzlich berechnet.

Tab. 6.9 Direkte und vorkonditionierte Methoden, Temperaturverteilung

Fall Methode Rechen- optimale nit Rechenzeit


zeit Parameter Kompi- (partielle) Auflö-
total lation Zerlegung sung

III CHOLESKY 9,4 - - 3,4 5,3 0,71


SSORCG 24,4 w = 1,55 26 4,6 - 19,8
DKRI 26,2 a = 0,04 39 4,6 0,3 21,6
PACHCG 20,9 a =0,0 25 4,6 2,3 14,0

VI CHOLESKY 15,4 - - 6,3 8,2 0,93


SSORCG 28,7 w = 1,25 24 8,3 - 20,4
DKRI 34,5 a = 0,40 30 8,3 0,4 25,8
PACHCG 31,8 a =0,0 17 8,3 8,6 14,9

IIIC CHOLESKY 8,7 - - 4,4 3,6 0,60


VIC CHOLESKY 15,3 - - 6,6 7,8 0,88

Schließlich ist eIn Vergleich der Rechenzeiten zur Lösung der linearen
Gleichungssysteme mit der Methode von Cholesky bei hüllenorientierter
Speicherung und mit vorkonditionierten Verfahren der konjugierten Gradien-
ten aufschlußreich. In Tab. 6.9 sind für die repräsentativsten Fälle III und VI
der feinsten Elementeinteilung die Rechenzeiten zusammengestellt, aufgeteilt
für den Kompilationsschritt, eine allfallige vollständige oder partielle Zer-
legung der Gesamtmatrix und für den eigentlichen Lösungsprozeß, bestehend
aus dem Vorwärts- und Rückwärtseinsetzen des Cholesky-Verfahrens, bzw.
aus dem iterativen Prozeß. Ferner sind die optimalen Parameterwerte der
vorkonditionierten cg-Methoden mit den zugehörigen Iterationsschritten
angegeben. Neben der SSORCG-Methode wird sowohl die DKR-Vorkondi-
tionierung mit einer Matrix M gemäß (4.139) als auch die PACHCG-Methode
auf Grund einer partiellen Cholesky-Zerlegung in Betracht gezogen. Die
Methode von Cholesky löst die Aufgaben erwartungsgemäß mit der kürzesten
totalen Rechenzeit, doch erfordert sie den größten Speicherplatz. Der
Rechenaufwand für die Cholesky-Zerlegung im Fall IIIC der günstigeren
Cuthill-McKee-Numerierung ist entsprechend der Profilverkleinerung gerin-
ger, im Fall VIC erwartungsgemäß nur geringfügig reduziert. Da der
Gesamtrechenaufwand für die SSORCG- und die PACHCG-Methoden
vergleichbar sind, rechtfertigt sich in diesen Beispielen die Anwendung der
6.1 Stationäre Probleme 367

partiellen Cholesky-Zerlegung zur Vorkonditionierung kaum auf Grund des


bedeutend höheren Speicherbedarfs. Die Ergebnisse sprechen dann zugunsten
der PACHCG-Methode, falls mehrere Gleichungssysteme mit derselben
Matrix nacheinander zu lösen sind, weil dann die partielle Cholesky-Zerlegung
nur einmal auszuführen ist. Die DKRI-Methode schneidet am schlechtesten
ab. Die stärkere Besetzung der Matrix S im Fall der kubischen Elemente
kommt darin zum Ausdruck, daß bei zwar weniger Iterationsschritten die
Rechenzeiten doch etwa gleich groß sind. Schließlich sei noch erwähnt, daß die
Zahl der Iterationsschritte der vorkonditionierten Methoden oft stark von der
Numerierung der Unbekannten abhängt.

6.1.2 Räumliche Fachwerke

Aus diesem Anwendungsbereich werden eine einfache Rundkuppel und eine


daraus abgeleitete, verfeinerte Fachwerkkonstruktion in der Form einer
Radarkuppel betrachtet.

6.1.2.1 Einfache Rundkuppel

Die Fig. 6.10 zeigt eine einfache Rundkuppel in einer Parallelprojektion,


welche aus 48 Stäben besteht, die in den 19 Knotenpunkten gelenkig
miteinander verbunden sind. Die Knotenpunkte liegen auf einer Kugel mit
dem Radius R = 8 m, die Punkte des oberen Parallelkreises und des Grund-
kreises besitzen eine Höhendifferenz zur Äquatorebene von H = 4,8 m. Alle
Stäbe weisen den Querschnitt von A = 5 cm 2 auf, bestehen aus Stahl mit dem
Elastizitätsmodul E = 2· 10 8 kN m -2. Die Knotenpunkte E und F seien fixiert,
während die übrigen Punkte des Grundkreises auf Kugellagern abgestützt

z
A

Fig.6.10
Parallelprojektion des
einfachen Kuppelaufbaus
368 6 Anwendungen mit Resultaten

Tab. 6.10 Verschiebungen von Knotenpunkten

Punkt A B C D

u [ern] 0 0 0,057 -0,014


v [ern] 0 -0,016 -0,101 0,005
w [ern] -0,370 -0,266 -0,134 0

Tab.6.11 Spannungen in Stäben

Stab a b c d e f
(J" [kNm- 2] -8945 4921 -18280 28690 -18260 -3085

seien. Diese baustatisch problemgerechte Lagerung liefert für die insgesamt


n = 57 unbekannten Verschiebungen der 19 Knotenpunkte 10 homogene
Randbedingungen. In den 6 Knotenpunkten des oberen Parallelkreises sowie
im Knotenpunkt A greife je eine vertikal nach unten wirkende Kraft von
K = 12 kN an, verursacht durch eine zusätzliche Schneelast auf dem Kuppel-
oberteil. Gesucht sind die resultierenden Verschiebungen der Knotenpunkte
sowie die Spannungen in den Stäben. Da die Konstruktion Symmetrien
aufweist, sind in Tab. 6.10 nur die Verschiebungen der Punkte A, B, C und D
und in Tab.6.11 die Spannungen in den Stäben abis f der Fig.6.10
zusammengestellt.

6.1.2.2 Radarkuppel

Zum Schutz von Radarstationen dienen kugelförmige Konstruktionen, deren


tragendes Gerüst ein räumliches Fachwerk ist, deren Stabelemente ein
weitgehend regelmäßiges Muster bilden. In Fig. 6.11 ist eine solche Radarkup-
pel in einer Parallelprojektion dargestellt. Sie setzt sich aus 186 Stabelementen
mit dem Querschnitt A = 5 cm 2 und dem Elastizitätsmodul E = 2 . 108 kN m- 2
zusammen, die in den 67 Knotenpunkten gelenkig verbunden sind. Die
Knotenpunkte liegen auf einer Kugelfläche mit dem Radius R = 8 m und sind
regelmäßig auf Parallelkreisen angeordnet. Nähere Angaben über die Parallel-
kreise und die Zahl der Knotenpunkte sind in Tab. 6.12 wiedergegeben. Die
Radarkuppel ist in den Knotenpunkten des Grundkreises gelagert, wobei acht
Punkte auf Kugellagern aufliegen und die übrigen vier Knotenpunkte noch
parallelgeführt seien gemäß Fig. 6.12.
Es soll die zusätzliche Beanspruchung des Fachwerkes unter einer Schnee-
decke auf dem Kugelteil oberhalb des fünften Niveaus bestimmt werden unter
der vereinfachenden Annahme, daß in den betreffenden 19 Knotenpunkten die
gleich großen, vertikal wirkenden Kräfte K = 8 kN angreifen.
6.1 Stationäre Probleme 369

z
A

Fig.6.ll Parallelprojektion der Radarkuppel Fig.6.12 Lagerung der Knoten-


punkte des Grundkreises
Tab.6.12 Daten der Radarkuppel

Niveau Höhe über Radius des Paral- Knoten- Belastung


Grundkreis [m] leikreises [m] punkte [kN]

1 0 6,40000 12 -
2 2,19l32 7,56272 12 -
3 4,80000 8,00000 12 -
4 7,40868 7,56272 12 -
5 9,60000 6,40000 12 8
6 11,95542 3,57771 6 8
7 12,80000 - 1 8

Die Ordnung der Gesamtsteifigkeitsmatrix S beträgt n = 201. Von den 201


Verschiebungen sind 16 durch homogene Randbedingungen vorgegeben. Falls
die Knotenpunkte sukzessive in den Parallelkreisen, den Regeln des Algorith-
mus von Cuthill-McKee folgend und mit dem Punkt A im Niveau 7 beginnend,
durchnumeriert werden, wird die maximale Differenz der Knotennummern
der Stabelemente 13, so daß die Bandbreite von S m = 41 beträgt. Die
zugehörige, sehr regelmäßige Besetzungsstruktur von S ist in Fig.6.13
dargestellt, wobei ein t:2;I einer (3 X 3)-Matrix entspricht. In der Fig. 6.13 ist
auch die tridiagonale Blockstruktur der Matrix S angedeutet, wie sie sich in
diesem Fall fast zwangsläufig auf Grund der Knotenpunkte der einzelnen
Niveaus ergibt, die auch gleichzeitig den Stufen des Algorithmus von Cuthill-
McKee entsprechen.
Die Struktur, die Lagerung und die Belastung der Radarkuppel weisen
Symmetrien auf, weshalb in der Tab. 6.13 nur die resultierenden Deformatio-
370 6 Anwendungen mit Resultaten

---- --T------ ---i--- -----;-- ---- --- i-- --- ---;


---------T---------,---------"T---------r--------.,

I I 1 I I

------- -~ -------- ~ --------- ~ -- ---- -- ~


1 I I I I
,
,,
""
""
!,
i
r
l
t
!
I

"" : ! i 1
,, , ,
-- -- --- .. -- ---- - -- '" -- - ------i
,,,
1"1---- ------

""" ,,
,,, ,,
"""
,,, ,

s ""
""rl---.,-------
""
"
,
,,
,
,,
"" ___ J,,_________ 1. _____ _ _
-------r--------i

,,,
,
,,

,
,,
,,
,,,
,,,
,,
~ _______ .J

:: 1 1 ,,
,,,
11 I I
1I t I
11 I 1
11
11
11
I
I
1
I
1
1 I
Fig.6.13
rr- - -.,- -- -- - - - - T - - - - - - - - - r - - - -- --
11 I 1 I Besetzungsstruk-
:::
11 I I

: tur der Gesamt-


"" ,,
11 I I
steifigkeitsmatrix
11 I I I
LL ___ .J _________ 1. _________ L_______ _ _ _____ _
S. Radarkuppe1

Tab. 6.13 Deformationen der Radarkuppel

Punkt u [em] v [em] w [em]

A 0 0 -0,447
B 0 0,014 -0,413
C 0 0,006 -0,360
D 0,013 -0,023 -0,328
E 0,032 -0,100 -0,243
F 0 -0,075 -0,188
G 0,033 -0,100 -0,133
H -0,044 0,075 0

nen der ausgewählten, repräsentativen, in Fig. 6.11 eingezeichneten und in der


vorderen Hälfte der Kuppel gelegenen Knotenpunkte Abis H wiedergegeben
sind.
Desgleichen sind die Spannungen in vielen Stabelementen gleich, weshalb in
Tab. 6.14 nur diejenigen der Stäbe abis m angegeben sind (v gl. Fig. 6.11).
Das lineare Gleichungssystem der belasteten Radarkuppel wurde sowohl
direkt mit der Methode von Cholesky unter Ausnützung der nur schwach
variablen Bandbreite der Gesamtsteifigkeitsmatrix S als auch mit den
iterativen Verfahren der konjugierten Gradienten ohne und mit Vorkonditio-
nierungen gelöst. Da die Radarkuppel eine dreidimensionale Konstruktion
darstellt, ergeben sich neue Aspekte hinsichtlich des Speicherbedarfs und des
6.1 Stationäre Probleme 371

Tab. 6.14 Stabspannungen der Radarkuppel [kN cm -2]

Stab (J Stab (J Stab (J Stab (J

a -1,161 e +0,326 i +2,602 m -2,006


b -0,779 f -1,870 j -1,548
c -1,505 g +2,934 k +2,986
d -0,849 h -1,548 I -1,965

Tab.6.15 Speicherbedarf und Rechenzeiten, Radarkuppel

Methode Ns NH NI Parameter nit CPU

CHOLESKY 7188 - 201 - - 4,6


CG o. SkaI. 2076 603 2277 - 44 6,5
CG m. SkaI. 2076 603 2277 - 55 7,6
SSORCG 2076 804 2277 Wopt = 1,0 55 14,9
PACHCG 2076 2880 2277 a opt = 0,0 23 8,5

Rechenaufwandes der einzelnen Methoden. So erlaubt die regelmäßige


Besetzungsstruktur von S, in welcher die von Null verschiedenen Matrixele-
mente im wesentlichen in Diagonalen angeordnet sind, eine sehr gute
Vektorisierung des Matrix-Vektor-Produktes bei den cg-Methoden (vgl.
Abschn. 4.6.4). Anderseits weist das Innere des Bandes eine große Anzahl von
verschwindenden Matrixelementen auf, die im Verlauf der Cholesky-Zer-
legung dem Fill-in unterliegen. In Tab.6.15 sind für die effizientesten
Lösungsmethoden der Speicherbedarf N s für die Matrixelemente von S in der
hüllenorientierten oder zeilenweisen kompakten Speicherung der unteren
Hälfte, dazu der allenfalls zusätzliche Arbeitsspeicherplatz NH für Hilfsvekto-
ren und der partiellen Cholesky-Zerlegung und weiter der Speicherplatz für
Indexinformationen NI zusammengestellt. Im Fall der beiden vorkonditio-
nierten Methoden der konjugierten Gradienten sind die optimalen Parameter-
werte angegeben und für die iterativen Verfahren sind die Zahl der Iterations-
schritte nil festgehalten, wobei das Abbruchkriterium (6.5) gilt. Zudem findet
man die Rechenzeiten für den Lösungsprozeß allein ohne Kompilation und
Berücksichtigung der Randbedingungen.
Die direkte Auflösung des linearen Gleichungssystems benötigt die kleinste
Rechenzeit, die aber nicht wesentlich kleiner ist im Vergleich zu derjenigen der
Methode der konjugierten Gradienten ohne Vorkonditionierung. Interessant
an diesem Beispiel ist die Tatsache, daß die Skalierung der Systemmatrix die
Anzahl der Iterationsschritte und damit die Rechenzeit sogar erhöht. Die
normale Methode der konjugierten Gradienten löst die Aufgabe recht effizient
mit dem weitaus geringsten Speicherbedarf, wenn man noch beachtet, daß für
372 6 Anwendungen mit Resultaten

die Indexinformation NI kurze Computerworte verwendet werden können.


Die SSORCG-Methode ist in keiner Hinsicht konkurrenzfähig. Bei der
PACHCG-Methode ist die Zahl der Iterationsschritte am geringsten. Die
partielle Cholesky-Zerlegung erfordert im Lösungsprozeß etwa die Hälfte der
Auflösungszeit. Sind mehrere Lastfälle zu behandeln, und braucht die partielle
Cholesky-Zerlegung nur einmal ausgeführt zu werden, so kann diese Methode
bei etwa 25 % geringerem Speicherbedarf eine konkurrenzfähige Alternative
darstellen.

6.1.3 Räumliche Rahmenkonstruktionen

Es werden zwei größere Konstruktionen betrachtet, die sich aus Balkenele-


menten zusammensetzen, welche in ihren Verbindungsknoten starr miteinan-
der verbunden sind. Es soll insbesondere die Effizienz der Lösungsverfahren
dargelegt werden.

6.1.3.1 Radarkuppel aus Balkenelementen

Wir betrachten die Radarkuppel von Fig.6.11, die sich jetzt aus 186
Balkenelementen mit quadratischem Querschnitt A = 5 cm 2 , dem Elastizitäts-
modul E = 2 . 108 kN m -2 und der Poissonzahl v = 0,3 zusammensetzt. Die
Lagerung der Knotenpunkte des Grundkreises sei dieselbe wie in Fig. 6.12. Die
Ordnung der Gesamtsteifigkeitsmatrix S beträgt jetzt n = 402. Von den 402
Knotenvariablen sind 16 durch homogene Randbedingungen vorgegeben.
Wird die gleiche Numerierung der Knotenpunkte wie in Abschn.6.1.2.2
verwendet, besitzt die Gesamtsteifigkeitsmatrix S die Besetzungsstruktur von
Fig. 6.13 mit dem Unterschied, daß jetzt IZI eine (6 X 6)-Matrix darstellt. Es soll
die zusätzliche Deformation der Rahmenkonstruktion unter der Einwirkung
der Kräfte gemäß Tab. 6.12 bestimmt werden. Die resultierenden Auslenkun-
gen stimmen mit den in Tab. 6.13 wiedergegebenen Werten praktisch überein.
Die Abweichungen betragen höchstens eine Einheit der letzten angegebenen
Dezimalstelle.
Das lineare Gleichungssystem wurde mit der direkten Methode von Cholesky
und mit iterativen Verfahren der konjugierten Gradienten ohne und mit
Vorkonditionierungen gelöst. In der Tab. 6.16 sind für Vergleichszwecke in
Analogie zur Tab. 6.15 die entsprechenden Zahlwerte zusammengestellt.
Das Gleichungssystem wird mit der normalen cg-Methode nach Skalierung
des Systems in jeder Hinsicht am effizientesten gelöst. Die Skalierung der
Gesamtsteifigkeitsmatrix S reduziert die Konditionszahl doch wesentlich, weil
der Deformationszustand der Balkenelemente auch durch erste Ableitungen
beschrieben wird. Es sei noch darauf hingewiesen, daß die verwendeten
Längeneinheiten einen ganz entscheidenden Einfluß auf das Konvergenzver-
6.1 Stationäre Probleme 373

Tab. 6.16 Speicherbedarf und Rechenzeiten, Radarkuppel als Rahmenkonstruktion

Methode Ns NH NI Parameter nit CPU

CHOLESKY 28551 - 402 - - 32,8


CG o. SkaI. 8103 1206 8505 - 213 99,1
CG m. SkaI. 8103 1206 8505 - 68 31,9
SSORCG 8103 1608 8505 wopt = 1,05 55 54,5
PACHCG 8103 9711 8505 a opt = 0,0 23 49,3

halten im Fall des nichtskalierten Systems haben. Die beiden Vorkonditionie-


rungen reduzieren zwar die Zahl der Iterationsschritte, doch gleichzeitig
erhöht sich die Rechenzeit, da der Aufwand pro Schritt ungefähr verdoppelt
wird. Im Fall der PACHCG-Methode erfordert die partielle Cholesky-
Zerlegung allein die ins Gewicht fallende Rechenzeit von 25,8 sec, d. h. etwa
die Hälfte der Gesamtzeit. An diesem Beispiel wird deutlich, daß iterative
Verfahren den direkten Methoden überlegen sein können.

6.1.3.2 Belasteter Hochspannungsmast

Wir betrachten einen Hochspannungsmast mit einer Konstruktion gemäß


Fig. 6.14. Sein Aufbau wurde auf Grund eines bestehenden Hochspannungs-
mastes in den Bergen unter unwesentlichen Vereinfachungen entworfen. Seine
massive, unten breite Bauweise erklärt sich dadurch, daß die Hochspannungs-
leitung an dieser Stelle unter einem Winkel von etwa 135° geführt wird, so daß
der Mast auch seitliche Kräfte aufzunehmen hat. Seine Fußpunkte befinden
sich auf verschiedenen Höhen, da sich sein Standort an einem Hang befindet.
Der Hochspannungsmast wird als Rahmenkonstruktion behandelt. Die
vorliegende Konstruktion besitzt 167 Knotenpunkte, so daß bei sechs
Freiheitsgraden pro Knotenpunkt n = 1002 Knotenvariable resultieren. Um
die Situation zu vereinfachen, ist die Annahme getroffen worden, daß die
Querschnitte der Balkenelemente quadratisch seien. Um anderseits der
Realität einigermaßen gerecht zu werden, sind Balkenelemente mit drei
verschiedenen Querschnittflächen verwendet worden. Die vertikalen, tragen-
den Balken bis zum oberen Ausleger sollen die Querschnittfläche Al = 64 cm 2
haben, für die schrägen Verstrebungen und die Elemente der Ausleger ist eine
Fläche A2 = 17,64 cm 2 angenommen, und die meisten horizontalen Träger
sowie die Elemente des Turmaufbaus mögen den Querschnitt A3 = 5,29 cm 2
aufweisen. Die verschiedenen Querschnitte der Elemente ist in Fig. 6.14 an den
unterschiedlichen Strichdicken erkennbar. Der Elastizitätsmodul des Mate-
rials sei E=2'10 8 kNm- 2, und die Poissonzahl sei v=0,3. Die Spitze des
Aufbaus befindet sich 47,24 m über dem tiefsten Fußpunkt, und die Abmes-
sung der untersten horizontalen Verstrebung beträgt 8 m. Der Mast setzt sich
374 6 Anwendungen mit Re
sultaten

Fig. 6.14 Aufbau des Ho


chspannungsmastes
6.1 Stationäre Probleme 375

Fig.6.15 Besetzungsstruktur von S für den Hochspannungsmast

aus 499 Balkenelementen zusammen. Im oberen Teil des Mastes kreuzen sich
einige Balkenelemente ohne am Kreuzungspunkt miteinander verbunden zu
sein. In Fig. 6.14 sind deshalb die wirklichen Knotenpunkte durch ausgefüllte
Kreise hervorgehoben.
Aus naheliegenden Gründen sind die Knotenpunkte von oben nach unten
durchnumeriert. Dadurch erhält die Gesamtsteifigkeitsmatrix Seine Hüllen-
struktur mit dem Profil p = 50343. Die Besetzungsstruktur von S ist in
Fig.6.15 dargestellt, wo jedem IZI eine Untermatrix der Ordnung sechs
entspricht. An der Besetzungsstruktur ist die Struktur des Mastes, insbesonde-
re die drei Ausleger und der regelmäßige Aufbau des unteren Teils, deutlich zu
erkennen.
Die Deformation des Hochspannungsmastes ist zu bestimmen unter der
Annahme, daß die vier Fußpunkte eingespannt sind und daß der Mast durch
sieben Einzelkräfte an den Enden der Ausleger und an der Mastspitze belastet
ist. Da die Hochspannungsleitung unter einem Winkel geführt ist, wurden an
den Auslegern die Kraftkomponenten K x = 2 kN, K y = 1 kN und K z = -20 kN
angenommen. Dem kleineren Gewicht des Erdungsseils entsprechend sei die
376 6 Anwendungen mit Resultaten

Tab.6.17 Auslenkungen des Hochspannungsmastes

Punkt u [mm] v [mm] w[mm] Punkt u [mm] v [mm] w[mm]

A 4,60 2,33 -0,90 H 3,38 1,46 -6,41


B 3,51 1,87 -0,56 I 1,51 1,46 -9,03
C 3,76 1,82 -1,06 K 1,49 0,89 -0,30
D 4,11 1,84 -5,34 L 1,82 0,79 -0,95
E 2,80 1,84 -7,03 M 2,43 0,81 -7,53
F 2,65 1,42 -0,46 N 0,52 0,81 -9,37
G 2,89 1,39 -1,06

an der Spitze angreifende Kraft fünfmal kleiner. Die resultierenden Auslen-


kungen von ausgewählten Knotenpunkten der Fig.6.l4 sind in Tab.6.l7
zusammengefaßt.
Das lineare Gleichungssystem des belasteten Hochspannungsmastes wurde
sowohl direkt nach der Methode von Cholesky unter Ausnützung der
Hüllenstruktur der Gesamtsteifigkeitsmatrix S als auch mit Hilfe der Methode
der konjugierten Gradienten ohne und mit Vorkonditionierungen gelöst. In
Tab. 6.18 sind der Speicherbedarf N s für die Matrixelemente von S in der
zugehörigen Speicherart, der eventuell zusätzliche Arbeitsspeicherplatz N H für
Hilfsvektoren und der partiellen Cholesky-Zerlegung sowie die Zahl NI von
Indexinformationen zusammengefaßt. Für die iterativen Methoden sind die
optimalen Parameterwerte und die Zahl der Iterationsschritte nil angegeben,
wobei das Abbruchkriterium (6.5) Anwendung fand. Die Rechenzeiten
umfassen nur den eigentlichen Lösungsprozeß ohne die Kompilation des
Gleichungssystems.

Tab.6.18 Speicherbedarf und Rechenzeiten, Hochspannungsmast

Methode Ns NH NI Parameter nit CPU

CHOLESKY 50343 - 1002 - - 57


CG o. SkaI. 21471 3006 1002 - 2403 3880
CG m. SkaI. 21471 3006 1002 - 559 904
SSORCG 21471 4008 22473 WOpl = 1,05 251 848
PACHCG 21471 25479 22473 a opt = 0,0 95 428

Die direkte Methode von Cholesky löst die Aufgabe auf einem PS/2-System,
Modell 55, eindeutig mit der kleinsten Rechenzeit. Die sehr große Zahl von
Iterationsschritten der Methode der konjugierten Gradienten ohne oder mit
Skalierung ist ein Hinweis auf die große Konditionszahl der Systemmatrix S,
in welcher sich die Steifigkeit der Konstruktion widerspiegelt! Die Vorkondi-
6.1 Stationäre Probleme 377

tionierungen vermögen zwar die Zahl der Iterationsschritte zu verringern,


doch reduziert sich im Fall der SSORCG-Methode die Rechenzeit nur
unwesentlich. Die PACHCG-Methode löst das Gleichungssystem mit relativ
wenigen Iterationsschritten, doch ist die Rechenzeit im Vergleich zur direkten
Methode immer noch prohibitiv hoch. Zudem ist der total erforderliche
Speicherbedarf sogar höher im Vergleich zur direkten Methode, selbst dann,
wenn man berücksichtigt, daß die Indexinformation mit kurzen Computer-
zahlen behandelt werden kann. Die iterativen Verfahren schneiden in diesem
Beispiel schlecht ab, weil sich einerseits der Mast im wesentlichen wie ein
eindimensionales Problem verhält mit einer relativ stark besetzten Hülle von
S, und weil anderseits die Konditionszahl von S als Folge der hohen Steifigkeit
der Konstruktion sehr groß ist.

6.1.4 Scheibenprobleme

Anhand einer einfachen Testscheibe soll dargelegt werden, in welcher Weise


die resultierenden Auslenkungen vom Typus der Ansatzfunktionen und der
Elementeinteilung abhängig sind. Ferner soll das Konvergenzverhalten der
iterativen Lösungsverfahren zur Lösung der anfallenden linearen Gleichungs-
systerne studiert werden. Als praktisches Anwendungsbeispiel wird der
Spannungs zu stand eines konkreten Gabelschlüssels unter vereinfachenden
Annahmen bestimmt.

6.1.4.1 Testscheibe

Wir betrachten eine Scheibe der Länge 40 cm, der Höhe 10 cm und einer Dicke
von 2 cm, welche an zwei Stellen gelagert und durch eine Einzellast von 10 kN
belastet ist (Fig. 6.16). Die elastischen Konstanten seien E = 2· 104 kN cm- 2
und v = 0,3. Durch die angedeutete Lagerung, welche nur eine Verschiebung in
vertikaler Richtung verhindert, ist die Aufgabe statisch unbestimmt, da eine
horizontale Verschiebung der Scheibe als Ganzes möglich ist. Durch die
zusätzliche Bedingung, daß die Auslenkung u in mindestens einem Punkt
verschwindet, wird die Problemstellung statisch bestimmt.
Infolge der Symmetrie der Aufgabe genügt es, die eine Hälfte der Scheibe zu
betrachten, indem längs des Schnittes AB entsprechende Randbedingungen

:r
F

Fig.6.16
Testscheibe
+1 I·
0 B
40cm
1
.1
378 6 Anwendungen mit Resultaten

formuliert werden. Diese betreffen verschwindende Verschiebungen u in den


Knotenpunkten. Im Fall von kubischen Ansatzfunktionen mit partiellen
Ableitungen als Knotenvariablen sind überdies aus Symmetriegründen die
Werte von uy und Vx gleich Null vorzuschreiben. Zudem ist die angreifende
Kraft zu halbieren.

5kN 5kN

a) )

L:>.

5kN 5kN

d)

Fig.6.17 Elementeinteilungen der Testscheibe

Tab. 6.19 Charakterisierung der Fälle, Testscheibe

Fall Einteilung und Ansatz n m n(m + I) P N

I a) bilinear 132 15 2112 1858 1058


II b) quadratisch, Serendipity-Klasse 192 39 7680 5608 2608
III a) quadratisch, Serendipity-Klasse 362 39 14480 11123 5123
IV c) quadratisch 226 45 10396 6535 2391
V b) kubisch, Serendipity-Klasse 216 47 10368 8316 4716
VI d) vollständig kubisch,
Kondensation 150 41 6300 4557 2577
VII a) kubisch, Serendipity-Klasse 396 47 19008 16326 9126

Der Verschiebungszustand und die Spannungsverteilung werden für einige


Elementeinteilungen und verschiedene Ansätze berechnet. Fig. 6.17 zeigt die
vier Diskretisationen, und in Tab. 6.19 sind die verwendeten Ansätze, die Zahl
n der zugehörigen Knotenvariablen, die Bandbreiten m, der Speicherbedarf
n(m + 1) für die Gesamtsteifigkeitsmatrix als Bandmatrix, dazu zum Vergleich
6.1 Stationäre Probleme 379

das Profil p der Hülle und die Totalzahl N der potentiell von Null
verschiedenen Matrixelemente der unteren Hälfte zusammengestellt. Die
kompakte Speicherung der Matrixelemente bringt hauptsächlich im Fall der
quadratischen Ansätze eine wesentliche Reduktion des Speicherbedarfs, selbst
unter Berücksichtigung der zusätzlichen Indexinformation. In den übrigen
Fällen sind die Bandmatrizen bzw. die Hüllen relativ stärker besetzt. Im Fall
der vollständig kubischen Ansätze für Dreieckelemente werden die Knoten-
variablen des Schwerpunktes durch den Prozeß der Kondensation bereits in
den Elementmatrizen eliminiert. Dies beeinflußt selbstverständlich die cha-
rakterisierenden Größen.

Tab. 6.20 Verschiebungen in ausgewählten Punkten in cm, gemeinsamer Faktor 10- 5

Fall VA VB Uc Vc UD VD UF UF

I -527 -485 109 -342 -112 -343 139 -54


II -553 -507 111 -361 -115 -362 141 -67
III -573 -521 111 -374 -115 -375 142 -80
IV -562 -507 111 -360 -115 -361 141 -66
V -546 -515 111 -368 -115 -369 142 -73
VI -534 -506 111 -359 -115 -361 141 -65
VII -565 -524 111 -377 -115 -378 142 -83

In Tab. 6.20 sind die resultierenden Verschiebungen der ausgewählten Punkte


A, B, C, D und F nach Fig. 6.16 für die sieben Fälle enthalten. Im Fall V sind
die Werte Uc, Uc, UD und UD durch kubische Interpolationen gewonnen, da C
und D keine Knotenpunkte sind. Die Zahl werte zeigen, daß der bilineare
Ansatz bereits recht brauchbare Ergebnisse liefert mit maximalen Abweichun-
gen von gegen 10% im Vergleich zu den genaueren Werten der Fälle III und
VII. Anderseits bringt der kubische Ansatz gegenüber dem quadratischen
Ansatz (Fälle II und V, bzw. Fälle III und VII) keine entscheidenden
Änderungen, obwohl die Anzahl der Knotenvariablen in beiden Fällen sogar
etwa 10% größer ist. Da auch die Bandbreiten steigen, erhöht sich der Rechen-
und Speicheraufwand. Die Verwendung der kubischen Elemente lohnt sich in
diesem Fall offenbar nicht.
Die Spannungswerte fIx, fIy und r in den Mittelpunkten der Quadrate der
Diskretisation a) von Fig. 6.17 sind je tabelliert von oben nach unten in den
Fig. 6.18 und 6.19 für den bilinearen, bzw. den quadratischen Ansatz
angegeben. In der unmittelbaren Umgebung sowohl des Lastangriffspunktes
wie auch des Auflagepunktes sind größere Abweichungen festzustellen,
bedingt durch die dort auftretenden großen Spannungsänderungen. Die lokal
je feinere E1ementeinteilung c) von Fig. 6.17 trägt dieser Situation Rechnung.
380 6 Anwendungen mit Resultaten

-40 -211 -483 -769 -1034 -1275 -1496 -l7J0 -1951 -2448
-38 -32 -4 -7 8 6 8 -13 34 -1226
-39 -135 -170 -162 -144 -127 -113 -105 -136 -670

-49 -185 -322 -433 -540 -656 -784 -924 -1077 -877
-214 -122 -11 30 30 23 13 -12 -267 -720
-153 -328 -370 -351 -324 -305 -294 -306 -417 -293

-46 -129 -122 -63 -31 -24 -35 -48 13 97


-539 -200 9 54 43 31 13 -57 -216 -387
-252 -435 -408 -375 -368 -368 -372 -385 -345 -150

-92 -54 210 383 520 640 753 871 988 1071
-961 -156 64 47 33 21 5 -35 -104 -164
-376 -371 -254 -268 -293 -313 -325 -314 -246 -96

228 581 716 882 1085 1315 1562 1811 2027 2157
-1344 108 15 19 9 6 1 -8 -22 -34
-429 19 -48 -94 -121 -137 -145 -139 -106 -41

Fig.6.18 Spannungen für bilinearen Ansatz

-49 -229 -496 -781 -1049 -1296 -1526 -1744 -2117 -2189
-48 -25 -1 7 6 5 4 0 -47 -679
-46 -132 -161 -153 -138 -125 -117 -104 -196 -578

-45 -182 -322 -439 -552 -671 -804 -938 -1035 -959
-242 -106 0 28 25 19 11 -22 -183 -866
-152 -330 -365 -347 -324 -307 -298 -314 -367 -296

-42 -124 -120 -70 -37 -27 -34 -37 8 95


-576 -150 23 49 38 26 10 -42 -184 -414
-243 -435 -407 -379 -371 -370 -372 -377 -345 -148

-80 -78 182 378 526 651 768 885 1000 1083
-1107 -48 54 46 29 18 6 -27 -98 -175
-381 -346 -262 -271 -293 -310 -320 -310 -250 -103

-47 568 749 910 1112 1343 1590 1838 2054 2186
-598 27 27 14 8 5 2 -5 -20 -34
-357 -21 -46 -95 -117 -130 -137 -133 -104 -40

Fig.6.19 Spannungen für quadratischen Ansatz


6.1 Stationäre Probleme 381

Die in diesem Fall mit dem quadratischen Ansatz berechneten Spannungs wer-
te sind deshalb bedeutend zuverlässiger.
Die Lösung der linearen Gleichungssysteme nach der direkten Methode von
Cholesky ist hinsichtlich Rechenzeit erwartungsgemäß am effizientesten. Die
Systeme sind auch mit der Methode der konjugierten Gradienten ohne
Vorkonditionierung, einmal ohne und dann mit Skalierung, mit zwei Varian-
ten der Vorkonditionierung und der Methode der Überrelaxation (SOR) gelöst
worden. Die iterativen Verfahren wurden abgebrochen, sobald das Abbruch-
kriterium (6.5) mit e = 10- 16 erfüllt war. Der optimale Überrelaxationsfaktor
Wopt der SOR-Methode wurde experimentell bestimmt. In Tab. 6.21 sind die
maßgebenden Zahl werte zusammengestellt.

Tab.6.21 Zur Lösung der Gleichungssysteme, Testscheibe

Fall CHO- cg-Methode SSORCG PACHCG SOR


LESKY ohne mit a =0,0
CPU SkaI. SkaI.
nit nit CPU Wo pt nit CPU nit CPU Wopt nit

I 0,66 82 68 4,8 1,10 27 4,0 18 3,5 1,942 460

II 3,5 188 159 25,2 1,35 46 15,4 24 13,2 1,968 1010


III 6,3 227 198 60,9 1,45 51 33,1 25 26,3 1,974 1160
IV 3,7 172 148 22,4 1,35 49 15,5 31 13,0 1,968 980

V 5,8 120 83 22,6 1,10 32 18,6 19 32,3 1,940 550


VI 2,6 103 81 12,4 1,00 35 11,3 21 14,6 1,930 1110
VII 11,7 141 98 51,0 1,15 36 40,0 21 67,0 1,952 500

Die Skalierung der Matrizen der linearen Gleichungssysteme reduziert die


Anzahl der Iterationsschritte der normalen Methode der konjugierten Gra-
dienten mehr oder weniger. Die vorkonditionierte SSORCG-Methode bringt
die entscheidende Reduktion an Iterationen, so daß bei nicht erhöhtem
Speicherbedarf die Rechenzeiten im Vergleich zur direkten Cholesky-Methode
noch etwa drei bis sechs Mal so hoch sind. Wird die Vorkonditionierung mit
Hilfe der partiellen Cholesky-Zerlegung angewandt, so reduziert sich die Zahl
der benötigten Iterationsschritte weiter, doch sind die Rechenzeiten im Fall
der linearen und der quadratischen Ansätze nur unbedeutend kleiner,
während sie im Fall der kubischen Ansätze sogar um einiges größer sind. Der
Aufwand der partiellen Cholesky-Zerlegung ist folglich nicht zu vernachlässi-
gen, da er die Einsparung an Iterationsschritten in diesen Fällen mehr als
aufwiegt. Dies hängt mit der stärkeren Besetzung der Matrix S im Fall der
kubischen Ansätze zusammen. Wegen des zusätzlichen Speicherbedarfs für
382 6 Anwendungen mit Resultaten

die Vorkonditionierungsmatrix erscheint die PACHCG-Methode in diesen


Beispielen wenig geeignet. Die letzte Kolonne der Tab. 6.21 zeigt, daß die
Methode der Überrelaxation wohl kaum in Betracht zu ziehen ist.

6.1.4.2 Gabelschlüssel

Wir betrachten einen handelsüblichen Gabelschlüssel, wie er in Fig. 1.8


dargestellt ist. Es soll die Spannungsverteilung im Schlüssel berechnet werden,
falls er einer kontinuierlich verteilten Belastung nach Fig. 1.8 von
p = 57,95 Ncm -1 unterworfen wird. Die Belastung wirkt auf einer Länge von
6,21225 cm senkrecht zum Griff. Die total angreifende Kraft beträgt 360 N,
entsprechend einem Drehmoment an der Schraube von rund 5940 Ncm. Die
beiden durch Kreise markierten Punkte des Gabelschlüssels werden als die
einzigen Berührungspunkte des Schlüssels mit der Schraube als fest angenom-
men, so daß dort als geometrische Randbedingungen die Verschiebungen
verschwinden. Die Dicke des Gabelschlüssels beträgt h = 0,7 cm, der Elastizi-
tätsmodul sei E = 2 . 10 7 N cm - und die Poissonzahl v = 0,3. Die geometrischen
Abmessungen können der Fig. 6.22 entnommen werden.

Fig.6.20 Gabelschlüssel mit grober Elementeinteilung für quadratischen Ansatz.


Isoparametrische Elemente

Die gestellte Aufgabe wurde mit linearen, quadratischen und vollständigen


kubischen Verschiebungsansätzen für je zwei verschiedene Elementeinteilun-
gen behandelt. Im Fall des quadratischen Ansatzes wurden zur besseren
Approximation des Schlüssels krummlinige, isoparametrische Elemente ver-
wendet. Fig.6.20 zeigt eine grobe Einteilung in teilweise krummlinige
Dreieckelernente, welche bereits eine hervorragende Approximation des
Schlüssels ergeben. In Fig.6.21 ist eine feinere Einteilung in teilweise
krummlinige Dreieckelemente für den quadratischen Ansatz dargestellt. Aus
diesen beiden Diskretisationen wurden entsprechende Elementeinteilungen
für quadratische Ansätze mit geradlinigen Dreieckelementen gewonnen,
6.1 Stationäre Probleme 383

Fig.6.21 Gabelschlüssel mit feiner Elementeinteilung für quadratischen Ansatz.


Isoparametrische Elemente

Fig.6.22 Grobe Triangulierung des Gabelschlüssels, geradlinige Elemente, kubischer


Ansatz. Linien gleicher Hauptspannungsdifferenzen

indem alle krummlinigen Randstücke durch gerade Kanten ersetzt sind.


Zudem bildeten die Einteilungen der Fig. 6.20 und Fig. 6.21 den Ausgangs-
punkt zur Erzeugung von Elementeinteilungen für den linearen Ansatz. Dazu
wurden alle Dreiecke in vier Dreiecke eingeteilt, wobei alle Knotenpunkte auf
den Seiten zu Eckpunkten wurden. Für den vollständigen kubischen Ansatz
sind die Einteilungen nach Fig. 6.22 und Fig. 6.23 zugrunde gelegt. Tab. 6.22
enthält die Angaben über acht verschiedene Fälle, nämlich die Zahl der
Knotenvariablen n, Bandbreite m und den Speicherbedarf n(m + 1) der
zugehörigen Bandmatrix.
In Tab. 6.23 sind die resultierenden Verschiebungen der fünf Punkte A, B, C, D
und E für die acht Fälle zusammengestellt. Im Fall VII stellen die Punkte B
und D keine Knotenpunkte dar. Die Werte UB, VB, UD und VD sind durch
kubische Interpolation gewonnen. Betrachtet man die Auslenkungen im
384 6 Anwendungen mit Resultaten

Fig.6.23 Feine Triangulierung des Gabelschlüssels, geradlinige Elemente, kubischer


Ansatz. Linien gleicher Hauptspannungsdifferenzen

Tab.6.22 Charakterisierung der Fälle, Gabelschlüssel

Fall Einteilung und Ansatz n m n(m + 1)


I (Fig. 6.19), geradlinige Elemente, linear 196 23 4704
II (Fig. 6.20), geradlinige Elemente, linear 384 25 9984
III (Fig. 6.19), geradlinige Elemente, quadratisch 196 39 7840
IV (Fig. 6.20), geradlinige Elemente, quadratisch 384 47 18432
V (Fig. 6.19), krummlinige Elemente, quadratisch 196 39 7840
VI (Fig. 6.20), krummlinige Elemente, quadratisch 384 47 18432
VII (Fig. 6.21), geradlinige Elemente, kubisch 262 59 15720
VIII (Fig. 6.22), geradlinige Elemente, kubisch 388 59 23280

Tab. 6.23 Verschiebungen in ausgewählten Punkten in cm, gemeinsamer Faktor 10- 5•


Gabelschlüssel

Fall uA VA UB VB Uc Vc UD VD UE VE

I 1 163 -23 -76 29 -283 -237 -1769 -581 -3080


II 3 180 -22 -87 33 -310 -258 -2147 -718 -3938
III 2 171 -30 -82 27 -302 -272 -2297 -781 -4294
IV 5 205 -27 -99 36 -352 -295 -2468 -829 -4546
V 3 203 -25 -98 36 -341 -288 -2432 -816 -4497
VI 5 214 -26 -105 36 -365 -301 -2517 -842 -4620
VII -1 175 -36 -82 24 -309 -293 -2361 -803 -4369
VIII 4 206 -28 -99 33 -347 -293 -2454 -825 -4524

Punkt E, so wird deutlich, daß der lineare Verschiebungsansatz mit konstan-


ten Spannungen in den einzelnen Dreieckelementen allzu steif ist und zu kleine
Deformationen liefert. Der quadratische Verschiebungsansatz mit entspre-
6.1 Stationäre Probleme 385

chend linear variierender Spannungsverteilung pro Dreieckelement ergibt im


Vergleich zu den kubischen Ansätzen bereits recht brauchbare Ergebnisse.
Interessant an den Resultaten ist die Tatsache, daß die Verwendung der
krummlinigen Elemente in der groben Einteilung (im Fall V) praktisch
dieselben Deformationen liefert wie die feine Diskretisation in geradlinige
kubische Elemente (Fall VIII). Diese Beobachtung steht im Einklang mit der
Feststellung, daß die nicht exakte numerische Integration im Fall der
isoparametrischen Elemente das verwendete Modell in gewissem Sinn weicher
gestaltet. Deshalb sind die Verschiebungen im Fall VI auch am größten.
Um die Spannungsverhältnisse im Gabelschlüssel darzustellen, sind für den
kubischen Verschiebungsansatz die Spannungen (5x, (5y und !xy im Innern der
Dreieckelemente berechnet worden und daraus die beiden Hauptspannungen
(51 und (52 (vgl. dazu etwa [HMS75]. Die verwendeten vollständigen kubischen
Ansätze garantieren die Stetigkeit der ersten partiellen Ableitungen und damit
der Spannungen nur in den Knotenpunkten. Die mit einem speziellen
Plotterprogramm in den einzelnen Dreieckelementen ermittelten Linien
konstanter Hauptspannungsdifferenzen sind anschließend von Hand geglättet
worden. In Fig. 6.22 und Fig. 6.23 sind die Linien konstanter Hauptspan-
nungsdifferenzen für 2, 4, 6, 8, 10, 15 und 20 kNcm -2 eingezeichnet. Die
Niveaulinien mit den drei höchsten Werten sind nicht angeschrieben.

Tab. 6.24 Zur Lösung der Gleichungssysteme, Gabelschlüssel

Fall n p N CHO- CGm.Skal. SSORCG PACHCG


LESKY a =0,0
CPU nit CPU wopt njt CPU nit CPU

III 196 2994 1926 1,10 177 21,7 1,10 71 18,2 34 11,0
IV 384 6328 3912 2,53 282 69,6 1,30 105 53,8 56 33,7

VII 192 4560 3048 2,53 148 26,7 0,90 63 24,0 21 15,6
VIII 282 6927 4551 3,73 174 46,7 0,95 68 38,4 21 24,1

Die linearen Gleichungssysteme sind mit der direkten Cholesky-Methode


unter Verwendung der Hüllenstruktur und mit den vorkonditionierten
Methoden der konjugierten Gradienten gelöst worden. Um das Profil der
Hülle zu minimieren, wurden optimale Numerierungen der Knotenpunkte mit
Hilfe des Cuthill-McKee-Algorithmus ermittelt. In Tab. 6.24 sind die maßge-
benden charakteristischen Zahl werte wie die Ordnung n, das Profil p und die
Zahl der potentiell von Null verschiedenen Matrixelemente der unteren Hälfte,
die optimalen Parameterwerte sowie die ermittelten Rechenzeiten in für die
Diskretisationen in geradlinige Elemente mit quadratischen und kubischen
Ansätzen zusammengestellt. Die angegebenen Rechenzeiten umfassen nur den
386 6 Anwendungen mit Resultaten

eigentlichen Lösungsprozeß und nicht die Kompilation der Matrizen. Die


Cholesky-Methode löst die Aufgabe in jeder Hinsicht am effIzientesten. Denn
der Gabelschlüssel verhält sich im wesentlichen wie ein eindimensionales
Problem, so daß die Hülle von S stark besetzt ist und durch die kompakte
Speicherung keine große Einsparung an Speicherplatz erzielt werden kann.
Aus diesem Grund arbeiten die iterativen Verfahren nicht besonders vorteil-
haft.

6.1.5 Plattenbeispiele

An einer quadratischen Testplatte soll illustriert werden, wie die berechneten


Durchbiegungen von der Diskretisation und den Ansatzfunktionen abhängig
sind und wie insbesondere die Methode der konjugierten Gradienten zur
Lösung der linearen Gleichungssysteme in diesem Fall arbeitet. Als prakti-
sches Beispiel wird eine schiefe Platte betrachtet als Modell einer Straßen-
brücke.

6.1.5.1 Testplatte

Wir betrachten eine quadratische Platte der (dimensionslosen) Seitenlänge 2,


welche am linken Rand eingespannt, am rechten Rand gelagert und an den
beiden horizontalen Rändern frei ist. Die Platte unterliege der konstanten
kontinuierlichen Kraft p = 1, die Poissonzahl sein v = 1/6 und die Plattenstei-
figkeit D = 1. Die Bestimmung der Durchbiegungen erfolgt für verschiedene
Einteilungen in Rechteck- und Dreieckelemente. Das Grundgebiet wird dazu

Fig.6.24
Elementeinteilung der Testplatte
6.1 Stationäre Probleme 387

regelmäßig in Quadrate eingeteilt. Daraus werden zwei verschiedene Triangu-


lierungen gewonnen, indem jedes Quadrat erstens in zwei Dreiecke eingeteilt
wird durch eine Diagonale von links unten nach rechts oben, und zweitens in
vier Dreiecke. In Fig. 6.24 ist die Situation für die Einteilung in 64 Quadrate
sowie je teilweise für die beiden Triangulierungen dargestellt. Mit der zweiten
Einteilung in Dreieckelemente wird der Symmetrie der Aufgabe Rechnung
getragen, während dies mit der ersten Triangulierung nicht der Fall ist.
In den Rechteckelementen wird der konforme bikubische Ansatz (2.74) mit
16 Knotenvariablen wie auch der nichtkonforme kubische Ansatz der
Serendipity-Klasse (2.73) mit 12 Knotenvariablen verwendet. In den Dreiecke-
lementen liegt der kubische Ansatz (2.110) von Zienkiewicz zugrunde, der
ebenfalls ein nichtkonformes Element liefert. Auf Grund der theoretischen
Untersuchungen in [LaL 75] erfüllen die Dreieckelemente im Fall der ersten
Triangulierung den Patch-Test, so daß bei Verfeinerung der Einteilung die
Durchbiegungen gegen die richtigen Werte konvergieren. Im Fall der zweiten
Triangulierung, bei welcher die Dreiecksseiten parallel zu vier verschiedenen
Richtungen sind, ist der Patch-Test nicht erfüllt, so daß Konvergenz gegen die
richtigen Werte nicht garantiert ist!
In Tab. 6.25 sind die betrachteten Fälle mit den sie charakterisierenden Daten
zusammengefaßt. Darin bedeuten I die Seitenlänge eines Teilquadrates, ne/ die
Anzahl der Elemente, nkn die Anzahl der Knotenpunkte, n die Zahl der

Tab.6.25 Charakterisierung der Fälle, Testplatte

Fall Ansatz I nel nkn n m n(m + 1) p N

I bikubisch 1/2 16 25 100 27 2800 2170 1402


11 1/3 36 49 196 35 7056 5866 2986
11 1/4 64 81 324 43 14256 12330 5162
IV 1/6 144 169 676 59 40560 36634 11290

V kubisch 1/2 16 25 75 20 1575 1230 798


VI 1/3 36 49 147 26 3969 3318 1698
VII 1/4 64 81 243 32 8019 6966 2934
VIII 1/6 144 169 507 44 22815 20670 6414

IX Zienkiewicz 1/2 32 25 75 17 1350 1086 654


X 1/3 72 49 147 23 3528 2994 1374
XI 1/4 128 81 243 29 7290 6390 2358
XII 1/6 288 169 507 41 21294 19374 5118

XIII Zienkiewicz 1/2 64 41 123 29 3690 2622 1182


XIV 1/3 144 85 255 41 10710 7746 2562
XV 1/4 256 145 435 53 23490 17142 4470
388 6 Anwendungen mit Resultaten

Knotenvariablen, m die Bandbreite, p das Profil und N die Zahl der potentiell
von Null verschiedenen Matrixelemente der unteren Hälfte der Gesamtsteifig-
keitsmatrix. Die Knotenpunkte sind zeilenweise durchnumeriert.
Die Zahlwerte zum Speicherbedarf der Gesamtsteifigkeitsmatrix S zeigen in
diesem Beispiel folgende Eigenschaften auf. Da bei Verfeinerung der Diskreti-
sation einerseits die Zahl der Knotenvariablen quadratisch und anderseits die
Bandbreite linear zunehmen, wächst der Speicherplatz für die Bandmatrix
bzw. das Profil mit der dritten Potenz des Kehrwertes von I. Infolge der sehr
regelmäßigen Struktur von S bringt das Profil keine wesentliche Einsparung
im Vergleich zur Speicherung als Bandmatrix. Die Zahl N der von Null
verschiedenen Matrixelemente nimmt nur linear mit der Anzahl der Knoten-
variablen zu, da die Zahl der von Null verschiedenen Matrixelemente pro Zeile
bei gegebenem Ansatz eine feste Größe ist. Deshalb wächst N nur mit der
zweiten Potenz des Kehrwertes von I. Vergleicht man schließlich noch die
Werte von N entsprechender Fälle von nichtkonformen Elementen, erkennt
man die schwächere Besetzung von S im Fall der Dreieckelemente.

Tab. 6.26 Durchbiegungen in ausgewählten Punkten

Fall WA WB Wc Wv WE WF

I 0,038583 0,040729 0,082385 0,088057 0,069540 0,074599


II 0,038560* 0,040746* 0,082398 0,088068 0,069514* 0,074529*
III 0,038596 0,040774 0,082404 0,088074 0,069550 0,074568
IV 0,038600 0,040780 0,082410 0,088081 0,069554 0,074573

V 0,039026 0,038877 0,083089 0,084564 0,070019 0,071719


VI 0,038719* 0,039824* 0,082656 0,086450 0,069689* 0,073193*
VII 0,038679 0,040255 0,082539 0,087154 0,069640 0,073806
VIII 0,038635 0,040548 0,082466 0,087671 0,069591 0,074230

IX 0,039728 0,037800 0,084364 0,082518 0,070891 0,069589


X 0,039083* 0,039331* 0,083238 0,085488 0,070096* 0,072225*
XI 0,038902 0,039944 0,082872 0,086621 0,069875 0,073271
XII 0,038741 0,040412 0,082617 0,087444 0,069698 0,074000

XIII 0,041806 0,043405 0,087551 0,092046 0,073621 0,077668


XIV 0,040548* 0,042294* 0,085917 0,090673 0,072326* 0,076544*
XV 0,040186 0,042020 0,085348 0,090198 0,071960 0,076264

In Tab. 6.26 sind die Durchbiegungen in sechs ausgewählten Punkten Abis F


(vgl. Fig. 6.24) in Abhängigkeit der Ansätze und der Diskretisierung zusam-
mengestellt. Einige Werte (mit * gekennzeichnet) basieren auf kubischer
Interpolation nach Hermi te [Rut76, Scw88]. Werden die Durchbiegungen im
6.1 Stationäre Probleme 389

Fall IV der feinsten Einteilung mit konformen Elementen als exakte Ver-
gleichswerte betrachtet, zeigen die Ergebnisse im Fall der nichtkonformen
Rechteckelemente bei den feineren Einteilungen eine sehr gute Übereinstim-
mung. Dasselbe gilt auch für die erste Art der Triangulierung, für weIche bei
Verfeinerung der Einteilung die Konvergenz der Durchbiegungen gegen die
richtigen Werte offensichtlich ist. Im Vergleich zu den nichtkonformen
Rechteckelementen sind bei entsprechend feiner Einteilung größere Abwei-
chungen festzustellen, die einerseits der Unsymmetrie der Diskretisation und
anderseits der Tatsache zuzuschreiben sind, daß die Stetigkeit der Normalab-
leitungen zusätzlich längs den Hypotenusen nicht gewährleistet ist. Die
resultierenden Durchbiegungen im Fall der zweiten Triangulierung konvergie-
ren zwar bei Verfeinerung, jedoch gegen falsche Grenzwerte, die bis ca. 3 % zu
hoch sind. Das illustriert die obengenannte Tatsache.

Tab. 6.27 Zur Lösung der Gleichungssysteme, Testplatte

Fall n CHO- CG-Methode SSORCG PACHCG


LESKY ohne Skal. mit Skal.
CPU nit CPU nit CPU W opt nit CPU nit CPU

I 100 1,0 91 8,2 32 3,1 1,0 22 4,0 9 4,7


II 196 3,4 446 79,6 53 9,7 1,0 36 13,5 13 11,9
III 324 8,4 862 261 77 23,6 1,0 54 34,5 17 35,5
IV 676 32,7 2157 1409 145 95,6 1,1 103 142 27 85,1

V 75 0,5 42 2,4 26 1,6 1,0 20 2,1 9 2,1


VI 147 1,5 97 10,7 47 5,3 1,0 34 7,5 13 5,4
VII 243 3,8 185 33,6 72 13,3 1,1 51 19,1 18 11,4
VIII 507 14,7 414 160 133 51,8 1,1 99 80,1 27 40.9

IX 75 0,4 69 3,5 42 2,2 1,0 21 1,9 9 1,5


X 147 1,3 152 14,1 77 7,3 1,1 36 6,6 13 3,9
XI 243 3,6 285 43,1 121 18,6 1,1 54 16,8 17 7,9
XII 507 12,9 619 196 238 75,7 1,1 103 68,5 28 24,4

Die linearen Gleichungssysteme sind neben der direkten Eliminationsmethode


unter Ausnützung der Hüllenstruktur auch mit dem Verfahren der konjugier-
ten Gradienten ohne und mit Vorkonditionierungen gelöst worden. In
Tab. 6.27 sind die maßgebenden Zahlwerte, wie optimale Parameterwerte der
vorkonditionierten Methoden, die Zahl der Iterationsschritte sowie die
gemessenen Rechenzeiten angegeben. Die Rechenzeiten umfassen nur den
Auflösungsprozeß der Gleichungssysteme.
Tab. 6.27 zeigt erwartungsgemäß, daß die direkte Eliminationsmethode die
Aufgabe mit der kürzesten Rechenzeit löst. Die Konvergenzeigenschaft der
390 6 Anwendungen mit Resultaten

Methode der konjugierten Gradienten ist bedeutend besser als die Erfahrun-
gen mit entsprechenden Differenzenapproximationen erwarten lassen
[EGR59]. Bei Skalierung der Gesamtsteifigkeitsmatrix oder mit Vorkonditio-
nierung wird die Anzahl der erforderlichen Iterationsschritte teilweise wesent-
lich kleiner als die Zahl der Knotenvariablen. Besonders ausgeprägt ist dies im
Fall der PACHCG-Methode.
Die verwendeten Typen von Plattene1ementen wirken sich sehr unterschied-
lich auf das Konvergenzverhalten der nicht vorkonditionierten CG-Methode
aus. Wird die Gesamtmatrix nicht skaliert, ist die benötigte Iterationszahl im
Fall der konformen Elemente bei den feineren Einteilungen weit größer als die
Ordnung n. Die Skalierung des Gleichungssystems bringt hier eine entschei-
dende Verbesserung. Darin kommt die Tatsache zum Ausdruck, daß sich die
Diagonale1emente der nichtskalierten Matrix um Zehnerpotenzen unterschei-
den, weil sie mit verschiedenen Potenzen der Elementgröße I multipliziert sind.
Im Fall der nichtkonformen Rechteck- und Dreieckelemente reduziert die
Skalierung die Zahl der Iterationsschritte weniger stark. Die Diagonalelemen-
te der nichtskalierten Matrix unterscheiden sich in der Größenordnung
bedeutend weniger, weil nur erste partielle Ableitungen als Knotenvariable
auftreten und deshalb die Diagonale1emente mit weniger unterschiedlichen
Potenzen von I multipliziert sind.
Die Vorkonditionierung des CG-Verfahrens reduziert die Zahl der Iterations-
schritte in allen Fällen. Die Ergebnisse zeigen ganz deutlich, daß die
Vorkonditionierung mit der partiellen Cholesky-Zerlegung eindeutig die beste
Wirkung hat. Im Fall der konformen Rechteckelemente wird die Rechenzeit
der PACHCG-Methode allerdings erst für die feinste Einteilung kleiner als
diejenige der normalen CG-Methode für das skalierte Gleichungssystem, weil
die partielle Cholesky-Zerlegung mehr als die Hälfte der Gesamtrechenzeit
beansprucht. Interessant an der Zusammenstellung ist die Tatsache, daß die
Iterationszahl der PACHCG-Methode für alle Elementtypen gleich langsam
zunimmt bei Verfeinerung der Elementeinteilung, und daß die Zunahme der
Schrittzahl im Vergleich zur CG- und der SSORCG-Methode schwächer ist.
Das hat zur Folge, daß sich das Verhältnis der Rechenzeiten der PACHCG-
Methode zu denjenigen der CHOLESKY-Methode bei Verfeinerung der
Einteilung zugunsten der iterativen Methode verkleinert, so daß die
PACHCG-Methode bei fortgesetzter Verfeinerung der Elementeinteilung
sogar effIzienter wird. Das wird auch durch folgende Überlegung plausibel:
Bei Halbierung der Elementgröße I nimmt die Zahl der Knotenvariablen etwa
um den Faktor vier, die Bandbreite der Gesamtmatrix um den Faktor zwei zu.
Deshalb wächst der Aufwand der Cholesky-Zerlegung etwa um den Faktor 16.
Anderseits nimmt die Zahl N der von Null verschiedenen Matrixelemente der
unteren Hälfte nur etwa um den Faktor vier zu. Der Aufwand der partiellen
Cholesky-Zerlegung wächst mindestens um den Faktor vier. Wegen den
6.1 Stationäre Probleme 391

zahlreichen Tests wird der Faktor eher zwischen sechs und acht liegen. Da die
Zahl der erforderlichen Iterationsschritte offenbar bei Halbierung von 1 nur
verdoppelt wird, so steigt die Rechenzeit der PACHCG-Methode etwa um den
Faktor acht an. Zur Illustration des Sachverhaltes wurden die Diskretisatio-
nen der Fälle VIII und XII weiter verfeinert, so weit die zugehörigen
Gleichungssysteme mit dem verwendeten Arbeitsplatzrechner behandelt
werden konnten. In Tab. 6.28 sind die Daten der Beispiele und die Rechenzei-
ten für die direkte Methode von Cholesky und die PACHCG-Methode
zusammengestellt. Für 1= 1/10 sind die Profile p der Gesamtmatrizen so groß,
daß die Gleichungssysteme nicht mehr mit der Eliminationsmethode gelöst
werden können, während die von Null verschiedenen Matrixelemente der
unteren Hälfte zusammen mit denjenigen der partiellen Cholesky-Zerlegung
im verfügbaren Speicher gerade noch Platz finden, so daß die iterative Lösung
möglich ist.

Tab.6.28 Feinere Diskretisierungen, Testplatte

Fall Ansatz I net n CHOLESKY PACHCG


P CPU N nil CPU

VIIa kubisch 1/8 256 867 45798 39,7 11238 40 86,9


VIIIb kubisch 1/10 400 1323 85806 - 17406 56 167

XIIa Zienkiewicz 1/8 512 867 43494 36,0 8934 41 57,6


XIIb Zienkiewicz 1/10 800 1323 82206 - 13806 59 121

Obwohl die SSORCG-Methode im Vergleich zur normalen CG-Methode für


das skalierte Gleichungssystem erst für größere Probleme Vorteile bringt, ist in
Fig. 6.25 die Zahl der Iterationsschritte des SSORCG-Verfahrens in Abhän-
gigkeit des Parameters (j) für vier Fälle dargestellt. Sie zeigt wiederum das
flache Minimum der Schrittzahl in der Gegend des optimalen {J)- Wertes.
Seltsamerweise ist die Anzahl der Iterationsschritte im Fall der Rechteckein-
teilungen beim Übergang zu reiner Skalierung, d. h. für (j) gegen Null, nicht
stetig. In Fig. 6.26 ist das Quadrat der euklidischen Norm des Residuenvektors
in den Fällen VII und X in Abhängigkeit der Schritte dargestellt, falls das
Verfahren der konjugierten Gradienten ohne und mit Skalierung angewandt
wird.

6.1.5.2 Brückenplatte

Wir betrachten eine schiefe Brückenplatte, welche an den beiden schmalen


Seiten gelagert und sonst frei ist. Ihre Durchbiegung soll unter ihrem
Eigengewicht bestimmt werden. Die Abmessungen der Platte entsprechen
392 6 Anwendungen mit Resultaten

N" ,T,

200
\•
\•
\•
150. \

\
•, iN
....--........
•'. / •
' 10-1
100

'., .,..... XI

....
...... ... Il
......... ..........
_-.-.~.
IX

0,5 1,0 1,5 w


Fig, 6.25 Iterationsschritte Fig.6.26 Residuenquadrat
des vorkonditionierten im cg-AIgorithmus. Testplatte,
cg-AIgorithmus. Testplatte Fälle VII und X

etwa einem Fußgängerübergang über eine Straße (Fig.6.27). Die Dicke der
Platte sei d = 40 cm, der Elastizitätsmodul von Beton E = 4· 10 6 Ncm -2, die
Poissonzahl v = 1/6 und das spezifische Gewicht {J = 2,548 gcm -3. Daraus
ergibt sich die kontinuierliche Belastungp = 1 Ncm -2. Das Gesamtgewicht der
Platte beträgt rund 30 t.

Fig.6.27
1---------lOm ------~ Brückenplatte

Die Aufgabe wird mit verschiedenen Elementeinteilungen behandelt. Fig. 6.28


zeigt die sechs Einteilungen in Parallelogrammelernente, in denen die nicht-
konformen kubischen Verschiebungsansätze der Serendipity-Klasse an ge wen-
6.1 Stationäre Probleme 393

b)

c) d)

e) f)

Fig. 6.28 Elementeinteilungen der Brückenplatte

Tab. 6.29 Charakterisierung der Fälle, Brückenplatte

Fall Eintei- °
ne/ Fall
t:.
nel n mO pO NO pt:. Nt:.
lung

I a) 10 VII 20 54 14 621 531 531 441


II b) 15 VIII 30 72 17 1026 756 891 621
III c) 40 IX 80 165 20 2976 1896 2616 1536
IV d) 60 X 120 231 26 5466 2766 4926 2226
V e) 80 XI 160 315 20 5886 3726 5166 3006
VI f) 120 XII 240 441 26 10836 5436 9756 4356

det werden. Die Parallelogrammelemente werden zudem inje zwei Dreiecke1e-


mente unterteilt, in denen der Verschiebungsansatz von Zienkiewicz angewen-
det wird. In Fig. 6.28 a ist dies in einem Fall dargestellt. Tab. 6.29 gibt eine
Übersicht über die betrachteten Fälle. Neben der Anzahl der Elemente sind die
Zahl n der Knotenvariablen, die Bandbreite m für die Einteilung in Rechteck-
elernente, das Profil p und die Zahl N der von Null verschiedenen Matrixele-
mente der unteren Hälfte angegeben.
Die optimale kolonnenweise Numerierung der Knotenpunkte führt auf relativ
kleine Bandbreiten und Profile. Die Bandmatrizen bzw. die Hüllen sind relativ
dicht besetzt. Die kompakte Speicherung der von Null verschiedenen Matrix-
elemente der unteren Hälfte bringt höchstens in den Fällen d), e) und f)
394 6 Anwendungen mit Resultaten

gegenüber der hüllenorientierten Speicherung einen Vorteil, falls man den


Überhang mitberücksichtigt, verursacht durch die Indexwerte für die Position
der Matrixelemente.

Tab. 6.30 Durchbiegungen der Brückenplatte in ausgewählten Punkten in cm

Fall WA = WD WB = Wc WF WG WH Wj

I 0,37066 0,60066 0,36392 0,60294 0,61817 0,39194


Ir 0,37194* 0,60252* 0,36575 0,60537 0,62051 0,39359
III 0,37282 0,60384 0,36653 0,60649 0,62180 0,39490
IV 0,37318 0,60435 0,36702 0,60714 0,62243 0,39537
V 0,37293 0,60400 0,36654 0,60656 0,62194 0,39506
VI 0,37330 0,60452 0,36703 0,60722 0,62258 0,39554

VII 0,36921 0,59897 0,35997 0,59960 0,61612 0,39173


VIII 0,36248* 0,58895* 0,35505 0,59035 0,60639 0,38481
IX 0,37257 0,60360 0,36560 0,60587 0,62153 0,39494
X 0,37089 0,60106 0,36429 0,60346 0,61901 0,39318
XI 0,37383 0,60528 0,36766 0,60809 0,62338 0,39601
XII 0,37378 0,60526 0,36741 0,60794 0,62336 0,39611

* interpolierte Werte
Die Aufgabe besitzt die Punktsymmetrie bezüglich des Mittelpunktes der
Platte. In Tab. 6.30 sind die Durchbiegungen in sechs ausgewählten Punkten
zusammengestellt, wie sie auf Grund der zwölf Diskretisationen resultieren.
Die Werte der Durchbiegungen sind alle negativ, da sie ja positiv in positiver
z-Richtung sind. Das konstante negative Vorzeichen ist in Tab. 6.30 weggelas-
sen. Die Konvergenz der Durchbiegungen bei Verfeinerung der Einteilung ist
offensichtlich. Die berechneten Verformungen der Platte für Parallelogramm-
und Dreieckelemente zeigen für die feinsten Unterteilungen eine gute Überein-
stimmung. Während bei Verfeinerung der Diskretisation im Fall der Parallelo-
grammelemente die resultierenden Durchbiegungen monoton zunehmen,
trifft diese Eigenschaft bei den Dreieckelementen dann nicht zu, falls die
Einteilung nur in Querrichtung verfeinert wird. Diese Feststellung ist beson-
ders deutlich in den Fällen VII/VIII und IX/X. Das mathematische Modell
der Platte wird in diesem Fall offensichtlich versteift.
Die Feststellungen zum Verhalten der Methode der konjugierten Gradienten
ohne und mit Vorkonditionierung, die im Fall der Testplatte gemacht worden
sind, behalten ihre Gültigkeit auch für die Brückenplatte. Die Skalierung des
Gleichungssystems reduziert die Zahl der Iterationsschritte im normalen cg-
Verfahren ganz wesentlich. Der optimale w- Wert für die SSORCG-Methode
liegt ebenfalls in der Gegend von Eins. Die Iterationszahl wird aber nur so
schwach reduziert, daß der doppelte Aufwand pro Iterationsschritt die
6.1 Stationäre Probleme 395

Tab.6.31 Zur Lösung der Gleichungssysteme, Brückenplatte

Fall n CHO- CG-Methode SSORCG PACHCG


LESKY ohne SkaI. mit SkaI.
CPU nit CPU nit CPU Wopt njt CPU nit CPU

IV 231 2,5 241 41,4 125 21,5 1,10 102 36,0 35 16,7
V 315 2,3 269 61,4 136 31,3 1,10 109 51,6 29 21,2
VI 441 5,2 360 118 169 55,8 1,10 136 93,3 44 38,9

X 231 2,1 213 31,6 110 16,0 1,10 90 26,3 43 15,1


XI 315 1,9 227 44,9 112 21,6 1,10 86 33,9 25 13,1
XII 441 4,3 292 80,2 133 36,6 1,10 108 61,2 39 27,0

XIII 1023 20,4 701 452 281 181 1,10 227 303 85 125

Rechenzeit sogar erhöht. Eine stärkere Reduktion der Iterationen bringt die
Vorkonditionierung vermittels einer partiellen Cholesky-Zerlegung. Der
Rechenaufwand für den Lösungsprozeß wird dabei aber nicht wesentlich
verringert. Die Tab. 6.31 enthält die Angaben zu den verschiedenen Lösungs-
methoden der drei feinsten Elementeinteilungen IV bis VI und X bis XII. In
allen diesen Fällen wird selbst die PACHCG-Methode bei weitem nicht
konkurrenzfahig im Vergleich zur Cholesky-Methode, weil sich die Profile p
und die Zahlen N der von Null verschiedenen Matrixelemente der unteren
Hälfte der Matrix nur etwa um den Faktor zwei unterscheiden, da die Hüllen
relativ stark besetzt sind. Dies ist eine Folge der langen Brückenplatte. In der
Tab. 6.31 ist noch ein Fall XIII angefügt, bei welchem die Brückenplatte in
weiterer Verfeinerung des Falles XII in 600 Dreieckelemente eingeteilt worden
ist bei 30 Teilintervallen in horizontaler und lO Teilintervallen in vertikaler
Richtung. Die Zahl der Knotenvariablen ist n = lO23, das Profil der Gesamt-
steifigkeitsmatrix ist p = 34806, und die Zahl der von Null verschiedenen
Matrixelemente der unteren Hälfte beträgt N= lO506. Das Verhältnis der
Rechenzeit der PACHCG-Methode zu derjenigen der Cholesky-Methode
bleibt in diesem Beispiel mit zunehmender Ordnung n etwa konstant.
396 6 Anwendungen mit Resultaten

6.2 Schwingungs aufgaben

6.2.1 Akustische Eigenfrequenzen eines Autoinnenraumes

Wir betrachten die Neumannsche Eigenwertaufgabe

6.U + AU = 0 in G, (6.6)

~=O aufC, (6.7)


au
für ein Gebiet G, weiches durch einen Autolängsschnitt nach Fig. 6.29 gegeben
ist. Das mathematische Problem ist zuständig für die Berechnung der
akustischen Eigenfrequenzen und Stehwellen eines Autoinnenraumes, falls
man sich nach Separation der Variablen auf einen zweidimensionalen
Längsschnitt beschränkt und akustisch starre Wände annimmt [Muh72]. In
Fig. 6.29 sind die wesentlichen, etwas vereinfachten Elemente eines Autolängs-
schnittes zu erkennen. Die Abmessungen des Gebietes sind aus der Fig. 6.29
ersichtlich.
y
15

10

Fig.6.29
Feinere Triangulierung
des Autolängsschnittes
10 15 20 25 x für kubischen Ansatz

Die Aufgabe wird mit verschiedenen Elementeinteilungen und Ansätzen


behandelt. Fig.3.21 zeigt die Triangu1ierung des Gebietes, die für den
quadratischen und kubischen Ansatz verwendet wird. Durch Unterteilung der
DreieckeIemente in je vier Teildreiecke ist daraus die Elementeinteilung für
den linearen Ansatz gewonnen worden, die in Fig. 6.30 wiedergegeben ist. Die
Anzahl der Knotenpunkte des linearen Ansatzes ist die gleiche wie für den
vorerwähnten quadratischen Ansatz. Die Fig. 6.29 zeigt eine gegenüber
Fig.3.21 etwas feinere Einteilung, in welcher der kubische Ansatz von
Zienkiewicz verwendet wird. Für die Triangulierung nach Fig. 6.30 wurde
weiter sowohl der quadratische als auch der kubische, neun Knotenvariable
6.2 Schwingungsaufgaben 397

y
15

10

Fig.6.30
Feinste Triangulierung
des Autolängsschnittes
für quadratische und
kubische Ansätze

Tab.6.32 Beschreibende Daten der Fälle, Autolängsschnitt


I::.
Fall Ansatz, Einteilung nel n PAB N PF

I linear (Fig. 3.21) 304 185 1952 673 2311


II quadratisch (Fig. 3.21) 76 185 2230 1031 2585
III kubisch (Fig. 3.21) 76 165 2805 1500 3117
IV kubisch (Fig. 6.29) 110 228 4218 2121 4656

V linear (Fig. 6.30) 1216 673 13577 2561 14911


VI quadratisch (Fig. 6.30) 304 673 14542 3961 15870
VII kubisch (Fig. 6.30) 304 555 17013 5502 18093

umfassende Ansatz, angewendet. Für den linearen Ansatz ist die Triangulie-
rung nochmals verfeinert worden. In Tab. 6.32 sind die charakterisierenden
Daten der sieben Fälle zusammengefaßt.
Die resultierenden Eigenwertaufgaben Ax = ABx sind mit der Methode der
simultanen inversen Vektoriteration (SIVIT), mit dem Verfahren der Bisek-
tion (BISECT), dem Verfahren von Lanczos (LANCZOS) und mit der
Rayleigh-Quotient-Minimierung mit Vorkonditionierung vermittels einer
partiellen Cho1esky-Zerlegung (RQPACHCG) behandelt worden. Um eine
möglichst effiziente Realisierung der ersten drei Methoden zu erreichen,
wurden optimale Numerierungen der Knotenvariablen mit Hilfe des umge-
kehrten Cuthill-McKee-Algorithmus (RCM) ermittelt, um die Profile PAB der
Matrizen A und B, bzw. das Profil PF der erweiterten Hülle der Matrix
F= A - /lB zu minimieren. In Tab. 6.32 sind diese Zahlwerte zusammen mit
der Anzahl N der von Null verschiedenene Matrixelemente der unteren
Hälften von A und B angegeben. Für die Bisektionsmethode, das Lanczos-
Verfahren und die Rayleigh-Quotient-Minimierung sind ja primär nur diese
Elemente zu speichern, um in den ersten beiden Fällen die Matrix F daraus
398 6 Anwendungen mit Resultaten

aufzubauen. Mit den Angaben kann der Speicherbedarf der verschiedenen


Methoden abgeschätzt werden.
Es sollen die ersten acht Eigenwerte mit den zugehörigen Eigenvektoren

°
bestimmt werden. Die Neumannsche Eigenwertaufgabe (6.6) und (6.7) besitzt
den trivialen Eigenwert Ao = mit der Eigenlösung u = const, so daß die sieben
ersten positiven Eigenwerte mit den zugehörigen Eigenschwingungsformen
erhalten werden. Die simultane Vektoriteration wurde mit elf Vektoren
durchgeführt, wobei der Konvergenztest nur für die ersten acht iterierten

°
Vektoren angewendet wird. Da die Steifigkeitsmatrix wegen des Eigenwertes
AQ = singulär ist, wird eine Spektralverschiebung mit I = 0,0 I vorgenommen.
Die Iteration wird abgebrochen, sobald der maximale Restvektor, der bei der
xi xi
B-Orthogonalisierung der Vektoren k ) zu den k -I) entsteht, eine euklidi-
sche Länge kleiner als 10-6 hat. Der Ritz-Schritt und damit der Test auf
Konvergenz erfolgt nach je vier Iterationsschritten.
Für die Bisektionsmethode ist das Startintervall [-0,0 1,1,0] vorgegeben
worden, und die inverse Vektoriteration ist in BISECT gestoppt worden,
sobald sich zwei aufeinanderfolgende Rayleighsche Quotienten relativ um
höchstens 10- 12 unterscheiden. Der Eigenwert Null wird mit der entsprechen-
den absoluten Genauigkeit behandelt.
Im Lanczos-Verfahren wird ein Eigenwert akzeptiert, sobald die relative
Änderung eines Ritzwertes betragsmäßig kleiner als 10- 12 ausfällt. Das

°
Verfahren ist mit zwei verschiedenen Werten fl der Spektralverschiebung
durchgeführt worden, um seinen Einfluß darzustellen. Der Wert fl = darf
wegen der Singularität von A nicht gewählt werden. Der erste Wert fll = -0,05
liegt links vom ersten Eigenwert AQ, während fl2 =0,1 einen sehr guten Wert
darstellt, der etwa gleich dem Mittelpunkt des Intervalls ist, in welchem alle
acht gesuchten Eigenwerte liegen. Das Lanczos-Verfahren ist mit vollständi-
ger Orthogonalisierung der Basisvektoren durchgeführt worden.
In der Rayleigh-Quotient-Minimierung erfolgte eine Regularisierung der
Matrix A vermittels einer Spektralverschiebung um den Wert c = 0,001. Die
Iteration für einen Eigenwert/Eigenvektor wird gestoppt, sobald der Ray-
leighsche Quotient relativ um weniger als 10- 12 abnimmt. Bei sehr langsamer
Konvergenz ist dann eine geringere Genauigkeit des Eigenpaares die Folge.
Die Tab. 6.33 gibt einen Überblick über die Arbeitsweise der Rechenverfahren
hinsichtlich der Zahl der erforderlichen Iterationsschritte und der Rechenzeit,
in welcher die Kompilationszeit nicht enthalten ist, die hier ohnehin viel
kleiner ist.
Die Ergebnisse zeigen, daß der Lanczos-Algorithmus die Aufgaben bei weitem
mit der geringsten Rechenzeit löst, ob man mit einer weniger guten oder einer
optimalen Spektralverschiebung fl arbeitet. Die Anzahl nit der Iterations-
schritte der Methode der simultanen Vektoriteration wie auch die totalen
6.2 Schwingungsaufgaben 399

Tab. 6.33 Zur Eigenwertberechnung, Autoprob1em

Fall SIVIT BISECT LANCZOS RQPACHCG


nRitz = 4 f.ll = -0,05 f.l2 = 0,10
nit CPU nBis nlnv CPU nit CPU nit CPU njt CPU

I 24 94 36 49 48 25 41 19 25 241 57
II 28 121 35 62 70 25 44 19 28 309 91
III 24 118 34 53 85 25 45 18 26 344 134
IV 24 175 35 60 131 25 56 18 34 217 112

V 24 540 36 62 409 25 120 19 83 428 363


VI 24 570 36 66 576 26 148 19 99 538 575
VII 24 633 34 71 677 26 143 18 92 267 338

Tab.6.34 Speicher bedarf der Methoden, Autoproblem

Fall SIVIT BISECT LANCZOS RQPACHCG


Nz NI Nz NI Nz NI Nz NI

V 43306 673 28109 5253 48299 5253 29892 3234


VI 45236 673 31868 6653 52058 6653 34092 4634
VII 47346 555 35757 7722 52407 7722 34821 6057

Anzahlen der Bisektionsschritte nBis und der inversen Vektoriteration nlnv der
Bisektionsmethode sind in allen Fällen etwa dieselben, weil die Eigenwertver-
teilungen fast identisch sind. Sind die Rechenzeiten der Bisektionsmethode für
die Fälle I bis IV mit niedrigen Ordnungen kleiner als diejenigen der
simultanen Vektoriteration, so verschiebt sich das Verhältnis zugunsten von
SIVIT in den Fällen V bis VII höherer Ordnung, weil der Aufwand der
zahlreichen Zerlegungen stärker ins Gewicht fällt. Interessant ist die Feststel-
lung, daß die Methode der Rayleigh-Quotient-Minimierung mit vorkonditio-
niertem cg-Verfahren die Eigenwertaufgaben im Vergleich zu SIVIT und
BISECT im allgemeinen recht effizient, wenn nicht sogar am effizientesten
löst. Bei diesem Vergleich muß aber auch der Speicherbedarf der einzelnen
Verfahren miteinbezogen werden. In Tab. 6.34 sind für die drei Fälle V bis VII
der feinsten Triangulierungen die Zahl der Speicherplätze zusammengestellt,
die für die Durchführung der vier Verfahren notwendig sind. SIVIT benötigt
neben den beiden Matrizen A und Bin Hüllenform im wesentlichen noch den
Platz für zwei Sätze von p* iterierten Vektoren und dazu noch zwei
Hilfsvektoren mit je n Komponenten. Es wirdp* = 11 angenommen. BISECT,
LANCZOS und RQPACHCG benötigen für A undB nur je die Matrixelemen-
te der unteren Hälften mit zugehöriger Indexinformation. BISECT und
400 6 Anwendungen mit Resultaten

LANCZOS brauchen den Platz für die Hilfsmatrix F = A - /1B in der


erweiterten Hülle mit Indexinformationen der Matrix F und der Zerlegung.
BISECT erfordert im wesentlichen noch vier Hilfsvektoren und den Speicher-
platz für die berechneten Eigenvektoren, deren Zahl gleich acht angenommen
wird. Im Lanczos-Algorithmus wird zusätzlich der Platz für die Matrix Q der
orthogonalen Basisvektoren benötigt, deren Zahl auf 30 beschränkt sei.
Schließlich setzt sich der Speicherbedarf der Rayleigh-Quotient-Minimie-
rungsmethode zusammen aus demjenigen für die Matrizen A, Bund C (je
kompakt gespeichert), drei (n Xp)-Matrizen für berechnete Eigenvektoren Xk,
die Vektoren BXk und der Vektoren der Vorkonditionierung, sowie neun
Hilfsvektoren.
Die Zahlwerte von Tab. 6.34 zeigen, daß BISECT und RQPACHCG einen
vergleichbaren Speicherbedarf aufweisen, und daß der effizienteste Lanczos-
Algorithmus den größten Speicherplatz benötigt. Zu beachten ist weiter, daß
bei weiterer Verfeinerung der Elementeinteilung der Speicherbedarf für
RQPACHCG nur linear mit der Ordnung n steigt, derjenige für die andern drei
Verfahren infolge der stärkeren Zunahme des Profils der Matrizen aber
überlinear. Unter diesem Gesichtspunkt kann RQPACHCG attraktiv werden.
Konnte die Methode der simultanen Vektoriteration auf dem verwendeten
Personal System auf Grund des verfügbaren Speicherplatzes gerade noch
implementiert werden, war dies für den Lanczos-Algorithmus insbesondere
für die Fälle VI und VII nicht mehr möglich. Der Lanczos-Algorithmus wurde
deshalb so realisiert, daß ein virtueller Speicher für die Matrix Q verwendet
wurde, in welchem die anfallenden Basisvektoren sukzessive abgespeichert
werden und für die Orthogonalisierung einzeln wieder gelesen werden. Durch
diese Maßnahme wird die Ausführungszeit nur um etwa 30% erhöht. Die
Rechenzeiten des Lanczos-Verfahrens in Tab. 6.32 wurden mit dieser Variante
ermittelt.
In Tab. 6.35 sind die sieben kleinsten positiven Eigenwerte Al bis ,.1.7 für die
sieben Fälle zusammengestellt. Der lineare Ansatz liefert erwartungsgemäß
etwas zu große Näherungswerte, während die quadratischen und kubischen
Ansätze gut übereinstimmende Werte liefern. Die Konvergenz der simultanen
Vektoriteration wird übrigens nicht verlangsamt durch die beiden benachbar-
ten Eigenwerte ,.1.5 und ,.1.6. DaA8 ~ 0,275, ,.1.9 ~ 0,293, ,.1.10 ~ 0,350 und All ~ 0,381
sind, wird das gute Konvergenzverhalten von SIVIT auf Grund des maßgeben-
den Quotienten ,.1.7/,.1.11 ~0,52 klar.
Zur Illustration der Arbeitsweise des Lanczos-Verfahrens ist in Fig. 6.31 die
Zahl v der Ritzwerte, welche innerhalb zwölfstelliger Genauigkeit gegen
Eigenwerte konvergiert sind, in Funktion der Lanczos-Schritte k für den
repräsentativen Fall VI mit /11 = -0,05 dargestellt. Nach zwölf Schritten ist der
erste Ritzwerte konvergiert, und dann erscheinen nach je ein bis vier weiteren
Schritten die übrigen Eigenwerte.
6.2 Schwingungsaufgaben 401

Tab.6.35 Eigenwerte des Autoproblems

Fall Al ..1.2 ..1. 3 ..1. 4 ..1. 5 ..1. 6 ..1. 7

I 0,01299 0,04593 0,05919 0,1198 0,1448 0,1506 0,2088


II 0,01275 0,04469 0,05714 0,1170 0,1382 0,1435 0,2017
III 0,01288 0,04575 0,05778 0,1177 0,1400 0,1465 0,2017
IV 0,01277 0,04491 0,05726 0,1171 0,1387 0,1444 0,2010

V 0,01273 0,04469 0,05719 0,1172 0,1390 0,1442 0,2023


VI 0,01264 0,04424 0,05647 0,1163 0,1371 0,1420 0,2001
VII 0,01271 0,04450 0,05685 0,1167 0,1377 0,1428 0,2004

Fig.6.31
Zahl der konvergierten
Ritzwerte im Lanczos-
Verfahren 5 10 15 20 25 k

Auch das Konvergenzverhalten der Rayleigh-Quotient-Minimierung mit


Vorkonditionierung soll etwas näher erläutert werden. In Tab. 6.36 sind die
Iterationsschritte nk zur Berechnung der ersten acht Eigenwerte AO bis A7 für die
Fälle V bis VII zusammengestellt. Die Zahl der nötigen Iterationen ist
abhängig vom Abstand des zu berechnenden Eigenwertes vom nächst
größeren, doch ist dazu zu bemerken, daß die Zahl der Iterationen recht stark
von den zuf:illig gewählten Startvektoren abhängig ist.
Mit den größten Eigenwerten Am• x liegen die Schätzwerte f-ls (5.177) für die
Zahl der Iteratidhsschritte der nicht vor konditionierten Methode zur Bere-
chung des kleinsten Eigenwertes für die drei betrachteten Fälle in der Gegend
von 1000. Auch wenn diese Schätzwerte pessimistisch sein mögen, wird der
Vorkonditionierungseffekt doch deutlich.

Tab. 6.36 Zur Konvergenz des RQPACHCG-Verfahrens

Fall no nl n2 n3 n4 n5 n6 n7 Am• x

V 57 56 54 41 57 67 41 57 263,76
VI 79 61 65 47 71 86 65 64 308,75
VII 41 31 40 24 35 28 26 42 239,26
402 6 Anwendungen mit Resultaten

Tab. 6.37 Eigenwerte nach statischer und dynamischer Kondensation

Fall .1.[ .1. 2 ,1.3 ,1.4 .1. 5 .1.6 .1. 7

III* 0,01297 0,04754 0,06030 0,1264 0,1535 0,1630 0,2317


X=O (0,7%) (3,9%) (4,4%) (7,4%) (9,6%) (11 %) (15%)

III* 0,01997 0,05097 0,06099 0,1177 0,1403 0,1471 0,2071


X= 0,12 (55%) (11%) (5,6%) - (0,2%) (0,4%) (2,7%)

-24 -28 -32 -35 -39 -41

19 -19 -50 -42 -5 23

55

·43 -41 -39 -35 -25 -17

e) -33 -24 -37 -33 -31

Fig.6.32 Schwingungsformen der Steh wellen

Im Fall III wurde der Prozeß der Kondensation angewandt, und zwar wurden
nach beendeter Kompilation der Gesamtmatrizen die ersten partiellen Ablei-
tungen als untergeordnete Variablen eliminiert. Es resultiert ein vollbesetztes
6.2 Schwingungsaufgaben 403

allgemeines Eigenwertproblem der Ordnung n* = 55 für die Funktionswerte in


den Knotenpunkten als Meistervariablen. Die statische Kondensation mit
X= 0 ergab Eigenwertnäherungen, welche in Tab. 6.37 mit den prozentualen
Abweichungen gegenüber den Werten des nichtkondensierten Problems III
angegeben sind. Die drei kleinsten positiven Eigenwerte werden durch die
statische Kondensation nicht sehr stark vergrößert. Die Funktionswerte
stellen somit geeignete Meistervariable dar. Da die höheren Eigenwerte stärker
verfälscht werden, ist mit X= 0,12 eine dynamische Kondensation durchge-
führt worden. Damit erfahren die Eigenwerte A4 bis A7 nur geringe Verände-
rungen, während die kleineren Eigenwerte stärker verfälscht werden.
Zur Veranschaulichung der Ergebnisse sind in Fig. 6.32 die Eigenschwingungs-
formen der Steh wellen qualitativ dargestellt. Zu diesem Zweck sind die
Amplituden der Stehwellen in den 55 Knotenpunkten der Triangulierung der
Fig. 3.21, wie sie für den kubischen Ansatz resultieren, für die sechs kleinsten
positiven Eigenwerte dargestellt. Die absolut größte Amplitude ist auf den Wert
100 normiert und die übrigen Werte sind auf ganze Zahlen gerundet. Die
Knotenlinien der Stehwellen sind in den Autolängsschnitten ebenfalls eingetra-
gen. Der Leser möge sich selber anhand der Darstellungen ein Bild davon
machen, welche der akustischen Eigenschwingungen auf den vorderen, bzw.
hinteren Sitzen laut gehört werden. Eine große Amplitude der Schwingung
entspricht einer großen Druckschwankung und damit einer großen Lautstärke.

6.2.2 Maschinentisch mit Maschinengruppe

Die Fig. 6.33 zeigt einen idealisierten Maschinentisch mit einer Maschinen-
gruppe mit allen nötigen Abmessungen in cm. Gesucht sind die kleinsten
10 45 45 10 40 10 40 10

100 100

Fig.6.33 Maschinentisch mit Maschinengruppe


404 6 Anwendungen mit Resultaten

Eigenfrequenzen und die zugehörigen Eigenschwingungsformen unter der


Annahme, daß die sechs Beine des Maschinentisches im Fundament einbeto-
niert sind. Die Maschinengruppe besteht aus drei Teilen, welche als volle
Zylinder mit den angegebenen Durchmessern angenommen werden, die auf
einer gemeinsamen Lagerwelle sitzen, die ihrerseits an vier Stellen gelagert
ist. Fig. 6.33 zeigt gleichzeitig die verwendete Elementeinteilung in Balkenele-
mente. Die Struktur setzt sich zusammen aus 6 Pfosten, 22 horizontalen
Trägerbalken, 4 Lagerelementen, 8 Wellenelementen, sowie 2 großen und
2 kleinen Maschinenzylindern. Vereinfachend wird im Modell angenommen,
daß die Lagerwelle in den Lagerpunkten starr mit den Lagere1ementen
verbunden sei. Die 44 als Balkenelemente behandelten Teile ergeben eine
Totalzahl von 34 Knotenpunkten. Zu jedem Knotenpunkt gehören sechs
Knotenvariable, so daß die Gesamtzahl der Knotenvariablen 204 beträgt. Die
Einspannung der Pfosten liefert 36 homogene Randbedingungen. Die betref-
fenden Knotenvariablen werden eliminiert, so daß die Ordnung des Eigen-
wertproblems n = 168 beträgt. Die Dichte des Materials sei I.? = 8,25 gcm- 3,
die elastomechanischen Konstanten seien E = 1,815 . 10 7 N cm - 2 und v = 0,3.
Die Eigenwertaufgabe ist mit der Methode der statischen Kondensation
behandelt worden. Zu diesem Zweck wurden die 84 Auslenkungen der 28
Knotenpunkte als die Meistervariablen betrachtet und die Ableitungen als
untergeordnete Variablen eliminiert. Das resultierende allgemeine Eigenwert-
problem der Ordnung n* = 84 mit praktisch vollbesetzten Matrizen ist nach
Absch. 5.1 gelöst worden.

Tab.6.38 Eigenfrequenzen der Maschinengruppe

11 = 33,93 Hz h = 38,36 Hz 13 = 43,63 Hz 14 = 56,63 Hz


ft* = 33,94 Hz h* = 38,37 Hz H= 43,87 Hz 14* = 56,63 Hz

15 = 64,31 Hz 16 = 76,45 Hz h = 78,57 Hz 18 = 100,7 Hz


Is* = 65,07 Hz 16* = 78,58 Hz(!) H= 100,3 Hz(!)

19 = 138,0 Hz 110 = 149,0 Hz

In Tab. 6.38 sind die berechneten Eigenfrequenzen /1 bis /10 sowie die sieben
ersten Eigenfrequenzen /1* bis 17* nach der statischen Kondensation zusam-
mengestellt. Die ersten fünf Eigenfrequenzen stimmen sehr gut überein. Die
beiden weiteren Eigenfrequenzen /6* und besonders augenfällig /t sind zu
groß. Sie sind tatsächlich hervorragende Näherungen fürh und/g, wie aus den
zugehörigen Eigenschwingungsformen hervorgeht. Der Kondensationspro-
zeß kann somit in bestimmten Situationen zu unvollständigen Spektren
führen, indem einige Eigenwerte fehlen. Im vorliegenden Fall läßt sich dazu
eine einfache Erklärung finden. Neben einer seitlichen Schwingung des
6.2 Schwingungsaufgaben 405

Maschinentisches existiert in der sechsten Eigenschwingung eine sehr ausge-


prägte Torsionsschwingung der großen Trommel. Da im Kondensationspro-
zeß die Ableitungen, d. h. die Drehwinkel als untergeordnete Variablen
eliminiert werden, kann das verbleibende Modell die betreffende Schwin-
gungsform nicht darstellen.

hl~r r'r
7
7

12"38.4 Hz

J1 z
z
2~ z Ilz
71 11 z
/~
r7
'I1
I
,
z r
J J
z

1 1
Il " 43.6 Hz 1 IS"76.5Hz
Fig.6.34 Schwingungsformen der Maschinengruppe

In Fig. 6.34 sind die Eigenschwingungsformen der sechs kleinsten Eigenfre-


quenzen dargestellt. Die Torsionsschwingung der sechsten Eigenfrequenz
kann im Rahmen der Amplituden der Auslenkungen nicht dargestellt werden.

6.2.3 Schwingende Stimmgabel

Vor dem Aufkommen der Quarzuhren gelangten während kurzer Zeit


Stimmgabeluhren auf den Markt, welche auf der Basis der tiefsten Eigenfre-
quenz einer eingebauten Stimmgabel eine hohe Ganggenauigkeit garantierten.
Zur Entwicklung von brauchbaren Uhrenstimmgabeln mußten die tiefsten
Eigenfrequenzen und die zugehörigen Eigenschwingungsformen analysiert
werden. Um Störungen im Betrieb zu vermeiden, durften beispielsweise keine
Oberschwingungen mit ganzzahligen Vielfachen der Grundfrequenz existie-
ren. Da ferner die Schwingungen der Gabel mechanisch übertragen wurde,
ergaben sich dadurch Anforderungen an die Amplitude und Richtung der
Schwingung im Punkt, wo die mechanische Übertragung stattfindet.
406 6 Anwendungen mit Resultaten

r r
l l
10cm 10cm

I
5.5cm

l
Fig.6.35 Diskretisation Fig.6.36 Elementeinteilung
der Stimmgabel, der Stimmgabel
quadratische Ansätze für kubische Ansätze

Im folgenden soll eine Modellstimmgabel betrachtet werden, bestehend aus


einem Griff, zwei Viertelskreisbögen und zwei geraden Stücken. Der Quer-
schnitt der Stimmgabel ist quadratisch mit der Abmessung 1 cm X 1 cm. Die
geometrischen Abmessungen sind aus den Fig. 6.35 und 6.36 ersichtlich. Die
Dichte des Materials ist (J = 8,25 gcm -3 und die elastomechanischen Konstan-
tenE = 1,815' 107 Ncm- 2 und v =0,3. Gesucht sind die Eigenschwingungen der
Stimmgabel in ihrer Ebene. Die Aufgabe läßt sich entweder mit Balkenelemen-
ten oder aber mit Scheibenelementen behandeln. Wir wählen hier die zweite Art
und unterteilen die Stimmgabel in Scheibenelemente. Fig. 6.35 zeigt die Dis-
kretisation für den quadratischen Ansatz der Serendipity-Klasse in den Recht-
eckelementen. Aus dieser Einteilung ist eine Einteilung für den linearen Ansatz
in Dreiecken gewonnen worden, indem jedes Dreieck in vier Teildreiecke und
jedes Rechteck in sechs Teildreiecke unterteilt worden ist (vgl. Fig. 6.37).
Schließlich zeigt Fig.6.36 die Einteilung für kubische Ansätze. In den
Dreieckelementen wird der vollständige kubische Ansatz mit 10 Knotenvaria-
blen und in den Rechteckelementen der kubische Ansatz der Serendipity-Klasse
mit 12 Knotenvariablen verwendet. In den Eckpunkten treten die Verschiebun-
gen und ihre ersten partiellen Ableitungen als Knotenvariable auf. Tab. 6.39
enthält die näheren Angaben über die drei Elementeinteilungen.
6.2 Schwingungsaufgaben 407

Fig.6.37
Unterteilung eines Rechteckelementes

Tab. 6.39 Charakterisierende Daten, Stimmgabel

Fall Ansatz, Einteilung


6
nel nel
0
n m n(m + 1)
I linear (Fig. 6.35) 162 0 260 17 4680
II quadratisch (Fig. 6.35) 24 11 260 29 7800
III kubisch (Fig. 6.36) 16 7 216 43 9504

Die Eigenfrequenzen sind erstens für eine an ihrem Griff eingespannte


Stimmgabel und zweitens für eine vollkommen freie Stimmgabel berechnet
worden. Die berechneten sechs kleinsten Eigenfrequenzen der eingespannten
Stimmgabel sind in Tab. 6.40, die fünf kleinsten positiven Eigenfrequenzen der
freien Stimmgabel sind in Tab. 6.41 je für die drei Fälle zusammengestellt. Im
Fall der freien Stimmgabel ist der Eigenwert Null dreifach mit den Starrkör-
perverschiebungen in x- undy-Richtung und der Starrkörperdrehung. Auch in
diesem Fall erweisen sich die linearen Scheibenelemente als zu steif. Die
linearen Ansätze liefern im Vergleich zu den andern Ansätzen wesentlich zu
große Eigenfrequenzen.
Als Anschauungsmaterial der Ergebnisse sind in Fig. 6.38 die ersten fünf
Eigenschwingungsformen der freien Stimmgabel dargestellt. Zur Vereinfa-

Tab. 6.40 Eigenfrequenzen der eingespannten Stimmgabel

Fall 11Hz 12Hz 13 Hz 14 Hz 15 Hz 16 Hz


I 181,6 313,4 1049 1482 1983 3840
II 105,3 217,2 668,5 1014 1298 2496
III 105,6 215,7 666,1 1015 1284 2489

Tab.6.41 Die fünf kleinsten positiven Eigenfrequenzen der freien Stimmgabel

Fall 11 Hz 12Hz 13 Hz f4 Hz 15 Hz
I 322,3 934,6 2136 3191 4125
II 222,9 623,7 1376 2119 2600
ur 221,3 621,1 1373 2129 2608
408 6 Anwendungen mit Resultaten

a) c)

Fig.6.38 Schwingungsformen der freien Stimmgabel

chung der Figuren sind nur die Schwingungsformen der Mittellinie dargestellt
neben ihrer dünn gezeichneten unverformten Lage als Referenz.

6.2.4 Eigenschwingungen einer Dreieckplatte

Wir betrachten eine Dreieckplatte aus Stahl mit den Abmessungen gemäß
Fig. 6.39, welche in ihrem Schwerpunkt S eingespannt und am Rand frei sei.
Die Dicke der Platte betrage h = 1 cm, die elastomechanischen Größen sind
E= 2.10 7 Ncm -2 und v = 0,3, die Dichte des Materials ist (J = 8,25 gr cm -3.
Wir interessieren uns für die Eigenfrequenzen und insbesondere für die
Eigenschwingungsformen der Platte, da sie gelegentlich im Physikunterricht
zur Demonstration von Eigenschwingungen verwendet werden.
Das Problem ist für verschieden feine Dreieckeinteilungen behandelt worden,
wobei der nichtkonforme kubische Ansatz von Zienkiewicz Verwendung fand.
Die Platte wird gleichmäßig in kongruente Dreiecke eingeteilt, so daß der
Schwerpunkt S eine Ecke eines Dreieckelementes bildet, und daß die
Dreiecksseiten parallel zu den drei Seiten des gegebenen Dreiecks sind.
Deshalb ist eine Dreiecksseite in t = 3,6,9, 12 oder 18 Teile eingeteilt worden.
In Fig. 6.39 ist die Triangulierung für die mittlere Einteilung dargestellt.
6.2 Schwingungsaufgaben 409

Fig.6.39
Eine Triangulierung
der Dreieckplatte

Tab.6.42 Charakterisierende Daten, Dreieckplatte


/::,
Fall t nel n PAß N PF

I 3 9 30 294 222 261


II 6 36 84 1365 735 1404
III 9 81 165 3705 1545 3870
IV 12 144 273 7800 2652 8145
V 18 324 570 23199 5757 24066

In Tab. 6.42 sind die charakterisierenden Daten der fünf Fälle zusammen mit
den für die Methoden maßgebenden Zahlwerte betreffend die Profile PAß der
Matrizen A und B, die Zahl N der von Null verschiedenen Matrixelemente der
unteren Hälften und das erweiterte Profil PF der Matrix F= A - flB, welches
nach Berücksichtigung der Randbedingungen resultiert, zusammengestellt.
An den Zahlwerten erkennt man wieder die Tatsache, daß die Zahl N mit der
Ordnung n linear zunimmt, während PAß und PF wie n3/ 2 wachsen.
Werden die Knotenpunkte in der linken Ecke beginnend und dann jeweils von
unten nach oben durchnumeriert, so entsteht eine regelmäßige Besetzungs-
struktur der Matrizen A und B, die in Fig. 6.40 für den Fall IV dargestellt ist.
Jedes 0 entspricht einer Untermatrix der Ordnung drei. Diese Struktur eignet
sich sehr gut für eine effiziente Implementierung von Matrix-Vektor-Multipli-
kationen auf Vektorrechnern, falls die Diagonalstruktur mit entsprechender
Speicherung verwendet wird.
Die Eigenwertaufgaben Ax = ABx sind mit der Methode der simultanen
inversen Vektoriteration (SIVIT), der Bisektion (BISECT), dem Lanczos-
Verfahren (LANCZOS) und der simultanen Rayleigh-Quotient-Minimierung
mit Vorkonditionierung vermittels einer festen partiellen Cholesky-Zerlegung
410 6 Anwendungen mit Resultaten

A~

Fig.6.40
Besetzungsstruk-
tur der Matrizen.
Dreieckplatte

von A (SRQPCG) gelöst worden, wobei die ersten acht Eigenpaare gesucht
waren. Sowohl SIVIT als auch SRQPCG wurden mit je zehn gleichzeitig
iterierten Vektoren durchgeführt, und der Konvergenztest wurde nur auf die
ersten acht angewandt. Für alle Verfahren galt eine relative Genauigkeit von
e = 10- 12 für die Eigenwerte. Die Tab. 6.43 enthält die Angaben über die Zahl
der Iterationsschritte der Methoden und die Rechenzeiten. Auf dem sonst
verwendeten Personal System konnte der Fall V nur mit SRQPCG durchge-
rechnet werden, da für die andern Methoden wegen der zu großen Profile PAB,
bzw. PF zusammen mit den weiteren Daten der verfügbare Speicher nicht
ausreichte. Deshalb sind alle Fälle auf einem PS/2, Modell 55, durchgerechnet
worden, auf dem etwas mehr Speicherplatz zur Verfügung stand.
Das Lanczos-Verfahren löst die Eigenwertaufgaben wiederum bei weitem mit
dem geringsten Rechenaufwand. Die simultane Vektoriteration ist hier unter
Tab.6.43 Zur Eigenwertberechnung, Dreieckplatte

Fall SIVIT BISECT LANCZOS SRQPCG


nRitz = 4 [0,40000] f.l=0 neust = 8
nit CPU nBis nlnv CPU nit CPU nit CPU

I 12 8,5 43 62 15 18 12 14 16
II 12 35 39 55 55 19 19 22 69
III 12 88 38 57 166 19 32 26 161
IV 12 180 42 62 440 20 56 30 309
V 16 676 44 56 1708 19 133 41 944
6.2 Schwingungsaufgaben 411

den andern Methoden recht effizient, jedoch am speicheraufwendigsten. Die


überaus gute Konvergenz von SIVIT läßt sich damit erklären, daß etwa im Fall
III der Eigenwert All = 39008 ist und somit der maßgebende Konvergenzquo-
tient q = A8/All = 12136/39008 = 0,31 sehr klein ist! Die Zahl der gewünsch-
ten Eigenwerte in Verbindung mit der Eigenwertverteilung begünstigen die
Methode außerordentlich stark. In der Bisektionsmethode beanspruchen die
zahlreichen Zerlegungen der Matrizen F einen großen Teil der Rechenzeit.
Zur Berechnung der Eigenwerte und Eigenvektoren wurde auch die normale
Rayleigh-Quotient-Minimierung mit partieller Cholesky-Zerlegung als Vor-
konditionierung eingesetzt. In den meisten Fällen mußte eine sehr langsame
Konvergenz festgestellt werden, oder die Vorkonditionierung schien zu
versagen. Diese Erscheinung muß wohl mit der großen Konditionszahl der
Hesseschen Matrix H(Xl) in Zusammenhang gebracht werden in Verbindung
mit den teilweise sehr eng benachbarten Eigenwerten. So sind im Fall IV die
maßgebenden Eigenwerte Al =231,013, A2 = 307,237, Amax =2,5589'10 8 , so
daß daraus die Konditionszahl (5.176) XB,B-l (H(Xl)) = 3,36· 106 folgt, und der
Schätzwert (5.l77) wird mit e = 10-6 etwa P.s = 13'300. Die Rechenzeiten der
RQPACHCG-Methode waren im Vergleich zur simultanen Variante
SRQPCG bis zu dreimal höher. Aus diesem Grund wurde diese Methode
eingesetzt, welche den Vorteil des minimalsten Speicherbedarfs aufweist. Sie
ist sogar effizienter als die Bisektionsmethode, da sie auch von der besonders
günstigen Eigenwertverteilung profitiert.
Die Rayleigh-Quotient-Minimierungsmethode läßt sich in diesem Beispiel
hervorragend einfach und mit einem Minimum an Speicheraufwand auf der
Basis der Elemente mit entsprechender Vorkonditionierung [Bar89] realisie-
ren, da nur kongruente Dreiecke1emente beteiligt sind. Für die Multiplikatio-
nen Ap und Bp werden im wesentlichen nur zwei Elementmatrizenpaare
benötigt, und die Implementierung der Produkte ist sehr gut vektorisierbar.
In Tab. 6.44 sind die ersten acht Eigenfrequenzen fk = v:4/(21t) der Drei-
eckplatte in Abhängigkeit der Diskretisierung zusammengestellt. Die sehr
grobe Einteilung in nur neun Dreiecke1emente liefert teilweise sehr ungenaue
Näherungen der Eigenfrequenzen. Auffillig an den Ergebnissen ist die starke

Tab.6.44 Eigenfrequenzen der Dreieckplatte in Hz

Fall 11 h !J 14 15 16 h fg

I 2,938 3,387 4,042 8,193 8,343 12,68 16,43 16,74


II 2,636 3,043 4,082 8,107 8,227 12,36 16,51 17,49
III 2,504 2,888 4,096 8,027 8,108 12,43 16,41 17,53
IV 2,419 2,790 4,101 7,981 8,039 12,48 16,36 17,54
V 2,312 2,666 5,105 7,923 7,958 12,54 16,31 17,54
412 6 Anwendungen mit Resultaten

-30
I e-15
\
'.-1 -26
I
I e-11
+0 -24
I e-11
I
.-1 -26 -32
I
I e-15
-30 -66

-36 -100

-55

/ 16
/

/
,.-8
e-2Y 76
I
/ e30
~O 100
\ e30
'\
e-23, 76
",,8,
, 16

77

58

33

-33

-58

-77
Fig.6.41 Schwingungsformen der Dreieckplatte
6.2 Schwingungsaufgaben 413

Abnahme der ersten beiden Eigenfrequenzen bei Verfeinerung der Triangulie-


rung, während die übrigen Frequenzen bedeutend weniger ändern. Diese
merkwürdige Erscheinung muß wohl mit den zugehörigen speziellen Schwin-
gungsformen der Platte und den nichtkonformen Dreieckelementen erklärt
werden. Die beiden ersten Eigenschwingungen sind im wesentlichen Dreh-
schwingungen um zwei Achsen, die aus den Starrkörperdrehungen der freien
Platte hervorgehen. Die punktförmige Einspannung wird durch das mathema-
tische Modell bei grober Diskretisation schlecht erfaßt.
In Fig.6.41 sind die Schwingungsformen der ersten sechs Eigenfrequenzen
qualitativ dadurch veranschaulicht, daß an den Knotenpunkten der Einteilung
von Fall II die Amplituden angegeben sind, normiert auf den Wert hundert.
Zudem sind vorhandene Knotenlinien eingezeichnet, die ja in bekannter Weise
sichtbar gemacht werden können.

6.2.5 Eigenschwingungen eines Hochspannungsmastes

Um das dynamische Verhalten eines Hochspannungsmastes etwa im Fall eines


Erdbebens oder bei stark wechselnden Windstärken zu untersuchen, sind seine
Eigenfrequenzen und Eigenschwingungsformen für eine Modalanalyse von
Bedeutung. Wir betrachten den Mast von Abschn. 6.1.3.2 mit dem in Fig. 6.14
dargestellten Aufbau. Die vier im Boden fixierten Fußpunkte ergeben
insgesamt 24 homogene Randbedingungen für die betreffenden Knotenvaria-
blen, so daß die Ordnung der Matrizen A und B noch n = 978 beträgt.
Die Eigenwertaufgabe Ax = ABx wurde mit der simultanen Vektoriteration
(SIVIT), der Bisektionsmethode (BISECT) und mit dem Lanczos-Verfahren
(LANCZOS) unter Verwendung der vollständigen Orthogonalisierung der
Basisvektoren behandelt. Infolge der hohen Ordnung der Matrizen A und Bist
der Speicherbedarf für diese Matrizen und der Matrix F = A - JlB bereits recht
groß. Mit den Zahlwerten von Tab. 6.18 werden für die Speicherung von A und
B in Hüllenform im Fall von SIVIT 2· PAß = 2 X 50343 = 100686 Zahlwerte
benötigt, zuzüglich der Indexinformation der gemeinsamen Hülle von
NI = 1002 ganzzahligen Werten. Für BISECT und LANCZOS können die
Matrixelemente von A und B je der unteren Hälfte kompakt gespeichert
werden. Das sind 2X2147l =42942 Zahlwerte, zu denen noch die gemein-
same Indexinformation von NI = 22473 ganzen Zahlen hinzukommt. Das
erweiterte Profil von Fbeträgt PF= 50751, zu dem als weiteren Speicherbedarf
für die Zerlegung von F noch vier ganzzahlige Indexvektoren mit insgesamt
4008 Werten und drei Hilfsvektoren mit total 3006 Werten dazuzuzählen sind.
Der totale Speicherbedarf für die grundlegenden Matrizen ist somit in allen
drei Methoden praktisch derselbe.
Gewisse Unterschiede im Speicheraufwand ergeben sich noch auf Grund der
Zahl P der gewünschten Eigenvektoren, für die natürlich stets 1002 X P Plätze
414 6 Anwendungen mit Resultaten

zu reservieren sind. Die Bisektionsmethode erfordert den geringsten zusätz-


lichen Speicher für nur vier Hilfvektoren, d. h. 4008 Werte. Die simultane
Vektoriteration mit p* gleichzeitig iterierten Vektoren benötigt ja zwei Sätze
von je p* Vektoren plus zwei Hilfsvektoren. Der zusätzliche Bedarf beträgt
somit (2p* - p + 2) X 1002 Speicherplätze. Im Lanczos-Verfahren sind bei
maximal I Lanczos-Schritten die Basisvektoren abzuspeichern, und dann
werden noch zwei Hilfsvektoren gebraucht, so daß sich der zusätzliche
Speicherbedarf zu (I + 2) X 1002 ergibt.
Infolge des großen Speicher- und Rechenaufwandes konnten die Methoden
nur auf der Großrechenanlage der Universität Zürich durchgeführt werden,
welche mit einem Vektorzusatz ausgerüstet ist. Die Eigenwertaufgabe wurde
unter verschiedenen Zielsetzungen hinsichtlich der gewünschten Zahl p von
Eigenpaaren und unter Vorgabe verschiedener Parameter wie p* bei SIVIT,
Startintervallen [0, L] der Bisektionsmethode und der Verschiebung Jl im
Lanczos-Verfahren gelöst. In Tab. 6.45 sind die Zahl der Iterationsschritte nil,
nBis der Bisektionsschritte, nlnv der inversen Vektoriterationen, der maßgeben-
de Konvergenzquotient q = Ap/ Apo + 1 und die CPU-Zeiten in Sekunden
zusammengestellt, die für die Berechnung der p Eigenpaare benötigt wurde.
Im Fall von SIVIT brachte die Vektorisierung des Programms eine Reduktion
der Rechenzeit auf CPU v um etwa 35%, da sich hier viele Operationen gut
vektorisieren lassen, auch wenn deren Länge oft recht kurz ist. Für die beiden
andern Methoden ist weder die Zerlegung von F in der verwendeten Form,
noch das Auflösen eines Gleichungssystems mit der Matrix F, noch die
Multiplikation eines Vektors mit der schwach besetzten Matrix B vernünftig
vektorisierbar, so daß in diesen Fällen keine oder nur eine unbedeutende
Reduktion der Ausführungszeit resultiert.
Das Lanczos-Verfahren löst die Aufgabe wiederum bei weitem am effiziente-
°
sten. Bei ungünstiger Wahl von Jl = nimmt die Zahl der Lanczos-Schritte mit
zunehmendem p rasch zu, weil dann die kleineren Ritzwerte, welche den
größeren Eigenwerten entsprechen, nur langsam konvergieren. Das berech-
nete Spektrum war in allen Fällen vollständig. Die Zahl der Lanczos-Schritte
ist im Fallp = 40 selbst mit der guten Wahl Jl = 2000 recht groß, weil Paare von
sehr benachbarten Eigenwerten vorhanden sind, deren Werte in den ersten
drei Ziffern übereinstimmen. So sind etwa A34==3716,9, A35==3723,1,
A36 == 3804,9, A37 == 3805,8, A38 == 4248,3, A39 == 4267,3, A40 == 4269,1. Mit geziel-
ten Verschiebungen Jl könnten die betreffenden Eigenpaare mit Hilfe von sehr
wenigen Lanczos-Schritten berechnet werden, da sie durch die inverse
Spektraltransformation gut getrennt werden.
Die simultane Vektoriteration und die Bisektionsmethode haben vergleich-
bare Rechenzeiten in der skalaren Ausführung. Für kleine p arbeitet SIVIT
etwas vorteilhafter als BISECT, für große p verschiebt sich das Verhältnis
zugunsten von BISECT. Der Grund liegt in der Verteilung der Eigenwerte, die
Tab.6.45 Zur Eigenwertberechnung, Hochspannungsmast

SIVIT (nRitz = 4) BISECT LANCZOS 0'.


iv
p p* njt q CPD CPD v L p nBi nln CPD p nit CPU (/l
J1 o
=r"
~
10 12 44 0,716 16,4 lJ,2 3000 10 44 72 27,5 10 0 28 2,6 I
Er
10 15 28 0,571 13,6 9,3 3000 15 74 103 45,1 10 500 23 2,2 ~
15 44 55,4 15 54 5,8 ::s
25 0,707 36,1 24,1 5000 20 92 lJ9 0 ~
20 30 44 0,721 44,5 29,3 5000 30 128 196 79,3 15 1000 42 4,2 ~
20 35 40 0,693 47,3 31,5 5000 40 181 252 110 20 0 65 7,7 o'Q'

30 40 64 0,803 89,8 57,8 8000 50 225 316 137 20 1500 46 4,7 0"

30 50 40 0,700 72,5 47,4 30 0 85 12,2 ::s'"


40 50 76 0,852 135 88,0 30 1500 67 8,1
.j:>.
40 2000 82 11,6 ......
lJl
416 6 Anwendungen mit Resultaten

ab ..1.40 sehr dicht liegen und somit der Konvergenzquotient q groß wird. Man
müßte in diesem Fall p* entsprechend groß wählen. Man beachte übrigens,
daß die Rechenzeit von SIVlT bei Erhöhung von p* nicht abzunehmen
braucht, falls der Mehraufwand pro Iterationsschritt den durch die Reduktion
der Iterationszahl erzielten Gewinn überwiegt.

Tab. 6.46 Eigenfrequenzen, Hochspannungsmast

k A.k fk [Hz] Schwingungsform Sk

1 136,07 1,857 Schwingung der Verstrebungen des unteren Teils.


Größte horizontale Amplitude im Niveau I!
2 237,46 2,453 Wie SI, größte Amplitude im Niveau II!
3 261,41 2,573 Wie SI, größte Amplitude im Niveau I
4 314,98 2,825 Biegeschwingung in y-Richtung
5 326,28 2,875 Biegeschwingung in x-Richtung

6 403,86 3,198 Wie SI, größte Amplitude im Niveau IV


7 626,47 3,984 Drehschwingung des großen Auslegers
8 722,86 4,279 Wie SI, größte Amplitude im Niveau V
9 854,61 4,653 Symmetrische, horizontale Schwingung des
großen Auslegers in y-Richtung
10 1287,9 5,712 Schwingung von Verstrebungen im untersten Teil

11 1581,7 6,330 Schwingung von Verstrebungen im untersten Teil


12 1780,1 6,715 Antisymmetrische, horizontale Schwingung des
großen Auslegers
13 1797,7 6,748 Symmetrische, horizontale Schwingung des
großen Auslegers
14 1872,3 6,887 Schwingung von Verstrebungen im untersten Teil
15 2226,2 7,509 Drehschwingung des Mastes mit
antisymmetrischer Schwingung des großen Auslegers

In Tab. 6.46 sind die 15 kleinsten Eigenwerte Ak und die Eigenfrequenzen


fk = )f;/(2n) zusammengestellt. Die Art der Schwingungsform ist kurz
beschrieben, wobei auf Fig.6.14 Bezug genommen wird. Die Zusammen-
stellung zeigt, daß zahlreiche Teilmodes auftreten, bei denen sich nur
Teilsysteme im Schwingungszustand befinden, während sich der Rest der
Konstruktion praktisch in Ruhe befindet. Dies ist auch der Grund für die
benachbarten Eigenfrequenzen. In Fig. 6.42 sind drei Schwingungsformen
dargestellt.
6.2 Schwingungsaufgaben 417

Fig.6.42 Ausgewählte Sehwingungsformen des Hochspannungsmastes

6.3 Instationäre Temperaturverteilung

Als Repräsentant eines instationären Feldproblems betrachten wir die Auf-


gabe, die zeitabhängige Temperaturverteilung im Grundgebiet G der
Fig. 6.1 zu bestimmen. Die Anfangsrandwertaufgabe lautet für die vom
Ort und der Zeit t abhängigen Funktion u(x, y, t)

Lu + 20 - -ou = 0 in G (6.8)
ot
u=O auf AB; t >0 (6.9)
OU
=0 auf BD, DE, EF, LM, MA; t > 0 (6.10)
on
OU
-+2u=0 auf FHIKL; t >0 (6.11 )
on
u(x, y, 0) = 0 inG (6.12)
418 6 Anwendungen mit Resultaten

Es soll die zeitliche Entwicklung der Temperaturverteilung bestimmt werden,


falls zur Zeit t = 0 die Anfangstemperatur im Gebiet G gleich Null ist. Die
Randbedingungen (6.9), (6.10) und (6.11) sind zeitunabhängig, was die
Durchführung der Rechnung vereinfacht. Die stationär sich einstellende
Lösungsfunktion stimmt mit derjenigen aus Abschn. 6.1.1 überein.
Zur Lösung der Aufgabe wird nach der in den Abschn. 1A und 1.5 dargelegten
Methode die gesuchte Funktion nach (1.97) angesetzt. Da in unserem Fall die
Randbedingungen homogen sind, entfällt die dort erklärte Funktion
fPo(x,y, t). Als linear unabhängige Funktionen fPk(X,y) werden die globalen
Formfunktionen Nk(x,y) gewählt, so daß der Ansatz (1.97) lautet

u(x, y, t) = L ck(t)lh(x,y). (6.13)


k=!
Auf Grund der strengen Anwendung des Galerkinschen Verfahrens müßten
die Ansatzfunktionen fPk(X,y), in unserem Fall die Formfunktionen Nk(x,y),
die homogenen Randbedingungen erfüllen. Gemäß der Bemerkung in Ab-
sehn. lA (1. Anwendung der Methode von Galerkin) läßt man diese Forde-
rung aber weg, so daß diese Randbedingungen auch nur näherungsweise
erfüllt sein werden.
Die Galerkinschen Gleichungen (1.98) lauten für die betrachtete Anfangs-
randwertaufgabe

L n
I\(t) ff NkNj dx dy -+- Ln Ck(t)
{
ff grad l'h . grad N j dx dy
k=! G k=! G

-"- 2 f NkNj dS} - 20 ff 1~ dx dy = 0, (j = 1,2, ... , n). (6.14)


c2 G

In (6.14) bedeutet C 2 den Halbkreis des Gebietes G. Die Gesamtheit der


Differentialgleichungen (6.14) schreibt sich zusammengefaßt in der Form

Be + Ac + d = 0, (6.15)

worin B die Gesamtmassenmatrix, A die Gesamtsteifigkeitsmatrix und d den


Konstantenvektor bedeuten gemäß

B = (bjk ), bjk = ff 10N k dx dy, (6.16)


G

A = (ajk), ajk = ff grad Nj ' grad N k dx dy + 2 f 10Nk ds, (6.17)


G c2
d = (d!, ... , dn ) T, dj = - 20 ff N j dx dy. (6.18)
G
6.3 Instationäre Temperaturverteilung 419

Die Matrizen A und B und der Konstantenvektor werden zu einer gegebenen


Gebietsdiskretisation am zweckmäßigsten kompiliert, ohne dabei auf die
Randbedingung (6.9) zu achten nach dem in Abschn.3.1.2 beschriebenen
Vorgehen. Die Randbedingung (6.10) wird näherungsweise durch das Nicht-
vorhandensein eines zugehörigen Randintegrals berücksichtigt, während
(6.11) im zweiten Gebietsintegral von (6.17) Berücksichtigung findet.
Die numerische Integration von (6.15) erfolgt mit der Trapezmethode (vgl.
Abschn. 1.4). Da der Konstantenvektor d zeitunabhängig ist, lautet (1.105)
vereinfacht

(6.19)

Nun geht es noch darum, die Randbedingungen (6.9) zu erfüllen. Anstatt die
betreffenden Knotenvariablen aus dem System (6.15) zu eliminieren, werden
die Bedingungen (6.9) in (6.19) ähnlich zum Vorgehen von Abschn. 3.1.3
eingebaut. Zeitlich konstante Dirichletsche Randbedingungen können da-
durch berücksichtigt werden, daß man dafür sorgt, daß die betreffenden
Knotenvariablen im System (6.19) konstant gehalten werden, also keine
zeitliche Änderung erfahren. Betrifft eine Dirichletsche Randbedingung die
j-te Knotenvariable, wird dies erreicht, indem alle Elemente der j-ten Zeile der
. - 1 - 1
Matnzen B = B + - 6tA und A = B - - 6tA Null gesetzt werden und
2 2
die Diagonalelemente den Wert Eins erhalten. Gleichzeitig wird die j-te
Komponente im Vektor d= 6td gleich Null gesetzt. Jetzt wird diej-te Spalte
von X - B der modifizierten Matrizen X und B, multipliziert mit dem
gegebenen Randwert der j-ten Knotenvariablen, von d subtrahiert. Anschlie-
ßend werden auch die Außendiagonalelemente der j-ten Kolonnen von X und
B Null gesetzt. Im Startvektor Co = c(O) erhält die j-te Komponente den
gegebenen Randwert. In (6.19) wird damit im ersten Integrationsschritt diej-te
Komponente des rechts stehenden Vektors gleich dem Randwert, und infolge
der Modifikationen in B erhält die j-te Komponente von Cl denselben Wert.
Dies gilt dann auch für alle folgenden Schritte.
Aus der Anfangsbedingung (6.12) folgt schließlich, daß sämtliche (restlichen)
Knotenvariablen selbst gleich Null sein müssen. Zusammen mit (6.9) bedeutet
dies, daß Co = c(O) = 0 gelten muß.
Für die konkrete Rechnung ist die Elementeinteilung nach Fig.6.3 mit
quadratischen Ansätzen verwendet worden. Die Ordnung der Systemmatrizen
beträgt somit n = 537. Um die numerische Integration am Anfang mit
hinreichender Genauigkeit durchzuführen, ist ein kleiner Zeitschritt verwen-
det worden, der anschließend zweimal vergrößert wird, bis der stationäre
Zustand erreicht wird (vgl. Tab. 6.47). Jede Änderung der Integrationsschritt-
420 6 Anwendungen mit Resultaten

Tab. 6.47 Zur Wahl der Zeitschritte

6.1 Integrationsschritte 10 11

0,02 50 0,0 1,0


0,1 90 1,0 10,0
0,5 140 10,0 80,0

90

Fig.6.43 Temperaturverteilung für 1= 3 Fig.6.44 Temperaturverteilung für t = 6

weite erfordert die neue Berechnung der Matrizen Bund A und die Cholesky-
Zerlegung der Matrix B.
Zur Illustration der Resultate sind die Isothermen zu den Zeitpunkten t = 3
und t = 6 in den Fig. 6.43 und Fig. 6.44 dargestellt. Fig. 6.45 zeigt den
stationären Zustand, wie er sich bereits für t = 60 einstellt. Dies ist gleichzeitig
die Temperaturverteilung für die Aufgabe von Abschn. 6.1.1.
6.3 Instationäre Temperaturverteilung 421

Fig.6.45
Stationäre Temperaturverteilung
Literatur

[AbS70] Abramowitz, M.; Stegun, LA.: Handbook of mathematical functions.


Dover, New York 1970
[Adi61] Adini, A.: Analysis of shell structures by the finite element method. Ph. D.
Thesis, Dept. Civ. Eng. Univ. of California 1961
[Aki82] Akin, J. E.: Application and implementation of finite element methods.
Academic Press, London 1982
[AlC75] Albrecht, J.; Collatz, L.: Finite Elemente und Differenzenverfahren.
ISNM Bd. 28, Birkhäuser, Basel 1975
[AmH81] Amit, R.; Hall, c.: Storage requirements for profile and frontal elimin-
ation. SIAM J. Numer. Anal. 19 (1981) 205-218
[And70] Anderheggen, E.: A conforming finite element plate ben ding solution.
Int. J. Meth. Eng. 2 (1970) 259-264
[ApI77] Apelt, C. J.; Isaacs, L. T.: On the estimation ofthe optimum accelerator
for SOR applied to finite element methods. Comp. Meth. Appl. Mech. Eng.
12 (1977) 383-391
[AFS68] Argyris, J. H.; Fried, I.; Scharpf, D. W: The TET20 and the
TEA8 elements for the matrix dis placement method. Aer. J. 72 (1968)
618-623
[AFS68] Argyris, J. H.; Fried, I.; Scharpf, D. W: The TUBA family of plate
elements for the matrix displacement method. The Aeron. J. of the Roy.
Aeron. Soc. 72 (1968) 701-709
[ArM86] Argyris, J.; Mlejnek, H. P.: Die Methode der finiten Elemente. Bd 1-3;
Friedr. Vieweg & Sohn, Braunschweig 1986-1988
[Axe72] Axelsson, 0.: A generalized SSOR method. BIT 13 (1972) 443-467
[Axe76] Axelsson, 0.: A dass of iterative methods for finite element equations.
Comp. Meth. in Appl. Mech. and Eng. 9 (1976) 123-137
[Axe77] Axelsson, 0.: Solution of linear systems of equations: Iterative methods.
Sparse Matrix Techniques, Copenhagen 1976. Lecture Notes in Math-
ematics 572, Springer, Berlin 1977, 1-51
[Axe85] Axelsson, 0.: A survey ofvectorizable precconditioning methods for large
scale finite element matrix problems. BIT 25 (1985) 166-187
[AxB84] Axelsson, 0.; Barker, V. A: Finite element solution ofboundary value
problems. Theory and computation. Academic Press, New York 1984
[Azi72] Aziz, A. K. (ed.): The mathematical foundations of the finite element
method with applications to partial differential equations. Academic Press,
New York-London 1972
[Bar89] Bartelt, P.: Finite element procedures on vector/tightly coupled parallel
computers. Ph. D. dissertation, ETH Zürich, Verlage der Fachvereine
Zürich 1989
[BMW67] Barth, W; Martin, R. S.; Wilkinson, J. H.: Ca1culation of the
eigenvalues of asymmetrie tridiagonal matrix by the method of bisection
Numer. Math. 9 (1967) 386-393. Auch in [WiR71]
[Bat90] Bathe, K.: Finite-Element-Methoden. Springer, Berlin 1990
Literatur 423

[BOW77] Bathe, K. J.; Oden, J. T.; Wunderlich, W. (ed.): Formulations and


computational algorithms in finite element analysis. M.I.T. PTess, Cam-
bridge, Mass. 1977
[Bau63] Bauer, F. L.: Optimally scaled matrices. Numer. Math. 5 (1963) 73-87
[BCI65] Bazeley, G. P.; Cheung, Y. K.; Irons, B. M.; Zienkiewicz, O. C.:
Triangular elements in bending-conforming and nonconforming solutions:
In: Proc. Ist Conf. Matrix Methods in Struct. Mech., Air Force Inst. of
Tech. Wright Patterson A. F. Base. Ohio 1965,547-576
[BDH77] Becker, J.; Dreyer, H.; Haacke, w.; Nabert, R.: Num~rische Mathe-
matik für Ingenieure. Teubner, Stuttgart 1977
[BC081] Beckers, E. B.; Carey, G. F.; Oden, J. T.: Finite elements. 6 vol. Prentice-
Hall, Englewood Cliffs, N. J. 1981-1986
[BeI69] Bell, K.: A refined triangular plate bending finite element. Int. J. Numer.
Meth. Eng. 1 (1969) 101-122
[Ben24] Benoit: Note sur une methode de resolution des equations normales etc.
(Procede du commandant Cholesky). Bull. geodesique 3 (1924) 67-77
[BrF66] Bradbury, W. W.; Fletcher, R.: New iterative methods for solution ofthe
eigenproblem. Numer. Math. 9 (1966) 259-267
[BSS73] Buck, K. E.; Scharpf, D. W.; Stein, E.; Wunderlich, w.: Finite
Elemente in der Statik. Wilhelm Ernst, Berlin 1973
[Buf70] Bufler, H.: Die verallgemeinerten Variationsgleichungen der dünnen
Platte bei Zulassung diskontinuierlicher Schnittkräfte und Verschiebungs-
grössen. Ing. Arch. 39 (1970) 330-340
[BuK77] Bunch, J. R.; Kaufman, L.: Some stable methods for ca1culating inertia
and solving symmetrie linear systems. Math. Comput. 31 (1977) 163-177
[BuR76] Bunch, J. R.; Rose, D. J. (ed.): Sparse Matrix Computations. Academic
Press, New York 1976
[Cia78] Ciarlet, Ph. G.: The finite element method for elliptic problems. North-
Holland, Amsterdam 1978
[CiL90] Ciarlet, P. G.; Lions, J. L. (ed.): Handbook ofnumerical analysis. Vol. II:
Finite element methods. North-Holland, Amsterdam 1990
[CIF68] Clough, R. w.; Felippa, C. A.: A refined quadrilateral element for
analysis of plate bending. In Proc. 2nd Conf. on Matrix Methods in
Structural Mechanics, Wright Patterson AFB Ohio 1968, 399-440
[CIT65] Clough, R. W.; Tocher, J. L: Finite element stiffness matrices for the
analysis of plate bending. In: Proc. 1st Conf. on Matrix Methods in
Structural Mechanics, Wright Patterson AFB Ohio 1965,515-545
[CoI59] Collatz, L.: Numerische Behandlung von Differentialgleichungen, 2.
Aufl., Springer, Berlin 1955; 3. Aufl. in englischer Sprache, Springer, Berlin
1959
[CGM85] Concus, P.; Golub, G. H.; Meurant, G.: Block preconditioning for the
conjugate gradient method. SIAM J. Sci. Statist. Comput. 6 (1985) 220-
252
[Coo74] Cook, R. D.: Concepts and applications of finite element analysis.
McGraw-Hill, New York 1974
[CoH70] Courant, R.; Hilbert, D.: Methoden der mathematischen Physik,!.
Band, 3. Aufl. Springer, Berlin 1970
424 Literatur

[Cri86] Crisfield, M.A.: Finite elements and solution proeedures for struetural
analysis. Vol. 1: Linear analysis. Pineridge Press, Swansea 1986
[Cut72] Cu thill, E.: Several strategies for redueing the band width of matriees. In:
Rose, D. J.; Willoughby, R. A. (ed.): Sparse matriees and their applieations.
Plenum, New York 1972, 157-166
[CuM69] CuthilI, E.; MeKee, J.: Redueing the bandwidth of sparse symmetrie
matriees. In: Proe. ACM Nat. Conf., New York 1969, 157-172
[DaR67] Da vis, P. J.; Rabinowitz, P.: Numerieal integration. Aeademie Press,
London 1967
[DeA72] Desai, C. S.; Abel, J. E: Introduetion to the finite element method. Van
Nostrand Reinhold, New York 1972
[DuS79] Duff, 1. S.; Stewart, G. W. (ed.): Sparee matrix proeeedings 1978. SIAM
Philadelphia 1979
[DER86] Duff, 1. S.; Erisman, A. M.; Reid, J. K.: Direet methods for sparse
matriees. Clarendon Press, Oxford 1986
[DKR68] Dupont, T.; Kendall, R. P.; Raehford, H. H.: An approximate
faetorization proeedure for solving self-adjoint elliptie differenee equations.
SIAM J. Numer. Anal. 5 (1968) 559-573
[Eis81] Eisensta t, S.: Efficient implementation of a dass of preeonditioned
eonjugate gradient methods. SIAM J. Sei. Statist. Comput. 2 (1981)
1-4
[EGR59] Engeli, M.; Ginsburg, Th.; Rutishauser, H.; Stiefel, E.: Refined
iterative methods for the computation of the solution and the eigenvalues of
selfadjoint boundary value problems. Mitt. Inst. f. angew. Math. ETH
Zürich, Nr. 8, Birkhäuser, Basel 1959
[EIZ68] Erga toudis, J. G.; Irons, B. M; Zienkiewicz, O. C.: Curved isoparamet-
rie quadriJateral elements for finite element analysis. Int. J. Solids Struet. 4
(1968) 31-42
[Eri83] Ericsson, T.: Implementation and applieation of the spectral transform-
ation Lanczos algorithm. In: Kogström, B.; Ruhe, A. (ed.): Matrix penciJs.
Springer, New York 1983,177-188
[ErR80] Ericsson, T.; Ruhe, A.: The spectral transformation Lanczos method for
the numerical solution of large sparse generalized eigenvalue problems.
Math. Comp. 35 (1980) 1251-1268
[Eva68] E vans, D. J.: The use of preconditioning in iterative methods for solving
linear equations with symmetrie positive definite matrices. J. Inst. Maths.
Applics. 4 (1968) 295-314
[Eva73] Evans, D. J.: The analysis and application of sparse matrix algorithms in
the finite element method. In: [Whi73], 427-447
[Eva83] Evans, D. J. (ed.): Preconditioning methods: Analysis and applications.
Gordon und Breach, New York 1983
[FoM67] Forsythe, G. E.; Moler, C. B.: Computer solution of linear algebraie
systems. Prentice-Hall, Englewood, Cliffs, N. J. 1967
[Fun70] Funk, P.: Variationsrechnung und ihre Anwendung in Physik und Technik,
2. Aufl. Springer, Berlin 1970
[GaI76] Gallagher, R. H.: Finite-Element-Analysis. Springer, Berlin 1976
Literatur 425

[GaM77] Galligani, I.; Magenes, E. (ed.): Mathematical aspects of finite element


methods. Proc. ofthe Conf. held in Rome, Dec. 10-12, 1975. Lecture Notes
in Mathematics No. 606. Springer, Berlin 1977
[Gan70] Gantmacher , ER.: Matrizenrechnung, Bd. 1, 3. Aufl. VEB Deutscher
Verlag der Wissenschaften, Berlin 1970
[Gaw85] Gawehn, W.: Finite-Elemente-Methode. Vieweg, Braunschweig 1985
[Gaw85] Gawehn, W.: FORTRAN IV/77-Programm zur Finite-Element-Methode.
Vieweg, Braunschweig 1985
[Geo71] George, J. A.: Computer implementation of the finite element method.
Techn. Rep. STAN-CS-71-208, Computer Science Dept., Stanford Univ.,
Standford, Calif. 1971
[Geo73] George, J. A.: Nested dissection of a regular finite element mesh. SIAM J.
Numer. Anal. 10 (1973) 345-363
[Geo76] George, J. A.: Sparse matrix aspects ofthe finite element method. In: Proc.
2nd Intern. Symp. on Computing Methods in Applied Sciences and
Engineering. Lecture Notes in Economics and Mathematical Systems 134,
Springer, Berlin 1976, 3-22
[Geo77] George, J. A.: Numerical experiments using dissection methods to solve n
by n grid problems. SIAM J. Numer. Anal. 14 (1977) 161-179
[Geo77] George, J. A.: Solution of linear systems of equations: Direct methods for
finite element problems. Sparse matrix techniques, Copenhagen 1976.
Lecture Notes in Mathematics 572. Springer, Berlin 1977,52-101
[GeL81] George, J. A.; Liu, J. W.: Computer solution of large sparse positive
definite systems. Prentice-Hall, Englewood Cliffs, N. J. 1981
[GPV78] George, J. A; Poole, W. G.; Voigt, R. G.: Incomplete nested disseetion
for solving n by n grid problems. SIAM J. Numer. Anal. 15 (1978) 662-
673
[GPS76] Gibbs, N. E.; Poole, W. G.; Stockmeyer, P. K.: An algorithm for
reducing the bandwidth and profile of a sparse matrix. SIAM J. Numer.
Anal. 13 (1976) 236-250
[Giv54] Givens, W.: Numerical computation of the characteristic values of areal
symmetrie matrix. Oak Ridge Nat. Lab. Report ORNL-1574 (1954)
[GoU77] Go lu b, G. H.; U nderwood, R.: The block Lanczos method for comput-
ing eigenvalues. In: Rice, J. (ed.): Mathematical software In, Academic
Press, New York 1977,364-377
[GoV89] Golub, G. H.; Van Loan, Ch. E: Matrix computations. 2nd ed. T3eJohns
Hopkins University Press, Baltimore 1989
[Gup72] Gu pta, K. K.: Solution of eigenvalue problems by Sturm sequence method.
Int. J. Numer. Meth. Eng. 4 (1972) 379-404
[Gus80] Gustafsson, I.: On modified incomplete Cholesky factorization methods
for the solution of problems with mixed boundary conditions and problems
with discontinuous material coefficients. Int. J. Num. Meth. Engin. 14
(1980) 1127-1140
[Gus83] Gustafsson, I.: Modified incomplete Cholesky (MIC) methods. In
[EvaS3] 265-293
[Hah75] Hahn, H. G.: Methode der finiten Elemente in der Festigkeitslehre.
Akademische Verlagsgesellschaft, Frankfurt a. M. 1975
426 Literatur

[HaS58] Hammer, P. c.; Stroud, A. H.: Numerical evaluation of multiple


integrals. Math. Tables Aids Comp. 12 (1958) 272-280
[Hen58] Henrici, P.: On the speed of convergence of cyclic and quasi-cyclic Jacobi
methods for computing eigenvalues of Hermitian matrices. J. Soc. Industr.
Appl. Math. 6 (1958) 144-162
[HeK51] Hestenes, M. R.; Karush, W.: Solution ofAx=lBx. J. Res. Nat. Bur.
Standards 49 (1951) 471-478
[HeS52] Hestenes, M.; Stiefel, E.: Methods of conjugate gradients for solving
linear systems. J. Res. Nat. Bur. Standards 49 (1952) 409-436
[Hi077] Hinton, E.; Owen, D. R. J.: Finite element programming. Academic
Press, London - New York, 1977
[Hi079] Hinton, E.; Owen, D. R. J.: An introduction to finite element computa-
tions. Pineridge Press, Swansea U. K. 1979
[HoB72] Holand, 1.; Bell, K.: Finite element methods in stress analysis, 3rd ed.
Tapir Press, Trondheim 1972
[HMS75] Holzmann, G.; Meyer, H.; Schumpich, G.: Technische Mechanik. T. 3:
Festigkeitslehre, 3. Aufl. Teubner, Stuttgart 1975
[Hou58] Householder, A.: Unitary triangularization of a nonsymmetric matrix. J.
Ass. Comput. Mach. 5 (1958) 339-342
[Hug87] Hughes, T. J. R.: The finite element method: Linear static and dynamic
finite element analysis. Prentice-Hall, Englewood Cliffs, N. J. 1987
[HFH87] Hughes, T. J. R.; Ferencz, R. M.; Hallquist, J. 0.: Large-scale
vectorized implicit calculations in solid mechanics on a CRAY-XMP/48
utilizing EBE preconditioned conjugate gradients. Comput. Meth. Appl.
Mech. Engrg. 61 (1987) 215-248
[Ir069] Irons, B. M.: A conforming quartic tri angular element for plate bending.
Int. J. Numer. Meth. Eng. I (1969) 29-45
[Iro 70] Ir 0 ns, B. M.: A frontal solution pro gram for finite element analysis. Int. J.
Num. Meth. Eng. 2 (1970) 5-32
[IrA80] Irons, B. M.; Ahmad, S.: Techniques of finite elements. John Wiley,
Chichester 1980
[IrR72] Irons, B. M.; Razzaque, A.: Experience with the patch test for conver-
gence of finite elements. In [Azi72] 557-587
[Jac46] Jacobi, C. G. J.: Ueber ein leichtes Verfahren, die in der Theorie der
Säkularstörungen vorkommenden Gleichungen numerisch aufzulösen.
Crelle's J. 30 (1846) 51-94
[JäK76] Jäcker, M.; Knothe, K.: Gekoppelte Schwingungen von Rotor und
Fundament bei großen Turbosätzen. Institut für Luft- und Raumfahrt, TU
Berlin, Mitteilung Nr. 23, 1976
[Jen66] J ennings, A.: A compact storage scheme for the solution of simultaneous
equations. Comput. J. 9 (1966) 281-285
[Jen77] Jennings, A.: Matrix computation for engineers and scientists. John
Wiley, Chichester 1977
[JeM77] Jennings, A.; Malik, G. M.: Partial elimination. J. Inst. Maths. Applics.
20 (1977) 307-316
[KäF88] Kämmei, G.; Franeck, H.: Einführung in die Methode der finiten
Elemente. VEB Fachbuchverlag, Leipzig 1988
Literatur 427

[Ker78] Kershaw, D. S.: The incomplete Cholesky-conjugate gradient method for


the iterative solution of systems of linear equations. J. Comp. Physics 24
(1978) 43-65
[Kin70] King, 1. P.: An automatic reordering scheme for simultaneous equations
derived from network systems. Internat. J. Numer. Meth. Engrg. 2 (1970)
523-533
[Kne75] Kneubühl, F.: Repetitorium der Physik. Teubner, Stuttgart 1975
[Lan50] Lanczos, c.: An iteration method for the solution of the eigenvalue
problem of linear differential and integral operators. J. Res. Nat. Bur.
Standards. Sect. B. 45 (1950) 225-280
[Lan70] Lanczos, c.: The variational principles of mechanics. 4th ed. McGraw-
Hill, Toronto 1970
[LaL75] Lascaux, P.; Lesaint, P.: So me nonconforming finite elements for the
plate bending problem. Rev. Fran<;aise Automat. Informat. Recherche
Operationelle Ser. Rouge Anal. Numer. R-l (1975) 9-53
[Lew82] Lewis, J. G.: Implementation ofthe Gibbs-Poole-Stockmeyer and Gibbs-
King algorithms. ACM Trans. Math. Software 8 (1982) 180-189, 190-194
[Lin84] Link, M.: Finite Elemente in der Statik und Dynamik. Teubner, Stuttgart
1984
[LiS76] Liu, W. H.; Sherman, A. H.: Comparative analysis ofthe Cuthill-McKee
and the reverse Cuthill-McKee algorithms for sparse matrices. SIAM J.
Numer. Anal. 13 (1976) 198-213
[LoM80] Longsine, D. E.; McCormick, S. F.: Simultaneous Rayleighquotient
minimization methods for Ax = ABx. Lin. Aig. Appl. 34 (1980) 195-234
[Man79] Manteuffel, T. A.: Shifted incomplete Cholesky-factorization. In:
[DuS79],41-61
[Mar86] Marti, J. T.: Introduction to Sobolev spaces and finite element solution of
elliptic boundary value problems. Academic Press, London 1986
[MaC73] Martin, H. c.; Carey, G. F.: Introduetion to finite element analysis,
theory and applieation. MeGraw-Hill, New York 1973
[MPW65] Martin, R. S.; Peters, G.; Wilkinson, J. H.: Symmetrie deeomposition
of a positive definite matrix. Numer. Math. 7 (1965) 362-383
[MaW67] Martin, R. S.; Wilkinson, J. H.: Solution of symmetrie and unsymmetrie
band equations and the ealculation of eigenveetors of band matriees.
Numer. Math. 9 (1967) 279-301
[MeV77] Meijerink, J. A.; van der Vorst, H. A.: An iterative solution method for
linear systems of which the coefficient matrix is asymmetrie M-matrix.
Math. Comput. 31 (1977) 148-162
[MeB69] Melosh, R.; Bamford, R. M.: Efficient solution of load deflection
equations. J. Struct. Div. ASCE, Proc. Paper No. 6510 (1969) 661-676
[MiW77] MitehelI, A. R.; Wait, R.: The finite element method in partial differential
equations. John Wiley, London - New York 1977
[Muh72] Muheim, J. A.: Verfahren zur Berechnung der akustischen Eigenfrequen-
zen und Stehwellenfelder komplizierter Hohlräume. Dissertation ETH
Zürich, No 4810, 1972
[NoV73] Norrie, D. H.; de Vries, G.: The finite element method. Aeademic Press,
London - New York 1973
428 Literatur

[NoV76] Norrie, D. H.; de Vries, G.: Finite element bibliography. Plenum Press,
New York 1976
[NoV78] Norrie, D. H.; de Vries, G.: An introduction to finite element analysis.
Academic Press, New York 1978
[OdC83] Oden, J. T.; Carey, G. F.: Finite elements: Mathematical aspects. Prentice-
Hall, Englewood Cliffs, N. J. 1983
[OdR76] Oden, J. T.; Reddy, J. N.: Variational methods in theoretical mechanics.
Springer Verlag, Berlin 1976
[OdR76] Oden, J. T.; Reddy, J. N.: Mathematical theory offinite elements. John
Wiley, New York 1976
[Ort88] Ortega, J. M.: Introduction to parallel and vector solution of linear
systems. Plenum Press, New York 1988
[Pai71] Paige, C. c.: The computation of eigenvalues and eigenveetors of very
large sparse matrices. Ph. D. Thesis, Univ. of London 1971
[Pai72] Paige, C. C.: Computational variants of the Lanczos method for the
eigenproblem. J. Inst. Math. Appl. 10 (1972) 373-381
[Pai76] Paige, C. C.: Error analysis of the Lanczos algorithm for tridiagonalizing a
symmetrie matrix. J. Inst. Math. Appl. 18 (1976) 341-349
[Par80] Parlett, B. N.: The symmetrie eigenvalue problem. Prentice-Hall, Engle-
wood Cliffs, N. J. 1980
[PaS79] Parlett, B. N.; Scott, D. S.: The Lanczos algorithm with seleetive
orthogonalization. Math. Comput. 33 (1979) 217-238
[Par69] Part er , S. V: The use of graphs in Gauss elimination. SIAM Rev. 3 (1969)
364-369
[Pet80] Peters, T. J.: Sparse matrices and substruetures with a novel implemen-
tation of finite element algorithms. Mathematisch Centrum, Amsterdam
1980
[PeW69] Peters, G.; Wilkinson, J. H.: Eigenvalues ofAx = ABx with band
symmetrie A and B. Comp. J. 12 (1969) 398-404
[Pia73] Pian, T. H. H.: Finite element methods by variational principles with
relaxed continuity requirements. In: Brebbia, C. A.; Trottenharn, H.
(ed.): Variational methods in engineering, 3/1-3/24. Univ. Southampton
1973
[Po086] Poo le, E. L.: Multi-color ineomplete Cholesky conjugate gradient methods
on veetor computers. Ph. D. dissertation, U niversity of Virginia, 1986
[Po087] Poole, E. L.; Ortega, J. M.: Multicolor ICCG methods for vector
computers. SIAM J. Numer. Anal. 24 (1987) 1394-1418
[Pra68] Prager, W.: Variational principles for elastic plates with relaxed eontinuity
requirements. Int. J. So lids Structures 4 (1968) 837-844
[Pre75] Prenter, P. M.: Splines and variational methods. John Wiley, London-
New York 1975
[Ra082] Rao, S. S.: The finite element method in engineering. Pergamon, Oxford
1982
[Raz73] Razzaque, A. Q.: Program for triangular elements with derivative
smoothing. Int. J. Numer. Meth. Eng. 6 (1973) 333-344
[Red84] Reddy, J. N.: An introduction to the finite element method. McGraw-Hill,
Maidenhead 1984
Literatur 429

[Rei71] Reid, J. K. (ed.): Large sparse sets of linear equations. Academic Press,
London - New York 1971
[Rit09] Ritz, W.: Ueber eine neue Methode zur Lösung gewisser Variationsprob-
leme der mathematischen Physik. J. f. reine und angew. Math. 135 (1909) 1-
61
[RoW72] Rose, D. J.; Willoughby, R. A. (ed.): Sparse matrices and their
applications. Plenum Press, New York - London 1972
[Ruh 77] Ruhe, A.: Computation of eigenvalues and eigenvectors. In: Barker, V. A.
(ed.): Sparse matrix techniques. Lecture Notes Math. 572, Springer, Berlin
1977, 130-184
[Ruh79] Ruhe, A.: Impiementation aspects of band Lanczos algorithms for
computation of eigenvalues of large sparse symmetric matrices. Math.
Comp. 33 (1979) 680-687
[Rut70] Rutisha user, H.: Simultaneous iteration method for symmetric matrices.
Numer. Math. 16 (1970) 205-223
[Rut76] Rutishauser, H.: Vorlesungen über Numerik. Birkhäuser, Basel 1976
[SPG89] Sartoretto, F.; Pini, G.; Gambolati, G.: Accelerated simultaneous
iterations for large finite element eigenproblems. J. Comput. Physics 81
(1989) 53-69
[ScS76] Schmeisser, G.; Schirmeier , H.: Praktische Mathematik. de Gruyter,
Berlin 1976
[Scö61] Schönhage , A.: Zur Konvergenz des Jacobi-Verfahrens. Numer. Math. 3
(1961) 374-380
[Scw77] Sch warz, H. R.: Two algorithms for treating Ax = ABx. Comput. Meth.
Appl. Mech. Eng 12 (1977) 181-199
[Scw81] Schwarz, H. R.: Simultane Iterationsverfahren für grosse allgemeine
Eigenwertprobleme. Ing.-Arch. 50 (1981) 329-338
[Scw81] Schwarz, H. R.: Die Methode der konjugienen Gradienten mit Vorkondi-
tionierungen. In: Numerische Behandlung von Differentialgleichungen,
Band 3, ISNM 56, Birkhäuser, Basel 1981, 146-165
[Scw87] Schwarz, H. R.: Rayleigh-Quotient-Minimierung mit Vorkonditionie-
rung. In: L. Collatz et al. (ed.): ISNM 81, Birkhäuser, Basel 1987,229-245
[Scw88] Sch warz, H. R.: Numerische Mathematik, 2. Aufl. Teubner, Stuttgan 1988
[Scw91] Schwarz, H. R.: FORTRAN-Programme zur Methode der finiten Ele-
mente. 3. Aufl. Teubner, Stuttgart 1991
[SRS72] Schwarz, H. R.; Rutishauser, H.; Stiefel, E.: Numerik symmetrischer
Matrizen, 2. Aufl. Teubner, Stuttgart 1972
[Seg76] Segerlind, L. J.: Applied finite element analysis. John Wiley, New York
1976
[SI086] Sioan, S. W.: An algorithm for profile and wavefront reduction of sparse
matrices. lnt. J. Numer. Meth. Engrg. 23 (1986) 239-251
[SIR83] Sioan, S. W.; Randolph, M. F.: Automatic element reordering for finite-
element analysis with frontal schemes. lnt. J. Numer. Meth. Engrg. 19
(1983) 1153-1181
[SBG74] Smith, B. T.; Boyle, J. M.; Garbow, B. S.; Ikebe, Y.; Klema, V. c.;
Moler, C. B.: Matrix eigensystem routines - EISPACK guide. Springer,
Berlin 1974
430 Literatur

[Sti76] Stiefel, E.: Einführung in die numerische Mathematik. 5. Aufl. Teubner,


Stuttgart 1976
[StF73] Strang, G.; Fix, G. J.: An analysis of the finite element method. Prentice-
Hall, Englewood Cliffs, N. J. 1973
[StS66] Stroud, A. H.; Secres t, D.: Gaussian quadrature formulas. Prentice-Hall,
Englewood Cliffs, N. J. 1966
[Str71] Stroud, A. H.: Approximate calculation of multiple integrals. Prentice-
Hall, Englewood Cliffs, N. J. 1971
[Stu80] Stummel, I.: The limitations ofthe patch test. Int. J. Numer. Meth. Eng. 15
(1980) 177-188
[Sza77] Szabo, I.: Höhere technische Mechanik, 5. Aufl. Springer, Berlin 1977
[TPZ69] Taylor, c.; Patil, B. S.; Zienkiewics, O. c.: Harbour oscillations: A
numerical treatment for undamped natural modes. Proc. Inst. Civil. Eng. 43
(1969) 141-155
[Toc62] Tocher, J. L.: Analysis of plate bending using triangular elements. Ph. D.
Thesis, Dept. Civ. Eng. Univ. of California 1962
[Var62] Varga, R. S.: Matrix iterative analysis. Prentice-Hall, Engelwood Cliffs, N.
J. 1962
[WaI82] Waldvogel, P.: Bisection for Ax=A.Bx with matrices of variable band
width. Computing 28 (1982) 171-180
[WaI85] Waldvogel, P.: Numerische Behandlung von allgemeinen Eigenwertpro-
blemen. Dissertation, Universität Zürich 1985
[WeJ84] Weaver, W. Jr.; Johnston, P. R.: Finite elements for structural analysis.
Prentice-Hall, Englewood Cliffs, N. J. 1984
[Wei74] Weinstock, R.: Calculus of variations with applications to physics and
engineering. Dover, New York 1974
[Whi73] Whiteman, J. R. (ed.): The mathematics of finite elements and applica-
tions. Vol. I, Academic Press, London - New York 1973
[Whi75] Whiteman, J. R.: A bibliography for finite elements. Academic Press,
London - New York 1975
[Whi77] Whiteman, J. R. (ed.): The mathematics of finite elements and applica-
tions. Vol. II, Academic Press, London 1977
[Whi79] Whiteman, J. R. (ed.): The mathematics of finite elements and applica-
tions. Vol. III, Academic Press, London 1979
[Whi82] Whiteman, J. R. (ed.): The mathematics of finite elements and applica-
tions. Vol. IV, Academic Press, London 1982
[Whi85] Whiteman, J. R. (ed.): The mathematics of finite elements and applica-
tions. Vol. V, Academic Press, London 1985
[Whi88] Whiteman, J. R. (ed.): The mathematics of finite elements and applica-
tions. Vol. VI, Academic Press, London 1988
[Wie44] Wielandt, H.: Bestimmung höherer Eigenwerte durch gebrochene
Iteration. Bericht der aerodyn. Versuchsanstalt Göttingen 44/J/37
(1944)
[WiI60] Wilkinson, J. H.: Householder's method for the solution of the algebraic
eigenproblem. Computer J. 3 (1960) 23-27
[WiI61] Wilkinson, J. H.: Error analysis of direct methods ofmatrix inversion. J.
Ass. Comput. Mach. 8 (1961) 281-330
Literatur 431

[WiI62] Wilkinson, J. H.: Note on the quadratie eonvergenee of the eydie Jaeobi
proeess. Numer. Math. 4 (1962) 296-300
[Wil65] Wilkinson, J. H.: The algebraie eigenvalue problem. Clarendon Press,
Oxford 1965
[WiI69] Wilkinson, J. H.: Rundungsfehler. Springer, Berlin 1969
[WiR71] Wilkinson, J. H.; Reinseh, C.: Handbook for automatie computation,
Vol. II, Linear algebra. Springer, Berlin 1971
[You71] Young, D. M.: Iterative solution oflarge linear systems. Aeademie Press,
New York - London 1971
[Zie84] Zienkiewiez, O. C.: Methode der finiten Elemente. Carl-Hanser-Verlag,
München 1984
Sachverzeichnis

Ähnlichkeitstransformation 283 Dehnung 28


aktiver Teil 228 Diagonalstruktur 274
Anfangsbedingung 16 Diffusionsgleichung 16
Ansatzfunktion 57ff, 81, 84, 88 Dirichletsche Randbedingung 12,
Auffüllen 220, 239, 246, 265 14, 17, 19,24,46
äußerer Knotenpunkt 186 Diskretisierung 56, 156
Axelsson 262 dreidimensionales Element 151 ff

Balkenbiegung 31 ebener Spannungszustand 20, 33,


Balkenelement 20, 71, 373, 404 128
Balkentorsion 32 - Verzerrungszustand 20, 35, 139
Bamford 233 Eigenfrequenz 16, 396, 404ff
Bandbreite 160, 178,212, 378, 388, Eigenschwingungsform 16, 402ff
393 Eigenvektor 280ff
-, variable 178 Eigenwert 280ff
Bandlösungsmethode 226ff Eigenwertproblem
Bandmatrix 160,212,226,314 - allgemeines 44, 60, 280ff
Barth 293 - inverses spektralverschobenes
Baum 173, 246 334
-, monoton geordneter 246 - kondensiertes 192
Besetzungsstruktur 167ff, 180,248, -, spezielles 280
265,274,369,372,375 eindimensionales Element 62
bikubischer Ansatz 141 Einheitsdreieck 77
bilinearer Ansatz 87, 105, l39, 378 Einheitsintervall 62
biquadratischer Ansatz 91 Einheitsquadrat 77
Bisektion 292, 309ff, 397, 409, 413 Einzelschrittverfahren 254
Blockelimination 238 ff Elastizitätsmodul 29
Blockstruktur 239 Elastomechanik 19,27
-, tridiagonale 177, 184,240,255, Element 56, 62ff
369 -, dreidimensionales 15lff
Bunch und Kaufman 317, 321 -, eindimensionales 57, 62
-, isoparametrisches 114ff, 121,
Cauchysche Randbedingung 12, 14, 123, 136, 155,382
17,24,46 -, krummliniges ll3ff, 360, 382
Cholesky 208 ff -, subparametrisches 125
- Zerlegung 208, 211, 215, 221, -, zweidimensionales 58, 76ff
226,245,265,273,280,299,420 Elementmatrix 118
Cuthill-McKee, Algorithmus von Elementvektor. 84,86, 186
l7lff, 2l3, 369 -, kondensierter 188
- umgekehrter 181, 397 Eliminationsmethode 204
Sachverzeichnis 433

elliptische Differentialgleichung 11 Helmholtz-Gleichung 16, 19,26


Enveloppe 179,219 Hestenes-Stiefel 249
Ersatzkraft 70 Hookesches Gesetz 29
Ersatzmoment 70 Householder 287ff
Eulersche Differentialgleichung 24, Hülle 179,219,317
40 -, erweiterte 322, 397
Evans 262
Extremalprinzip 23, 57 innerer Knotenpunkt 186
innere Variable 92
Fachwerk 20, 367ff instationäre Wärmeleitung 50
Feldprobleme 56 Integrationsformel 120
-, instationäre 15,22,76,417 Irons 233
-, stationäre 11,22, 76 isoparametrisch 114ff, 121, 136, 155,
FiH-in 220,239,265 189, 382
Flächenträgheitsmoment 33 isotrop 13, 58, 128
Formfunktion 58, 64ff, 100ff, 136, Iterationsmatrix 254ff
142
freie Schwingung 39
Front 232, 237 Jacobi-Determinante 78, 116, 119
Frontbreite 235 - -Matrix 119
Frontlösungsmethode 233ff -, Methode von 283ff
Frontmatrix 233 -, - - zyklische 283
Jennings 220, 247, 298
Gabelschlüssel 22, 382ff
Galerkin 45ff, 418 King 184
Gaußsche Integration 120 Kirchhoffsche Hypothese 36
Gaußscher Algorithmus 204, 219 Knoten 172
George 245, 247 Knotenpunkt 58, 84, 156
Gesamtmassenmatrix 418 -, äußerer 186
Gesamtschrittverfahren 253 -, innerer 186
Gesamtsteifigkeitsmatrix 158, 161, Knotenvariable 58ff, 156
418 -, untergeordnete 194,402,404
Gibbs, Poole und Stockmeyer 185 Kompilation 158, 226
Givens 287 Kondensation 92, 186,379,402
Grad eines Knotens 173,268 -, statische 187, 195,360,403,404
Grapb 172 -, dynamische 199,403
Grundelementmatrix 83 ff, 131 Konditionszahl 259, 341, 372,411
Grundelementvektor 83 ff konform 57, 81, 141,387
Grundmatrix 79, 92,132,149,151 Kongruenztransformation 64, 83,
Gupta 310 319
Krylov-Unterraum 327, 329
Hamiltonsches Prinzip 38 kubischer Ansatz 67, 92, 94, 104,
Hauptachsentheorem 283 359,378,382,396,406
434 Sachverzeichnis

Lagrange-Funktion 38 optimale N umerierung 171


Lagrange-Klasse 91, 93 Orthogonalisierung 301, 327
Lanczos 326 - selektive 333, 336
Laplace-Gleichung 26 -, vollständige 333, 336
linearer Ansatz 63,81,103,138,
152,382,396,406 Paige 332
Linksdreiecksmatrix 206, 212 parabolische Differentialgleichung
16
Massene1ementmatrix 64ff, 84, 86, Parallelepiped 153
121, 135 partielle Cholesky-Zerlegung 265,
Mehrfärbung 278 366, 376, 381, 395
Mehrfrontenverfahren 237 - Pivotierung 315,322
Meistervariable 194,403,404 Patch-Test 58, 387
Me10sh 233 Peters 247,310,316,325
Methode der Bisektion 292, 309ff, Platte 20, 22, 386
397,409,413 Plattenbiegung 36
- - gewichteten Residuen 45 Plattene1emente 141
- - konjugierten Gradienten -, konform 14lff
249ff, 339, 363ff, 370, 372, 376, -, nichtkonform 145ff
381,385,389 Plattensteifigkeit 38
- - Rayleigh-Quotient-Minimie- Poisson-Gleichung 12, 26, 46
rung 338 ff, 397, 409 Poissonsche Zahl 29
- - simultanen Vektoriteration positiv definit 60, 161,204,280
397,409,413 potentielle Energie 27, 31 ff
- - Überre1axation 255, 363, 381 Prismene1ement 154
Methode von Cholesky 179, 208 ff, Profil 178, 359, 375, 379, 385, 388,
219,233,366,370,372,376,381, 393,397,409
385, 389 Pseudodurchmesser 185
- - Galerkin 45 ff, 57
- - Gibbs, Poole und Stockmeyer QR-Zerlegung 303, 306
185 quadratischer Ansatz 64, 84, 88, 91,
Givens 287 103, 139, 146, 152, 359, 378, 382,
Jacobi 283ff 396,406
Householder 287 quasiharmonische Differentialglei-
Lanczos 326ff, 397, 409, 413 chung 14

natürliche Dreieckskoordinaten 10 1 Rahmenkonstruktion 21, 71,372


- Koordinaten 66, 110 Randbedingung 11, 161
nested dissection 247 - geometrische 26, 43
Neumannsche Randbedingung 12, - homogene 17,41,162
15,17,19 - inhomogene 41, 162
nichtkonform 57, 145,387,392, - kinematische 28
408 - natürliche 25
Sachverzeichnis 435

Randwertaufgabe 13, 357 Substrukturierung 186, 238, 248,


Rang-Eins-Modifikation 349 362
Ra yleighscher Quotient 299, 307, Sylvester, Trägheitssatz von 312
338
Rechtsdreiecksmatrix 206 Temperaturverteilung 13, 17, 167,
Referenznumerierung 158 357ff
Relaxationsfaktor 253 Tetraederelement 151
Relaxationsrichtung 249 Torsionsflächenmoment 33
Ritz-Ansatz 41, 49 tridiagonale Matrix 287, 291, 329
Ritz-Schritt 304, 327, 353 trilinearer Ansatz 153
Ritz-Vektoren 304, 330, 336
Ritz-Werte 304, 330, 336, 400 Überhang 247
Rückwärtseinsetzen 206ff, 216, 222, Überrelaxation 253
225,242,267,299,324 Untergraph 173
Ruhe 341 Unterraum-Iteration 301
Rutishauser 306
Vektoriteration 297ff
Scheibe 20, 33, 128, 377 -, einfache 297
Scheibenelement 129ff, 406 -, gebrochen inverse 294, 323
Schiebung 28 -, simultane 30 lff
Schubmodul 33 Verschiebungsvektor 28ff
schwach besetzt 158, 338 Verzerrungsvektor 28ff
Schwingungsaufgabe 16,60, 163, Vorkonditionierung 257ff, 273, 342,
396ff 364,372,376,381,385,389
Serendipity-Klasse 88, 93, 105, 139, Vorkonditionierungsmatrix 260,
153, 378, 387, 392, 406 262, 342, 345
Sickerströmung 14 Vorwärtseinsetzen 207ff, 216, 222,
singulär 161 225,242,267,299,324
Skalierung 257,363,372,394
Spannungen 137,379,385 Wärmeleitung 13,50, 417ff
Spannungsvektor 28ff Wellengleichung 16, 18
Spektralradius 254 Wilkinson 293, 295, 317, 318, 325
Steifigkeitselementmatrix 64ff, 83ff,
121, 132, 150, 186 zeilenweise Speicherung 214, 218,
-, kondensierte 188 221, 268, 269
Strömungspotential 15 Zienkiewicz 112, 387,408
Stufe 173 Zugstab 30, 70
Stufenstruktur 177 Zwangsbedingung 25
Sturmsche Kette 292, 310 zweidimensionales Element 58,
subparametrisch 125, 189 76ff
Teubner Studienbücher
Mathematik
Afflerbach: Statistik-Praktikum mit dem pe_ DM 24,80
Ahlswede/Wegener: Suchprobleme. DM 37,-
Aigner: Graphentheorie. DM 34,-
Ansorge: DIfferenzenapproximationen partieller Anfangswertaufgaben.
DM 32,- (LAMM)
Behnen/Neuhaus: Grundkurs Stochastik. 2. Aufl. DM 39,80
Bohl: Finite Modelle gewöhnlicher Randwertaufgaben. DM 36,- (LAMM)
Böhmer: Spline-Funktionen. DM 32,-
Bröcker: Analysis In mehreren Variablen. DM 38,-
Bunse/Bunse-Gerstner: Numerische Uneare Algebra. DM 38,-
v. Collani: Optimale Wareneingangskontrolle. DM 29,80
Collatz: Differentialgleichungen. 7. Auf/. DM 38,- (LAMM)
CollatziKrabs: Approximationstheorie. DM 29.80
Constantinescu: Distributionen und ihre Anwendung In der Physik. DM 23,80
Dinges/Rost: Prinzipien der Stochastik. DM 38,-
Fischer/Kaul: Mathematik für Physiker
Band 1: Grundkurs. 2. Auf/. DM 48,-
Fischer/Sacher: Einführung In die Algebra. 3. Aufl. DM 28,80
Floret: Maß- und Integrationstheorie. DM 39,80
Grigorieff: Numerik gewöhnlicher Differentialgleichungen
Band 2: DM 38,-
Hackbusch: Integralgleichungen. Theorie und Numerik. DM 38,- (LAMM)
Hackbusch: Iterative Lösung großer schwachbesetzter Gleichungssysteme.
DM 42,- (LAMM)
Hackbusch: Theorie und Numerlk elliptischer Differentialglelchungen .. DM 38,-
Hackenbroch: Integrationstheorie. DM 23,80
Hainzl: Mathematik für Naturwissenschaftler. 4. Aufl. DM 39,80 (LAMM)
Hässig: Graphentheoretische Methoden des Operations Research. DM 26,80 (LAMM)
Hettich/Zenke: Numerische Methoden der Approximation und sem I-Infiniten
Optimierung. DM 29.80
Hilbert: Grundlagen der Geometrie. 13. Auf/. DM 32,-
Ihringer: Allgemeine Algebra. DM 24,80
Jeggle: Nlchtlineare Funktionalanalysis. DM 32,-
Kali: Analysis für ökonomen. DM 29,80 (LAMM)

B. G. Teubner Stuttgart

Das könnte Ihnen auch gefallen