Hans Rudolf Schwarz Methode Der Finiten Elemente
Hans Rudolf Schwarz Methode Der Finiten Elemente
Hans Rudolf Schwarz Methode Der Finiten Elemente
Methode der
finiten Elemente
Eine Einführung unter
besonderer Berücksichtigung der
Rechenpraxis
Third Edition
Teubner Studienbücher Mathematik
Schwarz
Methode der finiten Elemente
Leitfäden der angewandten
Mathematik und Mechanik LAMM
Herausgegeben von
Prof. Dr. G. Hotz, Saarbrücken
Prof. Dr. P. Kali, Zürich
Prof. Dr. Dr.-Ing. E. h. K. Magnus, München
Prof. Dr. E. Meister, Darmstadt
Band 47
Geboren 1930 in Zürich. Von 1949 bis 1953 Studium der Mathematik und
Diplom an der ETH Zürich. Von 1953 bis 1957 Mathematiker bei den F1ug-
und Fahrzeugwerken Altenrhein (Schweiz). 1957 Promotion, ab 1957 wiss.
Mitarbeiter an der ETH Zürich. 1962 Visiting Associate Professor an der
Brown University in Providence, Rhode Island, USA. 1964 Habilitation an
der ETH Zürich, von 1964 bis 1972 Lehrbeauftragter an der ETH Zürich.
1972 Assistenzprofessor, 1974 a.o. Professor, seit 1983 ord. Professor für
angewandte Mathematik an der Universität Zürich.
NE: 1. GT
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede
Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne
Zustimmung des Verlages unzulässig und strafbar. Das gilt besonders für Vervielfälti-
gungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbei-
tung in elektronischen Systemen.
© Springer Fachmedien Wiesbaden 1991
Ursprünglich erschienen bei B.G. Teubner Stuttgart 1991
Satz: Elsner & Behrens GmbH, Oftersheim
Das vorliegende Buch entstand seinerzeit auf die Anregung meines verehrten
Lehrers, Herrn Prof. Dr. E. Stiefel. Es richtet sich an Mathematiker,
Physiker, Ingenieure und Naturwissenschaftler, die an einer einfachen, auf die
praktische und effiziente Durchführung ausgerichteten einführenden Darstel-
lung der Methode der finiten Elemente interessiert sind.
Im elementar gehaltenen, einführenden Lehrbuch werden die Grundprinzi-
pien der Methode der finiten Elemente für ein- und zweidimensionale
Probleme eingehend dargelegt. Die Verallgemeinerung der Ideen und Vorge-
hensweisen zur Lösung von dreidimensionalen Aufgaben liegt auf der Hand.
Die Behandlung von ein- und zweidimensionalen Problemstellungen bietet
den Vorteil anschaulich und durchsichtig zu sein. Es wurde versucht, aus dem
weiten Anwendungsbereich der Methode der finiten Elemente typische und
repräsentative Problemkreise auszuwählen und die zugehörigen Grundlagen
darzustellen. So werden zuerst die für die Physik und verschiedene Zweige der
Ingenieur- und Naturwissenschaften wichtigen stationären und instationären
Feldprobleme behandelt. Darunter fallen elliptische Randwertaufgaben,
instationäre Diffusions- und Wärmeleitungsprobleme sowie Schwingungsauf-
gaben. Aus dem weiten Gebiet der Elastomechanik werden nur Stäbe, Balken,
Scheiben und Platten betrachtet, an denen das grundsätzliche Vorgehen im
Rahmen der linearen Elastizitätstheorie aufgezeigt wird.
Das Buch gliedert sich in sechs Kapitel. Am Anfang werden einige typische
und anwendungsorientierte Problemstellungen vorgestellt, und anschließend
werden die zu ihrer Lösung notwendigen mathematischen und elastomechani-
schen Grundlagen bereitgestellt. Soweit als möglich werden Extremalprinzi-
pien verwendet, andernfalls wird die Methode von Galerkin benützt. Im
zweiten Kapitel wird für die zentrale Stufe der Elemente gezeigt, wie für die
betrachteten Problemkreise die betreffenden Beiträge effizient und numerisch
stabil bereitgestellt werden können. Das dritte Kapitel befaßt sich mit der
Aufgabe, die Matrizen und Konstantenvektoren des Gesamtproblems aufzu-
bauen, wozu konkrete Hinweise für die Implementierung als Computerpro-
gramm gegeben werden. Gleichzeitig wird auf die resultierenden Besetzungs-
strukturen eingegangen und die für die nachfolgende Behandlung wichtige
Frage nach einer optimalen Numerierung der Unbekannten behandelt.
Ebenso wird die Elimination von Unbekannten zwecks Reduktion der
Ordnung der algebraischen Probleme betrachtet.
In den beiden folgenden Kapiteln sind praktische Methoden zur numerischen
Behandlung der großen, schwach besetzten linearen Gleichungssysteme und
Eigenwertaufgaben so dargestellt, daß die algorithmische Beschreibung eine
Realisierung als Computerprogramm leicht ermöglicht oder zumindest einen
6 Vorwort
1 Mathematische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1 Typische Problemstellungen .............................. . 11
1.1.1 Stationäre Feldprobleme ........................... . 11
1.1.2 Zeitabhängige, instationäre Feldprobleme ............ . 15
1.1.3 Probleme der Elastomechanik ....................... . 19
1.2 Extremalprinzipien ...................................... 22
1.2.1 Stationäre Feldprobleme ............................ 22
1.2.2 Statische elastomechanische Probleme . . . . . . . . . . . . . . . .. 27
1.2.3 Dynamische elastomechanische Probleme .............. 38
1.3 Der klassische Ritz-Ansatz ................................ 41
1.4 Die Methode von Galerkin .... . . . . . . . . . . . . . . . . . . . . . . . . . . .. 45
1.5 Generelle Beschreibung der Methode der finiten Elemente ..... 56
Eine erste Klasse von Aufgaben der Physik umfaßt die sogenannten stationä-
ren Feldprobleme mit der gemeinsamen Eigenschaft, daß eine Funktion des
Ortes des zwei- oder dreidimensionalen Raumes gesucht ist, die eine ellipti-
sche Differentialgleichung und bestimmte Randbedingungen zu erfül-
len hat. Zu dieser Kategorie von Aufgaben gehören beispielweise die
Bestimmung der stationären Temperaturverteilung bei Wärmeleitungsproble-
men, die Berechnung der elektrischen Feldstärke in elektrostatischen Feldern,
die Ermittlung des Geschwindigkeitspotentials von wirbelfreien Strömungs-
feldern und der zugehörigen Stromlinien, die Bestimmung der Spannungs-
12 I Mathematische Grundlagen
Fig.1.I
Zweidimensionale Randwertaufgabe
funktion bei Torsionsproblemen und die Berechnung der stationären langsa-
men Strömung einer Flüssigkeit durch ein poröses Medium.
Unter der Annahme eines homogenen und isotropen Mediums und eines
ebenen Problems muß die gesuchte Funktion u(x, y) in einem gegebenen
Gebiet G (s. Fig.l.l) die Poisson'sche Differentialgleichung
2?u 2iu
!::"u=-+-=f(x y) inG (1.1)
2x 2 3y 2 '
erfüllen, wof(x,y) eine gegebene Funktion des Ortes in G darstellt. Auf dem
Rand C des Gebietes G hat u(x,y) bestimmten Randbedingungen zu genügen.
Im allgemeinen werden auf einem Teil Cl des Randes die Werte von u
vorgeschrieben sein
u(s) = rp(s) auf CI, (1.2)
wo s die Bogenlänge und rp(s) eine gegebene Funktion bedeuten. Die
Bedingung (1.2) heißt eine Dirichletsche Randbedingung. Auf dem
Restteil C2 des Randes mit Cl U C2 = C und Cl n C2 = 0 wird eine Randbedin-
gung der allgemeinen Form
-
au +a(s)u(s) = y(s) auf C2 (1.3)
an ~u
vorgegeben sein, wo ~ die Ableitung von u in Richtung der äußeren Nor-
an
malen der Randkurve C2 darstellt und a(s) und y(s) gegebene Funktionen
sind. Im allgemeinen Fall wird (1.3) als Cauchysche Randbedingung
bezeichnet, die im Spezialfall a(s)=y(s)=O Neumannsche Randbedin-
gung genannt wird.
In der allgemeinen Formulierung der zu lösenden Randwertaufgabe (LI),
(1.2) und (1.3) sind die Spezialfälle eingeschlossen, daß etwa die Funktion
f(x,y) im ganzen Gebiet G verschwindet, so daß die Laplace-Gleichung
a2 u a2 u
!::"u = - + - = 0 in G (1.4)
ax 2 ay2
zu lösen ist, oder daß etwa eines der beiden Randstücke Cl bzw. C2 leer ist.
l.l Typische Problemstellungen 13
Ar-------~L~------~F
B E
Fig.1.2
C~------~H~------~D
Wärmeleitungsproblem
-
au + a(x, y, z)u(x, y, z) = y(x, y, z) auf T 2 (1.8)
an
dU
genügen, wo - die Ableitung in Richtung der äußeren Flächennormalen
dn
bedeutet und a(x,y, z) und y(x,y, z) gegebene Funktionen auf T 2 sind.
Bei gewissen AufgabensteIlungen, wie etwa im Fall von Sickerproblemen oder
Wärmeleitungsaufgaben in inhomogenen und anisotropen Medien, tritt an die
Stelle der Poisson-Gleichung die allgemeinere quasiharmonische Diffe-
re n tialgleich ung
~ (k ~) +.;-
ex l ex oy
dU) +;-
(k 2 ey oz
(k3~)
ez
= fex, y, z) in G, (1.9)
kk k3
worin j , 2 und gegebene Funktionen des Ortes sind. Diese Koeffizienten
widerspiegeln die Inhomogenität des Mediums und besitzen die physikalische
Bedeutung der richtungs- und eventuell auch ortsabhängigen Durchlässig-
keitswerte des Mediums. Festzuhalten ist, daß in Gleichung (1.9) die
rechtwinkligen Koordinaten x, y und z mit den sogenannten Hauptrichtungen
zusammenfallen müssen. Dirichletsche Randbedingungen (1.7) behalten ihre
Form, während die Cauchyschen Randbedingungen die verallgemeinerte
Form
k dX n +k n + k3- n T
dU dU dU
1- x 2- + a(x, y, z)u = y(x, y, z) auf 2
ey ez y z
( 1.10)
erhalten, wobei nx , ny und n z die Richtungskosinus der äußeren Normalen von
T 2 darstellen.
Fig.1.3
Sickerproblem
u=L+h, ( 1.13)
gp
wo p den Wasserdruck, g die Erdbeschleunigung, p die Dichte und h die Höhe
des Wassers, gemessen von einem Bezugspunkt, bedeuten. ...
In einem gewissen Sinn eng verwandt mit den stationären Feldproblemen sind
die zeitabhängigen Aufgaben der Physik, bei denen in Verallgemeinerung der
Poissonschen oder der quasiharmonischen Gleichung noch zeitliche Ableitun-
gen der gesuchten Feldfunktion hinzutreten. Letztere ist jetzt nicht nur orts-
sondern auch zeitabhängig. Im zweidimensionalen Fall liegt solchen Aufga-
ben eine allgemeine partielle Differentialgleichung von folgender typischer Art
zugrunde.
- o ( k 1 - ou ) +-
0 (k
2-
a2u
ou ) =f(x,y,t)+x-+f1.-
cu (1.14)
ax cx ay \ oy at ot 2
Die neu auftretenden Koeffizienten x und f1. können grundsätzlich vom Ort
und der Zeit abhängige Funktionen sein, welche aus physikalischen Gegeben-
heiten nicht negativ sind. Zur Differentialgleichung (1.14) gehören einerseits
Randbedingungen wie im Fall von stationären Feldproblemen, die jetzt aber
16 I Mathematische Grundlagen
grundsätzlich noch von der Zeit t abhängig sein können, und anderseits
kommen noch sogenannte Anfangsbedingungen hinzu, welche den Zu-
stand des Feldes zu einem bestimmten Anfangszeitpunkt to festlegen. Dabei ist
zwischen drei Fällen zu unterscheiden.
a) Es sei,Li = O. Dann liegt eine sogenannte para bolische D ifferen tialglei-
chung vor, welche beispielsweise die instationäre Wärmeleitung beschreibt,
aber auch allgemeineren instationären Diffusionsprozessen zugrunde liegt.
Man bezeichnet sie deshalb auch gelegentlich als Diffusionsgleichung. Da
hier nur die erste zeitliche Ableitung auftritt, besteht die Anfangsbedingung
nur aus der Angabe des Zustandes des Feldes zum Zeitpunkt to:
angewandt, so daß nach Substitution in (1.14) und Kürzen mit eiwt die
Wellengleichung oder Helmholtzsche Gleichung resultiert
-3 (k1- 3U) +-
3 ( k 3U) +w 2,LiU=O.
2- (1.17)
3x 3x 3y 3y
Die Aufgabe besteht nun darin, die unbekannten Werte der Kreisfrequenz w
so zu bestimmen, daß die Wellengleichung (1.17) unter Berücksichtigung der
Randbedingungen nichttriviale Lösungen besitzt. Die resultierenden Kreisfre-
quenzen entsprechen den Eigenfrequenzen des schwingungsfähigen Sy-
stems und die Lösungen U(x,y) den zugehörigen Eigenschwingungsfor-
men. Da die zeitliche Abhängigkeit der Lösung vermöge des Separationsan-
satzes (1.16) in der Wellengleichung eliminiert worden ist, treten bei dieser
Problemstellung selbstverständlich keine Anfangsbedingungen mehr auf.
Diese AufgabensteIlung ist in den Ingenieuranwendungen von besonderer
praktischer Bedeutung, um die Eigenschwingungen und Eigenfrequenzen von
schwingungsfihigen Systemen und die damit zusammenhängenden Reso-
nanzerscheinungen abklären zu können. Zu dieser Klasse von anwendungs-
orientierten Problemen gehört im einfachsten eindimensionalen Fall beispiels-
weise die Berechnung der Eigenschwingungsformen und Eigenfrequenzen von
homogenen und inhomogenen Saiten, die Bestimmung von Eigenfrequenzen
und Eigenschwingungen von beliebig geformten Membranen, die Behandlung
von akustischen Schwingungsproblemen in geschlossenen Räumen wie bei-
spielsweise in einem Autoinnenraum, die Ausbreitung von elektromagneti-
1.1 Typische Problemstellungen 17
sehen Wellen in einem Dielektrikum und schließlich die Ermittlung von freien
Schwingungen der Wasseroberfläche in Seen und insbesondere in Häfen.
e) Im allgemeinen Fall mit x =1= 0 und !J. =1= 0 liegt eine gedämpfte Wellenglei-
chung vor, welche das dynamische Verhalten von elastischen Gebilden unter
Berücksichtigung linearer Dämpfung beschreibt. Da jetzt auch zweite Ablei-
tungen nach der Zeit auftreten, sind zwei Anfangsbedingungen notwendig,
welche sowohl den Anfangszustand und die zeitliche erste Ableitung des
Feldes zu einem bestimmten Zeitpunkt to festlegen:
u(x, y; to) = '11 (x, y) ( l.l8)
-
cu (x, y; to) = x(x, y) (l.l9)
ct
Darin sind 'II(x,y) und Xex,y) gegebene Funktionen des Ortes. Solche all-
gemeine Anfangs-Randwertaufgaben treten in der Strömungsmechanik auf.
Für die rechteckige Membran der Fig. 1.4 mit dem Seitenverhältnis 5: 4, mit
festgehaltenen Längsseiten, freiem linken Rand und elastisch gebettetem
rechten Rand lautet die Eigenwertaufgabe
t::.u + AU = 0 in G
u 0 auf AB und CD
2u (1.23)
0 auf DA
2n
2u
+ u=O auf BC
3n
0 c
A B
t::.u + Äu = 0 in G
o (hex, y) -Ou),
-~- T -
0 ( hex, y) -OU ) + AU(X, y) = 0, (1.24)
c!x ox oy 3y
worin u(x,y) die vertikale Verschiebung der Wasseroberfläche von ihrem
mittleren Stand und h(x,y) die Wassertiefe bedeuten. An den festen Rändern
des Gebietes, d. h. an den Hafenmauern, sind Neumannsche Randbedingun-
gen zuständig, während im Sinne einer Approximation angenommen wird,
daß am offenen Hafeneingang eine Knotenlinie vorhanden sei, so daß dort
eine Dirichletsche Randbedingung zu berücksichtigen ist. Aus den resultieren-
den Eigenwerten A ergibt sich die Periode T der Oberflächenwellen zu
T=~
yTg'
wo g die Erdbeschleunigung darstellt. Dieses Problem ist für den Bau von
neuen Hafenanlagen oder für die bauliche Änderung von bestehenden
Anlagen von Bedeutung, um unerwünschte Bewegungen von Schiffen zu
vermeiden, welche durch Schwingungen der Wasseroberfläche im Hafen
verursacht werden.
Im Vergleich zur Aufgabe der Berechnung von Membraneigenschwingungen
ist das Problem der Wasseroberflächenschwingungen insofern etwas allgemei-
ner, als hier die im allgemeinen variable Wassertiefe Anlaß gibt zu einer
allgemeinen HeImholtzgleichung (1.24). Bei konstanter Wassertiefe h (x, y) = h
reduziert sich das Problem offensichtlich auf das Membranproblem mit dem
einzigen Unterschied, daß beim Hafenproblem die Neumannsche Randbedin-
gung vorwiegend auftritt entsprechend einem freien Rand der Membran. A
Die Methode der finiten Elemente hat wohl ihre größte praktische Anwendung
auf dem Gebiet der Elastomechanik gefunden, da sie zur Lösung solcher
Aufgaben entwickelt worden ist. Auf diesem Gebiet existiert eine derart
immense Fülle von Aufgaben, welche nach diesem Verfahren behandelt
worden sind, daß nur eine mehr grundsätzliche Andeutung von möglichen
Problemkreisen möglich ist.
In einer ersten und wohl wichtigsten Klasse von statischen Aufgaben sind die
Deformationen und insbesondere die dadurch verursachten Spannungen in
Körpern oder Strukturen unter dem Einfluß von äußeren Belastungen
gesucht, um damit die Sicherheit der untersuchten Konstruktionen zu prüfen.
20 I Mathematische Grundlagen
oft darin, für die Struktur gefährliche oder zumindest störende Resonanzer-
scheinungen abzuklären und durch geeignete Maßnahmen zu eliminieren. In
diesem Sinn interessieren etwa die Eigenfrequenzen von Turbinenschaufeln,
die Schwingungsformen und Frequenzen von Erddämmen im Zusammenhang
mit möglichen Erdbeben oder die Eigenschwingungen von Eisenbahnwagen.
Wird beispielsweise die erste Transversalschwingung eines Eisenbahnwagens
durch Resonanz vermöge der stets vorhandenen kleinen Unwucht der Räder
bei bestimmten Fahrgeschwindigkeiten angeregt, ist diese Erscheinung für die
mitfahrenden Passagiere sehr lästig und muß vermieden werden.
Fig.1.6
Einfacher Kuppe1bau
Fig.1.7
Maschinentisch
Maschinengruppe interessieren hier für die Praxis die Eigenfrequenzen und
Schwingungsformen der ganzen Konfiguration, um Resonanzerscheinungen
im Betrieb vermeiden zu können [JäK76]. ~
Fig.I.8
Gabelschlüssel
Beispiel 1.9 Die Bestimmung der Spannungen in einem Gabelschlüssel (Fig.
1.8) beim Ansetzen an eine Schraube und entsprechender Kraftanwendung
liefert vermitteIs der auftretenden Spannungsmaxima die Information, ob der
Schlüssel bei einer bestimmten Kraftanwendung bricht oder nicht. Da hier (im
Idealfall!) nur Kräfte in der Ebene des Schlüssels auftreten, kann der Schlüssel
als belastete Scheibe behandelt werden. ~
1.2 Extremalprinzipien
Fig.1.I0
Gebiet für das Feldproblem
1= ff [~(kl(X,Y)U;
G 2
+ k 2(x,y)u;) - ~ ~(x, y)u 2 + f(X,y)U]dXdY
2
u = rp(s) auf Cl
kl
3u
- nx + k 2 -
cu ny + a(s)u = y(s) auf C2, (1.28)
3x 3y
worin n x und ny die Richtungskosinus der äußeren Normalen n auf dem Rand C
bedeuten und C 2 und Rest des Randes mit der Eigenschaft Cl U C2 = C,
Cl n C2 = 0 darstellt.
Beweis Damit der Integralausdruck I für eine Funktion u(x,y) mit den
genannten Eigenschaften einen stationären Wert annimmt, muß notwendiger-
weise die erste Variation verschwinden. Nach den Regeln der Variationsrech-
nung [CoH70, Fun70, Wei74] ergibt sich
U= If [k (x,y)uxJu x + k
l 2 (x,y)u y Ju y - p(x,y)uJu + f(x,y) Ju]dxdy
G
+ cP
C
[k l ~
ox
nx + k 2 :u ny
cy
+ a(s)u - Y(S)]JUdS = O. (1.30)
Die erste Variation muß für jede zulässige Variation der Funktion u
verschwinden. Nach der üblichen Technik der Konkurrenzeinschränkung mit
Ju = 0 auf C folgt als erste notwendige Bedingung die Eulersche Differen-
1.2 Extremalprinzipien 25
tialgleichung im Gebiet G, d. h.
-o ~u ) + -~-
( k l (x, y)..':....-. ~u ) + ~(x, y)u =
0 ( k 2(x, y) ~ f(x, y) in G.
OX OX oy oy
(1.31)
Die Funktion u(x,y), welche das Funktional I stationär werden läßt, erfüllt
somit in der Tat die allgemeine quasi-harmonische Differentialgleichung im
Gebiet G.
Auf dem Teil Cl des Randes C, erfüllt die Funktion u(x,y) entsprechend der
Nebenbedingung (1.26) selbstverständlich die Dirichletsche Randbedingung.
Auf diesem Teilstück des Randes muß tSu = 0 sein, und aus dem Randintegral
in (1.30) ergibt sich hier keine weitere Bedingung. Ist der Teil C2 des Randes
nicht leer, so muß dort notwendigerweise die sogenannte natürliche
Rand bedingung
kl -
ou nx + k2 -
ou ny + a(s)u = y(s) auf C2 (1.32)
OX oy
erfüllt sein. Damit ist die Aussage des Satzes gezeigt.
Der Integralausdruck I (1.25) ist für eine größere Klasse von Funktionen
u(x,y) als oben betrachtet definiert, für die man die Extremalaufgabe
betrachten kann. So brauchen die Funktionen u(x,y) nur stückweise differen-
zierbar zu sein mit quadratisch integrierbaren ersten partiellen Ableitungen.
Funktionen u(x,y) mit der Eigenschaft
bilden den Raum HI(G). Man kann leicht zeigen, daß die Variationsaufgabe
(1.25) unter der Randbedingung (1.26) für Funktionen u(x, y) EH I ( G) stets
eine Lösung besitzt. In der Methode der finiten Elemente berechnet man diese
verallgemeinerte Lösung im Sinne einer Approximation der gestellten Auf-
gabe.
Das Extremalprinzip, welches nach Satz 1 die Funktion u(x, y) als Lösung der
zugehörigen Randwertaufgabe liefert, zeigt eine für das folgende wesentliche
Unterscheidung der Randbedingungen auf, indem die natürliche Randbedin-
gung (1.32) in der Formulierung als Extremalaufgabe nicht auftritt. Diese
Randbedingung steckt implizit im Randintegral von I, und die Lösungsfunk-
tion der Extremalaufgabe erfüllt die allgemeine Cauchysche Randbedingung
automatisch. Diese Tatsache stellt in der Tat einen ersten wesentlichen Vorteil
der Formulierung der Aufgabe nach dem Extremalprinzip dar, da nur die
bedeutend einfacheren Dirichletschen Randbedingungen zu berücksichtigen
sind. Diese Dirichletschen Randbedingungen werden oft auch Zwangs-
26 I Mathematische Grundlagen
wobei das Randintegral nur über den Halbkreis K zu erstrecken ist. In diesem
Fall ist das Funktional zu minimieren unter der einzigen Nebenbedingung
u = 0 auf AB.
Für das Beispiel 1.4 der schwingenden Membran lautet der zuständige
Integralausdruck
I 1 c
1=- ff [Cu; + u;) - Au 2 ]dxdy +- f u 2 ds, (1.34)
2 G 2 B
u = 0 auf AB und CD
1.2 Extremalprinzipien 27
Fig.1.11
Belasteter Körper
28 I Mathematische Grundlagen
Il =
2 v
~ fJ I CT T G d V - I fJ pTf
v
dV -
S
q Tf d S - fJ
;=1
fi. (1.36)S F!
Darin bedeuten CT den Spannungsvektor, G den Verzerrungsvektor, V das
Volumen des Körpers, S seine Oberfläche, F; die angreifenden Einzelkräfte
und fi die diskreten Verschiebungsvektoren in den Angriffspunkten der
Einzelkräfte. Das erste Volumenintegral entspricht der Arbeit der inneren
Spannungen und die übrigen Terme dem Potential der angreifenden äußeren
Kräfte.
Das Prinzip der minimalen potentiellen Energie besagt nun, daß unter allen
möglichen Verschiebungszuständen, welche den kinematischen Randbe-
dingungen genügen, der tatsächliche Gleichgewichtszustand die potentielle
Energie Il minimiert.
Dieses Prinzip ist analog zur Aussage von Satz I und es erlaubt die Be-
stimmung des Verschiebungszustandes eines Körpers unter einem Belastungs-
zustand durch Minimierung der totalen potentiellen Energie. Um das Prinzip
anwenden zu können, sind der Verzerrungsvektor G und der Spannungsvektor
CT durch die Verschiebungen f darzustellen. Der Verschiebungsvektor f be-
steht aus den drei Komponenten u, v und w in X-, y- und z-Richtung:
f= (u, v, w)T, (1.37)
worin u, v und w je Funktionen der drei Ortsvariablen sind. Die Verzerrungen
eines Körpers sind ein Maß für seine Verformung und sind unter der Annahme
kleiner Verschiebungen im Sinn der linearen Elastizitätstheorie gegeben
durch [Hah75]
CU CU cw
G =- Gy = -::;--, Ez =-,,-, (1.38)
x cx' oy oz
_ cu + cv _ cu + cw
-c-' = ew +~
YXY --cY -c'
~x
Yyz - -,,-
oz y Yzx "
oX a·
z
(1.39)
I) Die Indizes bei e und y haben nicht die Bedeutung von partiellen Ableitungen, wie
etwa bei ux ,
Vx usw.
1.2 Extremalprinzipien 29
werden im Verzerrungsvektor
(1.40)
(1.41)
ex
I
-(ax - vay - vaz),
2(1 + v) T xy ,
= Yxy =
E E
I 2(1 + v)
ey == E (-vax + ay - vaz), Yyz = Tyz , ( 1.42)
E
1 2(1 + v)
ez = -(-va
E .r - val'. + a.),
. Yox =
E
fox·
(T =De ( 1.43)
30 1 Mathematische Grundlagen
1- v v v I o o o
v 1- v v I o o o
v v 1- v I o o o
E I
D=----- ----------------------
(1 + v)(1 - 2v) I
o o o I ~(l-2v) o o
I 2
o o I 1
o I 0 2(1-2v) 0
o o I 1
o I 0 0 2(1-2v)
(1.44)
Auf Grund der Relationen (1.38) und (1.39) zwischen den Verschiebungen und
Verzerrungen einerseits und der Beziehung (1.43) zwischen den Verzerrungen
und Spannungen anderseits kann das erste Integral der gesamten potentiellen
Energie in (1.36) ebenfalls durch den Verschiebungsvektor f dargestellt
werden. Formal kann der Zusammenhang durch die Einführung einer
rechteckigen (6 X 3)-Differentiationsoperatormatrix B geschehen, mit welcher
die Relationen (1.38) und (1.39) als c=Bf darstellbar sind. Von dieser
formalen Schreibweise soll jedoch im folgenden kein Gebrauch gemacht
werden.
1. Spezialfall Zugs tab Ein Stab von konstantem Querschnitt A und Länge I
werde nur Kräften in seiner Längsrichtung unterworfen (Fig. 1.12). Dabei
wird angenommen, daß bei Deformation des Stabes jeder Querschnitt eben
bleibt und sich nur als Ganzes in x-Richtung verschiebt. Es sollen keine
Verschiebungen iny- und z-Richtung erfolgen. Im Verschiebungsvektorfsind
die zweite und dritte Komponente gleich Null, so daß nur die Verschiebungs-
funktion u(x) übrig bleibt, die nur eine Funktion von x allein ist. Unter den
Verzerrungskomponenten ist nur
Cx ou
=-=u x '( )
ox
von Null verschieden. Um das Produkt (J"T c zu bilden, benötigen wir deshalb
nur die erste Komponente O"x des Spannungsvektors (J". Unter den getroffenen
Annahmen treten im Zugstab nur Normalspannungen in x-Richtung auf, so
daß O"y = O"z = 0 sind. Aus dem verallgemeinerten Hookeschen Gesetz (1.42)
1.2 Extremalprinzipien 31
( ~ () x I,,--~/_Y-----,,0
I l----j r-----.t ----I
Cl x =Eex = Eu'(x)
und es wird
1 /
IlsTAB ="2 EA J u'(x)2dx - uoFo - u/F/ ( 1.45)
o
ex = - z w"(x), (1.47)
321Mathematische Grundlagen
· b ung Yzx
da die Sch le vW
= - -
.::'
+ -~-
~
dU
= w, - w ' =0 ist. Bei der Balkenbie-
2x oZ
gung sind weiter die Normalspannungen ay = a z = 0, so daß nach (1.42) die
Spannungskomponente ax = E Gx wird.
Für die Spannungsenergie erhalten wir nach Substitution von Gx und ax das
Volumenintegral
J.. Hf Ez1w"(xidxdydz.
2 v
Für festes x kann die Integration für den Querschnitt der Fig. 1.13 ausgeführt
werden und liefert
h/2 b/2
-h/2
f -b/2
f
das axiale Flächenträgheitsmoment des Querschnittes bezüglich der y-
Achse. Für konstanten Balkenquerschnitt erhalten wir den Anteil der
Spannungsenergie zu
I
J.. EI f w"(x)l dx.
2 0
1 I I m m'
IIBsTAB = -EI f w"(x)2dx - f q(x)w(x)dx - I F;w; - I M;w[
2 0 0 ;= 1 ;= 1
( 1.48)
-
1
G Hf (y 2 + z2)B'(x)2 dx dydz.
2 v
Für festes x liefert die Integration über den Querschnitt A
H(y2+ z 2)dydz=I p
A
I
f B'(xi dx -
I
llTorsion = - G Ir MoBo - MIB I (1.51)
2 0
daß dementsprechend nach (1.38) und (1.39) nur zwei Dehnungen und eine
Schiebung auftreten, nämlich
OU OV OU OV
ex =-
~'
ox
ey =-
,,'
"y
Yxy = ay + OX· (1.52)
( 1.55)
Aus (1.54) ergeben sich durch Auflösen nach {Jx, {Jy und !xy die für die
Anwendung benötigten Relationen
E E E
{Jx = ~ (ex + Vey), {Jy = ~ (Vex + ey),!xy = 2(1 + v) Yxy' (1.56)
in Matrizenschreibweise als
(1.58)
(1.59)
-v
ez = - - (ex + Cy),
1- v
doch wird diese Dehnung im folgenden außer Betracht fallen.
Der beschriebene ebene Spannungszustand trifft zumindest in guter Näherung
zu im Innern einer dünnen Scheibe, die nur durch Kräfte in ihrer Ebene
belastet ist (Fig. 1.14).
Fig. 1.14
Belastete Scheibe
Von den parallel zur (x,y)-Ebene wirkenden räumlichen Kräftenp und q wird
angenommen, daß sie gleichmäßig über die konstante Dicke h der Scheibe
wirksam sind. So kann in den Volumen- und im Oberflächenintegral in (1.36)
die Integration in z-Richtung ausgeführt werden, so daß nur noch Gebiets-
und Randintegrale verbleiben. Für die gesamte potentielle Energie erhalten
wir damit die Darstellung
( 1.60)
Die Kräfte- und Verschiebungsvektoren p, q und! sind jetzt selbstverständ-
lich zweidimensional.
Daraus folgen nach Substitution in die beiden ersten Gleichungen von (1.42)
die Beziehungen
I 2 I 2
GX=E[(I-v)O"x-v(l+v)O"y], GY=E[-v(l+v)O"x+(l-v)O"y], (1.61)
während die Gleichung zwischen Yxy und Txy unverändert bleibt. Auflösen von
(1.61) nach O"x und O"y ergibt in Matrixform die Beziehung
(j = DEVZ G ( 1.62)
mit der für den ebenen Verzerrungszustand maßgebenden Matrix
ll-:V
v
D EVZ = - - -E- - - I - v (1.63)
(I + v)(1 - 2v)
o
Die gesamte potentielle Energie für einen Schnitt stellt sich dar als
(1.64)
Das zu minimierende Funktional stimmt im wesentlichen mit demjenigen für
eine Scheibe überein. Es ist einzig zu beachten, daß sich der Spannungsvektor
(j vermöge der Matrix D EVZ (1.63) aus dem Verzerrungsvektor ergibt.
u(x, y, z) =
ow
-Z-, v(x, y, z) =
ow
-z-. ( 1.65)
ox ay
1.2 Extremalprinzipien 37
Fig. 1.15
Belastete Platte
Cx =
2wa
-z--2' cy =
2w
-z--2'
a Cz = 0, ( 1.66)
ax ay
a2 w
Yxy = -2z - - , Yyz = 0, Yzx = 0.
axay
Als weitere Kirchhoffsche Hypothese werden Spannungen normal zur Mittel-
ebene vernachlässigt (O"z = !xz = !yz = 0), so daß die Beziehungen (1.59) für den
ebenen Spannungszustand anwendbar werden. Für die drei Komponenten des
Spannungsvektors, die zur Bildung von (JT G benötigt werden, ergeben sich so
nach Substitution von (1.66) die Ausdrücke
O"x = ----2
Ez ( -a-2 w a2 2
2 + v--
w) ' O"y = - - -Ez
-2
(a w + --,
2
V --2
aw ) , 2
I - v ox ay 1- v 2x 2y-
Ez a2 w
! =----- (1.67)
xy 1 + v axay·
Die Deformationsenergie wird damit gegeben durch
~
2
fIvJ (JT Gdx dy dz = ~ -4 fI J
2 I-v v
z2[w xx (w xx + VWyy) + Wyy(vw xx + Wyy)
+ 2( 1 - v)w';y] dx dy dz
Die Integration in z-Richtung über die Plattendicke kann ausgeführt werden,
so daß sich unter Einbezug des Potentials der äußeren Kräfte die gesamte
potentielle Energie bei Plattenbiegung wie folgt darstellt
lIPlatte ="2
1 Eh 3
12(1 _ v2) ij [w';x + 2vwxx wyy + W;y + 2(1 - v)w~y] dxdy
m
fJ pwdxdy - L FiWi
C i=l
(1.68)
38 I Mathematische Grundlagen
Fig.1.16
Einfacher Durchlaufträger
Volumenintegral
T=~
2
Hfv {JPjdV. (1.72)
Dabei stellt j als Ableitung des Verschiebungsvektors I nach der Zeit t den
ortsabhängigen Geschwindigkeitsvektor dar. U ist die Deformationsenergie
und W das Potential der äußeren Kräfte. Nach (1.36) ist die Lagrange-
Funktion für einen elastischen Körper gegeben durch
1= f L dt (1.74)
/0
nach dem Hamiltonschen Prinzip für den tatsächlichen Ablauf einen stationä-
ren Wert an. Wesentlich ist dabei, daß die Variation des Wirkungs integrals nur
bezüglich der Zeit erfolgt.
Sollen im speziellen die freien Schwingungen eines Systems ohne äußere
Kräfte untersucht werden, so fallen in der Lagrange-Funktion L (1.73) die drei
letzten Summanden weg. Um das Wirkungsintegral in unmittelbarer Abhän-
gigkeit des Verschiebungsvektors I darzustellen, soll an dieser Stelle vom
formalen Zusammenhang zwischen I und dem Verzerrungsvektor c = BI
vermittels der rechteckigen (6 X 3) Differentiationsoperatormatrix B vorüber-
gehend Gebrauch gemacht werden, um die Relationen (1.38) und (1.39)
zusammenzufassen. Mit der weiteren Beziehung (1.43) erhält das Wirkungs-
integral (1.74) die Form
Für die Variation bezüglich der Zeit erhält man nach Vertauschung der
Integrationen
M= Hf
v
{J [{JP(oh-/TBTDB(Of)]dt}dV.
/0
40 1 Mathematische Grundlagen
Da (J!) = ~ (J!) gilt, liefert partielle Integration des ersten Integrals be-
d!
züglich der Zeit
0/= Hf
{oPJfl'l - J
[OP+fTBTDBJJfdt}dV. (1.75)
v '0 '0
Die Variationen Jf müssen aber auf Grund der oben erwähnten Einschrän-
kungen des Hamiltonschen Prinzips für die beiden Zeitpunkte to und t)
verschwinden, so daß der bezüglich der Zeit ausintegrierte erste Term
verschwindet. Die Variation des Wirkungsintegrals muß für jede zeitliche
Variation Jfverschwinden, so daß notwendigerweise die hier gültige Euler-
sche Differentialgleichung
oj+ BTDBf= 0 in V (1.76)
erfüllt sein muß, welche sich durch Transponierung des Integranden von (1.75)
ergibt.
Für die gesuchten freien Schwingungen erfolgt für den vom Ort und der Zeit
abhängigen Verschiebungsvektor f der Separationsansatz für harmonische
Schwingungen
fex, y, z; t) = lex, y, z) cos (wt). (I. 77)
Darin bedeuten w die Kreisfrequenz der gesuchten freien Schwingung und
](x,y, z) den nur noch ortsabhängigen Verschiebungsvektor, welcher die
zugehörige Amplitudenverteilung der Schwingung darstellt. Nach Substitu-
tion von (1.77) in (1.76) und anschließender Division durch cos(wt) folgt die
von der Zeit unabhängige Differentialgleichung
BTDB]- W20] = 0, (1.78)
worin das Quadrat der Kreisfrequenz als Parameter auftritt. Die Gleichung
(1.78) kann umgekehrt als Eulersche Differentialgleichung zum zeitunabhän-
gigen Variationsintegral
-
[=-
1
Hf 1
o-T;:dV--w 2 fJJ - -
ofTfdV (1.79)
2 v 2 v
interpretiert werden, welches unter Beachtung der geometrischen Randbedin-
gungen durch eine nur vom Ort abhängige Verschiebungsfunktion](x,y,z)
stationär zu machen ist. Das Funktional (I. 79) ist bei anderer Bedeutung der
auftretenden physikalischen Größen analog zu demjenigen zugehörig zur
Helmholtz-Gleichung.
1.3 Der klassische Ritz-Ansatz 41
fPo(X, y); fPl(X, y), fP2(X, y), ... , fPm(x, y). (1.80)
Die Funktion fPo(x,y) spielt darin eine besondere Rolle, denn sie muß die
inhomogenen Randbedingungen erfüllen. Sie entfällt, wenn keine inhomoge-
nen Bedingungen vorgegeben sind. Unter einer inhomogenen Randbedingung
versteht man beispielsweise eine Dirichletsche Randbedingung u = fP(s) auf
einem Randteilstück Cl mit nicht identisch verschwindender Funktion fP(s),
oder eine allgemeine Cauchysche Randbedingung (1.28) mit y(s):;E 0 auf C2.
Die anderen Funktionen fPl (x,y), ... , fPm(x,y) sollen alle gegebenen homo-
genen Randbedingungen erfüllen, aber auf Randstücken mit inhomogener
Dirichletscher Randbedingung gleich Null sein und auf Randstücken mit einer
allgemeinen Cauchyschen Randbedingung (1.28) die daraus resultierende
Bedingung mit y(s) = 0 erfüllen. Mit den so gewählten Funktionen (1.80) wird
die gesuchte Funktion u(x,y) als Linearkombination in der Form
m
-i-I (36x 2 -
1 1
EI J fPi'(x)2 dx = EI J 30lx + 4P)2dx = 11.2 E{.
o 0 I
Man erhält das System
w (~ t) = -0.000217 cm.
Beispiel1.13 Für die schwingende Membran von Beispiel l.4 lautet das
Funktional
1 1 c
II=- II [(u;+u;)-Au 2 ]dxdy+- f u 2 ds,
2 G 2 B
U = 0 auf AB und CD
Gestalt
n = -
1
If [(2C2X)2(4y - y2)2 + (c] + C2 x2 )2(4 - 2y)2
2 G
4
-A(C] + C2X2)2(4y - y2)2] dxdy + ~ f (C] + 25c2i(4y - y2)2 dy.
2 0
Nach einer elementaren Rechnung ergibt sich nach Auswertung der Integrale
und nach Zusammenfassung die quadratische Form in den Koeffizienten c]
und C2
1 64
n = - - [(99 - 120A)cf + (2450 - 2000A)c] C2 + (28375 - 15000A)cÜ
2 45
Die notwendige Bedingung dafür, daß n stationär ist, besteht in den beiden
linearen und homogenen Gleichungen
(99 - 120A)cl + (1225 - 1000A)c2 = 0
(1.82)
(1225 - 1000A)cl + (28375 - 15000A)c2 = 0
Gesucht sind nur nichttriviale Lösungen für Cl und C2. Die Gleichungen (1.82)
stellen ein allgemeines Eigenwertproblem Ac = ABc dar mit den symmetri-
schen Matrizen
Eine solche Abweichung ist aber beim verwendeten groben Ansatz durchaus
zu erwarten. A
Jetzt wenden wir uns derjenigen Klasse von Problemen zu, für welche keine
echten Extremalprinzipien existieren. In diesen Fällen ist von den das Problem
bestimmenden Differentialgleichungen und den zugehörigen Rand- und
eventuell Anfangsbedingungen auszugehen. Das im folgenden beschriebene
Verfahren kann deshalb auf einen bedeutend größeren Problemkreis angewen-
det werden. Es wird so zu einem recht universellen Werkzeug. Das Vorgehen
wird sehr häufig auch dann angewendet, wenn für das betreffende Problem an
sich ein Extremalprinzip zur Verfügung steht. Dies liegt daran, daß die
klassische Idee der Methode von Galerkin recht einfach zu verstehen ist, und
zudem führt sie in diesen Fällen zu denselben Bestimmungsgleichungen.
Die Methode von Galerkin oder allgemeiner die Methode der gewich-
teten Residuen läßt sich ganz generell wie folgt beschreiben: Die gesuchte
Funktion u des Problems soll mit Hilfe von geeignet gewählten Funktionen «Jo,
«J), ... , «Jm in Analogie zum Ritzschen Ansatz angenähert werden in der Form
m
U = «Jo + 2: Ck«Jk, ( 1.83)
k=)
wobei «Jo wiederum eventuelle inhomogene Randbedingungen erfülle und die
übrigen Funktionen «Jk die entsprechenden homogenen Randbedingungen.
Damit erfüllt u für beliebige Ck die Randbedingungen. Wird nun dieser Ansatz
in die Differentialgleichung eingesetzt, so wird sie in den wenigsten Fällen
erfüllt sein, vielmehr resultiert ein sogenanntes Residuum. Dieses Residuum
soll nun im Innern des Gebietes möglichst klein werden. Dazu verlangt man,
daß das Integral des Residuums, gewichtet mit gewissen Gewichtsfunktionen
W;, über das Grundgebiet verschwindet. Dies heißt mit andern Worten, daß
das Residuum im Mittel bezüglich der Gewichtsfunktionen im Gebiet
46 I Mathematische Grundlagen
verschwindet. Da der Ansatz (1.83) für die gesuchte Funktion m Parameter CI,
C2, ••• , Cm enthält, kann die Bedingung für m voneinander linear unabhängige
Gewichtsfunktionen formuliert werden, so daß m Gleichungen resultieren, aus
denen die Parameter zu bestimmen sind. In dieser allgemeinen Formulierung
entspricht dies dem Verfahren der gewichteten Residuen.
In der Methode von Galerkin werden die m Gewichtsfunktionen der Reihe
nach gleich den gewählten Funktionen rp], rp2, ... , rpm gewählt, welche ja die
Bedingung der linearen Unabhängigkeit erfüllen. Mit dieser Wahl der
Gewichtsfunktionen erreicht man, daß die Residuenfunktion orthogonal zum
Funktionsunterraum ist, der durch rpl, rp2, ... , rpm aufgespannt ist. Diese
Tatsache rechtfertigt das Vorgehen, indem die resultierende Näherungslösung
in diesem Sinn die bestmögliche im Raum der Ansatzfunktionen darstellt.
Führt man die Idee von Galerkin in der eben geschilderten Art durch, so
enthalten die Integranden ebenso hohe Ableitungen der gesuchten Funktion
wie die Differentialgleichung. In der klassischen Ausführung der Methode
stellt dies kaum ein Problem dar. Im Hinblick auf ihre Anwendung in der
Methode der finiten Elemente ergeben sich jedoch gewisse Schwierigkeiten, da
schärfere Anforderungen an die Stetigkeit von höheren Ableitungen der
verwendeten Funktionen zu erfüllen sind. Die Variationsintegrale enthalten
aber stets nur Ableitungen niedrigerer Ordnung als die zugehörigen Euler-
schen Differentialgleichungen. Die höheren Ableitungen lassen sich in der
Regel vermittels partieller Integration, bzw. durch die Anwendung von
Gausschen und Greenschen Integralsätzen eliminieren, so daß die erwähnte
Schwierigkeit behoben werden kann.
Die allgemein gehaltenen Ausführungen werden im folgenden anhand von
konkreten Beispielen illustriert.
1. Anwendung In einem Gebiet G der (x, y)-Ebene sei die Poissonsche Diffe-
rentialgleichung
U = rp(s) auf CI
a<po
<Po = <pes) auf Cl und - - + a(s)<po(s) = y(s) auf C2 ( 1.84)
an
erfülle, und <PI (x,y), ... , <Pm(x,y) seien Funktionen, die den homogenen
Randbedingungen
a<Pk
<Pk = 0 auf Cl und - -+ a(s)<pk(S) = 0 auf C2 ( 1.85)
an
genügen. Der Ansatz
m
D.<po + L CkD.<Pk - fex, y) = R(x, y). (1.87)
k=l
Nach der Idee von Galerkin wird das Verschwinden der Integrale
I
k=l
Ck {IJ
C
D.<Pk· <Pj dXdY } + Jf
C
D.<po· <Pj dxdy
Hier zeigt sich die Tatsache, daß die Integranden der ersten beiden Integrale
zweite partielle Ableitungen enthalten. Diese Integrale lassen sich aber mit
Hilfe der Greenschen Formel
3f/Jo
-JJ grad f/Jo • grad f/Jj dxdy + cf> -::)- f/Jj ds
c vn
C
welches durch eine Funktion u(x,y) stationär zu machen ist unter der
Nebenbedingung
u = f/J(s) auf Cl.
In diesem Fall sei f/Jo(x,y) derart, daß sie nur die inhomogene Dirichletsche
Randbedingung auf Cl erfüllt
f/Jo(s) = f/J(s) auf Cl,
während die weiteren Funktionen f/JI (x,y), ... , f/Jm(x,y) nur der homogenen
Dirichletschen Randbedingung auf Cl genügen
f/Jk(S) = 0 auf Cl, (k = 1,2, ... , m).
1.4 Die Methode von Ga1erkin 49
1= Jf
G
r~ ({rpo + i
k~1
Ckrpk}2
x
+ {rpo + i
k~1
Ckrpk}2)
y
Das Randintegral für das Teilstück CI liefert hierbei nur eine Konstante, da
dort rpk = 0 für k = 1,2, ... , m vorausgesetzt ist und rpo(s) = rp(s) eine bekannte
vorgegebene Funktion darstellt. Das Funktional (1.92) ist bezüglich der
Parameter CI, ..• , Cm stationär zu machen. Es müssen somit notwendigerweise
seine partiellen Ableitungen nach den Cj (j= 1,2, ... , m) verschwinden:
t
v C) G k~I x k~ I Y
+ f
ra(S){rpo + Ckrpk} rpj - y(S)rpj] ds = 0, (j = 1,2, ... , m)
c2 k-I
i
k~ I
Ck {ff grad rpk' grad rpjdxdy+ cf a(S)rpkrpjdS}
G 2
Die bisher konstanten Koeffizienten Ck werden jetzt als Funktionen der Zeit
angesetzt. Im Ansatz (1.97) soll die Funktion qJo(x,y, t) die inhomogenen
Randbedingungen auf Cl und C2 erfüllen, während die Funktionen qJk(X,y)
den zeitunabhängigen homogenen Randbedingungen genügen sollen. Damit
erfüllt der Ansatz (1.97) für beliebige Funktionen Ck(t) die inhomogenen
Randbedingungen.
Wird der Ansatz der Funktion u(x,y, t) in die Differentialgleichung (1.93)
eingesetzt, wird die Residuenfunktion sowohl eine Funktion des Ortes und der
Zeit. Die Galerkinschen Bedingungsgleichungen werden in diesem Fall nur für
einen festen Zeitpunkt t bezüglich des Grundgebietes G formuliert. Es wird
also verlangt, daß das Gebietsintegral über die Residuenfunktion, gewichtet
1.4 Die Methode von Galerkin 51
mit den nur ortsabhängigen Funktionen 'Pj(x,y), (j= 1,2, ... , m) verschwinde.
Die so modifizierte Forderung liefert die Galerkinschen Bedingungsgleichun-
gen
_x{3'PO
3t
+ i
k=!
aCk 'Pk}l'PjdxdY=O,
at J
(j=1,2, ... ,m).
ik=!
Ck(t) {- Hgrad 'Pk' grad 'Pj dxdy + cP
G C
a'Pk 'PjdS }
an
-i k=!
dCk
dt
HX'Pk'Pj dxdy - Hgrad 'Po . grad 'Pj dxdy
G G
+ a'Po 'Pj ds -
rf, -",-
'f JJ fex, y, t)'Pj dxdy - JJ a'Po 'Pj dxdy = 0,
x -;-
c on G G ut
(j=1,2, ... ,m).
An dieser Stelle können wie in der ersten Anwendung die Randbedingungen
der gewählten Ansatzfunktionen berücksichtigt werden, so daß in Analogie
und gleichzeitiger Verallgemeinerung zu (1.90) die Galerkinschen Gleichun-
gen resultieren:
~ ~JJ
L X'Pk'Pj dxdy
k =! dt G
+ i
k=!
Ck(t) {H grad 'Pk' grad 'Pjdxdy + cJ a(S)'Pk(S)'Pj(S)dS}
G 2
Da diese Bedingung in der Regel nicht identisch für alle Punkte in G zu erfüllen
ist, besteht die Möglichkeit, die Werte Ck(O) nach dem Galerkinschen Prinzip
zu bestimmen. Danach ergeben sich folgende Gleichungen
m
I Ck(O) JJ ({Jk({Jjdxdy+ JJ [({Jo(X,y,O)-uo(x,y)]({Jjdxdy=O,
k=j G G (j=1,2,,,.,m).
Als Koeffizientenmatrix ergibt sich im wesentlichen die Matrix B, falls x
konstant ist.
Da das Differentialgleichungssystem (1.102) linear ist, bietet sich als zweck-
mäßiges numerisches Integrationsverfahren die Trapezmethode an [Sti76,
Scw88]. Zur Herleitung der Formeln kann (1.102) zunächst in expliziter Form
1.4 Die Methode von Galerkin 53
geschrieben werden.
c= -B-1Ac - B-1d (1.104)
Ein allgemeiner Integrationsschritt mit der Schrittweite b.t lautet mit dem
Vektor Cn zur Zeit t = n . b.t demnach
3. Anwendung Das Verfahren von Galerkin ist nicht auf Probleme beschränkt,
bei denen eine einzige Differentialgleichung für eine gesuchte Funktion zu
lösen ist. Vielmehr läßt sich die prinzipielle Vorgehensweise übertragen auf
Aufgaben, bei denen verschiedene Funktionen als Lösungen eines Differen-
tialgleichungssystems zu bestimmen sind.
Als repräsentatives Beispiel betrachten wir die Aufgabe, den stationären
ebenen Strömungszustand einer viskosen und inkompressiblen Flüssigkeit zu
bestimmen unter der vereinfachenden Annahme, daß die Reynoldsche Zahl
klein sei, so daß die Trägheitskräfte gegenüber den inneren Reibungskräften
vernachlässigbar sind. Sind zudem keine äußeren Kräfte vorhanden, so lautet
das Differentialgleichungssystem für den Druck p und die Geschwindigkeits-
komponenten u und v in x- und y-Richtung [Kne75]
(1.106)
~
cp
-,,--f-l ~+--1
( ~2 v "2)
Ci v
=0
Ci
(Momentengleichungen)
( 1.107)
Ciy ,cx ey-
54 I Mathematische Grundlagen
~+ 3v =0 (Kontinuitätsgleichung) (1.108)
dX 3y
m
v(x, y) = lfIo(x, y) + L
k=l
Vk IfIk(X, y) (1.110)
q
p(x, y) = Xo(x, y) + L PkXk(X, y) (1.111)
k=l
Dabei sollen für U und v gleich viele Grundfunktionen verwendet werden,
während für P eine im allgemeinen verschiedene Anzahl gewählt wird. Nach
Substitution der Ansätze (1.109) bis (1.111) in die drei Differentialgleichungen
(1.106) bis (1.108) ergibt sich in jeder Gleichung ein Residuum. Es gilt nun,
nach dem Galerkinschen Prinzip insgesamt 2m + q Bedingungen für die
2m + q Unbekannten U1, ... , Um, V1, ... , Vm, P1," .,Pq aufzustellen. Es ist jetzt
nicht möglich zu verlangen, daß die drei Residuenfunktionen bezüglich aller
Funktionen lPb IfIk und Xk im Mittel verschwinden, da diese Forderung zu
3(2m + q) Gleichungen führen würde. Demzufolge ist eine bestimmte Aus-
wahl zu treffen. Es ist sinnvoll und problemgerecht, für das Residuum der
ersten Differentialgleichung (1.106) die Gewichtsfunktionen lP/x,y), für
(1.107) die IfIj(X, y) und für die dritte Gleichung die X/x, y) zu verwenden. Diese
Auswahl liefert in der Tat die gewünschte Anzahl von (2m + q) Bedingungs-
gleichungen. Wir erhalten so
(j = 1,2, ... , m)
Jf [ -3Xo+ Lq 3Xk
Pk--j1
{
6.lfIo+ L
m
J
Vk6. lfIk } IfIj dxdy = 0
G 3y k=l 3y k=l
(j=1,2, ... ,m)
1.4 Die Methode von Galerkin 55
2)(lh
Uk -~-
e!f/o
+- ~
- + L, 0!f/k 1
Vk - - Xj dx dy =0
~x ey k=1 3y
(j = 1,2, ... , q)
Die auftretenden zweiten partiellen Ableitungen lassen sich durch die
Greensche Formel eliminieren. Für konstante Zähigkeit /l erhalten wir
folgenden Satz von Bedingungsgleichungen
3
L
m
fJ /l grad qJk' grad qJj dxdy + L
q
Uk Pk ff ~Xk qJj dxdy + RJ = 0
k=1 G k=1 G 3x
ex
Lm
Vk fJ /lgrad!f/k'grad!f/jdxdy+ L
q
Pk ff ;:. k !f/jdxdy+Sj=O
k=1 G k=1 G "y
dqJ
Lm
k=1
Uk fJ
G
~Xjdxdy+
ox
L Vk fJ -,"\-Xjdxdy+T;=O
m
k=1 oy
G
(Hp;!
o
A!3]
A 23
o
Darin bedeuten All und A22 je quadratische und symmetrische Matrizen der
Ordnung m, während A l3 und A 23 je rechteckige (m X q), A 31 und A32je (q X m)
Matrizen darstellen. Der Rest der Matrix A besteht aus Nulluntermatrizen
entsprechender Ordnung. Ein Blick auf die Integrale, welche die Elemente der
Matrizen A!3 und A 31 definieren, offenbart, daß diese beiden Untermatrizen in
der Regel nicht zueinander transponiert sind. Folglich ist die Matrix A im
allgemeinen unsymmetrisch. Bei Anwendung des Galerkinschen Verfahrens
auf beliebige lineare Differentialgleichungssysteme sind die resultierenden
Gleichungssysteme in der Regel nicht symmetrisch. Dies ist teilweise Aus-
druck der Tatsache, daß für das betreffende Problem kein echtes Extremal-
prinzip existiert. Dennoch gelingt es gelegentlich, durch besonders geschickte
Wahl der Ansatzfunktionen die Symmetrie der Gleichungssysteme wiederher-
56 I Mathematische Grundlagen
zustellen. In unserem Fall wäre dies etwa mit der Wahl von identischen
Ansatzfunktionen qh(X, y) = IfIk(X,y) = Xk(X, y) für k = 1,2, ... , m möglich,
falls dies auf Grund der Randbedingungen überhaupt zulässig ist.
In diesem Abschnitt soll die wesentliche zugrundeliegende Idee und das sich
daraus ergebende prinzipielle Vorgehen der Methode der finiten Elemente zur
Lösung von Aufgaben, wie sie oben skizziert worden sind, generell beschrie-
ben werden. Dies wird die auszuführenden Teilschritte bereits vorzeichnen, die
in den folgenden Kapiteln im Detail behandelt werden.
1. Schritt Die gegebene Aufgabe wird diskretisiert, indem ganz allgemein das
Grundgebiet in einfache Teilgebiete, den sogenannten Elementen, zerlegt
wird. Bei gewissen Aufgabenstellungen ist die Aufteilung in Elemente durch
das Problem bereits weitgehend vorgegeben. Man denke dabei beispielsweise
an ein räumliches Fachwerk (Beispiell. 7), bei welchem die einzelnen Stäbe die
Elemente der Konstruktion bilden. Dasselbe gilt etwa auch bei Rahmenkon-
struktionen, wo die einzelnen Balken oder sogar unterteilte Balkenstücke die
Elemente der Aufgabe darstellen.
Fig. 1.17
Diskretisierung des Grundgebietes
2. Schritt In jedem der Elemente wird für die gesuchte Funktion, bzw.
allgemeiner für die das Problem beschreibenden Funktionen, ein problem-
gerechter Ansatz gewählt. Im besonderen eignen sich dazu ganz rationale
Funktionen in den unabhängigen Raumkoordinaten. Für eindimensionale
Elemente (Stäbe, Balken) kommen Polynome ersten, zweiten, dritten und
gelegentlich sogar höheren Grades in Frage. Bei zweidimensionalen Proble-
men finden lineare, quadratische und höhergradige Polynome der Form
u(x, Y) = CI + C2 X + C3Y, (l.! 12)
u(x, Y) = CI + C2X + C3Y + C4X 2 + C5XY + c6y 2, (1.113)
oder etwa bilineare Ansätze
(1.114)
Verwendung. Die Art des Ansatzes hängt dabei einerseits von der Form des
Elementes ab und anderseits kann auch das zu behandelnde Problem den zu
wählenden Ansatz beeinflussen. Denn die Ansatzfunktionen müssen beim
Übergang von einem Element ins benachbarte ganz bestimmte problemabhän-
gige Stetigkeitsbedingungen erfüllen. Die Stetigkeitsanforderungen sind häu-
fig aus physikalischen Gründen offensichtlich. Sie sind aus mathematischen
Gründen auch erforderlich, damit die Menge der Ansatzfunktionen eine für
das Extremalprinzip oder die Galerkinsche Methode zulässige Funktionsklas-
se bilden. Hat etwa u(x, y) die Bedeutung der Verschiebung eines kontinuierli-
chen Mediums in z-Richtung, so muß diese Funktion offenbar beim Übergang
von einem Element zum andern stetig sein, um die Kontinuität des Materials
zu gewährleisten. Im Fall der Balken- oder Plattenbiegung sind die Stetigkeits-
anforderungen höher, indem dort aus analogen physikalischen Gründen sogar
die Stetigkeit der ersten Ableitung, bzw. der beiden ersten partiellen Ableitun-
gen gefordert werden muß. Elemente mit Ansatzfunktionen, welche den
Stetigkeitsbedingungen genügen, heißen konform.
Eigentlich sind vom mathematischen Standpunkt aus nur konforme Elemente
zulässig. Insbesondere im Fall der Plattenbiegung sind die Stetigkeitsanforde-
rungen aber nur mit recht großem Aufwand zu erfüllen, weshalb man hier die
Bedingungen etwas lockert und meistens mit nichtkonformen Elementen
arbeitet. Obwohl das Vorgehen mathematisch unhaltbar erscheint, rechtferti-
gen die erzielten Ergebnisse das Vorgehen. Aber auch in anderen Gebieten
werden nichtkonforme Elemente sehr erfolgreich angewandt. Für elasto-
58 I Mathematische Grundlagen
mechanische Probleme wurde für die Elemente der sogenannte Patch- Test
[IrR72, MiWn, StF73] entwickelt, dem die Ansätze zu genügen haben, damit
bei Verfeinerung der Diskretisation die Konvergenz der Näherungslösung
gegen die exakte Lösung des Problems garantiert ist. Auf Grund von neuesten
theoretischen Untersuchungen und Ergebnissen ist der Patch-Test allerdings
in einigen Fällen in Frage gestellt worden [Stu80].
Abgesehen von den Stetigkeitsanforderungen an die Ansätze sollten die
verwendeten Polynomfunktionen bei linearen Transformationen von einem
kartesischen Koordinatensystem in ein anderes ihre Form unverändert
beibehalten. Nach einer solchen Drehung des Koordinatensystems soll die
approximierende Funktion auch noch dem Problem angepaßt sein. Diese
plausible Forderung an den Ansatz wird dadurch erreicht, daß er entweder
vollständig ist, d. h. sämtliche Potenzen bis zu einem bestimmten Grad
enthält wie (1.112) und (1.113), oder wenigstens die zueinander symmetri-
schen Terme enthält wie (1.114) oder beispielsweise das unvollständige
Polynom dritten Grades
(1.115)
L
p
u(e)(x, y) = u~e) N?)(x, y). (1.116)
j=]
Da die Darstellung (1.116) für beliebige Knotenvariable uje) gültig sein muß, so
hat die Formfunktion Ni') (x, y) notwendigerweise die Interpolationseigen-
schaft aufzuweisen, im Knotenpunkt p)') mit den Koordinaten (x;e), y;e)) gleich
Eins zu sein und in den andern Knotenpunkten des Elementes zu verschwin-
1.5 Generelle Beschreibung der Methode der finiten Elemente 59
,den:
(e) (e) (e) _ { 1 für j = i
N I (j
x , y;)
. - 0 f'"ur }'-J-' (1.117)
-r- I
Der Ansatz (1,116) gilt für ein bestimmtes Element, was mit dem oberen Index
e präzisierend angedeutet ist.
Um an dieser Stelle einerseits die Verbindung zum Ritzschen Ansatz herzustel-
len und um anderseits auch die Grundlage für die Anwendung des Galerkin-
schen Verfahrens im Sinne der Methode der finiten Elemente vorzubereiten,
betrachten wir die globale Darstellung der gesuchten Funktion u(x,y) im
ganzen Grundgebiet, bestehend aus der Vereinigungsmenge der Elemente.
Der Ansatz für u(x,y) setzt sich stückweise zusammen aus den einzelnen
Ansätzen u(e)(x, y) aller Elemente und ist damit selbst gewissermaßen die
Vereinigung der Ansätze (1.116) über alle Elemente. Wenn wir sämtliche
Knotenvariablen fortlaufend durchnumerieren von I bis n, dann läßt sich das
Ergebnis der Zusammensetzung formulieren als
n
u(x, y) = L UkNk(X, y). (1.118)
k=l
3. Schritt Steht ein Extremalprinzip zur Verfügung, wird der Ansatz der
Gestalt (1.118) in das Funktional eingesetzt. Da die in Abschn. 1.2 behandel-
ten Extremalprinzipien als Integranden durchwegs quadratische Funktionen
in U und seinen Ableitungen aufweisen, entsteht zwangsläufig in allen Fällen
eine quadratische Funktion in den Knotenvariablen Uk. Diese quadratische
60 I Mathematische Grundlagen
Funktion, welche ja als Summe von Gebiets- und Randintegralen definiert ist,
wird als Summe der Beiträge der einzelnen Elemente und der Randkanten
aufgebaut. Damit ist die Aufgabe, die Gebiets- und Randintegrale zu
berechnen, auf das elementarere Problem reduziert, die einschlägigen Integra-
le für ein Element, bzw. für eine Randkante in Funktion der beteiligten
Knotenvariablen darzustellen. Diese zentrale Vorbereitungsarbeit wird in
Kapitel 2 ausführlich behandelt, wo gezeigt wird, wie die Beiträge eines
einzelnen Elementes in Form der quadratischen Funktionen in effizienter
Weise erhalten werden können. Anschließend sind die Elementbeiträge im
wesentlichen nur noch zur gesamten quadratischen Funktion zu addieren,
welche sich im Fall von stationären Problemen in der allgemeinen Gestalt
darstellen läßt.
1
1= - U T Su + dT U + c. (1.119)
2
Hier bedeuten u den Vektor der Knotenvariablen, S die symmetrische und in
der Regel sogar positiv definite Matrix, d den Koeffizientenvektor der linearen
Terme und c eine Konstante. Die Bedingung des Stationärwerdens des
Funktionals führt auf das lineare Gleichungssystem
Su +d = O. ( 1.120)
Daraus ist ersichtlich, daß schlußendlich bei diesen Problemen nur die Matrix
S und der Vektor d wirklich benötigt werden. Praktische Fragen, welche mit
der Kompilation von S entstehen, werden in Kapitel 3 besprochen.
Schwingungsaufgaben liefern demgegenüber eine reine quadratische Form in
den Knotenvariablen in der Gestalt
(1.121)
Die Bedingung des Stationärwerdens des Funktionals führt auf die allgemeine
Eigenwertaufgabe
Su =}..Mu (1.122)
Für eine Auswahl von Elementen und Ansätzen werden im folgenden die
zugehörigen Beiträge der verschiedenen Integrale bereitgestellt. Einerseits
werden die zweckmäßigen Berechnungsarten dargestellt und anderseits wer-
den eine Reihe von sog. Elementmatrizen hergeleitet und zusammengestellt.
Diese Daten bilden die Grundlage zur Lösung von Problemen, wie sie etwa in
den Beispielen von Kapitel 1 skizziert worden sind.
Normalerweise werden die Formfunktionen zur Berechnung der Elementbei-
träge herangezogen und die tatsächliche Auswertung als numerische Aufgabe
dem Computer überlassen. Statt dessen wird im folgenden für geradlinige
Elemente eine elementare Methode entwickelt, welche die Elementbeiträge auf
effiziente und numerisch stabile Art aus sog. Grundmatrizen zu berechnen
gestattet. Im besonderen läßt sich für die elastomechanischen Probleme des
ebenen Spannungs- und des ebenen Verzerrungs zustandes eine enge Ver-
wandtschaft mit den zweidimensionalen stationären Feldproblemen ausnüt-
zen. Die Formfunktionen hingegen erweisen sich als zweckmäßig und
vorteilhaft im Fall von krummlinigen Elementen.
x = I·~. (2.2)
I 1 1 I 1
f U"(X)2 dx = f3 f u"(~i d~, f U(X) dx = I f U(~) d~, (2.3)
o 0 o 0
worin U/(~) jetzt die Ableitung nach ~ bedeutet. Nachfolgend betrachten wir
nur noch die Integrale für das Einheitsintervall.
Für die Funktion u(~) soll ein linearer Ansatz von der Gestalt
u(~) = Cl + C2~ (2.4)
verwendet werden. Für die Balkenbiegung ist dies kein zulässiger Ansatz, so
daß das Integral für das Quadrat der zweiten Ableitung außer Betracht fällt.
Für die drei restlichen Integrale erhält man nach elementarer Rechnung
1 1 I
11 = f u2(~) d~ = f (Cl + C2~)2 d~ = d + CI C2 + - d
o 0 3
1 1
h = f u/(~)2 d~ = f d d~ = d
o 0
1 1 1
14 = f u(~) d~ = f (Cl + C2~) d~ = Cl +- C2·
00 2
Es resultieren quadratische Formen, bzw. eine lineare Form in den Koeffizien-
ten Cl und C2, die wir wie folgt schreiben wollen
li = cTSiC, (i=1,2), 14 =Fc (2.5)
C = AUe mIt A . = [1
-1 ~ J.
(2.8)
64 2 Elemente und Elementmatrizen
Damit lassen sich die quadratischen Formen und die Linearform (2.5)
umrechnen nach Substitution von (2.8) gemäß
T T - -T T- T
l i = ueA SiAue, 14 = bAue = (A b) U e.
Die Matrizen Si sind einer Kongruenztransformation mit der Matrix A zu
unterwerfen, um die gewünschte Abhängigkeit der Integrale von den Knoten-
variablen zu erhalten. Als Ergebnis erhalten wir
I
f u 2(x) dx = u'IMeue,
0
M
e
=~6 [2
1 ~1 (2.9)
I
f u'(x)2 dx = ue Se ue,
0
T S
e
=~I [
-1
1 -~ 1 (2.10)
I
I u(x) dx = b'I ue, b=~[IJ
e 2 1
(2.11 )
0
Fig.2.l
Formfunktionen, linearer Ansatz
Durch Substitution von (2.7) in den Ansatz (2.4) erhalten wir die Darstellung
(2.12)
worin die Formfunktionen Ni(f,) für ein Element erscheinen (Fig. 2.1).
Die Ergebnisse (2.9) bis (2.11) lassen sich im Prinzip auch direkt unter
Verwendung von (2.12) herleiten.
-
Sl=-
1 f6030 30
20 2015 J , - 1
S2=-
60 3
20 15 12
h~+ fH c=
f :: J
Fig.2.2
Knotenpunkte für quadratischen Ansatz
U2 = Cl + 0.5C2 + 0.25c3
Inversion dieser linearen Beziehungen führt mit dem Vektor Ue = (u], U2, U3)T
I
der Knotenvariablen des Elementes zu
I 0
e = AUe mit A = - 3 4 (2.14)
2 -4
Die Kongruenztransformation der Matrizen SI und 052 mit A und die
entsprechende Transformation von b liefert die Massenelementmatrix Me, die
Steifigkeitse1ementmatrix Se und den Vektor h e für ein quadratisches ein-
66 2 Elemente und Elementmatrizen
dimensionales Element zu
M=-
e 30
/
f ; 1~
-I 2
- ~]
4
,
S e = _1
3/ f-:I
b
e
=-
6
/
(2.15)
Substitution der Relationen (2.14) in den Ansatz (2.13) liefert die Darstellung
von u(~) mit Hilfe der Formfunktionen Ni(~)
3
U(~) = Ul(l - 3~ + 2e) + u2(4~ - 4~2) + U3(-~ + 2~2) = I uiNi(~)
i=l
(2.16)
Die für das Element gültigen Formfunktionen sind gegeben durch
QS
1...:::::::::::==:::7,~::::::==::::;:::;ot---;-
,- !
Fig. 2.3
Formfunktionen, quadratischer Ansatz
Selbstverständlich lassen sich die Resultate (2.15) direkt mit Hilfe des Ansatzes
(2.16) gewinnen, wobei die einzelnen Elemente allerdings teilweise durch etwas
kompliziertere Integralausdrücke definiert sind. Eine gewisse Vereinfachung
bringt die Verwendung von sogenannten natürlichen Koordinaten für die
Einheitsstrecke, nämlich
(2.18)
Unter Beachtung von dLI/d~= 1, dL2/d~=-1 ergeben sich daraus für die
ersten Ableitungen nach der Produktregel
dN I
--=LI - 3L 2
d~ ,
Die Berechnung der Zahlwerte in (2.15) wird auf diese Art im wesentlichen
zurückgeführt auf die Auswertung von Integralen der Form
Ipq =
I
J LfLid~= J ~P(l-~)qd~=
I
(p:.q.
I I
1)1' (p,qEN o)·
o 0 q+ . (2.21)
Der angegebene Wert des Integrals ergibt sich auf Grund sukzessiver partieller
Integration.
Mit einem kubischen Ansatz für die Funktion u(~) läßt sich ein auch für die
Balkenbiegung konformes Element gewinnen, falls neben den Funktionswer-
ten auch noch die ersten Ableitungen in den Endpunkten als Knotenvariable
eingeführt werden. Dadurch erreicht man die Stetigkeit der ersten Ableitung
beim Übergang von einem Element ins nächste.
Wir gehen aus vom Ansatz
u(~) = Cl + C2~ + C3e + C4~3 (2.22)
und erhalten für die Integrale die Darstellungen
I I
Ju2(~)d~ = cT .s\c, Ju'(~id~=cTS2c
0 0
I I
I u,,(~)2d~ = cTS3 C, I u(~)d~ = ijT c
0 0
l420 210
1051 0 0
l~
I@
_ 1 210 140 105 84 30 30
- 1
mit SI = 420 140 105
105 84
84
70
70
60
' S2=-
30 30 40
30 45 54
:1
0 0
S; ~ l~ 0
0
0
0
4
6
~J
12
_
ll21
b=U : '
1 6
c=
m
68 2 Elemente und Elementmatrizen
Die kubische Funktion (2.22) ist durch die vier Werte UJ, u[, U2 und us. eindeutig
bestimmt, die wir im Vektor der Knotenvariablen ue = (UI, u[, UZ, U2)T zusam-
menfassen. Die Hermitesche Interpolationsbedingung liefert die linearen
Beziehungen mit der zugehörigen inversen Matrix A
=
-n
UI Cl 0 0
l-i
U[ = Cl 0
A= (2.23)
U2 = CI + Cl + C3 + C4 -2 3
U2 = Cl + 2C3 + 3C4 -2
Damit können wiederum die notwendigen Transformationen ausgeführt
werden. Für die Massenelementmatrix Me, die Steifigkeitselementmatrix S~l)
bezüglich der ersten Ableitung, für die Steifigkeitselementmatrix sF) bezüg-
l
lich der zweiten Ableitung und für den konstanten Vektor be ergeben sich
36 3 -36 3l
A(I) _ 1 3 4 -3 -1
S --
e 301 -36 -3 36-3
3 -1 -3 4
(2.24)
Nun ist aber zu beachten, daß im Vektor ue die Ableitungen nach der
dimensionslosen Variablen ~ des betreffenden Elementes zu verstehen sind.
Dies ist für die später zu vollziehende Zusammensetzung von Elementen
verschiedener Länge ungeeignet. Damit die Ableitungen aneinanderstoßender
Elemente die gleiche Bedeutung besitzen, sind unbedingt die Ableitungen von
u nach der Ortsvariablen x zu verwenden. Für ein Element der Länge 1gilt ja
nach (2.2)
du _ du dx _ 1 du
(2.25)
d~ -~dZ- dx'
Ul
156 22/ 54
-13/
/ 22/ 4P 13/ -3P /
b =- (2.26)
Me = 420 54 13/ 156 -22/ ' e 12
-13/ -3P -22/ 4P
Aus der Matrix A (2.23) ergeben sich noch die Formfunktionen
In Fig. 2.4 sind aus Symmetriegründen nur NI (~) und N2(~) dargestellt.
Fig.2.4
Formfunktionen, kubischer Ansatz 1 ~
Die Integrale sind gleich den Elementen der Massene1ementmatrixMe, und die
Werte ql, q2, ... , qp sind im Vektor qezusammengefaßt. Der Vektor be kann also
vermittels Me und dem Vektor qe leicht berechnet werden. Für eine linear
veränderliche Be1astungsfunktion q(x), definiert durch die beiden Werte ql
und q2 wird b e unter Verwendung von (2.9)
be = ~
6
l2 qql ++ 2q2q2
1 J" .
Fig.2.5
Zugstab in allgemeiner Lage
2.1 Eindimensionale Elemente 71
VI
[~~ 1= [~x ~J
Cy Cz 0 0 Wl
(2.33)
0 0 C x cy U2
V2
W2
c} I
WI CxCz CyCz I -CxCz -CyC z -cl WI F lz WI
Il= EA ----------r---------
,
2/
U2 -c.; -cxcy -cxcz I c; c,cy CxCz U2 F 2x U2
(2.34)
Die zweireihige Steifigkeitselementmatrix in (2.29) ist infolge der Transforma-
tion auf globale Koordinaten und Verschiebungen durch eine sechsreihige
Steifigkeitselementmatrix ersetzt worden. Sie setzt sich aus vier dreireihigen,
bis aufs Vorzeichen identischen, Untermatrizen zusammen.
Eine ähnliche Situation stellt sich bei dreidimensionalen Rahmenkonstruktio-
nen, die sich aus Balkenelementen zusammensetzen. Zur problemgerechten
Behandlung eines allgemeinen Balkenelementes sind Biegungen in zwei
72 2 Elemente und Elementmatrizen
Fig.2.6
Balkenelement in allgemeiner Lage
Ebenen, Längsdehnung und Torsion zu berücksichtigen. Die Deformations-
energie allein ist dann für ein lokales (i,y, z)-Koordinatensystem, welches
nach Fig. 2.6 zum Balkene1ement gehört, gegeben als Summe der vier
Deformationsenergien
3 I 3 ,
IIB = ~ E {~ f w"(i)2 dx + ~ Jv"(x)2 dx
2 12 0 12 0
Für die Balkenbiegungen w(x) und v(x) sind kubische Ansätze erforderlich,
während für die Längsdehnung u(x) wie auch für den Torsionswinke1 B(x)
lineare Ansätze angebracht sind. Mit Hilfe der einschlägigen Steifigkeitsele-
mentmatrizen (2.24) und (2.10) stellt sich die Deformationsenergie des
Balkene1ementes dar als quadratische Form in den 12 Knotenvariablen WI, WI,
W2, W2; VI, vi, V2, V2; 12 1, 122; BI, B2, und die zugehörige Steifigkeitselementmatrix
baut sich bei der angegebenen Reihenfolge der Knotenvariablen als Diagonal-
blockmatrix auf, mit zwei vierreihigen und zwei zweireihigen Untermatrizen in
der Diagonale. Die für die Rechenpraxis unzweckmäßige Reihenfolge wurde
nur der Übersichtlichkeit halber so gewählt, um den Aufbau der Steifigkeits-
matrix der Ordnung zwölf klar zu erkennen. Für die Rechenpraxis eignet sich
die Anordnung im Vektor der Knotenvariablen gemäß
(2.35)
besser, was in der eben beschriebenen Matrix gleichzeitigen Zeilen- und
Kolonnenpermutationen entspricht, die beim Aufbau der Matrix berücksich-
tigt werden können durch geeignete Indexmanipulationen im Computerpro-
gramm.
In (2.35) stellt wi die Steigung der Biege1inie im Knotenpunkt Pi in der (x, z)-
Ebene dar und ist für kleine Steigungen in erster Näherung gleich dem
Drehwinkel um die y-Achse. Ebenso ist vi der Drehwinkel in der (x,y)-Ebene
um die z-Achse, was die getroffene Wahl der Reihenfolge erklärt. Die auf das
lokale (x,y,z)-Koordinatensystem bezogenen Verschiebungen Ui, Vi, Wi und
Drehwinkel Bi, wi, vi sind mit den entsprechenden Verschiebungen Ui, Vi, Wiund
2.1 Eindimensionale Elemente 73
(2.36)
Für die weiteren Richtungskosinus wollen wir die vereinfachende und vom
praktischen Standpunkt aus annehmbare Annahme treffen, daß die y-Achse
parallel zur (x,y)-Ebene sei, was nur bedeutet, daß die Richtung der Breitseite
des Querschnitts des Balkens parallel zur (x,y)-Ebene ist, er also keiner
allgemeinen Drehung unterworfen worden ist. Die Richtung der y-Achse ist
damit orthogonal zur Projektion der x-Achse in die (x,y)-Ebene. Damit
ergeben sich mit l' = veix ei
+ y
Cjx
=_2L , Ch
c·yy =l"- Cjz = 0, falls l' =1= 0;
l' (2.37)
Cjx = 0, Cjy = 1, Cjz = 0, falls l' = 0,
die Komponenten des Vektors der Länge Eins in Richtung der y-Achse. Im
Ausnahmefall eines vertikalen Balkens wird die y-Achse parallel zur y-Achse
festgelegt, was nur einer tragbaren Einschränkung der Lage des Balkens
entspricht. Die Richtungskosinus der z-Achse sind schließlich als Komponen-
ten des Vektorprodukts der beiden Richtungsvektoren berechenbar.
Mit der dreireihigen Matrix C der Richtungskosinus stellen sich die Relationen
zwischen den lokalen und den globalen Gräßen gruppenweise wie folgt dar
(2.38)
° 0J
r
c
OCOO
0
D= (2.40)
OOCO
OOOC
74 2 Elemente und Elementmatrizen
darstellbar ist
Ue = Du e. (2.41 )
Bezeichnen wir mit Se die Steifigkeitselementmatrix zu Ue, so gilt
_ I AT A _ 1 T T 1 T
[Ja - - Ue Seue - - Ue D SeDue - - Ue Seue. (2.42)
A A _
2 2 2
Die Matrix Se ist der Kongruenztransformation mitD zu unterwerfen. Bei der
effektiven Ausführung ist aber darauf zu achten, daß Deine Blockdiagonal-
matrix ist, so daß sich die Transformation D T SeD = Se sehr effizient
durchführen läßt, wobei man beachtet, daß die Multiplikation von links oder
rechts mit D T oder D nur je drei aufeinanderfolgende Gruppen von Zeilen oder
Kolonnen betrifft.
CD Fig.2.7
o Einteilung des Durchlaufträgers
in den vier Knotenpunkten PI, P2, P3 , P4 auf. Nach (2.24) und gemäß (2.26)
lauten die Steifigkeitselementmatrizen für die drei Elemente
sp=_2 [ 15:
150
ISO
5000 -150 2500
-6
J
e 50 3 -6 -150 6 -150 '
150 2500 -150 5000
2.1 Eindimensionale Elemente 75
r30~
300
-6 3001
20000 -300 10000
s!J)= _2_
e 100 3 -6 -300 6 -300
I
uCjJ=
9 3 9 3 1
Typus des verwendeten Ansatzes für die gesuchte Funktion innerhalb des
Elementes abhängig. Als Arbeitshypothese werde angenommen, daß die in der
allgemeinen Formulierung des Variationsausdruckes I (1.25) von Satz I
auftretenden ortsabhängigen Funktionen kl(x,y), k 2(x,y), p(x,y) und f(x, y)
innerhalb des Elementes konstant seien. Unter dieser Voraussetzung geht es
darum, die Beiträge der folgenden Integrale zu bestimmen
(2.46)
0 0 0
worin Gi für das betreffende Gebiet des i-ten Elementes steht. Als Elemente
behandeln wir vorderhand nur geradlinige Dreiecke und Parallelogramme, für
die ausführlich die Beiträge für verschiedene Ansätze hergeleitet werden.
2.2.1 Vorbereitung
'1
Fig.2.8
a) Allgemeines Dreieck Ti (1,0) ~
b) Einheitsdreieck Ta c) b)
dx dy = ] d~ d1].
Die Jacobi-Determinante ist gleich der doppelten Fläche des Dreiecks Ti und
hat bei Beachtung der Orientierung der drei Eckpunkte einen positiven Wert.
Die partiellen Ableitungen im ersten Integral transformieren sich nach der
Kettenregel gemäß
Ux = u~~x + u~1]x
uy = U~~y + u~1]y
Auf Grund der linearen Transformation (2.47) ergeben sich nach partieller
Differentiation der beiden Beziehungen nach x zunächst
woraus sich nach Auflösung der beiden linearen Gleichungen nach ~x und 1]x
die Werte ergeben
~ = Y3 - YI . = _ Y2 - YI
x j' 1].\ j'
'1
Fig.2.9
a) Allgemeines Parallelo-
gramm Qi Ii 10.01
b) Einheitsquadrat Qo 01 bl
(2.50)
ff u dx dy = 1 ff u d~ dl7 (2.51)
Gi Go
Im folgenden wird es einzig darum gehen, die fünf auftretenden Integrale für
spezifische Ansätze zu berechnen. Die ersten vier Integrale werden quadrati-
sche Formen in den Knotenvariablen mit zugehörigen Grundmatrizen liefern,
das letzte Integral eine lineare Form mit einem zugehörigen Grundvektor. Da
80 2 Elemente und Elementmatrizen
diese Integrale über das Einheitsgebiet zu erstrecken sind, sind sie von der
Geometrie unabhängig und nur vom verwendeten Ansatz abhängig. Aus
diesen nur einmal zu berechnenden Beiträgen sind die gewünschten Element-
matrizen und linearen Beiträge auf triviale Weise zu erhalten, wobei die
Geometrie berücksichtigt wird.
Bei der nachfolgenden Behandlung einer Reihe von speziellen Ansätzen für die
Funktion u werden Integrale von Produkten von Potenzen der unabhängigen
Veränderlichen über das Einheitsdreieck und das Einheitsquadrat zu berech-
nen sein. Deshalb werden noch die entsprechenden Integralformeln bereitge-
stellt.
Seien p und q zwei nichtnegative ganze Zahlen. Im Fall des Einheitsdreiecks
ergibt sich nach den elementaren Regeln der Integration und Anwendung der
partiellen Integration nacheinander unter der Annahme q > 0
=-q-
p+l
J "q~l
o
(IT ~p+l d~) dry
0
=-q-I ~.
p+1 p+l,q I
Ip+q,o = [
I
- - - f (I - t+ q +1 d - 1
p +q+1 0 " ,,- (p + q + I)(P + q + 2)
16 = ff ~p "'n q d~ d -
+ I)(P + 2) ...
q!
+ q + 2)
p!q!
pq To ,,- (p (p (p + q + 2)!
(2.52)
Das Resultat ist auch gültig für p = 0 oder q = 0 unter Beachtung der
Definition O! = 1. Der Integralwert I pq ist übrigens für alle p, q E lNo der
2.2 Zweidimensionale Elemente 81
Kehrwert einer ganzen Zahl, da in der ersten Darstellung von (2.52) der Zähler
stets ein Teiler des Nenners ist.
Für das Einheitsquadrat gilt
(2.53)
Im allgemeinen Dreieck Ti werde für die Funktion u(x,y) ein in xundy linearer
Ansatz angenommen in der Form
Diese Funktion ist durch die Vorgabe der Funktionswerte in den drei
Eckpunkten eindeutig bestimmt. Längs einer jeden Seite des Dreiecks wird
u(x,y) eine lineare Funktion der Bogenlänge. Längs einer gemeinsamen Seite
zweier aneinandergrenzender Dreiecke stimmen somit die Funktionswerte der
beiden Funktionen überein, falls die Werte in den gemeinsamen Eckpunkten
übereinstimmen. Dies gewährleistet die Stetigkeit der Ansatzfunktionen beim
Übergang von einem Element zum benachbarten. Die linearen Ansatzfunktio-
nen bilden damit eine für die vorliegende Variationsaufgabe zulässige
Funktionsklasse. Die resultierenden Elemente sind konform.
Die lineare Variablensubstitution (2.47) führt den Ansatz (2.54) in eine lineare
Funktion in ( und 17 über, so daß wir im Einheitsdreieck To mit dem Ansatz
(2.55)
Die Berechnung der fünf Integrale über das Einheitsdreieck ergibt mit (2.52)
11 = ff uJ d( d17 = ff a~ d( d17 = ~ a~
To To
h = ff u~ d~ d17 = ff a ~ d~ d17 = ~ a ~
To To
82 2 Elemente und Elementmatrizen
/5 = fJ u d~ d,! = fJ
T: T
[al + az~ + a3'!] d~ d,! = -
266
1
al
1
+- a2
1
+- aJ
o '0
Die ersten vier Integrale liefern quadratische Formen in den Koeffizienten a\,
a2, a3,während das letzte Integral eine lineare Form ergibt. Die quadratischen
Formen lassen sich mit Hilfe der zugehörigen symmetrischen Matrizen und
mit dem Koeffizientenvektor a = (al, a2, a3)T schreiben als
T - .
/j=a Sja 1=1,2,3,4,
wobei die Matrizen Sj wie folgt definiert sind:
U2 = al + a2
U3 = al + a3·
Inversion dieser Linearformen liefert die inversen Formen mit der zugehörigen
Matrix A
2.2 Zweidimensionale Elemente 83
A=r-: ~ ~l.
al = UI
l-1
a2 = -UI + U2 (2.56)
a3 = -UI + U3 0 IJ
Führen wir weiter den Vektor Ue = (UI, U2, U3) T der Knotenvariablen des
Dreieckelementes ein, lautet die letzte Beziehung
a = AUe. (2.57)
Die oben erhaltenen quadratischen Formen 11 bis 14 und die lineare Form 15
lassen sich mit (2.57) nach Substitution von a durch die Knotenvariablen
ausdrücken:
_ T T- _ T
li - ueA SiAue - Ue SiUe i = 1,2,3,4
/5 = sTAUe = (ATsI)T Ue = sT Ue
H l-~ -ij
-I -1
I
SI=-
2
l-i 1
0
S2=-
1
2
-1
0
1
j
U
0 2 1 (2.58)
l ij
1 -1 1
S1=-
. 2 0 o , S4=- 1 2
24
0 1 I 1
I T
SI =6(1, 1, 1)
Für ein gegebenes Dreieck Ti berechnet sich die S teifigkei tselem en tm a trix
Se gemäß (2.48) durch Linearkombination der Grundmatrizen SI, S2 und S3
mit den Faktoren a, bund e (2.49)
ff u dx dy = bJ ue, be = JS I (2.61)
Ti
Die Funktion u(x,y) ist auf jeder Seite des Dreiecks eine lineare Funktion der
Bogenlänge S und ist damit durch die Werte der Knotenvariablen in den
entsprechenden Endpunkten eindeutig bestimmt. Eventuelle Beiträge von
Randintegralen können (2.9) und (2.11) entnommen werden.
(2.62)
enthält sechs Koeffizienten und wird durch die Werte von u in sechs
Knotenpunkten eindeutig festgelegt. Als Knotenpunkte werden dabei die drei
Eckpunkte und die drei Seitenmittelpunkte gemäß der in Fig. 2.10 eingeführ-
ten Numerierung verwendet.
Fig.2.10
Knotenpunkte für quadratischen Ansatz
im Dreieck
Auf jeder Dreiecksseite reduziert sich die Ansatzfunktion auf eine vollständige
quadratische Funktion der Bogenlänge. Durch die Funktionswerte in den drei
Knotenpunkten ist diese quadratische Funktion eindeutig bestimmt. Diese
Tatsache garantiert wiederum die Stetigkeit der Ansatzfunktionen beim
Übergang von einem Dreiecke1ement in das längs einer Seite benachbarte
Element.
2.2 Zweidimensionale Elemente 85
Die lineare Variablensubstitution (2.47) führt den Ansatz (2.62) über in eine
quadratische Funktion in den Variablen t! und Yf
(2.63)
UI = al
Uz = al + a2
U3 = al + a3 + a6 (2.64)
U4 = al + O.5a2 + O.25a4
Us = al + O.5a2 + O.5a3 + O.25a4 + O.25as + O.25a6
U6=aI +O.5a3 +O.25a6
Die dazu inversen Beziehungen lauten mit den Vektoren
a = (al, a2, a3, a4, as, a6)T, Ue = (UI, U2, U3, U4, US, U6)T
a= AUe
mit der ganzzahligen Matrix
1 0 0 0 0 0
-3 -1 0 4 0 0
-3 0 -1 0 0 4
A= (2.65)
2 2 0 -4 0 0
4 0 0 -4 4 -4
2 0 2 0 0 -4
Als Grundelementmatrizen Si und Grundelementvektor SI erhält man nach
entsprechender elementarer Rechnung die Ergebnisse (2.66).
86 2 Elemente und Elementmatrizen
3 1 0-4 0 0 6 1 -4 0-4
1 3 0-4 0 0 1 0-1 -4 4 0
1 0 0 0 0 0 0 1 1 -1 0 0 4 -4
SI=- S2=-
6 -4 -4 0 8 0 0 6 -4 -4 0 8 -8 8
0 0 0 0 8 -8 0 4 4 -8 8 -8
0 0 0 o -8 8 -4 0-4 8 -8 8
3 0 0 0-4 6 -1 -1 o -4 0
0 0 0 0 0 0 -1 6 -1 0 o -4
1 1 0 3 0 0-4 1 -1 -1 6 -4 0 0
S]=- S4=--
. 6
0 0 0 8 -8 0 360 0 o -4 32 16 16
0 0 o -8 8 0 -4 0 0 16 32 16
-4 o -4 0 0 8 o -4 0 16 16 32
1 T
SI =6(0,0,0, 1, 1, 1)
(2.66)
Aus diesen Matrizen und dem Vektor SI ergeben sich die Steifigkeitselement-
matrix Se, die Massenelementmatrix Me und der Elementvektor be nach
denselben Formeln (2.59), (2.60) und (2.61) wie für den linearen Ansatz. Dies
gilt auch für die nachfolgend beschriebenen Ansätze, womit die einheitliche
Behandlung bereits deutlich in Erscheinung tritt.
Die Ansatzfunktion u(x,y) ist auf einer Randkante eine quadratische Funk-
tion der Bogenlänge und wird deshalb durch die Knotenvariablen UA, UM und
UB im Anfangsknotenpunkt PA, dem Mittelpunkt PM und dem Endpunkt PB
eindeutig festgelegt. Allfällige Beiträge von Randintegralen werden durch
(2.15) erfaß 1.
Fig.2.11
Neunumerierung
der Knotenpunkte
imParallelogramm und
im Einheitsquadrat
(2.67)
Man erkennt nun sofort, daß bei festem ( oder festem 17 der Ansatz eine lineare
Funktion der andern Variablen wird. Im speziellen ist U((,17) auf den
Randkanten von Qo eine lineare Funktion der Bogenlänge. Schließlich wird
U((,17) durch Vorgabe der vier Funktionswerte in den Ecken eindeutig
festgelegt.
Die bilineare Funktion (2.67) werde nun vermöge der zu (2.47) inversen
linearen Transformation auf das allgemeine Parallelogramm Qi transformiert
oder übertragen. Im allgemeinen wird die resultierende Funktion in x und y ein
vollständiges quadratisches Polynom sein, doch ist der Funktionsverlauf auf
den Parallelogrammseiten infolge der linearen Substitution nach wie vor
linear. Das bedeutet aber, daß die Funktionswerte an den Enden einer Seite
den linearen Verlauf eindeutig bestimmen, und daraus folgt die Stetigkeit der
Funktion beim Übergang von einem Element ins benachbarte. Zudem zeigt
diese Überlegung, daß ein Parallelogrammelement mit einem so definierten
Ansatz kombinierbar wird mit einem linearen Dreieckelement nach Abschn.
2.2.2 unter Wahrung der Stetigkeit.
Die Bestimmung der vierreihigen Matrizen Si ist hier sehr einfach, und es
bleibt noch die Substitution der Koeffizienten ai des Ansatzes (2.67) durch die
Knotenvariablen UI bis U4. Die Interpolationsbedingungen lauten mit der
zugehörigen inversen Matrix A
l-~ ~ ~ ~J
UI = al
U2 = al + a2
A = (2.68)
U3 = al + a2 + a3 + a / -1 0 0 1
U4 = al + a.3 1 -1 -1
Für den Vektor U e = (UI, U2, U3, U4)T der Knotenvariablen des Elementes
ergeben sich die Grundelementmatrizen Si und der Grundelementvektor SI
zu
88 2 Elemente und Elementmatrizen
1
S1=-
6 r-:
-1
1
-2 -1
-1
1
2 1
2 -2
-2 2
-: j 1
S2=-
2
r-i
0 -1
-1
0
1
0
1
0
)j
-'j
(2.69)
1 -1 4 2 1
1
S3=-
6
1
r-:
-2 -1
-2
T
2 -2 -1
2
1
1
2
S4=-
1
36
r
2
1
2
4
2
1
2
4
2
fj
S1 =-(1, 1, 1, 1)
4
Da die Ansatzfunktion auf jeder Seite des Parallelogramms linear ist, können
die Beiträge von Randintegralen aus Abschn. 2.1.1 übernommen werden.
P. 1% P.;
Pa Ps
Fig.2.12
Knotenpunkte für den
quadratischen Ansatz
P, ~ ~ der Serendipity-Klasse
(2.70)
2.2 Zweidimensionale Elemente 89
o o o o o o o
-3 -1 o o 4 o o o
-3 o o -1 0 o o 4
2 2 0-4 o o o o
A= (2.71 )
5 -1 -3 -1 -4 4 4 -4
2 0 o 2 o o o -4
-2 -2 2 2 4 0-4 o
-2 2 2 -2 o -4 0 4
-6 ' , ::J
52 17 23 28 1 6 -40 -6 -80 6 2 3 2 1 -6 -8 -8
17 52 28 23 1 6 -80 -6 -40 2 6 2 3 1 -6 -6 -8 -8
1 1
23 28 52 171 -6 -80 6 -40 3 2 6 2 1 -8 -6 -6 -8
1 1 6
28 23 17 52 1 -6 -40 6 -80 2 3 1
2 -6 -8 -8 -6
S3=_1 -----------1----------- 1 -----------I---~-------
I S4=-
90 6 6 -6 -6 1 48 0 -48 0 180 -6 -6 -8 -8 1
32 20 16 20
1 1
-40 -80 -80 -40 1 0 160 0 80 -8 -6 -6 -8 20
1 32 20 16
-6 -6 6 6 1 -48 0 48 0 -8 -8 -6 -6 1 16 20 32 20
1 I
-80 -40 -40 -80 I 0 80 0 160 -6 -8 -8 -6 I 20 16 20 32
I T
s, =12(-1,-1,-1,-1,4,4,4,4)
2.2 Zweidimensionale Elemente 91
H
Qj
u dx dy = -
J
12
(-Uj - U2 - U3 - U4 + 4U5 + 4U6 + 4U7 + 4U8)
~
rz Po; ~
~ o~ ~
Fig.2.13
Knotenpunkte für den quadratischen Ansatz
der Lagrange-Klasse P, Ps ~
92 2 Elemente und Elementmatrizen
Nach den bisherigen Ausführungen dürfte klar geworden sein, daß der Grad
des Ansatzes beliebig erhöht werden kann, wobei selbstverständlich gleichzei-
tig die Anzahl der Knotenvariablen entsprechend vergrößert werden muß. Im
folgenden soll nur auf einige wenige der höhergradigen Ansätze hingewiesen
werden, wobei nur Funktionswerte in den Knotenpunkten als Knotenvariable
in Betracht fallen sollen. Das prinzipielle Vorgehen zur Bestimmung der
Grundmatrizen bleibt stets dasselbe.
Für einen vollständigen kubischen Ansatz im Einheitsdreieck
u(,;, ,,) = aj + a2'; + a3" + a4,;2 + as';" + a6,,2 + a7,;3
+ as,;2" + a9,;,,2 + alO,,3
sind 10 Knotenpunkte erforderlich, von denen neun auf den Seiten und einer
im Schwerpunkt gewählt wird (Fig. 2.14). Die Knotenpunkte auf jeder Seite
sind äquidistant verteilt.
Dieses Dreieckelement ist kombinierbar mit einem Parallelogrammelement
entweder der Serendipity-Klasse mit 12 Knotenpunkten (Fig. 2.15) oder der
Lagrange-Klasse mit 16 Knotenpunkten (Fig. 2.16).
2.2 Zweidimensionale Elemente 93
Der Ansatz für das Einheitsquadrat im Fall der Serendipity-Klasse ist ein
unvollständiges Polynom vierten Grades
Neben dem bereits erwähnten Grund kann die EinfUhrung von panielJen
Ableitungen als Knotenvariable auch vom Problem her angebracht sein, um
etwa die Stetigkeit der ersten partiellen Ableitungen mindestens in einzelnen
Knotenpunkten zu erzwingen , oder da sie etwa als Verzerrungen bei ebenen
Spannungsproblemen eine unmittelbare physikalische Bedeutung besitzen.
Für den vollständigen kubischen Ansatz, gültig für das Einheitsdreieck,
", o 0 10 0 0 10 0 0 0
PI = 0 0 I0 0 0 I0 0 0 0
q, o 0 1 :0 0 0 :0 0 0 0
-----,------r---------
u2= I 1 0 11 0 0 I ' 0 0 0
P2= 0 1 0 12 0 0 13 000
Q2= 0 0 10 0 1 0 100
_____ ~ ______ L ________ _
U3 = o 10
I
0 1 10
I
0 0 1
P3= 0 0 10 0 10 0 0
qJ = 0 0 I 10 0 2 10 0 0 3
----- ~ ------~---------
". ~ 1/ 3 1/ 3 I 1/ 9 1/ 9 1/ 9 I 1/ 27 1/27 1/ 27 1/ 27
~~~~~~~~~~-=~
2.2 Zweidimensionale Elemente 95
o 0 0 0 010 0 0 0
o 0 0 0 010 0 0 0
I
---; -----; - ~ T-; ~l- -0-:- ~ -~-;- -~
o 0 10 0 0 1 0 0 0 0
A = -13 - 3 - 3 I -7 2 -1 I -7 -1 2 27 (2.76)
-3 0 -2 I 0 0 0 I 3 0 -1 0
------~-----~--------
2 1 0 1-2 0 I 0 0 0 0
13 3 2 I 7 -2 2 I 7 1 -2 -27
I I
13 2 3 I 7 - 2 1 I 7 2 - 2 - 27
2 0 I 0 0 0 I -2 0 0
gültig sind, d. h. für die partiellen Ableitungen nach ~ und 17 in den drei
Eckpunkten. Dies sind jedoch nicht die geeigneten Ableitungen im Hinblick
auf die Addition der Beiträge der verschiedenen Dreieckelemente. Zu diesem
Zweck sind die partiellen Ableitungen nach x und y, d. h. die Werte Ux und uy in
den Eckpunkten, die zuständigen Variablen, denn diese Ableitungen allein
haben für die in den Eckpunkten zusammenstoßenden Dreiecke eine globale
Bedeutung.
Nach der Kettenregel gelten einerseits
X~ = X2 - XI = X2I, y~ = Y2 - YI = Y21,
(2.77)
x~ = X3 - XI = X31, Y~ = Y3 - YI = Y31·
Infolge der Linearität der Abbildung sind die Koeffizienten in der Transfor-
mation der partiellen Ableitungen konstant, allein von der Geometrie des
Dreiecks abhängig, aber insbesondere nicht von der speziellen Ecke. Sobald
96 2 Elemente und Elementmatrizen
den eigentlichen für das Dreieck Ti zuständigen Vektor der globalen Knoten·
variablen, läßt sich der Übergang von ue zu U e formal mit einer Matrix C
beschreiben, welche Blockdiagonalgestalt aufweist gemäß
1
mit Cü = r X21
X31
Y21
Y31
1
(2.79)
Die zweireihigen Blockmatrizen Ci sind alle gleich. Die Matrix Se ist somit
noch mit C kongruent zu transformieren gemäß
(2.80)
Infolge der sehr speziellen Gestalt der Matrix C ist die Transformation (2.80)
nicht al~ volle Matrizenmultiplikation auszuführen. Bei der Produktbildung
Se C = Se werden nur die drei Paare von Kolonnen (2,3), (5,6) und (8,9) je
linear kombiniert gemäß der Vorschrift
~ij = X21 Sij + X31 Si,i+ 1
(i = 1,2, ... , 10; j = 2, 5, 8),
3i,i+1 = Y21 Sij+ Y31 Si,j+l
während für die ~brigen Elemente 3ij = sij gilt. Schließlich bewirkt die
Multiplikation C T Se nur eine Linearkombination der drei Paare von Zeilen
(2,3), (5,6) und (8,9) gemäß
Si} = X21 3ij + X31 3i+ l,i (j= 1,2, ... , 10; i=2, 5, 8),
= Y21 Si} + Y31 Si+ I,i
A A
Si+ l,i
während die übrigen Elemente sij = 3i} unverändert bleiben. Die Transforma·
tion von Se in Se kann durch eine geeignete Programmierung an Ort erfolgen
und benötigt insgesamt nur 240 Multiplikationen.
2.2 Zweidimensionale Elemente 97
I
= -- [60al + 20a2 + 20a3 + lOa4 + 5as + IOa6
120
+ 6a7 + 2ag + 2a9 + 6aIO]
1
= 120 [ l1u I + PI + ql + 11u2 - 2P2 + q2 + Ilu3 + P3
- 2q3 + 27u4] = sTu e
Si =X2ISi+X31Si+1
(i = 2, 5, 8). (2.82)
Si+ I = Y21 Si + Y31 S;+ I
Die Bereitstellung der Beiträge von Randkanten bedarf einer zusätzlichen
Überlegung. Die Ansatzfunktion u (2.75) reduziert sich längs einer Dreiecks-
seite auf ein Polynom dritten Grades in der Bogenlänge s. Dieses Polynom ist
somit nach Abschn. 2.1.3 bestimmt durch die beiden Funktionswerte und den
beiden ersten Ableitungen in Richtung der Seite in den Endpunkten.
Bezeichnet UR = (UA, UA, UB, UB) den Elementvektor einer Randkante Cj nach
Fig. 2.17, wobei UA die Richtungsableitung nach s bedeutet, und besitzt die
Kante die Länge I, so werden die Integralbeiträge für UR gegeben durch
J u 2 ds = uRMeUR, (2.83)
cf
98 2 Elemente und Elementmatrizen
IX:.YB)
cj
/
'f'
AlxA,yA )
Fig.2.l7
Randkante Cj
Für die Ableitung in Richtung von A nach B gilt mit dem Winkel lfI
cos lfI =..!..I (XB - XA), sin lfI =..!..I (YB - YA)· (2.86)
Die Beziehung (2.85) gilt natürlich für beide Endpunkte A undB mit denselben
Werten für cos lfI und sin 1fI. Der Vektor UR = (UA, U~A), U~A), UB, u<t), u~B)l mit
den zum Kantenstück Cj gehörenden globalen Knotenvariablen ist mit dem
Vektor UR vermöge der linearen Transformation (2.87) verknüpft.
o o o o
cos lfI sin lfI 0 0
(2.87)
o o I 0
o o o cos lfI
Die Integralbeiträge (2.83) und (2.84) sind deshalb nach (2.87) zu transformie-
ren. Die Grundmatrix Me in (2.83) ist einer Kongruenztransformation mit C
zu unterziehen entsprechend
mit
Für die Funktion u(~, 17) wurden innerhalb des Einheitsdreiecks und des
Einheitsquadrates Polynomansätze verwendet, wobei die Koeffizienten ai
anschließend durch die Knotenvariablen zu ersetzen waren. Die Funktion
u(~, 17) kann statt dessen auch direkt als Linearkombination der Formfunktio-
nen dargestellt werden mit den Knotenvariablen des betreffenden Elementes
als Koeffizienten. Die einschlägigen Formfunktionen sollen im folgenden
zusammengestellt werden, da sie für die formale Darstellung der Funktion
u(~, 17) innerhalb eines Elementes sehr zweckmäßig sind, und da sie sich zur
Behandlung von krummlinigen Elementen sehr gut eignen. Wir sprechen in
diesem Abschnitt stets von den Formfunktionen innerhalb eines Elementes.
Um die Schreibweise zu entlasten, lassen wir den an sich notwendigen oberen
Index e, wie er in Abschn. 1.5 zur Unterscheidung eingeführt worden ist, weg.
Die explizite Darstellung der Formfunktionen für die im vorangehenden
Abschnitt behandelten Elemente ergeben sich unmittelbar als Nebenprodukt
jener Behandlungsart. Es seien nämlich ganz allgemein a= (al, a2, ... , ap)T der
Koeffizientenvektor, ~ = (l,~, 17, ... ) der Vektor mit den im Ansatz auftreten-
den Potenzen, Ue = (UI, U2, ••• , up)T der Vektor der Knotenvariablen des Ele-
mentes und schließlich A die inverse Matrix, welche auf Grund der Interpola-
tionsbedingung die Vektoren aund Ue gemäß a= AUe miteinander in Relation
brachte. Für die Ansatzfunktion U(~,17) gelten damit folgende identische
Darstellungen
p
u(~, 17) = aT~ U; AT ~ u; N(~, 17) I
= = = ukNk(~, 17). (2.90)
k=I
In (2.90) wurde der Vektor N= (NI, N 2, ..• ,Npl der Formfunktionen einge-
führt, der sich also formal als Produkt von AT mit ~ ergibt. Das heißt aber, daß
die k-te Kolonne von A die Koeffizienten der Potenzen für Nk(~, 17) enthält. Die
Formfunktionen können deshalb von den einschlägigen Matrizen A direkt
abgeleitet werden. Dies rechtfertigt nachträglich die explizite Angabe der
Matrizen.
Mit Hilfe der Formfunktionen lassen sich die im vorigen Abschnitt hergeleite-
ten Grundmatrizen und Grundvektoren formal definieren. Nach (2.90) ist
beispielsweise
!
und deshalb
Die formale Darstellung und damit auch die numerische Berechnung von
Formfunktionen im Dreieck vereinfacht sich, falls natürliche Dreiecks-
koordina ten verwendet werden. Für ein allgemeines Dreieck (Fig. 2.18) läßt
sich die Lage eines Punktes P in bezug auf dieses Dreieck durch drei natürliche
Koordinaten (I, (2 und (3 festlegen.
Fig.2.18
Natürliche Koordinaten
Xl Y1 (2.97)
X3 Y3
Werden die Determinanten für 2F; je nach der ersten Zeile entwickelt, gelten
I
(I = 2F [(X2Y3 - X3Y2) + X(Y2 - Y3) + Y(X3 - X2)]
(2.98)
Löst man etwa die beiden letzten Beziehungen von (2.98) nach X und Y auf,
erhält man unter Berücksichtigung des Ausdrucks (2.97) für 2F und der
Relation (2.96) umgekehrt
(2.99)
Diese beiden äußerst einfachen Zusammenhänge (2.99) sind stets noch durch
(2.96) zu ergänzen.
Fig.2.19
~ Natürliche Koordinaten im Einheitsdreieck
Fig.2.20
Formfunktion NI
Pz S P,
Fig.2.23
Formfunktionen NI (~, 1]), bilinearer Ansatz
In Fig. 2.24 sind NI (~, ,,) und N5(~, ,,) als Repräsentanten dargestellt.
In der Literatur werden die Elementmatrizen in der Regel auf Grund der
Formfunktionen definiert und auch auf diese Weise berechnet. Für ein
Dreieckelement werden hierbei die natürlichen Koordinaten verwendet, da
sich die Formfunktionen darin sehr einfach formulieren lassen. Die Integra-
tion über ein Dreieckelement in allgemeiner Lage wird vermittels der
Beziehungen (2.98) und (2.99) auf eine Integration bezüglich der Dreiecks-
koordinaten zurückgeführt. Nach den elementaren Regeln der Integralrech-
nung ist das Flächenelement dxdy nach (2.99) und (2.96) zu ersetzen durch
dx dy = !y,x, -- X3
Y3
X2 - x3
Y2 - Y3 .
!
d(, d(2 = 2F d(, d(2 = J d(, d(2,
berechnet werden. (2.107) ist eine Folge von (2.52). So ist etwa für den
quadratischen Ansatz in Dreiecken
(k = 2, 5, 8). (2.108)
108 2 Elemente und Elementmatrizen
aNk _
-- - X21
(3Nk 3(
----::-:- -~-
+ 3Nk -3'7)
-~-
+ X31 (3Nk+l 3(
- - - -~-
+ ONH1 0'7)
--~----
2x ce; cx c'7 OX O( cx Ci( ox
= -1 (X21Y31
ONk
-,- - X21Y21 -~-
oNk 2Nk+l
+ X31Y31 - -- -
ONH1
X31Y21 -~--
)
•
J oe; 0'7 a( Ci '7
Mit den analog gebauten Ableitungen oNday, oNk +1/0X und oNk+ l/ay
verifiziert man leicht auf Grund der Interpolationseigenschaften der Form-
funktionen (2.103), daß die neuen Funktionen (2.108) in den Knotenpunkten
die gewünschten Eigenschaften besitzen.
Man stellt fest, daß mit von der Geometrie des Dreiecks abhängigen
Formfunktionen gearbeitet werden muß, falls die Elementmatrizen direkt in
Abhängigkeit der global gültigen Knotenvariablen
berechnet werden sollen. Die Geometrie des Dreiecks geht damit bereits in die
zu verwendenden Ansätze der Formfunktionen ein.
Die Situation verhält sich analog im Fall der Steifigkeitselementmatrix Se. Sie
ist definiert durch
Fig.2.26
Netz der natürlichen Koordinaten
(1 = 1 aber den Wert J..2 an. Die richtige Formfunktion lautet also
NI = (1(2(1 - 1).
mit einem um einen Freiheitsgrad reduzierten Ansatz erwünscht, bei dem der
Schwerpunkt als Knoten entfallt.
In [Adi61] wurde vorgeschlagen, zur Verminderung der Parameter den Term
~IJ wegzulassen. Dieser reduzierte Ansatz führt zu Formfunktionen und
Elementmatrizen, welche als Folge des fehlenden Terms ~IJ nicht drehinva-
riant sind. Das will heißen, daß beispielsweise die Steifigkeitselementmatrix
wesentlich davon abhängt, bei welchem Eckpunkt die Numerierung begonnen
wird. Aus diesem mathematischen Grund ist der Ansatz unbrauchbar.
Um die Symmetriebedingung im Ansatz zu erfüllen, wurde in [Toc62] die
Funktion
vorgeschlagen, wo die beiden Terme ~21J und ~1J2 mit dem gleichen Gewicht
kombiniert werden. Formuliert man wie üblich im Einheitsdreieck die
Interpolationsbedingungen für die drei Eckpunkte, ist die Koeffizientenmatrix
singulär, was die Bestimmung der zugehörigen Formfunktionen verunmög-
licht. Die Singularität der Matrix ist aber nur durch· die spezielle Lage und
Form des Dreiecks bedingt.
Im folgenden werden in jeder Hinsicht brauchbare Formfunktionen für das
Dreieck hergeleitet. Ausgehend von den Formfunktionen (2.103) für den
vollständigen kubischen Ansatz stellt man fest, daß die dort auftretenden
Produkte (1(2(3 den Zweck erfüllen, im Schwerpunkt den Wert Null zu
erzielen, während dieser Beitrag auf allen Randkanten identisch verschwindet.
Werden diese Anteile in den Formfunktionen N 1 bis N 9 von (2.103) weggelas-
sen, sind die Interpolationseigenschaften in den Eckpunkten nach wie vor
erfüllt. Auf diese Weise resultieren die Formfunktionen für das Einheitsdrei-
eck
Nt(~, IJ) = (T(3 - 2(1), Nt(~, IJ) = (T(2, Nr(~, IJ) = (T(3
Nt(~, IJ) = d(3 - 2(2), N5(~, IJ) = (~«(2 - 1), Nt(~, IJ) = (~(3
Nt(~, IJ) = (5(3 - 2(3), Nt(~, IJ) = (2(5, N~(~, IJ) = (5«(3 - 1)
die 2., 3., 6. und 8. Komponente gleich sein, die 5. und 9. Komponente
übereinstimmen und gleich dem (- 2)-fachen der 2. Komponente sein. Dies
ergibt sich aus (2.81). Aus dieser Forderung folgen die weiteren Bedingungen
(2.110)
In den Formfunktionen (2.110) treten alle Potenzen des vollständigen
kubischen Ansatzes auf. Da zudem die Potenzen ~211 und ~112 mit unterschied-
lichen Koeffizienten auftreten, entsprechen die Formfunktionen von Zienkie-
wicz nicht dem Ansatz (2.109). In Fig. 2.27 sind zur Illustration die
Funktionen NI (~, 17) und N2(~, 11) als typische Repräsentanten dargestellt.
Fig.2.28
x Krummliniges Dreieck Ti
Wir betrachten zu Beginn das krummlinige Dreieck Ti der Fig. 2.28 mit den
drei Eckpunkten PI, P 2 , P 3 und den auf den Seiten angeordneten Punkten P 4 ,
P 5, P6, numeriert entsprechend den geradlinigen Dreiecken. Die Koordinaten
der sechs Punkte Pi (Xi, y;) seien gegeben. Ein solches allgemeines krummliniges
Dreieck läßt sich vermöge einer sowohl für x als auch für y quadratischen
Transformation auf das Einheitsdreieck abbilden. Die Koeffizienten des
Ansatzes
bestimmen sich aus der Forderung, daß die sechs Knotenpunkte in die
entsprechenden Punkte des Einheitsdreiecks abgebildet werden. Für die x-
2.4 Krummlinige Elemente 115
X2 = YI + Y2 +
X3 = YI + Y3 + Y6
(2.112)
X4 = YI + 0.5Y2 + 0.25Y4
Xs = YI + 0.5Y2 + 0.5Y3 + 0.25Y4 + 0.25ys + 0.25Y6
X6 = YI + 0.5Y3 + 0.25Y6
Für die y-Koordinaten erhält man ein vollkommen analoges System. Das
Gleichungssystem (2.112) besitzt die gleiche Koeffizientenmatrix wie (2.64).
Die Koeffizienten Yi und !5i von (2.111) lassen sich folglich aus den x- und y-
Koordinaten der sechs Knotenpunkte vermittels derselben Matrix A (2.65)
berechnen. Mit den Koordinatenvektoren
x = (XI, X2, X3, X4, XS, X6)T und Y = (YI, Y2, Y3, Y4, Ys, Y6)T
sowie den Koeffizientenvektoren
Y= (YI, Y2, Y3, Y4, Ys, Y6)T und 8 = (15 1, 152, 15 3,154, !5s, !56)T
gelten somit
y=Ax und 8=Ay. (2.113)
Die Abbildung eines krummlinig berandeten Dreiecks Ti auf das Einheitsdrei-
eck ist durch die Lage der sechs Punkte festgelegt. Die auf den Seiten gelegenen
Punkte P4, Ps und P6 sind weitgehend beliebig. Sie beeinflussen selbstverständ-
lich die Abbildung in dem Sinn, daß sie insbesondere den Verlauf der
krummen Randstücke entscheidend mitbestimmen. Zur Veranschaulichung
dieses Sachverhaltes ist in Fig. 2.29 die Approximation einer Viertelellipse mit
den Halbachsen 2 und 1 für variablen Punkt Ps auf dem Ellipsenbogen
dargestellt. Durch eine geschickte Wahl dieses Punktes mit Xs = 1. 732,
Ys = 0.500 kann eine erstaunlich gute Approximation erzielt werden. Die
ausgezogen eingezeichneten Kurven entsprechen den krummen Rändern für
den gestrichelten Ellipsenbogen.
Fig.2.29
Approximation einer Viertelellipse
durch krummliniges Dreieck, Variation
des Punktes Ps
116 2 Elemente und Elementmatrizen
I-I I-I
Determinante für die quadratische Transformation (2.111) ist
y y
Pz Pz
x
Fig.2.30 Quadratische isoparametrische Dreieckelemente mit Bildnetzen
y y
x
Fig.2.31 Krummliniges Viereck der Fig.2.32 Approximation eines
Serendipity-Klasse VierteJkreisringes durch
krummliniges Viereck
118 2 Elemente und Elementmatrizen
y y
P2
x x
Fig.2.33 Quadratische isoparametrische Viereckdemente der Serendipity-Klasse mit
Bildnetzen
(2.117)
Ihre Elemente sind jetzt vom Ort abhängige Größen, welche vermittels der
partiellen Ableitungen der Formfunktionsvektoren berechenbar sind.
Zur Berechnung der Steifigkeitselementmatrix Se für ein krummliniges
Element Gi (Ti oder Qi) wird das Integral vermöge der Substitution (2.116) auf
das Einheitsgebiet Go (To oder Qo) transformiert.
(2.119)
3(x, y) =
[ x~ y~ J (2.122)
3(~, ,,) x~ y~
Aus (2.123) erkennt man die Tatsache, daß diese Ableitungen gebrochen
rationale Funktionen in ~ und" sind. Obwohl im Integranden ein Faktor J
auftritt, bleibt der Integrand im Schlußeffekt eine gebrochen rationale
Funktion. Eine geschlossene analytische Integration ist unmöglich. Die
Berechnung muß näherungsweise mit Hilfe einer numerischen Integrations-
formel erfolgen.
Für die Massenelementmatrix Me und für das in u lineare Integral erhält man
analog
Fig.2.34
Integrationsstützpunkte im Einheitsdreieck Ta
11m m
JJ I/f(~, r,) d~ dr, = JJI/f(~, r,) d~ dr, = I I WiWjl/f(<Ji, <J;). (2.127)
Qo 00 i=lj=l
In (2.127) bedeuten die (Ji die IntegrationsstützsteIlen und die Wi die zugehöri-
gen Integrationsgewichte der eindimensionalen Gaußschen Integrationsfor-
meIn. Eine Gaußsche Integrationsformel der Ordnung m liefert die exakten
Integralwerte für Polynome bis zum Grad (2m -1). In den Tab. 2.3 und 2.4
sind die IntegrationsstützsteIlen und die zugehörigen Gewichte für die
Integrationsformeln der Ordnung 3 und 4 zusammengestellt.
Die symmetrische Verteilung;;ier Integrationsstützpunkte im Einheitsquadrat
Qo ist im Fall der Gaußschen IntegrationsformeI der Ordnung m = 4 in Fig.
2.35 dargestellt.
StützsteIlen und Gewichte für Formeln höherer Ordnung sind in [AbS70,
DaR67, StS66] zu finden. Die Stützstellen und Gewichte sind dort üblicher-
weise für das Intervall [-1,1] tabelliert, da die StützsteIlen die Nullstellen von
Legendre-Polynomen sind. Bei Umrechnung auf das Intervall [0, 1] sind die
Gewichte zu halbieren.
Zusammenfassend erfolgt die gleichzeitige Berechnung der Steifigkeitsele-
mentmatrix Se, der MasseneIementmatrix Me und des Vektors be für ein
krummliniges isoparametrisches Element in folgenden Schritten. Für die
122 2 Elemente und Elementmatrizen
i (Ji Wi
i (Ji Wi
1 0.0694318442 0.1739274226
2 0.3300094782 0.326072 5774
3 0.6699905218 0.326072 5774
4 0.9305681558 0.1739274226
Fig.2.35
Integrationsstützpunkte im Einheitsquadrat Qo,
~ Gaußsche Formel, vier Stützpunkte
Fig.2.36
x Krummliniges Randstück Cj
f
J uds = ul { N(a) V(xIN'(a))2 + (YkN'(a))z da} = ukbR. (2.132)
cj 0
Die zahlenmäßige Berechnung von M R und bR erfolgt vermitte1s einer
Gaußschen Integrationsformel nach dem in Abschn. 2.4.3 beschriebenen
Vorgehen. Benötigt werden dazu die Formfunktionen und ihre Ableitungen
an den IntegrationsstützsteIlen ai nach Tab. 2.3 oder 2.4.
Werden kubische Ansätze mit partiellen Ableitungen als Knotenvariable
verwendet, sind analoge Maßnahmen zu ergreifen, wie sie im Abschn. 2.2.8
beschrieben worden sind.
x
Fig.2.37 Allgem<.:in<.:s Vicr<.:ck Fig. 2.38 Elemente im Fall
von Polarkoordinaten
o(x, y) I I cos I
]= IoCr, qJ) -r sin
=
qJ
qJ
sin qJ
r cos qJ = r,
126 2 Elemente und Elementmatrizen
Für ein viereckiges Element, welches durch die Radien rl < rz und die
Polarwinkel ({JI < ({J2 begrenzt wird, führen die Variablensubstitutionen
(2.136)
die Integration über das Gebiet Qi zurück auf diejenige über das Einheitsqua-
drat. Für (2.134) erhält man
1 1 11
I I [ u; + -2 u~ , d, d({J = (({JZ - ({JI) I I ~ul d~ dl1 +
1
II - u; d~ dl1·
11 1
UI = al
U2 = al + a2 (2.140)
U3 = al + a2 + a3
Die Werte UI, U2, U3 sind die Knotenvariablen in den drei Ecken des
Kreissektors (Fig. 2.39). Die Herleitung der beiden Grundelementmatrizen für
(2.138) wie auch für (2.135) ist auf der Hand liegend.
Fig.2.39
Knotenpunkte im Kreissektorelement
0 0 0 0 0
-3 -1 0 4 0 0
2 2 0 -4 0 0
A= (2.142)
0 -1 -3 -4 4 4
0 -2 2 4 0 -4
0 2 2 0 -4 0
Mit ihr lassen sich gegebenenfalls die Formfunktionen bestimmen.
II = h r~ II
2 G
(1"T G dx dy - II p Tfdx dy - f qTfdS] -
G C
i
;=1
FJi. (2.143)
-_ 1 _E v 2 [2
Gx + 2 vGxGy + Gy2+ 2"
1 (1 - 2J
v)Yxy (2.145)
= 1 ~v 2 [( : : r
+ 2v ( :: ) ( :; ) + ( :; r~
+ (1 - v) (:; + :: r J
Damit ist der Integrand durch die Verschiebungsfunktionen u(x,y) und v(x,y)
ausgedrückt. Die weitere Behandlung des Integrals ist davon abhängig, ob das
Gebiet Gi ein geradliniges Dreieck, bzw. Parallelogramm oder ein krummlini-
ges Element ist.
c: T Dc: = ~
1- v
[(u~.;x + u '7xl + 2v(u~';x + U~'7x)(v~';y + V~'7y)
,7
Ti
-- - -Eh
-2 JJ [alu~2 + 2b1U~Uq + CIUq2 + a2v~2 + 2b2V~Vq + C2 Vq2 (2.146)
1- V
Tc
Das Ergebnis wurde für ein allgemeines Dreieck Ti formuliert, es behält aber
seine Gültigkeit für ein Parallelogramm Qi, falls unter (X3,Y3) das Koordina-
2.5 Ebene elastomechanische Elemente 131
(2.150)
zusammen, liefert das Integral eine quadratische Form in Ue, deren zugehörige
Steifigkeitselementmatrix Se in vier Untermatrizen aufgeteilt werden kann.
h ffT [;
TD
[; d x dY -- Ue S
T '
A
eUe -
A - T , VT
Ue
(-
e-) [SII
' S,12 j [u_- j
e
(2.151)
S2l S22 Ve
I
- -Eh
-2 ff [alu~2 2 d"~ d1] =
+ 2blu~u~ + CIU~] - T'
Ue -
SIIUe,
I-v To
- -Eh
-2 ff [a2V~2 + 2b2V~Vq + C2V~]2 d"~ d1] = -'-
VeS22Ve.
1- v To
Die beiden Untermatrizen SII und S22 sind gegeben durch
, Eh
Sii = - - - 2 (aiSI + b i S 2 + Ci S 3), (i = 1,2) (2.152)
1- v
mit den Grundelementmatrizen SI, S2 und S3 aus Abschn. 2.2, welche allein
vom Typus des Elementes und des Ansatzes abhängen. Desgleichen gilt nach
(2.146) und (2.151)
~
2Eh ff [a3u~v~ + b3U~V~ + C3UqV~ + d 3u q v q] d<;;~ d1] -T'
= Ue SI2Ve
-
+ Ve
-T'
S2IUe.
1- To (2.153)
Die vier letzten Integralbeiträge in (2.146) liefern die Matrizen 8 12 und 821 •
Diese beiden Matrizen sind selbst nicht symmetrisch, doch sind sie transpo-
132 2 Elemente und Elementmatrizen
niert zueinander, also si, s= '2. Das erste und letzte Integral in (2.153) liefern
Bilinearformen in den Knotenvariablen von üe und iie mit Matrizen, die mit S"
respektive mit S 3 übereinstimmen. In der Tat ist ja auf Grund der Darstellun-
gen von U(f,,11) und v(f" 11) vermittels der Formfunktionen
Jf u'1v~ df, d11 = üJ {Jf N"Nl df, d11 } iie = üJ Si Tiie· (2.155)
To To
1 _- v2 [aS,
I
+ b(S2* + S~*T ) + eS3]
I - I,
(i = 1,2)
(2.156)
2.5 Ebene elastomechanische Elemente 133
st=~
- 2
f
-:
-I
-I
-I
-I -:
1
1
1 -I-I
c) Quadratisches d) Quadratisches Parallelogrammelernent,
Dreieckelement Serendipity-Klasse
3 0 I 0 o -4 17 -3 7 3 4 -4 -4 -20
1 o -I -4 4 0 3 -17 -3 -7 -4 20 4 4
0 0 0 0 0 0 7 3 17 -3 -4 -20 4 -4
S2* = -
1
6 -4 0 0 4 -4 4 -3 -7 3-17 4 4 -4 20
S2*=_I-
0 0 4 -4 4 -4 36 -20 20 -4 4 o -16 0 16
0 o -4 4 -4 4 -4 -4 4 4 -16 0 16 0
-4 4 -20 20 0 16 o -16
4 4 -4 -4 16 o -16 0
Für die Rechenpraxis ist noch der Vorteil hervorzuheben, daß die Ordnung der
drei benötigten Grundmatrizen nur halb so groß ist wie diejenige von Se, und
daß sie als ganzzahlige Datenmatrizen mit gemeinsamen Nennern in das
Rechenprogramm eingehen können. In Ergänzung zu den früher angegebenen
Grundmatrizen SI und S3 sind in Tab. 2.5 die Matrizen S1 für einige Elemente
und Ansätze zusammengestellt, die für das Dirichlet-Problem ausführlich
behandelt worden sind, damit der ganze Satz von Grundmatrizen für die
Anwendung auf ebene Spannungsprobleme und insbesondere auf Scheiben-
probleme verfügbar ist.
Die Bereitstellung der Steifigkeitselementmatrix Se entsprechend dem Beitrag
des Integrals
h JJ (TT E dx dy = u; Seue
G;
bilde man die Matrix Se durch Linearkombination der drei Grundmatrizen SI,
st und S3. Bei dieser Operation wird die Art des verwendeten Ansatzes für die
Verschiebungsfunktionen berücksichtigt.
Die weiteren Beiträge zum Gesamtpotential (2.143) sind einfacher zu behan-
deln unter der Annahme, daß die räumliche Kräfteverteilungp konstant oder
zumindest für jedes Element als konstant betrachtet werden kann, und
dasselbe für die Randkräfte q zutrifft, welche im folgenden mindestens für das
betreffende Randstück als konstant angenommen seien. Der Kraftvektor p
wird in seine beiden (konstanten) Komponentenpl undp2 in x- undy-Richtung
zerlegt, und der Verschiebungsvektor j in die Komponenten u und v. Damit
wird das Integral
ff U dx dy = b; Ue. ff vdxdy=b;ve ,
Gi Gi
worin sich der Vektor b e =Js I mit Hilfe des allein vom Ansatz abhängigen
Grundvektors SI ausdrückt. Mit dem Vektor ue nach (2.150) ergibt sich somit
Der Vektor b R kann dem Abschn. 2.1 über eindimensionale Elemente für die
entsprechenden Ansätze entnommen werden.
Falls Einzelkräfte auftreten, so ist dafür zu sorgen, daß die Angriffspunkte
gleichzeitig Knotenpunkte von Elementen sind. Nach Zerlegung von Fi in die
m
Komponenten in x- und y-Richtung liefert I F!h unmittelbar einen in
;=1
den Verschiebungen der Knotenpunkte linearen Ausdruck.
2.5 Ebene elastomechanische Elemente 135
(2.159)
(2.160)
Gi Gi
benötigt. Die beiden Integrale bezüglich u 2 und v2 liefern formal identische
Beiträge, so daß bei Verwendung des Elementvektors ue die zugehörige
MassenelementmatrixMe eine diagonale Blockmatrix ist mit übereinstimmen-
den Untermatrizen M11 und M22. Diese Matrizen sind aber im Zusammenhang
mit dem Dirichletproblem hergeleitet und dort zahlenmäßig angegeben
worden. Die Matrix Me ergibt sich durch die oben beschriebenen Zeilen- und
Kolonnenpermutationen.
Kommen kubische Ansätze für u(~,,,) und v(~,,,) mit partiellen Ableitungen
als Knotenvariablen zur Anwendung, so sind die oben beschriebenen Element-
matrizen noch einer entsprechenden Kongruenztransformation wie (2.80) zu
unterwerfen. Sie ist für die u- und v-Komponenten getrennt auszuführen
Uc;(i) = x 21 u(i)
x
+ Y21 u(i)
y,
V(i)
c; = x 21 vii)
x
+ Y21 vii)
Y ,
(2.161)
U ~(i) = x 31 u(i)
x + Y 31 u(i)
y,
vii)
~
= x 31 vii)
x + Y 31 vii)
y ,
so daß die Matrix C von (2.79) entsprechend größer wird und für ein
Dreieckelement drei vierreihige Untermatrizen Cii längs der Diagonalen
enthält neben zweireihigen Einheitsmatrizen, die zu den Verschiebungspaaren
(Ui, Vi) gehören. Selbstverständlich sind auch die Vektoren b e und bR in diesem
Fall noch zu modifizieren.
136 2 Elemente und Elementmatrizen
u«(, 11) = ii; N«(, 11), v«(, 11) = v; N«(, 11) (2.162)
Ausgehend von der Darstellung (2.145) für den Integranden ETDESZE erhält
man nach Substitution der Ansätze (2.162)
T _ E -T;: ;: T
E DESZE - ---2 [U e (N,:,<,x + N~l1x)(<,xN~ + I1xN~T )ue
_
1- v
+ 2 vii; (N~(x + N~l1x)«(yNl + l1yNJ)ve
+ v; (N~(x + N~l1y)«(yNl + l1yNJ)ve
+ -1 (1 - v) {_U T ;:
e (N~<,y + N~l1y) + Ve (N~<,x + N~l1x) ]
-T;: }2
2
= ~
I-v
[ii;{((xN~ + I1xN~)«(xN~ + I1xN~)T
+~ (1 - v)«(yN~ + l1yN~)«(yN~ + l1yN~)T}iie
+ v; {«(yN~ + l1yN~)«(yN~ + l1yN~)T
+~ (1 - v)«(xN~ + I1xN~)«(xN~ + '7xN~)T}ve
+ 2ii;{v«(xN~ + I1xN~)«(yN~ + '7yN~f
+ ~ (1 - v)«(yN~ + l1yN~)«(xN~ + '7xN~f}ve]
2.5 Ebene elastomechanische Elemente 137
h JJ GT D G J d~ d"
Go
(2.165)
+vJ{b!U (l-V)hlhT+h2hi)d~d,,}ve
+2üJ {b~ (Vh1hi + ~ (1 - V)h h{) d~ d'7 }veJ.
2
Nach (2.165) stehen im wesentlichen die drei Untermatrizen S11, S22 und S12 in
den drei geschweiften Klammern. Jeder der Integranden stellt eine quadrati-
sche Matrix dar. Die effektive Durchführung der numerischen Integration
erfolgt vollkommen analog zur algorithmischen Beschreibung in Abschn.
2.4.3.
Die Berechnung der verbleibenden Gebiets- und .Randintegrale erfolgt
entsprechend dem Vorgehen, wie es in den Abschn. 2.4.3 und 2.4.4 beschrieben
worden ist.
Im Fall von kubischen Ansätzen mit partiellen Ableitungen als Knotenvaria-
blen sind für die Formfunktionen die zu (2.108) analogen, von der Geometrie
abhängigen Modifikationen zu beachten.
Gx E
= ---, [ ex +Vey,
] Gy E
= ---, [ ]
Vex + ey, !xy = 2(1 E+ v) Yxy (2.166)
I - v- I - v-
Die Verzerrungen sind weiter ebenfalls allgemein gegeben durch (1.52), und
auf Grund der Transformation des Elementes auf das Einheitsgebiet Go
gelten damit im Fall von geradlinigen Elementen (Dreiecken und Parallelo-
grammen)
er =[Y3IU~-Y2IU,,]/l }
Gy = [- X31 V,
+ X21 v,,]/J (2.167)
Yry = (-X3I U(, + X2I U" + Y3I V.; - Y2I V,,]/J
Vermöge der Formelsätze (2.166) und (2.167) ist die zahlenmäßige Berech-
nung der drei Spannungen G x , Gy und !xy in einem bestimmten Punkt eines
Elementes zurückgeführt auf die Bestimmung der partiellen Ableitungen u~,
u", v~ und v" im entsprechenden Bildpunkt des Einheitsgebietes. Diese
Zahl werte lassen sich aber aus den Knotenvariablen des Elementes an
bestimmten Punkten vermittels der einschlägigen Formfunktionen sehr
einfach berechnen. Zu erwähnen ist noch, daß für (2.167) nur die Koordinaten-
paare (Xi,Yi) der Eckpunkte des Elementes erforderlich sind oder sogar nur die
vier Koordinatendifferenzen.
Die partiellen Ableitungen u~, u", v~, v" sind für lineare und quadratische sowie
teilweise auch bei kubischen Ansätzen der Verschiebungsfunktionen i. a.
unstetig beim Übergang von einem Element ins benachbarte. Für lineare und
quadratische Ansätze sind die partiellen Ableitungen in den Eckknotenpunk-
ten für die dort zusammenstoßenden Elemente untereinander verschieden, so
daß es gar nicht sinnvoll sein kann, die Spannungen in diesen UnstetigkeitssteI-
len zu bestimmen. Es ist deshalb üblich, die Spannungen nur im Sch wer-
punkt des Elementes zu berechnen, die dann als Mittelwerte für das
Element angesehen werden. Im folgenden werden die partiellen Ableitungen
im Schwerpunkt Z des Dreiecks To und des Quadrates Qo in Abhängigkeit der
Knotenvariablen angegeben, wie sie sich aus den Formfunktionen nach einer
trivialen Rechnung ergeben. Entsprechend des verwendeten Ansatzes und des
Grundgebietes erscheinen erwartungsgemäß Differentiationsformeln. Die
Formeln sind für U und v identisch, so daß nur die Differentiationsregeln für u
wiedergegeben werden.
u~(Z) = U2 - UI,
u'1(Z) = U3 - UI (2.168)
2.5 Ebene elastomechanische Elemente 139
1
uc(Z) = - [(U2 -
. 3 Ul) + 4(U5 - U6)]
(2.169)
1
u~(Z) = 3 [Cu) - Ul) + 4(U5 - U4)]
1
u,(Z) = - [(U2 -
. 2 Ul) + (u) - U4)]
(2.170)
1
u~(Z) = 2 [(U4 - ud + (U) - U2)]
U~(Z) = U6 - Ug,
U,,(Z) = U7 - U5 (2.171)
v
I - v
Ti
E
- -- - - fJ [aluz + 2blu~u~ + CIU; + a2 vl + 2b2V~V~ + C2V;
(I + v)(1 - 2v) T o
+ 2a3u~v, + 2b3U~V~ + 2C3U'IV~ + 2d3U'IV~J d~ dry
mit 1 = (Xl - XI)(Y3 - YI) - (X3 - XI)(Y2 - YI), Jl = ~ (1 - 2v)
2.6 Plattenelemente
partiellen Ableitung nach ~ oder 17 bei festem 17, bzw. ~. Nun sind
für festes ,;, bzw. 17 auch vollständige Polynome dritten Grades in der
verbleibenden Variablen. Die kubischen Funktionen der Durchbiegung und
der Normalableitungen sind aber nach dem in Abschn. 2.1.3 behandelten
kubischen Ansatz durch zwei Werte und zwei Ableitungen in den Endpunkten
der Seiten eindeutig festgelegt. Mit den je vier Knotenvariablen
(2.173)
in den vier Eckknotenpunkten kann das Gewünschte erreicht werden. Für die
Durch~iegung i.st die~ o~fensi.chtlich und fü: di~ N ormalableitun~ auf der Seite
P2 P 3 mit'; = list beispIelwelse w~ durch die vier Werte wFl, wJ~l, w?l, w~1J in
den Knotenpunkten P 2 und P 3 eindeutig festgelegt. Daraus folgt aber die
Konformität des Elementes für Plattenbiegung.
Die 16 Koeffizienten al bis al6 im Ansatz (2.172) sind vermittels der
Interpolationsbedingung mit den 16 Knotenvariablen des Elementvektors
_( (I) (I) (I) (2) (4) (4) (4»)T
We - WI, W~ ,w~ ,w~lJ' W2, W~ , ... , W4, W~ ,W~ ,w~1J (2.174)
Fig.2.40
Konformes Plattendreieckelement, Ansatz
fünften Grades x
Zum Nachweis der Konformität ist erstens festzustellen, daß die Funktion
w(x,y) (2.176) auf jeder Dreiecksseite ein vollständiges Polynom fünften
Grades der Bogenlänge s ist. Dieses Polynom ist durch die Werte der
Funktion, der ersten und zweiten Ableitung in Richtung der Seite in den
beiden Endpunkten eindeutig festgelegt als Lösung einer entsprechenden
Hermiteschen Interpolationsaufgabe. Zweitens ist die Ableitung in der
Normalenrichtung als Linearkombination von W x und w y längs jeder Dreiecks-
seite ein Polynom vierten Grades der Bogenlänge. Dieses ist eindeutig
144 2 Elemente und Elementmatrizen
bestimmt durch die Werte ew/3n und o2 w/ 2n es in den Endpunkten und dem
Wert ew/on im Mittelpunkt. Die Stetigkeit und einmal stetige Differenzierbar-
keit der Durchbiegung von einem Element ins nächste ist damit sichergestellt.
Dieses konforme Plattendreieckelement ist in der Rechenpraxis nicht sehr
beliebt, da die Knotenpunkte eine unterschiedliche Zahl von Knotenvariablen
aufweisen. Bei Befolgung einer bestimmten Philosophie der Datenvorberei-
tung wirkt sich diese Tatsache als Nachteil aus. Aus diesem Grund wurde nach
einer Möglichkeit gesucht, die unerwünschten Normalableitungen in den
Mittelpunkten zu eliminieren. Zu diesem Zweck wird der Verlauf der
Normalableitung vermittels der Werte von ow/en, e2w/en eS in den Endpunk-
ten als kubische (und damit für die beiden anstoßenden Elemente eindeutige!)
Funktion auf der Dreiecksseite eingeschränkt und der daraus resultierende
Wert der Normalableitung berechnet. Er wird damit durch Knotenvariable in
den Eckpunkten dargestellt und kann somit wieder eliminiert werden. Das
Element mit 21 Knotenvariablen wird so auf ein konformes Element mit 18
Knotenvariablen reduziert, welches für die Praxis zweckmäßiger ist. Für
weitere Details sei auf [And70, ArM86, AFS68, Be169, Hah75, HoBn, Ir069]
verwIesen.
Von verschiedenen Autoren [BCI65, CIF68, CIT65, Raz73] wurden mit
großem Erfindungsgeist und großer Anstrengung konforme Dreieckelemente
für Plattenbiegung mit weniger Knotenvariablen entwickelt. Eine Klasse
dieser Elemente geht von einem Dreieck aus, in welchem in den Eckpunkten
die drei Knotenvariablen w, W r und wy betrachtet werden. In (2.110) sind für
das Einheitsdreieck die zugehörigen Formfunktionen zusammengestellt. Auf
den Dreiecksseiten variiert die Funktion kubisch, und ist durch die Funk-
tionswerte und die Richtungsableitungen in den Endpunkten festgelegt. Die
Normalableitung ist eine quadratische Funktion der Bogenlänge und durch
die beiden entsprechenden Werte in den Endpunkten nicht eindeutig defi-
niert. Sie ist beim Übergang von Element zu Element nicht stetig. Um die
Stetigkeit der Normalableitung zu erreichen, werden zusätzliche, sogenannte
singuläre Formfunktionen betrachtet, welche gebrochen rationale Aus-
drücke in den Dreieckskoordinaten sind und die besondere Eigenschaft
haben, daß ihr Wert auf allen drei Seiten verschwindet, der Wert der
Normalableitung auf zwei Seiten ebenfalls verschwindet, aber auf der dritten
Seite parabolisch verläuft. Ein Beispiel einer singulären Formfunktion in
natürlichen Dreieckskoordinaten ist
a)
Beim zweiten Dreieckelement von Fig. 2.41 b liegen zur Definition der
Verschiebungsfunktion die Formfunktionen (2.110) von Zienkiewicz zu-
grunde. Mit sehr subtilen Betrachtungen ist in [LaL75] gezeigt, daß die
Konvergenz der Näherungen gegen die richtige Lösung nur dann garantiert ist,
falls alle Dreiecksseiten der Triangulation parallel zu nur drei Richtungen
sind. Wird diese Bedingung verletzt, konvergieren die Näherungen bei
Verfeinerung der Triangulierung gegen falsche Grenzwerte!
Beim Rechteck- oder allgemeinen Parallelogrammelement von Adini [Adi62]
werden ebenfalls die Werte w, W x und wy in den vier Eckpunkten als
Knotenvariable gewählt, und es kommt ein kubischer Ansatz der Serendipity-
Klasse (2.73) zur Anwendung, der in Abschn. 2.2.8 nur angedeutet worden ist,
für den die ersten drei Formfunktionen in (2.106) formuliert sind.
Ein verblüffend einfaches nichtkonformes Dreieckelement erhält man auf
Grund eines vollständigen quadratischen Ansatzes mit sechs freien Parame-
tern. Als Knotenvariable kommen hier die Funktionswerte W\, W2, W3 in den
drei Eckpunkten und dazu die Werte der Normalableitung (ClwjCln)4, (ClwjCln)s,
(3w/3n)6 in den 3 Seiten mitten in Frage (Fig. 2.42).
Fig.2.42
Nichtkonformes Dreieckelement, quadratischer
x Ansatz
Waren bei den kubischen Elementen der Fig. 2.41 die Stetigkeit der Durchbie-
gung längs den ganzen Rändern der Elemente und die Stetigkeit der ersten
partiellen Ableitungen wenigstens in den Eckpunkten gewährleistet, so sind
jetzt beim Dreieckelement mit quadratischem Ansatz die Stetigkeitsbedingun-
gen noch bedeutend weiter gelockert worden: Die Stetigkeit der Durchbiegung
ist nur in den Eckknoten und die Stetigkeit der Normalableitung nur in den
Seitenmitten gefordert. Um mit diesem einfachen Element genügend aussage-
kräftige Ergebnisse zu erzielen, ist eine feine Einteilung erforderlich.
Auf Grund der Darstellung der gesamten potentiellen Energie bei Plattenbie-
gung (1.68) sind für ein Element Ti oder Qi die beiden Integrale bereitzustel-
len
2.6 Plattenelemente 147
h= fJ pw dx dy. (2.179)
Gi
Bei Schwingungsuntersuchungen kommt noch das Integral
h = JJ w 2 dx dy (2.180)
Gi
hinzu.
Wir betrachten zunächst das einfachste nichtkonforme Dreieckelement der
Fig. 2.42 mit dem quadratischen Verschiebungsansatz in den globalen (x,y)-
Koordinaten
(2.181)
XI Yl XI X1Yl YT
X2 Y2 xi X2Y2 yi
1 X3 Y3 x~ X3Y3 Y5
C= (2.184)
0 C4 S4 2C4X4 S4 X4 + C4Y4 2S4Y4
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
SI =A e ' (2.186)
0 0 0 4 0 4v
0 0 0 0 2(1 - v) 0
0 0 0 4v 0 4
welche einzig die Poissonzahl v als Materialkonstante enthält. Das Integral/I
stellt sich mit (2.186) dar als
(2.187)
(2.190)
mit al = (~l + ~;i J
a2 = 4(~x'lx + ~y'ly)(e + ~;)J
a3 = 2[(~x'1x + ~y'ly)2 + v(~x'ly - ~y'1x)2]J
a4 = [4(~x'1x + ~y'ly)2 + 2(1 - v)(~x'1y - ~Y'lx)2]J
150 2 Elemente und Elementmatrizen
al = (X51 + Y51)2/13
a2 = -4(X21X31 + Y21Y31)(x51 + Y51)/J 3
a3 = 2 [(X21X31 + Y21Y31)2 + vJ 2]/13
(2.191)
a4= [4(X21X31 + Y21Y31i + 2(1 - v)J2]/J3
a5 = -4(X21X31 + Y21Y31)(xil + yil)/J3
a6 = (xii + yil)2/13
Es ist interessant festzustellen, daß sich die Koeffizienten aus nur drei
verschiedenen Klammerausdrücken aufbauen, und daß die Poissonzahl v nur
in zwei Koeffizienten auftritt. Ihre Berechnung ist wenig aufwendig.
Für ein Rechteck mit den zur x- und y-Achse parallelen Seiten der Längen a
und b haben die Koeffizienten mit X21 = a, X31 = 0, Y21 = 0, Y31 = b, J = ab die
Werte
Wie in Abschn.2.2.8 bedeutet Ue = (w\,p\, Ql, W2,P2, Q2, ... l den Vektor der
Knotenvariablen, wo die partiellen Ableitungen Pi = W~(Pi), Qi = W~(Pi) nach ~
und 1'/ zu verstehen sind. Die gesuchte Elentmatrix Se ergibt sich gemäß (2.80)
2.6 Plattenelemente 151
2.7.1 Tetraederelemente
abbilden. Die Jacobi-Determinante von (2.194) ist gleich dem sechsfachen des
Volumens des Tetraeders. Die verwendeten Ansätze können damit wieder im
Einheitstetraeder untersucht werden.
Ein vollständiger linearer Ansatz
(2.195)
ist durch die Werte von u in den vier Knotenpunkten eindeutig bestimmt und
erfüllt die Bedingungen der Vollständigkeit, Symmetrie und Konformität. Die
Elementmatrizen lassen sich in vollkommener Analogie zum zweidimensiona-
len Fall aus Grundmatrizen aufbauen. Dies gilt auch für räumliche Span-
nungsprobleme.
Ein vollständiger quadratischer Ansatz
2.7.2 Parallelepipedelemente
punkte auf den Seitenflächen und im Innern des Parallelepipeds aus prakti-
schen Gründen nicht zu empfehlen.
2.7.3 Prismenelemente
""
/'
/'
/'
./
./, ""
x P1 P2 S
Fig.2.47 Allgemeines dreieckiges Prisma Fig,2.48 Einheitsprisma
Der einfachste Ansatz, welcher mit den linearen Parallelepipeden und den
linearen Tetraedern Stetigkeit gewährleistet, ist
u(~, 1'/, 0 = a1 + a2~ + a31'/ + a4( + as~( + a6rt(. (2.199)
In der Tat reduziert sich der Ansatz (2.199) auf jeder Rechteckseite auf eine
bilineare Funktion und auf jeder Dreieckseite auf eine lineare Funktion, die
durch die Funktionswerte in den Ecken eindeutig festgelegt sind.
Ergänzt man das Prisma durch die neun Kantenmittelpunkte zu einem
Element mit 15 Knotenpunkten, ist ein gleichsam mit den Parallelepiped- und
Tetraederelementen mit quadratischen Ansätzen kombinierbarer konformer
Ansatz gegeben durch
u(~, rt, 0 = a1+ a2~ + a31'/ + a4( + ase + a6~1'/ + a 7~( + ag 1'/2 + a9rt( + alO(2
+ all e( + a12~'1( + a13~(2 + a14'1 2( + a lS'1(2 (2.200)
Man überzeugt sich leicht davon, daß sich (2.200) auf jeder Rechteckseite auf
eine Funktion vom Typus (2.70) reduziert, während sie auf jeder Dreieckseite
vollständig quadratisch ist.
2.6 Plattenelemente 155
Wir wenden uns jetzt der Aufgabe zu, aus den Integralbeiträgen der einzelnen
Elemente die zugehörigen Gleichungssysteme von konkreten stationären
Problemstellungen, bzw. die Matrizenpaare von Eigenwertaufgaben aufzu-
bauen. Dies wird ein weitgehend organisatorisches Problem der zweckmäßi-
gen Datenvorbereitung sein, um daraus die Gesamtmatrizen kompilieren zu
können. Weiter wird gezeigt, wie die Randbedingungen geeignet berücksich-
tigt werden können, und wie optimale Numerierungen der Knotenvariablen
gefunden werden können, um die Gleichungssysteme und Eigenwertaufgaben
effizient zu lösen. In diesem Zusammenhang wird auch der Prozeß der
Kondensation behandelt, mit welchem die Zahl der Knotenvariablen reduziert
wird.
Fig.3.1
Grundgebiet zur Illustration
sind in Fig. 3.1 ebenfalls angegeben. Die Elemente wurden ebenfalls durch-
numeriert, um darauf Bezug nehmen zu können. Da nur geradlinige Dreiecke-
1emente auftreten, werden nur die Koordinaten der 13 Eckpunkte benötigt. Bei
der Bereitstellung der Knotennummern pro Element ist die Reihenfolge der
Referenznumerierung von Fig. 2.10 streng zu beachten. Beginnend mit
einem beliebigen Eckpunkt folgen die beiden weiteren Eckpunkte im Gegen-
uhrzeigersinn und anschließend die drei Nummern der Seitenmittelpunkte in
entsprechender Reihenfolge. Da p = 0 undf= -2 für alle Elemente gilt, sind
in Tab. 3.1 nur die übrigen Daten zusammengefaßt. ...
Die Beiträge der einzelnen Elemente in Form von quadratischen Formen und
Linearformen in den zugehörigen Knotenvariablen sind je zu den gesamten
quadratischen Formen und Linearformen aufzusummieren. Nach den Aus-
führungen von Abschn. 1.5 sind nur die Gesamtmatrizen und der Gesamtvek-
tor der Linearform zu berechnen, die sich aus den Elementmatrizen und
Elementvektoren unter Berücksichtigung der aktuellen Nummern der am
Element beteiligten Knotenvariablen durch Superposition berechnen lassen.
Ganz allgemein beschreibt sich dieser Kompilationsprozeß wie folgt: Steht in
der Liste der Nummern der Knotenvariablen an der Positionj die Nummer p
und an der Position k die Nummer q, so ist beispielsweise der Wert des Elemen-
tes sJ) der Elementsteifigkeitsmatrix Se zum Element Spq der Gesamtstei-
figkeitsmatrix S zu addieren. Ferner ist die Komponente bj") des Element-
vektors he zur Komponente bp des Gesamtvektors h zu addieren. Aus Sym-
metriegründen ist nur die untere Hälfte der Gesamtsteifigkeitsmatrix aufzu-
bauen, d. h. die Addition eines Elementes der Elementmatrix zur Gesamtma-
trix erfolgt nur im Fall q <,.p.
Der Kompilationsprozeß ist in Fig. 3.2 im Fall des Beispiels 3.1 veranschau-
licht. Um das Prinzip zu erklären, ist die vereinfachende Annahme getroffen
worden, daß die Elementsteifigkeitsmatrix Se voll besetzt sei. Für recht-
winklige Dreieckelemente sind einige Werte in Se gleich Null. Der Element-
vektor he enthält hingegen für beliebige Dreieckelemente nur die drei letzten
von Null verschiedenen Komponenten. Dies ist in Fig.3.2 berücksichtigt.
Um die Übersichtlichkeit zu wahren, sind als Ausschnitt nur die verschieden
markierten Beiträge der ersten vier Elemente gemäß Tab. 3.1 schematisch
dargestellt.
An diesem Ausschnitt der Gesamtsteifigkeitsmatrix S erkennt man bereits,
daß S nur schwach mit von Null verschiedenen Elementen besetzt ist. Da die
weiteren Elemente nur Knotenvariablen enthalten, deren Nummern größer als
10 sind, bleiben die 10 ersten Zeilen und Kolonnen durch den nachfolgenden
Kompilationsprozeß unverändert. Aus dieser Bemerkung folgt weiter, daß die
3.1 Aufbau der algebraischen Gleichungen 159
I. 000 00 o
:2. 000 00 o o
3. OOSooO$$O $+$
Y. 000 00 o o
S:. 000 00<> 0<><>
6. 000 00 0 o
7. 00$ 0$+ $++ $
8. $00 +$0 ++$ $
9. 000 00<> 0<><> o
1121. <> <><> <><><> <>
11·00$ 0$+ $++
1:2.
13.
+ ++ +++
$00 +$0<>++$<><>
+
IY. <> <><> <><><> <>
I S:. <> <><> <><><>
16.
gilt. Die Bandbreite ist somit gleich der Anzahl der Nebendiagonalen
oberhalb, resp. unterhalb der Hauptdiagonalen, welche von Null verschiedene
Matrixelemente enthalten. Sie ist gegeben durch das Maximum der maximalen
Indexdifferenzen der Knotenvariablen pro Element. Die Bandbreite der
Gesamtsteifigkeitsmatrix S für das Beispiel 3.1 ist gemäß Tab. 3.1 m = 13. Die
Bandbreite hängt ganz offensichtlich von der Numerierung der Knotenvaria-
blen ab.
0 0 0 514
0 0 523 524
Die Bandstruktur und die Symmetrie von S können zur Speicherung der
relevanten Matrixelemente der unteren Hälfte, etwa im Hinblick auf die
Lösung eines linearen Gleichungssystems mit der Methode von Cholesky,
ausgenützt werden. Eine naheliegende und zumindest für Skalarrechner
geeignete Speicherung von S besteht darin, die Matrixelemente der Hauptdia-
gonale und der m Subdiagonalen in einem rechteckigen Bereich so anzuord-
nen, daß die Diagonalen als Kolonnen erscheinen und die Diagonalelemente
von S die letzte, d. h. (m + l)-te Kolonne bilden. In Fig. 3.3 ist die Speicher-
anordnung für eine symmetrische Bandmatrix der Ordnung n = 8 und der
Bandbreite m = 3 dargestellt. Man beachte, daß die i-te Zeile von S auch als
i-te Zeile des Feldes erscheint, und daß die Zuordnung
(3.3)
Die Gesamtmatrizen und der Gesamtvektor wurden in Abschn. 3.1.2 unter der
ausdrücklichen Annahme aufgebaut, daß die Randbedingungen noch unbe-
rücksichtigt bleiben. Die so entstehende Gesamtsteifigkeitsmatrix S ist aber
auf jeden Fall singulär, so daß das zugehörige Gleichungssystem zu statischen
Problemen keine eindeutige Lösung besitzt. Beim Fehlen von irgendwelchen
geometrischen oder kinematischen Randbedingungen ist bei Dirichletschen
Randwertaufgaben der Vektor u der Knotenvariablen, welcher der konstanten
Lösung u(x,y) = const. entspricht, Lösung der homogenen Gleichungen
Su = 0, und bei elastomechanischen Problemen für Balken, Scheiben und
Platten sind die anschaulichen Verschiebungen der Körper als starre Systeme
ebenfalls Lösung der homogenen Gleichungen. Bei elastomechanischen
Problemen bezeichnet man diese Situation als statisch unbestimmte
Lagerung. Erst die korrekte und vollständige Berücksichtigung der problem-
gerechten Randbedingungen macht die linearen Gleichungssysteme eindeutig
lösbar. Statisch unbestimmte Systeme werden dadurch in statisch bestimmte
Systeme überführt. Für ein statisch bestimmtes System liefert jede nicht
identisch verschwindende Verschiebung einen positiven Wert der Deforma-
tionsenergie, welche durch die quadratische Form .l uT Su mit der Gesamt-
2
steifigkeitsmatrix S gegeben wird. Nach Berücksichtigung der Randbedingun-
gen wird damit die Matrix des linearen Gleichungssystems nicht nur regulär
sondern sogar positiv definit.
Die Berücksichtigung der Randbedingungen kann auf zwei Arten erfolgen.
Zuerst beschreiben wir das übliche Vorgehen und dann eine Alternative,
welche im Zusammenhang mit speziellen Lösungsmethoden eine gewisse Rolle
spielt.
Für eine statische AufgabensteIlung seien die Gesamtsteifigkeitsmatrix Sund
der Gesamtvektor b nach der in Abschn. 3.1.2 beschriebenen Methode ohne
Rücksicht auf Randbedingungen kompiliert worden. Die Ordnung n der
Matrix S und die Dimension des Vektors b ist gleich der Totalzahl der
Knotenvariablen zugehörig zur vorgenommenen Diskretisation, und das
Gleichungssystem als notwendige Bedingung für das Stationärwerden des
Funktionals lautet
Su+b=O. (3.4)
Bei Dirichletschen Randwertaufgaben oder elastomechanischen Problemen
sind für einige der Knotenvariablen ganz bestimmte Werte vorgegeben. Diese
vorgegebenen Zahlwerte können in (3.4) durch entsprechende Modifikationen
berücksichtigt werden, wobei darauf zu achten ist, daß die Symmetrie nicht
zerstört wird.
162 3 Das Gesamtproblem
_l -lI
ne ne ne ne
Ie - -
2
T
Ue SeUe + beT Ue - -
2 i=]
s~)ul + I
i=]
I
j=i+]
(e)
Sij UiUj + I
i=]
bie)ui
(3.5)
Für eine Elementknotenvariable Ui mit einem aktuellen Index nicht größer als
n und eine Variable Uj mit aktueller Nummer größer als n liefert in der Tat der
Summand Si)e) Ui Uj bei fest gegebenem Wert für Uj einen in Ui linearen Term, der
wie b/ e ) einen Beitrag zu b ergibt. Sind schließlich beide aktuellen Indizes
größer als n, ergibt das betreffende Matrixelement multipliziert mit den beiden
zugehörigen Randwerten einen Beitrag zur Konstanten ein (1.119), welche im
3.1 Aufbau der algebraischen Gleichungen 165
Fig.3.7
Elementeinteilung des Grundgebietes
des Wärmeleitungsproblems.
108'-+--*---<--~-_"'--""'-
Quadratischer Ansatz
s==
Fig.3.8
Potentielle Beset-
zung der Gesamt-
steifigkeitsmatrix
S, quadratische
Elemente
14, 20 und 27 betreffen. Schließlich stellt man an der Fig.3.8 fest, daß die
potentielle Bandbreite m = 27 nur durch wenige Matrixelemente bestimmt
wird und das Band selbst viele verschwindende Matrixelemente enthält.
Dieselbe Aufgabe soll auch mit Hilfe von kubischen Dreieckelementen gelöst
werden unter Verwendung derselben Triangulierung. Ferner gelangt das
kubische Dreieckelement nach Zienkiewicz mit neun Knotenvariablen zur
Anwendung. Zu jedem Knotenpunkt gehören die drei Knotenvariablen
U, ux , UY. Die Kompilation der Gesamtsteifigkeitsmatrix S soll wieder nach der
ersten in Abschn. 3.1.3 beschriebenen Methode erfolgen, so daß die Knoten-
punkte von I bis 35 durchnumeriert werden können (siehe Fig. 3.9). Ist k die
Nummer eines Knotenpunktes, so sind die zugehörigen Indizes der drei
Knotenvariablen gegeben durch 3k - 2, 3k - I, 3k. Für diesen Ansatz ergeben
sich somit insgesamt n = 105 Knotenvariable.
In Fig. 3.10 ist die Besetzungsstruktur der zugehörigen Gesamtsteifigkeitsma-
trix S vereinfachend so dargestellt, daß jede (3 X 3)-Untermatrix, die einem
einzelnen Knotenpunkt entspricht, durch ein ~ gekennzeichnet ist. Da die
maximale Differenz der Knotennummern pro Element gleich 8 ist, beträgt die
Bandbreite von Sm = 26. Im Vergleich zur Fig. 3.8 ist das Band stärker besetzt
als Folge des höhergradigen Ansatzes. Wie dort wird die Bandbreite nur in
sehr wenigen der 105 Zeilen wirklich ausgeschöpft. Die Bandbreite läßt sich
vermittels einer geeigneteren Numerierung der Knotenpunkte verringern, wie
im folgenden Abschnitt gezeigt werden wird. A
Beispiel3.3 Das in Beispiel!.1 formulierte Problem sei so beschaffen, daß
entweder auf Grund von unsymmetrischen Randbedingungen oder unsymme-
3.1 Aufbau der algebraischen Gleichungen 169
Fig.3.9
Kubische Dreieckelemente,
Wärmeleitungsproblem 32 33 34 35
s==
Fig.3.10
Besetzung der
Matrix S rur
kubische Dreieck-
elemente
170 3 Das Gesamtproblem
Fig.3.11
,
Triangu1ierung des vollständigen
Grundgebietes
."'1
....
~ ..
: -t=- •
s==
Fig.3.12
Besetzungsstruktur
von S für das
Ringgebiet
3.2 Optimale Numerierung der Knotenvariablen 171
Die Triangulierung sei symmetrisch zu Fig. 3.9 fortgesetzt (vgl. Fig. 3.11). Bei
zeilenweiser Durchnumerierung der Knotenpunkte würde eine Bandmatrix
mit einer recht großen Bandbreite resultieren. Statt dessen sollen die Knoten
gemäß Fig. 3.11 je radial im Gegenuhrzeigersinn numeriert werden. Die
Gesamtmatrix S weist im wesentlichen eine Bandstruktur auf. Da aber die
Knotenpunkte 1 und 2 mit den Knotenpunkten 64 bis 66 durch Dreiecksseiten
verbunden sind, existieren in der rechten oberen und linken unteren Ecke von
Null verschiedene Untermatrizen der Ordnung drei (vgl. Fig. 3.12). Ähnlich
strukturierte Matrizen treten in der Praxis im Fall von ringförmigen Grundge-
bieten und entsprechender Numerierung, aber auch bei periodischen Randbe-
dingungen auf. ~
Fig.3.13
Graph G
Zum Graphen der Fig. 3.13 gehört so die Matrix (3.7) der Ordnung n = 5.
0 1 0 0
0 1 0 1
V= 0 0 0 (3.7)
1 0 1 0 1
0 0 0
Umgekehrt kann einer beliebigen symmetrischen Matrix A ein Graph G(A)
zugeordnet werden, indem jedem Matrixelement Qij =fo 0 eine Kante (Xi, Xj)
entspricht. Dabei müssen die Diagonalelemente von A außer acht gelassen
werd~n, da ja G(A) keine Schleifen enthalten darf. Aus dem Graphen G(A)
geht somit nicht hervor, ob die Diagonalelemente gleich oder ungleich Null
sind. Im Hinblick auf die Anwendung auf Steifigkeitsmatrizen ist dies
bedeutungslos, da ihre Diagonalelemente ohnehin streng positiv sind.
Zwei Knoten Xi und Xj eines Graphen G heißen benachbart, falls sie durch
eine Kante direkt verbunden sind. Zwei Knoten Xi und Xj heißen verbunden,
3.2 Optimale Numerierung der Knotenvariablen 173
falls ein Kantenzug von Xi nach Xj existiert. Unter dem Grad eines Knotens
versteht man die Anzahl der Kanten, die vom betreffenden Knoten ausgehen
und ist damit gleich der Zahl der benachbarten Knoten. In einem Graphen
G(A) einer beliebigen symmetrischen Matrix A ist somit der Grad des Knotens
Xi gleich der Anzahl der von Null verschiedenen Nichtdiagonalelemente von A
in der i-ten Zeile.
Schließlich ist ein Untergraph eine Teilmenge eines Graphen, die selbst ein
Graph ist. Unter einem Baum versteht man einen Graphen, der einen Knoten
mehr als Kanten aufweist und keine isolierten Knoten besitzt, d. h. in welchem
jeder Knoten mit jedem andern Knoten verbunden ist.
Mit diesen wenigen Begriffen aus der Graphentheorie wenden wir uns dem
eigentlichen Algorithmus von Cuthill-McKee zu. Wir gehen davon aus, daß
der Graph G(S) der Steifigkeitsmatrix S zu einer gegebenen Diskretisierung
und zu einer Ausgangsnumerierung der Knotenvariablen, die jetzt gleichzeitig
die Rolle der Knoten in G(S) spielen, bekannt sei. Wir werden noch sehen, wie
der Graph G(S) auf Grund der einzelnen Elemente aufgebaut wird.
1. Schritt: Man suche in G(S) einen Knoten mit minimalem Grad. Dieser
Knoten sei der sogenannte Startknoten, und er bekomme die Nummer 1.
2. Schritt: Zum Startknoten Xl bestimme man alle benachbarten Knoten.
Diese Knoten sollen mit zunehmendem Grad fortlaufend numeriert werden.
Bei benachbarten Knoten mit gleichem Grad besteht selbstverständlich eine
Willkür in der Reihenfolge der Numerierung. Die in diesem Schritt numerier-
ten Knoten haben alle die Distanz 1 vom Startknoten Xl. Sie bilden die erste
Stufe.
3. Schritt: Zu den Knoten der ersten Stufe mit aufsteigenden (neuen)
Nummern bestimme man sukzessive ihre benachbarten und noch nicht neu
numerierten Knoten und numeriere sie je mit zunehmendem Grad. Die in
diesem Schritt numerierten Knoten besitzen die Distanz 2 vom Startknoten
und bilden die zweite Stufe im Numerierungsprozeß.
In den nachfolgenden allgemeinen Schritten verfährt man vollkommen analog
zum dritten Schritt, bis alle Knoten des Graphen, d. h. alle Knotenvariablen
durchnumeriert sind.
Die heuristische Begründung des beschriebenen Vorgehens besteht einfach
darin, daß im Graphen G(S) benachbarte Knoten möglichst bald im
Numerierungsprozeß berücksichtigt werden müssen, andernfalls große Index-
differenzen auftreten entsprechend einer großen Bandbreite von S. Die
Festsetzung, die Knoten innerhalb einer Stufe fortlaufend unter Berücksichti-
gung ihres zunehmenden Grades zu numerieren, beruht auf der einleuchten-
den Strategie, daß Knoten mit vielen Nachbarn möglichst hohe Nummern
erhalten sollen, um die im nächstfolgenden Schritt auftretenden Indexdifferen-
zen klein zu halten.
174 3 Das Gesamtproblem
Daß der Algorithmus mit einem Startknoten von minimalem Grad begonnen
werden soll, entspricht weitgehend einer Erfahrungstatsache. Im allgemeinen
existieren in einem Graphen C(S) mehrere Knoten mit minimalem Grad. Aus
diesem Grund ist der Prozeß mit allen Knoten mit minimalem Grad zu
wiederholen, um unter diesen Startknoten denjenigen zu finden, der die
kleinste Bandbreite liefert. Die resultierende Bandbreite ist in der Tat von der
Wahl des Startknotens abhängig (s. Beispiel 3.4). Ferner existieren Fälle von
Graphen, für welche der Algorithmus von Cuthill-McKee auf Grund ihres
speziellen Aufbaus nicht die minimale Bandbreite zu liefern vermag, falls nur
Startknoten minimalen Grades berücksichtigt werden. Deshalb ist es ange-
zeigt, auch Startknoten mit größerem Grad zuzulassen [CuM69].
Um die Güte der erzielten Bandbreite beurteilen zu können, sind Schranken
wünschenswert. Eine untere Schranke für die Bandbreite kann sofort
apriori aus dem Maximum der Grade aller Knoten von C(S) gewonnen
werden. Es sei D der maximale Grad. Zur zugehörigen Knotenvariablen
existieren somit in der betreffenden Zeile von S D von Null verschiedene
Nichtdiagonalelemente. Ist D gerade, so können diese Elemente bestenfalls je
zur Hälfte links und rechts des Diagonalelementes ohne dazwischenliegende
Nullelemente angeordnet sein, so daß die Bandbreite mindestens gleich D/2
sein muß. Ist D eine ungerade Zahl, so muß die Bandbreite mindestens gleich
(D + 1)/2 sein. Zusammenfassend gilt
Eine obere Schranke für die Bandbreite läßt sich aposteriori aus dem
Algorithmus von Cuthill-McKee gewinnen und zwar auf Grund der Anzahl
der Knoten in den einzelnen Stufen. Betrachten wir zwei aufeinanderfolgende
Stufen kund k + 1 mit N k und Nk+ 1 Knoten. Falls im schlimmsten Fall der
kleinstindizierte Knoten im Niveau k mit dem größtindizierten Knoten im
Niveau k + 1 benachbart ist, resultiert eine Indexdifferenz von N k + Nk + 1 - 1.
Das Maximum dieser möglichen Indexdifferenzen über alle Stufen ist eine
sichere obere Schranke. Bei insgesamt v Stufen und mit der Festsetzung No = 1
für den Startknoten gilt
m< max
k= l •...• v
(Nk - 1 + Nk - 1). (3.9)
Ein Startknoten, für den die maximale Anzahl Knoten pro Stufe minimal ist,
liefert nach (3.9) eine kleine obere Schranke für die Bandbreite und stellt einen
aussichtsreichen Kandidaten für den Algorithmus dar.
Beispiel3.4 An einem übersichtlichen Graphen soll die prinzipielle Funk-
tionsweise des Algorithmus von Cuthill-McKee dargelegt werden. Gegeben sei
der Graph von Fig.3.14, in welchem die 16 Knoten mit Buchstaben
3.2 Optimale Numerierung der Knotenvariablen 175
c~--------~~--------~
Fig.3.14
Graph G(S)
Fig.3.15 Numerierung und Stufen für Fig.3.16 Numerierung und Stufen für
den Startknoten A den Startknoten C
Tab. 3.2 Zum Ablauf des Algorithmus von Cuthill-McKee für den Startknoten A
1 1 B 3 2 3
D 6 4
E 5 3
2 2 C 3 5 5
3 F 4 7
K 6 8
M 3 6
4 G 7 9
3 5 - 4
6 N 3 10
7 -
8 0 5 11
9 H 3 12
L 6 13
4 10 -
11 P 3 14 3
12 I 3 15
13 Q 3 16
In den Fig. 3.15 und 3.16 wurde die Geschichte der Numerierung dadurch
hervorgehoben, daß die Kanten von den Knoten einer Stufe zu den neu
numerierten Nachbarknoten dicker gezeichnet wurden. Offenbar erzeugt der
Algorithmus von Cuthill-McKee zum gegebenen Graphen G einen gespann-
ten Baum. A.
Beispiel3.5 Auf die Diskretisierung des Beispiels 3.2 nach Fig.3.9 soll der
Algorithmus von Cuthill-McKee angewandt werden. Für jene Ausgangsnu-
merierung haben die Knotenpunkte 1 und 32 je den minimalen Grad 2, die
resultierenden maximalen Differenzen von Knotennummern pro Element
betragen jedoch 7 bzw. 8. Die Startpunkte mit den Nummern 4,12,31 und 35
vom Grad 3 liefern maximale Knotennummerndifferenzen von 6. Interessant
ist weiter, daß für den Startpunkt 27 mit Grad 4 und sogar für die Startpunkte
2 und 7 je mit dem Grad 5 dieselbe Bandbreite resultiert. Das Beispiel möge
illustrieren, daß es in der Regel notwendig sein kann, auch Startpunkte mit
höherem Grad als Kandidaten zu betrachten.
Für den Startknoten 4 gemäß Fig. 3.9 ist die resultierende Numerierung mit
einer Bandbreite m = 20 für die zugehörige Matrix S in Fig. 3.17 festgehalten.
3.2 Optimale Numerierung der Knotenvariablen 177
Fig.3.17
Eine Numerierung nach dem Algorithmus
von Cuthill-McKee mit den zugehörigen
Stufen
Die einzelnen Stufen sind ebenfalls eingetragen und die die Bandbreite
bestimmenden Kanten hervorgehoben.
Der maximale Grad eines Knotens beträgt 7 und auf Grund der in Fig. 3.17
angegebenen Stufen ergeben (3.8) und (3.9) die Schranken 4< m* < 9 für die
minimale Indexdifferenz.
An diesem einfachen und durchsichtigen Beispiel sei noch auf eine Eigen-
schaft der resultierenden Knotenumerierung hingewiesen, die sich für die
spätere Behandlung der algebraischen Aufgaben als sehr nützlich erweisen
kann. An der Fig. 3.17 erkennt man die offensichtliche, allgemein gültige
Tatsache, daß die Knoten einer bestimmten Stufe auf Grund der Konstruk-
tion nur benachbarte Knoten in derselben, vorhergehenden oder nachfol-
genden Stufe besitzen. Deshalb induziert die Stufenstruktur automatisch
eine tridiagonale Blockstruktur der zugehörigen Gesamtmatrix, wie sie
in Fig. 3.18 dargestellt ist. Die Ordnung jeder Blockmatrix in der Diagonale
ist gleich der Anzahl der Knoten der betreffenden Stufe. Lineare Glei-
chungssysteme mit Matrizen von tridiagonaler Blockstruktur können mit
Hilfe einer speziellen Rechentechnik effizient aufgelöst werden (vgl. Ab-
schn.4.5). ...
178 3 Das Gesamtproblem
""",,,,,,,..-----'T-------,..----- -- ---,..-----r------'----r.,
-t-------~----- -- ----:------:-------i----~_:
I I I I I I
I 1 r I I I
--
I I I I 11
---"'1------t-------~----~..,
I I I 11
t I I I t
1 : :: 1
,, -- ----I------...
t I
-------I----~-I
I I I
,,, , 1 1 1 1:
,, , I I I I
,
"r'----r----
t
- - -.,-----
I
I f
-,I - -----,--
11
-- r.,
I ' I
s
:: :, r
I 1
I I
I
I
I
I
I
,------r--------..,----r'
"
,
::----r-----r -1----:-:
I I I I I
" I I I I I
I I I I I I r I I
-:----;1, ,
t
"
I I I I
"
t-,---- t--- -- +-------}- -----
:: : : :
LI' I I
I I , I 1 ,, ,,
r'---- r- ---- T- ------r- ---- r-
11 I I 1 I
ri Fig.3.18
Besetzungsstruktur
:: :
:: : : : I
:: : : : l: : Neunumerierung
I I I I I
Das Profil p ist gleich der Anzahl der Elemente von S, welche im Verlauf des
Choleskyschen Algorithmus effektiv benötigt werden. Deshalb ist das Profil
einer Matrix S maßgebend für den Speicherbedarf bei Verwendung einer
entsprechenden Anordnung der Matrixelemente. Aus diesem Grund wird oft
die Minimierung des Profils anzustreben sein und nicht die Minimierung der
Bandbreite.
i fieS) mieS)
I I 0
2 1 1
3 2 1
4 1 3
5 2 3
6 4 2
7 5 2
8 4 4
9 6 3
10 7 3
m=4
10
p = 10 + L
i=!
mieS) = 32
Fig.3.19 Hülle einer Matrix
S ist in Fig. 3.19 veranschaulicht, indern die Elemente, deren Indexpaare dazu
gehören, eingerahmt sind. ...
Beispiel 3. 7 Für das ringförmige Gebiet von Beispiel 3.3 mit der in Fig. 3.11
gegebenen Triangulierung und Numerierung der Knotenpunkte soll unter-
sucht werden, ob jene Numerierung oder eine solche nach dem Cuthill-McKee
Algorithmus erzeugte Numerierung ein kleineres Profil zu liefern vermag. Für
die Startpunkte mit den Nummern 22 und 37, welche den Grad fünf besitzen,
ergeben sich mit dem Programm in [Scw9l] Numerierungen mit je einer
maximalen Indexdifferenz von 9, so daß die zugehörigen Gesamtsteifigkeits-
matrizen die Bandbreite m = 29 erhalten, die aber nur von drei Nichtdiagonal-
elementen unterhalb der Diagonale bestimmt wird. Der Speicherbedarf zur
Speicherung der Bandmatrix gemäß Fig. 3.3 beträgt bei n = 198 Knotenvaria-
blen N = 30 X 198 = 5940 Plätze.
s==
Fig.3.20
Besetzungsstruktur
der Matrix Sauf
Grund der Nume-
rierung des Cuthill-
McKee Algorith-
mus
gleichzeitig auch das Profil, weil auch die einzelnen Zeilenbandbreiten klein
gehalten werden. Studiert man die resultierenden Strukturen der Matrizen S
etwas genauer, so stellt man fest, daß das Profil oft ganz wesentlich verkleinert
werden kann, falls die Knotenvariablen exakt in der umgekehrten Reihen-
folge durchnumeriert werden, wie sie der oben beschriebene Prozeß liefert.
Erfolgt nach ausgeführtem Cuthill-McKee Algorithmus (kurz CM-Algorith-
mus) noch die Umkehrung der Numerierung vermittels der Substitu,tion
k -n - k + 1, (3.15)
so entsteht der umgekehrte Cuthil-McKee Algorithmus (reverse Cuthill-
McKee, abgekürzt RCM) [Ge071]. Durch die Indexsubstitution (3.15) wird
die Matrix S an der Nebendiagonalen von links unten nach rechts oben
gespiegelt. Dadurch verändert sich die Bandbreite von S ganz offensichtlich
nicht, weil die maximalen Beträge der Indexdifferenzen von benachbarten
Knotenpunkten gleich bleiben.
Anders verhält es sich mit dem Profil der gespiegelten Matrix SRCM. Zur
Begründung, daß sich das Profil dabei im allgemeinen verkleinert, ist
folgendes zu beachten. Auf Grund der Strategie, nach welcher die Nachbar-
knoten der nachfolgenden Stufe im Cuthill-McKee Algorithmus numeriert
werden, bilden die resultierenden Wertefi(S) mit zunehmendem Index i eine
monotone, nicht abnehmende Folge. Deshalb kann die Hülle der nach dem
CM-Algorithmus resultierenden Matrix SCM keinen einspringenden Umriß
aufweisen (vgl. Fig. 3.18 und Fig. 3.20). Rechts von den Matrixelementen,
welche die Hülle bestimmen, existieren aber oft Matrixelemente gleich Null
182 3 Das Gesamtproblem
innerhalb der Hülle, zu denen es in derselben Kolonne unterhalb kein von Null
verschiedenes Matrixelement mehr gibt, so daß die zugehörige Kolonnen-
bandbreite kleiner ist. Diese Situation tritt für einen Knotenpunkt immer dann
auf, wenn er in der nachfolgenden Stufe entweder keinen Nachbarpunkt
besitzt oder diese Nachbarpunkte schon numeriert worden sind. Bei der
Spiegelung der Matrix gehen aber diese Kolonnenbandbreiten in Zeilenband-
breiten über, so daß dadurch das Profil in der Tat reduziert wird. Umgekehrt
wurde in [LiS76] gezeigt, daß das Profil der Matrix SRCM nicht größer als das
Profil von SCM sein kann. Überdies zeigen die experimentellen Ergebnisse in
[LiS76], daß für quadratische und vollständige kubische Ansätze in Dreiecke-
lementen die RCM-Numerierungen gegenüber den CM-Numerierungen dra-
stische Reduktionen des Profils und damit auch des Rechenaufwandes zur
Lösung von zugehörigen linearen Gleichungssystemen bewirken. Dies gilt
natürlich auch für quadratische Ansätze in Parallelogrammen, ganz besonders
für den vollständigen Ansatz mit einem inneren Knotenpunkt. Im Fall von
linearen Ansätzen in Dreiecken und den damit graphentheoretisch äquivalen-
ten kubischen Dreieckelementen nach Zienkiewicz resultiert jedoch keine
wesentliche Reduktion des Profils, die Profile der Matrizen SCM und SRCM sind
oft sogar gleich groß.
In der Tab. 3.4 sind auch die Profile PRCM der Gesamtsteifigkeitsmatrizen
SRCM für das ringförmige Gebiet der Fig. 3.11 angegeben. Mit der zwar nur
geringfügigen Reduktion des Profils um rund zehn Prozent erhält man jetzt
Besetzungsstrukturen, die im Vergleich zur Numerierung von Fig. 3.11 ein
etwas kleineres Profil aufweisen. Die Struktur der Matrix SRCM ergibt sich
durch Drehen der Fig. 3.20 um 180°.
Beispiel3.8 Die wesentliche Reduktion des Profils und damit des Speicher-
bedarfs mit Hilfe des RCM-Algorithmus wird am Beispiel des Grundgebietes
des Autolängsschnittes illustriert (vgl. Beispiel 1.5 und Fig. 1.5).
Fig.3.21
Elementeinteilung für
Autolängsschnitt.
Startpunkte für CM-
und RCM-Algorith-
mus
3.2 Optimale Numerierung der Knotenvariablen 183
Für die Triangulierung nach Fig. 3.21 und mit quadratischen Ansätzen in den
Dreiecken resultieren 185 Knotenpunkte. Obwohl zahlreiche rechtwinklige
gleichschenklige Dreiecke auftreten, für welche die Steifigkeitselementmatrix
nicht voll besetzt ist, sollen die Elementmatrizen dennoch als voll besetzt
behandelt werden.
Fig.3.22
Graph eines Dreieckelementes, quadratischer Ansatz
Für den Cuthill-McKee Algorithmus ist der Graph der zugehörigen Diskreti-
sation in Verbindung mit dem verwendeten Ansatz maßgebend. Für quadrati-
sche Ansätze ist unter der getroffenen Annahme jede Knotenvariable mit jeder
andern desselben Elementes verknüpft. Deshalb ist der Graph eines Dreieck-
elementes mit quadratischem Ansatz durch Fig. 3.22 gegeben. Kanten, die sich
in Fig. 3.22 schneiden, bedeuten dabei keine Verbindung. Jeder Knoten des
Graphen hat den Grad 5. Für die Anwendung des CM-Algorithmus auf die
Elementeinteilung des Autolängsschnittes ist zu beachten, daß die Netzeintei-
lung von Fig. 3.21 nicht identisch ist mit dem einschlägigen Graphen.
Infolge der recht allgemeinen Form des Grundgebietes und der unterschied-
lich feinen Einteilung in Dreiecke ist eine optimale Numerierung der
Knotenvariablen nicht offensichtlich. Der CM-Algorithmus stellt hier ein
brauchbares Hilfsmittel dar.
Startpunkt A B C D E F
Grad 5 5 5 11 11 20
m= 31 38 38 38 37 32
PCM= 3816 3871 3953 3813 3891 3789
PRCM = 2247 2254 2291 2246 2234 2232
Stufenzahl 11 11 10 10 10 10
In Tab. 3.5 sind die Werte für die Bandbreite m und die Profile PCM und PRCM
zusammengestellt, wie sie auf Grund des CM- und des RCM-Algorithmus für
die ausgewählten Startpunkte A, B, C, D, E und F der Fig. 3.21 resultieren. Es
wurde eine bei weitem nicht optimale Startnumerierung gewählt, bei der die
Knotenpunkte im wesentlichen zeilenweise von oben nach unten durch nu me-
184 3 Das Gesamtproblem
riert waren. Die Bandbreiten liegen zwischen 31 und 38, so daß für die
Speicherung der Matrix in Bandform im besten Fall N=n(m+ 1) =
185 X 32 = 5920 Plätze erforderlich wären. Das optimale Profil mit
PRCM = 2232 ist doch wesentlich kleiner und auch bedeutend kleiner als das
optimale Profil aus dem CM-Algorithmus. Interessant an der Zusammenstel-
lung ist die Tatsache, daß der Startpunkt Fmit dem sehr hohen Grad 20 (wohl
etwas zufällig) das kleinste Profil und die zweitkleinste Bandbreite liefert.
~ t==r,====f=====i======f=======r======i======l=====~
:Ir----_I- !lt1I-
II!I
1-----
;1:
+---- --+ -------}- ---- --+ ----- -,- ----~
: : : i ::
::
~ _____
):
~~,.
- ~ _~L~}l
~ I : ______ ~: _______ :~ ______ !: ______ ~: _____ ~::
11 1 n. I 1 I I 11
:
tI
: -----t
I _-1 •
I: I
:
1
:
1
:
1
:
U
~-----~----~~
11 1 I •
. ~_J-JI_------~------1------~-----!
.- I t i n
: : :- . -; I : : : ::
s
: : : ..;' ... -PI.: : : :
~ --- --~- - - - - ~ - -- - - ~.... - ~1_ - r.-. -----~ --- ---~- ----f,
rO-l I
1: : :
11 r I I ~ I I lt
11 I I _ r ••• I 1 11
1 = =:
., I 1 11
I
11
11
u: : : -:::- J • ~- J ::
n
r
r
1 t·~.
r - 1-::'. _\
I.
11 1 1 1 1 t.
11 1 I ! 1
11 t 1 I I
n i l 1 I I \
~=====~=====~=====~======.=======~======~======
(3.18)
(3.19)
Die Untermatrix Sii ist regulär, ja sogar positiv definit. In der Tat stellt
~ uJ Seue eine Energie dar, und Se ist eine semidefinite symmetrische Ma-
2
trix. Werden im Ausdruck der Energie die äußeren Knotenvariablen gleich
Null gesetzt, so ist der verbleibende Energieausdruck ~ ur SiiUi für nicht
2
identisch verschwindende Vektoren Ui stets positiv. Deshalb kann (3.21)
formal nach Ui aufgelöst und der erhaltene Ausdruck in (3.20) eingesetzt
werden.
Ui = -Sill SiaUa - Sill hi (3.22)
(Saa - SaiSil I Sia)Ua + (ba - SaiSil 1hi) = 0 (3.23)
188 3 Das Gesamtproblem
Das System (3.23) stellt das reduzierte Gleichungssystem dar für die äußeren
Knotenvariablen und stellt die Extremalbedingung dar für das reduzierte
Integral in den äußeren Knotenvariablen
(3.24)
(3.25)
(3.26)
I
m-I (
Sjk
_ SjmSmk
- - ) Uk + ( bj _ Sjm _._
- - b m ) - 0, (J - 1,2, ... , m
_
1).
k=1 Smm Smm
3.3 Elimination von inneren Freiheitsgraden, Kondensation 189
Danach ergeben sich die Elemente der kondensierten Matrix S* und des
Vektors h* nach den bekannten Formeln eines Gaußschen Eliminationsschrit-
tes [Sti76, Scw88] mit dem Pivot Smm zu
*
Sjk = Sjk -
Smk
Sjm - - , (3.27)
Smm
Fig.3.24
Zusammengesetzte Viereck-
elemente
190 3 Das Gesamtproblem
Ansatzes veranschaulicht ist. Im Fall a) ist ein innerer, im Fall b) sind fünf
innere Knotenpunkte zu eliminieren. In beiden Fällen entsteht nach ausge-
führter Kondensation ein Viereckelement mit acht Knotenpunkten auf dem
Rand. Die Viereckelemente sind mit entsprechenden Dreieck- und Parallelo-
grammelementen kombinierbar, da die Funktion auf dem Rand je einen
eindeutigen quadratischen Verlauf aufweist.
Fig.3.25
Zusammengesetztes Quadrat
Beispiel3.9 Das Prinzip der Konstruktion sei an einem Beispiel illustriert,
welches so ausgewählt ist, daß die Zahl werte überblickbar einfach ausfallen.
Für den Integralausdruck
1
1=- fI
(u; + u}) dx dy + u dx dy fI (3.28)
2 G G
soll für das Quadrat der Seitenlänge 1 (Fig. 3.25) die kondensierte Steifig-
keitselementmatrix S:
und der Vektor b:
aufgestellt werden unter der
Annahme, daß in den 4 Teildreiecken ein linearer Ansatz angewendet werde.
Der Rechnung legen wir die Referenznumerierung der Fig. 3.25 zugrunde.
Benötigt werden die Steifigkeitselementmatrix für ein rechtwinklig gleich-
schenkliges Dreieck und der zugehörige Elementvektor. Die Zahl werte sind
I
J= 2' a= 1, b = 0, c = 1, so daß nach (2.58) und (2.61) gelten
Sb.
e
=~
2 [ 2-1 -1]
-1
-1
1
0
0
1
'
bb.
e
= _1_
12
[1]
1
1
.
0 2 0 0 I -2 U2
[-: -ll
Der Kondensationsschritt nach den Formeln (3.27) ergibt
-1 -1
[J [~J
3 -1
-1
s*=l
e 4
b*=l
e 4 ui = . (3.29)
-1 -1 3 -1 '
-1 -1 -1 3
Die kondensierte Matrix Si (3.29) ist nicht identisch mit der Steifigkeitsele-
mentmatrix Se des Quadrates mit bilinearem Ansatz nach (2.69), nämlich
S
e
1
=-
6 [-: -~ =~ =~J
-2 -1 4 -1 '
b
e
=l4 [;1 1'
(3.30)
-1 -2 -1 4 1
Su=ÄMu (3.31)
(3.32)
192 3 Das Gesamtproblem
oder ausgeschrieben
(3.33)
(3.34)
(3.35)
Unter der Annahme, daß die symmetrische Matrix Sii - AMii , wo A ja einen
unbekannten Parameter, nämlich einen gesuchten Eigenwert darstellt, regulär
sei, folgt aus (3.35)
(3.36)
(3.37)
(3.39)
(3.41)
(3.42)
Dies entspricht der Formel (3.25) der statischen Kondensation, womit sich die
oben eingeführte Bezeichnung rechtfertigt. Für die Matrix M* ergibt sich
analog zu (3.41) die kompliziertere Form, da keine Vereinfachungen möglich
sind,
(3.44)
(3.45)
l
so lauten nach (2.15) für em Element der Länge 1 die entsprechenden
Elementmatrizen
-
S=-
1
7
1
1 I
7 I -8
I
-81 (3.48)
e 31 =;-=~T~~
Unter Verwendung des Formelsatzes (3.46) und (3.47) ergeben sich mit
al = 1/2, a2 = 1/2 die statisch kondensierten Elementmatrizen
S* _ 1 [
e -31 3
-3
-3]=~[
3 1-11-1] W--30I [105
l' e
6 31 0 0 I -6 31
31 2/ 2 0 0 I -31 P
I
S=-
2 0 0 6 -31 I -6 -31
e 13 0 0 -31 21 2 I 31 P
-------------~-------
-6 -31 -6 31 I 12 0
I
31 P -31 P I 0 4P
196 3 Das Gesamtproblem
L, .I. Fig.3.26
Zusammengesetzte Balkenelemente
Es sind hier zwei Kondensationsschritte auszuführen. Der erste Eliminations-
schritt für W2 mit
3 I 1
0"1 =- 4/' 0"2 = - 4' 0"4=-4' 0"5 = 0
15 9/I -24 9 31
91 7P 31 -/2 I -121
S* =_1_ 9 31 15 -91 I -24
e 2/ 3 I
-31 -P -9 7P I 121
---------------+---
-24 -121 -24 12/ I 48
1161
720 -96 281 I 216
24P -281
116/ 8P I 521
-96 -281 I 216
720 -1161
M*=_I- I
e 1680 8P -116/ 24P
28/ I -521
-----------------r---
216 52/ 216 -52/ I 1248
Der zweite Kondensationsschritt für W2 liefert mit
1 1
0"1 ="2' 0"4=--/
4 '
l
3.3 Elimination von inneren Freiheitsgraden, Kondensation 197
31 -3
s** = _1_
e 21 3 :1
4P -31 31
2P J und
-3 -3/ 3 -3/
l~l
31 2P -31 4P
156 441
16P
54
26/
-261
-12P
J
M** =_1_
e 210 54 261 156 -441 .
-261 -l2P -441 16P
Beachtet man an dieser Stelle, daß 1 = l..1* gleich der halben Länge des zu-
2
sammengesetzten Elementes ist, so verifiziert man sofort, daß die kondensier-
ten Matrizen identisch sind mit den Matrizen für das Balkenelement der Länge
1*. Die Kondensation hat in diesem Fall nur den Effekt, daß man tatsächlich
mit einer Diskretisation in Balkenelemente der doppelten E1ementlänge
arbeitet. Der Rechenaufwand für die beiden Kondensationsschritte war also
nicht der Mühe wert. Die Eigenwerte sind deshalb mit entsprechend größeren
Fehlern behaftet, wie aus Tab. 3.7 ersichtlich ist.
Die Zahl der Unbekannten kann aber auch so auf die Hälfte reduziert werden,
daß die Auslenkungen als Meistervariable und die Ableitungen als die
untergeordneten, zu eliminierenden Knotenvariablen betrachtet werden. Zur
Illustration betrachten wir einen am linken Ende eingespannten Balken der
net = 3 6 9 12 18
Fig.3.27
Eingespannter Balken
Länge Eins, eingeteilt in drei Elemente gleicher Länge 1= 1/3 (Fig. 3.27). Die
Gesamtsteifigkeits- und Gesamtmassenmatrizen lauten unter Berücksichti-
gung der beiden geometrischen Randbedingungen w = w' = 0 im Knoten-
punkt der Einspannung bei einer Anordnung der Knotenvariablen gemäß
(3.49)
nach Einsetzen des Wertes 1= 1/3
12 -6 0 I 0 1 0
-6 12 -6 I -1 0 1
I
0 -6 6 I 0 -1 -1
S= 54 --------~------------
0 -1 0 I 4/9 1/9 0
1 0 -1 I 1/9 4/9 1/9
I
0 -1 I 0 1/9 2/9
312 I 0
54 -13/3 0 0
54 312 54 I 13/3 0 -13/3
I
0 54 156 I 0 l3/3 -22/3
1
M = - - -------------r------------
1260
0 13/3 0 I 8/9 -1/3 0
-13/3 0 13/3 I -1/3 8/9 -1/3
I
0 -l3/3 -22/3 I 0 -1/3 4/9
Die daraus resultierenden kondensierten Matrizen S* und M* der Ordnung
drei sind beide vollbesetzt. Dies trifft auch zu bei feinerer Balkenunterteilung.
Fig.3.28
Struktur der Matrizen vor Kondensation
3.3 Elimination von inneren Freiheitsgraden, Kondensation 199
In Fig. 3.28 ist die identische Besetzung der beiden Matrizen Sund Mbei einer
zu (3.49) analogen Anordnung der Knotenvariablen für neun Balkenelemente
dargestellt. Die vier Untermatrizen sind je tridiagonal. Nach Elimination der
untergeordneten Knotenvariablen wj entstehen zwei vollbesetzte Matrizen S*
und M* der Ordnung neun.
Es ist in der Tat eine allgemeine Regel, daß die Kondensation die Bandstruktur
der Matrizen zerstört und vollbesetzte Matrizen liefert, oder zumindest so
besetzte Matrizen, daß sie als vollbesetzt zu behandeln sind. Unter diesem
Aspekt muß eine wesentliche Reduktion der Zahl der Unbekannten erfolgen,
damit der Rechenaufwand zur Lösung der verbleibenden allgemeinen Eigen-
wertaufgabe mit vollbesetzten Matrizen auch kleiner wird im Vergleich zum
Aufwand zur Behandlung des nichtkondensierten Eigenwertproblems zwar
von höherer Ordnung, jedoch mit Bandmatrizen.
In Tab. 3.7 sind die drei kleinsten Kreisfrequenzen Wk = Jf; für einige Ele-
mentzahlen nel ohne Kondensation und die entsprechenden Werte wt der
kondensierten Matrizenpaare S* und M* bei Elimination der Ableitungen je
mit den relativen Fehlern zusammengestellt. Die exakten Werte der Kreisfre-
quenzen als Lösung der transzendenten Gleichung
cos z . eh z + 1 = 0, w = z2
(3.51)
(3.52)
Für die Elimination einer einzigen Knotenvariablen folgen daraus die leicht
modifizierten Rechenregeln zur Berechnung der kondensierten Matrizen. Man
bilde die Hilfsgrößen
_
Gj - -
s 0 - Xmf!j
, (j = 1,2, . .. ,.u - 1) (3.53)
sf!f!-J..mf!f!
l
Sjt = Sjk + GjSf!k + Sf!jGk + GjGkSj1f!
mjt = mjk + Gjmf!k + mf!jGk + GjGkmf!f! (3.54)
(j, k = 1,2, ... ,.u - 1)
Die Elemente der kondensierten Steifigkeitsmatrix berechnen sich jetzt nach
derselben komplizierter aufgebauten Formel wie diejenigen der kondensierten
Massenmatrix. Die Werte Gj sind von Xabhängig, so daß die Vereinfachung im
Fall der Steifigkeitsmatrix nicht mehr wie oben möglich ist. Es liegt auf der
Hand, daß die dynamische Kondensation, angewendet zur Elimination von
inneren Knotenvariablen, in den Beispielen 3.10 und 3.11 zu anderen
kondensierten Matrizenpaaren führt.
BeispieI3.12 Um die Wirkung der dynamischen Kondensation zu illustrieren,
betrachten wir die Aufgabe, die Eigenwerte der schwingenden Membran von
Beispiel 1.4 zu berechnen. Dazu sollen quadratische Ansätze der Lagrange-
Klasse (2.72) in Rechteckelementen gemäß der Elementeinteilung nach Fig.
3.3 Elimination von inneren Freiheitsgraden, Kondensation 201
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
Fig.3.29 0 0 0 0 0 0
Sodann wurden die inneren Knotenpunkte der Elemente nach der dynami-
schen Kondensationsmethode eliminiert. Die Ordnung der kondensierten
Matrizen S* und M* beträgt n * = 67. Durch diese Kondensation bleibt die
Bandstruktur der Gesamtmatrizen erhalten. In Fig. 3.30 ist die Abhängigkeit
der fünf kleinsten Eigenwerte von X dargestellt. Ist X gleich einem der
Eigenwerte Ab so stimmt der betreffende Eigenwert ..1.: mit Ak exakt überein,
während die übrigen Eigenwerte ..1./ des kondensierten Eigenwertproblems
teilweise wesentlich zu hoch ausfallen.
x
.1.5
3.0
l4
':3
2.0
l'z
1.0
Fig.3.30 li
Frequenzabhängige Konden-
sation. Elimination von inneren
Elementknotenvariablen.
Membranschwingung 00 1.0 2.0 3.0 i
202 3 Das Gesamtproblem
In diesem Kapitel befassen wir uns damit, die anfallenden linearen Glei-
chungssysteme in sehr vielen Unbekannten unter Berücksichtigung ihrer
Struktureigenschaften möglichst effizient zu lösen. Die konkrete Wahl einer
der im folgenden beschriebenen Methoden zur Lösung eines sehr großen
Gleichungssystems mit schwach besetzter Matrix wird entscheidend be ein-
flußt durch die hardwaremäßigen Gegebenheiten des verwendeten Rechners.
So wird in erster Linie die Kapazität des Speichers mit schnellem Zugriff, dann
werden ebenfalls die Übertragungsgeschwindigkeit zwischen dem Zentralspei-
cher und den Hilfsspeichermedien, wie etwa Plattenspeicher, ausschlaggebend
sein, und die Architektur des Computers hinsichtlich Vektorisierung und
Parallelisierung ihren wesentlichen Einfluß haben.
Grundsätzlich ist zu unterscheiden zwischen direkten und iterativen
Methoden. Die erstgenannten beruhen auf der sukzessiven Elimination der
Unbekannten mit dem Gauß-Algorithmus oder dem Cholesky-Verfahren. Die
Eliminationsmethoden erfordern die Speicherung der Systemmatrix und des
Konstantenvektors oder zumindest von bestimmten Teilen davon, damit im
Verlauf des Prozesses ein direkter Zugriff auf die benötigten Werte möglich ist.
Die Größe des Zentralspeichers bildet oft eine natürliche Schranke für die
Ordnung der so lösbaren Gleichungssysteme, weshalb hier Fragen der
ökonomischen Speicherung zentral sind. Falls aber infolge der Größe des zu
lösenden Problems Hilfsspeicher verwendet werden müssen, so muß die
Lösungsmethode den Charakteristiken der Hilfsspeicher Rechnung tragen,
um insbesondere die Zeit für Transferoperationen klein zu halten. In diesem
Zusammenhang kann der Ursprung der zu lösenden Gleichungssysteme zur
Entwicklung von geeigneten Rechentechniken so berücksichtigt werden, daß
die sukzessive Kompilation der linearen Gleichungen mit der gleichzeitigen
Elimination verknüpft wird, was zur Band- und Frontlösungsmethode
führt.
Die iterativen Verfahren bestimmen die gesuchte Lösung als Grenzwert einer
Folge von Näherungen, und haben insbesondere die Eigenschaft, die schwache
Besetzung der Koeffizientenmatrix ausnützen zu können und die Matrix
unverändert lassen. Diese Tatsache erfordert nur die Speicherung der von Null
verschiedenen Matrixelemente, so daß der dafür nötige Speicherbedarf im
Vergleich zu den Eliminationsmethoden oft bedeutend geringer ist. Für
bestimmte Iterationsverfahren ist eine permanente Speicherung der Steifig-
keitsmatrix nicht erforderlich, weil die Iterationsschritte ganz auf der Basis der
Elementarmatrizen durchführbar sind. Auf diese Weise gelingt es, sehr große
lineare Gleichungssysteme mit minimalem Speicherbedarf zu lösen, wobei
allerdings der Rechenaufwand ansteigt, weil die Elementmatrizen in jedem
Iterationsschritt neu zu berechnen sind. Für Rechenanlagen mit relativ
204 4 Behandlung der linearen Gleichungssysteme
n
'"
L. (I) Xk
Qik + b(l)
i -- , ° (._ 2, 3, ... ,
1- n) (4.3)
k~2
4.1 Klassische Eliminationsmethoden 205
bI(l) = b·I - an b l ,
(i = 2, 3, ... , n.) (4.5)
all
Aus (4.4) ist offensichtlich, daß das reduzierte System (4.3) symmetrisch ist als
Folge der Symmetrie von A. Zur Reduktion des Rechenaufwandes werden
zweckmäßig die Faktoren
(4.7)
(i = 2, 3, ... , n; k = 2, 3, ... , i).
In (4.7) wurde bereits berücksichtigt, daß nur mit der unteren Hälfte der
Matrix A gearbeitet wird, indem alk durch akI ersetzt worden ist und der
Kolonnenindex k nur bis zum Wert i läuft.
Die Faktoren In nach (4.6) besitzen eine weitere Bedeutung: Dividieren wir die
erste Gleichung von (4.2) durch all, so lautet sie unter Berücksichtigung der
Symmetrie von A
n
Xl + I hlXk + Cl = 0 mit Cl = bI/all' (4.8)
k=2
Dies stellt die sogenannte erste Endgleichung dar, aus welcher sich die
Unbekannte Xl aus bekannten Werten für X2, X3, ••• , X n berechnen läßt. Da diese
Zahlwerte für diesen Zweck benötigt werden, speichert man sie zweckmäßiger-
weise an die Stelle der entsprechenden an- Werte. Nach (4.7) darf dies aber erst
nach erfolgter vollständiger Berechnung der Koeffizienten geschehen. aW
Desgleichen kann nachträglich auch Cl aus (4.8) an den Platz von b l
gespeichert werden.
Mit dem reduzierten Sxstem (4.3) verfährt man analog. Infolge der positiven
Definitheit von A ist a2~) > 0, so daß die Unbekannte X2 aus den Gleichungen
für i = 3,4, ... , n eliminiert werden kann. Man bildet die Faktoren
(I)
li2 = a~~), (i = 3,4, ... , n) (4.9)
a22
206 4 Behandlung der linearen Gleichungssysteme
für die letzte Unbekannte Xn , welche nach Division durch a~~ - I) zur n-ten
Endgleichung wird
(4.12)
Die gesuchten Unbekannten ergeben sich in der Reihenfolge X n , Xn-I, ... , X2, XI
aus den entsprechenden Endgleichungen durch den Prozeß des Rückwärts-
einsetzens.
Der Gaußsche Eliminationsprozeß besitzt eine Intepretation als Zerlegung der
gegebenen Matrix A in das Produkt einer Linksdreiecksmatrix L mit Diago-
nalelementen gleich Eins und einer Rechtsdreiecksmatrix R. Fassen wir die
Faktoren lik in einer Linksdreiecksmatrix L und die Koeffizienten der ersten
Gleichung sowie die Koeffizienten je der ersten Gleichung der reduzierten
Systeme zu einer Rechtsdreiecksmatrix R nach (4.l3) zusammen, wo die
Situation für n = 4 dargestellt ist, so zeigt eine elementare Rechnung, daß die
Matrizengleichung (4.14) gilt.
r;"
0
131 132
0
0
0
0
0 r~"
al2
0
(1)
a22
an
(1)
a23
(2)
a"
(1)
a24
(2)
J ra"
a21
al2 a13
a22 a23
a24 J (4.13)
a"
J
a33 a34 a31 a32 a33 a34
141 142 143 0 o (3)
a44 a41 a42 a43 a44
L R A (4.14)
Auf Grund der Definition der Faktoren l ik läßt sich die Rechtsdreiecksmatrix
R als das Produkt einer Diagonalmatrix D, deren Diagonalelemente gleich den
positiven Pivotelementen all, ag), ... , a~~-I) sind und der zu L transponierten
Matrix darstellen. In der Tat gilt im konkreten Fall n = 4
4.1 Klassische Eliminationsmethoden 207
LDL T x + b = O. (4.17)
-Ly +b = 0 (4.19)
-Dc+ y = 0 (4.20)
LT X +C = 0 (4.21)
Die Gleichungen (4.19) und (4.20) fassen die Formeln zusammen zur
Berechnung der Komponenten der Konstantenvektoren der reduzierten
Systeme und damit des Konstantenvektors c der Endgleichungen (4.21). Die
Rechenvorschrift (4.19) und (4.20) beinhaltet den Prozeß des Vorwärtsein-
setzens, da sich die Komponenten von c in aufsteigender Reihenfolge
ergeben. Schließlich faßt (4.21) das Rückwärtseinsetzen zusammen.
Der Gauß sehe Eliminationsalgorithmus besteht somit aus den drei getrennten
Teilprozessen der Zerlegung von A nach (4.16), dem Vorwärtseinsetzen und
dem Rückwärtseinsetzen. In der Regel wird die Faktorisierung (4.16) der
Matrix A separat als Programm realisiert, da die Prozesse des Vorwärts- und
Rückwärtseinsetzens die Matrizen L und D nicht verändern. Es besteht so die
Möglichkeit, nacheinander mehrere Gleichungssysteme mit derselben Matrix
A aber verschiedenen Konstantenvektoren b zu lösen. Davon wird in manchen
Anwendungen Gebrauch gemacht.
Die algorithmische Implementierung der Zerlegung (4.16) hat bei alleiniger
Verwendung der unteren Hälfte der Matrix A die geringfügige Problematik,
daß die Zahlenwerte der Matrixelemente /ik erst dann an die Stelle der
entsprechenden aik gespeichert werden können, wenn der betreffende Elimina-
tionsschritt beendet ist. Die dargestellte Faktorizierung entspricht dem
kolonnen weisen Aufbau der Dreiecksmatrix L. Durch eine geeignete
208 4 Behandlung der linearen Gleichungssysterne
In = i-,
yall
(i = 2, 3, ... , n) (4.22)
definiert, so daß sich die Formeln (4.4) zur Berechnung der KoeffIzienten a\P
des ersten reduzierten Systems vereinfachen zu
Da gemäß (4.23) für den Reduktionsschritt neben den Matrixelementen aik mit
i~2 und k~2 nur die neu definierten Faktoren (4.22) benötigt werden,
können dieselben sofort anstelle der entsprechenden Werte an gespeichert
werden.
Die erste Endgleichung (4.8) erfährt natürlich auch eine Modifikation, damit
die neuen Werte (4.22) eine Bedeutung erhalten. Dazu ist die erste Gleichung
von (4.2) durch va;;
zu dividieren und wird, falls wir gleich die weiteren
Hilfsgrößen
(4.24)
definieren, zu
n
IllXl + I
hlXk + Cl = O. (4.25)
k=2
Die Formel (4.5) zur Berechnung der Konstanten des ersten reduzierten
Systems wird nach (4.22) und (4.24)
L=
~ ~ : ~2 ~ ~ J
131 132 133 0
141 142 143 144
Ihre Diagonalelemente sind gleich den Quadratwurzeln der Diagonalelemente
der Diagonalmatrix D in (4.15). Die Linksdreiecksmatrix L Cho1 der Cholesky-
Zerlegung entsteht aus der Linksdreiecksmatrix L Gauß der Gauß-Zerlegung
durch Multiplikation mit der Diagonalmatrix D 1/2
(4.31 )
Anstelle von (4.16) gilt somit für eine symmetrische und positiv definite Matrix
A die symmetrische Produktdarstellung
Cholesky (4.32)
Der Hilfsvektor c ergibt sich aus (4.33) durch den Prozeß des Vorwärtseinset-
zens, während sich anschließend der Lösungsvektor x aus (4.34) durch
Rückwärtseinsetzen berechnen läßt.
Die Methode von Cholesky erfordert im Vergleich zum Gauß-Algorithmus
zusätzlich die Berechnung von n Quadratwurzeln, welche einzig dadurch
210 4 Behandlung der linearen Gleichungssysteme
bedingt sind, daß die Zerlegung der Matrix A unter Wahrung der Symmetrie
durchgeführt wird. Dieser unwesentliche Mehraufwand wirkt sich einerseits in
einer Vereinfachung des Computerprogramms aus, da die Zerlegung der
Matrix A in die Linksdreiecksmatrix L auf dem Platz von A erfolgen kann, und
anderseits zeichnet sich die Methode von Cholesky durch eine bemerkenswerte
numerische Stabilität aus [Wi169]. Aus diesen beiden Gründen geben wir im
folgenden der Variante von Cholesky den Vorzug.
Eine mögliche algorithmische Beschreibung des Prozesses der Zerlegung
(4.32), basierend auf den oben entwickelten Formeln, sowie des Vorwärtsein-
setzens (4.33) und des Rückwärtseinsetzens (4.34) lautet wie folgt unter der
Annahme, daß mit den unteren Hälften der Matrizen A und L gearbeitet wird
und daß die übliche Indizierung verwendet wird. Die Anweisungen sind
teilweise im dynamischen Sinn zu verstehen, und es ist stillschweigend
angenommen, daß leere Schleifen übersprungen werden.
Zerlegung:
für p = 1,2, ... , n:
Ipp = Va;;
für i = P + 1,p + 2, ... , n: (4.32')
lip = aipllpp
Vorwärtseinsetzen:
fürk= 1,2, ... ,n:
s = bk
für i = 1,2, ... , k - 1: (4.33')
s = s - hiCi
Ck = slhk
Rückwärtseinsetzen:
für k = n, n - 1, ... , 1:
s= Ck
Auf Grund der oben gemachten Feststellung können in (4.32') die Elemente
likmit den entsprechenden Matrixelementen aik identifiziert werden, so daß
nach ausgeführter Zerlegung die Matrix A die Elemente von L enthält. Eine
analoge Identifikation ist einerseits in (4.33') für c und b und anderseits auch
in (4.34') für c und x möglich, so daß der Lösungsvektor x an der Stelle von b
erscheint.
Als Vorbereitung für die Modifikation des Cholesky-Verfahrens zur Lösung
von linearen Gleichungssystemen mit Band- und Hüllenstruktur unter dem
Gesichtspunkt einer guten Vektorisierbarkeit betrachten wir die Zerlegung
(4.32) für eine vollbesetzte Matrix A E lR n x n, wobei A und L wie folgt unterteilt
seien.
A~l a2l
[ a2l a22 (4.35)
A 3l a32
All = LllL(l;
(4.36)
Für i=2 sind All und L ll Matrizen der Ordnung Eins und es folgt für das
einzige Matrixelement 111 = ,;;;;;. Wir wollen jetzt annehmen, daß L ll für
>
ein i 2 bekannt sei und zeigen, daß III und lz2 als nächste Zeile von L
berechnet werden können. Aus (4.36) folgen die beiden Gleichungen
(4.37)
Die erste Gleichung besagt, daß der Vektor 121 durch den elementaren Prozeß
des Vorwärtseinsetzens gewonnen werden kann, weil L 11 eine Linksdreiecks-
matrix darstellt, und die zweite Gleichung liefert /22 im wesentlichen mit Hilfe
eines Skalarproduktes. Die beiden Beziehungen (4.37) bilden die Grundlage
für einen zeilenweisen Aufbau der Matrix L der Cholesky-Zerlegung
(4.32).
212 4 Behandlung der linearen Gleichungssysteme
gilt als Folge der Bandstruktur von A mit ai! = 0 für i-I> m. Nach (4.23)
überträgt sich die Bandgestalt von A auf die Matrix Al mit derselben
Bandbreite m, da für ein reduziertes Element der unteren Hälfte
(4.40)
mit i > k + m sowohl das Matrixelement aik verschwindet als auch wegen (4.39)
Ii! = 0 ist, da i> k + m ;> m + 2 gilt. Daraus folgt die Behauptung
x
xx
xxx
xx xl~"
xxxxIX',
xx 'xx',
x XiX x x",
x ~2<_~_~_',.
xxxxx
xxxxx
xxxxx
xxxx~~,
xxxx x'"
xx 'xx', Fig.4.l
x ~X2<~,
Zur Reduktion einer symmetrischen Bandmatrix
4.2 Rechentechniken für Bandmatrizen 213
o 0 0 0 X
o 0 X X
o XXX
~
o ~XX~
X xi
xi
X
__
~ ~~_~J
xxxxx
xxxxx
xxxxx
xxxx[g]
XM!5<1
X xi Fig.4.2
X ~ __>$_~J
Zur Cholesky-Zerlegung einer Bandmatrix
o 0 0 a11 0 0 a21
Die Cholesky-Zerlegung soll jetzt mit einem zeilenweisen Aufbau der MatrixL
erfolgen gemäß (4.37). Zur Berechnung der Elemente der i-ten Zeile von L mit
2 ~ i ~ m stellt L 11 in (4.37) eine Linksdreiecksmatrix der Ordnung (i - 1) dar,
und das Element Ilj mit I ~j ~ i-I berechnet sich nach der Formel
Ilj = (alj - J
k=1
I : lik1Jk)/ljJ, Ci = 1,2, ... , i-I), (4.41)
ergibt. Für m < i ~ n ist zu beachten, daß einerseits die Matrix L Bandstruktur
besitzt und anderseits im Vektor a21 wegen der Bandgestalt von A nur die
4.2 Rechentechniken für Bandmatrizen 215
letzten m Komponenten VOn Null verschieden sind, wasja auch für hl zutrifft.
Deshalb beschränkt sich der Prozeß des Vorwärtseinsetzens zur Berechnung
der relevanten Elemente von 121 auf eine Untermatrix, welche nur die
vorhergehenden m Zeilen von L umfaßt und selbst von Dreiecksgestalt ist. Die
Formeln (4.41) sind zu modifizieren in
lij = ( aij - L
j-l )
lik1jk Iljj , (j = i - m, i - m + 1, ... , i-I), (4.43)
k=l-m
für i = 2, 3, ... , n:
f = max (1, i - m)
für} = f,f+ 1, ... , i:
(4.44)
für k = f, f + 1, ... ,} - 1:
s = s -likljk
falls} < i dann lij = siljj
sonst li; = .JS
Da das Matrixelement aij in (4.44) zum letzten Mal gebraucht wird zur
Berechnung von lij, kann I mit a identifiziert werden, so daß nach vollendetem
Algorithmus die Matrix A durch L ersetzt ist. Dabei wird L zeilenweise
aufgebaut in der Art, daß in der Anordnung von A gemäß Fig.4.3 der
Zerlegungsprozeß VOn links nach rechts fortschreitet. Injedem Stadium ist nur
der Zugriff auf höchstens (m + 1)2 Matrixelemente erforderlich, welche zudem
aufeinanderfolgend gespeichert sind. Dies wirkt sich vorteilhaft aus bei
Rechnern mit virtuellem Speicher, da die Zahl der Seitenwechsel reduziert
wird. Schließlich sind im wesentlichen in der innersten Schleife Skalarproduk-
te zu bilden von Vektoren, welche der i-ten und}-ten Zeile von L entnommen
sind. Ihre Komponenten sind je aufeinanderfolgend gespeichert, so daß diese
Operationen vektorisierbar sind. Allerdings nimmt die Länge des Skalarpro-
duktes von 1 auf (m - 1) zu.
216 4 Behandlung der linearen Gleichungssysteme
Cj = S//ii
für i = n, n - 1, ... , 1:
Xi = - C;//ii
In (4.46) gilt wiederum, daß c durch x ersetzt werden kann. Dasselbe muß dann
auch in (4.45) geschehen, so daß der Hilfsvektor c eliminiert ist. Im Prinzip läßt
sich weiter x mit b identifizieren, derart daß der Lösungsvektor x anstelle von b
resultiert.
4.2 Rechentechniken für Bandmatrizen 217
multiplikative Operationen und ist gleich dem doppelten Wert des Profils p
(3.14) der Matrix A. Da im Regelfall die Bandbreite m von den zeilenabhängi-
gen Bandbreiten mi(A) nur selten ausgeschöpft wird, ist ZV+R (4.47) oft um
einiges kleiner als 2n(m + I).
Die Größe des verfügbaren Zentralspeichers begrenzt die Anzahl der speicher-
baren Matrixelemente und setzt für das Produkt aus der Ordnung n und der
Bandbreite m der lösbaren Gleichungssysteme eine Limite. Zur Behandlung
von größeren Systemen müssen Hilfsspeicher benutzt werden, und der
Speicher mit schnellem Zugriff wird nur diejenigen Zahlenwerte enthalten, die
momentan zur Ausführung einer bestimmten Teiloperation nötig sind.
218 4 Behandlung der linearen Gleichungssysteme
Für diese Untermatrix All der Ordnung m ist als Vorbereitung die Cholesky-
Zerlegung All = LllLfl nach einer der beiden dargelegten Varianten zu
berechnen, und die resultierende Teilmatrix L 11 ist zeilenweise in den
Hilfsspeicher zu übertragen. Jetzt ist die (m + l)-te Zeile von A in den
Zentralspeicher zu holen, so daß dort die Situation gemäß Fig. 4.5 herrscht.
Die (m + 1)-te Zeile von L berechnet sich vermittels (4.41) und (4.42), wobei die
resultierenden I-Werte an die Stelle der a-Werte gesetzt werden können. Nach
vollendeter Berechnung der neuen Zeile von L ist dieselbe in den Hilfsspeicher
zu übertragen. Zudem ist im Arbeitsfeld die Untermatrix umzuspeichern, um
für die Behandlung der nächsten Zeile die analoge Situation zur Fig. 4.5 zu
schaffen, und die nächste Zeile von A ist zu transferieren (vgl. Fig.4.6).
Die Umspeicherung von L braucht nicht erst nach vollendeter Berechnung der
neuen Zeile zu erfolgen, wenn man beachtet, daß beispielsweise das erste
4.3 Hüllenorientierte Rechentechniken 219
Diagonalelement der Untermatrix nicht mehr benötigt wird, sobald das erste
Element der neuen Zeile berechnet ist. Deshalb kann im Verlauf der
Berechnung des zweiten Elements bereits das zweite Diagonalelement umge-
speichert werden. So kann für k > 1 die Berechnung des k-ten neuen Elementes
mit der gleichzeitigen Umspeicherung der k-ten Teilzeile der Untermatrix
kombiniert werden.
Die Prozesse des Vorwärts- und Rückwärtseinsetzens erfolgen mit Hilfe der
Zeilen von L, welche im ersten Fall in aufsteigender und im zweiten Fall in
absteigender Reihenfolge vom Hilfsspeicher geholt werden müssen. Die
Algorithmen (4.45) und (4.46) sind nur mit den entsprechenden Transferope-
rationen zu versehen. Der Speicherbedarf im Zentralspeicher beläuft sich nur
auf gut m + n Plätze, falls die Vektoren h, c und x miteinander identifiziert
werden.
Das Verfahren von Cholesky für sehr große Bandgleichungssysteme wurde der
Durchsichtigkeit halber auf der Basis des Transfers einer einzigen Zeile von A,
bzw. von L beschrieben. In Abhängigkeit von der Bandbreite m und der Größe
des Zentralspeichers sind Varianten möglich, bei denen gleichzeitig mehrere
Zeilen transferiert werden. Bei geschickter Organisation und entsprechenden
technischen Möglichkeiten lassen sich Transferoperationen und arithmetische
Operationen entkoppeln, so daß sie weitgehend parallel ablaufen können und
Wartezeiten der Zentraleinheit minimal werden.
Als Verfeinerung des Begriffs der Bandstruktur wurde im Abschn. 3.2.3 die
Hülle oder Enveloppe einer symetrischen Matrix eingeführt. Das Beispiel
3.8 zeigt, daß das Profil einer Matrix bei geeigneter Numerierung der
Knotenvariablen nach dem umgekehrten CuthiIl-McKee Algorithmus bedeu-
tend kleiner sein kann als der Wert n(m + 1), falls nur die Bandstruktur
berücksichtigt wird.
Zur numerischen Lösung eines linearen Gleichungssystems mit dem Gauß-
Algorithmus oder mit der Methode von Cholesky genügt es jedoch mit den
Elementen der Matrix A zu arbeiten, welche der Hülle von A angehören. Um
220 4 Behandlung der linearen Gleichungssysteme
das einzusehen soll gezeigt werden, daß durch den Eliminationsprozeß höch-
stens diejenigen Elemente verändert werden, welche der Hülle angehören.
Somit ist das sogenannte A uffüllen der Matrix (englisch: Fill-in)nichtnurauf
das Band sondern sogar auf die Hülle beschränkt. Es genügt zu zeigen, daß der
erste Reduktionsschritt gemäß (4.22) und (4.23) nur Elemente der Hülle betrifft,
weil dann diese Tatsache auch für die folgenden Eliminationsschritte zutrifft.
In der Tat liefern offensichtlich nur jene Elemente ai! der ersten Kolonne von A
von Null verschiedene Werte Ii!, welche zur Hülle gehören. Die Berechnung
der ersten Kolonne der Cholesky-Matrix L führt damit sicher nicht zur Hülle
heraus. Nun wenden wir uns dem Eliminationsschritt zu. Hier sind zwei Fälle
zu unterscheiden. Falls das Indexpaar (i, 1) mit i ~ 2 zur Hülle von A gehört, so
ist ai! i= 0 und damit auch Ii! =1= O. Für die betreffende i-te Zeile istfi(A) = 1, und
somit gilt für alle Indexpaare (i, k) E Env(A) mit 2< k < i. Genau die
entsprechenden Matrixelemente werden aber von der Elimination mit Ii!
erfaßt. Es sei aber gleich festgehalten, daß nur jene Elemente aik auch
tatsächlich verändert werden, falls hl =1= 0 ist. Falls also aik = 0 ist, erfolgt nur
dann ein Auffüllen mit aW =1= 0, wenn hl =1= O. Für die Hülle der reduzierten
MatrixA 1 gilt also für die i-te Zeile in diesem Fallfi(A 1) = 2 > fi(A) = 1. Gehört
aber das Indexpaar (i, 1) mit i~2 nicht zur Hülle von A, so bedeutet dies
fi(A) > 1, ai! = 0 und damit auch Ii! = O. Daraus folgt, daß die ganze i-te Zeile
von A unverändet bleibt, und es gilt damitfi(A I) = fi(A). Die Kombination der
beiden Aussagen über die Zeilenbandbreiten bedeutet aber, daß die Hülle von
Al in der Hülle von A enthalten ist:
Env(A 1) C Env(A) (4.48)
Da die Hülle einer Matrix nur Indexpaare von Elementen in und unterhalb der
Diagonalen betrifft, folgt weiter, daß die Hülle von L identisch ist mit
derjenigen von A, d. h. es gilt
Env(L) = Env(A). (4.49)
111 = Va;;
für i = 2, 3, ... , n:
für} = ji,ji + 1, ... , i:
5 = aij
Das Matrixelement aij mit (i,j) E Env(A) ist als k-te Komponente des
eindimensionalen Feldes gespeichert mit
Im Algorithmus (4.50) sind die Indexpaare (i,j) der Matrixelemente durch den
Wert (4.52) zu ersetzen, um der kompakten Speicherung von A Rechnung zu
tragen.
Der Prozeß des Vorwärtseinsetzens läßt sich in Analogie zu demjenigen für
Bandmatrizen formulieren, wobei die Indexwerte J;(A) Verwendung finden.
Wegen (4.51) ist es zweckmäßig, den ersten Wert CI getrennt zu behandeln.
CI = bI!111
für i = 2,3, ... , n:
s =b i
für j = J;, J; + 1, ... , i-I: (4.52)
s = s -lijCj
Ci = sllii
L II und D I für ein i ~ 2 berechnet seien. Dann lassen sich III und anschließend
d2 wegen (4.55) berechnen aus
L ll D I / 21 = a21 und d2 = a22 -/!JDlhl. (4.56)
Mit dem Hilfsvektor y E IR (i-I) erhalten wir 121 vermittels der beiden
Teiloperationen
(4.57)
d. h. durch ein Vorwärtseinsetzen den Vektor y und dann durch eine
komponentenweise Division mit den Diagonalelementen der Diagonalmatrix
D I die Elemente der i-ten Zeile von L. Das neue Diagonalelement d2 ergibt sich
aus a22 durch Subtraktion des Skalarproduktes, gebildet aus /21 undy = D I /2\.
Bei der Implementierung von (4.57) ist zu beachten, daß die Diagonalelemente
von L II gleich Eins sind, so daß die erste Komponente von y gleich der ersten
Komponente von a21 ist. In der nachfolgenden aigorithmischen Beschreibung
der Zerlegung vonA = LDLT wird der Vektor y an der Stelle der i-ten Zeile von
A aufgebaut, weshalb diese Berechnung erst mit dem zweiten Element der i-ten
Zeile startet. Da y und 121 benötigt werden zur Ermittlung des Hen
Diagonalelementes ist für letzteren ein Hilfsvektor erforderlich. Erst nach
Berechnung von d ii kann eine Umspeicherung erfolgen. Schließlich werden zur
Vermeidung der Divisionen die Kehrwerte der Diagonalelemente gespeichert
an den Ort der ursprünglichen Diagonalelemente.
all = I/all
für i = 2, 3, ... , n:
für} = Ji + I,Ji + 2, ... , i - 1:
= max (Ji,jj)
fl
für k = fl, fl + 1, ... ,} - 1:
aij = aij - aikajk
für} = Ji,Ji + 1, ... , i-I: (4.58)
lj = aijajj
für} = Ji,Ji + 1, ... , i-I:
aii = aii - aylj
für} = Ji,Ji + 1, ... , i-I:
a y = lj
aii = l/aii
Xj=-h
für i = 2, 3, ... , n:
xi=-b i (4.59)
für j = /;,/; + 1, ... , i-I:
für i = 1, 2, ... , n:
(4.60)
Xi = Xilii
Die innersten Schleifen in (4.59) und (4.61) lassen eine gute Vektorisierung zu
als Skalarprodukt, bzw. Triade für aufeinanderfolge nd gespeicherte Kompo-
nenten. In der Speicherung gemäß Fig. 4.7 ist (4.60) weniger gut vektorisier-
bar, weil die Diagonalelemente lji nicht einmal gleichabständig gespeichert
sind. Um auch in diesem Schritt eine optimale Vektorisierung zu erreichen, ist
die Datenstruktur zu ändern. Dazu sind die Diagonalelemente der Matrix A
und damit auch von L so zusammenzufassen, daß sie aufeinanderfolgend
gespeichert sind. Eine mögliche Realisierung besteht darin, zuerst die Nicht-
diagonalelemente der Hülle zeilenweise, je aufeinanderfolgend, und anschlie-
ßend die n Diagonalelemente im eindimensionalen Feld anzuordnen (vgl.
Fig.4.8). Die Zeigerwerte Zi geben jetzt die Position des letzten Nichtdiago-
nalelementes der i-ten Zeile an, und das i-te Diagonalelement befindet sich an
der Stelle k = Zn + i.
Damit die beschriebene Rechentechnik für eine der beiden Datenstrukturen
zur kompakten Speicherung der Matrixelemente der Hülle überhaupt an-
wendbar ist, muß die Systemmatrix selbstverständlich auch in der betreffen-
den Form aufgebaut werden. Der Speicherplan muß vor Beginn der Kompila-
tion der Gesamtsteifigkeitsmatrix (und der Gesamtmassenmatrix im Fall von
Eigenwertaufgaben) bekannt sein. In beiden Speicherungsarten spielen die n
Werte j,(A) die zentrale Rolle, welche sich für die aktuelle Numerierung der
226 4 Behandlung der linearen Gleichungssysteme
A=
während sie im Fall der Datenstruktur von Fig. 4.8 gegeben sind durch
ZI = 0, Zi = Zi-l +i - h(A), (i = 2, 3, ... , n). (4.63)
Der prinzipielle Aufbau eines Computerprogramms nach Fig. 3.6 ändert sich
nicht. Die Berücksichtigung der Randbedingungen ist selbstverständlich dem
Speicherplan anzupassen.
Eine besondere Technik zur Lösung der sehr großen linearen Gleichungssyste-
me, die bei der Anwendung der Methode der finiten Elemente auftreten,
besteht darin, den Kompilationsprozeß zur Aufstellung der Gleichungen mit
der sukzessiven Cholesky-ZerJegung und dem Vorwärtseinsetzen zu kombi-
nieren. Die Idee beruht auf der schon im Abschn. 4.2 gemachten Feststellung,
daß für eine Bandmatrix mit der Bandbreite m für jeden Eliminationsschritt
nur (m + I) aufeinanderfolgende Zeilen der Matrix im Zentralspeicher verfüg-
bar sein müssen. Diese Tatsache wird in der einfachen und durchsichtigen
Bandlösungsmethode in der Weise ausgenützt, daß die Gleichungen in
strikt aufsteigender Reihenfolge zusammen mit den damit verknüpften m
nachfolgenden Gleichungen aufgebaut werden. Sobald alle Elemente, welche
die Knotenvariable mit dem kleinsten momentanen Index enthalten, im
4.4 Band- und Frontlösungsmethode 227
I Start I
t
Eingabe von allgemeinen Problemdaten, wie Zahl
der Knotenvariablen, Zahl der Elemente, Zahl
,
der Eckpunkte, Bandbreite m, allgemein gültige
physikalische Konstanten, etc.
I •
Elementzähler: i = I
Gleichungszähler: p = 1
I
t
Daten des i-ten Elementes wie Typus, beteiligte
Knotenvariable und weitere Parameter.
,
Bestimmung der kleinsten Variablennurnmer q .
N • I
q>p?
J
Fig.4.11
Bandlösungsmethode
Tab.4.1 Knotennummern pro Element
Element PI P2 P3 P4 Pj P6 q P
1 I 3 11 2 7 6 1 -
2 3 13 11 8 12 7 3 1-2
3 5 13 3 9 8 4 3 -
4 5 15 13 10 14 9 5 3-4
5 11 13 24 12 18 17 11 5-10
6 13 26 24 1 25 18 13 11-12
7 15 26 13 20 19 14 13 -
8 15 28 26 21 27 20 15 13-14
9 15 22 28 16 23 21 15 -
10 26 33 24 30 29 25 24 15-23
11 26 35 33 31 34 30 26 24-25
12 28 35 26 32 31 27 26 -
13 35 38 33 37 36 34 33 26-32
- - - - - - - 39 33-38
Kolonne zeigt die Indexwerte p an, für welche die Elimination durchführbar
ist, bevor das betreffende Element in den Kompilationsprozeß eingeht. An
Fig. 4.11 können mit Hilfe der Tab. 4.1 die abwechselnden Kompi1ations- und
Eliminationsschritte nachvollzogen werden. Nach erfolgter Kompilation des
letzten Elementes wird q = 39 gesetzt, und die restlichen endgültigen Gleichun-
gen 33 bis 38 können dem Eliminationsprozeß unterzogen werden.
13 14 15 16 17 18 19 20 21 22 23 24 25 26
13 X
14 XX
r--------------------
15 X XiX
16 I
X I X
17 I
18 X I XX
I
19 X XI XX
I
20 X XI XX
21 I
I
22 I
I
23 I
I
24 X XXX X
I
I
Fig.4.l2
25 X XX XX
I Aktiver Teil der Gesamtmatrix,
26 X XI XXX XXX
Bandlösungsmethode
Greifen wir die Situation nach erfolgter Addition des Beitrages von Element 7
heraus. In Fig.4.12 ist der aktive untere Teil der Gesamtmatrix in der
normalen Anordnung wiedergegeben, wobei die potentiell von Null verschie-
denen Elemente mit einem Kreuz markiert sind. Zur besseren Orientierung
sind die Indexwerte der Knotenvariablen und Gleichungen oben und am
linken Rand angegeben. Man beachte, daß in diesem Stadium die Diagonalele-
mente der Gesamtmatrix mit den Indexwerten 16,21,22 und 23 noch den Wert
Null besitzen, wie auch die zugehörigen Zeilen, da die betreffenden Knoten-
punkte erst in den Elementen 8 und 9 auftreten. Da überdies die Bandbreite der
Gesamtmatrix m = 13 beträgt, wird der gesamte Arbeitsbereich für 14
aufeinanderfolgende Zeilen in der momentanen Situation auch benötigt.
In Fig.4.l2 ist vereinfachend nicht berücksichtigt, daß im speziellen die
Variablen U15 und U24 durch Randwerte vorgegeben sind. Deshalb dürften in
den zugehörigen Zeilen und Kolonnen keine von Null verschiedenen Elemente
vorhanden sein.
Bevor der Beitrag von Element 8 im aktiven Teil der Systemmatrix verarbeitet
werden kann, sind die Gleichungen 13 und 14 zu eliminieren. Die unbekannte
Knotenvariable Ul3 ist bei diesem Eliminationsschritt im Prinzip mit allen
Variablen U14 bis U26 verknüpft. Die Menge dieser Knotenvariablen bildet die
sogenannte momentane Front im Eliminationsprozeß. Die zugehörigen
Knotenpunkte sind in Fig. 4.12 durch ausgefüllte Kreise hervorgehoben.
4.4 Band- und Frontlösungsmethode 233
Sobald auch U14 eliminiert ist, stehen die Elemente im eingerahmten Teilbe-
reich nach ihrer Reduktion um zwei Plätze nach links oben verschoben. Unten
erscheinen zwei leere, mit Nullwerten aufgefüllte Zeilen, welche damit für die
Aufnahme der Beiträge des Elementes 8 bezüglich der Knotenvariablen 27 und
28 bereit sind.
Am Beispiel 4.1 ist eine Schwäche des Bandlösungsverfahrens erkennbar.
Obwohl die gewählte Numerierung nicht der optimalen mit minimaler
Bandbreite entspricht, so wird aus der Fig. 4.12 deutlich, daß der aktive Teil
der Gesamtmatrix einige Zeilen und Kolonnen enthält, welche überhaupt
nicht besetzt sind, weil sie Unbekannten entsprechen, welche Elementen
angehören, die erst in einem späteren Kompilationsschritt behandelt werden,
deren Indizes aber kleiner als 26 sind. Im besonderen betrifft dies die
Knotenvariablen U16, U21, U22 und U23, welche im betrachteten Stadium der
Bandlösungsmethode nicht nur den aktiven Teil der Matrix, sondern auch den
Rechenaufwand unnötigerweise erhöhen. ...
Die Idee der Bandlösungsmethode kann aber so verfeinert werden, daß eine im
allgemeinen entscheidend effizientere Durchführung der Kompilations-/Eli-
minationsschritte resultiert. Dazu muß man nicht die Numerierung der
Knotenvariablen in den Vordergrund stellen, sondern die Kompilation und
die Elimination sollen auf der Basis der Elemente durchgeführt werden.
Dieses Vorgehen wurde von Irons [Iro70, IrA80] und von Melosh und
Bamford [MeB69] als Frontlösungsmethode vorgeschlagen. Das prinzi-
pielle Vorgehen besteht aus folgenden Schritten: Der Kompilationsprozeß
wird mit einem geeigneten Element gestartet und die entsprechende Element-
matrix in der sogenannten aktiven Frontmatrix A gespeichert, wofür in
diesem Moment nur der Platz der unteren Hälfte der Elementmatrix erforder-
lich ist. Desgleichen wird der Elementvektor in einem aktiven Konstanten-
vektor b abgespeichert. Zusätzlich sind im sogenannten Frontvektor die
Indizes der aktiven Knotenvariablen, zugehörig zur Frontmatrix, festzuhal-
ten.
Sind unter den aktiven Knotenvariablen solche enthalten, die in den weiteren
Elementen nicht mehr auftreten, so sind die betreffenden Gleichungen der
aktiven Frontmatrix und des aktiven Konstantenvektors endgültig und
können somit eliminiert werden. Im allgemeinen sind die entsprechenden
Unbekannten nicht an der ersten Stelle der Frontmatrix. Deshalb ist der
Reduktionsschritt der Cholesky-Methode zu modifizieren. Hat die aktive
Frontmatrix A die momentane Ordnung m, soll die p-te Unbekannte eliminiert
werden, so wird im Hilfsvektor I mit den (m + 1) Komponenten
Im+l :=bp/lpp
234 4 Behandlung der linearen Gleichungssysteme
17 24 29 33 36 38
Fig.4.13
Zur Frontlösungsmethode 22
236 4 Behandlung der linearen Gleichungssysteme
Element PI P2 P3 P4 Ps P6
I -I 3 II -2 7 -6
2 3 13 II 8 12 -7
3 5 13 -3 9 -8 -4
4 -11 13 24 -12 18 -17
5 -5 15 13 -10 14 -9
6 13 26 24 19 25 -18
7 15 26 -13 20 -19 -14
8 26 33 -24 30 -29 -25
9 15 28 26 21 27 -20
10 26 35 33 31 34 -30
11 -15 -22 28 -16 -23 -21
12 -28 35 -26 -32 -31 -27
13 "':35 -38 -33 -37 -36 -34
Man erkennt daran, wie die Dimension des Frontvektors zunimmt, aber auch
abnehmen kann. In diesem einfachen Beispiel bleibt die Ordnung der
Frontmatrix von Element 3 bis Element 9 konstant gleich 8, weil die
hinzukommenden Knotenvariablen jeweilen die frei gewordenen Plätze
einnehmen können. Die ma~imale Frontl:ireite ist 'gleich i2 und wird mit dem
Element 11 erreicht. Die Ordnung der Frontmatrix nimmt anschließend auf 10
ab, doch bleiben zwei Zeilen und Kolonnen beFder'Bearbeitung von Element
12 unbenützt. Diese Situation ist im 13. Schritt noch ausgeprägter, da dort
sogar vier Stellen im Frontvektor leere Plätze signalisieren. Dies ist eine
analoge Eigenschaft, wie sie im Bandlösungsverfahren festgestellt worden ist.
In der Frontlösungsmethode könnte diese Situation im Prinzip durch eine
Umspeicherung der Frontmatrix verbessert werden, doch würde dies die
Bereitstellung von zusätzlicher Information für das Rückwärtseinsetzen
4.4 Band- und Frontlösungsmethode 237
EI. Frontvektoren
1 (1,3,11,2,7,6) (0,3,11,0,7,0)
2 (13,3,11,8,7,12) (13,3,11,8,0,12)
3 (13,3,11,8,5,12,9,4) (13,0,11,0,5,12,9,0)
4 (13,24,11,18,5,12,9,17) (13,24,0,18,5,0,9,0)
5 (13,24,15,18,5,10,9,14) (13,24,15,18,0,0,0,14)
6 (13,24,15,18,26,19,25,14) (13,24,15,0,26,19,25,14)
7 (13,24,15,20,26,19,25,14) (0,24,15,20,26,0,25,0)
8 (33,24,15,20,26,30,25,29) (33,0,15,20,26,30,0,0)
9 (33,28,15,20,26,30,21,27) (33,28,15,0,26,30,21,27)
10 (33,28,15,35,26,30,21,27,31,34) (33,28,15,35,26,0,21,27,31,34)
11 (33,28,15,35,26,22,21,27,31,34,16,23) (33,28,0,35,26,0,0,27,31,34)
12 (33,28,32,35,26,0,0,27,31,34) (33,0,0,35,0,0,0,0,0,34)
13 (33,38,37,35,36,0,0,0,0,34) -
erfordern. In Fig. 4.13 sind die aktiven Knotenpunkte während der Behand-
lung von Element 9 durch ausgefüllte Kreise gekennzeichnet. Sie bilden die
sogenannte Front der Frontlösungsmethode. ...
Im Vergleich zur Bandlösungsmethode besitzt die Frontlösungsmethode
wesentliche rechentechnische Vorteile. Insbesondere ist die maximale Front-
breite nicht größer als die Bandbreite, und die aktuelle Frontmatrix besitzt oft
eine bedeutend kleinere, und zudem variable Ordnung, so daß für den
Eliminationsprozeß eine entscheidende Reduktion des Rechenaufwandes
resultiert. Dasselbe trifft auch in vermindertem Maß für das Rückwärtseinset-
zen zu. Kann schließlich durch eine geeignete Elementnumerierung eine im
Vergleich zur minimalen Bandbreite echt kleinere maximale Frontbreite
erzielt werden, so ist es möglich, auf Kleinrechnern bedeutend größere
Probleme zu bearbeiten.
Da die Frontlösungsmethode auf der Basis der Elemente arbeitet und nicht auf
der Numerierung der Knotenpunkte basiert, läßt sich die lokale Verfeinerung
einer gegebenen Elementeinteilung sehr einfach behandeln. Ist es nötig, lokal
einige Elemente zu unterteilen, so können die neu hinzukommenden Knoten-
punkte schlicht fortlaufend mit höheren Nummern versehen werden. Dadurch
werden die bisherigen Daten von Eckenkoordinaten nicht beeinflußt, sondern
brauchen nur ergänzt zu werden. Ferner sind die unterteilten Elemente im
wesentlichen nur durch die neuen zu ersetzen, falls auf eine Optimierung der
maximalen Frontbreite verzichtet wird. Andernfalls ist die Elementreihenfol-
ge neu festzulegen.
Die Frontlösungsmethode ist in neuerer Zeit verallgemeinert worden zu
sogenannten Mehrfrontenverfahren, um so zu erreichen, daß an mehreren
238 4 Behandlung der linearen Gleichungssysteme
4.5 Blockeliminationsmethoden
A".-------,
Fig.4.l4
c:k:....--------IQ Einteilung in Teilgebiete
4.5 Blockeliminationsmethoden 239
GI I bisp KL s + I bis t
G2 p + I bis q AI t + I bis U
G3 q + I bis r BH u + I bis V
G4 r + I bis s CF v + I bis w
DE w + I bis n
Weiter werden die Knotenvariablen der einzelnen Teilgebiete, die weder auf
den Schnitten noch auf den Randstücken DE und KL liegen, je fortlaufend
numeriert. Anschließend erhalten die Knotenvariablen auf den beiden Rand-
stücken und den Schnitten die weiteren Nummern gemäß Tab. 4.4.
Für das folgende treffen wir noch die Zusatzannahme, daß die Elementeintei-
lungen der Teilgebiete genügend fein seien, so daß die Knotenpunkte auf
verschiedenen Schnitten keinem Element gemeinsam angehören. Dann besitzt
die Gesamtsteifigkeitsmatrix ganz unabhängig von der Art der Ansatzfunktio-
nen die Blockstruktur nach Fig. 4.15. Die Untermatrizen längs der Diagonalen
sind quadratisch und besitzen bei geeigneten Numerierungen innerhalb der
Teilgebiete oft Bandgestalt. Die im allgemeinen rechteckigen Untermatrizen
außerhalb der Diagonale sind in der Regel schwach besetzt, da die zugehörigen
Knotenvariablen der Schnitte nur mit den Knotenvariablen der nächstgelege-
nen Knotenpunkte der Teilgebiete verknüpft sind.
Falls die in Fig. 4.15 auftretenden, von Null verschiedenen Untermatrizen als
vollbesetzt angesehen werden, so besitzt die Cholesky-Matrix L der Zerlegung
A = LL T fast die gleiche Blockstruktur. Auf Grund der Betrachtungen über
das Auffüllen einer Matrix innerhalb ihrer Hülle im Verlauf der Cholesky-
Zerlegung betrifft der Fill-in höchstens Untermatrizen, welche rechts von den
von Null verschiedenen nichtdiagonalen Untermatrizen liegen. Eine genauere
A· L·
q q
Fig.4.15 Grundsätzliche Blockstruktur Fig. 4.16 Blockstruktur der
der Systemmatrix Cholesky-Matrix L
240 4 Behandlung der linearen Gleichungssysteme
Analyse zeigt im vorliegenden Fall, daß sich das Auffüllen in L auf die
wenigen, in Fig. 4.16 schraffierten Untermatrizen beschränkt. ..
Anmerkung Die Gesamtsteifigkeitsmatrix erhält eine tridiagonale Blockstruk-
tur, falls die Knotenpunkte in naheliegender Weise so durchnumeriert werden,
daß in einem Randstück, etwa KL, begonnen wird und dann abwechslungswei-
se diejenigen des anschließenden Teilgebietes und dann des andern Schnittes
fortlaufend numeriert werden. Diese spezielle Blockstruktur ist im betrachte-
ten Beispiel nur möglich auf Grund der gewählten Gebietsunterteilung.
Um das prinzipielle Vorgehen der Blockeliminationsmethode darzulegen,
betrachten wir die genügend repräsentative Situation, einer Partitionierung
der Matrix A in neun Untermatrizen mit entsprechender Aufteilung des
Lösungs- und des Konstantenvektors. Das zu lösende Gleichungssystem laute
(4.66)
Die Matrizen A ii sind quadratisch, symmetrisch und auch positiv definit, sie
können von unterschiedlicher Ordnung sein. Deshalb sind die Matrizen A ik
(i =I=- k) im allgemeinen rechteckig, doch symmetrisch zur Diagonale gelegene
Untermatrizen sind transponiert zueinander, d. h. es gilt A ik = Ali. Bei
entsprechender Partitionierung hat die Cholesky-Matrix L die Form
(4.67)
L Z1 LL +L 22 IJz=A 22 , (4.69)
L 31 Lh + L 3Z Lh + L 33 L1 = A 33 • (4.71)
Nach der ersten Matrizengleichung von (4.68) ist L 11 die Cholesky-Matrix All
und kann auf bekannte Weise berechnet werden. Die nichtdiagonalen
Blockmatrizen L Z1 und L 31 sind nach (4.68) formal gegeben durch
(4.72)
4.5 Blockeliminationsmethoden 241
(4.76)
Ein Vergleich der blockweisen Cholesky-Zerlegung mit der elementweisen
Zerlegung nach Abschn. 4.1 zeigt, daß sich folgende Operationen entsprechen:
Das Ziehen der Quadratwurzel aus einem reduzierten Diagonalelement wird
ersetzt durch eine Cholesky-Zerlegung einer reduzierten Untermatrix in der
Diagonale. Die Division eines Nichtdiagonalelementes durch ein Diagonalele-
ment entspricht jetzt einem Vorwärtseinsetzen, angewandt auf die Zeilen einer
reduzierten nichtdiagonalen Blockmatrix, und ein Reduktionsschritt eines
Elementes wird ersetzt durch eine Subtraktion eines Matrixproduktes von
einer entsprechenden Blockmatrix.
Die Durchführung der blockweisen Zerlegung erfordert pro Schritt im
Maximum den gleichzeitigen Zugriff auf drei Untermatrizen im Zentralspei-
cher im Fall der Reduktion einer nichtdiagonalen Blockmatrix nach (4.75).
Sind die Blockmatrizen zeilenweise vom externen Speicher abrufbar, kann
der Speicherbedarf im wesentlichen auf den Platz von zwei Matrizen verrin-
242 4 Behandlung der linearen Gleichungssysteme
(4.77)
I Start I
t
I p:= 1I
,
,
Hole App ; App = LppL~p (Cholesky)
Lpp --+ externer Speicher
J
Ende P = IJ? 1
I i :=p+
'N 1 I
t
N
Ajp *O?
I
tJ
Hole Ajp (und falls nötig Lpp )
Lppqp = A;p (Vorwärtseinsetzen)
Ljp - .... externer Speicher
t
I k:= p + 1I
r
J , N
i?
k
t N
HoleA jj ; 1 Lkp *O? k :=k+ 11
, J
Ajj := A jj - LjpLTp
A jj - .... ext. Speicher Falls Ajk * 0:
Hole Ajk> sonst Ajk = O.
Hole L kp r--
N
I i = IJ? i :=i + 1
J
p:= p+ 1
Fig.4.17 Blockweise Cholesky-Zerlegung bei Verwendung von
externem Speicher
244 4 Behandlung der linearen Gleichungssysteme
A 33 A 37 A 38
A 44 A 48 A 49
A 72 A 73 An
A 83 A 84 A 88
A 94 A 99
(4.80)
(4.81)
All AIS
A 22 A 2S A 26
A 33 A 36
A= (4.82)
A 44 A 46
A SI A S2 Ass
A 62 A 63 A 64 A 66
Fig.4.18
Graph G(A) der Matrix A (4.82)
und gleich dem Residuenvektor , zum Vektor x ist. Der Gradient der
Funktion F(x) weist im Punkt x in die Richtung der lokal stärksten Zunahme
der zu minimierenden Funktion F(x). Es ist deshalb sehr naheliegend, die
Richtung des negativen Gradienten zur Festlegung der Relaxationsrich-
tung zu verwenden, in welcher das Minimum von F(x) in einem Relaxations-
schritt zu suchen ist. Ohne auf Details einzugehen, sollen im folgenden nur die
wesentlichen Punkte des Verfahrens skizziert werden, welche zum Algorith-
mus führen. Für die detaillierte Herleitung mit den zugehörigen Beweisen sei
auf [SRS72] verwiesen, von wo auch die Schreibweise übernommen ist.
Es bedeutet v(O) einen gewählten Startvektor. Um F(v(l)) < F(v(O)) zu erreichen,
wird im ersten Schritt des Verfahrens die Relaxationsrichtungp(l) durch den
negativen Residuenvektor ,(0) = Av (0) + b festgelegt.
Ausgehend von v(O) sucht man in Richtung p(l) das Minimum der Funktion
F(v). Mit dem Parameter ql im Ansatz
(4.87)
Der Koeffizient ek - 1 bestimmt sich aus der Bedingung der Konjugiertheit von
und p(k-l), nämlich
p(k)
p(k)TAp(k-l) = 0
(k-l)T A (k-I)
zu ek-I= '(k-l)TAP(k-l) , (k~2). (4.88)
P P
Mit der nach (4.87) und (4.88) bestimmten Richtungp(k) ergibt sich der neue
Näherungsvektor
(4.89)
4.6 Iterative Methoden 251
wobei die Darstellung für qk wegen (4.86) auch für k = 1 gilt. Infolge der
positiven Definitheit von A sind die Zahlwerte ek - I und qk als Quotienten VOn
positiven Ausdrücken gegeben. Solange r(k -IL,", 0 ist, d. h. v(k - I) nicht die
Lösung des Gleichungssystems darstellt, sind ek - I und qk positiv.
Das Verfahren der konjugierten Gradienten ist im folgenden Algorithmus
zusammengefaßt.
In der letzten Gleichung VOn (4.92) wurde berücksichtigt, daß zur Verminde-
rung des Rechenaufwandes der Residuenvektor r(k) zur Näherung v(k) rekursiv
berechenbar ist auf Grund der Beziehung
I aijX; + bi = 0
j=1
(4.95)
(k + I) (k) (k)
V3 = -{a31 VI + a32v2
Wird die Matrix Ades Gleichungssystems als Summe einer Diagonalmatrix D,
gebildet mit den (positiven) Diagonale1ementen, einer unteren Dreiecksmatrix
E und einer oberen Dreiecksmatix F=E T gemäß
A = E + D + F, F = ET (4.96)
geschrieben, so lautet (4.95) in Matrixschreibweise
v(k+I) = -D-1{(E + F)v(k) + b}. (4.97)
In Verallgemeinerung des Gesamtschrittverfahrens (4.97) wird zur Verbesse-
rung der Konvergenzeigenschaften die Korrektur v(k TI) - v(k) mit einem
konstanten Relaxationsfaktor w > 0 multipliziert und diese modifizierte
Korrektur zu v(k) addiert. So entsteht das Gesamtschrittverfahren mit
Überre1axation (Jacobi overrelaxation = JOR)
v(k+ I) := v(k) + w[ -D-1{(E + F)v(k) + b} - v(k)]
d(k+ 1) = MsoR(w)d(k).
Iterationsschritt gleich groß ist, ist die SOR-Methode unter diesem Gesichts-
punkt vorzuziehen. Eine effiziente Implementierung auf Vektorrechnern ist
jedoch in der Regel, insbesondere im Fall von schwach besetzten Matrizen,
kaum möglich, weil der iterierte Vektor v(k+ I) komponentenweise zu berech-
nen ist, die Längen der Vektoroperationen oft relativ kurz sind und dabei
unregelmäßig verteilte Komponenten eines Vektors betroffen sind.
4.6.3 Vorkonditionierung
d; [ ±
J=I
i
(ai}d jI /2= 1, (i = 1,2, ... , n).
Enthält die i-te Zeile Yi von Null verschiedene Matrixelemente, so erfüllen die
Zeilen- und Kolonnennorrnen der so skalierten Matrix A die Ungleichungen
1<; [±J=I
G&j1 /2 <;VY:, (i= 1,2, ... ,n).
258 4 Behandlung der linearen Gleichungssysteme
Für große und schwach besetzte Matrizen wird mit den Skalierfaktoren (4.112)
jedenfalls eine vernünftige Konditionsverbesserung erzielt, da mit der Skalie-
rung ein Schritt in Richtung der Äquilibrierung getan wird.
Die Zunahme der Konditionszahl der Matrix A bei Verfeinerung der
Elementeinteilung und der damit verbundenen Vergrößerung der Anzahl der
Knotenvariablen liegt für festen Elementtypus in der Natur der Sache, da die
Matrix A die Diskretisierung eines unbeschränkten kontinuierlichen Opera-
tors darstellt. Die Konditionszahl der nicht skalierten Matrix A kann auch
dann groß sein, falls große Unterschiede von physikalischen Größen des
Problems vorhanden sind oder dimensionsbehaftete Größen in den Steifig-
keitselementmatrizen auftreten. Dies ist insbesondere dann der Fall, wenn
neben Auslenkungen auch erste und höhere Ableitungen als Knotenvariablen
verwendet werden, weil dann die Diagonalelemente verschiedene Potenzen
einer die Größe des Elementes charakterisierenden Länge enthalten. Die
dadurch verursachten starken Größenunterschiede in den Diagonalelementen
hat eine große Konditionszahl zur Folge, da der kleinste (größte) Eigenwert
einer symmetrischen Matrix höchstens (mindestens) so groß wie das kleinste
(größte) Diagonalelement und die Konditionszahl mindestens gleich dem
Quotienten aus dem größten und dem kleinsten Diagonalelement einer positiv
definiten Matrix ist. Die Skalierung der Matrix A mit den Faktoren (4.112)
bringt in den skizzierten Situationen eine Konditionsverbesserung.
Die Skalierung der Koeffizientenmatrix A = E + D + F vermittels einer be-
liebigen, regulären Diagonalmatrix D s in 1 = DsAD s = E + D + F mit
E=DsEDs, D = DsDD s und F=DsFD s hat auf die Konvergenz des JOR-
Verfahrens keinen Einfluß, weil für die zu 1 gehörende Iterationsmatrix gilt
MJOR(w) = [- wD- 11 = [ - WDSID-IDsIDsADs
= D S I [[ - wD-IAJD s = DsIMsOR(w)Ds.
Wegen der Ähnlichkeit der Iterationsmatrizen sind ihre Spektralradien gleich.
Dasselbe gilt auch für die Überrelaxationsmethode wegen
MSOR(w) = -(E + w- ID)-I[F+(1 - w-I)DJ
= -(DsED s + w-IDsDDs)-I[DsFDs + (1 - w-I)DsDDsJ
= -DSI(E + w-ID)-I[F+ (1 - w-I)DJD s = DSIMsOR(W)Ds.
Hingegen kann die Skalierung (4.112) mit der dadurch erreichten Verkleine-
rung der Konditionszahl die Anzahl der Iterationsschritte der Methode der
konjugierten Gradienten in bestimmten Fällen beträchtlich reduzieren (vgl.
Beispiele in Kapitel 6).
In Verallgemeinerung der Skalierung kann eine weitere bedeutende Reduktion
der Konditionszahl von A mit einer nichtdiagonalen Matrix erzielt werden, mit
welcher die Matrix A kongruent zu transformieren ist, um das Spektrum
4.6 Iterative Methoden 259
k < -vx(A)
I
2
In (2Ie) + 1. (4.l15)
Auch wenn die obere Schranke für k im allgemeinen pessimistisch ist, zeigt
(4.115) die Bedeutung, die Konditionszahl wesentlich zu verkleinern.
Es sei C eine reguläre Matrix der Ordnung n, mit welcher das zu lösende lineare
Gleichungssystem Ax + b = 0 in die äquivalente Form
C-1AC·TCTx + C-1b = 0 (4.116)
gebracht wird. Mit den neuen Gräßen
A= C-1AC- T, i = CTx, b= C-1b (4.117)
lautet das transformierte System
Ai+b = 0, (4.118)
worin A auch eine symmetrische, positiv definite Matrix ist. Die Matrix C soll
so beschaffen sein, daß die Konditionszahl x(A) bedeutend kleiner als x(A) ist.
Ein Hinweis über eine problemgerechte Wahl der Matrix C liefert die
Feststellung, daß A ähnlich ist zu
(4.119)
Aus (4.119) ist ersichtlich, daß die symmetrische und positiv definite Matrix
M:= CC T (4.120)
solche Wahl ist aber nicht sinnvoll, denn sie würde beispielsweise eine
Cholesky-Zerlegung von A erfordern, womit eine Lösung des Gleichungssy-
stems direkt erhalten werden könnte. Jedoch sollte demnach M eine Approxi-
mation der Matrix A sein, damit eine gute Konditionsverbesserung erreicht
wird. Man bezeichnet deshalb M (4.120) als Vorkondi tionierungsma trix.
Wir werden später auf die Wahl von Meingehen.
Nach (4.92) lautet der Algorithmus der konjugierten Gradienten zur Lösung
des vorkonditionierten Systems (4.118) nach Wahl eines Startvektors jj(O)
,(0) = Xjj(O) + h, p{l) = _,(0). (4.121)
(4.130)
einführen. Mit diesen Vektoren g(k) und (lek) lassen sich schließlich die in
(4.122) und (4.124) auftretenden Skalarprodukte wie folgt darstellen:
;:(k)T;:(k) = r(k)T C- T C-1r(k) = r(k)T M -lr(k) = r(k)T (lek)
= (M-1s(k))TA(M-1s(k)) = g(k)TAg(k)
r(O) = Av(O) + b;
Allgemeiner Relaxationsschritt (k = 1,2, ... ):
MV(k - 1) = r(k-l)
Offensichtlich ist die so definierte Matrix C regulär und besitzt die gleiche
Besetzungsstruktur wie die untere Hälfte von A. Die Definition (4.135) hat den
rechentechnischen Vorteil, daß für M, respektive C, kein zusätzlicher Spei-
cherplatz benötigt wird, denn die Auflösung des Systems MQ = r erfolgt in den
zwei Schritten
di = (1 + a) - I~~
k=l
aikdk 1 { ±
j=k+l
alk}' Ci = 1,2, ... , n) (4.140)
Sie kann unter Ausnützung der schwachen Besetzung sehr einfach ausgewertet
werden.
4.6 Iterative Methoden 265
xx xx X X
xxx X XXX**X xxx X
xx X xx X xx X
X X xx X* X* xx x x xx
X X X X*X*x X X X
X X X X X X X X X
X X X X X X
X X X X X X X X X
01 bl cl
Fig.4.19 Prinzip der partiellen Cholesky-Zerlegung
266 4 Behandlung der linearen Gleichungssysteme
Radikanden äußert [AxB84, GoV89, JeM77, Ker78, MeV77]. Sie ist stets
durchführbar für sogenannte M-Matrizen, die insbesondere bei Differenzen-
approximationen auftreten [Me V77]. Um auch injenen Fällen vermittels einer
unvollständigen Cholesky-Zerlegung eine brauchbare Vorkonditionierungs-
matrix zu erhalten, sollen nach einem Vorschlag von Manteuffel [Man79] die
Nichtdiagonalelemente der skalierten Matrix A (4.134) mit einem gemeinsa-
men Faktor reduziert werden zur Matrix
- I
A =I+--(E+F). (4.143)
I+a
Der Parameter a ~ 0 soll möglichst klein gewählt werden, da ja die
Nichtdiagonalelemente von A betragsmäßig umso stärker verkleinert werden,
je größer a ist. Die aus Xresultierende Matrix C liefert mit wachsendem a mit
M = CCT eine zunehmend schlechtere Approximation von A, und der
Vorkonditionierungseffekt wird verringert [Scw81]. Auch hier muß eine zu
schlechte Kondition von M vermieden werden, was etwa durch die Bedingung
cii~1O-3, (i=1,2, ... ,n) erfolgen kann. Die problemgerechte Wahl von a
erfolgt vermittels einer Folge von versuchsweisen partiellen Cholesky-Zerle-
gungen mit zunehmenden Parameterwerten a, wie sie oben angegeben sind.
Die Zahl der doch recht aufwendigen und mißlungenen Versuchszerlegungen
sollte klein gehalten werden, weshalb es empfehlenswert ist, mit einem
entsprechenden Startwert ao zu beginnen, falls Erfahrungswerte vorhanden
sind.
Die Methode der konjugierten Gradienten mit einer Vorkonditionierungs-
matrix M= CC T auf Grund einer partiellen Cholesky-Zerlegung setzt die
Berechnung von C voraus. Der zwar nur einmalige, aber nicht geringe
Rechenaufwand setzt sich aus den Multiplikationen zur Reduktion der
Nichtdiagonalelemente der unteren Hälfte von A, aus sehr zahlreichen Tests
auf Fill-in und aus den andernfalls auszuführenden Multiplikationen zur
Reduktion zusammen. Im Gegensatz zu den beiden vorher diskutierten
Vorkonditionierungsmethoden wird jetzt der zusätzliche Speicherplatz für die
Matrixelemente von C benötigt, der jenem zur Speicherung der von Null
verschiedenen Matrixelemente der unteren Hälfte von A entspricht. Da ihre
Besetzungsstrukturen identisch sind, sind die Indexinformationen für A
gleichzeitig für C verwendbar. Dennoch steigt der Speicherbedarf auf etwa das
Doppelte an. Für eine effiziente Implementierung der partiellen Cholesky-
Zerlegung ist eine geeignete Speicherung der unteren Hälfte von A nötig, auf
die im nächsten Abschnitt eingegangen wird.
Die Berechnung von Q aus MQ=CCTQ=r erfordert (y+l)n wesentliche
Operationen, weil die Diagonalelemente von C im allgemeinen von Eins
verschieden sind. Deshalb ist der Rechenaufwand pro Iterationsschritt auch
gegeben durch (4.137).
4.6 Iterative Methoden 267
Fig.4.20
Zeilenweise Speicherung
iner schwach besetzten
~. L -_ _ _ _---'---' Matrix
Die Kompilation der Gesamtmatrix A aus den Elementmatrizen direkt in der
Anordnung nach Fig.4.20 erfordert die Kenntnis der Grade der beteiligten
Knotenvariablen im Sinn der Graphentheorie. Auf Grund der an den
einzelnen Elementen beteiligten Knotennummern kann diese Information
ohne weiteres durch ein Rechenprogramm vor Beginn der Kompilation
beschafft werden. Sie liefert den Zeigervektor (mit den Komponenten
worin gi den Grad der i-ten Knotenvariablen darstellt. Der Vektor k der
Kolonnenindizes wird zusammen mit A aufgebaut. Er ergibt sich an sich auch
als Nebenprodukt bei der Gradbestimmung. Die Berücksichtigung von
Randbedingungen erfolgt nach beendeter Kompilation entsprechend modifi-
ziert zum Vorgehen nach Abschn. 3.1.3.
Die Speicherung von A nach Fig. 4.20 weist die offensichtliche Redundanz auf,
daß gleiche Zahlwerte von symmetrisch gelegenen Nichtdiagonalelementen
doppelt auftreten. Diese Datenstruktur ist sicher dann zweckmäßig, falls
4.6 Iterative Methoden 269
Zl = alPI
für i = 2, 3, ... , n:
Zi = akiPi
an a 12 a14 alS
a21 a22 a 23 a26
a32 a 33 a3S
Ä=
a4l a44 a46
aSl a53 aSS
a62 a64 a66
k:
Fig.4.21
Zeilenweise kompakte Spei-
cherung der unteren Hälfte
~ :
einer Matrix
270 4 Behandlung der linearen Gleichungssysteme
Produkt Aoho gebildet wird, wo ho den Vektor bedeutet, der in den entspre-
chenden Komponenten die Randwerte enthält und sonst gleich Null ist. Der
Vektor Aoho ist zum Konstantenvektor zu addieren, und anschließend sind die
negativ gt::nommenen Randwerte in die entsprechenden Komponenten einzu-
setzen.
In den einzelnen Iterationsschritten sind die im Abschn. 3.1.3 beschriebenen
Modifikationen an der Gesamtmatrix Ao nach erfolgter Multiplikation von Ao
mit einern Vektor entsprechend auszuführen. Dabei sind zwei Fälle im
Algorithmus (4.92) zu unterscheiden. Der Startvektor v(O) wird zweckmäßig so
gewählt, daß er die Randbedingungen erfüllt. Werden nun im Vektor Aov(O) die
Randwerte erneut eingesetzt, erreicht man damit, daß die entsprechenden
Komponenten von r(O) und damit auch von p(l) verschwinden. Das hat zur
Folge, daß der Vektor v(l) die Randbedingungen wieder erfüllt. Damit diese
Eigenschaft in den weiteren Iterationsschritten erhalten bleibt, sind im Vektor
Aop(k) die durch homogene und inhomogene Randbedingungen vorgeschrie-
benen Komponenten gleich Null zu setzen. Damit verschwinden die betreffen-
den Komponenten in r(k) und in p(k), so daß die iterierten Vektoren v(k) die
Randbedingungen erfüllen.
Mit der beschriebenen Rechentechnik sind die iterativen Verfahren mit
geringem Speicherbedarf durchführbar. Als Grundlage werden nur die
Knotenpunktkoordinaten und die Daten der Elemente benötigt. Ferner
wird der Speicherplatz für mindestens eine Elementmatrix und die im
iterativen Verfahren auftretenden Vektoren gebraucht. Die Reduktion des
Speicherbedarfs geht allerdings auf Kosten eines wesentlich erhöhten
Rechenaufwandes.
In diesem Beispiel ist die Anzahl der potentiell von Null verschiedenen
Matrixelemente der unteren Hälfte NA = 3720, wozu noch die Indexinforma-
tion von N J =4104 ganzzahligen Werten hinzukommt. Werden diese Werte
272 4 Behandlung der linearen Gleichungssysteme
Jetzt wenden wir uns dem Problem der Vektorisierung der grundlegenden
Operationen zu. Die Matrix-Vektor-Multiplikation Ap für eine zeilenweise,
kompakt gespeicherte Matrix A mit dem Algorithmus (4.144) besitzt auf einem
Vektorrechner kaum eine effiziente Implementierung, weil in der innersten
Schleife indirekte Adressierungen auftreten und die Längen dieser Vektorope-
rationen meistens noch recht kurz sind. Aus diesem Grund sind andere
Datenstrukturen oder Rechentechniken notwendig.
So hat die Idee, die Matrix-Vektor-Multiplikation z = Ap auf Elementbasis
durchzuführen, für Vektor- und Parallelrechner an Bedeutung gewonnen. Die
effiziente Vektorisierung beruht im wesentlichen darauf, die Reihenfolge der
Operationen so zu vertauschen, daß die innerste Schleife die Elemente betrifft.
Erstens ist die Berechnung der Elementmatrizen eines bestimmten Typus so zu
konzipieren, daß die Matrixelemente mit gleichen Indexpaaren simultan
berechnet werden. Gemäß der Methode der Grundelementmatrizen sind als
Vorbereitung die erforderlichen elementabhängigen Konstanten bereitzustel-
4.6 Iterative Methoden 273
len, so daß dann mit diesen Werten die genannten Matrixelemente vermitteIs
typischer Vektoroperationen (Triaden) berechenbar sind. Die gleichindizier-
ten Matrixelemente sind aufeinanderfolgend zu speichern.
Zweitens ist dann der Vektor z = Ap mit Hilfe der Elementknotennummern
analog aufzubauen. Die Tab.3.1 von Beispiel 3.1 möge die folgenden
Erläuterungen konkretisieren helfen. Die Matrixelemente S&!J der Element-
matrizen mit festem Indexpaar (i, j) sind komponentenweise mit denjenigen
Vektorkomponenten vonp zu multiplizieren, deren Indizes denj-ten Knoten-
variablen der Elementknotennummern entsprechen, und der resultierende
Vektor ist zu denjenigen Vektorkomponenten von z zu addieren, deren Indizes
den i-ten Knotenvariablen entsprechen. Der erste Teil der Operation ist trotz
der indirekten Adressierung problemlos mit Hilfe der gather-Anweisung
vektorisierbar, auch wenn gleiche Indizes in der betreffenden Kolonne
vorkommen. Da aber in diesem Fall im zweiten Teil mehrere Komponenten
zur gleichen Komponente von z zu addieren sind, stellt dies eine nicht
vektorisierbare Rekursion dar! Die teilweise Vektorisierbarkeit bringt den-
noch Vorteile, weil jene Vektoroperationen eine (große) konstante Länge
haben, die gleich der Anzahl der Elemente ist. Um auch den zweiten Teil
vektorisieren zu können, muß durch eine Gruppeneinteilung der Elemente
dafür gesorgt werden, daß pro Gruppe in jeder Kolonne nur untereinander
verschi,edene Indizes auftreten. Dies ist durch eine geeignete Anordnung der
Elemente stets erreichbar.
Schließlich sei vermerkt, daß durch geeignete Maßnahmen nur die unteren
Hälften der Elementmatrizen zu speichern sind, um den Speicherbedarf zu
reduzieren.
Ist auf diese Weise das Problem der Matrix-Vektor-Multiplikation für Vektor-
und Parallelrechner zufriedenstellend gelöst, so sind auch für die Vorkonditio-
nierung der Methode der konjugierten Gradienten andere Methoden anzu-
wenden. Vorschläge in dieser Richtung bestehen darin, die Matrix C für den
Vorkonditionierungsschritt mit Hilfe von vollständigen Cholesky-Zerlegun-
gen der Elementsteifigkeitsmatrizen zu definieren. Da die Elementmatrizen
singulär sind, wird ihre positive Definitheit dadurch erreicht, daß etwa
Beiträge der entsprechenden Diagonalelemente der Gesamtmatrix A zu den
Diagonalelementen addiert werden [HFH87]. Eine bessere Vorkonditionie-
rungsrnatrix M wird erzeugt, falls vollständige Cholesky-Zerlegungen von
Submatrizen aus A verwendet werden, die den Elementen entsprechen [Bar89].
In dieslern Fall ist eine Kompilation auf der Basis der Elemente erforderlich,
aber die positive Definitheit der den Elementen zugeordneten Matrizen ist
garantiert. Die Cholesky-Zerlegungen sind wiederum so vektorisierbar, daß
sie simultan für alle Matrizen ausgeführt werden. Dasselbe wird auch für die
Prozesse des Vorwärts- und Rückwärtseinsetzens angewandt unter Berück-
sichtigung der oben erwähnten Indexkonflikte.
274 4 Behandlung der linearen Gleichungssysteme
7 13 19 2S 31
2 8 14 20 26 32
3 9 15 21 27 33
4 10 16 22 28 34
5 11 17 23 29 35
Fig.4.22
Regelmäßige Elementeinteilung
6 12 18 24 30 36
eines Rechteckes
Ä==
Fig.4.23
Diagonalstruktur
einer Matrix
4.6 Iterative Methoden 275
die von Null verschiedenen Werte der Matrixelemente der betreffenden Zeile,
je beginnend mit dem Diagonalelement, und das zweite Feld enthält die
zugehörigen Kolonnenindizes. Jene Zeilen des ersten Feldes, welche Zeilen der
Matrix mit weniger als m von Null verschiedenen Matrixelementen entspre-
chen, sind mit Nullen aufzufüllen, während die zugehörigen Indizes beliebige
Werte zwischen 1 und n sein dürfen. Die Datenstruktur ist in Fig. 4.24 mit den
Matrizen A und K dargestellt.
19 4 22 7 25
10 28 13 31 16 34
2 20 5 23 8 26
11 29 14 32 17 35
3 21 6 24 9 27
Fig.4.25
12 30 15 33 18 36
Mehrf<i.rbung der Knotenpunkte
Ä=:
Fig.4.26
Blockstruktur einer
Matrix bei Mehr-
f.übung
278 4 Behandlung der linearen Gleichungssysteme
durch verschiedene Symbole, und die Matrix A erhält die Blockstruktur von
Fig. 4.26 mit den typischen Diagonalstrukturen der Untermatrizen. Insbeson-
dere sind die Blockmatrizen in der Diagonale selbst Diagonalmatrizen.
Die Diagonalstruktur von A überträgt sich auf diejenige von L in den drei
genannten Methoden zur Gewinnung von M, und die Ausführung der
partiellen Cholesky-Zerlegung erlaubt die Ausnützung der Strukturen der
Blockmatrizen und damit eine effiziente Vektorisierung im Fall von sehr
regelmäßigen Strukturen gemäß Fig.4.26. Sind die Blockmatrizen je in der
Diagonalform gespeichert, so besitzen die Prozesse des Vorwärts- und
Rückwärtseinsetzens effiziente vektorisierbare Implementierungen. Für das
Vorwärtseinsetzen (I + L)y = Y ist bei entsprechender Einteilung von y und Y
unter Beachtung der Block- und Diagonalstruktur
(4.148)
Matrizen sehr groß und die Hülle sehr schwach besetzt, wie dies für
dreidimensionale Aufgaben typisch ist, dann wird die Methode der Rayleigh-
Quotient-Minimierung mindestens konkurrenzfähig hinsichtlich des Rechen-
aufwandes oder bleibt als der einzig gangbare Weg auf Grund des verfügbaren
Speicherplatzes. Für Vektor- und Parallelrechner spielen die Aspekte der
Rechnerarchitektur zusätzlich eine Rolle bei der Beurteilung der Verfahren.
j
gleichung
[~"
h 21
h 3l
h 4l
h 22
1132
1142
h 13
h23 h 24
h"
h 34
h44
HI" 121
h2
131
132 142
h3 143
", j [""
144
a2l
a3l
a4l
a12
a22
a32
a42
a13
a23
a33
a43
a"
a24
a34
a44
(5.10)
In (5.10) wurde in der MatrixA angedeutet, daß aus Symmetriegründen nur die
übliche untere Hälfte von A gespeichert und damit als Zahl werte vorhanden
sind. Obwohl die Matrix H nicht symmetrisch ist, genügt es, wie im zweiten
Teilschritt der Reduktion ersichtlich sein wird, nur die Elemente in und
unterhalb der Diagonale wirklich zu berechnen. Für diese Elemente erhält
282 5 Behandlung der Eigenwertaufgaben
(5.11)
l
Hälfte aus der Matrizengleichung L C = H berechnet werden muß. Für n = 4
lautet die Bestimmungsgleichung
(5.13)
2 3
n + O(n ).
2
ZRed = - (5.14)
3
Uii = 1 i =1= p, q
.I upp = cos qJ, upq = sin qJ
An den Kreuzungsstellen der p-ten und q-ten Zeilen und Kolonnen werden die
Elemente sowohl nach (5.16) als auch nach (5.17) transformiert. Nach
Substitution sind die betreffenden Elemente definiert durch
Cpp
" = Cpp cos 2 rp - 2 Cpq cos rp sm
. rp +Cqq·sm
2 rp }
" =
Cqq Cpp sm
·2 rp +2 Cpq cos rp sm
. rp + Cqq COS 2 rp (5.18)
C;q = C~p = (cpp - Cqq ) COS rp sin rp + Cpq(cos 2 rp - sin 2 rp)
Das Ziel einer einzelnen lacobi-Transformation besteht darin, das Paar von
Außendiagonalelementen C;q und c~p zum Rotationsindexpaar (p, q) zu Null
zu machen.
Nach (5.18) führt diese Forderung auf die Bestimmungsgleichung für den
Drehwinkel rp
(5.19)
Die Transformation hat natürlich nur Sinn, falls cpq = cqp =I=- 0 ist. Unter dieser
Voraussetzung folgt aus (5.19) unter Verwendung von trigonometrischen
Identitäten mit endlichem Wert des Quotienten
c - c
cot (2rp) = qq pp = e. (5.20)
2cqp
Für t = tan rp = sin rp/cos rp und auf Grund der Identitäten cot (2rp) =
(1 - tan 2 rp)/(2 tan rp) und cos 2 rp + sin 2 rp = 1 ist t Lösung der quadratischen
Gleichung t 2 +28t - 1 = 0, wobei die absolut kleinere der beiden möglichen
Lösungen gemäß
(5.21)
für e= 0
gewählt wird. Damit wird erreicht, daß einerseits im Nenner von (5.21) keine
numerische Auslöschung stattfindet und daß anderseits Itan rpl 1 wird, so <
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 285
daß der Drehwinkel <p auf das Intervall-1I:/4 < <p 11:/4 beschränkt wird. Aus -<
dem Wert für tan <p ergeben sich die benötigten Werte
1 .
cos <p = ~' sm <p = t . cos <po (5.22)
vI +
(2
Damit kann die Transformation der Matrix C in C" nach den Formeln (5.16)
und (5.17) durchgeführt werden. Zur Verbesserung der numerischen Eigen-
schaften werden für die Umrechnung der beiden Diagonalelemente cpp und Cqq
die Dars1:ellungen (5.18) unter Ausnützung des nach (5.19) bestimmten
Drehwinkels umgeformt in die bedeutend einfacheren Formen
C;p = cpp - 2cpq cos <p sin <p + (c qq - cpp )sin2 <p
. COS 2 <p - sin 2 <p }
= Cpp - cpq { 2 cos <p sm <p - . sin 2 <p = cpp - cpq tan <po
cos <p sm <p
Es folgen so die Darstellungen
C;D = cpp - cpq tan <p, C;q = Cqq + cpq tan <po (5.23)
Im speziellen zyklischen Jacobi-Verfahren werden die Rotationsindexpaare
pro Zyklus in der folgenden Reihenfolge durchlaufen:
(1,2), (1, 3), ... , (I, n), (2, 3), (2, 4), ... , (2, n), (3,4), ... , (n - I, n).
(5.24)
Das bedeutet, daß die Außendiagonalelemente der untern Hälfte kolonnen-
weise pro Zyklus genau einmal zu Null rotiert werden.
In [Hen58] ist gezeigt, daß die Matrizen Ck = uI Ck -) Uk mit Co = C, gebildet
nach dem speziellen zyklischen Jacobi-Verfahren mit der Indexreihenfolge
(5.24) und mit den Drehwinkeln <Pk nach (5.21) gegen eine Diagonalmatrix
konvergieren, indem die Werte S( Ck) der Summe der Quadrate der Außendia-
gonalelernente von Ck eine monotone, nicht zunehmende Nullfolge bilden.
Infolge der Ähnlichkeit der Matrizen Ck stellen die Diagonalelemente der
Grenzmatrix die Eigenwerte von C dar. Mit feineren Hilfsmitteln kann sogar
bewiesen werden, daß die Wertefolge S(Ck ) von einem bestimmten Moment
an sogar quadratisch gegen Null konvergiert, indem S(Ck-"-N) nach einem
vollständigen Zyklus von N = n (n - 1)/2 Rotationen im wesentlichen gleich
dem Quadrat von S(Ck ) ist [Hen58, Rut76, Scö6l, Wil62].
Die Summe der Quadrate der Außendiagonalelemente S (Ck) liefert gleichzei-
tig eine generelle absolute Fehlerschranke, mit welcher die Diagonalelemente
von Ck , das seien der Größe nach geordnet dfk) d~k) d~k), die -< -< ... -<
Eigenwerte ,1.) ,1.2 -< -< ... -<
An approximieren, indem gleichzeitig gilt [Hen58]
(5.25)
286 5 Behandlung der Eigenwertaufgaben
(5.26)
mit V= U I U2 •.• Uk - I Uk. Ist S( Ck) genügend klein, stellt C k praktisch eine
Diagonalmatrix D dar, so daß approximativ gilt
Die Matrix Vist als Produkt von orthogonalen Matrizen selbst orthogonal und
enthält gemäß (5.27) in der j-ten Kolonne eine Näherung für den normierten
4
Eigenvektor zur Eigenwertnäherung k ). Die in V stehenden Näherungen der
Eigenvektoren bilden innerhalb der numerischen Genauigkeit auf alle Fälle
ein System von paarweise orthogonalen und normierten Vektoren. Dies trifft
auf Grund der Konstruktion auch im Fall von mehrfachen Eigenwerten zu.
Die Matrix V berechnet sich rekursiv durch Aufmultiplikation der Transfor-
mationsmatrizen Uk gemäß
(5.29)
Multiplikationen beträgt.
Die lacobi-Methode liefert simultan sämtliche n Eigenwerte und die zugehöri-
gen Eigenvektoren von C. Das Verfahren kann deshalb der etwas speziellen
AufgabensteIlung nicht Rechnung tragen, falls nur ein bestimmter Teil
gewünscht ist.
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 287
w die Richtung einer der beiden Winkelhalbierenden der Richtungen von x und
el besitzen, so daß notwendigerweise
w =x ± Ilxllei (5.31)
sein muß. Um Stellenauslöschung in der ersten Komponente zu vermeiden,
wird das Vorzeichen in (5.31) gleich demjenigen der ersten Komponente Xl von
x gesetzt. Für Xl =0 soll das obere Vorzeichen gelten. Mit dieser Festsetzung
ergibt sich aus (5.31) für
wT w = IIxl1 2 ± 2Xlllxli + IIxl1 2 = 211xll (Ilxii + lxIi)
und deshalb für ß die Darstellung
ß= 1 (5.32)
Ilxll(llxll + lxIi)
Schließlich resultiert für den Bildvektor von x
(I - ßww T ) X =x - ßw(w T x) =x - ß(IIxl1 2 + lXII '1Ixll)w = + IIxlleI,
d. h. die erste Komponente erhält das zu Xl entgegengesetzte Vorzeichen, bzw.
das negative Vorzeichen im Fall Xl = O.
Für die folgende Anwendung betrachten wir noch die verallgemeinerte
Aufgabe, den Vektor Wk einer Householder-Matrix Uk (5.30) so festzulegen,
daß im Bildvektor eines beliebigen Vektors x die ersten k Komponenten
unverändert bleiben und die letzten (n - k -1) Komponenten von x' = Ukx
verschwinden. Aus der ersten Forderung folgt, daß im Vektor Wk die ersten k
Komponenten gleich Null sein müssen. Die zweite Bedingung ist dann
äquivalent damit, den Vektor x* =(0,0, ... ,0, Xk+I, Xk+2, •.. , xn)T in ein
Vielfaches des Einheitsvektors eH I abzubilden. In Verallgemeinerung von
(5.31) ist der Vektor Wk gegeben durch
Wk = x* ± Ilx*lleHI, (5.33)
und der zugehörige Wert ßk erhält die Darstellung
1
ßk=------- (5.34)
Ilx*II(llx*11 + IXHIJ)
Im ersten Transformationsschritt sollen in C die Matrixelemente C31, C4I. •.. ,
Cn Iund aus Symmetriegründen die entsprechenden Elemente der ersten Zeile
zum Verschwinden gebracht werden. Dieses Ziel wird mit einer Matrix U I
(5.30) erreicht, gebildet mit einem Vektor WI = (0, W2, W3, ... , wn)T, dessen erste
Komponente verschwindet. Die zugehörige Matrix U 1 stimmt in der ersten
Zeile und Kolonne mit der Einheitsmatrix überein. Für die Ähnlichkeitstrans-
formation C" = U1 I CUI =UI CUI gilt für den Teilschritt C' = U 1 C, daß die
erste Zeile von C ungeändert bleibt, und für den zweiten Teilschritt C" = C' UI ,
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 289
daß jetzt die erste Kolonne von C nicht geändert wird. Deshalb gilt
insbesondere clI = ci I = CII, und auf Grund der vorbereitenden Betrachtung
ist WI gemäß (5.33) festgelegt mit x*=(O, C21, C31, ... , cndT . Die zu
berechnenden Größen sind somit
n
sf = I cll, ßI = l/{SI(SI + Jc2J!)}, (5.35)
i=2
+ 1 falls C21 ~ 0
W2 = C21 + (TISI, (Tl = { (5.36)
-1 falls C21 <0
Wf = Cil, (i=3, 4, ... , n). (5.37)
± ±
k=l
Schließlich lassen sich die Elemente der transformierten Matrix C" mit den
Größen
qi = ßI(Pi - gw;), (i = 2, 3, ... , n) (5.42)
290 5 Behandlung der Eigenwertaufgaben
hung Cy = AY folgt
VT CVVTy = AVTy oder Jz = AZ
mit Z = VTy oder y = Vz.
Die Matrix Vist hierbei das Produkt der (n - 2) Housholder-Transformations-
matrizen Uk gemäß
V = Un - 2 Un - 3 .•. U2 U1•
Um bei bekannten Eigenvektoren Zj der Matrix I die Rücktransformation in
die Eigenvektoren Yj von C durchzuführen, ist es nicht nötig, die bis auf die
erste Zeile und Kolonne vollbesetzte Matrix V während der Householder-
Transformation aufzubauen. Vielmehr kann die Rücktransformation schritt-
weise auf der Basis der Vektoren Wl, W2, . .. , Wn-2 und der zugehörigen Skalare
ßl, ß2, ... , ßn-2 erfolgen, welche die Matrizen Uk definieren. Auf Grund der
Definition (5.30) erfordert die Multiplikation von U mit einem Vektor Z wegen
Uz = (I - ßww T)Z = Z - ßw(w T z)
die Bildung des Skalarproduktes w T Z und anschließend die Subtraktion des
ß(w T z)-fachen des Vektors w von Z als eine typische Vektoroperation. Dabei ist
in der sukzessiven Multiplikation von Z mit U1, U2, •.. , Un - 2 die zunehmende
Zahl der verschwindenden Komponenten in Wk zu beachten. Die so ausgeführte
Rücktransformation benötigt etwa n (n -1) Multiplikationen pro Vektor z,
also genau so viele wie die Berechnung von Vz. Der Aufwand zur expliziten
Bildung wird aber eingespart, und der Speicherplatz für die vollbesetzte Matrix
Vwird gar nicht benötigt, falls die Diagonal- und Nebendiagonalelemente von I
in zwei Vektoren abgespeichert werden und die frei werdenden Plätze in C für
die Vektoren Wk und die Skalare ßk verwendet werden.
a=-b
5.1 Die Eigenwertaufgabe mit vollbesetzten Matrizen 293
alle Eigenwerte von J enthält. Oft können aber für die konkrete Problemstel-
lung apriori engere Intervallgrenzen angegeben werden, z. B. a = 0 für eine
positiv definite Matrix J.
Jedenfalls gilt VF(a) <j und VF(b) ~ j. Für den Intervallmittelpunkt
J-l = (a + b)/2 wird die Zahl VF(J-l) der Vorzeichenfolge bestimmt. Ist
VF(J-l) <j, stellt J-l eine neue untere Schranke a für Aj dar, andernfalls ist J-l eine
neue obere Schranke b. Das Intervall, in welchem A.j enthalten ist, wird folglich
in jedem Schritt halbiert. Die halbe Länge des momentanen Intervalls stellt
stets eine absolute Fehlerschranke für den Mittelpunkt als Näherungswert für
A.j dar. Bei einem gegebenen Anfangsintervall Ca, b] ist deshalb die Anzahl t der
Bisektionsschritte zum voraus bestimmbar, um Aj mit einer vorgegebenen
absoluten Genauigkeit e zu berechnen, nämlich
t ~
be
10g2 ( - a)
- - - 1.
Sind etwa die p kleinsten Eigenwerte Al < A2 < ... < Ap von J zu berechnen, so
wird mit einem Intervall Ca, b] gestartet, das alle p Eigenwerte enthält. Jeder
Bisektionsschritt liefert eine Information über die Lage der gesuchten
Eigenwerte und damit laufend bessere untere und obere Schranken. Diese
Information ist in der Rechenpraxis zu verwerten, weil so der Rechenaufwand
wesentlich reduziert werden kann, da nach Berechnung des oder der ersten
Eigenwerte bereits bedeutend kleinere Intervalle bekannt sind, welche die
noch zu bestimmenden Eigenwerte enthalten.
Für die numerische Bestimmung der Anzahl der Vorzeichenfolgen VF(J-l) für
einen gegebenen Wert J-l stehen die Rekursionsformeln (5.48) und (5.49) zur
Verfügung. Wilkinson [WiI65] hat gezeigt, daß die Berechnung von VF(J-l)
numerisch stabil ist. Der Rechenaufwand pro Bisektionsschritt beträgt rund
2n Multiplikationen unter der Annahme, daß die Quadrate der Nebendiago-
nalelemente zum voraus berechnet werden.
Die Bestimmung des Zahlenwertes VF(J-l) kann nach einer Idee von Barth
[BMW67] noch effizienter und auf numerisch ebenso stabile Art als Anzahl
der positiven Quotienten der Werte aufeinanderfolgender Rekursionspoly-
nome berechnet werden. Er definiert zu gegebenem Wert J-l die Quotienten
_ fk(j.J.) (_
qk - , k - 1,2, ... , n). (5.50)
fk-l(j.J.)
Nach Division der Rekursionsformel (5.49) durch/k-l (J-l) =1= 0 folgt daraus mit
(5.50) und (5.48) die neue Rekursion
(5.51)
294 5 Behandlung der Eigenwertaufgaben
Auf den ersten Blick läßt die notwendige Division die Rekursionsformel
problematisch erscheinen, da nicht auszuschließen ist, daß qk - I = 0 werden
kann, z. B. ql = 0 für f.J. = al. Sobald ein Wert qk verschwindet, bedeutet dies,
daß das Rekursionspolynom fk(f.J.) = 0 ist. In diesem Fall ist es in der
Sturmsehe Kette gleichgültig, welches Vorzeichen dem Wert zugeordnet wird,
weilfk - I (f.J.) undfH 1(f.J.) wegen (5.49) entgegengesetzte Vorzeichen besitzen,
in der Folge fk - I (f.J.),fk(f.J.),fH 1(f.J.) somit genau ein Zeichenwechsel vorhan-
den ist. Somit ist es zulässig, ein verschwindendes qk durch den kleinen Wert
e=JIIJII zu ersetzen, wo filii die Norm von J darstellt und J die kleinste
positive Zahl des verwendeten Rechenautomaten bedeutet, so daß in der
Computerarithmetik 1 + J =1= 1 gilt. Wird qk durch e ersetzt, sobald Iqk I < eist,
so wird dadurch die Zählung der positiven qk nicht verfälscht.
Ein erster Vorteil des numerisch stabilen Algorithmus (5.51) gegenüber (5.49)
ist der kleinere Rechenaufwand von nur (n -1) wesentlichen Operationen pro
Bisektionsschritt. Ein zweiter Vorteil liegt darin, daß die Werte der Rekur-
sionspolynomeACu) für größere Ordnung n sehr groß oder sehr klein werden
können und damit die Gefahr von Überfluß oder Unterfluß besteht. Für die
Quotienten qk ist diese Schwierigkeit eliminiert.
Die Berechnung aller Eigenwerte einer symmetrischen, tridiagonalen Matrix J
erfolgt am effizientesten mit dem QR-Algorithmus oder einer seiner Varian-
ten. Denn bei optimaler Wahl von Spektralverschiebungen sind pro Eigenwert
im Mittel nur etwa zwei Iterationsschritte erforderlich, und der Rechenauf-
wand pro QR-Schritt ist nur proportional zur sukzessive abnehmenden
Ordnung der tridiagonalen Matrix. Für Details und eine algorithmische
Beschreibung siehe etwa [Scw88, Ste73, WiR71].
(5.54)
i=l i=l
so daß gilt
;:(k)=
.,
~
.L
e(.o)
1
1 z.= 1 [e(.o)z+
(X-A)k 1 (X-A)k J 1 .L 1
e(.o) ~ (Aj-~
X-A
)\.].
1
(5.55)
1=1 1 1 1=1 1
i*j
FaIls e;D) =1= 0, d. h. falls g(.o) eine Komponente nach dem Eigenvektor Zj be-
sitzt, konvergiert g(k) mit zunehmendem k wegen (5.53) gegen ein Viel-
faches des Eigenvektors Zj. Um eine rasche Konvergenz zu erzielen, muß
qmax = max I(Aj - X)/(Ai - X)I klein sein.
i*j
Dies erreicht man dadurch, daß die Eigenwerte Ai mit hoher Genauigkeit
bestimmt werden. Bei guter Trennung der Eigenwerte wird qmax sehr klein
ausfallen, so daß ausgesprochen wenige Iterationsschritte nötig sind, um Zj aus
g(k) mit hoher Genauigkeit zu erhalten.
Nach (5.55) wachsen die iterierten Vektoren g(k) sehr rasch an. Es ist deshalb
nach jedem Iterationsschritt eine Normierung von g(k) erforderlich, um
Überfluß zu vermeiden.
Das nach (5.52) in jedem Iterationsschritt zu lösende tridiagonale Gleichungs-
system ist zwar symmetrisch, doch ist seine Konditionszahl sehr groß. Das
Gleichungssystem ist vermittels einer unsymmetrischen Eliminationsmethode
mit partieller kolonnenweiser Pivotsuche dennoch numerisch sicher auflösbar
[WiI65]. Die unsymmetrische Zerlegung von J - XI dient auch dazu, einen
Startvektor g(.o) so zu bestimmen, daß er, abhängig von der Näherung X= A,
eine Komponente nach Zj enthält. Nach Wilkinson [Wi165] gewinnt man g(6)
aus einem halben Iterationsschritt durch den Prozeß des Rückwärtseinsetzens,
angewendet auf den Vektor mit allen Komponenten gleich Eins.
Eine gewisse numerische Problematik stellt sich ein bei sehr benachbarten oder
gar innerhalb der verwendeten Stellenzahl übereinstimmenden Eigenwerten.
Damit die gebrochen inverse Vektoriteration verschiedene Vektoren liefert,
sind die Näherungswerte der zusammenfallenden Eigenwerte um die kleinen
296 5 Behandlung der Eigenwertaufgaben
5.2 Vektoriteration
I C;Q\i
n
x(Q) = (5.60)
i=l
der Koeffizient d Q
) =1= 0 ist. Der k-te iterierte Vektor x(k) kann analog dargestellt
werden als
n
x(k) = I cik)xi, (k = 0, 1,2, ... ). (5.61)
i=l
Nach Substitution von (5.61) in (5.59) ergibt sich unter Verwendung der
Beziehung AXi = AiBxi (i = 1, 2, ... , n)
I I I
n n n
Ax(k) = C;k) AXi = Aic;k) BXi = Bx(k-l) = c;k - 1) BXi.
i=l i=l i=l
Hierbei wurde die Voraussetzung verwendet, daß auch die Matrix A positiv
definit ist, so daß die Eigenwerte ,1,; positiv sind und vor allem nicht
verschwinden. Wegen (5.62) besitzt der k-te iterierte Vektor die Darstellung
X(k) = ±(~)k
;=1 ,1"
ci0)x; = (_1 )k
AI
[c(0)XI + ±(~)k
;=2 ,1"
ci0)x;]. (5.63)
Die Berechnung dieses Quotienten für einen iterierten Vektor x(k) ist gar nicht
so aufwendig, wie dies auf den ersten Blick erscheinen mag. Seine Berechnung
muß nur im richtigen Zeitpunkt auf Grund entsprechend vorbereiteter Daten
erfolgen. Die Normierung des Vektors x(k) erfordert ja ohnehin die Berech-
nung von x(k)T BX(k), und der Vektor Ax(k) steht als Bx(k-I) im allgemeinen
Iterationsschritt vor Bestimmung von X(k) zur Verfügung. Jener Vektor darf
durch das Vorwärts- und Rückwärtseinsetzen nicht zerstört werden, damit er
zur Bildung von x(k)T (Ax(k») noch zur Verfügung steht. Der Algorithmus der
einfachen Vektoriteration ist in (5.65) zusammengefaßt.
Eigenwerten den Nachteil auf, daß die Iterationsvektoren für die betreffenden
Eigenwerte sehr langsam konvergieren, weil in Verallgemeinerung zu (5.63)
die Konvergenzquotienten sehr nahe bei Eins liegen. Eine wesentliche
Verbesserung bringt die simultane Vektoriteration.
(k) _ h
(5.73)
XI - -JhTBh
(5.74) berechnet und auf ihre Konvergenz getestet werden. Die p Multiplika-
tionen mit B sind ersetzt worden durch p Multiplikationen mit L T .
Bei ungünstiger Wahl der Startvektoren x~O) besteht der Nachteil, daß die
B-Orthogonalisierung die Vektoren Z~kl stets in der Reihenfolge aufsteigender
Indizes i in den Prozeß einbezieht. Falls zufällig xfOl keine Komponente nach XI
enthält, kann xfk) theoretisch gar nicht gegen den ersten Eigenvektor
konvergieren. Ist die Komponente sehr klein, sind viele Iterationen nötig, bis
xfk l den ersten Eigenvektor darstellt.
Durch den B-Orthogonalisierungsprozeß (5.72) und (5.73) ist eine spezielle
Linearkombination der Kolonnen von Z(k) in diejenigen von X(k) gemäß
Z(kl = xi k)R k oder X(k) = Z(k) R"k I mit einer regulären Rechtsdreiecksmatrix
definiert, die einer QR-Zerlegung entspricht [Scw88]. In Verallgemeinerung
soll jetzt xi k) als Linearkombination von allen Vektoren Z~k) entstehen, was mit
einer regulären (pXp)-Matrix Gk in der Form
X(k) = Z(klG k (5.75)
beschrieben werden kann. Mit X(k) soll nicht nur die Bedingung (5.69) der
B-Orthogonalität erfüllt werden, sondern die Vektoren X;k) sollen auch die
Eigenvektoren zu den kleinsten Eigenwerten von Ax = ABx möglichst gut
annähern. Da die gesuchten x;k) demp-dimensionalen Unterraum angehören,
zi
der aufgespannt wird von den Vektoren k ), besteht die Lösung darin, die p
stationären Werte des Rayleighschen Quotienten R[x] für Vektoren X aus
diesem Unterraum zu bestimmen. Sie besitzen die Darstellung x = Z(k) g, und
die Aufgabe lautet
x TAx T Z(k)T AZ(k) TA
R[x] = - - = g g = ~ = stationär! (5.76)
x T Bx gT Z(kl TBZ(k)g gTEg
mit (5.77)
Die (p Xp)-Matrizen AundE nennt man die Projektionen vonA und B auf den
d
Unterraum der Vektoren k ). Die beiden Matrizen A und E sind symmetrisch
und positiv definit. Die Vektoren gund damit die Kolonnen der Matrix Gk sind
die Eigenvektoren der allgemeinen Eigenwertaufgabe
(5.78)
Die Eigenvektoren gi können als B-orthonormiert vorausgesetzt werden, und
sie seien so angeordnet, daß die zugehörigen Eigenwerte Xi in aufsteigender
Reihenfolge angeordnet sind. Dann gilt aber nach (5.76) für die Rayleighschen
Quotienten der zugehörigen Vektoren xi k) = Z(k l gi
(k) _ - ._
R[xi ] - Ai, (I - 1,2, ... , p), (5.79)
so daß die Eigenwertnäherungen mit wachsendem Index i zumindest zuneh-
304 5 Behandlung der Eigenwertaufgaben
zu bestimmen ist. Die Berechnung von Z(k) erfolgt in vier Teilschritten, die in
(5.84) auf Grund von (5.81) zusammengefaßt sind.
für j= 1, 2, ... , p:
rjj=,j zl Zj
Zj=Zj/rjj
(5.85)
für i=j+ 1,j+2, ... ,p:
rji=zl Zi
Zi = Zi - rjiZj
Der Algorithmus (5.85) benötigt p(p + 1)/2 Skalarprodukte und ebenso viele
skalare Multiplikationen von Vektoren, bzw. Triaden, so daß der totale
Rechenaufwand rund p(p + 1)n multiplikative Operationen beträgt. Die
Matrix R der QR-Zerlegung wird im folgenden noch eine Rolle spielen.
Für den Ritz-Schritt werden in der neuen Situation der Projektionen der
Matrizen C und I auf den durch ZCk) definierten Unterraum benötigt. Es ist
nun zweckmäßig, für die Projektion die in der QR-Zerlegung Z(k) = Q(k) R(k)
gewonnene orthogonale Basis zu verwenden, so daß
C= QCk)T CQ(kl, 1= QCkJY QCk) = I (5.86)
werden, das heißt, daß nur ein spezielles Eigenwertproblem mit der Matrix C
zu lösen ist. Da aber die Berechnung von C die Matrizenmultiplikation CQCk)
erfordert, ist dieser Schritt viel zu aufwendig. Die Situation kann nach einer
Idee von Rutishauser [Rut70] wesentlich verbessert werden, falls anstelle
von C die Projektion von C 2 auf den Unterraum von Z(k) verwendet wird.
Denn dafür gilt
C= QCk)T C 2 QCk) = (ZCk) RCk)-I) T C2(ZCk) R(k)-l)
Die Eigenwerte von C 2 sind bekanntlich die Quadrate der Eigenwerte von C,
und somit liefern die Ritz-Werte der Projektion C von C 2 bestmögliche
Approximationen für die Quadrate der Eigenwerte von C. Da aber weiter die
Eigenvektoren einer Matrix identisch sind mit denjenigen ihrer Inversep und
die Eigenwerte in die Kehrwerte übergehen, kann anstelle von C das
5.2 Vektoriteration 307
Konvergenztest
Bei diesem Vorgehen wird im wesentlichen der Eigenschaft (5.9) der gesuchten
Eigenvektoren im Verlauf der Iteration Rechnung getragen.
die Eigenwerte
Ai = Ai + C, (5.98)
5.3 Bisektionsmethode
Als Vorbereitung zur Begründung des Verfahrens wird die Reduktion einer
quadratischen Form
Q= i~ jtl lijxixj = XT Fx = it
l
ai (jtl CjiXj)
2
(5.99)
n n
= alyt + L L fi?lX;Xj (5.100)
;=2 j=2
- PfI
CII-VI}III, -
aJ!jl
Cjl- --, 2
( j. -- , 3, )
... ,n, (5.101)
Cll
und entstehen weitgehend analog zu den Elementen der ersten Kolonne der
Cholesky-Matrix L einer positiv definiten Matrix. Die Elemente j,Y) der
reduzierten quadratischen Form
n n
Ql = L L fJIl XiXj (5.102)
i=2 j=2
in den (n - I) Variablen X2, X3, ... , X n entstehen nach (5.100) unter Verwendung
der Koeffizienten Cjl (5.10 I) gemäß
j,ij(ll_j,
- ij-aICilCjl, (
I," -,2, 3
j- )
... ,n. (5.103)
Auch hier ist die Verwandtschaft mit der Cholesky-Zerlegung deutlich.
2. Es sei fll = 0, und es existiere ein Index q ~ 2 mit fql =F O. Diese Situation
wird auf die vorhergehende zurückgeführt mit der Variablensubstitution
Xq = ± (I + (q, Xi = (i für alle i =F q, (5.104)
welche mit der regulären Matrix
(5.105)
±I +-q
Der Trägheitssatz von Sylvester bildet den Schlüssel zur Lokalisierung der
Eigenwerte der allgemeinen Eigenwertaufgabe und damit zur Bisektions-
methode.
Satz 5.1 Die Anzahl der Eigenwerte Ai von Ax = ABx, welche größer, kleiner oder
gleich einem gegebenen reellen Wert Il sind, ist gleich der Anzahl der positiven,
5.3 Bisektionsmethode 313
Infolge der positiven Definitheit von B sind die Diagonalelemente von D 1 als
die Eigenwerte von B positiv, so daß die Matrix DII2 im reellen Zahlbereich
gebildet werden kann.
Damit läßt sich (5.110) zumindest formal auf eine spezielle Eigenwertaufgabe
zurückführen, nämlich
(5.112)
das mit der symmetrischen Matrix
F" = Di 1/ 2 UT FUDi 1/ 2 und DV2 U T x = y (5.113)
kurz geschrieben werden kann als F" y = A' y. Zu F" existiert eine weitere
orthogonale Matrix V, so daß
(5.114)
eine Diagonalmatrix mit den Eigenwerten Ai = Ai - /l als Diagonalelementen
ist. Nach (5.114) und (5.113) ist D 2 die kongruent transformierte Matrix von F
vermöge der regulären Transformationsmatrix UDjl/2 V. Ferner ist die
Diagonalmatrix D 2 trivialerweise kongruent zu einer Diagonalmatrix D mit
Diagonalelementen + I, -1 und 0, derart, daß die Vorzeichen der von Null
verschiedenen Diagonalelemente unverändert bleiben. Damit ist eine Kongru-
enztransformation konstruiert worden, aus deren zugehörigen kanonischen
Form die Vorzeichen der Eigenwerte Ai hervorgehen. Nach dem Trägheitssatz
von Sylvester ist die Anzahl der positiven, negativen und verschwindenden
Eigenwerte Ai gleich der Anzahl der positiven, negativen, resp. verschwinden-
den (Ji in irgendeiner kanonischen Form von F = A - /lB. Mit Ai = Ai + /l ist
damit die Aussage des Satzes bewiesen. 0
Die praktische Anwendung des Satzes soll für den Fall skizziert werden, daß
die Matrizen A und B und damit F Bandstruktur mit der Bandbreite m
aufweisen. Diese Eigenschaft von F soll so weit als möglich ausgenützt werden.
Da die Symmetrie im Reduktionsalgorithmus erhalten bleibt, wird wie üblich
mit der unteren Hälfte von F gearbeitet.
Wir beginnen mit der Beschreibung des ersten Reduktionsschrittes. Um die
numerische Stabilität zu erhöhen, wird die Hilfskongruenztransformation
(5.106) stets dann ausgeführt, falls /11 nicht das absolut größte Element der
ersten Kolonne ist. Deshalb wird das absolut größte Element /ql der ersten
Kolonne ermittelt.
max IJiI I (5.115)
l';;i';;m+1
Ist /ql =0 oder realistischer l/qI! ~JIIFII, so liegt der Fall 3) vor. Darin
bedeutet J die kleinste positive Zahl im Rechenautomaten, für die 1 + t5 =1= 1
gilt. IIFII ist eine Norm von F Es gilt somit (JI = 0 und der Eliminationsschritt
kann übersprungen werden.
Ist hingegen I/qll >t5IIFII mit q= 1, kann mit/li als Pivot der Reduktions-
schritt nach (5.101) und (5.103) durchgeführt werden. Falls aber q > 1 ist, wird
die Hilfskongruenztransformation (5.106) mit der dort definierten Vorzei-
chenfestsetzung angewendet. Damit wird erreicht, daß das Pivotelement
11111> 1/111 wird, da in (5.107) I/qll > I/lI! ist. Allerdings kann nicht
garantiert werden, daß auch 11111 > 1];,1 für i = 2, 3, ... , m + 1 gilt, da das
Überwiegen vonll1 von den Elementen der q-ten Kolonne abhängig ist.
Durch eine solche Hilfskongruenztransformation wird die Bandstruktur der
gegebenen Matrix F in der ersten Kolonne (und Zeile) teilweise zerstört. Im
extremsten Fall mit q = m + I können in der ersten Kolonne unterhalb des
Bandes m zusätzliche von Null verschiedene Elemente erscheinen, wie dies in
Fig. 5.1 schematisch dargestellt ist. Für eine innerhalb des Bandes schwach
besetzte Matrix F brauchen selbstverständlich nicht alle zusätzlichen Elemente
auch tatsächlich von Null verschieden zu sein. Die Hülle der Matrix F wird in
der Regel vergrößert.
Hat eine Hilfskongruenztransformation stattgefunden, so erzeugt der Reduk-
tionsschritt eine Matrix F I = (J;JIl) der Ordnung (n - 1), wobei in einem
dreieckigen Bereich außerhalb des Bandes von Null verschiedene Matrixele-
5.3 Bisektionsmethode 315
mente entstehen können, wie dies in Fig. 5.2 für die extremste Situation nach
Fig. 5.1 gezeigt ist. Sehr oft wird der hervorgehobene Bereich nicht voll besetzt
sein, vielmehr kann hier die Hülle von F Berücksichtigung finden.
Fig. S.l Mögliche Struktur von F Fig. S.2 Struktur der reduzierten
nach Hilfskongruenztrans- Matrix nach dem ersten
formation, erster Schritt Schritt, ohne erste Kolonne
0,5 100 o
(5.117)
F- [
-10020,01 49,95 J
1- 49,95 -0,25
Für den nächsten Reduktionsschritt steht ein sehr großes Pivotelement direkt
zur Verfügung. Nach den Formeln (5.101) und (5.103) ergibt sich für das
5.3 Bisektionsmethode 317
Falls MI <;10 und IflIl <;10, so liegt der Fall 3) von Abschn. 5.3.1 vor, und mit
(}I= 0 ist der Eliminationsschritt zu überspringen.
2. Sind jedoch die Bedingungen
Iflll ~aMI und Iflll >10 (5.119)
erfüllt, wirdflI als Pivote1ement für einen Reduktionsschritt verwendet. Das
absolut größte Außendiagonale1ement der ersten Kolonne übersteigt den
Betrag des Pivotelementes höchstens um den Faktor 1,562, so daß im Gauß-
Algorithmus Multiplikatoren größer Eins auftreten können.
3. Ist (5.119) nicht erfüllt, bestimme man das Maximum M 2 der Beträge der
Außendiagonale1emente der q-ten Zeile
M2 = max Ifqd. (5.120)
I~j~n
jioq
(5.122)
erfüllt. Trifft (5.122) zu, vertausche man die ersten und q-ten Zeilen und
Kolonnen von F, womit die Voraussetzungen geschaffen sind, das (neue)
ElementflI als Pivot für einen Reduktionsschritt zu verwenden.
5. Haben die vorangehenden Auswahlrege1n zu keinem annehmbaren Ma-
trixe1ement als Pivot geführt, so ist damit gleichzeitig sichergestellt, daß die
Untermatrix der Ordnung zwei, gebildet aus den Elementen
[f
ll flq J (5.123)
fql fqq
5.3 Bisektionsmethode 319
regulär ist. Durch Kombination aller Bedingungen, die ja nicht erfüllt sind,
kann gezeigt werden, daß die Determinante der Matrix (5.123) einen negativen
Wert hat. Deshalb kann mit dieser Untermatrix im Sinn der Blockelimination
ein (2 X 2)-Pivotschritt durchgeführt werden. Zur Systematisierung des Pro-
zesses sollen stets zwei aufeinanderfolgende Variablen gleichzeitig eliminiert
werden. Falls q > 2 ist, werden aus diesem Grund die zweiten und q-ten Zeilen
und Kolonnen vorgängig zu diesem Schritt vertauscht, so daß jetzt die
zweireihige, reguläre Untermatrix
(5.124)
F= r ~ ~T 1 (5.125)
ansetzen, erhalten wir in Analogie zu (3.25) aus K die reduzierte Matrix K(2)
der Ordnung n - 2
K(2)=K-HG- 1H T . (5.126)
Der Reduktionsschritt (5.126) ist für voll besetzte Matrizen problemlos
durchführbar. Im Hinblick auf unsere Zielsetzung, die Reduktion auf
Matrizen mit Hüllenstruktur anzuwenden, wollen wir den (2 X 2)-Pivotschritt
durch zwei einfacher zu programmierende, dazu äquivalente Reduktions-
schritte ersetzen. Da aber weder 111 noch das (neue) Matrixelement 122 als
Pivots brauchbar sind, muß zuerst eine geeignete Hilfskongruenztransforma-
tion auf die (neue) Matrix F(5.125) angewandt werden. Damit die Wachstums-
rate des betragsgrößten Matrixelementes auch in der ersten reduzierten
Zwischenmatrix beschränkt bleibt [WaI82], ist die Matrix der Kongruenz-
transformation wie folgt anzusetzen:
s 0
I 0 0 ... 0
1 1 I 0 0 ... 0
---~--------
Ch= 0 0 I 1 0
I
0
[: OT 1mlts=
. + M-
_ 2
(5.127)
[.-2 Al1
0 0 I 0 1 0
I
0 0 I 0 0
Komponentenweise lautet die Variablensubstitution Xl = S(l, X2 = (1 + (2,
= (i, i;;:;' 3. Das Vorzeichen von s wird noch geeignet festgelegt werden. Mit
Xi
320 5 Behandlung der Eigenwertaufgaben
_ T
F= Ch FCh =
[ST
0 OT
In - 2
] [G
H
HTJ
K
[s0
OT ]
I n -2
(5.128)
= [~:GS ~THTJ.
Die Hilfskongruenztransformation mit C h kann so interpretiert werden, daß
zuerst die erste Zeile und Kolonne von F mit s multipliziert werden, worauf
noch die zweite Zeile zur ersten und die zweite Kolonne zu ersten addiert
werden. Da auf Grund der Definitionen (5.118) und (5.120) für MI und M2 für
1si:> 1 gilt, kann man auch von einer geeigneten Vorskalierung der ersten Zeile
und Kolonne sprechen.
Es ist interessant festzustellen, daß die aus F resultierende Matrix K(2),
vollkommen unabhängig von der regulären Matrix S in (5.127), mit K(2)
(5.126) übereinstimmt. In der Tat folgt aus (5.128)
K(2) = K - (HS) (ST GS)-I(STHT)
=K-HSS-IG-IS-TSTHT =K-HG-IHT =K(2).
des Algorithmus von Bunch und Kaufman feststeht. Die oben formulierte
Regel 5 kann ersetzt werden durch
5'. Falls q> 2 ist, vertausche man die zweiten und q-ten Zeilen und Kolon-
nen. Dann führe man die Hilfskongruenztransformation (5.128) durch, wobei
das Vorzeichen von s gemäß (5.130) festgelegt ist. Anschließend sind zwei
Reduktionsschritte mit den Pivots 1]] und 12~) auszuführen.
Auf Grund der Regeln ist klar, daß die Reduktion von F durch eine Cholesky-
ähnliche Zerlegung, verbunden mit eventuellen Zeilen- und Kolonnenpermu-
tationen (Regeln 4 und 5') und mit Hilfskongruenztransformationen (Regel 5')
durchführbar ist. Diese Form der Zerlegung wird für Matrizen mit Hüllen-
struktur bedeutend einfacher zu realisieren sein als eventuelle (2 X 2)-Pivot-
schritte.
Bevor wir zum eigentlichen hüllenorientierten Algorithmus übergehen, wollen
wir uns davon überzeugen, daß die Pivotstrategie im Fall der Matrix (5.116)
den gewünschten Effekt hat. In jenem Beispiel ist M] = 0,5 = f3], q = 3,
M z = 100, und es ist erwartungsgemäß Regel 5' anzuwenden. Die Zeilen- und
Kolonnenvertauschungen und die nachfolgende Hilfskongruenztransforma-
tion mit s = 200 ergibt nacheinander die Matrizen
P,5
0,5 100
0,1 ] [ 200 120 ]
0 100 und 100 0 10~ .
0,1 100 0 120 100
Die beiden einzelnen Reduktionsschritte liefern
Die allfällig nach den Regeln 4 und 5' auszuführenden Zeilen- und Kolonnen-
permutationen sowie die Kongruenztransformationen produzieren trotz der
eingeschränkten Pivotstrategie von Null verschiedene Matrixelemente außer-
halb der Hülle von F. Wenn man aber die verschiedenen Operationen genauer
analysiert, erkennt man rasch, daß es genügt, die Hülle von F = A - flB um
höchstens zwei Indexpaare in jeder Zeile nach links zu erweitern. Mit den aus
(3.10) abgeleiteten Werten
Fig.5.3
Erweiterte Hülle für den Reduktionsalgorithmus
5.3 Bisektionsmethode 323
Der Eigenvektor Xi zum Eigenwert Ai von Ax = ABx wird mit Hilfe der
ge brochen in versen Vektori tera tion berechnet. Um den Eigenvektor und
den Eigenwert gleichzeitig auf effiziente Weise zu bestimmen, folgen wir einer
Idee von Gupta [Gup73]. Die fortgesetzte Intervallhalbierung zur Lokalisie-
rung des gesuchten Eigenwertes Ai wird gestoppt, sobald ein Intervall [ai, bi]
ermittelt worden ist, welches Ai als einzigen Eigenwert enthält. Bezeichnen wir
mit v(.u) die Anzahl der negativen (Ji, die sich in der Cholesky-ähnlichen
Zerlegung von F = A - flB ergeben. Die genannte Situation liegt genau dann
vor, falls v(ai) = i - I von v(b i) = i gelten. In diesem Fall ist Ai der nächstgele-
gene Eigenwert zum Mittelpunkt AM=(ai + bi)/2 des Intervalls. Somit muß die
Folge von Vektoren xfk), berechnet aus
_ (k) _ (k-I) _
(A AMB)Xi - BXi ,(k - 1,2, ... ) (5.135)
theoretisch gegen die Richtung des Eigenvektors Xi zu Ai konvergieren unter
der Voraussetzung, daß der Startvektor xfO) eine Komponente nach dem
Eigenvektor Xi enthält. Die Konvergenz kann jedoch beliebig langsam sein,
falls Ai zufällig sehr nahe an einem Intervallende liegt und gleichzeitig
benachbart zu einem anderen Eigenwert ist. Trennt beispielsweise die obere
324 5 Behandlung der Eigenwertaufgaben
Intervallgrenze bi die eng benachbarten Eigenwerte Ai und Ai+ I, so ist der die
Konvergenz bestimmende Quotient q=(Ai-AM)/(Ai+I-AM) nahe bei Eins.
Diese Situation muß aber ausgeschlossen werden. Deshalb wollen wir
verlangen, daß die gebrochen inverse Vektoriteration mit einem festen Wert
AM erst dann gestartet wird, falls ein Konvergenzquotient von höchstens 0,5
garantiert ist. Dies trifft sicher dann zu, falls mit zwei zusätzlichen Reduktio-
nen festgestellt wird, daß Ai sogar im Innern des Teilintervalls [(ai + AM )/2,
(bi + AM )/2] liegt. Die dazu nötigen und aufwendigen Zerlegungen sollten aber
nach Möglichkeit vermieden werden. So ist zu beachten, daß im Verlauf der
fortgesetzten Intervallhalbierung mit jedem Wert f.J. Information vorliegt, mit
welcher die unteren und oberen Schranken der gesuchten Eigenwerte verbes-
sert werden können. Falls nun die untere Schranke ai + 1 für Ai + 1 größer als die
obere Schranke bi für Ai ist, ist die geforderte Konvergenzgüte bezüglich Ai+ 1
<
sichergestellt, falls der einfache Test (bi - AM )/(ai+ 1 - AM) 0,5 erfüllt ist. Ist
im Zug der Berechnung mehrerer Eigenwerte Ai _I bereits bekannt, garantiert
das Erfülltsein der Ungleichung (AM-ai)/(AM-Ai-I)<0,5 die gewünschte
Konvergenzgüte bezüglich Ai - I.
Die nach (5.135) iterierten Vektoren xY) sind in geeigneter Weise zu
normieren, um Zahlenbereichsüberschreitung im Rechner zu vermeiden. Die
Normierung gemäß xY)T BxY) = I ist zweckmäßig, da jeder Iterationsschritt
ohnehin die Multiplikation mit B erfordert, so daß die Normierun~ damit
kombiniert werden kann. Unter dieser Normierunrsbedingung für x} ) liefert
der zugehörige Rayleighsche Quotient R [x}k)] = x} ) T Ax}k) eine Näherung für
den Eigenwert Ai. Infolge des garantierten Konvergenzquotienten für die
Iterationsvektoren ist ein Konvergenztest bezüglich des Rayleighschen Quo-
tienten problemlos.
Nach Berechnung der rechten Seite von (5.l35) ist jenes Gleichungssystem
nach x}k) aufzulösen. Dazu kann der oben beschriebene Reduktionsalgorith-
mus für die Matrix F=A -AMB benützt werden, sei es für Matrizen F in
Bandform oder mit Hüllenstruktur. Denn er entspricht ja im wesentlichen
einer Cholesky-Zerlegung, kombiniert mit Kongruenztransformationen und
Permutationen. Um die Prozesse des Vorwärts- und Rückwärtseinsetzens auf
die rechte Seite von (5.135) problemgerecht anwenden zu können, wird die
Information über die erfolgten Zeilen-/Kolonnenvertauschungen und die
ausgeführten Hilfskongruenztransformationen mit den dabei verwendeten
Werten s nach (5.127) benötigt, sowie neben den Elementen der Linksdreiecks-
matrix C mit Band- oder Hüllenstruktur auch noch die Vorzeichen ai.
Um die Maßnahmen in den Prozessen des Vorwärts- und Rückwärtseinsetzens
zu beschreiben, legen wir die (3 X 3)-Pivotstrategie des vorhergehenden
Abschnitts zugrunde. Falls vor Ausführung des p-ten Reduktionsschrittes eine
Zeilen- und Kolonnenpermutation stattgefunden hat, so ist im Vorwärtsein-
setzen dieselbe Vertauschung im (momentanen) Konstantenvektor zu vollzie-
5.3 Bisektionsmethode 325
(5.139)
(5.140)
Uk = Cqk
rk = Uk - ßk-Iqk-I
(5.144)
r" = rk - akqk mit ak = qlrk
qk+1 = rk/ßk mit ßk = IIr,,112
Durch sukzessive Substitution ergibt sich aus (5.144) für die Basisvektoren qk
die Relation
(5.145)
die auch für k = 1 gültig bleibt, falls qo = 0 gesetzt wird. Die konstruierten
Basisvektoren erfüllen also eine dreigliedrige Rekursionsformel.
Die oben erwähnte Invarianz eines durch!1 erzeugten Krylov-Unterraumes,
charakterisiert durch die Tatsache, daß der (k + I)-te Krylov-VektorA+ I zum
ersten Mal von den vorhergehenden Vektoren linear abhängig wird, wird bei
der Konstruktion der orthonormierten Basis dadurch erkannt, daß in (5.144)
der Vektor r" = 0 und damit ßk = 0 wird, so daß der (k + l)-te Basisvektor
nicht gebildet werden kann.
Unter der Annahme, daß der Krylov-Unterraum K(m)(fl) die Dimension m
bestitzt, können die m Basisvektoren ql, q2, ... , qm konstruiert werden. Diese
orthonormierten Vektoren qk fassen wir zu einer (n X m)-Matrix
(5.146)
zusammen. Für die Projektion von C auf den Krylov-Unterraum K(m)(fl) gilt
al ßI
ßI a2 ß2
ß2 a3 ß3
T m := Q~CQm = (5.147)
ßm-2 am-Ißm-1
ßm-Iam
weil die k-te Kolonne von CQm die Linearkombination (5.145) enthält und bei
der Bildung von Q;'(CQm) die Orthonormiertheit der qk zu beachten ist.
Wegen ßi =1= 0 für i = 1, 2, ... , m -1 ist die tridiagonale Matrix Tm (5.147)
330 5 Behandlung der Eigenwertaufgaben
Die Berechnung der Eigenwerte Bi der tridiagonalen Matrix Tk kann mit Hilfe
der Bisektionsmethode (vgl. Abschn. 5.1.4) erfolgen, weil über die Lage der
Eigenwerte eine gute Information vorliegt. Denn auf Grund der Tatsache, daß
die charakteristischen Polynome fk(A) der tridiagonalen Matrizen Tk die
dreigliedrige Rekursionsformel (5.49) erfüllen, folgt unmittelbar, daß die
Eigenwerte von Tk - I diejenigen von Tk trennen. Werden die Eigenwerte von
Tk mit B?) bezeichnet und der Größe nach geordnet, gelten die Ungleichungen
Bl k) < Blk - I) < B~k) < BY- I ) < B~k) < ... < B~"21 < BY-=-II) < B~k). (5.151)
Für die Eigenwerte Bfk) sind deshalb bereits Intervalle bekannt, die genau einen
gesuchten Eigenwert enthalten, falls für die äußersten Eigenwerte noch die
Zeilenmaximumnorm von Tk herangezogen wird, die sich aus derjenigen von
Tk-I leicht rekursiv berechnen läßt.
Da die Eigenwerte von Tk optimale Approximationen von gewissen Eigen-
werten A) von C darstellen, kann die Konvergenz von Ritzwerten Bfk) gegen
konstante Werte als eine mögliche Testbedingung für den Abbruch des
Lanczos-Algorithmus verwendet werden. Die Güte der Approximation eines
Ritzpaares (Bi, Zi) wird aber in der Regel mit Hilfe des zugehörigen Residuen-
vektors Pi:= CZ i - Biz i beurteilt [Par80]. Seine euklidische Norm kann
interessanterweise ohne explizite Berechnung des Ritz-Vektors Zi bestimmt
werden. Zu diesem Zweck wird der Satz von Relationen (5.145) mit Hilfe der
Matrizen Qm und Tm unter Einbezug des Basisvektors qm + I in der folgenden
Form zusammengefaßt:
(5.152)
Die (nXm)-Matrix Fm enthält in der m-ten Kolonne den Vektor ßmqm+1
entsprechend der Rekursionsformel (5.145) für k = m, und em stellt den m-ten
m-dimensionalen Einheitsvektor dar. Deshalb gelten wegen (5.149), (5.148)
und (5.152) für m = k die Gleichungen
Die Zielsetzung besteht jetzt darin, die betragskleinsten Eigenwerte von C, das
sind diejenigen Eigenwerte von Ax = ABx, welche am nächsten zum Wert j1
liegen, zu bestimmen. Deshalb wird mit der Inversen von C im Lanczos-
Algorithmus gearbeitet, deren Eigenwerte p = 1/(A - j1) sind. Mit dieser
Spektraltransformation werden diejenigen Eigenwerte Ak, welche am nächsten
zuj1liegen, in betragsgroße, in der Regel auch gut getrennte Eigenwerte Pk = 1/
(Ak - j1) übergeführt, so daß eine sehr gute Konvergenz der betreffenden Ritz-
Werte und Ritz-Vektoren des Lanczos-Algorithmus zu erwarten ist.
5.4 Das Verfahren von Lanczos 335
(5.157)
(5.158)
(5.159)
(5.160)
Aus (5.159) und (5.160) geht hervor, daß die Orthogonalisierungen bezüglich
qk - 1 und qk übergehen in B-Orthogonalisierungen bezüglich iik - 1 und ii.b und
die Basisvektoren ii.k sind B-orthonormiert. Weiter ist zu beachten, daß nur
eine Multiplikation der MatrixB mit einem Vektor nötig sein wird, weil der im
fünften Schritt berechnete Vektor'k in (5.150) im darauffolgenden Lanczos-
Schritt zu qk+l normiert wird. Deshalb gilt hk=Bii.k=Bh-dßk-l' so daß
keine Multiplikation von ii.k mit B nötig ist.
Mit diesen Vorbereitungen lautet der Lanczos-Algorithmus für das inverse,
spektralverschobene Eigenwertproblem wie folgt:
336 5 Behandlung der Eigenwertaufgaben
Start: Wahl von f.1 und ro; Zerlegung von F=A - f.1B;
ho=Bro; ßo=(hJrO)I/2 (= IlroIIB); qo=O.
Lanczos-Schritt (k = 1, 2, ... ):
1. qk = rk - 11ßk - I (Normierung)
hk =hk-1Ißk-1 (=Bqd
2. (A -f.1B)Uk=h k (~Uk)
5.5 Rayleigh-Quotient-Minimierung
Der Vektor x, für den das Minimum angenommen wird, ist ein Eigenvektor Xl
aus dem Eigenraum zu Al. Das Ziel der Methode besteht darin, das Minimum
von R [x] iterativ zu bestimmen. Dazu soll ein Iterationsvektor x Ck ) in Richtung
5.5 Rayleigh-Quotient-Minimierung 339
(5.165)
Die Konvergenz der Vektorfolge X(k) des Algorithmus (5.171) gegen die
Richtung des Eigenvektors Xl des kleinsten Eigenwertes Al ist für größere
Matrizenpaare oft derart schlecht, daß der Algorithmus infolge der hohen
5.5 Rayleigh-Quotient-Minimierung 341
(5.172)
(5.173)
Für die Matrix H I = H(xI) ist nun eine geeignete Matrixnorm zu definieren.
Dazu betrachten wir die beiden Vektornormen
(5.174)
IIHlxlls-l
IIHIIIB,B-l := sup = max IIHlxlls-l
.<7'0 IlxilB IlxlIB= I
Die letzte Gleichheit ergibt sich so, daß man den B-normierten Vektor X als
Linearkombination der Eigenvektoren xi darstellt, dann für Hlx (5.173)
anwendet, die B-Orthonormiertheit der xi verwendet und im resultierenden
Ausdruck erkennt, daß das Maximum für X = X n angenommen wird.
Da die Matrix H I singulär ist, weil ein Eigenwert in (5.173) gleich Null ist, die
übrigen Eigenwerte jedoch strikt positiv sind, muß die übliche Definition der
Kondition modifiziert werden [Ruh77]. Dazu wird das Minimum von
IIH1xlls-l für alle B-normierten Vektoren x, welche aber B-orthogonal zum
Eigenraum zu AI sind, herangezogen, und es gilt, unter der Annahme AI sei
einfach,
min IIHlxlls-1 = 2(A2 - AJ).
!lxiIB= 1
xTBxl=O
(5.176)
342 5 Behandlung der Eigenwertaufgaben
Sie wird also bestimmt durch das Verhältnis der Länge des Spektrums An - Al
und des Abstandes des zweitkleinsten zum kleinsten Eigenwert. Die Kondi-
tionszahl ist bei größeren Problemen naturgemäß oft sehr groß, so daß eine
sehr langsame Konvergenz der Vektorfolge x ek ) gegen den Eigenvektor Xl zu
erwarten ist. Wir übernehmen aus [AxB84] die Abschätzung (4.115) der
Anzahllterationsschritte zur Lösung eines Systems von linearen Gleichungen
mit der Methode der konjugierten Gradienten als Richtlinie zur Schätzung der
erforderlichen Iterationsschritte des Algorithmus (5.171), um eine relative
Genauigkeit e für den Eigenvektor Xl zu erreichen, nämlich
Wegen der Ähnlichkeit der Matrizen K und BI sind deshalb die Eigenwerte der
Matrix O,5Bl , in aufsteigender Reihenfolge angeordnet,
(5.187)
Als nächstes multiplizieren wir die Formel für die Abstiegsrichtung h von
links mit C-T und erhalten
C -T~ -
Pk--
C~T~
gk~l
+~
ek-l
C- TPk-l
- =-
(CCT)-l gk-l +~ek-l (C~T~ )
Pk-l·
5.5 Rayleigh-Quotient-Minirnierung 345
R[/kl]/kl I1 1
II1Jk111 = 11 C/kl -
= IIL-IAL-TLTx(k l -R[x(kl]LTx(klI11 (5.189)
= IIL -I (Ax(k l - R[X(kl]Bx(k l ) 11 ~ = IIL -I ~kll ~ = II~kI11-I.
Wegen 11 ~kI11-1 = ~IB-I ~k mit der Notwendigkeit, B- I ~k zu berechnen, stellt
dies im allgemeinen wohl keinen praktikablen Weg dar, es sei denn B sei im
speziellen eine Diagonalmatrix. Die Formel (5.189) wird sich im folgenden
Abschnitt in einem andern Zusammenhang als nützlich erweisen.
werden mit
1-)
AI := A + I O"v(Bxv)(Bx v) r, (5.190)
v=)
wo O"v > 0 Verschiebungen darstellen mit der Eigenschaft, daß Av + o"v > AI,
(v = 1, 2, ... , 1-1) gelten. Die letzte Forderung wird sofort klar aus der
Tatsache, daß für die Eigenwerte und Eigenvektoren von Alx = ABx unter
Beachtung der B-Orthonormiertheit der Xj gilt
1-)
Alxj = AXJ + I O"v(Bxv)(Bxv) T Xj
v=)
Die bekannten Eigenwerte A), A2, ... , AI_) werden unter der oben gemachten
Bedingung so verschoben, daß im Spektrum von Alx = ABx der Eigenwert AI
am kleinsten ist, so daß in der Tat (AI, XI) vermittels des Algorithmus (5.188)
berechenbar ist, wobei A durch AI(5.190) zu ersetzen ist. Die jetzt erforderliche
Multiplikation eines Vektors x mit AI wird so ausgeführt, daß zum Vektor Ax,
der unter Ausnützung der schwachen Besetzung berechnet wird, skalare
Vielfache von (Bx v ) addiert werden, wobei die Skalare im wesentlichen
gegeben sind durch die Skalarprodukte (Bx v) T x. Für dieses Vorgehen ist es
zweckmäßig, die Hilfsvektoren (Bx,), (v = 1, 2, ... ,1- 1) zu speichern, so daß
der Rechenaufwand pro Iterationsschritt erhöht wird um je (1- 1) Skalarpro-
dukte und Triaden.
Der Deflationsprozeß auf Grund einer partiellen Spektralverschiebung ist
numerisch stabil, auch wenn anstelle der exakten Eigenvektoren Xv in (5.190)
nur berechnete Näherungen x:
Verwendung finden können. Wir wollen den
Einfluß auf die höheren Eigenwerte und Eigenvektoren anhand des typischen
ersten Deflationsschrittes untersuchen. Der erste Eigenvektor xt sei mit einer
relativen Genauigkeit e berechnet worden. Der Fehlervektor kann als B-
orthogonal zu X) angenommen werden, so daß eine Darstellung für xt der
Form
n n
xt = C)x) +e I Ci Xi mit 11 I cixillB = 1 (5.192)
i=2 i=2
= A + 0'1 [ C1Bx1 + 10 .I
1=2
CiBXil [C1BX1 + cI J=2
CjBXjlT
r
=A + 0'1 Cr(BX1)(Bx 1) T
r
+ 100'1 Cl {(BX 1) [jt2 Cj(BXj) +[ i t Ci (BXi)
2
}BXd T}
Somit ergibt die Fehlerabschätzung (5.154) für die Winkel 'IIk = 1:: (xt, Xk) und
die Eigenwerte At
(5.195)
mit dk := min IAk - Ad. Der Fehler in xt, verursacht durch den fehlerbe-
i*k
hafteten Vektor xt ist also von derselben Größenordnung e, falls der Abstand
dk zwischen Ak und dem nächstgelegenen Eigenwert nicht allzu klein ist, und
der Eigenwert At unterscheidet sich von Ak um einen Wert von der Größenord-
nung e2• Die Schranken in (5.195) hängen einerseits von Ck, d. h. der Größe der
Komponente des Fehlers nach Xk ab, und anderseits auch von 0"1. Der Betrag
von Ck ist durch Eins beschränkt, und 0"1 ist bei geeigneter Skalierung der
Matrizen A und B (Diagonalelemente von A gleich Eins und Diagonalelemente
von B kleiner gleich Eins) ebenfalls kleiner als Eins wählbar. Diese Tatsachen
wirken sich günstig auf die Schranken (5.195) aus. Eine feinere Fehleranalyse
mit Hilfe einer aufwendigeren Störungsrechnung liefert das interessante,
theoretische Ergebnis, daß die resultierende Eigenvektornäherung xi in erster
Ordnung von e nur eine Fehlerkomponente in Richtung von XI haben kann.
Fehlerkomponenten bezüglich der anderen Eigenvektoren werden natürlich
durch den Prozeß verursacht.
Falls die gewählte Vorkonditionierungsmatrix M unverändert zur Minimie-
rung des Rayleighschen Quotienten zum Matrizenpaar (AI, B) verwendet wird,
so geht der Vorkonditionierungseffekt mit wachsendem Iverloren. Ferner sind
die Verschiebungen O"y einerseits so zu wählen, daß sogar Av + o"v > AI+ I gilt für
v = 1, 2, ... , 1-1, doch verringern anderseits zu groß gewählte Spektralver-
schiebungen den Vorkonditionierungseffekt stark, da die Matrix M in diesem
Fall offensichtlich keine problemgerechte Approximation von AI mehr
darstellen kann. Deshalb ist eine zu AI angepaßte Vorkonditionierungsmatrix
MI zu verwenden, welche den Deflationsschritten Rechnung trägt. Da AI
gemäß (5.190) durch eine Folge von Rang-Eins-Modifikationen entsteht,
ist es naheliegend, die Vorkonditionierungsmatrix MI wie folgt zu definieren
I-I
MI = M + I O"v(Bxv)(Bxv) T. (5.196)
v~ I
(5.197)
350 5 Behandlung der Eigenwertaufgaben
Man verifiziert die Formel (5.199) so, daß man die rechte Seite mit (M + uv T)
multipliziert und zeigt, daß das Produkt gleich I ist. Mit u = (BXl), v = 0"1 (BXl)
und dem Vektor Yl =M- l u =M-l(Bxl) folgt aus (5.199) für die Lösungh von
(5.198)
h=M-lg_YlVTM-lg =h(ü)- O"l(BXdTh~) Yl.
(5.200)
1 + VTYl 1 + 0"1 (BXl) Yl
Um (5.200) anwenden zu können, muß zum berechneten Eigenvektor Xl der
von der Vorkonditionierungsmatrix M abhängige Vektor Yl als Lösung von
(5.201)
ermittelt werden. Mit diesem einmal berechneten Vektor wird dann weiter
(Bx[)TYl =: Cl (=(BXl)TM-l(Bxl) = IIBxlll~I) eine positive Konstante, so
daß wegen 0"1> 0 gleichzeitig sichergestellt ist, daß der Nenner in (5.200) nicht
nur ungleich Null, sondern sogar größer als Eins ist. Die Formel (5.200)
erfordert somit bei bekanntem h{ü) im wesentlichen ein Skalarprodukt
(Bx[) T h(ü) und die Substraktion eines Vielfachen von Yl vom Vektor h(ü).
Im allgemeinen Fall sind zur Lösung von (5.197) die skizzierten Schritte
sukzessive auszuführen. Die Berechnung von h kann wie folgt beschrieben
werden, falls die Vektoren (Bx v) undyv sowie die Konstanten Cv = (Bx v)Tyv für
v = 1,2, ... ,1-1 verfügbar sind:
Mh(Ü) = g ~ h(ü)
für v = 1,2, ... ,1- 1: (5.202)
dem wird der Speicherbedarf um den Platz für die (1-1) Vektoren Yv
vergrößert.
Trotz der verbesserten Vorkonditionierung beeinflussen allzu große Verschie-
bungen a v das Konvergenzverhalten im negativen Sinn, solange M =f. A ist.
Deshalb sind die individuellen Spektralverschiebungen problemgerecht zu
wählen, wobei der Eigenwertverteilung Rechnung getragen werden muß. Eine
mögliche Strategie, die sich in der Praxis recht gut bewährt hat, besteht darin,
die bereits berechneten Eigenwerte in einen entsprechend mehrfachen Eigen-
wert d zu verschieben, wo d> AI+ 1 gelten soll. Die Verschiebungen sind
gegeben durch a, = d - A" und d selbst wird als Vielfaches des zuletzt
berechneten Eigenwertes AI-l bestimmt. Der dabei verwendete Faktor kann
von einem Startwert sukzessive abnehmen bis auf einen Grenzwert größer als
Eins. Jede solche Strategie kann im Fall von pathologischen Eigenwertvertei-
lungen, etwa beim Auftreten von großen Lücken, versagen. Eine mögliche
falsche Wahl mit d< AI wird leicht dadurch entdeckt, daß das Minimum des
Rayleighschen Quotienten gleich d sein wird. Ein ungünstiger Wert mit
AI< d < AI+ 1 verschlechtert das Konvergenzverhalten.
Die Aussage des Satzes 5.2 im Spezialfall M = A läßt sich übertragen auf
die Eigenwertaufgabe Alx = ABx. Unter der Voraussetzung, daß Av + a v > AI+ 1
für v = 1, 2, ... , 1- 1 gilt, ist die Konditionszahl der Hesseschen Matrix
H I = H(YI) gegeben durch
- ) At.;.
?CBB (H1 = - - '
1 An - AI (5.203)
. An AI-'-1 - AI
Der Abstand von AI + 1 von AI ist der entscheidende Faktor und wird es auch im
FallM =f. A sein. Folglich ist bei der Berechnung von AI durch Minimierung des
Rayleighschen Quotienten eine langsame Konvergenz zu erwarten, falls AI+ 1
sehr benachbart ist. Eine Verbesserung dieser Situation kann durch simultane
Iteration von mehreren Vektoren erzielt werden [SPG89].
Schließlich ist noch zu erwähnen, daß es angezeigt ist, den Prozeß der
Rayleigh-Quotient-Minimierung nach einer gewissen Anzahl von Iterationen
mit dem momentanen Näherungsvektor neu zu starten. Denn die Eigenschaft
der Konjugiertheit der Suchrichtungen wird mit zunehmender Iterationszahl
in Frage gestellt, da die Methode der konjugierten Gradienten auf ein
nichtquadratisches Funktional angewandt wird. Ein Neustart ist empfehlens-
wert nach etwa 40 Schritten.
1
R [xjk+ 1 = xjk+ 11T vjk + 11• Wegen dem B-Orthogonalisierungsschritt brauchen
die Rayleighschen Quotienten für festes i> 1 keine monoton abnehmende
Folge zu bilden.
Sind alle p Iterationsvektoren auf die beschriebene Art behandelt, so bilden sie
wieder ein System von B-orthonormierten Vektoren. Als Abbruchkriterium
der Iteration kann die maximale relative Änderung der Rayleighschen
Quotienten des Iterationsschrittes verwendet werden. Der problemgerechte
Konvergenztest auf Grund der Normen (5.l89J der Residuenvektoren
l1jk1= Axjk) - R[xjk1]Bxjk1= vjk1- R[X(k1]vjk1= Ihgi 1 ist wegen der Metrik
bezüglich B -I nicht in voller Strenge anwendbar. Statt dessen kann eventuell
die mathematisch äquivalente euklidische Norm IIl1jkl l12 mit dem erwähnten
Konvergenztest kombiniert werden.
Die Rechenpraxis zeigt, daß die p Iterationsvektoren xjk1 im allgemeinen
verschieden rasch gegen die gesuchten Eigenvektoren Xi konvergieren. Wer-
den diejenige Vektoren xjk1, für welche die Konvergenz bereits festgestellt
worden ist, weiterhin dem Iterationsprozeß unterworfen, so wird für sie nur
unnötige Rechenarbeit aufgewendet. Der Rechenaufwand läßt sich um einiges
reduzieren, wenn die mit genügender Genauigkeit konvergierten Vektoren xjk1
nicht mehr iteriert werden. Die Konvergenz der einzelnen Vektoren hängt
teilweise vom Abstand des betreffenden Eigenwertes vom nächst höheren ab j
es spielen aber auch noch andere Faktoren eine Rolle. Da der erste Vektor xik
unabhängig von den andern Vektoren auf Grund der normalen Vorschrift des
RQPCG-Algorithmus iteriert wird, ist klar, daß eine Konvergenz nach wie vor
wesentlich von der Differenz A2 - AI bestimmt wird. Für die andern tritt die
entsprechende Differenz infolge der Interaktionen, insbesondere bei benach-
barten Eigenwerten, in den Hintergrund, so daß hier eine bedeutend bessere
Konvergenz beobachtet wird. Schließlich ist zu beachten, daß die Vorkondi-
tionierungsmatrix M fest ist, so daß der konvergenzbeschleunigende Einfluß
für die höheren Eigenpaare geringer sein kann.
Zwei wichtige Elemente sind noch nötig, um die simultane Rayleigh-Quotient-
Minimierung erfolgreich werden zu lassen, nämlich Ritz-Schritte und
N eus tarts des Verfahrens. Die Ritz-Schritte dienen dazu, zu gegebenen p
Vektoren xi k), xi k1 , ... , X~k1 in dem von ihnen aufgespannten Unterraum die
bestmöglichen Approximationen zu Eigenvektoren und den zugehörigen
Eigenwerten zu liefern. Ein solcher Schritt ist sicher zu Beginn der Iteration
angezeigt, um damit gleichzeitig zu erreichen, daß die Rayleighschen Quotien-
ten monoton geordnet sind. Da die p Vektoren xjk1 als B-orthonormiert
vorausgesetzt sind, erfordert der Ritz-Schritt die Behandlung einer speziellen
Eigenwertaufgabe für die Projektionsmatrix A: = x'k)T AX(k) der Ordnung p.
Stellt U die Eigenvektormatrix zu A dar zu den Eigenwerten, die in
zunehmendem Sinn geordnet sind, dann ist X(k) : = X(k1 U die Matrix der Ritz-
Vektoren. Ein Ritz-Schritt soll auch dann angewandt werden, wenn die
354 5 Behandlung der Eigenwertaufgaben
s}k) = 0; Vi = 1;
Iteration:
für 1= 1,2, ... , neust:
k = k + 1;
für i = 1,2, ... , p:
(k-I) (k-I»)
a=qi, p = l ; g=2(Vi -avi ;
Mh = g (Vorkonditionierung)
B-Orthogonalisierung von h; (5.204)
z = g T h; e = zivi; Vi = z;
SI(k) = - h + vos(k
I ,
- I). w = As(k) w' =
I ,
Bs(k).
I ,
(k-I)T (k)T
ß= Xi W, Y= Si W,
(k-I)T (k)T
(J = Xi W, r = Si W;
Berechnung von t5 i ;
x(k) = x(k-I)
I I
+ v/'.s(k) I ,
A------M f
2 2
1B 1
L
10 C
Fl
2
O,e._-----.... EJ Fig.6.1
I. .1 Grundgebiet, Temperaturverteilung
~~
ry.
~ :\
l--'
W
')V
1'\ 9
I/J
~
1/
1\,\
V 0-,
I/~
l(h,.
I? :;;~
/1'--1//
als diejenige des gegebenen Grundgebietes. Die Fig.3.9 (Fall a), Fig.6.2
(Fall b) und Fig. 6.3 (Fall c) stellen die verwendeten Diskretisationen dar. Im
Fall a) der gröbsten Elementeinteilung werden nur Dreiecke verwendet,
6.1 Stationäre Probleme 359
während in den beiden andern Fällen das Gebiet soweit als möglich
regelmäßig mit Quadraten überdeckt wird und nur Dreieckelemente in der
Nähe des krummlinigen Randes verwendet werden.
Für die drei Elementeinteilungen gelangen quadratische und kubische Ansätze
zur Anwendung. Dabei wird das kubische Dreieckelement von Zienkiewicz
(v gl. Abschn. 2.3.4) verwendet und für die Quadrate das dazu kombinierbare
Element mit dem unvollständigen kubischen Ansatz der Serendipity-Klasse
mit 12 Knotenvariablen. In Analogie dazu wird auch der quadratische Ansatz
der Serendipity-Klasse in den Quadraten mit Elementmatrizen der Ordnung 8
verwendet. In Tab. 6.1 sind die sechs verschiedenen Fälle zusammengestellt
mit Angaben über die Zahl der Elemente, die Anzahl n der Knotenvariablen,
die Bandbreite m bei Verwendung einer im wesentlichen zeilenweisen und
damit nicht optimalen Numerierung der Knotenpunkte, den Speicherbedarf
n(m + 1) für die Bandmatrix, das Profil p der Hülle und die Anzahl N der
potentiell von Null verschiedenen Matrixelemente der unteren Hälfte der
Gesamtsteifigkeitsmatrix S. Die Einsparung von Speicherplatz bei kompakter
zeilenweiser Speicherung der wesentlichen Elemente der Matrix S gemäß
Fig. 4.21, wie sie im Zusammenhang mit den vorkonditionierten Methoden
der konjugierten Gradienten zweckmäßig ist, ist im Vergleich zur Speicherung
in Band- oder Hüllenform für die quadratischen Ansätze größer als für die
kubischen Ansätze. Darin kommt die relativ stärkere Besetzung der Matrix S
im Fall der kubischen Ansätze deutlich zum Ausdruck. Für die beiden feinsten
Einteilungen sind noch die Profile p der Matrizen S nach Anwendung des
Algorithmus von Cuthill-McKee angegeben. Für den quadratischen Ansatz
wird eine stärkere Reduktion des Profils erzielt.
In Tab. 6.2 sind die Werte der resultierenden Temperaturen in den neun
ausgewählten Punkten C bis M nach Fig. 6.1 zusammengestellt, um die
Konvergenz auf Grund der Verfeinerung der Diskretisation und des Ansatzes
360 6 Anwendungen mit Resultaten
Fall Uc UD UE UF UH UI uK UL UM
Fall Uc UD UE UF UH UI UK UL UM
I' 82,69 155,10 102,56 36,00 38,50 29,48 23,36 26,05 73,03
II' 83,05 155,23 102,78 35,90 38,28 29,40 23,28 25,98 73,27
III' 83,42 155,29 102,86 35,88 38,36 29,48 23,47 26,02 73,52
Obwohl in allen drei Fällen die Zahl n rund das 2.5-fache von n* beträgt,
unterscheiden sich die Temperaturwerte im allgemeinen recht wenig von den
entsprechenden Werten ohne Kondensation. In Tab. 6.5 sind wiederum die
Temperaturen in den ausgewählten Punkten zusammengestellt. Die große
Übereinstimmung mit den entsprechenden Werten von Tab. 6.2 erklärt sich
dadurch, daß die diskreten Grundgebiete dieselben sind. Größere Unterschie-
de zeigen sich nur in Knotenpunkten in unmittelbarer Nähe des Punktes B von
Fig. 6.1, da dort lokal starke Temperaturänderungen auftreten.
Fall Uc UD UE UF UH UI UK UL UM
I" 85,18 158,44 105,77 38,85 40,94 31,80 25,10 27,98 74,96
II" 84,32 156,68 104,33 37,23 39,58 30,51 24,18 26,90 74,28
III" 84,14 156,11 103,72 36,65 39,12 30,12 23,99 26,55 74,07
362 6 Anwendungen mit Resultaten
Schließlich soll zur Lösung der Aufgabe noch die Methode der Substruk-
turierung in Verbindung mit der statischen Kondensation zur Anwendung
gelangen. Zu diesem Zweck sei das Grundgebiet nach Fig. 6.6 in insgesamt
zwölf Teilgebiete eingeteilt, so daß je vier zueinander kongruente Teilgebiete
entstehen, welche durch indizierte römische Ziffern gekennzeichnet sind. Jede
der drei grundlegenden Substrukturen wird in geeigneter Weise in Elemente
Fig.6.6
Substrukturierung
Fig.6.7
Einteilung der
Substrukturen
6.1 Stationäre Probleme 363
eingeteilt, wie dies in Fig. 6.7 gezeigt ist. In den Substrukturen I und II werden
soweit als möglich Quadrate verwendet und durch Dreiecke ergänzt, während
zur möglichst guten Gebietsapproximation für die Substruktur In lauter
geradlinige Dreiecke angezeigt sind. Zur Bearbeitung des Problems sollen
quadratische Ansätze in den Dreieckelementen und quadratische Ansätze der
Serendipity-Klasse in den Parallelogrammelementen zur Anwendung gelan-
gen. Für die drei Substrukturen werden die je zugehörigen Steifigkeitsmatrizen
und die Konstantenvektoren aufgebaut, sodann die Knotenvariablen von
sämtlichen inneren Knotenpunkten vermöge der Kondensation eliminiert, so
daß die kondensierten Steifigkeitsmatrizen und Konstantenvektoren resultie-
ren. Diese werden zur Gesamtsteifigkeitsmatrix S und zum Gesamtkonstan-
tenvektor b kompiliert, entsprechend den in Fig. 6.6 verbleibenden n* = 249
Knotenpunkten. Jetzt werden die Randbedingungen berücksichtigt und das
lineare Gleichungssystem gelöst. In Tab. 6.6 sind die Substrukturen nach
Fig. 6.7 beschreibenden Daten zusammengestellt.
I 18 3 80 42 38
II 6 4 39 15 24
III 0 32 81 49 32
Uc UD UE UF UH Ur UK UL UM
Ncg
80
lOOk
10-10
10
1O-9-----+---~r----------"\--
0.5 1.0 1.5 U)
Bei guter Wahl des Parameters (J) reduziert sich die Zahl der Iterationsschritte
im Vergleich zur Skalierung (entsprechend (J) = 0) in allen Fällen auf mehr als
die Hälfte. Obwohl sich der Rechenaufwand bei Vorkonditionierung pro
Schritt nahezu verdoppelt, resultiert eine Reduktion des Gesamtrechenauf-
wandes. An diesen Beispielen ist doch bemerkenswert, daß Gleichungssysteme
mit etwa 200 Unbekannten vermittels 15 bis 25 vorkonditionierten cg-
Schritten lösbar sind.
In Fig. 6.9 ist für den repräsentativen Fall V je das Quadrat der euklidischen
Norm des Residuenvektors r(k) in Abhängigkeit der Schritte dargestellt, das im
366 6 Anwendungen mit Resultaten
Verfahren der konjugierten Gradienten für die nichtskalierte und die skalierte
Matrix sowie im vorkonditionierten SSORCG-Algorithmus resultiert. Da das
Residuenquadrat im vorkonditionierten Algorithmus (4.126) nicht auftritt,
wurde es zusätzlich berechnet.
Schließlich ist eIn Vergleich der Rechenzeiten zur Lösung der linearen
Gleichungssysteme mit der Methode von Cholesky bei hüllenorientierter
Speicherung und mit vorkonditionierten Verfahren der konjugierten Gradien-
ten aufschlußreich. In Tab. 6.9 sind für die repräsentativsten Fälle III und VI
der feinsten Elementeinteilung die Rechenzeiten zusammengestellt, aufgeteilt
für den Kompilationsschritt, eine allfallige vollständige oder partielle Zer-
legung der Gesamtmatrix und für den eigentlichen Lösungsprozeß, bestehend
aus dem Vorwärts- und Rückwärtseinsetzen des Cholesky-Verfahrens, bzw.
aus dem iterativen Prozeß. Ferner sind die optimalen Parameterwerte der
vorkonditionierten cg-Methoden mit den zugehörigen Iterationsschritten
angegeben. Neben der SSORCG-Methode wird sowohl die DKR-Vorkondi-
tionierung mit einer Matrix M gemäß (4.139) als auch die PACHCG-Methode
auf Grund einer partiellen Cholesky-Zerlegung in Betracht gezogen. Die
Methode von Cholesky löst die Aufgaben erwartungsgemäß mit der kürzesten
totalen Rechenzeit, doch erfordert sie den größten Speicherplatz. Der
Rechenaufwand für die Cholesky-Zerlegung im Fall IIIC der günstigeren
Cuthill-McKee-Numerierung ist entsprechend der Profilverkleinerung gerin-
ger, im Fall VIC erwartungsgemäß nur geringfügig reduziert. Da der
Gesamtrechenaufwand für die SSORCG- und die PACHCG-Methoden
vergleichbar sind, rechtfertigt sich in diesen Beispielen die Anwendung der
6.1 Stationäre Probleme 367
z
A
Fig.6.10
Parallelprojektion des
einfachen Kuppelaufbaus
368 6 Anwendungen mit Resultaten
Punkt A B C D
Stab a b c d e f
(J" [kNm- 2] -8945 4921 -18280 28690 -18260 -3085
6.1.2.2 Radarkuppel
z
A
1 0 6,40000 12 -
2 2,19l32 7,56272 12 -
3 4,80000 8,00000 12 -
4 7,40868 7,56272 12 -
5 9,60000 6,40000 12 8
6 11,95542 3,57771 6 8
7 12,80000 - 1 8
I I 1 I I
"" : ! i 1
,, , ,
-- -- --- .. -- ---- - -- '" -- - ------i
,,,
1"1---- ------
""" ,,
,,, ,,
"""
,,, ,
s ""
""rl---.,-------
""
"
,
,,
,
,,
"" ___ J,,_________ 1. _____ _ _
-------r--------i
,,,
,
,,
,
,,
,,
,,,
,,,
,,
~ _______ .J
:: 1 1 ,,
,,,
11 I I
1I t I
11 I 1
11
11
11
I
I
1
I
1
1 I
Fig.6.13
rr- - -.,- -- -- - - - - T - - - - - - - - - r - - - -- --
11 I 1 I Besetzungsstruk-
:::
11 I I
A 0 0 -0,447
B 0 0,014 -0,413
C 0 0,006 -0,360
D 0,013 -0,023 -0,328
E 0,032 -0,100 -0,243
F 0 -0,075 -0,188
G 0,033 -0,100 -0,133
H -0,044 0,075 0
Wir betrachten die Radarkuppel von Fig.6.11, die sich jetzt aus 186
Balkenelementen mit quadratischem Querschnitt A = 5 cm 2 , dem Elastizitäts-
modul E = 2 . 108 kN m -2 und der Poissonzahl v = 0,3 zusammensetzt. Die
Lagerung der Knotenpunkte des Grundkreises sei dieselbe wie in Fig. 6.12. Die
Ordnung der Gesamtsteifigkeitsmatrix S beträgt jetzt n = 402. Von den 402
Knotenvariablen sind 16 durch homogene Randbedingungen vorgegeben.
Wird die gleiche Numerierung der Knotenpunkte wie in Abschn.6.1.2.2
verwendet, besitzt die Gesamtsteifigkeitsmatrix S die Besetzungsstruktur von
Fig. 6.13 mit dem Unterschied, daß jetzt IZI eine (6 X 6)-Matrix darstellt. Es soll
die zusätzliche Deformation der Rahmenkonstruktion unter der Einwirkung
der Kräfte gemäß Tab. 6.12 bestimmt werden. Die resultierenden Auslenkun-
gen stimmen mit den in Tab. 6.13 wiedergegebenen Werten praktisch überein.
Die Abweichungen betragen höchstens eine Einheit der letzten angegebenen
Dezimalstelle.
Das lineare Gleichungssystem wurde mit der direkten Methode von Cholesky
und mit iterativen Verfahren der konjugierten Gradienten ohne und mit
Vorkonditionierungen gelöst. In der Tab. 6.16 sind für Vergleichszwecke in
Analogie zur Tab. 6.15 die entsprechenden Zahlwerte zusammengestellt.
Das Gleichungssystem wird mit der normalen cg-Methode nach Skalierung
des Systems in jeder Hinsicht am effizientesten gelöst. Die Skalierung der
Gesamtsteifigkeitsmatrix S reduziert die Konditionszahl doch wesentlich, weil
der Deformationszustand der Balkenelemente auch durch erste Ableitungen
beschrieben wird. Es sei noch darauf hingewiesen, daß die verwendeten
Längeneinheiten einen ganz entscheidenden Einfluß auf das Konvergenzver-
6.1 Stationäre Probleme 373
aus 499 Balkenelementen zusammen. Im oberen Teil des Mastes kreuzen sich
einige Balkenelemente ohne am Kreuzungspunkt miteinander verbunden zu
sein. In Fig. 6.14 sind deshalb die wirklichen Knotenpunkte durch ausgefüllte
Kreise hervorgehoben.
Aus naheliegenden Gründen sind die Knotenpunkte von oben nach unten
durchnumeriert. Dadurch erhält die Gesamtsteifigkeitsmatrix Seine Hüllen-
struktur mit dem Profil p = 50343. Die Besetzungsstruktur von S ist in
Fig.6.15 dargestellt, wo jedem IZI eine Untermatrix der Ordnung sechs
entspricht. An der Besetzungsstruktur ist die Struktur des Mastes, insbesonde-
re die drei Ausleger und der regelmäßige Aufbau des unteren Teils, deutlich zu
erkennen.
Die Deformation des Hochspannungsmastes ist zu bestimmen unter der
Annahme, daß die vier Fußpunkte eingespannt sind und daß der Mast durch
sieben Einzelkräfte an den Enden der Ausleger und an der Mastspitze belastet
ist. Da die Hochspannungsleitung unter einem Winkel geführt ist, wurden an
den Auslegern die Kraftkomponenten K x = 2 kN, K y = 1 kN und K z = -20 kN
angenommen. Dem kleineren Gewicht des Erdungsseils entsprechend sei die
376 6 Anwendungen mit Resultaten
Die direkte Methode von Cholesky löst die Aufgabe auf einem PS/2-System,
Modell 55, eindeutig mit der kleinsten Rechenzeit. Die sehr große Zahl von
Iterationsschritten der Methode der konjugierten Gradienten ohne oder mit
Skalierung ist ein Hinweis auf die große Konditionszahl der Systemmatrix S,
in welcher sich die Steifigkeit der Konstruktion widerspiegelt! Die Vorkondi-
6.1 Stationäre Probleme 377
6.1.4 Scheibenprobleme
6.1.4.1 Testscheibe
Wir betrachten eine Scheibe der Länge 40 cm, der Höhe 10 cm und einer Dicke
von 2 cm, welche an zwei Stellen gelagert und durch eine Einzellast von 10 kN
belastet ist (Fig. 6.16). Die elastischen Konstanten seien E = 2· 104 kN cm- 2
und v = 0,3. Durch die angedeutete Lagerung, welche nur eine Verschiebung in
vertikaler Richtung verhindert, ist die Aufgabe statisch unbestimmt, da eine
horizontale Verschiebung der Scheibe als Ganzes möglich ist. Durch die
zusätzliche Bedingung, daß die Auslenkung u in mindestens einem Punkt
verschwindet, wird die Problemstellung statisch bestimmt.
Infolge der Symmetrie der Aufgabe genügt es, die eine Hälfte der Scheibe zu
betrachten, indem längs des Schnittes AB entsprechende Randbedingungen
:r
F
Fig.6.16
Testscheibe
+1 I·
0 B
40cm
1
.1
378 6 Anwendungen mit Resultaten
5kN 5kN
a) )
L:>.
5kN 5kN
d)
das Profil p der Hülle und die Totalzahl N der potentiell von Null
verschiedenen Matrixelemente der unteren Hälfte zusammengestellt. Die
kompakte Speicherung der Matrixelemente bringt hauptsächlich im Fall der
quadratischen Ansätze eine wesentliche Reduktion des Speicherbedarfs, selbst
unter Berücksichtigung der zusätzlichen Indexinformation. In den übrigen
Fällen sind die Bandmatrizen bzw. die Hüllen relativ stärker besetzt. Im Fall
der vollständig kubischen Ansätze für Dreieckelemente werden die Knoten-
variablen des Schwerpunktes durch den Prozeß der Kondensation bereits in
den Elementmatrizen eliminiert. Dies beeinflußt selbstverständlich die cha-
rakterisierenden Größen.
Fall VA VB Uc Vc UD VD UF UF
-40 -211 -483 -769 -1034 -1275 -1496 -l7J0 -1951 -2448
-38 -32 -4 -7 8 6 8 -13 34 -1226
-39 -135 -170 -162 -144 -127 -113 -105 -136 -670
-49 -185 -322 -433 -540 -656 -784 -924 -1077 -877
-214 -122 -11 30 30 23 13 -12 -267 -720
-153 -328 -370 -351 -324 -305 -294 -306 -417 -293
-92 -54 210 383 520 640 753 871 988 1071
-961 -156 64 47 33 21 5 -35 -104 -164
-376 -371 -254 -268 -293 -313 -325 -314 -246 -96
228 581 716 882 1085 1315 1562 1811 2027 2157
-1344 108 15 19 9 6 1 -8 -22 -34
-429 19 -48 -94 -121 -137 -145 -139 -106 -41
-49 -229 -496 -781 -1049 -1296 -1526 -1744 -2117 -2189
-48 -25 -1 7 6 5 4 0 -47 -679
-46 -132 -161 -153 -138 -125 -117 -104 -196 -578
-45 -182 -322 -439 -552 -671 -804 -938 -1035 -959
-242 -106 0 28 25 19 11 -22 -183 -866
-152 -330 -365 -347 -324 -307 -298 -314 -367 -296
-80 -78 182 378 526 651 768 885 1000 1083
-1107 -48 54 46 29 18 6 -27 -98 -175
-381 -346 -262 -271 -293 -310 -320 -310 -250 -103
-47 568 749 910 1112 1343 1590 1838 2054 2186
-598 27 27 14 8 5 2 -5 -20 -34
-357 -21 -46 -95 -117 -130 -137 -133 -104 -40
Die in diesem Fall mit dem quadratischen Ansatz berechneten Spannungs wer-
te sind deshalb bedeutend zuverlässiger.
Die Lösung der linearen Gleichungssysteme nach der direkten Methode von
Cholesky ist hinsichtlich Rechenzeit erwartungsgemäß am effizientesten. Die
Systeme sind auch mit der Methode der konjugierten Gradienten ohne
Vorkonditionierung, einmal ohne und dann mit Skalierung, mit zwei Varian-
ten der Vorkonditionierung und der Methode der Überrelaxation (SOR) gelöst
worden. Die iterativen Verfahren wurden abgebrochen, sobald das Abbruch-
kriterium (6.5) mit e = 10- 16 erfüllt war. Der optimale Überrelaxationsfaktor
Wopt der SOR-Methode wurde experimentell bestimmt. In Tab. 6.21 sind die
maßgebenden Zahl werte zusammengestellt.
6.1.4.2 Gabelschlüssel
Fall uA VA UB VB Uc Vc UD VD UE VE
III 196 2994 1926 1,10 177 21,7 1,10 71 18,2 34 11,0
IV 384 6328 3912 2,53 282 69,6 1,30 105 53,8 56 33,7
VII 192 4560 3048 2,53 148 26,7 0,90 63 24,0 21 15,6
VIII 282 6927 4551 3,73 174 46,7 0,95 68 38,4 21 24,1
6.1.5 Plattenbeispiele
6.1.5.1 Testplatte
Fig.6.24
Elementeinteilung der Testplatte
6.1 Stationäre Probleme 387
Knotenvariablen, m die Bandbreite, p das Profil und N die Zahl der potentiell
von Null verschiedenen Matrixelemente der unteren Hälfte der Gesamtsteifig-
keitsmatrix. Die Knotenpunkte sind zeilenweise durchnumeriert.
Die Zahlwerte zum Speicherbedarf der Gesamtsteifigkeitsmatrix S zeigen in
diesem Beispiel folgende Eigenschaften auf. Da bei Verfeinerung der Diskreti-
sation einerseits die Zahl der Knotenvariablen quadratisch und anderseits die
Bandbreite linear zunehmen, wächst der Speicherplatz für die Bandmatrix
bzw. das Profil mit der dritten Potenz des Kehrwertes von I. Infolge der sehr
regelmäßigen Struktur von S bringt das Profil keine wesentliche Einsparung
im Vergleich zur Speicherung als Bandmatrix. Die Zahl N der von Null
verschiedenen Matrixelemente nimmt nur linear mit der Anzahl der Knoten-
variablen zu, da die Zahl der von Null verschiedenen Matrixelemente pro Zeile
bei gegebenem Ansatz eine feste Größe ist. Deshalb wächst N nur mit der
zweiten Potenz des Kehrwertes von I. Vergleicht man schließlich noch die
Werte von N entsprechender Fälle von nichtkonformen Elementen, erkennt
man die schwächere Besetzung von S im Fall der Dreieckelemente.
Fall WA WB Wc Wv WE WF
Fall IV der feinsten Einteilung mit konformen Elementen als exakte Ver-
gleichswerte betrachtet, zeigen die Ergebnisse im Fall der nichtkonformen
Rechteckelemente bei den feineren Einteilungen eine sehr gute Übereinstim-
mung. Dasselbe gilt auch für die erste Art der Triangulierung, für weIche bei
Verfeinerung der Einteilung die Konvergenz der Durchbiegungen gegen die
richtigen Werte offensichtlich ist. Im Vergleich zu den nichtkonformen
Rechteckelementen sind bei entsprechend feiner Einteilung größere Abwei-
chungen festzustellen, die einerseits der Unsymmetrie der Diskretisation und
anderseits der Tatsache zuzuschreiben sind, daß die Stetigkeit der Normalab-
leitungen zusätzlich längs den Hypotenusen nicht gewährleistet ist. Die
resultierenden Durchbiegungen im Fall der zweiten Triangulierung konvergie-
ren zwar bei Verfeinerung, jedoch gegen falsche Grenzwerte, die bis ca. 3 % zu
hoch sind. Das illustriert die obengenannte Tatsache.
Methode der konjugierten Gradienten ist bedeutend besser als die Erfahrun-
gen mit entsprechenden Differenzenapproximationen erwarten lassen
[EGR59]. Bei Skalierung der Gesamtsteifigkeitsmatrix oder mit Vorkonditio-
nierung wird die Anzahl der erforderlichen Iterationsschritte teilweise wesent-
lich kleiner als die Zahl der Knotenvariablen. Besonders ausgeprägt ist dies im
Fall der PACHCG-Methode.
Die verwendeten Typen von Plattene1ementen wirken sich sehr unterschied-
lich auf das Konvergenzverhalten der nicht vorkonditionierten CG-Methode
aus. Wird die Gesamtmatrix nicht skaliert, ist die benötigte Iterationszahl im
Fall der konformen Elemente bei den feineren Einteilungen weit größer als die
Ordnung n. Die Skalierung des Gleichungssystems bringt hier eine entschei-
dende Verbesserung. Darin kommt die Tatsache zum Ausdruck, daß sich die
Diagonale1emente der nichtskalierten Matrix um Zehnerpotenzen unterschei-
den, weil sie mit verschiedenen Potenzen der Elementgröße I multipliziert sind.
Im Fall der nichtkonformen Rechteck- und Dreieckelemente reduziert die
Skalierung die Zahl der Iterationsschritte weniger stark. Die Diagonalelemen-
te der nichtskalierten Matrix unterscheiden sich in der Größenordnung
bedeutend weniger, weil nur erste partielle Ableitungen als Knotenvariable
auftreten und deshalb die Diagonale1emente mit weniger unterschiedlichen
Potenzen von I multipliziert sind.
Die Vorkonditionierung des CG-Verfahrens reduziert die Zahl der Iterations-
schritte in allen Fällen. Die Ergebnisse zeigen ganz deutlich, daß die
Vorkonditionierung mit der partiellen Cholesky-Zerlegung eindeutig die beste
Wirkung hat. Im Fall der konformen Rechteckelemente wird die Rechenzeit
der PACHCG-Methode allerdings erst für die feinste Einteilung kleiner als
diejenige der normalen CG-Methode für das skalierte Gleichungssystem, weil
die partielle Cholesky-Zerlegung mehr als die Hälfte der Gesamtrechenzeit
beansprucht. Interessant an der Zusammenstellung ist die Tatsache, daß die
Iterationszahl der PACHCG-Methode für alle Elementtypen gleich langsam
zunimmt bei Verfeinerung der Elementeinteilung, und daß die Zunahme der
Schrittzahl im Vergleich zur CG- und der SSORCG-Methode schwächer ist.
Das hat zur Folge, daß sich das Verhältnis der Rechenzeiten der PACHCG-
Methode zu denjenigen der CHOLESKY-Methode bei Verfeinerung der
Einteilung zugunsten der iterativen Methode verkleinert, so daß die
PACHCG-Methode bei fortgesetzter Verfeinerung der Elementeinteilung
sogar effIzienter wird. Das wird auch durch folgende Überlegung plausibel:
Bei Halbierung der Elementgröße I nimmt die Zahl der Knotenvariablen etwa
um den Faktor vier, die Bandbreite der Gesamtmatrix um den Faktor zwei zu.
Deshalb wächst der Aufwand der Cholesky-Zerlegung etwa um den Faktor 16.
Anderseits nimmt die Zahl N der von Null verschiedenen Matrixelemente der
unteren Hälfte nur etwa um den Faktor vier zu. Der Aufwand der partiellen
Cholesky-Zerlegung wächst mindestens um den Faktor vier. Wegen den
6.1 Stationäre Probleme 391
zahlreichen Tests wird der Faktor eher zwischen sechs und acht liegen. Da die
Zahl der erforderlichen Iterationsschritte offenbar bei Halbierung von 1 nur
verdoppelt wird, so steigt die Rechenzeit der PACHCG-Methode etwa um den
Faktor acht an. Zur Illustration des Sachverhaltes wurden die Diskretisatio-
nen der Fälle VIII und XII weiter verfeinert, so weit die zugehörigen
Gleichungssysteme mit dem verwendeten Arbeitsplatzrechner behandelt
werden konnten. In Tab. 6.28 sind die Daten der Beispiele und die Rechenzei-
ten für die direkte Methode von Cholesky und die PACHCG-Methode
zusammengestellt. Für 1= 1/10 sind die Profile p der Gesamtmatrizen so groß,
daß die Gleichungssysteme nicht mehr mit der Eliminationsmethode gelöst
werden können, während die von Null verschiedenen Matrixelemente der
unteren Hälfte zusammen mit denjenigen der partiellen Cholesky-Zerlegung
im verfügbaren Speicher gerade noch Platz finden, so daß die iterative Lösung
möglich ist.
6.1.5.2 Brückenplatte
N" ,T,
•
200
\•
\•
\•
150. \
•
\
•, iN
....--........
•'. / •
' 10-1
100
'., .,..... XI
....
...... ... Il
......... ..........
_-.-.~.
IX
etwa einem Fußgängerübergang über eine Straße (Fig.6.27). Die Dicke der
Platte sei d = 40 cm, der Elastizitätsmodul von Beton E = 4· 10 6 Ncm -2, die
Poissonzahl v = 1/6 und das spezifische Gewicht {J = 2,548 gcm -3. Daraus
ergibt sich die kontinuierliche Belastungp = 1 Ncm -2. Das Gesamtgewicht der
Platte beträgt rund 30 t.
Fig.6.27
1---------lOm ------~ Brückenplatte
b)
c) d)
e) f)
Fall Eintei- °
ne/ Fall
t:.
nel n mO pO NO pt:. Nt:.
lung
Fall WA = WD WB = Wc WF WG WH Wj
* interpolierte Werte
Die Aufgabe besitzt die Punktsymmetrie bezüglich des Mittelpunktes der
Platte. In Tab. 6.30 sind die Durchbiegungen in sechs ausgewählten Punkten
zusammengestellt, wie sie auf Grund der zwölf Diskretisationen resultieren.
Die Werte der Durchbiegungen sind alle negativ, da sie ja positiv in positiver
z-Richtung sind. Das konstante negative Vorzeichen ist in Tab. 6.30 weggelas-
sen. Die Konvergenz der Durchbiegungen bei Verfeinerung der Einteilung ist
offensichtlich. Die berechneten Verformungen der Platte für Parallelogramm-
und Dreieckelemente zeigen für die feinsten Unterteilungen eine gute Überein-
stimmung. Während bei Verfeinerung der Diskretisation im Fall der Parallelo-
grammelemente die resultierenden Durchbiegungen monoton zunehmen,
trifft diese Eigenschaft bei den Dreieckelementen dann nicht zu, falls die
Einteilung nur in Querrichtung verfeinert wird. Diese Feststellung ist beson-
ders deutlich in den Fällen VII/VIII und IX/X. Das mathematische Modell
der Platte wird in diesem Fall offensichtlich versteift.
Die Feststellungen zum Verhalten der Methode der konjugierten Gradienten
ohne und mit Vorkonditionierung, die im Fall der Testplatte gemacht worden
sind, behalten ihre Gültigkeit auch für die Brückenplatte. Die Skalierung des
Gleichungssystems reduziert die Zahl der Iterationsschritte im normalen cg-
Verfahren ganz wesentlich. Der optimale w- Wert für die SSORCG-Methode
liegt ebenfalls in der Gegend von Eins. Die Iterationszahl wird aber nur so
schwach reduziert, daß der doppelte Aufwand pro Iterationsschritt die
6.1 Stationäre Probleme 395
IV 231 2,5 241 41,4 125 21,5 1,10 102 36,0 35 16,7
V 315 2,3 269 61,4 136 31,3 1,10 109 51,6 29 21,2
VI 441 5,2 360 118 169 55,8 1,10 136 93,3 44 38,9
XIII 1023 20,4 701 452 281 181 1,10 227 303 85 125
Rechenzeit sogar erhöht. Eine stärkere Reduktion der Iterationen bringt die
Vorkonditionierung vermittels einer partiellen Cholesky-Zerlegung. Der
Rechenaufwand für den Lösungsprozeß wird dabei aber nicht wesentlich
verringert. Die Tab. 6.31 enthält die Angaben zu den verschiedenen Lösungs-
methoden der drei feinsten Elementeinteilungen IV bis VI und X bis XII. In
allen diesen Fällen wird selbst die PACHCG-Methode bei weitem nicht
konkurrenzfahig im Vergleich zur Cholesky-Methode, weil sich die Profile p
und die Zahlen N der von Null verschiedenen Matrixelemente der unteren
Hälfte der Matrix nur etwa um den Faktor zwei unterscheiden, da die Hüllen
relativ stark besetzt sind. Dies ist eine Folge der langen Brückenplatte. In der
Tab. 6.31 ist noch ein Fall XIII angefügt, bei welchem die Brückenplatte in
weiterer Verfeinerung des Falles XII in 600 Dreieckelemente eingeteilt worden
ist bei 30 Teilintervallen in horizontaler und lO Teilintervallen in vertikaler
Richtung. Die Zahl der Knotenvariablen ist n = lO23, das Profil der Gesamt-
steifigkeitsmatrix ist p = 34806, und die Zahl der von Null verschiedenen
Matrixelemente der unteren Hälfte beträgt N= lO506. Das Verhältnis der
Rechenzeit der PACHCG-Methode zu derjenigen der Cholesky-Methode
bleibt in diesem Beispiel mit zunehmender Ordnung n etwa konstant.
396 6 Anwendungen mit Resultaten
6.U + AU = 0 in G, (6.6)
10
Fig.6.29
Feinere Triangulierung
des Autolängsschnittes
10 15 20 25 x für kubischen Ansatz
y
15
10
Fig.6.30
Feinste Triangulierung
des Autolängsschnittes
für quadratische und
kubische Ansätze
umfassende Ansatz, angewendet. Für den linearen Ansatz ist die Triangulie-
rung nochmals verfeinert worden. In Tab. 6.32 sind die charakterisierenden
Daten der sieben Fälle zusammengefaßt.
Die resultierenden Eigenwertaufgaben Ax = ABx sind mit der Methode der
simultanen inversen Vektoriteration (SIVIT), mit dem Verfahren der Bisek-
tion (BISECT), dem Verfahren von Lanczos (LANCZOS) und mit der
Rayleigh-Quotient-Minimierung mit Vorkonditionierung vermittels einer
partiellen Cho1esky-Zerlegung (RQPACHCG) behandelt worden. Um eine
möglichst effiziente Realisierung der ersten drei Methoden zu erreichen,
wurden optimale Numerierungen der Knotenvariablen mit Hilfe des umge-
kehrten Cuthill-McKee-Algorithmus (RCM) ermittelt, um die Profile PAB der
Matrizen A und B, bzw. das Profil PF der erweiterten Hülle der Matrix
F= A - /lB zu minimieren. In Tab. 6.32 sind diese Zahlwerte zusammen mit
der Anzahl N der von Null verschiedenene Matrixelemente der unteren
Hälften von A und B angegeben. Für die Bisektionsmethode, das Lanczos-
Verfahren und die Rayleigh-Quotient-Minimierung sind ja primär nur diese
Elemente zu speichern, um in den ersten beiden Fällen die Matrix F daraus
398 6 Anwendungen mit Resultaten
°
bestimmt werden. Die Neumannsche Eigenwertaufgabe (6.6) und (6.7) besitzt
den trivialen Eigenwert Ao = mit der Eigenlösung u = const, so daß die sieben
ersten positiven Eigenwerte mit den zugehörigen Eigenschwingungsformen
erhalten werden. Die simultane Vektoriteration wurde mit elf Vektoren
durchgeführt, wobei der Konvergenztest nur für die ersten acht iterierten
°
Vektoren angewendet wird. Da die Steifigkeitsmatrix wegen des Eigenwertes
AQ = singulär ist, wird eine Spektralverschiebung mit I = 0,0 I vorgenommen.
Die Iteration wird abgebrochen, sobald der maximale Restvektor, der bei der
xi xi
B-Orthogonalisierung der Vektoren k ) zu den k -I) entsteht, eine euklidi-
sche Länge kleiner als 10-6 hat. Der Ritz-Schritt und damit der Test auf
Konvergenz erfolgt nach je vier Iterationsschritten.
Für die Bisektionsmethode ist das Startintervall [-0,0 1,1,0] vorgegeben
worden, und die inverse Vektoriteration ist in BISECT gestoppt worden,
sobald sich zwei aufeinanderfolgende Rayleighsche Quotienten relativ um
höchstens 10- 12 unterscheiden. Der Eigenwert Null wird mit der entsprechen-
den absoluten Genauigkeit behandelt.
Im Lanczos-Verfahren wird ein Eigenwert akzeptiert, sobald die relative
Änderung eines Ritzwertes betragsmäßig kleiner als 10- 12 ausfällt. Das
°
Verfahren ist mit zwei verschiedenen Werten fl der Spektralverschiebung
durchgeführt worden, um seinen Einfluß darzustellen. Der Wert fl = darf
wegen der Singularität von A nicht gewählt werden. Der erste Wert fll = -0,05
liegt links vom ersten Eigenwert AQ, während fl2 =0,1 einen sehr guten Wert
darstellt, der etwa gleich dem Mittelpunkt des Intervalls ist, in welchem alle
acht gesuchten Eigenwerte liegen. Das Lanczos-Verfahren ist mit vollständi-
ger Orthogonalisierung der Basisvektoren durchgeführt worden.
In der Rayleigh-Quotient-Minimierung erfolgte eine Regularisierung der
Matrix A vermittels einer Spektralverschiebung um den Wert c = 0,001. Die
Iteration für einen Eigenwert/Eigenvektor wird gestoppt, sobald der Ray-
leighsche Quotient relativ um weniger als 10- 12 abnimmt. Bei sehr langsamer
Konvergenz ist dann eine geringere Genauigkeit des Eigenpaares die Folge.
Die Tab. 6.33 gibt einen Überblick über die Arbeitsweise der Rechenverfahren
hinsichtlich der Zahl der erforderlichen Iterationsschritte und der Rechenzeit,
in welcher die Kompilationszeit nicht enthalten ist, die hier ohnehin viel
kleiner ist.
Die Ergebnisse zeigen, daß der Lanczos-Algorithmus die Aufgaben bei weitem
mit der geringsten Rechenzeit löst, ob man mit einer weniger guten oder einer
optimalen Spektralverschiebung fl arbeitet. Die Anzahl nit der Iterations-
schritte der Methode der simultanen Vektoriteration wie auch die totalen
6.2 Schwingungsaufgaben 399
I 24 94 36 49 48 25 41 19 25 241 57
II 28 121 35 62 70 25 44 19 28 309 91
III 24 118 34 53 85 25 45 18 26 344 134
IV 24 175 35 60 131 25 56 18 34 217 112
Anzahlen der Bisektionsschritte nBis und der inversen Vektoriteration nlnv der
Bisektionsmethode sind in allen Fällen etwa dieselben, weil die Eigenwertver-
teilungen fast identisch sind. Sind die Rechenzeiten der Bisektionsmethode für
die Fälle I bis IV mit niedrigen Ordnungen kleiner als diejenigen der
simultanen Vektoriteration, so verschiebt sich das Verhältnis zugunsten von
SIVIT in den Fällen V bis VII höherer Ordnung, weil der Aufwand der
zahlreichen Zerlegungen stärker ins Gewicht fällt. Interessant ist die Feststel-
lung, daß die Methode der Rayleigh-Quotient-Minimierung mit vorkonditio-
niertem cg-Verfahren die Eigenwertaufgaben im Vergleich zu SIVIT und
BISECT im allgemeinen recht effizient, wenn nicht sogar am effizientesten
löst. Bei diesem Vergleich muß aber auch der Speicherbedarf der einzelnen
Verfahren miteinbezogen werden. In Tab. 6.34 sind für die drei Fälle V bis VII
der feinsten Triangulierungen die Zahl der Speicherplätze zusammengestellt,
die für die Durchführung der vier Verfahren notwendig sind. SIVIT benötigt
neben den beiden Matrizen A und Bin Hüllenform im wesentlichen noch den
Platz für zwei Sätze von p* iterierten Vektoren und dazu noch zwei
Hilfsvektoren mit je n Komponenten. Es wirdp* = 11 angenommen. BISECT,
LANCZOS und RQPACHCG benötigen für A undB nur je die Matrixelemen-
te der unteren Hälften mit zugehöriger Indexinformation. BISECT und
400 6 Anwendungen mit Resultaten
Fig.6.31
Zahl der konvergierten
Ritzwerte im Lanczos-
Verfahren 5 10 15 20 25 k
Fall no nl n2 n3 n4 n5 n6 n7 Am• x
V 57 56 54 41 57 67 41 57 263,76
VI 79 61 65 47 71 86 65 64 308,75
VII 41 31 40 24 35 28 26 42 239,26
402 6 Anwendungen mit Resultaten
55
Im Fall III wurde der Prozeß der Kondensation angewandt, und zwar wurden
nach beendeter Kompilation der Gesamtmatrizen die ersten partiellen Ablei-
tungen als untergeordnete Variablen eliminiert. Es resultiert ein vollbesetztes
6.2 Schwingungsaufgaben 403
Die Fig. 6.33 zeigt einen idealisierten Maschinentisch mit einer Maschinen-
gruppe mit allen nötigen Abmessungen in cm. Gesucht sind die kleinsten
10 45 45 10 40 10 40 10
100 100
In Tab. 6.38 sind die berechneten Eigenfrequenzen /1 bis /10 sowie die sieben
ersten Eigenfrequenzen /1* bis 17* nach der statischen Kondensation zusam-
mengestellt. Die ersten fünf Eigenfrequenzen stimmen sehr gut überein. Die
beiden weiteren Eigenfrequenzen /6* und besonders augenfällig /t sind zu
groß. Sie sind tatsächlich hervorragende Näherungen fürh und/g, wie aus den
zugehörigen Eigenschwingungsformen hervorgeht. Der Kondensationspro-
zeß kann somit in bestimmten Situationen zu unvollständigen Spektren
führen, indem einige Eigenwerte fehlen. Im vorliegenden Fall läßt sich dazu
eine einfache Erklärung finden. Neben einer seitlichen Schwingung des
6.2 Schwingungsaufgaben 405
hl~r r'r
7
7
12"38.4 Hz
J1 z
z
2~ z Ilz
71 11 z
/~
r7
'I1
I
,
z r
J J
z
1 1
Il " 43.6 Hz 1 IS"76.5Hz
Fig.6.34 Schwingungsformen der Maschinengruppe
r r
l l
10cm 10cm
I
5.5cm
l
Fig.6.35 Diskretisation Fig.6.36 Elementeinteilung
der Stimmgabel, der Stimmgabel
quadratische Ansätze für kubische Ansätze
Fig.6.37
Unterteilung eines Rechteckelementes
Fall 11 Hz 12Hz 13 Hz f4 Hz 15 Hz
I 322,3 934,6 2136 3191 4125
II 222,9 623,7 1376 2119 2600
ur 221,3 621,1 1373 2129 2608
408 6 Anwendungen mit Resultaten
a) c)
chung der Figuren sind nur die Schwingungsformen der Mittellinie dargestellt
neben ihrer dünn gezeichneten unverformten Lage als Referenz.
Wir betrachten eine Dreieckplatte aus Stahl mit den Abmessungen gemäß
Fig. 6.39, welche in ihrem Schwerpunkt S eingespannt und am Rand frei sei.
Die Dicke der Platte betrage h = 1 cm, die elastomechanischen Größen sind
E= 2.10 7 Ncm -2 und v = 0,3, die Dichte des Materials ist (J = 8,25 gr cm -3.
Wir interessieren uns für die Eigenfrequenzen und insbesondere für die
Eigenschwingungsformen der Platte, da sie gelegentlich im Physikunterricht
zur Demonstration von Eigenschwingungen verwendet werden.
Das Problem ist für verschieden feine Dreieckeinteilungen behandelt worden,
wobei der nichtkonforme kubische Ansatz von Zienkiewicz Verwendung fand.
Die Platte wird gleichmäßig in kongruente Dreiecke eingeteilt, so daß der
Schwerpunkt S eine Ecke eines Dreieckelementes bildet, und daß die
Dreiecksseiten parallel zu den drei Seiten des gegebenen Dreiecks sind.
Deshalb ist eine Dreiecksseite in t = 3,6,9, 12 oder 18 Teile eingeteilt worden.
In Fig. 6.39 ist die Triangulierung für die mittlere Einteilung dargestellt.
6.2 Schwingungsaufgaben 409
Fig.6.39
Eine Triangulierung
der Dreieckplatte
In Tab. 6.42 sind die charakterisierenden Daten der fünf Fälle zusammen mit
den für die Methoden maßgebenden Zahlwerte betreffend die Profile PAß der
Matrizen A und B, die Zahl N der von Null verschiedenen Matrixelemente der
unteren Hälften und das erweiterte Profil PF der Matrix F= A - flB, welches
nach Berücksichtigung der Randbedingungen resultiert, zusammengestellt.
An den Zahlwerten erkennt man wieder die Tatsache, daß die Zahl N mit der
Ordnung n linear zunimmt, während PAß und PF wie n3/ 2 wachsen.
Werden die Knotenpunkte in der linken Ecke beginnend und dann jeweils von
unten nach oben durchnumeriert, so entsteht eine regelmäßige Besetzungs-
struktur der Matrizen A und B, die in Fig. 6.40 für den Fall IV dargestellt ist.
Jedes 0 entspricht einer Untermatrix der Ordnung drei. Diese Struktur eignet
sich sehr gut für eine effiziente Implementierung von Matrix-Vektor-Multipli-
kationen auf Vektorrechnern, falls die Diagonalstruktur mit entsprechender
Speicherung verwendet wird.
Die Eigenwertaufgaben Ax = ABx sind mit der Methode der simultanen
inversen Vektoriteration (SIVIT), der Bisektion (BISECT), dem Lanczos-
Verfahren (LANCZOS) und der simultanen Rayleigh-Quotient-Minimierung
mit Vorkonditionierung vermittels einer festen partiellen Cholesky-Zerlegung
410 6 Anwendungen mit Resultaten
A~
Fig.6.40
Besetzungsstruk-
tur der Matrizen.
Dreieckplatte
von A (SRQPCG) gelöst worden, wobei die ersten acht Eigenpaare gesucht
waren. Sowohl SIVIT als auch SRQPCG wurden mit je zehn gleichzeitig
iterierten Vektoren durchgeführt, und der Konvergenztest wurde nur auf die
ersten acht angewandt. Für alle Verfahren galt eine relative Genauigkeit von
e = 10- 12 für die Eigenwerte. Die Tab. 6.43 enthält die Angaben über die Zahl
der Iterationsschritte der Methoden und die Rechenzeiten. Auf dem sonst
verwendeten Personal System konnte der Fall V nur mit SRQPCG durchge-
rechnet werden, da für die andern Methoden wegen der zu großen Profile PAB,
bzw. PF zusammen mit den weiteren Daten der verfügbare Speicher nicht
ausreichte. Deshalb sind alle Fälle auf einem PS/2, Modell 55, durchgerechnet
worden, auf dem etwas mehr Speicherplatz zur Verfügung stand.
Das Lanczos-Verfahren löst die Eigenwertaufgaben wiederum bei weitem mit
dem geringsten Rechenaufwand. Die simultane Vektoriteration ist hier unter
Tab.6.43 Zur Eigenwertberechnung, Dreieckplatte
I 12 8,5 43 62 15 18 12 14 16
II 12 35 39 55 55 19 19 22 69
III 12 88 38 57 166 19 32 26 161
IV 12 180 42 62 440 20 56 30 309
V 16 676 44 56 1708 19 133 41 944
6.2 Schwingungsaufgaben 411
Fall 11 h !J 14 15 16 h fg
-30
I e-15
\
'.-1 -26
I
I e-11
+0 -24
I e-11
I
.-1 -26 -32
I
I e-15
-30 -66
-36 -100
-55
/ 16
/
/
,.-8
e-2Y 76
I
/ e30
~O 100
\ e30
'\
e-23, 76
",,8,
, 16
77
58
33
-33
-58
-77
Fig.6.41 Schwingungsformen der Dreieckplatte
6.2 Schwingungsaufgaben 413
ab ..1.40 sehr dicht liegen und somit der Konvergenzquotient q groß wird. Man
müßte in diesem Fall p* entsprechend groß wählen. Man beachte übrigens,
daß die Rechenzeit von SIVlT bei Erhöhung von p* nicht abzunehmen
braucht, falls der Mehraufwand pro Iterationsschritt den durch die Reduktion
der Iterationszahl erzielten Gewinn überwiegt.
Lu + 20 - -ou = 0 in G (6.8)
ot
u=O auf AB; t >0 (6.9)
OU
=0 auf BD, DE, EF, LM, MA; t > 0 (6.10)
on
OU
-+2u=0 auf FHIKL; t >0 (6.11 )
on
u(x, y, 0) = 0 inG (6.12)
418 6 Anwendungen mit Resultaten
L n
I\(t) ff NkNj dx dy -+- Ln Ck(t)
{
ff grad l'h . grad N j dx dy
k=! G k=! G
Be + Ac + d = 0, (6.15)
(6.19)
Nun geht es noch darum, die Randbedingungen (6.9) zu erfüllen. Anstatt die
betreffenden Knotenvariablen aus dem System (6.15) zu eliminieren, werden
die Bedingungen (6.9) in (6.19) ähnlich zum Vorgehen von Abschn. 3.1.3
eingebaut. Zeitlich konstante Dirichletsche Randbedingungen können da-
durch berücksichtigt werden, daß man dafür sorgt, daß die betreffenden
Knotenvariablen im System (6.19) konstant gehalten werden, also keine
zeitliche Änderung erfahren. Betrifft eine Dirichletsche Randbedingung die
j-te Knotenvariable, wird dies erreicht, indem alle Elemente der j-ten Zeile der
. - 1 - 1
Matnzen B = B + - 6tA und A = B - - 6tA Null gesetzt werden und
2 2
die Diagonalelemente den Wert Eins erhalten. Gleichzeitig wird die j-te
Komponente im Vektor d= 6td gleich Null gesetzt. Jetzt wird diej-te Spalte
von X - B der modifizierten Matrizen X und B, multipliziert mit dem
gegebenen Randwert der j-ten Knotenvariablen, von d subtrahiert. Anschlie-
ßend werden auch die Außendiagonalelemente der j-ten Kolonnen von X und
B Null gesetzt. Im Startvektor Co = c(O) erhält die j-te Komponente den
gegebenen Randwert. In (6.19) wird damit im ersten Integrationsschritt diej-te
Komponente des rechts stehenden Vektors gleich dem Randwert, und infolge
der Modifikationen in B erhält die j-te Komponente von Cl denselben Wert.
Dies gilt dann auch für alle folgenden Schritte.
Aus der Anfangsbedingung (6.12) folgt schließlich, daß sämtliche (restlichen)
Knotenvariablen selbst gleich Null sein müssen. Zusammen mit (6.9) bedeutet
dies, daß Co = c(O) = 0 gelten muß.
Für die konkrete Rechnung ist die Elementeinteilung nach Fig.6.3 mit
quadratischen Ansätzen verwendet worden. Die Ordnung der Systemmatrizen
beträgt somit n = 537. Um die numerische Integration am Anfang mit
hinreichender Genauigkeit durchzuführen, ist ein kleiner Zeitschritt verwen-
det worden, der anschließend zweimal vergrößert wird, bis der stationäre
Zustand erreicht wird (vgl. Tab. 6.47). Jede Änderung der Integrationsschritt-
420 6 Anwendungen mit Resultaten
6.1 Integrationsschritte 10 11
90
weite erfordert die neue Berechnung der Matrizen Bund A und die Cholesky-
Zerlegung der Matrix B.
Zur Illustration der Resultate sind die Isothermen zu den Zeitpunkten t = 3
und t = 6 in den Fig. 6.43 und Fig. 6.44 dargestellt. Fig. 6.45 zeigt den
stationären Zustand, wie er sich bereits für t = 60 einstellt. Dies ist gleichzeitig
die Temperaturverteilung für die Aufgabe von Abschn. 6.1.1.
6.3 Instationäre Temperaturverteilung 421
Fig.6.45
Stationäre Temperaturverteilung
Literatur
[Cri86] Crisfield, M.A.: Finite elements and solution proeedures for struetural
analysis. Vol. 1: Linear analysis. Pineridge Press, Swansea 1986
[Cut72] Cu thill, E.: Several strategies for redueing the band width of matriees. In:
Rose, D. J.; Willoughby, R. A. (ed.): Sparse matriees and their applieations.
Plenum, New York 1972, 157-166
[CuM69] CuthilI, E.; MeKee, J.: Redueing the bandwidth of sparse symmetrie
matriees. In: Proe. ACM Nat. Conf., New York 1969, 157-172
[DaR67] Da vis, P. J.; Rabinowitz, P.: Numerieal integration. Aeademie Press,
London 1967
[DeA72] Desai, C. S.; Abel, J. E: Introduetion to the finite element method. Van
Nostrand Reinhold, New York 1972
[DuS79] Duff, 1. S.; Stewart, G. W. (ed.): Sparee matrix proeeedings 1978. SIAM
Philadelphia 1979
[DER86] Duff, 1. S.; Erisman, A. M.; Reid, J. K.: Direet methods for sparse
matriees. Clarendon Press, Oxford 1986
[DKR68] Dupont, T.; Kendall, R. P.; Raehford, H. H.: An approximate
faetorization proeedure for solving self-adjoint elliptie differenee equations.
SIAM J. Numer. Anal. 5 (1968) 559-573
[Eis81] Eisensta t, S.: Efficient implementation of a dass of preeonditioned
eonjugate gradient methods. SIAM J. Sei. Statist. Comput. 2 (1981)
1-4
[EGR59] Engeli, M.; Ginsburg, Th.; Rutishauser, H.; Stiefel, E.: Refined
iterative methods for the computation of the solution and the eigenvalues of
selfadjoint boundary value problems. Mitt. Inst. f. angew. Math. ETH
Zürich, Nr. 8, Birkhäuser, Basel 1959
[EIZ68] Erga toudis, J. G.; Irons, B. M; Zienkiewicz, O. C.: Curved isoparamet-
rie quadriJateral elements for finite element analysis. Int. J. Solids Struet. 4
(1968) 31-42
[Eri83] Ericsson, T.: Implementation and applieation of the spectral transform-
ation Lanczos algorithm. In: Kogström, B.; Ruhe, A. (ed.): Matrix penciJs.
Springer, New York 1983,177-188
[ErR80] Ericsson, T.; Ruhe, A.: The spectral transformation Lanczos method for
the numerical solution of large sparse generalized eigenvalue problems.
Math. Comp. 35 (1980) 1251-1268
[Eva68] E vans, D. J.: The use of preconditioning in iterative methods for solving
linear equations with symmetrie positive definite matrices. J. Inst. Maths.
Applics. 4 (1968) 295-314
[Eva73] Evans, D. J.: The analysis and application of sparse matrix algorithms in
the finite element method. In: [Whi73], 427-447
[Eva83] Evans, D. J. (ed.): Preconditioning methods: Analysis and applications.
Gordon und Breach, New York 1983
[FoM67] Forsythe, G. E.; Moler, C. B.: Computer solution of linear algebraie
systems. Prentice-Hall, Englewood, Cliffs, N. J. 1967
[Fun70] Funk, P.: Variationsrechnung und ihre Anwendung in Physik und Technik,
2. Aufl. Springer, Berlin 1970
[GaI76] Gallagher, R. H.: Finite-Element-Analysis. Springer, Berlin 1976
Literatur 425
[NoV76] Norrie, D. H.; de Vries, G.: Finite element bibliography. Plenum Press,
New York 1976
[NoV78] Norrie, D. H.; de Vries, G.: An introduction to finite element analysis.
Academic Press, New York 1978
[OdC83] Oden, J. T.; Carey, G. F.: Finite elements: Mathematical aspects. Prentice-
Hall, Englewood Cliffs, N. J. 1983
[OdR76] Oden, J. T.; Reddy, J. N.: Variational methods in theoretical mechanics.
Springer Verlag, Berlin 1976
[OdR76] Oden, J. T.; Reddy, J. N.: Mathematical theory offinite elements. John
Wiley, New York 1976
[Ort88] Ortega, J. M.: Introduction to parallel and vector solution of linear
systems. Plenum Press, New York 1988
[Pai71] Paige, C. c.: The computation of eigenvalues and eigenveetors of very
large sparse matrices. Ph. D. Thesis, Univ. of London 1971
[Pai72] Paige, C. C.: Computational variants of the Lanczos method for the
eigenproblem. J. Inst. Math. Appl. 10 (1972) 373-381
[Pai76] Paige, C. C.: Error analysis of the Lanczos algorithm for tridiagonalizing a
symmetrie matrix. J. Inst. Math. Appl. 18 (1976) 341-349
[Par80] Parlett, B. N.: The symmetrie eigenvalue problem. Prentice-Hall, Engle-
wood Cliffs, N. J. 1980
[PaS79] Parlett, B. N.; Scott, D. S.: The Lanczos algorithm with seleetive
orthogonalization. Math. Comput. 33 (1979) 217-238
[Par69] Part er , S. V: The use of graphs in Gauss elimination. SIAM Rev. 3 (1969)
364-369
[Pet80] Peters, T. J.: Sparse matrices and substruetures with a novel implemen-
tation of finite element algorithms. Mathematisch Centrum, Amsterdam
1980
[PeW69] Peters, G.; Wilkinson, J. H.: Eigenvalues ofAx = ABx with band
symmetrie A and B. Comp. J. 12 (1969) 398-404
[Pia73] Pian, T. H. H.: Finite element methods by variational principles with
relaxed continuity requirements. In: Brebbia, C. A.; Trottenharn, H.
(ed.): Variational methods in engineering, 3/1-3/24. Univ. Southampton
1973
[Po086] Poo le, E. L.: Multi-color ineomplete Cholesky conjugate gradient methods
on veetor computers. Ph. D. dissertation, U niversity of Virginia, 1986
[Po087] Poole, E. L.; Ortega, J. M.: Multicolor ICCG methods for vector
computers. SIAM J. Numer. Anal. 24 (1987) 1394-1418
[Pra68] Prager, W.: Variational principles for elastic plates with relaxed eontinuity
requirements. Int. J. So lids Structures 4 (1968) 837-844
[Pre75] Prenter, P. M.: Splines and variational methods. John Wiley, London-
New York 1975
[Ra082] Rao, S. S.: The finite element method in engineering. Pergamon, Oxford
1982
[Raz73] Razzaque, A. Q.: Program for triangular elements with derivative
smoothing. Int. J. Numer. Meth. Eng. 6 (1973) 333-344
[Red84] Reddy, J. N.: An introduction to the finite element method. McGraw-Hill,
Maidenhead 1984
Literatur 429
[Rei71] Reid, J. K. (ed.): Large sparse sets of linear equations. Academic Press,
London - New York 1971
[Rit09] Ritz, W.: Ueber eine neue Methode zur Lösung gewisser Variationsprob-
leme der mathematischen Physik. J. f. reine und angew. Math. 135 (1909) 1-
61
[RoW72] Rose, D. J.; Willoughby, R. A. (ed.): Sparse matrices and their
applications. Plenum Press, New York - London 1972
[Ruh 77] Ruhe, A.: Computation of eigenvalues and eigenvectors. In: Barker, V. A.
(ed.): Sparse matrix techniques. Lecture Notes Math. 572, Springer, Berlin
1977, 130-184
[Ruh79] Ruhe, A.: Impiementation aspects of band Lanczos algorithms for
computation of eigenvalues of large sparse symmetric matrices. Math.
Comp. 33 (1979) 680-687
[Rut70] Rutisha user, H.: Simultaneous iteration method for symmetric matrices.
Numer. Math. 16 (1970) 205-223
[Rut76] Rutishauser, H.: Vorlesungen über Numerik. Birkhäuser, Basel 1976
[SPG89] Sartoretto, F.; Pini, G.; Gambolati, G.: Accelerated simultaneous
iterations for large finite element eigenproblems. J. Comput. Physics 81
(1989) 53-69
[ScS76] Schmeisser, G.; Schirmeier , H.: Praktische Mathematik. de Gruyter,
Berlin 1976
[Scö61] Schönhage , A.: Zur Konvergenz des Jacobi-Verfahrens. Numer. Math. 3
(1961) 374-380
[Scw77] Sch warz, H. R.: Two algorithms for treating Ax = ABx. Comput. Meth.
Appl. Mech. Eng 12 (1977) 181-199
[Scw81] Schwarz, H. R.: Simultane Iterationsverfahren für grosse allgemeine
Eigenwertprobleme. Ing.-Arch. 50 (1981) 329-338
[Scw81] Schwarz, H. R.: Die Methode der konjugienen Gradienten mit Vorkondi-
tionierungen. In: Numerische Behandlung von Differentialgleichungen,
Band 3, ISNM 56, Birkhäuser, Basel 1981, 146-165
[Scw87] Schwarz, H. R.: Rayleigh-Quotient-Minimierung mit Vorkonditionie-
rung. In: L. Collatz et al. (ed.): ISNM 81, Birkhäuser, Basel 1987,229-245
[Scw88] Sch warz, H. R.: Numerische Mathematik, 2. Aufl. Teubner, Stuttgan 1988
[Scw91] Schwarz, H. R.: FORTRAN-Programme zur Methode der finiten Ele-
mente. 3. Aufl. Teubner, Stuttgart 1991
[SRS72] Schwarz, H. R.; Rutishauser, H.; Stiefel, E.: Numerik symmetrischer
Matrizen, 2. Aufl. Teubner, Stuttgart 1972
[Seg76] Segerlind, L. J.: Applied finite element analysis. John Wiley, New York
1976
[SI086] Sioan, S. W.: An algorithm for profile and wavefront reduction of sparse
matrices. lnt. J. Numer. Meth. Engrg. 23 (1986) 239-251
[SIR83] Sioan, S. W.; Randolph, M. F.: Automatic element reordering for finite-
element analysis with frontal schemes. lnt. J. Numer. Meth. Engrg. 19
(1983) 1153-1181
[SBG74] Smith, B. T.; Boyle, J. M.; Garbow, B. S.; Ikebe, Y.; Klema, V. c.;
Moler, C. B.: Matrix eigensystem routines - EISPACK guide. Springer,
Berlin 1974
430 Literatur
[WiI62] Wilkinson, J. H.: Note on the quadratie eonvergenee of the eydie Jaeobi
proeess. Numer. Math. 4 (1962) 296-300
[Wil65] Wilkinson, J. H.: The algebraie eigenvalue problem. Clarendon Press,
Oxford 1965
[WiI69] Wilkinson, J. H.: Rundungsfehler. Springer, Berlin 1969
[WiR71] Wilkinson, J. H.; Reinseh, C.: Handbook for automatie computation,
Vol. II, Linear algebra. Springer, Berlin 1971
[You71] Young, D. M.: Iterative solution oflarge linear systems. Aeademie Press,
New York - London 1971
[Zie84] Zienkiewiez, O. C.: Methode der finiten Elemente. Carl-Hanser-Verlag,
München 1984
Sachverzeichnis
B. G. Teubner Stuttgart