3000192344
3000192344
3000192344
Bauingenieurwesen
1. Dresdner Probabilistik-
Symposium Sicherheit
und Risiko im Bauwesen
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung,
des Nachdrucks, des Vortrags, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen
Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch nur bei auszugsweiser Verwertung,
vorbehalten.
Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichnungen in diesem Buch
berechtigt nicht zu der Annahme, daß diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich
auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie
als solche nicht eigens markiert sind.
Vorwort
Das Titelbild dieses Tagungsbandes zeigt im Vordergrund das 1893 vollendete Blaue Wunder
von Dresden und im Hintergrund den 1969 fertiggestellten Fernsehturm. Das eine ist ein
Bauwerk aus Stahl zur Querung einer großen horizontalen Entfernung. Mit diesem Bauwerk
beschäftigt sich seit vielen Jahren der Lehrstuhl für Stahlbau an der Technischen Universität
Dresden. Das zweite Bauwerk auf dem Bild dient zur Überwindung einer beträchtlichen
Höhe. Dieses Betonbauwerk wurde unter maßgeblicher Mitwirkung von Prof. Brendel, einem
ehemaligen Inhaber des Lehrstuhles für Stahlbeton, Spannbeton und Massivbrücken errichtet.
Beide Bauwerke zeichnen sich neben ihrer Eleganz durch interessante statische Systeme aus.
Das Wissen über die Baustoffe allein reicht nicht aus, um sichere Bauwerke zu errichten.
Auch das Wissen über das Verhalten von Baustrukturen unter Einwirkungen ist dafür notwen-
dig. Der Lehrstuhl für Statik, der sich hauptsächlich dieser Thematik widmet, darf mit Recht
als Vorreiter an der Fakultät Bauingenieurwesen bei der Untersuchung von Sicherheitsfragen
für Bauwerke gelten. Herr Prof. Müller, Lehrstuhlinhaber bis 1996, hielt bereits Vorlesungen
über das moderne probabilistische Sicherheitskonzept, welches die Grundlage für die sich
heutzutage immer mehr durchsetzenden semi-probabilistischen Sicherheitskonzepte darstellt.
Doch nicht nur in der Lehre wurde das Thema behandelt.
Zahlreiche Forscher an den drei genannten Lehrstühlen behandelten Fragen der Sicherheit von
Bauwerken. Vielfältige Veröffentlichungen und Dissertationen zeugen davon. Die bauauf-
sichtliche Einführung der DIN 1055-100 und mit ihr die erstmalige Einführung eines einheit-
lichen Sicherheitskonzepts für Bauwerke in Deutschland ist Grund genug, dieses über die
Jahre gesammelte Wissen sowohl den für die Bauwerke verantwortlichen Behörden als auch
dem praktischen Ingenieur im Büro vorzustellen. Die Veranstalter hoffen, dem genannten
Personenkreis damit bei schwierigen Entscheidungen bei der Beurteilung von Bauwerken
neue Lösungsmöglichkeiten aufzuzeigen.
Die Veranstalter bedanken sich herzlich bei allen Mitarbeiterinnen und Mitarbeitern, die zum
Gelingen des 1. Dresdner Probabilistik-Symposium beigetragen haben. Unser Dank gilt auch
den Förderern zahlreicher Forschungsprojekte, wie z.B. der Deutschen Forschungsgemein-
schaft oder Herrn OBR Nitzsche von der Obersten Baubehörde Bayerns.
Das Antwort-Flächen-Verfahren
M. Curbach & S. Weiland . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
1 Einleitung
Menschen haben jeden Tag Kontakt zu Produkten, die sie nicht selbst hergestellt haben.
Menschen verzehren industriell produzierte Lebensmittel, sie bewegen sich mit industriell
gefertigten Autos, sie gehen zum Arzt und bekommen Medikamente verschrieben und sie
leben und arbeiten nahezu überwiegend in Gebäuden. Jede einzelne der beispielhaft hier
geschilderten Handlungen unterliegt der Forderung der Sicherheit: Lebensmittel müssen
sicher sein, Autos müssen sicher sein, Medikamente müssen sicher sein und auch Bauwer-
ke müssen sicher sein. Jedes Produkt muß so sicher sein, daß sich der Nutzer bei der An-
wendung über die Sicherheit keine Gedanken machen muß. Der Nutzer muß vertrauen
können, denn er ist nur in den seltensten Fällen in der Lage dazu, die Sicherheit eines Pro-
duktes objektiv zu beurteilen. Die Sicherheit von Produkten jeglicher Art ist eine unab-
dingbare Voraussetzung für ein gesundes, langes und erfülltes Leben von Menschen, die
diese Produkte anwenden. Gleichzeitig ist die Sicherheit auch für den Erfolg dieser Pro-
dukte mit verantwortlich. Sicherheit ist in den modernen Gesellschaften ein Grundrecht des
Menschen. Der Staat als oberster Wächter über die Sicherheit aller Handlungen, Produkte
und Ereignisse innerhalb seiner Grenzen hat dieses Recht gesetzlich verankert, so z.B. in
der Landesbauordnung, der Verfassung, der deliktrechtlichen Produkthaftung § 823 Abs. 1,
BGB und dem § 1 Abs. 1 des PHG.
Das Sicherheitsbedürfnis des Menschen war und ist ein wesentlicher Antrieb bei der Ent-
wicklung der Menschheit. Die Unsicherheit der Nahrungssuche im Winter in den gemä-
ßigten Klimazonen der Erde hat zur Entwicklung des Ackerbaus und zur Viehzucht
geführt. Die Unsicherheit meteorologischer Bedingungen, wie Regen, Schnee, Sonne, Hit-
ze und der mögliche Angriff von Mensch und Tier hat dazu geführt, daß Menschen sich
Häuser oder Burgen bauen. Für die mühevolle und gefährliche Querung von Flüssen wur-
den Brücken gebaut. Man kann sagen, daß die Seßhaftigkeit des Menschen in letzter Kon-
sequenz auf Sicherheitsbedürfnisse zurückzuführen ist.
1
Einführung in die Sicherheitsbetrachtungen von Bauwerken
Immer hat der Mensch versucht, Sicherheit zu erreichen, in dem er Unsicherheit aus-
schließt. Es erscheint darum nur vernünftig, daß man Sicherheit nicht direkt als solche,
sondern umgekehrt über die Verringerung der Unsicherheit beschreibt.
So wurden auch historisch die ersten Sicherheitsanforderungen definiert. Unter Hammu-
rabi (vor ca. 4000 Jahren) wurden die Anforderungen an die Sicherheit des Bauwerkes in
Verbindung zur körperlichen Unversehrtheit, also Sicherheit, des Baumeisters gesetzt:
Stirbt der Bauherr bei der Nutzung, so wird auch der Baumeister hingerichtet. Stirbt der
Sohn des Bauherren, so wird auch der Sohn des Baumeisters hingerichtet, etc. [7]. Bereits
in der Bibel wird der Begriff der Sicherheit in Verbindung mit sicherer Unterkunft ge-
braucht [4]. Auch heute müssen Bauwerke diesen fundamentalen Anspruch von Menschen
erfüllen.
Im Bauwesen ist Sicherheit die qualitative Fähigkeit eines Tragwerkes, Einwirkungen zu
widerstehen (DIN 1055-100). Die Entscheidungsgrundlage über das Vorhandensein dieser
Fähigkeit erfordert ein quantitatives Maß. Dafür verwendet man den Begriff der Zuverläs-
sigkeit eines Tragwerkes. Damit existiert ein quantitatives Maß für die Fähigkeit eines
Tragwerkes, Einwirkungen zu widerstehen. Die Zuverlässigkeit wiederum wird in den ge-
genwärtig vorliegenden Bauvorschriften als Wahrscheinlichkeit interpretiert (DIN ISO
8930, 1.1 & 1.2).
Mit der Anwendung der Wahrscheinlichkeit erkennt man an, daß die verwendeten Ein-
gangsgrößen oder Berechnungsverfahren die Wirklichkeit nur unzureichend beschreiben
können. Der Versuch einer Norm, eine beliebige Eigenschaft von Beton mit nur einer Zahl
zu definieren, kann nur ein Kompromiß sein. Auch die Größe aller Menschen kann nicht
mit einer einzigen Zahl erfaßt werden. Vielfältige Herstellungsbedingungen oder vielfäl-
tige Zuschlagsstoffe führen beim Beton dazu, daß selbst innerhalb eines Bauteiles die Ei-
genschaften des Betons nicht konstant sind. Diese Tatsache der Unsicherheit gilt nicht nur
für die Materialgrößen oder die Widerstandsgrößen, auch die Bemessungsverfahren besit-
zen Unsicherheiten. Es ist z.B. bekannt, daß der Spannungsrechteckblock des Betons für
die Biegebemessung physikalisch nicht korrekt ist. Man kann damit aber mit ausreichender
Genauigkeit eine Bemessung durchführen. Es wird akzeptiert, daß das Verhalten des
Stahlbetonbauteiles nicht hundertprozentig wirklichkeitsnah rechnerisch beschrieben wer-
den kann. Ein zweites Beispiel für die Grenzen der rechnerischen Modelle ist die linear-
elastische Biegemomentenberechnung im Stahlbetonbau und die nichtlineare Spannungs-
verteilung bei der Biegebemessung. Oft hilft auch die Einführung weiterentwickelter Be-
rechnungsverfahren nicht weiter, da diese meistens zu einer deutlichen Erhöhung der
erforderlichen Eingangsgrößen führen, die selbst wieder nur eingeschränkt exakt ermittelt
werden können. Man könnte dies mit der berühmten Heisenberg’schen Unbestimmtheits-
relation vergleichen: Je genauer ein Berechnungsverfahren, um so mehr Eingangsgrößen
werden benötigt, die wiederum Ungenauigkeiten einschleppen. Es gibt scheinbar eine
Grenze der Genauigkeit, die trotz immer besserer mathematisch-mechanischer Erfassung
nicht überschritten werden kann, da die Unsicherheit der Eingangsgrößen durch ihre stei-
gende Zahl immer mehr an Bedeutung gewinnt. Den Betrag der Änderung des Endergeb-
nisses durch Änderungen der Eingangsgrößen kann man durch Sensibilitätsrechnungen
untersuchen.
2
Einführung in die Sicherheitsbetrachtungen von Bauwerken
2 Sensibilitätsrechnungen
Ziel dieser sogenannten Sensibilitätsrechnungen ist die Abschätzung des Einflusses der
Eingangsgröße auf das Endergebnis. Wohl jeder Bauingenieur hat instinktiv schon derar-
tige Rechnungen durchgeführt, wenn er sich über die eine oder andere Eingangsgröße un-
sicher war.
Obwohl Sensibilitätsuntersuchungen schon lange durchgeführt werden, haben sie in den
letzten Jahren eine erhebliche Weiterentwicklung erfahren. Dies betrifft sowohl die Dar-
stellung der Abhängigkeiten in graphischer Form als auch die Untersuchungstiefe. So hat
die Bauhausuniversität Weimar ein Modul für das Programm SLANG entwickelt, mit dem
neben den Abhängigkeiten (Korrelationen) zwischen einzelnen Eingangsgrößen und Er-
gebnis auch die Einwirkungskombinationen der Eingangsgrößen über die Eigenwert-
ermittlung der Korrelationsmatrix untersucht werden kann [15]. Ähnliche Verfahren findet
man auch bei anderen Autoren.
Bei Sensibilitätsuntersuchungen geht man nur davon aus, daß Eingangsgrößen in einem
gewissen Korridor liegen können. Man kennt derartige Grenzen aus verschiedenen Produk-
tionen. So wird die Stahlfestigkeit von den Stahlwerken in gewissen Grenzen angegeben,
aber auch im Alltag findet man derartige Schranken. Informationen über das Verhalten der
Eingangsgrößen zwischen diesen Toleranzgrenzen liegen aber nicht vor. Ob die Werte der
Eingangsgröße sehr häufig nahe der unteren Toleranzgrenze liegen oder ob jeder Wert
gleichhäufig vorkommt, bleibt unbestimmt. Den Verlauf der Werte zwischen den Tole-
ranzgrenzen kann man mit den Hilfsmitteln der Statistik beschreiben. Relative Häufigkei-
ten und Wahrscheinlichkeitsverteilungen sind in der Lage, die Streuung der Eingangsgröße
quantitativ zu erfassen.
3 Wahrscheinlichkeitsrechnung
3.1 Geschichte
Die ersten Vorschläge zur Verwendung von Wahrscheinlichkeiten im Bauwesen gehen auf
eine Arbeit in Deutschland von Mayer (1926) [6] und in der Sowjetunion von Chocialov
(1929) zurück. In den 30er Jahren befaßten sich bereits, unabhängig voneinander, Stre-
leckij (1935) in der Sowjetunion, W. Wierzbicki (1936) in Polen und Prot (1936) in Frank-
reich mit der Beschreibung der Sicherheit von Bauwerken als Zufallserscheinungen [7].
Bereits im Jahre 1944 wurde in der Sowjetunion ein Dekret durch die Volkskommissare
zum Beginn der Arbeiten für die Einführung der wahrscheinlichkeitstheoretischen Metho-
de der Grenzzustände herausgegeben [8]. 1947 veröffentlichte Freudenthal seinen bekann-
ten Aufsatz über die Sicherheit von Bauwerken [25]. In den 50er Jahren flossen die ersten
Erkenntnisse in Bauvorschriften ein [7]. In Deutschland erlebte die Forschung zu diesem
Thema in den 70er Jahren eine Blüte durch die Einrichtung des Sonderforschungsbereiches
96 ,,Zuverlässigkeitstheorie der Bauwerke“ in München. Zur Zeit wird durch das Joint
Committee on Structural Safety der IABSE, CIB, RILEM, fib and ECCS bereits an einem
ersten vollprobabilistischen Modelcode gearbeitet [9].
3
Einführung in die Sicherheitsbetrachtungen von Bauwerken
3.2 Computerprogramme
In den letzten Jahrzehnten haben die probabilistischen Berechnungsverfahren einen rasan-
ten Aufschwung erfahren. Die Anzahl der Beispiele ist enorm gewachsen. Inzwischen gibt
es zahlreiche Anbieter kommerzieller und nichtkommerzieller Programme für die Durch-
führung derartiger Berechnungen. Einige Programme seien hier genannt:
• ANSYS (SAS IP [19])
• COMREL (RCP GmbH [18])
• COSSAN (Leopold-Franzens Universität Innsbruck [23])
• DIANA (TU Delft [22])
• EXCEL [24]
• NESSUS (SWRI [20])
• PERMAS (INTES GmbH [17])
• RACKV (TU Dresden – Institut für Massivbau)
• SLANG (Bauhausuniversität Weimar [21])
Neben der vermehrten Anwendung der bereits vorhandenen probabilistischen Verfahren
wird auch eine Weiterentwicklung der Verfahren beobachtet. Nach wie vor entsteht durch
die Verknüpfung hochwertiger mechanischer Modelle mit probabilistischen Verfahren ein
enormer Rechenaufwand. Die Verringerung dieses Aufwandes ist eines der Hauptziele der
Weiterentwicklung der Verfahren. Allerdings konnten hier in den letzten Jahren Erfolge
erzielt werden, die sowohl auf der Verschmelzung der Finiten-Elementen-Methode mit
FORM/SORM-Verfahren über die Antwort-Flächen-Modellierung basieren als auch bei
der Anwendung der Monte-Carlo-Simulation bzw. ihrer Derivate. Beispielhaft genannt
seien die Verschmelzung von Monte-Carlo-Simulation mit neuronalen Netzen, der Einsatz
von Komprimierungsverfahren aus der Bildverarbeitung für die Entwicklung von Antwort-
Flächen-Verfahren oder die Beschreibung einer Antwort-Fläche als stochastisches Feld.
Die Anwendung der probabilistischen Verfahren hat aber auch die diesem Modell inne-
wohnenden Grenzen aufgezeigt. Weiterentwicklungen des Sicherheitsansatzes sind z.B.
Fuzzy-Modelle. Diese Art der Sicherheitsbeschreibung wird im Augenblick intensiv an der
Technischen Universität Dresden am Institut für Statik untersucht.
4 Risikobetrachtungen
Auch das Risiko ist eine Weiterentwicklung des Sicherheitsansatzes, allerdings in starker
Anlehnung an die Wahrscheinlichkeitsrechnung. Die Anwendung des Risikos als Sicher-
heitsbegriff findet sich auch schon in Baunormen. So wird den Bauingenieuren bei außer-
gewöhnlichen Einwirkungen das Recht eingeräumt, ein Restrisiko zu akzeptieren (Euro-
code 1 [12], DIN 1055-9 [2]). Damit muß neben der bisher genutzten Wahrscheinlichkeit
des Versagens auch die Konsequenz des Tragwerkversagens berücksichtigt werden.
4
Einführung in die Sicherheitsbetrachtungen von Bauwerken
Der Begriff des Risikos wird häufig mit großen Unfällen oder Katastrophen in Friedens-
zeiten in Verbindung gebracht. Beispiele für solche Unglücke sind Erdbeben, Stürme, Flu-
ten, Flugzeugabstürze oder Explosionen. Eine umfassende Darstellung dieser Problematik
kann in diesem Rahmen nicht erfolgen, ein kurze Einführung zu Risiken findet man in [3].
Als Beispiel für Unglücke seien hier nur schwere historische Explosionen genannt: Im Jah-
re 1645 explodierte z.B. ein Pulverturm in Delft [5]. Die Explosion war ca. 80 km weit zu
hören und noch heute befinden sich an dem Platz des Pulverturmes ein Markt. 1807 er-
folgte eine Explosion einer Barkasse in der Stadt Leiden. Ca. 150 Menschen, darunter 50
Kinder, fanden dabei den Tod. Napoleon besuchte den Ort der Katastrophe und verfaßte
1910 einen kaiserlichen Erlaß. Dieser Erlaß regelte, welche Manufakturen sich innerhalb
einer Stadt ansiedeln dürfen. Manufakturen mit einer zu großen Gefährdung der Bevölke-
rung wurden aus Städten verbannt. Es muß bedauerlicherweise festgestellt werden, daß der
Umgang mit Sprengstoff sich auch in den folgenden Jahrhunderten nicht besserte. 1867
ereignete sich eine schwere Explosion von Sprengstoffen in Athen. Im zweiten Weltkrieg
geriet ein brennendes Frachtschiff mit Sprengstoff beladen in den Hafen von Bombay und
explodierte anschließend. Die Explosion soll nach Schätzungen die Sprengkraft einer klei-
nen Atombombe besessen haben. Und uns allen wird auch noch das Unglück von Ensche-
de (Niederlande) in Erinnerung sein.
Abb. 1: Explosion eines Pulverturmes in Delft 1654 (links) und die Stadt Leiden nach der
Explosion einer mit Schwarzpulver beladenen Barkasse 1807 (rechts)
Der Verweis auf die Niederlande erfolgt an dieser Stelle nicht von ungefähr. Die Nieder-
lande, Großbritannien, Hongkong und die USA waren federführend bei der Entwicklung
von Risikokriterien. Es ist nicht verwunderlich, daß es sich bei drei der vier Länder um
relativ dichtbesiedelte Länder handelt. Bereits in den fünfziger und sechziger Jahren be-
gann man in diesen Ländern, erste Ansätze für die Beschreibung von Risiken zu entwerfen.
Bekannt sein dürfte aus den USA die sogenannte Farmer-Kurve. Es handelt sich hierbei
um die Ursprungsform der sogenannten F-N-Diagramme. Diese wurden bekannt durch den
sogenannten Rasmussen-Report bzw. durch die WASH-1400 Studie. Einige wichtige Do-
kumente bei der Entwicklung von Risikountersuchungen waren:
• F.R. Farmer, “Siting Criteria – A New Approach,” IAEA, Vienna, 1967.
• Reactor Safety Study, WASH-1400, US Nuclear Regulatory Commission, 1975.
• First Modern NASA PRA (Space Shuttle Proof-of-Concept Study), 1987.
• PRA Policy Statement, US NRC, 1995.
5
Einführung in die Sicherheitsbetrachtungen von Bauwerken
Farmer 1967
70er Jahre
Beek 1975
Flixborough 1974
Seveso 1976
2. Canvey
Gröningen 1978
Report 1981
ACDS Transport
90er Jahre
Study 1991
Soziale Risiko-
Offshore Kriterien kriterien über-
1993 arbeitet 1993
Abb. 2: Meilensteine bei der Entwicklung von Risikoakzeptanzwerten für Soziale Risiken
nach [30]
6
Einführung in die Sicherheitsbetrachtungen von Bauwerken
5 Literatur
[1] E DIN 1055-100: Einwirkungen auf Tragwerke, Teil 100: Grundlagen der Trag-
werksplanung, Sicherheitskonzept und Bemessungsregeln, Juli 1999
[2] E DIN 1055-9: Einwirkungen auf Tragwerke Teil 9: Außergewöhnliche Einwirkun-
gen. März 2000
[3] Curbach, M.; Nitzsche, W.-M.; Proske, D.: Die Sicherheit von Brücken im Vergleich
zu anderen Risiken. 12. Dresdner Brückenbausymposium, Lehrstuhl für Massivbau,
Technische Universität Dresden (Hrsg.), Dresden: 2002
[4] Hof, W.: Zum Begriff Sicherheit. Beton- und Stahlbetonbau 86 (1991), Heft 12, Seite
286-289
[5] Ale, B.J.M.: Keynote lecture: Living with risk: a management question. (Hrsg.) T.
Bedford, P.H.A.J.M. van Gelder: Safety & Reliablity - (ESREL) European Safety
and Reliability Conference 2003, Maastricht, Netherlande, A.A. Balkema Publishers,
Lisse 2003, Volume 1, Seite 1-10
[6] Mayer, M.: Die Sicherheit der Bauwerke und ihre Berechnung nach Grenzkräften an-
statt nach zulässigen Spannungen. Berlin: Verlag von Julius Springer, 1926
[7] Murzewski, J.: Sicherheit der Baukonstruktionen. VEB Verlag für Bauwesen, Berlin,
DDR, 1974
[8] Tichý, M.: Probleme der Zuverlässigkeit in der Theorie von Tragwerken. Vorträge
zum Problemseminar: Zuverlässigkeit tragender Konstruktionen. Weiterbildungszen-
trum Festkörpermechanik, Konstruktion und rationeller Werkstoffeinsatz. Techni-
sche Universität Dresden – Sektion Grundlagen des Maschinenwesens. Heft 3/76,
1976
[9] Joint Committee of Structural Safety: Probabilistic Model Code:
http://www.jcss.ethz.ch, 2002
[10] Normenausschuß Bauwesen im DIN: Grundlagen zur Festlegung von Sicherheitsan-
forderungen für bauliche Anlagen. Ausgabe 1981, Beuth Verlag 1981
[11] ENV 1991 –1 Eurocode 1: Basis of Design and Action on Structures, Part 1: Basis of
Design. CEN/CS, August 1994
[12] ENV 1991–2–7 Eurocode 1: Basis of Design and Action on Structures, Part 2-7: Ac-
tion on structures – Accidental actions due to impact and explosions. CEN/CS, Au-
gust 1998
[13] ENV 1991-2-7: Eurocode 1: Basis of design and actions on structures –Part 2-7: Ac-
tions on structures –Accidental actions due to impact and explosions. CEN/TC 250
Eurocodes für konstruktiven Ingenieurbau, Januar 1996.
[14] ENV 1991-2-7: Eurocode 1: Grundlage der Tragwerksplanung und Einwirkungen
auf Tragwerke – Teil 2-7: Einwirkungen auf Tragwerke – Außergewöhnliche Ein-
wirkungen. Deutsche Fassung, August 1998
7
Einführung in die Sicherheitsbetrachtungen von Bauwerken
[15] Will, J.; Roos, D.: Riedel, J.; Bucher, Chr.: Robustness Analysis in Stochastic Struc-
tural Mechanics. NAFEMS-Seminar: Einsatz der Stochastik in FEM-Berechnungen,
7.-8. Mai 2003, Wiesbaden
[16] Marczyk, J.: Does Optimal Mean Best? NAFEMS-Seminar: Einsatz der Stochastik in
FEM-Berechnungen, 7.-8. Mai 2003, Wiesbaden
[17] INTES Ingenieurgesellschaft für technische Software mbH: http://www.intes.de/
[18] RCP GmbH (Reliability Consulting Programs):
http://www.strurel.de/EPages/index.html
[19] ANSYS Inc. Corporate Information: http://www.ansys.com/
[20] Southwest Research Institute: http://www.nessus.swri.org/faq-capabilities.shtml
[21] Bauhausuniversität Weimar: http://www.uni-weimar.de/Bauing/ism/
[22] Waarts, P.; Vrouwenvelder, T.: Structural Reliability using the Finite Element
Method. 1st International ASRANet Colloguium. 8-10th July 2002, Glasgow, auf CD
[23] Leopold-Franzens Universität Innsbruck
http://mechanik.uibk.ac.at/SoftwareDevelopment/Cossan/index.html
[24] Low, B.K. & Teh, C.I. Probabilistic Analysis of Pile Deflection under Lateral Loads.
In: Application of Statistics and Probability ICASP 8 (ed. R. E. Melchers & M. G.
Stewart), Volume 1, Rotterdam: A. A. Balkema, 2000, 407-414
[25] Freudenthal, A.M.: Safety of Structures, Transactions ASCE, V. 112, 1947, S. 125-
180
[26] Ellingwood, B.R.: Probability-based structural design: Prospects for acceptable risk
bases. Application of Statistics and Probability (ICASP 8), Sydney, 1999, Band 1,
Seite 11-18
[27] Spaethe, G.: Die Sicherheit tragender Baukonstruktionen, 2. neubearbeitete Auflage,
Wien, Springer Verlag, 1992
[28] Kafka, P.: How safe is safe enough? – An unresolved issue for all technologies.
Safety and Reliability., (Eds.) Schuëller & Kafka, Balkema, Rotterdam, 1999, Seite
385-390
[29] Rackwitz, R.: Zuverlässigkeit und Lasten im konstruktiven Ingenieurbau. Vorle-
sungsskript, Technische Universität München, 1998
[30] Ball, D.J; Floyd, P.J.: Societal Risks. Final Report prepared for the HSE, 1998
8
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Probabilistische Sicherheitsbeurteilung
von Stahlbeton-Konstruktionen
mit der Zuverlässigkeitstheorie I. Ordnung*
Bernd Möller, Wolfgang Graf, Rico Schneider
Lehrstuhl für Statik, Technische Universität Dresden
1 Einführung
Ziel der Sicherheitsbeurteilung von Tragwerken sind Aussagen zur Zuverlässigkeit während
der Lebensdauer, d.h. zur Gewährleistung der Nutzungsfähigkeit für den vorgesehenen
Gebrauch sowie zur Sicherheit gegen das Versagen bei außergewöhnlichen Lasten. Solche
Aussagen setzen eine Tragwerksanalyse mit wirklichkeitsnahen mechanischen Modellen
voraus.
Bei der stochastischen Tragwerksanalyse kann der streuende Charakter der Eingangsdaten
berücksichtigt werden. Für die stochastische Analyse sind z.B. Simulationsverfahren und die
Zuverlässigkeitstheorie erster und zweiter Ordnung geeignet.
9
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Voraussetzung für die Anwendung stochastischer Methoden ist die Definition des Grenzzu-
standes, den das Tragwerk während der vorgesehenen Lebensdauer nicht überschreiten darf.
Oft wird der Grenzzustand durch die Beschränkung einzelner Wirkungsgrößen definiert.
Damit wird die Art des Versagens jedoch im voraus festgelegt, meist als Erreichen eines
Grenzwertes an einem vorgegebenen Tragwerkspunkt oder -querschnitt. Unterschiedliche
Belastungszustände können jedoch zu unterschiedlichen Versagensszenarien führen, es müßten
somit alle Versagenszustände vorher bekannt sein, und für jeden dieser Versagenszustände
müßte ein zutreffendes Kriterium als Grenzzustand definiert werden.
Zur Ermittlung eines Grenzzustandspunktes (GZP) werden (n-1) Realisierungen der (n)
eingeführten Zufallsvariablen (Widerstands- und Einwirkungsgrößen) vorgegeben. Die Reali-
sierungen der (n)-ten Zufallsgröße (Einwirkungsgröße) wird bis zum Erreichen des Grenzzu-
standes gesteigert, der GZP wird mit der maximal aufnehmbaren Last erreicht.
Dazu wird die Zuverlässigkeitstheorie erster Ordnung (FORM) mit einer Approximations-
funktion für die nur implizit bekannte Grenzzustandsfunktion angewendet. Nach Bildung der
Approximationsfunktion mit den ermittelten GZP erfolgt die Berechnung des Sicherheitsindex
ß mit Hilfe des Zuverlässigkeitsprogrammes CALREL [3]. Anschließend erfolgt eine iterative
Verbesserung von Approximationsfunktion und Sicherheitsindex ß durch Berechnung weiterer
GZP. Zur Verifizierung des Ergebnisses werden Nachlaufrechnungen durchgeführt.
10
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
X = { X1 , X2 , ..., Xn } (1)
x = { x1 , x2 , ..., xn } (2)
Als Maß für die Sicherheit eines Tragwerkes wird die Versagenswahrscheinlichkeit Pf
definiert.
Pf ' ... fX(x1,x2, ... ,xn) dx1 dx2 ... dxn (3)
m m
x * g(x) < 0
Voraussetzung für die Ermittlung eines Sicherheitsmaßes ist die Definition des Grenz-
zustandes, den das Tragwerk während der vorgesehenen Lebensdauer nicht überschreiten darf.
Der Grenzzustand hängt von dem verwendeten mechanischen Modell ab (deterministische
Basislösung).
11
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Die Grundlage der hier beschriebenen stochastischen Untersuchung ist die geometrisch und
physikalisch nichtlineare Analyse des Systemverhaltens (s. Abschn. 4) mit Simulation eines
komplexen Lastprozesses. Der Lastprozeß wird aus einer beliebigen Folge von Last- und
Zwangsbeanspruchungen gebildet, er kann z.B. Temperaturbelastungen, Stützensenkungen,
Kriech- und Schwindprozesse enthalten, s. Abb. 2. Der Zeitpunkt des Eintretens und die
Dauer der Beanspruchungen werden z.Z. noch deterministisch vorgegeben.
Ursache und Ort des Versagens müssen nicht vorgegeben werden. Während der Abarbeitung
des Lastprozesses wird geprüft, ob Systemversagen eintritt; eine erreichbare Grenzlast ist im
voraus nicht anzugeben. Der Grenzzustand zwischen Überleben und Versagen - also System-
versagen - wird erreicht, wenn keine weitere inkrementelle Steigerung der Lasten im Last-
prozeß ohne Versagen des Systems möglich ist. Für den Grenzzustand der Tragfähigkeit be-
deutet dies, daß zwischen äußeren und inneren Kräften am System bei weiterer Laststeigerung
kein Gleichgewichtszustand mehr gefunden wird; die Tragwerksdeformationen wachsen
unbegrenzt an. Im Grenzzustand der Gebrauchstauglichkeit wird infolge Steigerung der Lasten
eine beliebige Restriktion (z.B. für Verschiebung, Spannung, Dehnung) an einer Stelle des
Tragwerkes überschritten. Die Restriktionen werden bei der Laststeigerung an allen
vorgegebenen Tragwerkspunkten geprüft.
eine (n)-dimensionale Hyperfläche dar, die nur implizit bekannt ist. Es können aber Punkte auf
der Grenzzustandshyperfläche bestimmt werden. Diese Grenzzustandspunkte (GZP) erlauben
es, die tatsächliche GZF in einem Teilraum des x-Raumes durch eine (n)-dimensionale explizite
Näherungsfunktion g:(x) = 0 zu ersetzen, s. Abb. 1.
Der Teilraum I ist in jeder Koordinatenrichtung j des Vektors der Basisvariablen X durch ein
Intervall Ij mit dem unteren Grenzwert xju und dem oberen Grenzwert xjo definiert. Die
verwendeten Näherungsfunktionen g:(x) sind in Abschn. 3 beschrieben.
12
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Ein GZP auf g(x) ist durch seine Realisierungen x1, x2, ..., xn eindeutig bestimmt. Wegen
g(x) = 0 sind von den x1, x2, ..., xn Realisierungen eines GZP (n-1) Realisierungen unabhängig,
bzw. die Realisierung einer Basisvariable ist abhängig von den Realisierungen aller anderen
Basisvariablen. Als abhängige Realisierung wird stets die Realisierung eines Lastparameters
gewählt.
Abb. 2: Beispiel für die Ermittlung eines GZP durch Abarbeitung eines Lastprozesses
Mit jeder Auswahl der (n-1) unabhängigen Realisierungen und der Ermittlung der abhängigen
Realisierung durch inkrementelle Abarbeitung des Lastprozesses wird ein GZP xm gefunden,
s. Abb. 2. Der GZP ist von der Abarbeitungsreihenfolge der Lasten im Lastprozeß abhängig,
deshalb muß der Lastprozeß möglichst realistisch modelliert werden. Versagen bereits vor
dem Aufbringen der als abhängig gewählten Zufallsvariable wird als Sonderfall berücksichtigt.
Nach erstmaliger Berechnung aller benötigten GZP x1, x2, ..., xng kann die Näherungsfunktion
für den I(1)-Teilraum, s. Abb. 1, aufgestellt werden. I(1) bezeichnet die erste Auswahl eines Teil-
raumes I. Die Anzahl (ng) der benötigten GZP ist abhängig von der eingesetzten Näherungs-
funktion g:(x), s. Abschn. 3. Wenn die Funktion g:(x) die Grenzzustandshyperfläche in der
Umgebung des Bemessungspunktes nicht genügend genau approximiert, ist durch erneute
Berechnung der GZP eine verbesserte Näherungsfunktion zu bestimmen.
Die zur Berechnung des Sicherheitsindex ß benötigten Gradienten der GZF g:(x) können
explizit angegeben werden.
13
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
FX ( xj )
j
' Φ NN ( yj ) (6)
Die von den Basisvariablen X abhängige GZF g:(x) wird ebenfalls in den y-Raum transformiert.
Dafür wird erneut Gl. (7) verwendet
g: ( x1, x2, ..., xn ) ' g: FX &1 ( ΦNN(y1) ), FX &1 ( ΦNN(y2) ), ..., FX &1 ( ΦNN(yn) ) '0 (8)
1 2 n
bzw. abgekürzt
14
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Für Punkte in der Umgebung des Bemessungspunktes ist Versagen am wahrscheinlichsten. Ein
Näherungswert für die Versagenswahrscheinlichkeit ist
Die Ermittlung des Sicherheitsindex β, also des kürzesten Abstandes zwischen dem Koordi-
natenursprung und der GZF h(y), stellt ein Optimierungsproblem mit Nebenbedingung dar.
Da der Punkt y auf der Grenzzustandshyperfläche liegen muß, ist die Nebenbedingung
einzuhalten. Die meisten der zur Verfügung stehenden Algorithmen zur Lösung dieses
Optimierungsproblems führen ausgehend vom Startvektor y[0] eine Richtungssuche durch. Mit
Hilfe einer Optimierungsiteration wird der jeweilige Bemessungspunkt auf der GZF gefunden.
Dafür wird der sogenannte Hasofer-Lind-Rackwitz-Fießler-Algorithmus verwendet, weiter
stehen die Methode der projizierten Gradienten sowie der Algorithmus der sequentiellen
quadratischen Programmierung zur Verfügung [3].
Mit Hilfe der Näherungsfunktion g:(1)(x) = 0 werden im ersten Iterationsschritt der Sicherheits-
index β(1) und der Bemessungspunkt _y* (1) berechnet. Nach Rücktransformation ist auch der Be-
(
messungspunkt :x(1) im Originalraum der Basisvariablen X bekannt. Er liegt exakt auf der
Näherungsfunktion g:(1)(x) = 0 und i.d.R. nicht auf der impliziten GZF g(x) = 0, da die
Funktionen g(x) und g:(x) nur an den berechneten GZP exakt übereinstimmen, s. Abb. 4.
Abb. 4: Iterative Bestimmung von Bemessungspunkt und Sicherheitsindex und Lage des neuen
Teilraumes I(i)
15
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Durch erneute Bestimmung von ng Punkten x(2)1, x(2)2, ..., x(2)ng können die Näherungsfunktion
(
für den I(2)-Teilraum aufgestellt und der Bemessungspunkt :x(2) ermittelt werden. Verallgemei-
nert ist das für zwei Zufallsvariablen in Abb. 4 gezeigt.
Die Iteration wird fortgesetzt, bis das Konvergenzkriterium erfüllt ist. Konvergenzkriterium ist
(
die Differenz der einzelnen Koordinaten des Bemessungspunktes :x(i) im Ausgangsraum der
Basisvariablen X. Der Iterationsalgorithmus ist in Tab. 1 zusammengefaßt dargestellt.
Da nach (i) Iterationsschritten ein Vielfaches der Anzahl der zur einmaligen Approximation
der Grenzzustandshyperfläche nötigen GZP vorliegt, erfolgt eine Kontrolle bzw. Verbesserung
des Sicherheitsindex ohne Neuberechnung von GZP.
(
Wird bei der Berechnung des Bemessungspunktes :x und des Sicherheitsindex β innerhalb
einer vorgegebenen maximalen Iterationsschrittzahl Konvergenz erzielt, so wird unter
Anwendung der Zuverlässigkeitstheorie zweiter Ordnung (SORM) als erste Kontrolle zusätz-
lich die Versagenswahrscheinlichkeit Pf mit der im letzten Iterationsschritt gültigen Näher-
ungsfunktion g:(i)(x) = 0 ermittelt. Bei SORM wird die GZF in der Umgebung des Bemes-
sungspunktes durch eine Fläche zweiter Ordnung angenähert, Nichtlinearitäten der GZF in der
Umgebung des Bemessungspunktes werden erfaßt. Aus der Differenz von Pf,FORM und Pf,SORM
können Aussagen zum Einfluß der Nichtlinearität der Grenzzustandshyperfläche und damit
zum Approximationsfehler bei der FORM-Analyse getroffen werden, s. Abb. 5.
Zur weiteren Kontrolle wird eine verbesserte Näherungsfunktion g:G(x) = 0 unter Verwendung
aller in der Iteration ermittelten GZP mit Hilfe der Methode der kleinsten Fehlerquadrate
16
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
berechnet, s. Abb. 6.
Wird während der Iteration keine Konvergenz erzielt (z.B. Ermittlung unterschiedlicher
Bemessungspunkte bei unterschiedlichen Startwerten in der Optimierungsiteration) oder
werden große Differenzen zwischen den ermittelten Sicherheitsmaßen festgestellt, so muß die
Grenzzustandshyperfläche abschnittsweise mit Spline-Interpolationsfunktionen approximiert
werden. Die Ermittlung der Versagenswahrscheinlichkeit Pf erfolgt dann mittels Monte-Carlo-
Simulation.
17
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
jbx '0
n
g: (x) 'a% j j
(14)
j'1
Die Koeffizienten bj und der Summand a werden durch Einsetzen der berechneten
Koordinaten der GZP ermittelt. Die triviale Lösung a = bj = 0 wird durch Vorgabe des
Koeffizienten b1 = 1 vermieden. Zur eindeutigen Bestimmung von bj und a werden ng = n GZP
benötigt.
Die zur Berechnung der GZP vorzugebenden Realisierungen der Basisvariablen X2 bis Xn
werden als Randpunkte des Teilraumes I(1) gewählt. Der Teilraum wird dazu im ersten Itera-
tionsschritt möglichst groß gewählt (Abb. 7), um die Differenzen zwischen der Grenzzustands-
hyperfläche und der gewählten Approximationsfunktion gering zu halten. Vorteilhaft ist, wenn
der im ersten Iterationsschritt ermittelte Bemessungspunkt innerhalb des Teilraumes I(1) liegt.
In Tab. 2 sind die Realisierungen der GZP im Iterationsschritt (i) angegeben. Die Reali-
sierungen der unabhängigen Zufallsvariablen X2 - Xn werden im 1. Iterationsschritt gemäß Gln.
(15) - (17) vorgegeben. Auf Grund der linearen Approximation werden für jede Zufalls-
variable nur zwei Realisierungen benötigt. Die abhängige Zufallsvariable X1 wird anschließend
ermittelt.
18
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
GZP X1 X2 X3 @ Xj @ Xn
x1(i) x1(i)1 x2(i)1 x3(i)1 @ xj(i)1 @ xn(i)1
x2(i) x1(i)2 x2(i)2 x3(i)1 @ xj(i)1 @ xn(i)1
x3(i) x1(i)3 x2(i)2 x3(i)2 @ xj(i)1 @ xn(i)1
@ @ @ @ @ @ @ @
m m 2 2 2
x (i) x1(i) x2(i) x3(i) @ x j(i) @ xn(i)1
@ @ @ @ @ @ @ @
ng ng 2 2 2
x (i) x1(i) x2(i) x3(i) @ x j(i) @ xn(i)2
1
xj(1) ' xj (15)
2
xj(1) ' x j & kj (1) @ σxj für Widerstände (16)
2
xj(1) ' x j % kj (1) @ σxj für Einwirkungen (17)
Der Wert kj(1) ist problemspezifisch vorzugeben, in bisherigen Untersuchungen hat sich
kj(1) = 5 bewährt.
kj(i)
1
xj(i) ' xj (i)M & @ σxj (18)
2
kj(i)
xj(i)
2
' xj (i)M % @ σxj
2 (19)
Die Werte für kj(i) und xj(i)M ergeben sich wie folgt:
(
a) Der Bemessungspunkt :x(i-1) des vorhergehenden Iterationsschrittes liegt innerhalb des
Intervalls Ij(i-1) :
(
M
xj(i) ' x̃ j(i&1) (20)
kj (i&1)
kj(i) ' (21)
2
19
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
(
b) Der Bemessungspunkt :x(i-1) des vorhergehenden Iterationsschrittes liegt außerhalb des
Intervalls Ij(i-1). Es wird ein Randpunkt des Ij(i-1)-Intervalls als Mittelpunkt des neuen
Intervalls verwendet, die Intervallgröße wird nicht verändert.
M
xj(i) ' x j(i
o
&1) oder xj (i)
M
' x ju(i&1) (22)
j jcx
n n
g: (x) 'a% bj xj % j j
2
'0 (24)
j'1 j'1
Die Ermittlung der Koeffizienten erfolgt analog zum Vorgehen von (I). Zur Berechnung der
GZP werden hier für jede Zufallsvariable drei Realisierungen benötigt, s. Gln. (25) - (27).
1
xj(i) ' xj (i)M (25)
2
xj(i) ' xj (i)M & kj(i) @ σxj (26)
3
xj(i) ' xj (i)M % kj(i) @ σxj (27)
Die Intervallgrößen werden wie bei (I) gebildet. Im ersten Iterationsschritt wird für xj(1)M eben-
falls der Erwartungswert der Zufallsvariablen eingesetzt.
Die exakte Ermittlung der GZP ist Voraussetzung für die korrekte Approximation der GZF
g:(x). Deshalb wird das Tragwerksverhalten mit Hilfe von Pfadverfolgungsalgorithmen über
den Versagenspunkt hinaus berechnet. Durch Interpolation zwischen den letzten Punkten des
Lastpfades kann jeder GZP genauer bestimmt werden.
Bei den Nachlaufrechnungen zur Verbesserung von Pf wird ein Polynom mit Hilfe der
Methode der kleinsten Fehlerquadrate aufgestellt. Dazu werden alle bisher berechneten GZP
genutzt.
jj C
p n
g:G (x) ' C0 % kj xj
k
mit p#4 (28)
k'1 j'1
Es gilt:
j
GZP
g̃ G( x m ) 2
'! Minimum (29)
20
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
j
M g̃ G( x m ) ! (30)
g̃ G( x m ) @ '0
GZP M C
jk
Bei Konvergenzschwierigkeiten oder nicht eindeutiger Lage des Bemessungspunktes kann die
Approximation durch Spline-Funktionen verbessert werden. Dabei wird die GZF
abschnittsweise durch Interpolationspolynome ersten oder zweiten Grades approximiert, s.
Abb. 8. Für jeden Abschnitt werden ng GZP benötigt, s. a. Gln. (14) - (23).
3.3 Effektivitätsverbesserung
Die Effektivität der stochastischen Analyse kann insbesondere durch Verringerung der Anzahl
der GZP gesteigert werden. Deshalb wird vor jedem Iterationsschritt geprüft, ob in der
"Umgebung" neu zu berechnender GZP bereits Punkte ermittelt wurden.
Unterschreiten die Differenzen aller unabhängigen Realisierungen zweier GZP einen vorgege-
benen Grenzwert, dann wird der vorhandene GZP weiterverwendet.
Durch die Ausnutzung von Sensitivitäts- und Korrelationseigenschaften kann die Anzahl der
benötigten GZP ebenfalls vermindert werden. Die Ermittlung des Bemessungspunktes erfolgt
hierbei zunächst mit wenigen Basisvariablen, die großen Einfluß auf den Sicherheitsindex ß
haben. Durch einen zusätzlichen Iterationsschritt wird der Einfluß der vorher vernachlässigten
Zufallsvariablen überprüft.
Die numerische Effizienz kann durch paralleles Berechnen der GZP noch verbessert werden.
21
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Das Vorgehen beruht auf der Lösung des DGL-Systems für den geraden bzw. imperfekt
geraden eben wirkenden Stab mit einer Runge-Kutta-Integration. Die Stäbe sind über Knoten
beliebig gekoppelt. Es können auch intern vorgespannte Stäbe ohne Verbund oder mit sofor-
tigem bzw. nachträglichem Verbund sowie extern vorgespannte Stäbe modelliert werden.
Einflüsse infolge Reibung, Keilschlupf und Relaxation sind erfaßbar, die Spanngliedführung ist
weitgehend beliebig.
Der ebene Querschnitt kann in Schichten unterschiedlicher Höhe unterteilt werden, s. Abb. 10.
Er kann längs der Stabachse weitgehend beliebig variieren. Bewehrungs- und Spannstähle
werden im Querschnitt als separate Schichten modelliert.
Die Dehnungen in den Schichtschwerachsen werden mit Hilfe der Ebenen-Hypothese aus den
Verschiebungsgrößen der Referenzachse ermittelt. Die physikalischen Nichtlinearitäten
können bei der Spannungsermittlung in der Schichtschwerachse durch unterschiedliche Stoff-
gesetze berücksichtigt werden (s. Abbn. 11 u. 12). Diese Werkstoffgesetze erfassen die
fortschreitende Werkstoffschädigung, zyklische Be- und Entlastung mit Bauschinger-Effekt
sowie bei Beton zusätzlich tension stiffening und Kontaktkräfte beim Schließen der Risse und
bei Stahl monotone und zyklische Verfestigung.
22
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Viskoses Stoffverhalten wie Schwinden, Kriechen und Relaxation wird ebenfalls erfaßt.
23
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
5 Beispiele
5.1 Einfeldträger
Für den Grenzzustand der Tragfähigkeit eines Einfeldträgers wurde eine stochastische
Analyse mit vier Basisvariablen durchgeführt, s.a. [10], ihre Ergebnisse wurden mit denen
einer Monte-Carlo-Simulation (MC) verglichen [15], s. Tab. 4. System, Belastung und Geo-
metrie sind in Abb. 14 dargestellt.
Variationskoeffizient Versagenswahrscheinlichkeit Pf
der Last p FORM SORM MC-Simulation [15]
0,5 1,34E-02 1,48E-02 ~ 1,5E-02
0,4 2,99E-03 3,27E-03 ~ 3,0E-03
0,3 1,34E-04 1,60E-04 ~ 1,5E-04
0,2 1,18E-07 2,10E-07 nicht angegeben
0,1 7,24E-09 6,50E-09 nicht angegeben
Bei der MC-Simulation wurden in [15] für die Variationskoeffizienten 0,1 und 0,2 der Last
keine Angaben gemacht, da dafür eine sehr große Anzahl von Stichproben notwendig wäre.
24
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Da die mit FORM und SORM berechneten Werte Pf nur wenig differieren, ist die GZF im
Bereich des Bemessungspunktes nur gering nichtlinear.
5.2 Stahlbetonrahmen
Für den eben wirkenden Stahlbetonrahmen nach Abb. 15 wurde eine stochastische
Sicherheitsbeurteilung durchgeführt. Versagenskriterium war globales Systemversagen. Die
deterministische Basislösung ist geometrisch und physikalisch nichtlinear. Der simulierte Last-
prozeß setzt sich aus der Eigenlast, der Horizontallast PH, den vertikalen Knotenlasten PV und
der Linienlast p zusammen. Gleichzeitig wurden PV und p mit dem Lastfaktor ν inkrementell
bis zum Systemversagen gesteigert.
Die stochastische Analyse wurde mit zwei Basisvariablen und unterschiedlichen Wahrschein-
lichkeitsverteilungsfunktionen entsprechend Tab. 5 geführt.
Basisvariable X1 X2
Bezeichnung Lastfaktor ν Einspannung kn [kNm/rad]
Verteilungsfunktion A: Ex-Max-Typ I 1: Beta-Verteilung
(Gumbel) 2: Log. NV
B: GNV 3: GNV
Erwartungswert x̄ 5,9 9 000
Standardabweichung σX 0,11 1 350
Minimalwert, nur bei 1) u. 2) - 0
Maximalwert, nur bei 1) - 12 000
25
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Untersucht wurden der Einfluß des deterministischen Berechnungsmodells und des Types der
Verteilungsfunktion. Für die Untersuchungen wurde nach zwei bzw. drei stochastischen
Iterationsschritten der Bemessungspunkt gefunden. Innerhalb einer Variante wurden etwa 19
GZP ermittelt, die bei gleicher deterministischer Basislösung wiederholt verwendet werden
konnten.
Abb. 16 zeigt den Einfluß des deterministischen Modells auf den Sicherheitsindex β bei den
Verteilungen A und 1.
In Tab. 6 ist der Sicherheitsindex β für geometrisch und physikalisch nichtlineare Analyse
angegeben, in Abb. 17 die zugehörige Lage des Bemessungspunktes für ausgewählte
Varianten.
X2 1: 2: 3:
X1 Beta-Verteilung Log. NV GNV
A: Ex-Max-Typ I 3,64 4,66 4,17
B: GNV 3,66 5,78 4,21
Das Beispiel zeigt, daß sowohl das deterministische Berechnungsmodell als auch die korrekte
Erfassung der Zufallsvariablen den Sicherheitsindex β und damit die zugehörige Versagens-
wahrscheinlichkeit Pf stark beeinflussen.
26
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Bei der stochastischen Analyse wurden 19 Zufallsvariable eingeführt, s. Tab. 7. Die Parameter
der Zufallsvariablen wurden durch Messungen ermittelt oder der Literatur entnommen. Fließ-
und Bruchspannung der einzelnen Stähle wurden als korreliert angenommen (k = 0,75).
27
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Zur Untersuchung wurden drei Iterationsschritte mit jeweils 37 GZP durchgeführt. Der
Sicherheitsindex ß und die Versagenswahrscheinlichkeit Pf wurden primär nach FORM
ermittelt, in der Nachlaufrechnung nach SORM. Die Ergebnisse sind in Tab. 8 dargestellt.
28
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Die Ermittlung der GZP ist in Abb. 20 beispielartig gezeigt. In Abb. 21 ist eine GZF im Teil-
raum der drei Basisvariablen dargestellt, die den größten Einfluß auf die Lage des
Bemessungspunktes haben. Alle anderen Basisvariablen besitzen für diese Darstellung die
Koordinaten des Bemessungspunktes.
29
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Abb. 21: GZF im Raum der Basisvariablen X1, X12, X15 im 3. Iterationsschritt
6 Zusammenfassung
Die deterministische Grundlösung beruht auf der numerischen Integration der Differential-
gleichung für den Stab. Die Lösung des zugehörigen nichtlinearen Gleichungssystems der
unbekannten Knotenverschiebungen erfolgt inkrementell-iterativ mit einem modifizierten
Newton-Raphson-Verfahren oder mit Pfadverfolgungsalgorithmen. Das Tragverhalten unter
statischen Last- und Zwangsprozessen wird für die gesamte Lebensdauer mit Stoffgesetzen,
die zyklische Be- und Entlastung erfassen, numerisch simuliert. Dabei wird das Langzeit-
Stoffverhalten mit erfaßt. Es können vorgespannte Systeme behandelt werden. Mit dem
entwickelten M-N-Q-Interaktionsmodell können auch stark schubbeanspruchte Systeme
wirklichkeitsnah untersucht werden.
Der Grenzzustand zwischen Überleben und Versagen liegt nur implizit vor. Durch
Berechnung von Punkten auf der Grenzzustandshyperfläche kann eine Näherungsfunktion
aufgestellt werden. Als Versagenskriterien können sowohl globales Systemversagen als auch
Zwischenzustände (Verlust der Gebrauchstauglichkeit, Querschnitts- oder Punktversagen)
benutzt werden. Durch stochastische Iteration werden mit Hilfe der Zuverlässigkeitstheorie
erster Ordnung der Bemessungspunkt und der Sicherheitsindex β ermittelt. Mit Nachlaufrech-
nungen wird die Versagenswahrscheinlichkeit Pf überprüft und verbessert.
30
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
Literatur
[1] Bulicek, H.: Zur Berechnung des ebenen Spannungs- und des Verzerrungszustandes
von schubbewehrten Stegen profilierter Stahlbeton- und Spannbetonträger im
Grenzzustand der Schubtragfähigkeit. Bericht aus dem Konstruktiven Ingenieurbau,
TU München, 4/93
[2] Der Kiureghian, A.; Dakessian, T.: Multiple design points in first and second-order
reliability. Structural Safety, Vol. 20 (1), 1998, pp. 37–49
[3] Liu, P.L.; Lin, H.Z.; Der Kiureghian, A.: CALREL, User manual, Report-No.
UCB/SEMM-89/18. Dep. of Civil Engineering, Univ. of California, Berkeley, 1992
[4] Ma, S.M.; Bertero, V.V.; Popov, E.P.: Experimental and analytical studies on
hysteretic behavior of reinforced concrete rectangular and T-beams. EERC 76-2,
University of California, Berkeley, 1976
[5] Meskouris, K.; Krätzig, W.B.; Elenas, A.; Heiny, L.; Meyer, I.F.: Mikrocomputer-
unterstützte Erdbebenuntersuchung von Tragwerken. SFB 151-Ber. Nr. 8, Ruhr-Univ.
Bochum, 1988
[6] Möller, B.; Beer, M.; Graf, W.; Schneider, R.: Nutzung von Tragreserven bei
Spannbeton-Fachwerkbindern durch genauere Nachweise für Tragfähigkeit und
Gebrauchstauglichkeit. in: B. Möller; B. Dressel (Hg.): Probleme der Nachweisfüh-
rung bei außergewöhnlichen Bauwerken; 1. Dresdner Baustatik-Seminar, TU Dresden,
1997, S. 21–36
[7] Möller, B; Beer, M.; Graf, W.; Schneider, R.; Stransky, W.: Zur Beurteilung der Si-
cherheitsaussage stochastischer Methoden. in: B. Möller; B. Dressel (Hg.): Sicher-
heitsrisiken bei der Tragwerksmodellierung; 2. Dresdner Baustatik-Seminar, TU
Dresden, 1998, S. 19–41
[8] Möller, B.; Beer, M.; Graf, W.; Schneider, R.: Fuzzy-Methoden zur Beurteilung der
Sicherheit von Stahlbetontragwerken. in: K. Meskouris (Hg.): Tagung Baustatik-
Baupraxis 7; RWTH Aachen, 1999; A.A. Balkema, Rotterdam, Brookfield, 1999, S.
229–236
[9] Müller, H.; Graf, W.; Schneider, R.; Stanoev, E.: Zum nichtlinearen mechanischen
Verhalten von seilvorgespannten Stahlbeton-Stabtragwerken. Tagung Baustatik-Bau-
praxis 6; Weimar, 1996, Tagungsbericht, S. 4.1 - 4.20
[10] Müller, H.; Möller, B.; Graf, W.; Schneider, R.: Zuverlässigkeitsanalyse erster
Ordnung für ebene Stahlbeton-Stabtragwerke auf der Basis eines (neuen) konti-
nuierlichen M-N-Q-Interaktionsmodelles. Forschungsbericht, TU Dresden, Lehrstuhl
für Statik, 1998
31
Probabilistische Sicherheitsbeurteilung von Stahlbeton-Konstruktionen
[11] Neuenhofer, A.; Zilch, K.: Sensitivitätsanalyse von Stabtragwerken mit nichtlinearem
Tragverhalten als Grundlage für Zuverlässigkeitsuntersuchungen im Stahlbetonbau.
Bauingenieur 69 (1994), S.415–421
[13] Schuëller, G.I.: Einführung in die Sicherheit und Zuverlässigkeit von Tragwerken.
Ernst & Sohn, Berlin, 1991
[14] Spaethe, G.: Die Sicherheit tragender Baukonstruktionen. Verl. f. Bauwesen, Berlin,
1987; Springer-Verl., Berlin, Heidelberg, New York, 1992
[15] Thieme, D.: Traglast und Versagenswahrscheinlichkeit eines nach EC2 bemessenen
Stahlbetonbalkens. FEM’98, Finite Elemente i.d. Baupraxis, Tagung TU Darmstadt,
Ernst & Sohn, Berlin, 1998
* Erstveröffentlichung in:
Bautechnik 77 (2000), Heft 6, S. 393–404
32
Zuverlässigkeitskonzept (Teil II)
1 Zuverlässigkeit im Bauwesen
Das Ziel jeder Normung im Bauwesen ist die Errichtung sicherer Bauwerke bei angemes-
senen Kosten. Eine ganz wesentliche Grundlage sind hierbei die Erfahrungen bei Bau und
Nutzung. Diese wurden im Stahlbetonbau seit über 100 Jahren, im Stahlbau seit etwa 200
Jahren gesammelt und liegen im Holzbau und im Mauerwerksbau aus einem noch wesent-
lich größeren Zeitraum vor.
Wenn man neue Normen bearbeiten und einführen will, muss man diese Erfahrungen be-
achten. Dies ist jedoch nicht einfach durch Übertragung bewährter Sicherheitsfaktoren und
konstruktiver Regeln möglich. Neue Werkstoffe und Konstruktionslösungen wie auch wis-
senschaftliche Erkenntnisse und rechentechnische Möglichkeiten erfordern eine tiefer ge-
hende Analyse, für welche die Zuverlässigkeitstheorie ein geeignetes Mittel ist.
Die Zuverlässigkeitstheorie – und auch die praktische Erfahrung - zeigen, dass es keine
100-prozentige Zuverlässigkeit gibt (Abb.1). Hier soll unter Zuverlässigkeit im bautechni-
schen Sinne die Wahrscheinlichkeit verstanden werden, dass ein Bauwerk seine Funktion
während der vorgesehenen Nutzungsdauer erfüllt.
Im Vergleich mit anderen Risiken ist das Risiko eines Bauwerksversagens relativ gering
(Tab.1). Dies spiegelt sich auch in der Akzeptanz in der Öffentlichkeit wider, die z. B. Au-
tounfälle bereitwilliger hinnimmt als Bauwerkseinstürze.
33
Zuverlässigkeitskonzept (Teil II)
Abb. 1: Einsturz der Brücke über den James River (USA 1977) nach Schiffsanprall an einen Pfei-
ler
Als Maß der Zuverlässigkeit wird meist nicht die Bestandswahrscheinlichkeit Ps, sondern
ihre komplementäre Größe, die Versagenswahrscheinlichkeit Pf, verwendet. Vor dem Hin-
tergrund der Risikoübersichten und Schadensstatistiken sieht SPAETHE [2] den Wert
Pf = 10-3 / Jahr als absolute obere Grenze für Versagensfälle mit Verlust der Tragfähigkeit
an, als untere Grenze gibt er Pf = 10-7 bis 10-8 / Jahr an. Häufig benutzt man statt der
Versagenswahrscheinlichkeit Pf auch den Sicherheitsindex β als Maß für die Zuverlässig-
keit. Dieser ist eine Zahl in einer geläufigen Größenordnung und hat den Vorteil, dass er
mit steigender Sicherheit anwächst. Auf den Zusammenhang zwischen Pf und β wird in
Abschnitt 3 näher eingegangen. Einige zugeordnete diskrete Werte sind in Tabelle 2 ange-
geben.
34
Zuverlässigkeitskonzept (Teil II)
Um die erwartete hohe Zuverlässigkeit von Bauwerken zu gewährleisten, werden drei Stra-
tegien verfolgt, [2]:
• Schaffung eines ausreichenden Sicherheitsabstands zwischen rechnerischer
Beanspruchbarkeit und Beanspruchung (normative Festlegung „sicherer“ charakte-
ristischer Werte, d.h. niedriger Beanspruchbarkeits- und hoher Beanspruchungsgrö-
ßen, Ansatz von Teilsicherheitsbeiwerten, konservative Berechnungsmodelle)
• Maßnahmen zur Vermeidung menschlicher Fehlhandlungen (Organisation einer lü-
ckenlosen Verantwortlichkeit, Information und Koordination, wirkungsvolle Kon-
troll- und Überwachungssysteme)
• Maßnahmen zur Begrenzung des Schadensausmaßes (Wahl redundanter Tragsyste-
me, Werkstoffe und /oder Konstruktionsformen mit großem Verformungsvermögen
und Vorankündigung des Versagens)
35
Zuverlässigkeitskonzept (Teil II)
Die Nichtüberschreitung der Grenzzustände der Tragfähigkeit ist für alle Bemessungssitu-
ationen nachzuweisen, die während der Errichtung und der Nutzung des Bauwerkes bei
ingenieurmäßiger Betrachtung zu erwarten sind. Diese werden nach EN 1990 [4] eingeteilt
in:
• ständige Situationen im Zusammenhang mit der normalen Nutzung
• vorübergehende Situationen, wie sie z. B. bei Montage oder Instandsetzung auftreten
können
• außergewöhnliche Situationen, wie z. B. Brände, Explosionen, Anprallfälle
• seismische Bemessungssituationen
36
Zuverlässigkeitskonzept (Teil II)
3 Zuverlässigkeitstheoretische Grundlagen
3.1 Zuverlässigkeitstheorie I. Ordnung
Im Beitrag Zuverlässigkeitskonzept I von Prof. Möller wurde gezeigt, dass bei bekannter
Grenzzustandsgleichung und bei bekannten Verteilungsfunktionen der Basisvariablen der
Sicherheitsindex β und die Versagenswahrscheinlichkeit Pf bestimmt werden können. Im
allgemeinen Fall sind strenge Lösungen sehr aufwendig, so dass man auf Näherungslösun-
gen zurückgreift. Eine wichtige Vereinfachung ist die Linearisierung der Grenzzustands-
gleichung im Bemessungspunkt, das wichtigste Kennzeichen der Zuverlässigkeitstheorie
I. Ordnung. Berücksichtigt man die Krümmung im Bemessungspunkt, spricht man von der
Zuverlässigkeitstheorie II. Ordnung.
Eine zentrale Rolle bei derartigen Rechnungen spielt der Bemessungspunkt, der im allge-
meinen Fall zunächst nicht bekannt ist, geschätzt und dann iterativ verbessert werden
muss. Er stellt bei n Basisvariablen den Vektor ihrer n Bemessungswerte dar und ist als der
Punkt auf der Grenzzustandsgleichung definiert, in dem Versagen am wahrscheinlichsten
ist.
Da der Bemessungspunkt bzw. seine Koordinaten, die Bemessungswerte der einzelnen
Basisvariablen, in den modernen semiprobabilistischen Normen eine Schlüsselrolle spie-
len, sollen sie im Folgenden an einem möglichst einfachen Beispiel unter Bezug auf den
Beitrag Zuverlässigkeitskonzept I kurz vorgestellt werden:
Ein Zugstab aus Baustahl S 235 sei nach DIN 18800 – 1 (1990) [5] für eine ständige Last
G zu bemessen und anschließend Sicherheitsindex β und Versagenswahrscheinlichkeit Pf
zu bestimmen.
Für die Streckgrenze fy und die ständige Last G gelte jeweils die GAUSS′sche Normalver-
teilung. Statistische Parameter und charakteristische Werte sind in Tabelle 3 angegeben.
37
Zuverlässigkeitskonzept (Teil II)
Gd 201600 N
erf A = = = 923,9 mm 2
f y,d 218,2 N/mm 2
In der Regel wird man das nächst größere Profil der gewünschten Form wählen. Um eine
möglichst geringe, aber nach Norm nach akzeptable Sicherheit zu erhalten, wird die Zuver-
lässigkeitsuntersuchung mit A = 923,9 mm2 durchgeführt. Hierbei wird wegen der relativ
geringen Streuung von Querschnittswerten (Variationskoeffizienten v = σ/µ zwischen
0,01 und 0,05) A vereinfacht als Festwert behandelt.
Zuverlässigkeitsuntersuchung
Die lineare Grenzzustandsgleichung lautet hier
g (x ) = x 2 − x 1 = 0 (1)
38
Zuverlässigkeitskonzept (Teil II)
x 2 [kN]
-3
*10
0.17
2.09 300
9.35
100
100 200
x1 [kN]
-3
0.15
*10
1.80
8.07
13.30
0
µx -x1 =
x
2 g= 2
P*
P*
a
Versagenswahrscheinlichkeit
(um a verschoben)
Versagensbereich
x1
µx
1
39
Zuverlässigkeitskonzept (Teil II)
x 1 − µ x1 x 2 − µ x2
y1 = ; y2 = (2)
σ xl σx2
bedeutet, dass die normalverteilten Größen X1 und X2 normiert werden. Für die Darstel-
lung der normierten Basisvariablen Y1 und Y2 mit dem Mittelwert 0 und der Standardab-
weichung 1 analog Abb. 5 bedeutet dies, dass aus den elliptischen Höhenschichtlinien
Kreise werden und der Koordinatenursprung in den „Gipfel“ des Wahrscheinlichkeitshü-
gels verschoben wird, s. Abb. 7.
y2
y2 Überlebensbereich
4
)
2
(3
ch 0
l.
na y)=
G
1 y*1 = α1β
h(
0 1 2 3 4 y1
β
f Y (y2)
2
Bemessungspunkt P*
y*2 = α2 β
Versagensbereich
y1
f Y (y1 )
1
Wird Gl. (2) in Gl. (1) eingesetzt, lautet die Grenzzustandsbedingung in der y-Ebene
g (x ) = x 2 − x 1 = µ x2 + σ x2 y 2 − µ x1 − σ x1 y1 = 0
Teilt man die Gl. (3) durch ⎛⎜ − σ x 1 + σ x 2 ⎞⎟ , so erhält man die HESSE′sche Normalform
2 2
⎝ ⎠
der Geradengleichung
σ x1 σ x2 µ x2 − µ x1
y1 − y2 − =0 (4)
2 2 2 2 2 2
σ x1 + σ x2 σ x1 + σ x2 σ x1 + σ x2
In dieser stellen
σ x1 − σ x2
α1 = und α 2 = (5)
2 2 2 2
σ x1 + σ x2 σ x1 +σ x2
40
Zuverlässigkeitskonzept (Teil II)
die Kosinus der Winkel dar, die das Lot vom Ursprung auf die Grenzzustandsgerade mit
den Koordinatenachsen y1 und y2 einschließt. Das Lot trifft die Grenzzustandsgerade im
( ∗ ∗
)
Punkt P* y1 ; y 2 , dem sogenannten Bemessungspunkt, der sich hier ohne Iteration ergibt.
Es hat die Länge
µ x2 − µ x1
β= (6)
2 2
σ x1 + σ x2
geschrieben werden.
Es lässt sich zeigen, dass β der Sicherheitsindex ist. Nach Abb. 7 ist plausibel, dass der
Überlebensbereich mit wachsendem β größer wird. Es ist auch erkennbar, dass der Be-
messungspunkt P ∗ der Punkt auf der Grenzzustandsgeraden mit der höchsten Höhenkote,
d. h. der Punkt des wahrscheinlichsten Versagens, ist. Seine Koordinaten sind
∗ ∗
y1 = α1β und y 2 = α 2β (7)
Durch Rücktransformation in die x-Ebene nach Gl. (2) erhält man die Bemessungswerte
∗
x 1 = µ x1 + σ x1 y1 = µ x1 + α 1βσ x1 ⎫
∗ ⎬ (8)
x 2 = µ x2 + σ x2 y 2 = µ x2 + α 2 βσ x2 ⎭
Nach Pf = Φ(- β ) = 1 − Φ(β ) , Φ ist die normierte Normalverteilung, s. auch Tab. 2, beträgt
die Versagenswahrscheinlichkeit
Pf = 8,70 ⋅ 10 −5 ≈ 10 −4
α1 = 0,7573 ; α 2 = −0,6531 (α 1
2 2
+ α2 = 1 ,)
die Bemessungswerte in der y-Ebene nach Gl. (7)
∗
y1 = 2,843 ;
∗
y 2 = −2,452 (y 1
∗2
+ y2
∗2
= β 2 = 3,754 2 )
und im Originalsystem (x-Ebene) nach Gl. (8)
∗
x 1 = 100 + 0,7573 ⋅ 3,754 ⋅ 30 = 185,3 kN
∗
x 2 = 248,7 − 0,6531 ⋅ 3,754 ⋅ 25,87 = 185,3 kN
41
Zuverlässigkeitskonzept (Teil II)
∗ ∗
x 2 − x 1 = 0 ist eine Rechenkontrolle, denn der Bemessungspunkt P ∗ liegt auf der Grenz-
zustandsgeraden g (x ) = x 2 − x 1 = 0 , s. Gl. (1), Abb. 5 und 7.
Die Koordinaten des Bemessungspunktes P ∗ bieten sich zur Ableitung von Teilsicher-
heitsbeiwerten geradezu an. Hierauf soll in Abschnitt 4 zurückgekommen werden.
Nachbemerkung:
Wie im Beitrag Zuverlässigkeitskonzept I ausgeführt, ist die Anwendung der Zuverlässig-
keitstheorie I. Ordnung keinesfalls auf den Grundfall zweier normalverteilter Basisvariab-
len bei einer linearen Grenzzustandsbedingung beschränkt. Durch geeignete Näherungen
gelingt es, diese allgemeinen Fälle auf den dargestellten Grundfall zurückzuführen und
∗
auch hierfür Sicherheitsindex β, Wichtungsfaktoren α i und Bemessungswerte x i zu
bestimmen.
3.2 Monte-Carlo-Simulation
Die Versagenswahrscheinlichkeit Pf kann auch mit statistischen Mitteln bestimmt werden.
Es wird wie im Abschnitt 3.1 vorausgesetzt, dass die Basisvariablen X1,..., Xi,..., Xm be-
züglich ihrer Verteilungsfunktionen FXi (x i ) bekannt sind und dass die Grenzzustandsglei-
chung g (X 1 ,..., X m ) definiert ist.
Erzeugt man nun einen Satz von Realisierungen x 1l , ... , x il ,..., x ml , die den o.g. Vertei-
lungsfunktionen genügen und gibt sie in die Grenzzustandsgleichung ein, so erhält man
eine Realisierung z l = g(x1l ,..., x ml ) der Zufallsgröße
Wiederholt man diesen Vorgang n-mal, wobei n eine große Zahl ist, z. B. 106, so erhält
man eine Stichprobe für die Zufallsgröße Z, die statistisch verarbeitet werden kann.
Da die Grenzzustandsfunktion z = g (x 1 ,..., x m ) = 0 den Überlebens- vom Versagensbe-
reich trennt, kennzeichnen Ergebnisse z < 0 Versagensfälle.
Damit kann die relative Versagenshäufigkeit als Verhältnis der Versagensfälle zur Ge-
samtzahl n der Zyklen bestimmt werden:
Zahl derVersagensfälle (z < 0)
Relative Versagenshäufigkeit =
Zyklenzahl n
Es lässt sich zeigen, dass die relative Versagenshäufigkeit für n → ∞ gegen die Versagens-
wahrscheinlichkeit Pf geht.
Voraussetzung hierfür ist, dass die erzeugten xil (1 ≤ l ≤ n ) Realisierungen der nach
FXi (x i ) verteilten Basisvariablen Xi sind. Hierzu berechnet man im Computer mit einem
Zufallsgenerator Realisierungen rl einer im Intervall 0 < rl< 1 gleichverteilten Zufallsgröße
R. Nach Abb. 8 wird nach
42
Zuverlässigkeitskonzept (Teil II)
r1 = FXi (x il ) ⎫
⎬ (10)
bzw. x il = FXi-1 (r1 ) ⎭
die gewünschte Realisierung xil der Basisvariablen Xi erhalten. Dies erfolgt für die
X1, ..., Xi , ..., Xm insgesamt n-mal.
Gleich- FX (xi )
verteilung i
1
Verteilungsfunktion
rl FX (xi )
i
0 xi
xi l
f X (xi )
i
Verteilungsdichte
f X (xi )
i
xi
xi l
Es leuchtet ein, dass die Zahl n der Berechnungszyklen um so größer werden muss, je klei-
ner die erwartete Versagenswahrscheinlich Pf ist, da die (kleine) Zahl der Treffer im
Versagensbereich sonst sehr vom Zufall abhängt. Neben der immer höheren Leistungsfä-
higkeit der Computer bringen hier verschiedene Verfahren der Stichprobenreduzierung
wesentliche Fortschritte.
zu bestimmen.
Da die Bemessungsnormen mit charakteristischen Werten arbeiten, diese aber für die meis-
ten Basisvariablen bereits anderweitig (z.B. in Werkstoff- und Lastnormen) festgelegt sind,
ist eine Umrechnung mit Teilsicherheitsbeiwerten erforderlich. Weil diese in der Regel ≥ 1
sein sollten, gilt für Beanspruchbarkeitsgrößen R
43
Zuverlässigkeitskonzept (Teil II)
∗ x i ,k
xi = (12)
γ Ri
∗
x 185,3
nach Gl. (13) γ E1 = 1 = = 1,241
x 1,k 149,3
Der obere Wert würde dem theoretischen Materialfaktor entsprechen, der untere dem Last-
faktor. Das Produkt beider Teilsicherheitsbeiwerte beträgt 1,485. Das ist derselbe Wert wie
der nach Norm angesetzte Gesamtsicherheitsfaktor 1,1 · 1,35. Entsprechend den ange-
nommenen statistischen Kennwerten ist die Verteilung der Sicherheitsfaktoren auf Tragfä-
higkeit R und Beanspruchung E jedoch anders. Dies liegt an dem gegenüber allgemeinen
Fällen relativ hohen Variationskoeffizienten v 2 = σ x 2 / µ x 2 = 25,87 / 248,7 = 0,104 der
Tragfähigkeit und dem relativ niedrigen Wert v1 = 30/100 = 0,300 der Beanspruchung.
Würde die Streuung der Beanspruchung X1 steigen, ergäben sich nach Gl. (5) ein größeres
∗ ∗
α1 und ein kleineres (negatives) α 2 , nach Gl. (8) höhere Bemessungswerte x 1 = x 2
und damit nach Gl. (13) erwartungsgemäß ein höherer Lastfaktor. Gl. (12) würde einen
kleineren Materialfaktor liefern, obwohl sich die statistischen Daten der Tragfähigkeit X2
nicht geändert haben! Analog würde eine größere Streuung der Tragfähigkeit X2 den Mate-
rialfaktor erhöhen aber auch den Lastfaktor senken.
2
Auch bei mehr als zwei Basisvariablen gilt stets ∑ α i = 1. Wie am vorstehenden einfa-
chen Beispiel gezeigt, beeinflussen die Wichtungsfaktoren αi über die Bemessungswerte
xi∗ nach Gl.(11) die Festlegung der Teilsicherheitsbeiwerte entsprechend Gl. (12) und (13).
Ein Teilsicherheitsbeiwert für eine Basisvariable, z.B. R, ist daher nicht nur von deren sta-
tistischen Parametern, wie z.B. µR, σR und auch dem charakteristischen Wert rk in Gl.
(12) abhängig, sondern auch von anderen statistischen Kenngrößen, z. B. der Standardab-
weichung σ E der Beanspruchung E über α R analog Gl. (5).
Um die Normenentwicklung zu vereinfachen und speziell eine Entkoppelung der
Beanspruchungs- und der Beanspruchbarkeitsgrößen zu erreichen, hat man sich bei der
2
Festlegung von Bemessungswerten nach Gl. (11) auf αE = 0,7 (bzw. ∑ α Ei = 0,49) und
2 2
αR = -0,8 bzw. ∑ α Ri = 0,64 und damit ∑ α i ≈ 1 geeinigt, vgl. [6], [7].
44
Zuverlässigkeitskonzept (Teil II)
Grundsätzlich ist es nach den Gln. (12) und (13) möglich, für jede Einflussgröße in der
statischen Berechnung, z. B. auch für geometrische Abmessungen, Querschnittswerte und
Imperfektionen, einen Teilsicherheitsbeiwert zu bestimmen. Dies ist aber unpraktisch und
auch deshalb unnötig, da viele Größen nur relativ geringe Streuungen aufweisen und zu
partiellen Sicherheitsbeiwerten nahe bei 1 führen würden. Deshalb ist es üblich, diese nur
für Lasten und Einwirkungen sowie für Festigkeitskenngrößen zu definieren. Für letztere,
die sog. Materialfaktoren γM, werden sie pauschal etwas vergrößert, um ungünstige Abwei-
chungen von Querschnittswerten sowie Modell- und Systemungenauigkeiten mit zu erfas-
sen. Generell ist es durch Festlegung unterschiedlicher Materialfaktoren möglich, z. B. die
kleineren Festigkeitsstreuungen bei Stahl gegenüber Beton zu berücksichtigen.
Die Lastfaktoren, γF genannt, werden – ebenfalls vor allem wegen unterschiedlicher Streu-
ungen – nur zwischen ständigen und zeitveränderlichen Einwirkungen unterschieden, so
dass der Lastfaktor für die Eigenlast einer Stahlkonstruktion niedriger ist als derjenige für
Schnee. An sich müsste jeder Einwirkung aufgrund ihrer speziellen Verteilungsfunktion
auch ein gesonderter Lastfaktor zugeordnet werden. Darauf wird bisher aus Gründen der
Vereinfachung verzichtet.
Die charakteristischen Werte xi,k der Beanspruchbarkeit in Gl. (12) sind meist als 5%-
Fraktilwerte definiert, s. Abb. 9.
f X (x i ) FX (x i )
i i
σx σx 0.5
i i
0.95
0.05
0.05
xi xi
xi 5% µx i xi 5% µ xi
Aber auch bei einer anderen statistischen Definition ist der gewünschte Sicherheitsindex β
durch Festlegung von γRi nach Gl. (12) erreichbar. Bei den Beanspruchungen verhält es
sich ähnlich. Ständige Lasten xj,k in Gl. (13) werden meist als Mittelwerte, bei größerer
Streuung auch als 95%-Fraktilwerte (bei günstiger Wirkung auch als 5%-Fraktilwert) fest-
gelegt. Die charakteristischen Werte zeitveränderlicher Einwirkungen sollten als 98%-
45
Zuverlässigkeitskonzept (Teil II)
Tab. 5: Entwurfs-Lebensdauer
Entwurfs –
Klasse Beispiele
Lebensdauer (Jahre)
1 1 bis 5 temporäre Konstruktionen
2 25 austauschbare Bauteile wie Kranbahnträger und Lager
3 50 Hochbauten und andere gebräuchliche Bauwerke
4 100 monumentale Hochbauten, Brücken und andere Ingenieur-
bauwerke
Es ist klar, dass die praktische Umsetzung der o.g. Forderungen Kompromisse notwendig
macht. Um der Forderung nach Genauigkeit zu entsprechen, müssen die Berechnungsmo-
delle wirklichkeitsnah sein. Hierbei ist zu unterscheiden zwischen den Nachweisgleichun-
gen in den Normen und den vom Berechnungsingenieur selbst anzunehmenden Modellen,
z. B. zur Idealisierung des statischen Systems.
Gemäß Norm ist nachzuweisen, dass der Bemessungswert Ed der Beanspruchung (Schnitt-
größe, Spannung, Dehnung, Formänderung) nicht größer ist als der Bemessungswert Rd
der Beanspruchbarkeit. Während manche normativen Regelungen zur Beanspruchbarkeit
unmittelbar aus statischen, elastizitäts- oder plastizitätstheoretischen Gesetzmäßigkeiten
folgen, z.B. die Formeln für elastische bzw. plastische Querschnittswiderstände oder für
das ideale Biegedrillknickmoment, sind sie in anderen Fällen phänomenologischer Natur.
46
Zuverlässigkeitskonzept (Teil II)
Als Beispiele aus dem Stahlbau seien die Europäischen Knickspannungslinien und die
Wöhlerlinien genannt. Sie sind zwar experimentell gesichert, doch liegen ihnen keine ex-
plizit formulierbaren Naturgesetze zugrunde. Alle diese normativen Regelungen entspre-
chen dem heutigen Stand des gesicherten Wissens und der Erfahrung und sind
weitestgehend auch versuchstechnisch bestätigt.
Wesentlich mehr Freiräume hat der Berechnungsingenieur bei der Ermittlung der Bean-
spruchung Ed. Zwar schreiben die Normen die wichtigsten charakteristischen Werte für
Lasten und Einwirkungen und auch die Teilsicherheitsbeiwerte vor, doch die vielfältigen
Konstruktionsformen führen zu völlig unterschiedlichen statischen Systemen, die individu-
ell festgelegt und ggf. vereinfacht werden müssen. Damit diese Modellierung wirklich-
keitsnah erfolgt, wird in den Normen eine Vielzahl von Regelungen und Hinweisen
gegeben.
Im Stahlbau betrifft dies z. B. anzusetzende Imperfektionen wie Schiefstellungen von Stüt-
zen und Rahmenstielen oder Vorkrümmungen von Druckstäben bzw. Druckgurten von
Bindern. Aber auch die Regelungen zur Erfassung dynamischer Effekte entweder durch
Schwingungsuntersuchungen unter realistischen Massen-, Steifigkeits- und Dämpfungsan-
nahmen oder einfach durch einen dynamischen Vergrößerungsfaktor sind hier zu nennen.
Besondere Aufmerksamkeit wird der Modellierung für den Brandfall gewidmet. Neben der
Sicherung ausreichender Genauigkeit dienen die erwähnten Regelungen, z. B. für anzuset-
zende Imperfektionen, auch der Gewährleistung der Sicherheit. Vor allem erfolgt dies
jedoch durch Festlegung von Teilsicherheitsbeiwerten, charakteristischen und Bemes-
sungswerten. Auf letztere wird im nächsten Abschnitt eingegangen.
47
Zuverlässigkeitskonzept (Teil II)
Für Ed gilt
• in ständigen und vorübergehenden Bemessungssituationen
E d = ∑ γ Gj G kj + γ P Pk + γ Q1Q k1 + ∑ γ Qi ψ oi Q ki (15)
j i >1
• in außergewöhnlichen Bemessungssituationen
E d = ∑ γ GAjG kj + γ PA Pk + A d + ψ 11Q k1 + ∑ ψ 2i Q ki (16)
j i >1
• in seismischen Bemessungssituationen
E d = ∑ G kj + Pk + γ I A Ed + ∑ ψ 2i Q ki (17)
j i ≥1
mit:
- Gk, Pk, Qk ... den charakteristischen Werten der ständigen Einwirkungen, Vor-
spannkräfte, veränderlichen Einwirkungen
- Qk1 ... dem charakteristischen Wert der im Nachweis dominierenden veränderlichen
Einwirkung (Leiteinwirkung)
- Ad, AEd ... dem Bemessungswert der außergewöhnlichen (z. B. Anprall oder
Brand) bzw. seismischen Einwirkung
- γG ... Lastfaktoren für ständige Einwirkungen 1,35 (1,00) bei ungünstiger (günsti-
ger) Wirkung, bei Lagesicherheitsnachweisen 1,05 (0,95)
- γP, γPA ... Lastfaktor für Vorspannkräfte 1,0, falls Pk nicht den ständigen Einwirkun-
gen Gk zugeordnet wird.
- γQ ... Lastfaktor für veränderliche Einwirkungen 1,50 (0) bei ungünstiger (günsti-
ger) Wirkung
- γI ... Wertigkeitsfaktor nach ENV 1998 [9]
- ψ 0i ,ψ1i′ ,ψ1i ,ψ 2i... Kombinationsbeiwerte für die veränderliche Einwirkung i für sel-
tene, nicht häufige, häufige bzw. quasi-ständige Kombinationen
In den Gln. (15) bis (17) bedeuten die Plus- und Summenzeichen, dass der Bemessungs-
wert Ed der Beanspruchung (z. B. Schnittgröße oder Spannung) im Berechnungsmodell
unter Berücksichtigung aller aufgeführten Einwirkungen zu ermitteln ist.
Auf der rechten Seite der Nachweisgleichung (14) steht der Bemessungswert Rd der
Beanspruchbarkeit in der gleichen Dimension wie Ed. Zu seiner Bestimmung wird der cha-
rakteristische Wert Rk mit den charakteristischen (nominellen) Werten von Werkstoffpa-
rametern (z.B. Streckgrenze, Bruchfestigkeit), Querschnittswerten und/oder Bau-
teilabmessungen ggf. unter Berücksichtigung von Imperfektionen berechnet. Dann gilt
Rk
Rd = (18)
γM
48
Zuverlässigkeitskonzept (Teil II)
Im Stahlbeton- und Spannbetonbau wird nach [10] und [11] der Materialfaktor für Beton
von γ c = 1,5 in der Grundkombination und 1,3 in der außergewöhnlichen Kombination
angesetzt. [11] gestattet bei Fertigteilen γ c = 1,35. Für Betonstahl und Spannstahl betragen
die Materialfaktoren γ s in diesen Kombinationen 1,15 bzw. 1,00.
Bei Stahlkonstruktionen werden nach [12] im wesentlichen drei Werte des Materialfaktors
γM unterschieden, die Regelungen nach [5] weichen hiervon teilweise etwas ab.
γ M 0 = 1,0 bei reinem Festigkeitsversagen mit Vorankündigung durch große Fließver-
formungen
γ M1 = 1,1 bei Stabilitätsversagen
für nicht häufige Kombinationen (z. B. bei Betonspannungen im Grenzzustand der Ge-
brauchstauglichkeit)
E d = ∑ G kj + Pk + ψ1′ Q k1 + ∑ ψ 1i Q ki (21)
j i >1
49
Zuverlässigkeitskonzept (Teil II)
E d = ∑ G kj + Pk + ∑ ψ 2i Q ki (23)
j i ≥1
Die Bedeutung aller Größen ist im Anschluss an die Gln. (15) bis (17) erläutert.
Bei der Berechnung von Ed sind auch Werkstoffparameter, wie z. B. der Elastizitätsmodul
bei Durchbiegungsberechnungen, zu verwenden. Diese sind mit ihrem charakteristischen
Wert einzuführen, d. h. es gilt γM = 1. Gehen dagegen Verformungen in Tragfähigkeits-
nachweise nach Theorie II. Ordnung ein, so sind dort die Materialfaktoren für die Grenz-
zustände der Tragfähigkeit anzuwenden.
50
Zuverlässigkeitskonzept (Teil II)
6 Literatur
[1] Melchers, R.E.: Structural Reliability Analysis and Prediction, J. Wiley, 1999
[2] Spaethe, G.: Die Sicherheit tragender Baukonstruktionen, Springer Wien New York,
1992
[3] Schneider, J. : Sicherheit und Zuverlässigkeit im Bauwesen, Verlag der Fachvereine
Zürich und B. G. Teubner Stuttgart, 1994
[4] EN 1990: Basis of Design, Draft May 1999
[5] DIN 18800 T.1: Stahlbau, 1990
[6] Annex C zu EN 1990, April 1999
[7] DIN 1055-100: Einwirkungen auf Tragwerke, Grundlagen der Tragwerksplanung,
Sicherheitskonzept und Bemessungsregeln, März 2001
[8] ENV 1991-1: Eurocode 1: Basis of Design and Actions on Structures Part 1: Basis of
Design, 1994
[9] ENV 1998-1-1: Eurocode 8: Auslegung von Bauwerken gegen Erdbeben Teil 1-1:
Grundlagen, 1994
[10] DIN V ENV 1992 1-1: Planung von Stahlbeton- und Spannbetontragwerken, Juni
1992
[11] DIN 1045-1: Tragwerke aus Beton, Stahlbeton und Spannbeton, Bemessung und
Konstruktion, Juli 2001
[12] DIN V ENV 1993-1-1: Bemessung und Konstruktion von Stahlbauten, April 1993
[13] DIN V ENV 1995-1-1: Entwurf, Berechnung und Bemessung von Holzbauwerken,
Juni 1994
51
Zuverlässigkeitskonzept (Teil II)
52
Methodik der Risikountersuchungen
1 Einleitung
Lebewesen verfügen im Vergleich zur nichtlebenden Materie über eine Vielzahl von be-
sonderen Eigenschaften. Eine dieser besonderen Eigenschaften von Lebewesen ist die Aus-
führung zielgerichteter Handlungen, z.B. das Auffinden von Futter, Wachstum etc. Diese
Handlungen oder Aktionen bergen aber immer auch die Gefahr des Scheiterns, des Nicht-
erreichens des Zieles in sich. Der Umfang des Scheiterns wird als Schaden bezeichnet. Er
ist von der Handlung und den Umständen abhängig. Bei einer beliebigen Handlung, z.B.
Lottospielen mit dem Ziel zu gewinnen, ist der Schaden nur sehr gering – der Lottoeinsatz
geht verloren, bei einer andere Handlung, z.B. dem Bau und Betreiben eines Kernkraft-
werkes kann der Schaden sehr groß werden – siehe das Unglück von Tschernobyl. In Erin-
nerung ist den meisten der Begriff Risiko in Zusammenhang mit derartigen großen
Schäden, kleine Risiken geraten schnell in Vergessenheit.
Sowohl kleine als auch große Risiken können ein Entwicklungsantrieb sein. Das Risiko, in
den gemäßigten Klimazonen im Winter zu verhungern oder im Sommer zu verdursten, hat
zum Beginn der Landwirtschaft, zur Haltung und Züchtung von Tieren geführt. Der Bau
von Häusern hat etwas mit dem Schutz der Menschen vor der Witterung zu tun. Der Bau
von Brücken erfolgte, um die mühevolle und gefährliche Querung von Flüssen zu erleich-
tern. Um zu entscheiden, ob solche Präventivmaßnahmen lohnenswert sind, muß man die
Möglichkeit eines Schadenseintrittes und den Umfang des Schadens vor einer Handlung
abschätzen können.
Man kann in der Tat die Möglichkeit eines Schadenseintrittes mathematisch prognostizie-
ren, z.B. in Form einer Wahrscheinlichkeit. Dabei wird aber noch nicht der Umfang des
Schadens berücksichtig. Das erreicht man erst durch die Einführung des Begriffes Risiko.
Risiko beschreibt sowohl den Betrag der Möglichkeit eines Schadenseintrittes (Häufigkeit,
Wahrscheinlichkeit) als auch den Umfang des Schadens (Konsequenz). Besteht der Scha-
den in der Möglichkeit des Verlustes von Menschenleben, so spricht man von Gefahr.
53
Methodik der Risikountersuchungen
2 Risikoparameter
2.1 Sterbewahrscheinlichkeit
Der Mensch ist ein zeitlich begrenztes Wesen. Das höchste Gut eines Menschen, sein Le-
ben, ist während seiner Lebenszeit unterschiedlich starken Gefährdungen ausgesetzt. Eine
kurze Zusammenstellung von Gefährdungen für Menschen findet sich in [3]. Menschen
versuchen, soweit ihnen Gefährdungen bekannt sind, diesen auszuweichen oder vorbeu-
gende Maßnahmen zu ergreifen. Die Vermeidung von Gefahren kann man als Sicherheits-
anspruch ansehen. Solange Menschen existierten, war die Erfüllung des Bedürfnisses nach
Sicherheit eines der fundamentalsten Ansprüche, wie z.B. die Maslowsche Pyramide zeigt.
Heute erfüllt der Staat gemäß seiner Aufgabenstellung eine Schutzpflicht. Diese Schutz-
pflicht realisiert er über gesetzliche Regelungen, die Anforderungen an Sicherheit bzw. an
Risiken definieren. Um die Erfüllung der Anforderungen zu prüfen, benötigt man in der
Regel eine geeignete Darstellung von Risiken.
Die erste hier behandelte Darstellung von Risiken sei die reine Nennung der Sterbehäufig-
keit bzw. Sterbewahrscheinlichkeit pro Jahr pro Person bzw. das Sterberisiko pro Jahr pro
Person. Darunter soll ein Ereignis mit einer bestimmten Wahrscheinlichkeit und der Kon-
sequenz Tod eines Menschen verstanden werden (Sterbehäufigkeit = Sterberisiko). Sterbe-
häufigkeiten basieren auf Sterbetafeln. Die ersten Sterbetafeln wurden bereits im 18.
Jahrhundert in Australien verwendet und 1837 in England und Wales eingeführt.
Die Tab. 1 zeigt Sterbewahrscheinlichkeiten für den Alltag, aber auch unter außergewöhnli-
chen Bedingungen. Das Risiko für den Verlust von Leib und Leben unterscheidet sich um
mehrere Zehnerpotenzen. Die größte Gefahr erfahren Menschen im Krieg (7,0·10-2). Auf
Platz zwei stehen gesundheitliche Risiken (≈ 1,0·10-3). Gesundheitliche Risiken sind sehr
hoch, da alle Menschen früher oder später gesundheitlichen Problemen ausgesetzt sind. Es
folgen einige gefährliche Berufe, wie Raumfahrer, Hochseefischer oder Bergbauarbeiter
(10-3 - 10-4). Daran anschließend folgt das erste technische Risiko für die gesamte Bevölke-
rung: der Kraftfahrzeugverkehr (10-4). Obwohl dieses Risiko in den letzten Jahren durch den
hohen Aufwand in Sicherheitssysteme im Straßenbau als auch bei den Fahrzeugen (ABS,
Airbag, Gurt) deutlich gefallen ist, muß es nach wie vor als das größte technische Risiko für
die Bevölkerung in den entwickelten Industrieländern angesehen werden. Andere Ver-
kehrsmittel, wie die Eisenbahn (10-6) oder der Flugverkehr (10-6) zeigen in dieser Darstel-
lungsform ein deutlich geringes Risiko. Auch die Gefährdung durch Naturkatastrophen liegt
in den entwickelten Industrieländern (10-6) deutlich niedriger als der Kraftverkehr.
Als zulässiger Wert wird in der Regel ein Betrag von 10-6 pro Jahr angesehen. Dieser Wert
entspricht dem sogenannten de minimis risk. Ein Risiko, welches diesen rechnerischen
Wert entspricht, wird als höhere Gewalt interpretiert. Die historische Herkunft dieses Wer-
tes bleibt umstritten. Häufig wird hierbei auf Arbeiten von Mantel und Bryan verwiesen.
Diese gaben 1961 10-8 als akzeptable Sterbewahrscheinlichkeit an, in den 70er Jahren 10-6
[6]. Andere Begründungen betreffen die große Flutkatastrophe Anfang der 50er Jahre in
den Niederlanden. Danach wurde festgelegt, daß für Dämme eine Überflutungswahr-
scheinlichkeit von 10-4 pro Jahr gelten solle, die Versagenswahrscheinlichkeit bei Über-
flutung 10-1 und die Wahrscheinlichkeit für das Ertrinken nach dem Versagen des Dammes
ebenfalls 10-1 betrage, so daß sich insgesamt eine Zielwert von 10-6 ergibt.
54
Methodik der Risikountersuchungen
Tab. 1: Sterbehäufigkeiten pro Jahr. Es handelt sich um einen Auszug aus einer Tabelle
mit über 125 Werte in [10]. Dort finden sich auch die exakten Quellen.
55
Methodik der Risikountersuchungen
Bei der Betrachtung der Werte in Tab. 1 werden die meisten Menschen feststellen, daß sie
Risiken anders beurteilt hätten. Die subjektive Beurteilung von Risiken zeigt in der Regel
eine deutliche Abweichung zu den tatsächlich beobachteten Werten. Abb. 1 macht diese
Abweichung deutlich. Bei einer objektiven Einschätzung müßten die Punkte alle auf der
mit 45 Grad ansteigenden Geraden liegen. Im rechten oberen Teil des Bildes werden die
gesundheitlichen Risiken nahezu ausnahmslos unterschätzt, im Gegensatz dafür aber die
Naturkatastrophen (Tornado, Überflutung), Impfungen oder Vergiftungen im linken unte-
ren Teil des Bildes deutlich überschätzt.
Subjektive Schätzung der Todesopfer pro Jahr
Alle Krankheiten
100.000
10.000
1.000
100
10
1
mittlere Anzahl Todesopfer pro Jahr
Zur Berücksichtigung dieser subjektiven Risikoakzeptanz, die gelegentlich auch als Risi-
koaversion bezeichnet wird, wurde in den Niederlanden eine Gleichung zur Berechnung
des akzeptablen Risikos basierend auf Sterbehäufigkeiten entwickelt (VRIJLING et al. [18]):
E ( N i ) + k ⋅ σ ( N i ) ≤ βi ⋅100 (1)
E ( N i ) = N A ⋅ Pf ⋅ kv ⋅ N i
(2)
σ ( N i ) = N A ⋅ Pf ⋅ (1 − Pf ) ⋅ kv ⋅ N i
mit
E ( Ni ) Erwartungswert der Anzahl Todesopfer bei einem Ereignis pro Jahr
σ ( Ni ) Standardabweichung der Anzahl Todesopfer bei einem Ereignis pro
Jahr
β Politik-Faktor (liegt zwischen 0,01 für unfreiwillige Gefährdungen ohne
direkten Nutzen und 100 für absolut freiwillige Maßnahmen mit direk-
tem Nutzen bzw. Erfolg für den Ausführenden)
k Vertrauensbereich k = 3
NA Anzahl der Elemente/Bauteile
56
Methodik der Risikountersuchungen
Pf Versagenswahrscheinlichkeit
kv Verhältnis zwischen Anzahl der betroffenen Menschen und Anzahl To-
desopfer. Beispiele für diesen Wert finden sich in der Literatur [12]
kv = 0,1 für Brände in Straßen- und Eisenbahnbrücken
kv = 0,005...0,2 für Erdbeben, Tsunamis
kv = 0,001...0,01 für Hurrikans, Stürme
Ni Anzahl der betroffenen Menschen pro Ereignis
Die Formel soll beispielhaft für Unfälle im Straßenverkehr verwendet werden. Die Wahr-
scheinlichkeit eines tödlichen Unfalles liegt etwa bei 10-4 pro Jahr pro Mensch. In Deutsch-
land sind etwa 44 Millionen PKW und 2,5 Millionen LKW zugelassen. Ausländischer Ver-
kehr wird vernachlässigt. Es wird angenommen, daß pro Fahrzeug im Mittel 1,4 Menschen
sitzen. In Deutschland ereignen sich pro Jahr ca. 500.000 Unfälle. Allerdings nur etwa je-
der Hundertste soll mit Todesopfern verbunden sein. Dann ergibt sich:
500.000
E ( N i ) = N A ⋅ Pf ⋅ kv ⋅ N i = 46,5 ⋅106 ⋅ 0, 01⋅ 0, 01⋅1, 4 = 6510 mit Pf = ≈ 0, 01
46,5 ⋅106
Der errechnete Wert legt die Vermutung nahe, daß das Risiko aus Kraftfahrzeugverkehr
einen nicht unbeträchtlichen Anteil einer sogenannten freiwilligen Maßnahme beinhaltet,
anderenfalls würde die Bevölkerung dieses Risiko nicht akzeptieren. Es ist auch möglich,
den Politikfaktor festzulegen und eine Unfall- oder Versagenswahrscheinlichkeit, z.B. für
Bauwerke, mit der genannten Formel zurückzurechnen. Es ergeben sich Werte zwischen
10-6 und 10-8.
2.2 F-N-Diagramme
Die Darstellung von Unfällen mit der reinen Sterbewahrscheinlichkeit erlaubt es nicht, die
Schwere einer einzelnen Katastrophen zu erfassen. Gerade dieser Wert besitzt aber einen
hohen Einfluß auf die subjektive Wertung von Risiken. Die Aussagekraft der Sterbewahr-
scheinlichkeit als Parameter für Risiken ist darum begrenzt.
Um diesen genannten Nachteil zu umgehen, verwendet man häufig sogenannte F-N-Dia-
gramme (Frequency-Numbers Diagrams). In diesen Diagrammen werden die Konsequen-
zen eines Versagens bzw. eines Unfalles der Häufigkeit gegenüber gestellt. Die Konse-
quenzen werden in der Anzahl von möglichen Todesopfern oder in monetären Einheiten
angegeben. Man spricht hierbei auch von kollektiven Risiken. Im Gegensatz dazu werden
Sterbewahrscheinlichkeiten als individuelle Risiken bezeichnet. Die Darstellung im F-N-
Diagramm erfolgt doppeltlogarithmisch. Ein konstantes Risiko müßte in diesem Diagramm
eine fallende Linie mit einem 45°-Winkel besitzen. Reale Werte zeigen aber ein anderes
Verhalten (siehe Abb. 2). Die Diagramme sind genau wie die Sterbehäufigkeiten immer
nur für bestimmte Regionen und bestimmte Zeitrahmen gültig.
Die ersten F-N-Diagramme gehen auf Farmer 1967 und die sogenannte WASH 1400 Stu-
die (auch als Rasmussen Report bezeichnet) 1975 zurück.
57
Methodik der Risikountersuchungen
10 10
Autoverkehr
Insgesamt
1 1
Naturereignisse insges. Flugzeugabsturz
(insges.)
-1 -1
10 10
Feuer
Häufigkeit (Ereignisse/Jahr)
Häufigkeit (Ereignisse/Jahr)
-2 -2
10 10
Tornados
Explosionen
Erdbeben
-3 -3
10 Hurricans 10
-4 -4 Dammbruch
10 10
Chlorfreisetzung
Kernkraftwerke
-5 -5 Flugzeugabsturz
10 10 (Personen am Boden)
Meteore Kernkraftwerke
-6 -6
10 10
-7 -7
10 10
10 100 1000 10000 1000001 Mio. 10 100 1000 10000 100000 1 Mio.
Todesfälle Todesfälle
F-N-Kurven finden sich in unzähligen Veröffentlichungen. Sie sind hervorragend für Ver-
gleiche verschiedener technischer Lösungen geeignet. F-N-Diagramme wurden z.B. in der
Schweiz für die Entscheidungsfindung von unterschiedlichen Straßenführungen (eine Lö-
sung mit Tunnel, eine ohne Tunnel) verwendet.
Neben der Darstellung der Risiken in diesen Diagrammen benötigt man natürlich auch hier
einen Vergleichs- oder Zielwert. Diese Werte haben sich erst in den letzten Jahrzehnten,
insbesondere in den USA, Großbritannien, den Niederlanden oder Hongkong entwickelt.
Bekannt ist z.B. die Gröningen Kurve oder die Kinchin Kurve. In den meisten Fällen fol-
gen diese Kurven der Form:
PS = k ⋅ N − a (3)
mit
Ps Sterbewahrscheinlichkeit pro Jahr
k Faktor
N Anzahl der möglichen Todesopfer
a Faktor
Der Faktor a wird als sogenannter Risiko-Aversions-Faktor angesehen. Er beschreibt die
überproportionale Ablehnung von großen Unfällen. Beispiele für derartige Zielfunktionen
sind in der Tabelle 2 angegeben. Auch hier soll die Anwendung mit Zahlen demonstriert
werden. Die Versagenswahrscheinlichkeit für eine bestimmte Brücke infolge Schiffsan-
prall sei 10-6 pro Jahr. Basierend auf der Statistik solcher Unfälle wurde eine mittlere To-
desopferanzahl von 22 geschätzt [10]. Damit ergeben sich folgende Nachweise.
58
Methodik der Risikountersuchungen
Tab. 2: Beispiele für Zielfunktionen (Quellen für die Formeln finden sich in [10])
Formel: Beispiel:
10 −5
10−5 (4)
PS ≤ 22 ⋅ 10−6 > = 4,5 ⋅ 10−6
N 22
10−3 10−3 (5)
PS ≤ 2 für N ≥ 10 22 ⋅ 10−6 > 2 = 2,1 ⋅ 10−5
N 22
0,5 ⋅ 10−4 0,5 ⋅ 10−4 (6)
PS ≤ 22 ⋅ 10−6 > = 2,3 ⋅ 10−5
N 22
10−2 10−4 10−2 10−4 (7)
≤ PS ≤ 2 = 2 ⋅ 10−5 < 22 ⋅ 10 −6 < 2 = 2 ⋅ 10−7
N 2
N 22 2
22
Hinrichtung*
Gefährliche berufliche Tätigkeit
6 000 300 6
Arbeiter im Bereich von Strahlung
Energieverbrauch verringern
5 000 250 5
Erdnussbutter (1 TL/Tag)
Frühzeitiger Schulabbruch
Armut
Luftverschmutzung*
Ohne Eltern aufgewachsen
4 000 200 4
Alkohol*
Kleinfahrzeuge
Trinkwasser trinken*
Suizide*
Kraftfahrzeugunfall
Naturkatastrophen*
3 000 150 3
Mord*
Fahrrad fahren*
Vergiftungen*
Krebs
AIDS*
Ertrinken*
2 000 100 2
Pestizide
Brände*
Radon
1 000 50 1
59
Methodik der Risikountersuchungen
2.4 Lebensqualitätsindex
Der Begriff der Lebensqualität wird häufig in Verbindung mit sozialem Wohlstand einzel-
ner Bevölkerungsschichten gebracht. In den letzten Jahren hat dieser Begriff aber in immer
stärkerem Maße Einzug in der Medizin gehalten, hierbei insbesondere im Bereich der
Krebsbehandlung. Bei einer absehbaren Begrenzung der Lebensdauer infolge einer Krank-
heit spielt die Bewertung der Lebensqualität eine wichtige Rolle. Die Lebensfähigkeit wird
in diesem Fall durch den Begriff der gesundheitsbezogenen Lebensqualität beschrieben,
die ein Maß für die dem Individuum gegebenen körperlichen, geistigen und sozialen Mög-
lichkeiten bzw. Einschränkungen ist.
Der Begriff der Lebensqualität beinhaltet also eine Vielzahl von Faktoren und Einflüssen.
Nicht nur objektive Indikatoren sind für das Wohlbefinden eines Menschen verantwortlich,
sondern auch die auf den jeweiligen Erfahrungen und der Individualität des Menschen ba-
sierende Wahrnehmungen und soziale Beziehungen fließen in die Bewertung der Lebens-
umstände mit ein. Die wohl umfassendste Beschreibung für Lebensqualität findet sich im
Human Development Report (HDR) von 1990: Lebensqualität als Summe der Möglich-
keiten, die sich einem Individuum in einer Gesellschaft eröffnen.
Die Problematik der Einführung eines objektiven Indikators für die Lebensqualität besteht
in der erforderlichen geschickten Reduktion dieser Vielzahl von Einflüssen. NATHWANI,
LIND & PANDEY [7] stellten 1997 einen Parameter vor, der in der Lage zu sein scheint, Le-
bensqualität relativ objektiv zu beschreiben. Damit würde ein Werkzeug bereitliegen, wel-
ches Schutzmaßnahmen jeglicher Art zur Verringerung von Risiken bewerten kann. Dieser
sogenannte Lebensqualitätsindex L erfreut sich seit einigen Jahren zunehmenden wissen-
schaftlichen Interesses und steigender praktischer Anwendung. Sie reicht vom Bauwesen
über die Sicherheit beim Seeverkehr bis zum Umweltschutz.
Der Lebensqualitätsindex wird wie folgt definiert (Abb. 4):
L = g w ⋅ e1− w (8)
mit
g Pro-Kopf-Einkommen der Bevölkerung eines Landes (ca. 24.000 € für
Deutschland)
e Mittlere Lebenserwartung in Jahren (77,5 Jahre in Deutschland)
w Prozentuale Lebensarbeitszeit (0,125 für Deutschland).
Der Lebensqualitätsindex berücksichtigt drei Faktoren: das Pro-Kopf-Einkommen, die
bezogene Lebensarbeitszeit und die mittlere Lebenserwartung. Das Pro-Kopf-Einkommen
wird als finanzielle Freiheit eines jeden Einzelnen angesehen. Der zweite Faktor ist das
Verhältnis von Arbeitszeit zu Lebenszeit. Dieser Faktor kann als zeitliche Freiheit angese-
hen werden. Der dritte Faktor ist die mittlere Lebenserwartung. Obwohl dieser Wert eben-
falls eine Zeitangabe ist, dient er hier zur pauschalen Beschreibung aller Risiken, denen
Menschen im Laufe ihres Lebens ausgesetzt sind, denn die mittlere Lebenserwartung rea-
giert als Parameter auf Risiken. Der HDR der UNO zeigt, daß diese drei Parameter nor-
malerweise nicht ausreichend sind. So gibt es Länder, in denen das Pro-Kopf-Einkommen
deutlich niedriger ist als in anderen Ländern, die Bevölkerung aber eine höhere Lebens-
qualität durch besser Ausbildung, Mitspracherechte etc. besitzt. Die Grenzen dieses Mo-
60
Methodik der Risikountersuchungen
dells sollen hier aber nicht weiter diskutiert werden, sondern es soll hier nur auf den Vor-
teil verwiesen werden: das Modell ist sehr einfach. Besonders Änderungen des Lebens-
qualitätsindex, und um die geht es im wesentlichen bei Schutzmaßnahmen, sind nur von
zwei Parametern abhängig, wenn w pro Land als Konstante angenommen wird:
dL de w dg
= + ⋅ ≥ 0, (9)
L e 1− w g
wobei de/e die Veränderung der mittleren Lebenserwartung durch eine beliebige Schutz-
maßnahme, dg/g eine Veränderung der einer Person zur freien Verfügung stehenden finan-
ziellen Mittel und dL/L die Änderung des Lebensqualitätsindex ist.
120
Mittlere Lebenserwartung in Jahren
100
80
L =175
60 L =150
L =125
40
L =100
L =75
20
L =50
0
0 5.000 10.000 15.000 20.000 25.000 30.000 35.000 40.000
Pro-Kopf-Einkommen in €
Zunächst wird angenommen, daß jede Investition zum Schutz zu einer Erhöhung der mitt-
leren Lebenserwartung führt, sie im Gegenzug aber auch Geld kostet. Die beiden Parame-
ter dg und de müssen im folgenden berechnet werden. Durch Umformungen kann man aus
der obigen Gleichung ∆g pro Jahr für eine Person ermitteln [12]:
⎡ 1− ⎤
1
⎛ ∆e ⎞ w
∆C = −∆g = g ⎢1 − ⎜1 + ⎟ ⎥ (10)
⎢ ⎝ e ⎠ ⎥
⎣ ⎦
Wählt man dann als Veränderung der Lebensdauer die halbe mittlere Lebenserwartung,
ergibt sich der sogenannte ICAF-Wert (Implied Cost of Averting a Fatality). Dieser Wert
wird beispielhaft für Deutschland berechnet [7]:
e g ⋅ e 1 − w 24.000 ⋅ 77,5 1 − 0,125
ICAF = ∆g ⋅ ≈ ⋅ = ⋅ = 3.255.000 €. (11)
2 4 w 4 0,125
61
Methodik der Risikountersuchungen
Im zweiten Schritt muß man die Änderung der Lebenserwartung ermitteln. Allerdings ver-
sucht man, die direkte Berechnung von de zu vermeiden und statt dessen mit der Sterb-
lichkeitsrate M zu arbeiten. Es ergibt sich pro Jahr [12]:
de dM N
≈ −CF ⋅ δ ≈ −CF ⋅ ≈ −C F ⋅ F (12)
e M N ⋅M
Damit können für jede beliebige technische Anlage akzeptable Kosten in die Sicherheit in
Abhängigkeit von der Effektivität der Maßnahme berechnet werden.
1 − w CF N F
C= ⋅ ⋅ ⋅ N ⋅ g ⋅ ( Pf 1 − Pf 2 ) (13)
w M N
mit
CF Form der Sterbekurve über das Lebensalter (0,13 in Deutschland)
NF Anzahl der durch eine Sicherungsmaßnahme verhinderten Todesopfer
N Anzahl der Todesopfer bei Eintritt einer Katastrophe ohne Sicherungs-
maßnahme
Pf1 Operative Versagenswahrscheinlichkeit im Originalzustand
Pf2 Operative Versagenswahrscheinlichkeit nach Sicherungsmaßnahme
M Sterberate (0,01402 für Deutschland)
Ein Beispiel sei der Autogurt. Es wird angenommen, daß durch den Autogurt in Deutsch-
land pro Jahr ca. 1.000 Menschen gerettet werden. Wie viel darf ein Gurt dann kosten:
1 − 0,125 0,13 ⋅1000
C= ⋅ ⋅ 24.000 = 1,56 ⋅109 € pro Jahr
0,125 0, 01402
In Deutschland gibt es ca. 46,5 Millionen Fahrzeuge. Damit ergibt sich pro Fahrzeug:
C 1,56 ⋅109
= = 33,5 €/Fahrzeug
N PKW 46,5 ⋅106
Im folgenden soll die Aufgabe anders formuliert werden: Die Anzahl der Todesopfer durch
Verkehrsunfälle pro Jahr soll in Deutschland von 8.000 auf 7.000 sinken. Man erhält den
gleichen Wert pro Jahr:
1 − 0,125 0,13 ⋅ 80 ⋅106
C= ⋅ ⋅ 24.000 ⋅ (10−4 − 8, 75 ⋅10−5 ) = 1,56 ⋅109 € pro Jahr
0,125 0, 01402
In Tab. 3 finden sich eine Vielzahl von Parametern für die Durchführung einer solchen
Berechnung. Außerdem wurden verschiedene Werte für den ICAF zusammengestellt. In
Tab. 4 sind für verschiedene Beispiele rückwirkend die Kosten-Nutzen-Verhältnisse ausge-
rechnet. Schutzmaßnahme mit einem Kosten-Nutzen-Verhältnis größer eins gelten als ef-
fektiv. In dieser Liste findet sich auf Platz 4 der Sicherheitsgurt als eines der effektivsten
Schutzmittel. Eine noch umfangreichere Liste dieser Art hat TENGS et al. mit über 500
Werten erstellt, allerdings wurden die Kosten pro gerettetem Lebensjahr angegeben [16].
62
Methodik der Risikountersuchungen
63
Methodik der Risikountersuchungen
Regelung Jahr Bevöl- Pro-Kopf- Kosten pro Gerettete Nutzen ökonomische Nutzen zu
kerung Einkommen Kopf Leben pro Kosten Kosten
Jahr Verhältnis
Mill. g ($/year) dg year de/e dg /(Kg)
Raumheizgeräte 1980 228 17755 3,34 10-2 63 5,44 10-6 2,69 10-7 20,2
Öl- und Gas-Bohrungen 1983 235 17827 2,57 10-2 50 4,31 10-6 2,06 10-7 21,0
Flugkabinen Brandsicherung 1985 239 19454 1,51 10-2 15 1,29 10-6 1,11 10-7 11,7
Passive Gurte (KFZ) 1984 237 18925 2,83 1850 1,60 10-4 2,13 10-5 7,5
Undergroundkonstruktionen 1989 249 21477 1,18 10-2 8,1 6,99 10-7 7,84 10-8 8,9
Alkohol und Drogenkontrollen 1985 239 19454 1,06 10-2 4,2 3,62 10-7 7,78 10-8 4,7
Service von Fahrzeugfelgen 1984 237 18925 5,85 10-3 2,3 1,98 10-7 4,42 10-8 4,5
Unbrennbare Sitzpolster 1984 237 18925 1,13 10-1 37 3,19 10-6 8,53 10-7 3,7
Notbeleuchtung in Fluren 1984 237 18925 1,78 10-2 5 4,31 10-7 1,34 10-7 3,2
Arbeitsplattformen kranabgehängt 1988 246 21103 2,94 10-2 5 4,31 10-7 1,99 10-7 2,2
Beton-/Mauerwerkskonstruktionen 1988 246 21103 4,46 10-2 6,5 5,61 10-7 3,02 10-7 1,9
Gefahrenkommunikation 1983 235 17827 1,85 200 1,73 10-5 1,48 10-5 1,2
Flüchtiges Benzol Emission 1984 237 18925 4,42 10-3 0,31 2,67 10-8 3,34 10-8 0,80
Holzstaub 1987 244 20385 1,05 10-1 4 3,45 10-7 7,35 10-7 0,47
Uranminen 1984 237 18925 3,86 10-2 1,1 9,49 10-8 2,92 10-7 0,33
Benzol 1987 244 20385 3,21 10-1 3,8 3,28 10-7 2,25 10-6 0,15
Arsen/Glas Fabriken 1986 242 19879 1,05 10-2 0,11 9,49 10-9 7,58 10-8 0,13
Ethylenoxid 1984 237 18925 3,65 10-1 2,8 2,42 10-7 2,75 10-6 0,09
Arsen/Kupfer Schmelze 1986 242 19879 7,67 10-3 0,06 5,18 10-9 5,51 10-8 0,09
Uranmühle, passiv 1983 235 17827 2,98 10-1 2,1 1,81 10-7 2,39 10-6 0,08
Uranmühle, aktiv 1983 235 17827 5,72 10-1 2,1 1,81 10-7 4,58 10-6 0,04
Asbest 1986 242 19879 3,33 101 74,7 6,45 10-6 2,39 10-4 0,03
Asbest 1989 249 21477 5,05 10 8,63 10-7 3,36 10-5 0,03
Bodenentsorgung 1988 246 21103 4,32 101 2,52 2,17 10-7 2,92 10-4 0,0007
Formaldehyd 1987 244 20385 3,56 0,01 8,63 10-10 2,50 10-5 3,46 10-5
Arsen/Glas Bearbeitung 1986 242 19879 1,77 10-1 0,25 2,16 10-8 1,27 10-6 0,02
Benzol Lagerung 1984 237 18925 4,42 10-2 0,043 3,71 10-9 3,34 10-7 0,01
Radionuklid/DOE Einrichtungen 1984 237 18925 1,07 10-3 0,001 8,63 10-11 8,07 10-9 0,01
Radionuklid/elem. Phosphor 1984 237 18925 6,32 10-2 0,046 3,97 10-9 4,77 10-7 0,0083
Benzol/Ethylbenzol/Styrol 1984 237 18925 1,48 10-2 0,006 5,18 10-10 1,11 10-7 0,0046
Arsen/Niedrig-Arsen/Kupfer 1986 242 19879 3,43 10-1 0,09 7,77 10-9 2,47 10-6 0,0031
Benzol/Maleinsäureanhydrid 1984 237 18925 1,21 10-1 0,029 2,50 10-9 9,14 10-7 0,0027
EDB 1989 249 21477 1,51 10-1 0,002 1,73 10-10 1,01 10-6 0,0002
−w
K=
(1 − w)
3 Literatur
[1] Ackermann, F. & Heinzlering, L: The $ 6.1 Million Question. Working Paper No. 01-
06. Global Development and Environment Institute, Tufts University, USA, April
2002
[2] Cohen, B.L.: Catalog of Risks extendet and updated. Health Pysics, Vol. 61, Septem-
ber 1991, S. 317-335
[3] Curbach, M.; Nitzsche, W.-M.; Proske, D.: Die Sicherheit von Brücken im Vergleich
zu anderen Risiken. 12. Dresdner Brückenbausymposium, Lehrstuhl für Massivbau,
Technische Universität Dresden (Hrsg.), Dresden: 2002
[4] Ellingwood, B.R.: Probability-based structural design: Prospects for acceptable risk
bases. Application of Statistics and Probability (ICASP 8), Sydney, 1999, Band 1,
Seite 11-18
64
Methodik der Risikountersuchungen
[5] Kafka, P.: How safe is safe enough? – An unresolved issue for all technologies.
Safety and Reliability., (Eds.) Schuëller & Kafka, Balkema, Rotterdam, 1999, Seite
385-390
[6] Kelly, K. E.: The myth of 10-6 as a definition of acceptable risk. In Proceedings of the
84th Annual Meeting of the Air & Waste Management Association, Vancouver,
B.C., Canada, June 1991
[7] Nathwani, J.S.; Lind, N.C.; Pandey, M.D.: Affordable Safety by Choice: The Life
Quality Method. 1997; ISBN 0-9696747-9-1
[8] Nathwany, J.S.; Lind, N.C.; Pandey, M.D.: Principles for Managing Risk: A search
for improving the quality of decisions. Institute of Risk Research, University of Wa-
terloo, Waterloo, Ontario, Canada
[9] Paté-Cornell, M.E.: Quantitative safety goals for risk management of industrials fa-
cilities. Structural Safety, 13 (1994), S. 145-157
[10] Proske, D.: Ein Beitrag zur Risikobeurteilung von alten Brücken unter Schiffsanprall.
Dissertation. Technische Universität Dresden, Institut für Massivbau. 2003
[11] Proske, D.: Wie sicher leben wir? Eigenverlag, März 2004 (in Vorbereitung)
[12] Rackwitz, R.: How Safe is Safe Enough? A New Approach by Optimization and the
Life Quality Index. 1st International ASRANet Colloquium. 8-10th July 2002, Glas-
gow, on CD
[13] Rackwitz, R.: Optimierung und Risikoakzeptanz. Massivbau 2002, Forschung Ent-
wicklung und Anwendungen – 6. Münchner Massivbau-Seminar 2002, 11.-12. April
2002, Hrsg. K. Zilch, Sonderpublikation des „Bauingenieur“, Springer-Verlag, Düssel-
dorf 2002, S. 280-308
[14] Rackwitz, R.: Zuverlässigkeit und Lasten im konstruktiven Ingenieurbau. Vorle-
sungsskript, Technische Universität München, 1998
[15] Spaethe, G.: Die Sicherheit tragender Baukonstruktionen, 2. Neubearbeitete Auflage,
Wien, Springer Verlag, 1992
[16] Tengs, T. O.; Adams, M. E.; Pliskin, J. S.; Safran, D. G.; Siegel, J. E.; Weinstein, M.
C.; Graham, J. D.: Five-Hundred Life-Saving Interventions and Their Cost-
Effectiveness. Risk Analysis, Vol. 15, No. 3, 1995, Seite 369-390
[17] Viscusi, K.: Risk, Regulation and Responsibility: Principle for Australian Risk Pol-
icy. Risk. Regulation and Responsibility Promoting reason in workplace and product
safety regulation. Proceedings of a conference held by the Institute of Public Affairs
and the Centre for Applied Economics, Sydney, 13 July 1995. http://www.ipa.org.au/
Conferences/viscusi.html
[18] Vrijling, J.K.; van Gelder, P.H.A.J.M; Goossens, L.H.J.; Voortman, H.G.; Pandey,
M.D.: A Framework for Risk criteria for critical Infrastructures: Fundamentals and
Case Studies in the Netherlands, Proceedings of the 5th Conference on Technology,
Policy and Innovation, „Critical Infrastructures“, Delft, The Netherlands, June 26-
29, 2001, Uitgeverrij Lemma BV
65
Methodik der Risikountersuchungen
66
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
1 Einleitung
Dieser Beitrag behandelt die Probleme der Risikountersuchung und des Um-
ganges des Rechts mit Risiko aus einer grundlegenden Perspektive. Daher
werde ich im ersten Teil einige klarstellende Bemerkungen zur Terminologie
machen. Anschließend soll die Frage nach dem Umgang des Rechts mit dem
Risiko im Zentrum des Interesses stehen. Die dabei gewonnenen Erkenntnisse
werden schließlich in einem dritten Teil an einem Beispiel verdeutlicht.
2 Grundbegriffe
Nicht nur Naturwissenschaftler und Ingenieure, sondern auch der Gesetzgeber
und die Gerichte verwenden die Begriffe Gefahr, Risiko, Restrisiko und Wahr-
scheinlichkeit. Allerdings mit einem eigenen, teilweise recht eigenwilligen In-
halt. Unter Gefahr wird seit den Zeiten des bismarckschen Preußens eine
Sachlage verstanden, die bei ungehindertem Ablauf erkennbar zu einem Scha-
den durch von außen kommende Ereignisse führen würde, wobei Gewissheit
nicht erforderlich sei, sondern große Wahrscheinlichkeit genüge.[1] Zur Aus-
füllung dieses Begriffes werden zwei Kriterien herangezogen, die Wahrschein-
lichkeit des Schadenseintritts und die Höhe des zu erwartenden Schadens.
Diese werden multiplikationsartig miteinander verknüpft, so dass an die Wahr-
scheinlichkeit des Schadenseintritts geringere Anforderungen gestellt werden,
67
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
wenn der befürchtete Schaden sehr groß ist. Umgekehrt ist bei einem kleinen
zu erwartenden Schaden eine hohe Wahrscheinlichkeit notwendig, um eine Ge-
fahr annehmen zu können.[2]
Klar vom Begriff der Gefahr zu trennen ist der Begriff des Risikos. Unter Risi-
ko versteht man im juristischen Sprachgebrauch, die Schadenswahrscheinlich-
keiten, die unterhalb der Gefahrenschwelle liegen.[3] Die Abgrenzung erfolgt
hier anhand der geringeren Eintrittswahrscheinlichkeit.[4]
Schließlich kennt das Recht – genauer gesagt, die Rechtsprechung – die Kate-
gorie des Restrisikos. Dieser Begriff umfasst die Schäden, deren Eintritt so
unwahrscheinlich ist, dass er an die Schwelle des Prognostizierbaren stößt. Das
Bundesverfassungsgericht verweist hier auf die Grenzen des menschlichen Er-
kenntnisvermögens.[5]
Die Gemeinsamkeit der drei Begriffe besteht darin, dass sie auf die jeweils un-
terschiedliche Wahrscheinlichkeit des Schadenseintritts verweisen. Verkürzt
könnte man sagen, dass das Recht von Gefahr spricht, wenn ein Schaden wahr-
scheinlich ist, vom Risiko, wenn eine geringe Wahrscheinlichkeit besteht und
der Begriff des Restrisikos ist für sehr unwahrscheinliche Fälle reserviert. Fragt
man nun allerdings nach, wie die drei Begriffe mathematisch voneinander ab-
zugrenzen sind, ist festzustellen, dass Gesetze und Rechtsprechung dazu keine
Aussage treffen.[8] Sieht man von Einzelfällen, wie der Berechnung von Va-
terschaftswahrscheinlichkeiten oder Blutalkoholkonzentrationen ab,[9] so fin-
den sich in Rechtstexten keine „harten Zahlenangaben“. Ganz im Gegenteil,
die Gerichte verweisen ausdrücklich darauf, dass die Ermittlung einer Gefahr
ein wertender Prozess sei, der sich jeder mathematischen Eingrenzung wider-
setze.[10]
Der Rechtsanwender sieht sich also dem Dilemma ausgesetzt, dass er unbe-
stimmten Rechtsbegriffen gegenüber steht und eine Konkretisierung nur
schwer möglich scheint. Angesichts dessen, soll im nächsten Abschnitt geklärt
werden, welche Position das Verfassungsrecht zum Umgang mit Risiko bezieht
und ob nicht wenigstens über Strukturen der Risikoverarbeitung Klarheit zu
gewinnen ist.
68
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
Die Entscheidung über die Lösung dieses Konfliktes obliegt dem Staat. Dieser
entscheidet sich entweder für das Verbot einer als zu gefährlich betrachteten
Tätigkeit, wie es mit einzelnen gentechnischen Verfahren geschehen ist, für die
Beendigung einer als zu schadensträchtig betrachteten Technologie, beispiels-
weise der wirtschaftlichen Nutzung der Kernkraft oder für die Zulassung der
Nutzung unter bestimmten Bedingungen.
Wenn gerade festgestellt wurde, dem Staat obläge die Auflösung des Span-
nungsverhältnisses zwischen Kernkraftwerksbetreiber und um seine Gesund-
heit fürchtendem Anwohner – so ist die Bezeichnung des Verantwortlichen
etwas ungenau. Auch wenn die Verantwortung des Staates insgesamt unstrittig
ist, so ist doch zu fragen, welcher Teil des Staates – Parlament, Verwaltung
oder Gerichte – exakt zu entscheiden habe.
Aus der Funktionsverteilung des Grundgesetzes ergibt sich zunächst einmal ein
Primat des Parlamentes.[12] Alle für den Grundrechtsgebrauch wesentlichen
Entscheidungen sind von dem am stärksten legitimierten Verfassungsorgan –
dem Bundestag – zu treffen. Dies gilt insbesondere dann, wenn es sich um eine
Entscheidung handelt, die aufgrund ihrer großen Gefahrträchtigkeit oder deren
Möglichkeit Schutzpflichten begründet.[13]
69
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
Für die Entscheidung über Risiko bedeutet dies, dass sie zumindest in den Tei-
len in den sie grundsätzlicher Natur ist, zwangsläufig dem Parlament ob-
liegt.[14] Beispielsweise untersagte der Hessische Verwaltungsgerichtshof der
Verwaltung die Zulassung gentechnischer Anlagen auf Grundlage des Bundes-
Immissionsschutzgesetzes – die Entscheidung über die Zulassung einer derart
gefährlichen Technologie könne allein der Gesetzgeber treffen.[15] Was dieser
mit der prinzipiellen Ermöglichung der Gentechnologie durch das GenTG,
bzw. dem Verbot des Klonens von Menschen durch das Embryonenschutzge-
setz auch getan hat.
Für den hier interessierenden Bereich des Risikos am Bau ist der parlamentari-
sche Gesetzgeber jedoch keine große Hilfe. Bauliche Tätigkeit ist im Regelfall
nicht so riskant, dass eine Entscheidung des parlamentarischen Gesetzgebers
unabdingbar wäre. Entscheidungen über den Umgang mit Risiko bzw. eine
Bewertung von Risiken erfolgen hier nur ausnahmsweise. Eine solche Ent-
scheidung stellt beispielsweise das Verbot bestimmter Baustoffe z.b. Asbest
dar. Zumeist beschränkt sich das Parlament jedoch darauf, gesetzliche Anfor-
derungen abstrakt zu umschreiben, die Sächsische Bauordnung besagt: bauli-
che Anlagen sind so zu errichten, dass Sicherheit und Ordnung, insbesondere
Leben und Gesundheit nicht gefährdet werden. Die Entscheidung über die Aus-
füllung der unbestimmten Rechtsbegriffe wird auch hier der Verwaltung über-
geben.[16]
Die besondere Bedeutung der Exekutive hat ihre Ursache insbesondere in der
funktionalen Gewaltenteilung.[17] Der zufolge sind Entscheidungen über Risi-
ken von der Staatsgewalt zu treffen, die instrumentell am ehesten dazu in der
Lage sind. Im technischen Sicherheitsrecht, insbesondere bei der Beurteilung
von Risiken, liegt das Schwergewicht der Anforderungen auf einer schnellen,
effizienten und unter Umständen auch ins Detail gehenden Regelung. Für diese
ist die Verwaltung, die mit Rechtsverordnung, Verwaltungsvorschrift und
Verwaltungsakt über relativ schnell und flexibel einsetzbare Instrumente ver-
fügt, wesentlich besser ausgestattet als die relativ schwerfällige Gesetzgebung.
Hinzu kommt, dass es im Sinne eines notwendigerweise dynamischen Grund-
rechtsschutzes sogar verfassungsrechtlich notwendig sein kann, Entscheidun-
gen der Exekutive zu überlassen.[18] Unter Umständen kann nur so der
erforderliche effektive Schutz von Leben und Gesundheit sichergestellt wer-
den.
Richtet man den Blick auf die Frage, wie die Exekutive mit Risiken und der
Risikobewertung umgeht, fällt auf, dass sie ebenfalls abstrakt, d.h. normset-
zend tätig wird. Die durch die Verwaltung gesetzten Normen gehen üblicher-
weise vergleichsweise stark ins Detail – beispielhaft ist hier nur auf die 55
Seiten umfassende TA Luft zu nennen. Auf dieser Ebene findet durch die Set-
zung von Grenzwerten und Verhaltenspflichten rechtliche Bewältigung von Ri-
siko statt. Eine ähnliche Form des Umganges mit Risiko liegt der staatlichen
70
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
Rezeption privater Normen zugrunde, die im hier relevanten Bereich des Bau-
ordnungsrechts durch die Einführung als Technische Baubestimmungen nach §
3 Abs. 3 SächsBO erfolgt. Der Staat ist hier nicht Urheber der Regelung, viel-
mehr bedient er sich des privaten Sachverstandes der verschiedenen Nor-
mungsorganisationen. Rechtlich kommt privaten Normen die Rechtswirkung
einer Verwaltungsvorschrift zu, beziehungsweise sie werden als Indiz für den
Stand der Technik bzw. als Sachverständigengutachten betrachtet.
Ein letzter Teil der normativen Verarbeitung von Risiko erfolgt damit in der
Beurteilung des Einzelfalles durch die jeweilige Genehmigungsbehörde. Deren
Aufgabe ist eine doppelte. Zum einen hat sie die tatsächliche Grundlage der
Entscheidung zu ermitteln und eine Risikobewertung vorzunehmen, wobei sie
diesbezüglich an die entsprechenden normativen Vorgaben gebunden ist. Bei
der Ermittlung der Tatsachengrundlage, die sich rechtlich als Ausfüllung der
unbestimmten Rechtsbegriffe darstellt, kommt ihr ein Auslegungsspielraum zu.
Zum zweiten hat sie gegebenenfalls Entscheidungen über den Umgang mit Ri-
siko zu treffen, die weder vom Gesetzgeber noch von der normsetzenden Ver-
waltung vorweggenommen wurde. Typischerweise sind hier Risiken zu
verarbeiten, die sich nur im Einzelfall stellen oder für die es keine sonstigen
Regelungen gibt. Bei entsprechender gesetzlicher Gestaltung kann hier ein Er-
messensspielraum vorgesehen sein, in sehr komplexen Fällen beispielsweise
der Genehmigung von Kernkraftwerken sogar ein nur eingeschränkt kontrol-
lierbarer Spielraum.[19]
Der Justiz als dritter Gewalt kommt, im hier skizzierten in Deutschland prakti-
zierten Umgang mit Risiko, nur eine flankierende Funktion zu. Die Gerichte
betrachten es nicht als ihre Aufgabe, an Stelle des Gesetzgebers oder der Ver-
waltung Entscheidungen zu treffen. Im Verhältnis zur Gesetzgebung ist dies
darin begründet, dass es sich bei Entscheidungen über Risiken um politische
Willensbildung handelt, die allein dem Bundestag obliegt. Auch das Bundes-
verfassungsgericht – das Normen verwerfen und gesetzgeberisches Handeln
verlangen kann – muss insoweit den Entscheidungsspielraum des Gesetzgebers
achten.[20] Im Verhältnis zur Verwaltung kann auf die gesetzliche Zuordnung
der Entscheidung zur Verwaltung - die letztlich auf dem Aspekt der funktiona-
len Gewaltenteilung fußt - verwiesen werden. Daher sind die Gerichte im
71
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
72
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
liegende deterministische Ansatz geht davon aus, dass eine bestimmte Anzahl
möglicher Risiken beachtlich ist. Welche Risiken dies sind, ergibt sich aus den
relevanten Normen. Die dort benannten Risiken müssen, ungeachtet ihrer kon-
kreten Wahrscheinlichkeit, ausgeschlossen werden.
Auch von den Gerichten ist bei der Beantwortung methodischer Fragen keine
große Hilfe zu erwarten. Unter Verweis auf die funktionale Gewaltenteilung
und den weiten Einschätzungsspielraum der Exekutive weigern sich Gerichte
geradezu, zu derartigen Fragen explizit Stellung zu nehmen. Jedenfalls sei es –
so das BVerwG – nicht Aufgabe der Gerichte, die Bewertung wissenschaftli-
73
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
cher Streitfragen durch die Behörde, durch eine eigene Wertung zu erset-
zen.[29]
Zu prüfen haben Gerichte allerdings drei Dinge.[30] Zum einen muss die Me-
thodik dem im Atomrecht geforderten Sicherheitsmaßstab des Standes von
Wissenschaft und Technik entsprechen. Kriterien hierfür sind: Sachkompetenz
des Gutachters oder Entscheiders aufgrund von Ausbildung, Tätigkeit oder Er-
fahrung; das Ansetzen der Bewertung an einer anerkannten Grundlage wissen-
schaftlicher Erkenntnis; sorgfältige Auseinandersetzung mit allen zum Problem
vertretenen Ansichten; Folgerichtigkeit, Nachprüfbarkeit und Widerspruchs-
freiheit des Ergebnisses. Zum zweiten ist zu fragen, ob sich die Behörde kon-
sequent an die selbstgewählten Maßstäbe gehalten hat. Schließlich behalten
sich Gerichte eine Eingriffsmöglichkeit für den Fall vor, dass die Methodik
grob willkürlich und schlechthin unvertretbar war.
5 Ergebnis
Im Ergebnis ist festzustellen, dass der Umgang des Rechts mit Risiko im Rah-
men einer abgeschichteten Entscheidungsfindung erfolgt. Grundsätzliche Ent-
scheidungen über den Einsatz riskanter Technologien werden und können
allein vom Gesetzgeber getroffen werden. Ein zweiter Schritt der Risikoverar-
beitung erfolgt auf untergesetzlicher Ebene, durch Grenzwertsetzung und Me-
thodenfestlegung. Das Schwergewicht der Risikoverarbeitung liegt allerdings
in der exekutiven Umsetzung. Auf dieser Ebene sind Verwaltung und Bürger
allerdings weitgehend auf sich gestellt. Von Seiten der Gerichte wurden zwar
Maßstäbe entwickelt an denen sich die Entscheidungen über die Ermittlung
und Bewertung von Risiken messen lassen müssen, jedoch verweisen diese
immer wieder auf die aktuellen Regeln der Technik und damit auf außerrecht-
liche Maßstäbe.
Etwas abstrakter könnte man sagen, dass Gesetzgeber und Gerichte es sehr
wohl erkannt haben, dass nicht alles durch Gesetze und Normen geregelt wer-
den kann. Letztlich kann eine Entscheidung über die Beurteilung und Ermitt-
lung von Risiken einer ingenieurtechnischen Anlage nur durch Ingenieure
selbst erfolgen. Das Recht stellt nur einen Rahmen bereit.
74
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
6 Literaturverzeichnis
75
Juristische Grundlagen von Risikountersuchungen – Risiko und Recht
76
____________________________Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung
Pavel Marek
Institut für theoretische und angewandte Mechanik
Akademie der Wissenschaften der Tschechischen Republik, Prag
1 Einleitung
1.1 Von der deterministischen zur probalistischen Denkweise des
Projektantens hinsichtlich des Zuverlässigkeitsnachweises
Seit Mitte des vorigen Jahrhunderts hatte sich deutlich ein allgemeines Streben nach
Vervollkommnung der Zuverlässigkeitsbeurteilung von Konstruktionen durchgesetzt. Das in
der Auswertung der Sicherheit und Nutzungsfähigkeit der Konstruktionen überwiegende
deterministische Verständnis der Größen reichte z. B. nicht zum Erfassen der Einwirkungen
der Belastung und ihrer Kombinationen aus, ebensowenig wie zur Präzisierung der
Stabilitätskriterien und zur Beurteilung des Einflusses von Imperfektionen. Im Bereich der
Konstruktionszuverlässigkeit war es notwendig, die Tatsache klarzustellen, dass alle in die
Zuverlässigkeitsbeurteilung einfließenden Größen zufällig veränderliche Größen sind und
dass es bei der Analyse ihrer Interaktion deshalb notwendig ist, die Prinzipien der Statistik
und der Wahrscheinlichkeitstheorie anzuwenden (s. z. B. MRÁZIK et al. [3]). Immer öfter
wurde der Begriff „Grenzzustände“ angewandt, der die Philosophie zusammenfassend
77
Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung____________________________
bezeichnen sollte, die auf der Aufteilung der die Interaktion zufälliger Größen
repräsentierenden Domäne in eine Sub-Domäne der Zuverlässigkeit und in eine Sub-Domäne
der Konstruktionsschädigung beruht, wobei nachdrücklich die Unterscheidung der
qualitativen Grenzzustände, und zwar der Sicherheit (Tragfähigkeit) und der Benutzbarkeit
(Nutzungsfähigkeit) betont wurde, s. z. B. MAREK [4]. Diese Klassifizierung wurde
allmählich um Kriterien der Dauerfestigkeit (s. auch den Begriff „Performance Design“ im
Kapitel 20 in TERECO [9]) erweitert. Auf dieser Grundlage wurden auf wissenschaftlichem
Niveau Spielregeln für den Zuverlässigkeitsnachweis geschaffen.
Die Aufgabe dieses Beitrages liegt nicht darin, das Niveau zu bewerten, das die Wissenschaft
im Bereich des Zuverlässigkeitsnachweises erlangte. Hinsichtlich des folgenden Textes ist es
allerdings angebracht, aufmerksam darauf zu machen, dass z. B. Prof. R. Rackwitz zufolge
die Entwicklung der analytischen Methode FORM/SORM das Niveau absoluter
Volkommenheit erreichte, wo nichts mehr hinzuzufügen oder abzuziehen ist (s. Keynote
lecture bei RACKWITZ [5]). Im selben Jahr lenkten an die hundert Wissenschaftler bei der
Weltkonferenz in Monaco die Aufmerksamkeit darauf, dass die Anwendung der Monte-
Carlo- Simulationsmethoden eine vielversprechende Zukunft vor sich habe (SCHUËLLER ET
AL.[6]). Die Zukunft wird zeigen, welche von diesen zwei Hauptrichtungen wissen-
schaftlicher Forschung sich bei der Anwendung in der Projektierungspraxis durchsetzen
werde.
Das gemeinsame Problem der Hauptrichtungen wissenschaftlicher Auffassungen der
Zuverlässigkeitsbewertung ist der Eingang wissenschaftlicher Ergebnisse in die praktische
Anwendung und die Einführung von „Spielregeln“ in die Normen.
78
____________________________Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung
1.3 Der Zutritt „von oben“ entgegen dem „von unten“ bei der
Entwicklung der in der Praxis anwendbaren Methoden
Die in der Praxis anwendbare Bewertungsmethode der Zuverlässigkeit kann auf verschiedene
Art und Weise geschaffen werden. Man kann von einer theoretisch ausgearbeiteten
wissenschaftlichen Konzeption (z. B. FORM/SORM, s. RAJ et al. [9]) ausgehen und
allmählich vom Spitzenniveau auf niedrigere Stufen herabsteigen, wobei bei diesem „Zutritt
von oben“ der Übergang zu jeder niedrigeren Stufe mit der Einführung von notwendigen
Vereinfachungen und beschränkenden Voraussetzungen verbunden ist. Je mehr sich die
vereinfachte Interpretierung der theoretischen Konzeption der Methode dem Niveau der
Einführung der Methode in die Normen nähert, desto anspruchsvoller und schwieriger ist die
Vereinfachung der wissenschaftlichen Methode zur Form normativer Vorschriften. Diese
Tatsache kann an Beispielen aus verschiedenen Diskussionen belegt werden, z. B. darüber,
wie die Kombination ständiger und zufälliger Belastung festzulegen sei (s. Beispiel 15.1 im
Buch TERECO [10]). Wie man feststellen kann, ist es außergewöhnlich schwierig, ein
Zusammenspiel von wissenschaftlicher Definition der Methode und der Interpretierung der
Methode in der Norm, deren Inhalt nicht vollkommen und durch ein kompleten Kommentar
belegbar sein kann, zu erreichen.
Die Entwicklung der SBRA-Methode kann als „Zutritt von unten“ betrachtet werden.
Anfangs, 1988, war der Computer mit einem Zufallszahlengenerator ausgestattet, weiter war
das Wissen vorhanden, alle in die Zuverlässigkeitsbewertung des Tragwerks eingehende
Größen seien zufällig veränderlich, und außerdem, die direkte (dem Projektanten leicht
verständliche) Monte-Carlo-Methode erlaube, die Interaktion zufällig veränderlicher Größen
zu analysieren und die Versagenswahrscheinlichkeit Pf festzulegen, s. [9]. Zu den
anfänglichen Experimenten, den Computer auf dieser Grundlage anzuwenden, gehörte die
Festlegung der Kombination von Einkomponenteneinwirkungen der Belastung auf eine besser
zu erfassende Weise, als die Normen es erlauben. Dieser Schritt erforderte die Einführung
einer neuen untraditionellen Repräsentation einzelner Belastungen, wozu „Einwirkungsdauer-
kurven“ und entsprechende Histogramme angewendet wurden (MAREK et al. [1,2]). Das erste,
als ResCom (Response Combination) bezeichnete SBRA-Programm deutete das Potential des
entwickelten Verfahrens an. Das positive Echo der Projektanten, mit denen die Ergebnisse
besprochen wurden, führte zur Anregung, das folgende M-Star-Programm auszuarbeiten,
wodurch die Analyse einer breiten Skala einer größeren Anzahl zufällig veränderlicher, durch
abgeschnittene Histogramme dargestellte Größen beinhaltender Gleichungen möglich
geworden war. Das Programm erlaubte z. B. die Widerstandsfähigkeit eines hybriden
Stahlstabes für die gewählte Wahrscheinlichkeit und die Lösung weiterer Beispiele
festzulegen. Logischerweise folgte der erste Versuch, mit Hilfe des M-Star-Programms die
Versagenswahrscheinlichkeit des Stahlstabes zu berechnen und unter Berücksichtigung
mehrerer verschiedener statistisch unabhängiger Einwirkungen, der durch ein Histogramm
dargestellten Stahl-Fließgrenzen und die Einführung der Streuung geometrischer Grössen der
79
Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung____________________________
Jedes gelöste Beispiel führte zu weiteren Anwendungen, was bereits 1991 die Einführung der
Methode in den Unterricht an der Baufakultät der Universitat SJSU in Kalifornien zur Folge
hatte. Das lebhafte Interesse der Studenten war für das Forschungsteam eine neue Anregung.
Eine wachsende Zahl publizierter Beispiele und ein sich ausbreitendes Potential dieser eine
einfache Simulationstechnik ausnützenden Methode veranlassten den Verlag CRC Press, Inc.
(Florida), die erreichten Ergebnisse in Buchform herauszubringen und die SBRA-Methode
(Simulation-Based Reliability Assessment) zu dokumentieren, s. MAREK et al. [1].
80
____________________________Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung
2 Die SBRA-Methode
2.1 Die Grundlage der „Spielregeln“
Die Methode geht von folgenden drei Grundvoraussetzungen aus:
(a) die in die Beurteilung der Zuverlässigkeit eingehenden Werte (input values) stellen
zufällig veränderliche Größen dar, repräsentiert von allgemein nicht-parametrischer
Verteilung (abgeschnittene Histogramme u. ä.),
(b) die Analyse der Interaktion zufällig veränderlicher Größen im Rahmen der Funktion wird
vom Projektanten durchgeführt, der die Simulationstechnik und den Computer anwendet, um
die Versagenswahrscheinlichkeit Pf festzulegen,
(c) der Zuverlässigkeitsnachweis wird durch den Vergleich der ausgerechneten
Versagenswahrscheinlichkeit mit der z. B. in der Norm angegebenen Entwurfs-
wahrscheinlichkeit geführt (s. MAREK et al. [1] und NORM [11]).
81
Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung____________________________
2.4 Die Belastung und Analyse der Reaktion der Konstruktion auf die
Belastung in der SBRA-Methode
Um Voraussetzugen für die Gestaltung einer voll probabilistischen Methode der Zuver-
lässigkeitsbeurteilung schaffen zu können, war es notwendig, die bislang angewendete
Konzeption (z. B. in der TSBM-Methode, bei der die Belastung durch die Multiplikation des
charakteristischen Wertes mit einem Beiwert definiert wird) zu verlassen und untraditionelle
Charakteristiken einzelner Belastungen einzuführen, ähnlich wie einzelner Einwirkungs-
82
____________________________Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung
effekte (d.h. die Reaktion der Konstruktion auf die Belastung und Kombinationen der
Einwirkungen). Einzelheiten sind z. B. in Büchern MAREK et al. [1], TERECO [10] und
Fachzeitschriften,s. GRASSE [12] und MAREK et al. [13,14].
(a) (b)
Dead load Wind
W
D
D W
Freq.
0
0
Freq.
–W
0
0 –W
0
%
%
0
0 T 0 T
(c) (d)
Long-lasting load Short-lasting load
LL
SL
LL SL
Freq.
Freq.
0 0
0
%
%
0
0
0 T 0 T
83
Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung____________________________
2.5 Referenzwerte
Grundvoraussetzung bei der Berechnung der Versagenswahrscheinlichkeit durch die
Zuverlässigkeitsfunktion ist eine klare und vollständige Definition der Referenzwerte RV
(Reference Value), auf die sich die Wahrscheinlichkeit der „Überschreitung“ bezieht. Der
Ausdruck Referenzwert wurde im Buch TERECO [10] und bei dem COLLOQUIUM [8]
verwendet, um Unklarheiten und Verwechslungen mit den in der Methode der
Teilsicherheitsbeiwerte TSBM verwendeten Ausdrücken Grenz- oder Endwerte auszu-
schließen, denn dort können sich diese Ausdrücke z. B. auf die Tragfähigkeit bei voller
Plastizierung beziehen (eine durch ein plastisches Gelenk des Stahlträgers definierte
Tragfähigeit u. a, s. NORM [7]).
Eine Versagenswahrscheinlichkeit kann sich auf die Tragsicherheit der Konstruktion
beziehen, auf die Nutzungsfähigkeit (das Wohlbefinden des Menschen, die Funktion der
Einrichtung, die Fehlerfreiheit von ergänzenden Komponenten, Wasserundurchlässigkeit u.
ä.) und auf die Dauerfestigkeit (mit verschiedenen Formen der Schadensakkumulation). Aus
dieser kurzen Übersicht geht hervor, dass die Referenzniveaus von verschiedenartigem
Charakter, Qualität und Quantität sind. Mit Recht wurde im Jahre 2002 während des
internationalen colloquiums in Prag große Aufmerksamkeit der Kategorisierung und der RV-
Definition gewidmet, s. COLLOQUIUM [8].
In Anbetracht der Mannigfaltigkeit und Interaktion verschiedener zufällig veränderlicher
Größen ist eine der Hauptaufgaben des Projektanten bei der Wahrscheinlichkeitsbewertung,
den entsprechenden Referenzwert RV, einschließlich eventueller Besonderheiten (der
Belastungsgeschwindigkeit, des Einflusses der Umgebungstemperatur usw.) für den
konkreten Fall zu spezifizieren, was zum notwendigen Teil der „Spielregeln“ wird. Bei der
Bearbeitung von hundertsechzig gelösten Beispielen in TERECO [10] mussten die Verfasser
den bei der Berechnung der Versagenswahrscheinlichkeit angewendeten Referenzwert immer
klar spezifizieren und begründen.
84
____________________________Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung
Abb. 4: Zeigt ein im Rahmen der SBRA angewendetes Hauptprogramm (Programm AntHill for
Windows)
85
Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung____________________________
und Biegemoment) im Schnitt X-X, das die Reaktion auf alle Belastungen ausdrückt (s.
VACLAVEK et al. [16]). Die oberste Zeile SF (Safety function) ist die durch die Differenz
(Fließgrenze des Stahles) minus (Spannung infolge der Belastung in den Randfasern des
Querschnittes X-X) repräsentierte Zuverlässigkeitfunktion. Die Versagenswahrscheinlichkeit
im Querschnitt X-X Pf = 0,000996 wurde mit einer Million Simulationsschritten festgelegt.
Einzelheiten sind in TERECO [10] zu finden, wo weitere Alternativen für Rahmen mit
angelehnten Stützen, Ableitung des Transformationsmodells usw. angegeben sind.
86
____________________________Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung
Abb. 7: Ein mit einer Kombination zufälliger variabler unkorellierter Lasten belasteter 2D Rahmen
5 Ergänzende Anmerkungen
Die fünfzehnjährige Entwicklung der SBRA-Methode ist zur Zeit durch mehr als 300
Beiträge von 70 Autoren aus der Tschechischen Republik sowie auch aus dem Ausland
dokumentiert worden (s. Publications auf der WEB-Seite http://www.noise.cz/SBRA). Das
Interesse für die SBRA-Methode im Ausland wird auch durch die Besuche ausländischer
Fachleute und die Langzeitarbeitsaufenthalte mancher von ihnen bei dem ÚTAM AV ČR
Prag und bei der VŠB TU Ostrava bestätigt.
Zur Zeit werden die Möglichkeiten der Verbreitung der SBRA-Methode in Richtung auf das
„Performance Design“ bei Beton- und „Composite“- Konstruktionen erforscht, s. TIKALSKY
[18]. Bei dieser Anwendung der SBRA-Methode ist anstelle der Belastung durch Kräfte eine
„Belastung“ durch chemische Einwirkung („Exposures“) gemeint, wobei zur Analyse von
Zeiteinwirkungseffekten und Interaktionen zufällig veränderlicher Größen die SBRA-
Methode angewendet wird.
87
Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung____________________________
Danksagung
Für die Einladung zum 1. Dresdner Probabilistik-Symposium wird der Fakultät
Bauingenieurwesen der TU Dresden, der Grant Agenture der Tschechischen Republik, Prag,
für die Unterstützung (Projekt No. 103/01/1410) und für wertvolle Ratschläge Dr.-Ing. P.
Berger, Leipzig, gedankt.
7 Literatur
[1] Marek, P., Guštar, M. und Anagnos, T. (1995). Simulation-based Reliability Assessment
for Structural Engineers. CRC Press, Inc., Boca Raton, Florida,U.S.A., ISBN 0-8493-
8286-6.
[2] Marek, P., Guštar, M., and Bathon, L. Tragwerksbemessung. Von deterministischen zu
probabilistischen Verfahren. ACADEMIA, Verlag der Akademie der Wissenschaften der
Tschechischen Republik, Praha (1998). ISBN 80-902227-6-5 und 80-200-0706-7
[3] Mrázik, A., und Križma, M. Probability-based design standards of structures (in English)
Structural Safety, Vol. 19, No. 2, (1997), pp. 219-234, Elsevier.
[4] Marek, P. (1983 and 1986). Grenzzustände der Matallkonstrutionen. VEB Verlag für
Bauwesen, Berlin
88
____________________________Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung
[5] Rackwitz R. (2000). Reliability Analysis - Past, Present and Future.. PMC 2000,
Probabilistic Mechanics and Structural Reliability. University of Notre Dame, USA, July
24-26, 2000.
[6] Schuëller, G. I., Spanos, P. D., Editors, Proceedings of MCS2000 – Monte Carlo, (2000)
[7] AISC Load and Resistance Factor Design Specification for Structural Steel Buildings,
American Institute of Steel Construction, (1986 und 1993). Chicago
[8] Colloquium Proceedings, Euro-SiBRAM’2002, Editors: Marek P., Haldar A., Guštar, M
and Tikalsky P., Prague, June 24 – 26, 2002, Proceedings Vol. 1 and 2., ITAM CAS CZ
(Prosecka 76, 190 00 Praha 9), ISBN 80-86246-15-9
[9] Raj Sandararajan C., Editor (1994). Probabilistic Structural Mechanics Handbook. Theory
and Industrial Applications (in English) Chapman and Hall, New York.
[10] TERECO (TEaching REliability COncepts). Probabilistic Assessment of Structures
using Monte Carlo Simulation. Background, Exercises, Software. Editors: Marek, P.,
Brozzetti, J. , Guštar, M., (and Tikalsky P. in the 2nd ed. 2003), 2001 und 2003. Institut
fur theoretische und angewandte Mechanik Akademie der Wissenschaften der
Tschechischen Republik, Prosecka 76, 190 00 Prague 9, Czech Republic. Bemerkung:
Resultat des Leonardo da Vinci Forschungsprojektes (1999-2000). Innovation in
Teaching Reliability Concepts using Simulation (TERECO). Proj. No.
CZ/98/82502/PI/I.1.1.a/FPI. Participating Institutions from France, Portugal, Hungary,
Lithuania and Czech Republic.
[11] Bemessung von Stahlkonstruktionen (Norme CSN 73 1401). (In Tschechisch). Der
Tschechischer Normeninstitute (1966, 1976, 1984 and 1998). Praha.
[12] Graβe, W. (1995). Zur Kombination zeitveränderlicher Einwirkungen. Stahlbau 64, Heft
8., Ernst & Sohn.
[13] Marek, P., Guštar, M., Permaul, K. (1999). Transition from Partial Factors Method to
Simulation Based Reliability Assessment in Structural Design. Journal: Probabilistic
Engineering Mechanics 14 (1999), pp. 105-118, Elsevier Science Ltd. (in English).
[14] Marek, P. und Guštar, M. (1999). Probabilistische Verfahren in der Bemessung von
Stahltragwerken. Stahlbau 68, Heft 1., S. 62 bis 69, Ernst & Sohn
[15] Galambos, T.V., Ellingwood, B., MacGregor, J.G., and Cornell, C.A., (1982),
Probability Based Load Criteria: Assessment of Current Design Practice. Journal of the
Structural Division ASCE, Vol. 108, No. ST5, pp. 959-977.
[16] Václavek, L. and Marek, P. (2001), Probabilistic Reliability Assessment of Steel Frame
with Leaning Columns. Computational Struct. Eng., An International Journal. Vol. 1, No.
2, pp. 97-106. Korea
[17] Pustka, D.: Využití spolehlivostní metody SBRA při navrhování ocelových, betonových
a ocelo-betonových konstrukcí. (Application of reliability method SBRA in design of
steel, concrete and steel-concrete structures). Doctoral thesis (PhD.). VŠB - Technical
University of Ostrava, Faculty of Civil Engineering, Department of Structural Mechanics,
December 2002.
[18] Tikalsky P. (2003). Durability and Performance-Based Design Using SBRA . Chapter
No. 20 in textbook TERECO [10].
89
Nutzung der Monte-Carlo-Simulation zur probabilitischen Bemessung____________________________
90
Das Antwort-Flächen-Verfahren
Das Antwort-Flächen-Verfahren
1 Einleitung
Der analytische Weg zur Bestimmung der Zuverlässigkeit ist auf sehr spezielle Anwen-
dungen begrenzt. Gründe dafür liegen in der Komplexität der Aufgabenstellung.
Schwierigkeiten bereiten oft die Bestimmung des Versagensbereiches, der Verteilungs-
dichtefunktionen und die Integration über die unregelmäßig berandeten Bereiche.
Deswegen wurden verschiedene Verfahren entwickelt um mit den zur Verfügung
stehenden Informationen das Zuverlässigkeitsproblem zu lösen. Weit verbreitet sind
FORM und SORM, welche auf der geometrischen Interpretation des Sicherheitsindex
beruhen. Für die zumeist komplexeren baupraktischen Aufgaben stößt man aber schnell an
Anwendungsgrenzen. Die Integrationsgrenzen sind häufig sehr unregelmäßig oder die
Grenzzustandsfunktionen lassen sich erst gar nicht geschlossen analytisch formulieren.
Zudem sind die Zufallsgrößen oft auch untereinander korreliert. Zusätzliche mathema-
tische Probleme bereitet die Lösung mehrdimensionaler Integrale, die in den meisten
Fällen nicht in eine eindimensionale Aufgabe überführt werden können, und weder
geschlossen noch numerisch berechnet werden können. Dafür werden oft statistische
Simulationsverfahren (z.B. Monte-Carlo-Simulation) eingesetzt. Ein Bindeglied zwischen
beiden Methoden ist das Antwort-Flächen-Verfahren. Mit Hilfe numerischer Versuche,
wird näherungsweise eine Grenzzustandsfunktion bestimmt, die dann ausgewertet werden
kann.
2 Antwort-Flächen-Verfahren
2.1 Idee und Methodik
Das Antwort-Flächen-Verfahren, oft auch als Response Surface Method (RSM) bekannt,
ist eine Sammlung mathematischer und statistischer Methoden zur Beschreibung
komplexer Systeme und Prozesse. Es ist also ein rein deterministisches Verfahren zur
Lösung von Optimierungsproblemen mit unbekanntem bzw. komplexem analytischen
91
Das Antwort-Flächen-Verfahren
mit y Systemantwort
f ( x , p) Näherungsfunktion in Abhängigkeit der
Systemvariablen x und der Koeffizienten p
ε Fehlerterm der Approximation zum tatsächlichen
Systemverhalten
Die Koeffizienten p der Näherungsfunktion werden nun mit Hilfe bekannter Punkte des
Systemverhaltens angepasst. Der so entstandene funktionale Zusammenhang dient als
Basis für weitere Untersuchungen, um auf einen Extrempunkt zu schließen. Ziel dieses
Verfahrens ist es, das exakte, oft nicht modellierbare Systemverhalten y durch eine
äquivalente Berechnungsvorschrift y% zu ersetzen.
92
Das Antwort-Flächen-Verfahren
BUCHER und BOURGUND [4] haben deshalb eine iterative Anpassung der Antwortfläche
vorgeschlagen (Abb. 1). Im ersten Schritt werden über festgelegte Suchpunkte die Koeffi-
zienten einer Ansatzfunktion bestimmt.
Die Koordinaten jedes Suchpunktes stellen dabei eine Realisierung (xj1, xj2, . . . ,xjn)T des
Vektors der Basisvariablen dar. Mit diesem Eingabesatz erfolgt eine deterministische
Strukturberechnung, z. B. mit FE-Methoden oder Auswertung eines komplexen Rechen-
schemas für jeden Suchpunkt. Man erhält die sogenannte zugehörige Systemantwort y(x)
zu jedem Suchpunkt. Mit Hilfe dieser Ergebnisse wird unter Nutzung der Ansatzfunktion
näherungsweise ein funktionaler Zusammenhang zwischen den Basisvariablen und dem
Systemverhalten erstellt. Man erhält die sogenannte Antwortfläche g% ( x ) , die exakt an die
Suchpunkte angepasst wurde.
g ( x ) exakte Grenzzustandsfunktion
X 2l g%1 ( x ) Antwortfläche – erste Iteration
ng% ( x ) g% 2 ( x ) Antwortfläche – zweite Iteration
1
g% 3 ( x ) Antwortfläche – dritte Iteration
g% *
x2
x%i 3*
xM ,3f
gm( x )
e δh3
δ2
δb1 x%1d*
xcM ,2
xaM ,1 Xk1
Abb. 2: Konvergenz und Iterationsschritte eines Zyklus nach [6]
93
Das Antwort-Flächen-Verfahren
In einem zweiten Schritt wird unter Nutzung der probabilistischen Informationen mi und σi
in einer FORM-Analyse der Punkt mit dem kürzesten Abstand zu den Mittelwerten, also
der Bemessungspunkt x% * , auf der Näherungsfunktion g% ( x ) gesucht. Mit dem Punkt x% *
wird die deterministische Strukturberechnung wiederholt. Das Ergebnis ist die
deterministische Systemantwort y ( x% * ) in dem Bemessungspunkt, mit der man die Güte
der Näherungsfunktion über den Vergleich mit der Bedingung erhält.
Über diese probabilistischen Betrachtungen wird nun ein neuer Suchmittelpunkt xM für
einen weiteren Suchzyklus festgelegt. Der neue Suchmittelpunkt soll möglichst nah an den
vermuteten Versagensbereich gelegt werden. Der Vektor von m nach x% * wird dabei als
Suchstrahl benutzt, auf dem der neue Mittelpunkt liegen soll. Je nach Iterationsmethode
und Dämpfung tastet man sich mehr oder weniger schnell an den Versagensbereich heran.
Die beiden zuvor beschriebenen Schritte bilden einen Zyklus des Antwort-Flächen-
Verfahrens. In diesem Zyklus wird die deterministische Strukturberechnung also „Anzahl
der Suchpunkte + 1“-mal ausgeführt.
In einem neuen Suchzyklus mit dem Mittelpunkt xM wird eine bessere Anpassung der
Näherungsfunktion g% ( x ) an die unbekannte GZF erwartet.
Ziel ist es nun, mit möglichst wenigen Zyklen die Grenzzustandsfunktion im Versagens-
bereich gut anzunähern. Dazu benötigt man ein Kriterium, mit dem dieses Ziel überprüft
werden kann. Es muss also ähnlich der FORM die Konvergenz überprüft werden. Der
Algorithmus von LIEBERWIRTH [13] benutzt als Konvergenzkriterium die Differenz des
aktuellen zum vorhergehenden Zyklus des näherungsweisen Bemessungspunktes und die
Differenz der dazugehörigen Sicherheitsindizes.
Zur Erzeugung gut konditionierter Gleichungssysteme und um eine für die Anwendung
notwendige Stabilität zu sichern kann der Algorithmus im normierten Raum erfolgen. Das
wurde von RAJASHEKHAR und ELLINGWOOD [6] vorgeschlagen. Die Anwendung im
Zuverlässigkeitsmodul von LIEBERWIRTH [13] kann das belegen. Die Konvergenz kann
durch die Wahl eines Faktors h für das Eingabenetz der Suchpunkte, eines
Dämpfungsfaktors für den Suchfortschritt und die Wahl der Iterationsmethode beeinflußt
werden.
94
Das Antwort-Flächen-Verfahren
n n n 1 ⋅ (n + 1) ⋅ (n + 2)
g% ( x ) = a + ∑ bi ⋅ xi + ∑∑ cij ⋅ xi ⋅ x j
2
Vollständiges Polynom 2. Grades
i =1 i =1 j =1
n n 2n + 1
Polynom 2. Grades g ( x ) = a + ∑ bi ⋅ xi + ∑ xi2
ohne gemischte Glieder i =1 i =1
1
2 ⋅ (2 + 3n + 3n 2 )
Vollständiges Polynom 3. Grades …
3n + 1
Polynom 3. Grades
…
ohne gemischte Glieder
1
2 ⋅ (2 + 3n + 5n 2 )
Vollständiges Polynom 4. Grades …
5n + 1
Polynom 4. Grades
…
ohne gemischte Glieder
Die Qualität der Näherung ist von dem Verlauf der Grenzzustandsfunktion im Bereich des
Bemessungspunktes abhängig. Bei der Zuverlässigkeitsanalyse mittels Antwort-Flächen-
Verfahren wird die Ansatzfunktion im Bemessungspunkt angepasst. Dort ist g% ( x ) = 0 .
Ansatzfunktionen höheren Grades sind für die Annäherung eines Grenzzustandes nicht
notwendig, da alle Funktionen in einem begrenzten Bereich um g% ( x ) = 0 durch An-
passung der Krümmung annähernd gleiche Funktionswerte besitzen können.
In [6] schlagen RAJASHEKHAR und ELLINGWOOD vor, daß der Grad des Polynoms
möglichst kleiner oder gleich dem eigentlich unbekannten Originalproblem ist. Es kann
jedoch gezeigt werden, dass die Koeffizienten der Glieder höherer Ordnung bei der An-
passung der Antwortfläche (Reponse Surface) ungefähr gegen 0 tendieren. Dies kann dann
eventuell zu schlecht konditionierten Gleichungssystemen zur Bestimmung der Koeffi-
zienten führen. Erfolgt die Anpassung im Raum standardisierter normalverteilter Basis-
variable, läuft der Algorithmus weitgehend stabil (vgl. [6]).
Möglicherweise erzeugen Polynome höheren Grades eine schlechte Anpassung in den
Randbereichen, die nicht durch Experimente abgedeckt sind. Die Experimente
(Suchpunkte) sollten so ausgewählt werden, dass sie mit hoher Wahrscheinlichkeit im
interessierenden Bereich liegen. Damit wird erreicht, dass für den interessierenden Bereich
eine gute Anpassung erfolgt. Eine größere Bedeutung hat die Anpassung der Randbereiche
möglicherweise für Anwendungsfälle, wo durch die Näherungsfunktion mehrere
Grenzzustände im Sinne eines Systemversagens approximiert werden (siehe Abb. 3).
95
Das Antwort-Flächen-Verfahren
Bis zu einem bestimmten Grad verbessern höhergradige Ansätze die Anpassung der
Näherungsfunktion. Diese Ansätze erfordern aber einen höheren Berechnungsaufwand, da
mehr unbekannte Koeffizienten zu bestimmen sind und zusätzlich mehr numerische
Experimente (z.B. FE-Strukturanalysen) notwendig werden. Zugleich werden die zu
lösenden Gleichungssysteme größer.
BUCHER, ROOS und HÄFNER stellen in [9], [10] und [11] weitere Algorithmen zur lokalen
Interpolation der Grenzzustandsfunktion durch Normalen-Hyperebenen, Sekanten-
Hyperebenen bzw. mit gewichteten Radien vor.
2.4 Suchalgorithmen
Die gewählte Näherungsfunktion wird über die Bestimmung der Freiwerte angepasst. Die
Systemidentifikation und Anpassung des Modells erfolgt anhand experimenteller Daten.
Im diesem Fall werden numerische Experimentaldaten aus einer deterministischen
Tragwerksberechnung ermittelt. Eine andere Möglichkeit wäre, zufällige Realisierungen
der Basisvariablen zu erzeugen. Dies entspräche allerdings einer Anpassung in
irgendeinem Bereich, und zur Bestimmung des Bemessungspunktes müsste in einen
experimentell ungesicherten Bereich extrapoliert werden. Aussagen zur Qualität und
Verbesserung der Näherungsfunktionen wären gänzlich unmöglich. Daher bedient man
sich fester Suchansätze. Für n-Basisvariable werden in Anlehnung an [1] und [13] in Abb.
4 folgende Suchansätze formuliert.
Jeder Suchpunkt stellt eine deterministische Strukturberechnung dar. Zur Anpassung der
Näherungsfunktion müssen mindestens so viele Suchpunkte (Strukturberechnungen)
erzeugt werden wie die Anzahl der Freiwerte. Stehen mehr Suchpunkte zur Verfügung als
zur Bestimmung der Koeffizienten benötigt werden, besteht die Möglichkeit der
Anpassung über die Methode der minimalen Fehlerquadrate. RACKWITZ [3] schlägt
weiterhin vor den Fehlerterm, so er zuverlässig ermittelt werden konnte, als zusätzliche
i. d. R. normalverteilte Basisvariable in die Rechnung einzuführen, um den Fehler bei der
Bestimmung der Versagenswahrscheinlichkeit abzuschätzen.
96
Das Antwort-Flächen-Verfahren
97
Das Antwort-Flächen-Verfahren
h = Φ −1 ( Pf ) (2)
2.6 Berechnungsaufwand
Gegenüber den Simulationsmethoden stellt das Antwort-Flächen-Verfahren eine
Möglichkeit dar, Zuverlässigkeitsanalysen auch für komplexe Tragstrukturen
durchzuführen. Die Anzahl der deterministischen Strukturberechnung sinkt von 106 . . .108
auf etwa 101 . . .102. Diese Zahl ist abhängig vom Konvergenzverhalten, von der Wahl der
Konvergenzparameter und von der Anzahl der Basisvariablen (vgl. Tab. 2). Die Anzahl der
Basisvariablen hat einen grossen Einfluss auf Effizienz und Stabilität des Ergebnisses. Man
erkennt, dass für viele BV die meisten Suchansätze wegen des hohen
Berechnungsaufwandes unbrauchbar werden und damit auch die Wahl der
Ansatzfunktionen eingeschränkt wird. Weiterhin erkennt man an Tab. 2, dass nicht jeder
Suchansatz ausreichend Punkte zur Bestimmung der Freiwerte liefert.
98
Das Antwort-Flächen-Verfahren
Tab. 2: Anzahl der Freiwerte bzw. Suchpunkte eines Iterationszyklus für n BV nach [13]
3 Beispiele
Verschiedene bewusst einfach gewählte Beispiele sollen im Folgenden die Anwendung des
Antwort-Flächen-Verfahrens vorführen und theoretisch beschriebene Zusammenhänge mit
Zahlen und Bildern verständlich machen.
Für weitere Anwendungsbeispiele zur Berechnung der Versagenswahrscheinlichkeit
einfacher Strukturen, aber auch geometrisch und physikalisch nichtlinearer Strukturen sei
auf die Literatur zum Antwort-Flächen-Verfahren, etwa in KLINGMÜLLER et al. [2],
BUCHER [4], RAJASHEKHAR und ELLINGWOOD [6], verwiesen. In ROOS [9] sind u. a. eine
physikalisch und geometrisch nichtlineare Schalenstruktur sowie ein strukturmechanisches
Beispiel, das die Anwendungsmöglichkeit für eine reale Struktur mit wirklichkeitsnahen
Annahmen für Einwirkungen und Widerstandsgrößen untersucht, beschrieben.
99
Das Antwort-Flächen-Verfahren
Es = 21000 kN/cm²
Iy = 33090 cm4
Wel = 1890 cm3
Das Tragwerk stammt aus einem Skript der TU Dresden von MÖLLER [14], S. 3/16. Daher
sind sowohl GZF, Lösung der FORM und auch das exakte Ergebnis des maßgebenden
Tragwerkpunktes bekannt. Für Punktversagen ist dieses statisch unbestimmte System ein
Seriensystem. Es sind daher als mögliche Versagenspunkte die Stellen 1 und 2 zu
untersuchen. Die Fließspannung fy sei an allen Punkten gleich groß. Sie ist also voll
korreliert (ρ = 1) und kann daher für beide Nachweispunkte als eine Basisvariable
modelliert werden.
BV Bezeichnung m σ ν = σm Verteilungstyp
X1 Belastung G 200 kN 30 kN 0,15 Normalverteilung
X2 Fließspannung fy 28,8 kN/cm² 2,64 kN/cm² 0,09 Normalverteilung
X3 Federsteifigkeit Kϕ 3,5·107 kNcm/rad 0,5·107 kNcm/rad 0,14 Normalverteilung
Für diese Teilaufgabe wird Kϕ als zusätzliche Basisvariable eingeführt. Dadurch entstehen
nichtlineare Grenzzustandsgleichungen, die exakt angegeben werden können.
3 ⋅ L2
g1 ( x ) = − ⋅ X1 + X 2
(
4 ⋅Wel ⋅ 4 ⋅ L +
12⋅ E ⋅ I y
X3 ) (3)
L 1 L
g2 ( x) = − ⋅ − ⋅ X1 + X 2 (4)
2 ⋅ Wel 2 3 ⋅ L + 16⋅XE ⋅I y
16
3
Allerdings hängt die Nichtlinearität stark vom Einfluss der Basisvariable X3 ab. Dieser ist
hier gering, könnte aber durch Ändern der Federsteifigkeit gesteigert werden. In
MÖLLER [14] ist als FORM-Ergebnis für diese Teilaufgabe β1 = 4.063 und β 2 = 4.478.
Die numerische Integration über den Versagensbereich ergibt Pf = 2.347·10−5 bzw.folgt
daraus der Sicherheitsindex β = 4.07. Da in diesem Bespiel nur schwache nichtlinearität
vorhanden ist, konvergiert das Antwortflächenverfahren sowohl mit den linearen als auch
100
Das Antwort-Flächen-Verfahren
Antwortflächen
g1 ( x ) = −1, 71265 + 0, 073864 X 1 + 4,8486 ⋅10−6 X 2 + 4, 635 ⋅10−8 X 3
β1 = {4.08169,4.07535,4.0711,4.06825,4.06632,4.06502,4.06414}
Antwortflächen
g1 ( x ) = 2,92 − 0, 074 X 1 + 4, 6 ⋅10−7 X 12 + X 2 + 5, 40 ⋅10−5 X 22 − 1, 27 ⋅10−7 X 3 + 1,18 ⋅10−15 X 32
g 2 ( x ) = −1, 46 − 0, 0689 X 1 − 2,3 ⋅10−7 X 12 + 0,999 X 2 + 2, 701 ⋅10−5 X 22 + 6,334 ⋅10−8 X 3 − 5,896 ⋅10−16 X 32
Im Vergleich zum linearen Polynom erkennt man, dass die Koeffizienten der quadratischen
Terme gegen 0 gehen.
101
Das Antwort-Flächen-Verfahren
mit A = ( X4 + X5 )⋅ X6 , A = ( X4 + X5 )⋅ X3 ,
f = X 7 (1 − X 2 PE ) und PE = X 8 ⋅ ( X 4 + X )5 ⋅ ( X 3 2 ) ⋅ (π L )
2 2
BV Bezeichnung m σ ν = σm Verteilungstyp
X1 Fließgrenze fy 32 kN/cm² 3 kN/cm² 0,094 Log-Normalverteilung
X2 Belastung P 150 kN 22,5 kN 0,15 Gumbelverteilung
X3 Profilhöhe 16 cm 1,5 cm 0,009 Normalverteilung
X4, X5 Flanschdicke 0,78 cm 0,04 cm 0,051 Log-Normalverteilung
X6 Profilbreite 8,2 cm 0,08 cm 0,01 Normalverteilung
X7 Imperfektion f0 0 L/1770 - Normalverteilung
X8 E-Modul 21600 kN/cm² 500 kN/cm² 0,023 Normalverteilung
102
Das Antwort-Flächen-Verfahren
Die Ergebnisse mit FORM und SORM Verfahren im Vergleich zum Antwort-Flächen-
Verfahren sind in Tab. 6 dargestellt. Abb. 7 zeigt den Iterationsverlauf der Anpassung der
Antwortfläche für ein quadratisches Polynom ohne gemischte Glieder. Nach 5 Zyklen
erhält man einen über die Iteration von β = {3,592; 4, 0896;3,8386;3, 2076} den
Sicherheitsindex β = 3, 2076 . Die Funktion der Antwortfläche lautet:
Xb7
0.5
-0.5
50 100 150 200
X
a2
-1
-1.5
-2
4 Schlußbemerkungen
Das Antwort-Flächen-Verfahren ist eine sehr effiziente Methode zur Zuverlässigkeits-
analyse komplexer Tragsysteme und für Zuverlässigkeitsprobleme mit mehreren Grenz-
zustandsfunktionen. Das Konvergenzverhalten ist allerdings problemabhängig und es kann
keine allgemeingültige Aussage zur Konvergenz und zu Fehlern des Ergebnisses gemacht
werden. Daher sollte das Antwort-Flächen-Verfahren mit einem zweiten Verfahren, etwa
der Monte-Carlo-Simulation mit Important Sampling und/oder dem Direct Sampling,
kombiniert werden. Kann die Konvergenz der Antwortfläche und das probabilistische
Ergebnis bestätigt werden, kann die approximierte Grenzzustandsfunktion oder auch eine
erneute Antwortflächenanalyse für weitere probabilistische Untersuchungen verwendet
werden. Ist die Antwortfläche einmal bekannt, können weitere Untersuchungen, z.B. die
Auswirkung von Systemveränderungen, mit nur sehr geringem zusätzlichen Aufwand
durchgeführt werden.
103
Das Antwort-Flächen-Verfahren
5 Literatur
[1] Myers, Raymond H.; Montgomery, Douglas C.: Response Surface Methodology:
Process and Product Optimization Using Designed Experiments. New York: John
Wiley & Sons, 1995
[2] Klingmüller, O.; Bourgund, U.: Sicherheit und Risiko im Konstruktiven Ingenieurbau.
Braunschweig/Wiesbaden: Vieweg, 1992
[3] Rackwitz, R.: Zuverlässigkeit und Lasten im Konstruktiven Ingenieurbau. Teil I:
Zuverlässigkeitstheoretische Grundlagen. TU München: Eigenverlag, 1993-2002. –
Studienmaterial elektronisch erhältlich als PDF-Dokument unter
www.massivbau.bauwesen.tu-muenchen.de/index-d/lehre/vorlws2002.pdf
[4] Bucher, C.G.: A fast and efficient response surface approach for structural reliability
Problems. In: Structural Safety 7 (1990), S. 57-66
[5] Faravelli, L.: Response-Surface Approach for Reliability Analysis. In: Journal of
Engineering Mechanics Vol. 115, No. 12 (1989), S. 2763-2781
[6] Rajashekhar, M.R.; Ellingwood, B.R.: A new look at response surface approach for
reliability analysis. In: Structural Safety 12 (1993), S. 205-220
[7] Mehlhorn, G. (Hrsg.): Der Ingenieurbau: Grundwissen. Bd. 1: Mathematik,
Technische Mechanik. Berlin: Ernst & Sohn, 1996
[8] Mehlhorn, G. (Hrsg.): Der Ingenieurbau: Grundwissen. Band 8: Tragwerkszuver-
lässigkeit, Einwirkungen. Berlin: Ernst & Sohn, 1996
[9] Roos, D.: Approximation und Interpolation von Grenzzustandsfunktionen zur Sicher-
heitsbewertung nichtlinearer Finite-Elemente-Strukturen. Bauhaus-Universität
Weimar: Eigenverlag, 2002 – Dissertation
[10] Häfner, S.: Approximation von Grenzzustandsfunktionen nichtlinearer Tragwerke mit
dem Antwortflächenverfahren unter Anwendung von SLANG. Bauhaus-Universität
Weimar: Eigenverlag, Oktober 1999 – Studienarbeit elektronisch erhältlich unter
http://www.uni-weimar.de/~haefner1/STUDIEN/STDSH1.pdf
[11] Häfner, S.: Verbesserung der Antwortflächenverfahren durch Einführung einer
adaptiven Richtungssuche und Vergleich mit Directional Sampling. Bauhaus-
Universität Weimar: Eigenverlag, Dezember 1999 – Studienarbeit elektronisch
erhältlich unter http://www.uni-weimar.de/~haefner1/STUDIEN/STDSH2.pdf
104
Das Antwort-Flächen-Verfahren
105
Das Antwort-Flächen-Verfahren
106
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
Holger Flederer
GMG Ingenieurpartnerschaft, Dresden
1 Einführung
1.1 Ausgangssituation
Im aktuellen Baugeschehen hat die Verbundbauweise insbesondere im Brückenbau beacht-
liche Bedeutung erlangt [1]. Große Spannweiten, geringes Eigengewicht, hoher Vor-
fertigungsgrad und vorteilhafte Bauverfahren ermöglichen oft wirtschaftliche Lösungen.
Die Verbundbauweise anzuwenden bedeutet, über die Vorteile verschiedener Baustoffe bei
der Gestaltung tragender Querschnitte zu verfügen. Zwangsläufig erwächst daraus die Not-
wendigkeit, auch die Eigenheiten dieser inhomogenen Querschnitte sowohl rechnerisch als
auch konstruktiv zu beherrschen.
Zu den bekannten Problemfeldern der Berechnung und Anwendung von Trägern, welche
aus Baustahlquerschnitten und über schubsteife Dübel angeschlossene bewehrte Beton-
gurte bestehen, zählen:
• die Abhängigkeit des Verhaltens von Herstellungs- und Bauprozess, Belastung und
Belastungsgeschichte sowie Umweltbedingungen;
• spezielles Querschnittstragverhalten infolge der Kopplung des (im Gebrauchslast-
bereich) elastischen Werkstoffs Stahl mit dem inhomogenen Stahlbetongurt,
welcher zeitlich und physikalisch nichtlineare Eigenschaften einbringt;
• zusätzliche eigene Charakteristik der Kopplungselemente (Kopfbolzendübel,
Perverbondleisten etc.);
107
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
1.2 Problemstellung
Zur Einschätzung der Gebrauchstauglichkeit sind i.d.R. die aus der Tragfähigkeitsermitt-
lung bekannten worst-case bzw. Sichere-Seite-Szenarien ungeeignet. Vielmehr inter-
essieren oft Mittelwerte, das wahrscheinliche Verhalten bzw. realistische Bereiche der
Strukturantwort bei Beanspruchung. Sind beispielsweise Werkstattüberhöhungen für
Verbundträger vorherzubestimmen, macht es wenig Sinn, von extremen Beanspruchungs-
situationen auszugehen. So müssen Entwässerungsgefälle von Parkhausdecks oder
Brückenträgergradienten im normalen Gebrauch funktional sein.
Im Rahmen der praktischen Bautätigkeit ist festzustellen, dass einerseits die Bau-
technologien sowie Herstellungsverfahren für die Bauteile und Baustoffe in Verbindung
mit der Forderung nach Aufwands- und Kostenminimierung am Bau zwangsläufig
zufällige Abweichungen von den geplanten Abmessungen, Geometrien, Festigkeiten etc.
nach sich ziehen, andererseits sind die zur rechnerischen Prognose bzw. Beurteilung
verwendeten Modelle durch Unschärfen gekennzeichnet. Der Problematik realitätsnaher
Berechnungsprognosen bzw. Nachweise kann man sich durch den Einsatz „exakterer“
Detailmodelle ebenso nähern wie durch Gesamtverfahren, welche dem realen Charakter
der Einflussgrößen und deren komplexen Zusammenwirken Rechnung tragen. Folgerichtig
gewinnen Berechnungsergebnisse an Aussagekraft, wenn der bekanntermaßen unscharfe
Charakter vieler Einflussgrößen Berücksichtigung findet. Einigen Aspekten der
Berechnung von Stahlverbundträgern unter dieser Zielstellung sowie der Beschreibung
ausgewählter, für Stahlverbundträger typischer, streuender Einflussgrößen widmet sich der
folgende Aufsatz.
108
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
ermittelt und statistisch ausgewertet werden. Wie in Bild 2 dargestellt, sind in dieser Aus-
wertung Modell- und Messfehler sowie Streuungen enthalten. Die eingetragene
Verteilungsdichtefunktion des relativen Prognosefehlers basiert auf der Annahme einer
Gaußschen Normalverteilung. Der negative Mittelwert (tatsächlich gemessene Durch-
biegungen sind kleiner als die berechneten) deutet auf einen systematischen Fehler hin.
0,025
Modellfehler Messfehler
relative Häufigkeit
0,020
0,015
Bild 2: Abweichung zwischen Berechnungs- und Messwerten der Biegelinie des Hauptträgers
109
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
Da für die berücksichtigten Eigenlasten mit geringen Abweichungen zu rechnen ist, für die
Betonkenngrößen mittlere Testwerte angesetzt wurden und Messfehler bzw. –streuungen
vergleichsweise sehr klein sind (Standardabweichung der Messwerte < 1mm) liegt ein
systematisches Unterschätzen der Steifigkeiten im Rechenmodell nahe. Mögliche
Ursachen bestehen in einer versteifenden Wirkung durch den Schalwagen, einer frühen
Festigkeitsentwicklung und Gewölbeausbildung im jungen Beton sowie nicht erfassten
räumlichen Trageffekten. Die großen Streuungen werden jedoch im wesentlichen durch
zufällig variierende Materialparameter, Geometriewerte, Umgebungsbedingungen und
Modellunschärfen verursacht.
2 Zum Berechnungsverfahren
2.1 Überblick über den Lösungsalgorithmus
Ein realitätsnahes Modell für Stahlverbundträger zur Einschätzung der Zuverlässigkeit
bzgl. definierter Gebrauchstauglichkeitskriterien muss mindestens die Wechselwirkungen
zwischen der im Bild 3 dargestellten Einflussparametern berücksichtigen [3]. Aus den teil-
weise nichtlinearen Abhängigkeiten, den Zeiteigenschaften von Beton sowie aus der kom-
plexen Problemstellung ergibt sich eine vorteilhafte Anwendung einer stochastischen
Simulationsmethode (z.B. der Monte-Carlo-Simulation) für die zuverlässigkeits-
theoretische Bewertung. Folglich besteht der Lösungsalgorithmus aus zwei Komplexen.
110
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
Die Verknüpfung der beiden Lösungskomplexe kann Bild 4 entnommen werden. NSim
kennzeichnet die Gesamtanzahl der durchzuführenden Berechnungsdurchläufe, wobei n
die Einzeldurchläufe von 1 bis NSim zählt (siehe auch Punkt 2.3.3).
EINGABE
der Tragwerks- und Belastungsparameter
Deterministische Stochastische
Größen Größen
Probabilistische Lösung
Deterministische Lösung
Lösung des betrachteten Zeitbereichs
ti = ti + ∆t
JA
ti < tE
AUSGABE
aus Mittelwerten
Probabilist. Direkte Ausgabe
berechnete
Auswertung numerisch erzeugter
quasi-determinist.
(lokal/global) Stichproben
Strukturantwort
111
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
Im Rahmen der hier gezeigten stochastischen Modellierung verwendet man u.a. Grenz-
zustandsgleichungen (GZG) g(X) ≤ 0 (X: Vektor der verwendeten Streugrößen), welche
für die Gebrauchstauglichkeitskriterien eine fiktive Grenze zwischen sicheren bzw.
akzeptablen und unsicheren bzw. inakzeptablen Zuständen markieren. Für die vorliegende
Zielstellung können in Anlehnung an die geforderten Nachweise in der Normung folgende
Grenzzustandsgleichungen aufgestellt werden (die speziellen Streugrößen sind in den GZG
mit ... gekennzeichnet).
• Nachweis der Betondruckspannungen σc
g 1 (X, t ) = 1 γ ⋅ f c ( t ) − σ c ( t ) für t < 28d (2)
g 6 ( X, t ) = f G − f E ( t )
112
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
[N/mm²] µ σ V [%]
Zylinderdruckfestigkeit Beton
Verteilungsdichte
C35/45, log.-normalverteilt
n. EC 2 43,2 4,3 10,0
Union-B. 42,8 2,6 6,1
Streckgrenze Baustahl
S 355 (St 52-3), normalverteilt
t < 40mm 384 30,1 7,8
Streckgrenze Betonstahl 0,7 0,8 0,9 1 1,1 1,2 1,3
log.-normalverteilt fc Union-Brücke fy St 52
S 355 f / µf
BSt 500 S 560 38,6 6,9 fc EC 2 fy BSt 500 S
µ σ V [%]
E-Modul Beton: E c = C ⋅ 9500 ⋅ f c ,cyl
1/ 3
Verteilungsdichte
C normalverteilt
Union-B. 1,0 0,08 8,0
113
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
Weitere unscharfe Abhängigkeiten sind u.a. zwischen der Druckfestigkeit des Betons und
seiner Zug- bzw. Biegezugfestigkeit zu beachten (siehe [6]).
µ σ V
α β [%]
Verteilungsdichte
mit Xϕ / ε(t) = f (Xfcm, XRH, Xho), Streugrößen Kriechzahl / Schwindmaß (nach be-
liebigem Rechenmodell, z.B. CEB/FIP, EC2) als Funktion der Basisvariablen
Betonfestigkeit Xfcm; zeitabhängige Luftfeuchte XRH und wirksame Höhe Xho;
114
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
0,8
0,6 abgeleitete Variations-
Variationskoeffizienten 0,7
0,5 Vε (t) von φ und ε aus Versuchen VFε (t) koeffizienten
0,6
der Modellfehler ( µ F = 1 )
0,4 0,5
0,3 0,4
Vφ (t) 0,3 VFφ (t)
0,2
0,2
0,1
0,1
Zeit log t [d] Zeit log t [d]
0,0 0,0
1 10 100 1000 1 10 100 1000 10000
Bewehrungsverbund
Neben den bisher beurteilten Materialkennwerten sind die wirksamen Zugfestigkeiten und
die Verbundspannungs-Schlupf-Beziehungen der Bewehrungsstähle im Beton zentrale
Größen der Rissentwicklung im Stahlbetongurt. Für die übliche Gleichung
τ c = A ⋅ f cm ⋅ s N τ c : Verbundspannung, s: Schlupf (10)
Geometriedaten
Prinzipiell kann ein vergleichsweise untergeordneter Einfluss der Streuung geometrischer
Abmessungen eingeschätzt werden. Stellvertretend werden an dieser Stelle Kenngrößen für
Blech- und Betongurtdicken sowie die Lage der Bewehrung bezüglich der Gurt-
schwerachse angegeben [5, 9].
µ V
Betonplattendicke, normalverteilt
100 < dP [mm] < 2000 Nennmaß 4,75/d + 0,0025
Stahlblechdicke, normalverteilt
t < 40 mm Nennmaß 0,03
Bewehrungslage, normalverteilt
100 < dP [mm] < 2000 Nennmaß 0,05...0,10
115
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
Im Unterschied zum klassischen Nachweis wird hier die Wahrscheinlichkeit für das Ein-
halten eines Grenzkriteriums anhand einer Grenzzustandsgleichung bewertet. Kann eine
vorgeschriebene Mindestüberlebenswahrscheinlichkeit, d.h. Mindestsicherheit bestimmt
werden, gilt der Nachweis als erbracht. Konventionen für den Nachweis der Tragsicherheit
und Gebrauchstauglichkeit, gestützt auf Versagenswahrscheinlichkeiten, sind z.B. im
Eurocode 0 [10] zu finden. Im Ingenieurbau wird mittlerweile der Sicherheitsindex β als
ein der Überlebenswahrscheinlichkeit äquivalentes operatives Sicherheitsmaß verwendet
(siehe Tabelle 1).
Bezugszeitraum
Lebensdauer 1 Jahr
Grenz- Sicherheits- Versagens- Sicherheits- Versagens-
zustand index β wkt. Pf index β wkt. Pf β = -Φ-1(Pf)
T 3,8 7,23 ⋅10 −5 4,7 1,30 ⋅10 −6 Tabelle 1:
Im Eurocode geforderte
3,0 1,34 ⋅ 10 −3 Sicherheitsindizes u.
G 1,5 6,68 ⋅ 10 −2 Versagenswahrschein-
2,9 1,86 ⋅10 −3
lichkeiten
Für die ins Auge gefassten Grenzzustände der Gebrauchstauglichkeit werden relativ große
Überschreitungswahrscheinlichkeiten toleriert; deshalb sind bereits mit weniger als 50000
Simulationsrechnungen befriedigende Ergebnisse zu erwarten.
Bsp.: PÜ ≤ 6,68 ⋅ 10 −2 lt. EC 0 für Bezugszeit Lebensdauer; daraus ergibt sich z.B. mit
116
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
3 Anwendungsbeispiele
3.1 Durchbiegungen eines Einfeldträgers
Am Beispiel eines einfachen Einfeldträgers mit Eigenlastverbund werden die Aus-
wirkungen der Berücksichtigung der Lastfolge sowie der Reduzierung der Streuung der
Eingangsgrößen demonstriert. Der Träger wird alternativ durch eine ständige Last g1 oder
eine Abfolge zweier Lasten g2 + g3 beansprucht, wobei die Summe der Lastfolge 2+3
gleich der ständigen Last 1 ist.
• System und Belastung
g 1, g 2, g 3
250
2100
45,00 m
Lastfolge g1 von t=10d bis ∞ oder g2 von t=10d bis ∞ und g3 von t=100d bis ∞
• Eingangsgrößen
Deterministische: Abmessungen des Querschnitts und statischen Systems
Stochastische: Lasten, Kriech- u. Schwindmaß, E-Module,
Annahme: alle Größen logarithmisch-normalverteilt,
Fall 1: „volle“ Streuung (V = 10%) , Fall 2: „halbe“ Streuung (V = 5%)
• Ausgewählte Ergebnisse
Häufigkeitsverteilung der Durchbiegungen (Feldmitte)
60
55
v ( t= 10d )
50
normierte relative Häufigkeit
v ( t= 500d )
45
v ( t=3650d )
40
35
30 deterministische deterministische
25
Berechnung Berechnung
γ M u. γ F = 1,0 γ F = 1,35
20
15
10
0
2,5 5,0 7,5 10,0 12,5 15,0 17,5 20,0 22,5 25,0
117
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
v(t= 10d )
140
v ( t = 500d )
normierte relative Häufigkeit
120
v ( t = 3650d )
100
deterministische
80
Berechnung
γ M u. γ F = 1,0
60
40
20
0
2,5 5,0 7,5 10,0 12,5 15,0 17,5 20,0 22,5 25,0
2100
2 x 45,00 m
∆w
118
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
4000
250
[d] wert [kN/m] [kN/m] senkung z
Bl. 400 x 20
14 Eigenlast g1 30 28,6 / 0,05 ∆w = 25
cm Bl. 2000 x 14
Die statistischen Parameter der angegebenen Lasten wurden unter der Annahme bestimmt,
dass sie Normalverteilungen gehorchen und ihr deterministischer Nennwert einem 95%-
Fraktil entspricht. Die Lasten g1 und g2 repräsentieren ständige Lasten mit geringen
Streuungen; die veränderliche Last g3 weist einen entsprechend größeren Variations-
koeffizienten auf.
• Eingangsgrößen
Deterministische: Abmessungen des Querschnitts und statischen Systems
Stochastische: Lasten, Festigkeiten, E-Module, Luftfeuchte, Bewehrungslage,
Modellfehler für Schwinden, Kriechen, Verbundspannungs-Schlupf-
Gesetz, wirksame Biegezugfestigkeit
• Ausgewählte Ergebnisse
1
Stützenquerschnitt fct
0,8
relative Häufigkeit
Betonspannungen
Zeit = 40 d σc,u
0,6
Pf,riss = 0,23 u: untere Randfaser
0,4 o: obere Randfaser
0,45 x fc
0,2
σc,o
0
σ [N/mm²]
-25,0 -20,0 -15,0 -10,0 -5,0 0,0 5,0
0,06
Stahlspannungen t = 40d
0,04 t = 10a
t = 40d
0,03 obere untere
Randfaser Randfaser
0,02
t = 10a
0,01
σ [N/mm²]
0
-160 -120 -80 -40 0 40 80 120 160
4 Schluss
Drei abschließende Bemerkungen sollen den praktischen Nutzen der Berücksichtigung
streuender Größen in der Verbundträgerberechnung zusammengefassen.
• Auf der Basis scharfer Werte kann das Gebrauchsverhalten nur unzureichend wieder-
gegeben werden.
Strenge Vorhersagen von Verformungen, Rissbildern, Eigenfrequenzen usw. sind dement-
sprechend illusorisch. Einhergehend mit immer exakteren Berechnungsmodellen erscheint
daher die Bewertung der errechneten Größen (z.B. durch Wahrscheinlichkeiten) zweck-
mäßig.
• Die probabilistischen Betrachtungen sind nicht als Ersatz für die klassischen
Bemessungsverfahren anzusehen.
Vielmehr können klassisch bemessene Bauwerke auf Zuverlässigkeitsdefizite und unnötig
hohe, d.h. in beiden Fällen unwirtschaftliche Sicherheiten überprüft werden. Außerdem ist
es möglich, für auszuführende Bauwerke „neuralgische Punkte“ zu ermitteln, welche dann
einer aufwendigeren Planung bzw. verschärften (Bau-)Überwachung zu unterziehen sind.
• Kenntnisse über den stochastischen Charakter vieler Berechnungsgrößen können
hilfreich sein, die Äquivalenz zwischen Modellierungsaufwand, Problemstellung und
Eingangsdaten zu wahren.
Die Wahl geeigneter Berechnungsmodelle und -verfahren ist mehr denn je als eine
Ingenieuraufgabe in der Planung herauszustellen. U.a. im Hinblick auf die gezeigten
Streueinflüsse ist demnach von Fall zu Fall abzuwägen, mit welcher Art der Berechnung
sinnvoller Informationsgewinn erzielt werden kann.
120
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
5 Literatur
[1] Kuhlmann, Svensson, Saul, Muess, Ladberg: Ingenieure bauen mit Stahl, Information
über neuzeitliches Bauen, Deutscher Stahlbau-Verband 1996
[2] Körlin, R.: Auswertung und rechnerischer Vergleich an der Unionbrücke Dresden-
Radebeul gemessener, zeitabhängiger Durchbiegungen und Materialdehnungen,
Diplomarbeit TU Dresden, Fakultät Bauingenieurwesen, LS für Stahlbau, 1999
[3] Flederer, H.: Beitrag zur Berechnung von Stahlverbundträgern im Gebrauchszustand
unter Berücksichtigung stochastischer Größen, Schriftenreihe des Instituts für
Tragwerke und Baustoffe der TU Dresden, Heft 20, Dissertation, 2002
[4] Fischer, L.: Sicherheitskonzept für neue Normen – Teil 3: Statistische Auswertung von
Stichproben im eindimensionalen Fall; Bautechnik 76 – Heft 2 1999, S. 167-176,
Verlag Ernst & Sohn
[5] Spaethe, G.: Die Zuverlässigkeit tragender Baukonstruktionen, Springer-Verlag 1992
[6] Heilmann, H.G.: Beziehungen zwischen Zug- und Druckfestigkeit des Betons; Beton 2
(1969), Heft 2, S. 68-70
[7] CEB: Evaluation of the time dependent behaviour of concrete, CEB-Bulletin No 199,
Lausanne 1990
[8] Rohling, Annette: Zum Einfluß des Verbundkriechens auf die Rißbreitenentwicklung
sowie auf die Mitwirkung des Betons auf Zug zwischen den Rissen, TU Braunschweig,
FB Bauingenieur- und Vermessungswesen - Dissertation 1987
[9] Östlund, L.: Estimation of γ-Values. An Application of probabilistic method, in:
Reliability of Concrete Structures; CEB Bullettin d’Information No 202 S.51,
Lausanne, 07/1991
[10] Eurocode 0 (EN 1990): Grundlagen der Tragwerksplanung; Anhang C: Grundlagen
für die Bemessung mit Teilsicherheitsbeiwerten und die Zuverlässigkeitsanalyse;
CEN, Brüssel 02/2000
[11] Sobol, I.M.: Die Monte-Carlo-Methode; VEB Deutscher Verlag der Wissenschaften,
Berlin 1971
121
Zur probabilistischen Beurteilung der Gebrauchstauglichkeit von Verbundträgern
122
Ein Beitrag zur Wind- und Schneelastmodellierung
1 Einleitung
Im folgenden Beitrag werden einige Aspekte vorgestellt, die bei der statistischen Bewer-
tung ausgewählter klimabedingter Einwirkungen Anwendung finden. Die Ausführungen
konzentrieren sich auf Windgeschwindigkeitsmessungen und Grundschneelastordinaten-
werte.
Charakteristika beider Größen sind die beachtlichen Streubreiten langjähriger Stichproben
und die Möglichkeit, dass ein langfristiger (klimatischer) Trend wirkt. Dabei zeichnen sich
insbesondere die Schneelastordinaten an vielen Standorten durch besondere Datenarmut
aus, die eine statistische Bewertung erheblich erschwert.
Eine Grundvoraussetzung, um die für Bauwerksbemessungen erforderlichen Extremwert-
bereiche beschreiben zu können, sind ausreichend lange ununterbrochene Beobachtungs-
zeiträume. Sämtliche Stichprobenelemente müssen nach gleichen Kriterien bestimmt
worden sein, d.h. einer Grundgesamtheit angehören.
2 Grundsätzliches zu Windgeschwindigkeitswerten
2.1 Kurzcharakteristik ausgewählter Windphänomene
Der natürliche Windströmung ist charakterisiert durch eine Abfolge komplexer, zufälliger
und korrelierter Prozesse, die in Bezug auf Bauwerkseinwirkung und -interaktion ein sehr
umfangreiches Fachgebiet darstellen (einen einführenden Überblick bietet [13]). Beson-
derheiten im Leistungsspektrum des fluktuierenden Windes lassen sich über die Spektral-
dichtefunktion darstellen (VAN DER HOVEN 1957). Zwischen zwei Maxima bei etwa 4
Tagen (= typische Durchzugsperiode größerer Tiefdruckgebiete) und 1 Minute ist die spek-
123
Ein Beitrag zur Wind- und Schneelastmodellierung
trale Lücke angeordnet, sie trennt innerhalb des Windlastprozesses den makro- vom mik-
rometeorologischen Bereich (=Turbulenz).
Als Windböe bezeichnet man das 2...5 s – Mittel der Windgeschwindigkeit. Europaweit hat
sich das 10-min-Mittel weitestgehend als normative Referenzgröße durchgesetzt (Anemo-
metermessung 10 m über dem Boden in Geländekategorie II). Nach Untersuchungen zur
Starkwindstruktur von SCHROERS/LÖSSLEIN/ZILCH [18] lässt sich der mittlere Böenfaktor
G im ebenem, offenen Gelände darstellen durch:
G (t ,10 min, z ) = t 0,00035 z e −0, 002 z (1,58 − 0,096 ln (t )) (1)
Nach Glg. (1) würde man 10 m über dem Boden für die 3s-Böe einen Erhöhungsfaktor von
1,45 erhalten. Diese Umrechnung ist als mittlerer Zusammenhang zu interpretieren – Ein-
zelwerte können durchaus abweichen.
Das Windklima Deutschlands ist vor allem durch folgende Großwetter-Phänomene ge-
prägt:
• Außertropische Zyklone (resp. Tiefdruckfrontensystem), in besonders starker Aus-
prägung als „Sturmtief“ bezeichnet
• Gewitterstürme mit konvektiven Ursachen, man unterscheidet Wärmegewitter und
Frontengewitter
• Schwerkraftwind (typischer Vertreter: Föhn) an der Leeseite von Gebirgszügen
124
Ein Beitrag zur Wind- und Schneelastmodellierung
35
1. Quartal 2. Quartal 3. Quartal 4. Quartal
30
25
20
[m/s]
15
10
0
Jan Apr Jul Okt
Abb. 2 : Typischer Jahresgang der Tagesmaxima (Station Helgoland) für das Jahr 1971
Gewitter entstehen vor allem durch starke Konvektion auf lokal begrenztem Raum. Die
auftretenden Starkwinde (Geschwindigkeiten über 10 m/s) sind von kurzer Dauer, der Bö-
enfaktor kann jedoch außerordentlich hoch ausfallen (Werte von 1,55...1,65).
Schwerkraftwinde sind eine durch die Geländetopografie bedingte lokale Wettererschei-
nung (Fallwind auf der Leeseite von Gebirgszügen) mit meist relativ konstanter Windge-
schwindigkeit. Föhnerscheinungen verbunden mit typischen Wolkenbildern (an der
Vorderseite eines Tiefdruckgebietes) zählen beispielsweise zu den sichersten Hilfsmitteln
kurzfristiger lokaler Wetterprognosen.
Auf der Basis mittlerer Windgeschwindigkeiten können Richtungsabhängigkeiten des lo-
kalen Windklimas identifiziert werden (empirische Windrosen). Eine direkte Verwendung
solcher Abhängigkeiten im bemessungswirksamen Starkwindbereich ist ohne detaillierte
Kenntnis lokaler Windklimate nicht angebracht.
125
Ein Beitrag zur Wind- und Schneelastmodellierung
b)
Führt man Sicherheitsnachweise nach Level-2- und 3-Methoden werden konkrete Vertei-
lungsansätze für Extremwindgeschwindigkeiten benötigt, wobei Verteilungstyp und
Streuungsparameter das Berechnungsergebnis außerordentlich beeinflussen können.
Für Momentanwerte der Windgeschwindigkeit eignet sich die PARETO-Verteilung (GPD),
siehe KASPERSKI [10], HECKERT/SIMIU/WHALEN [7], CHENG/YEUNG [2]. Ohne Darstellung
weiterer Ableitungen kann man die großen Windgeschwindigkeiten w oberhalb eines be-
stimmten Schwellenwertes (üblicherweise 10...15 m/s) als Realisierungen eines POISON-
Prozesses auffassen. Dessen Amplitudenverteilung wiederum genüge einer verallgemeiner-
ten Extremwertverteilung GEV(w) mit 3 freien Parametern k, a, b (siehe Glg.2).
⎡ ⎛ k (w − a ) ⎞ −1 / k ⎤
GEV (w) = exp ⎢− ⎜1 + ⎟ ⎥ (2)
⎢⎣ ⎝ b ⎠ ⎥⎦
126
Ein Beitrag zur Wind- und Schneelastmodellierung
127
Ein Beitrag zur Wind- und Schneelastmodellierung
6
E(w i -u|w > u )
CME-Schätzer des GPD-Neigungsparameters k
k 0,975 = -0,15
4
k 0,50 = -0,20
u... Schwellenwerte
3 u0 = µ W k 0,025 = -0,26
2
0 2 4 6 8 10
u-u0 [m/s]
Aus Abb.4 folgt unter Berücksichtigung der Feststellungen zu Glg.(2) der Ansatz einer
Reversed-WEIBULL-Verteilung. Abb. 5 zeigt den gemeinsamen Eintrag der empirischen
Verteilung des Datensatzes und der drei möglichen Extremwertverteilungstypen im
GUMBEL-Papier (auch als PARETO-Plot bezeichnet).
-Ln(-Ln(F(w)))
7
Ex_max_III:
6 95% - Konfidenzintervall aus
numerischer Gumbel
Stichprobenreproduktion
5
Ex_max_II
4
2
25 30 35 40 w [m/s] 45
Abb. 5 : PARETO-Plot der Extremwertverteilungstypen I, II, III der Größtwerte und empiri-
sche Verteilungsfunktion der Stichprobe der Wochenextremwerte der Station
Helgoland
128
Ein Beitrag zur Wind- und Schneelastmodellierung
Berechnung kritischer
Realistische Abschätzung der Windgeschwindigkeit,
Montagedauer (konservative An- quasistatischer Fall Böenreaktionsfaktor z.B. nach
nahme) DIN 1055-4, Anhang C.3 oder
Windgutachten
Nach realistischer Einschätzung der Dauer kritischer Bauphasen und der Berücksichtigung
möglicher Schadensfolgen wird man sich hinsichtlich Lastreduktion entscheiden:
• Statistische Abminderung des normativen (charakteristischen) Windlastwertes bei
Akzeptanz des Rest-Überschreitungsrisikos – diese Variante ist bei untergeordneten
Bauwerken mit geringen Schadensfolgen durchaus vertretbar.
129
Ein Beitrag zur Wind- und Schneelastmodellierung
• Abminderung der Normlast wie vor unter der Bedingung, dass die Konstruktion im
Notfall gesichert werden kann (Beachte das Aufwand-Nutzen-Verhältnis!)
Derartige temporäre Sicherungskonstruktionen müssen kurzfristig (d.h. innerhalb weniger
Stunden) und ohne aufwändige Hilfsmittel auf der Baustelle montierbar sein. Darüber hin-
aus ist tragwerksspezifisch zu klären, ob Böenspitzen oder Geschwindigkeitsmittel bemes-
sungsrelevant für die Montagestatik werden (lokale Stabilitätsprobleme).
Nach Meinung des Verfassers sind statistische Abminderungen unbedenklich, sofern stär-
kende / schützende Maßnahmen den o.g. Forderungen entsprechen (sie können allerdings –
wie im Großbehälterbau – recht kostenintensiv werden).
Als Orientierung sind in Abb. 6 auf Geschwindigkeitsbasis die Verhältnisse zwischen 50-
Jahreswert und kürzeren Wiederkehrperioden im Vergleich zur zulässigen Abminderung
nach E DIN 1055-4 [4] (die Norm verwendet den 2-Jahreswert) für eine Reihe deutscher
Messstationen dargestellt (eigene Untersuchungsergebnisse). Für Bauzustände von Brü-
ckenbauwerken ist nach Teil 8 [6] der künftigen Norm die Abminderung auf etwa 0,9*vref
nach unten begrenzt.
0,80
Streuband der
2-Jahreswerte
v q/v 50
0,70
E DIN 1055-4, 2 JW, verstärkende Maßn.
0,60
0,40
Die Grafik macht deutlich, dass Präventivmaßnahmen so auszulegen sind, dass mit ihnen
die Konstruktion mindestens den gleichen Widerstand gegenüber Windbeanspruchung
erhält wie nach Norm ohne Sicherungsvorkehrungen gefordert wird.
130
Ein Beitrag zur Wind- und Schneelastmodellierung
3 Grundschneelasten am Boden
Während die langjährig gültige DIN 1055-5 (6.75) [3] Regelschneelasten auf Dächern de-
finierte, bezieht sich sk (50-Jahreswert) nach E DIN 1055-5 [5] auf die Grundschneelast am
Boden. Die in der Realität ausgesprochen klimaabhängigen Akkumulations- und Ablati-
onsprozesse der Schneedeckenlage auf Dächern ist u.a. von Parametern wie Dachform, -
neigung, Oberflächen- und Lufttemperatur sowie lokalen Windverhältnissen (Wirbelbil-
dungen etc.) abhängig. Gerade die Schneesackbildung ist bei zahlreichen Projekten ein
wichtiges Thema (z.B. Anbau einer Produktionshalle an ein niedrigeres bestehendes Ge-
bäude). Da unmöglich alle Einflüsse mit vernünftigem Aufwand berücksichtigt werden
können, rechnet man mit Umlagerungsfaktoren (µi*Ce*Ct) Grenzwerte für äquivalente
Dachschneelasten aus. Für diese Beiwerte existieren in der Fachliteratur auch statistische
Anhaltswerte. Für weiterführende Spezialgebiete, wie das außerordentliche Wasserspei-
chervermögen größerer Schneedecken (in der Natur eine positive Eigenschaft, bei Bau-
werken aber lasterhöhend) wird auf die Fachliteratur verwiesen (O’ROURKE [16]).
3
2 Streubreite
2
1
1 - - - Theorie - - - Theorie
hs [m] hs [m]
0.25 0.5 0.75 1 1.25 1.5 0.25 0.5 0.75 1 1.25 1.5
Aus dem Produkt von hS und der Zufallsgröße ρm (= Lineartransformation von ρm) resul-
tiert eine sehr fehleranfällige Abschätzung hoher Lastwerte S0. Ursache dafür ist die mit
steigendem hS überproportional wachsende Varianz von S0 (Abb. 7b) gegenüber der sich
unterproportional verringernden Streubreite von ρm (Abb. 7a). Bei Wasseräquivalenten
gibt es diese Schwierigkeit nicht, jedoch erfassen hier die Messwertreihen höchstens die
letzten 30...50 Jahre (d.h. die teilweise über 100 Jahre zurückreichenden Schneehöhenmes-
131
Ein Beitrag zur Wind- und Schneelastmodellierung
sungen sind bei größerem Genauigkeitsanspruch nicht geeignet – jedoch sehr nützlich bei
der Bewertung seltener Extremereignisse, siehe folgendes Kapitel).
3.2 Modellierungsmöglichkeit
Die Schneedeckenlage im Tiefland und unteren Bergland ist innerhalb des Winters durch
einzelne getrennte Perioden gekennzeichnet, dazwischen liegen längere Lastpausen (Abb.
8). Die (für bautechnische Belange relevanten) maximalen Amplituden des Wasseräquiva-
lentes der einzelnen Zyklen sind dann statistisch unabhängig voneinander.
20 hs [cm]
15
10
Idealisiert man diesen realen Lastverlauf durch einen diskreten Zufallsprozess, ist die mitt-
lere Wahrscheinlichkeit q für Lasteinwirkung bestimmt durch das Verhältnis zwischen
Tagen mit Schnee und dem Gesamtbeobachtungszeitraum.
FS(s) q
0 s
132
Ein Beitrag zur Wind- und Schneelastmodellierung
hS [cm]
60
50
40
30
20
10
Lagen solche Ereignisse in der Nähe oder sogar über dem Normwert (= mittlerer 50-
Jahreswert), folgte eine Fachdiskussion über Konsequenzen für die Normung (z.B. Winter
1979/80 und 80/81). Das Auftreten solcher extremen Schneelagen im Tiefland ist an spe-
zielle, außerordentlich seltene Wetterlagen gekoppelt. Konsultiert man an dieser Stelle sehr
langjährige Schneehöhenmessungen ist zu erkennen, dass die statistische Wiederkehrperi-
ode dieser Extreme offenbar außerordentlich hoch (> 50 Jahre) ist und nur „zufällig“ ein
solcher Wert gerade in den Beobachtungszeitraum von 30 Jahren fiel.
133
Ein Beitrag zur Wind- und Schneelastmodellierung
Die Schneelastzonenkarte der neuen DIN (Abb. 11) sei abschließend dargestellt.
Abb. 11 : Schneelastzonen nach E DIN 1055-5 [5] ohne Detailkarte für Süddeutschland
⎡ ⎛H ⎞ ⎤
2
Die neuen Grundwerte sk liegen im Vergleich zur alten DIN meist deutlich höher. Dies
relativiert sich infolge notwendiger Umrechnung auf Dachschneelasten. Für ein flaches
Kaltdach ohne weitere Besonderheiten erhält man an vielen Standorten ungefähr den glei-
chen Belastungswert wie vorher. Die neue Norm bietet jedoch durch den Umrechnungs-
prozess einige wesentliche Möglichkeiten zur besseren Differenzierung der
Schneelastannahmen an Gebäuden und ist ein deutlicher Fortschritt gegenüber dem alten
Konzept.
134
Ein Beitrag zur Wind- und Schneelastmodellierung
(a) Änderung bodennaher Lufttemperatur der nördli- (b) Streuung der Prognosen für 1990-2100 auf Basis
chen Hemisphäre 1860 – 2002 nach [8] bezogen unterschiedlicher Modellanalysen nach [8]
auf das Niveau 1961-90
Weniger eindeutig (weil viel schwieriger zu treffen) sind äquivalente Angaben über die
Zunahme bestimmter Wettersysteme, deren Auswirkungen die Belastungssituation von
Bauwerken beeinflussen. Die Sturmaktivität in Europa lässt sich anhand von Messungen
nur bis etwa 1950 lückenlos zurückverfolgen. Zwei spezielle Bewertungskriterien für
Trendanalysen werden im folgenden gezeigt:
• Sturmhäufigkeit innerhalb eines Jahres (Abb. 13)
• Intensität der Sturmtiefs (Abb. 14)
135
Ein Beitrag zur Wind- und Schneelastmodellierung
Abb. 13 : Anzahl Tage im Jahr mit Böenspitze ≥ 8 Bft (....m/s) in Bremerhaven nach
LEFEBVRE [12] im Zeitraum 1950-1998
Erstaunlicherweise zeigt die Sturmhäufigkeit ein Maximum in den 50iger Jahren und keine
Zunahme nach 1990. Eine gegensätzliche Entwicklung zeigt die Zahl starker Sturmtiefs
(meteorologisches Kriterium sind Kerndrücke ≤ 950 hPa). Mit den in der Grafik noch feh-
lenden Extremereignissen 1999-2002 setzt sich hier ein Positivtrend fort (Abb. 14).
Abb. 14 : Jährliche Anzahl Tiefdruckgebiete über dem Nordatlantik mit Kerndruck ≤ 950
hPa nach LEFEBVRE [12] im Zeitraum 1956-1998
Bei der Interpretation derartiger Statistiken gibt es aktuell noch keine Einigkeit innerhalb
der Fachwelt, da man einerseits wie gezeigt teilweise gegensätzliche Entwicklungen fest-
136
Ein Beitrag zur Wind- und Schneelastmodellierung
stellt und andererseits das Zeitfenster der Messungen deutlich zu klein ist, um kurzperiodi-
sche „Schwingungen“ im Windklimasystem von längerfristigen Entwicklungen zu trennen.
Im IPCC-Bericht werden für das europäische Windklima folgende Entwicklungen prog-
nostiziert:
• Zunahme großer Sturmtiefs im Winter, abnehmende Zahl schwacher Zyklonen
• Vermehrte Sturmaktivität mit Starkwind über dem Atlantik und Westeuropa
Die für bautechnische Belange maßgebenden Absolutwerte höchster Windgeschwindigkei-
ten könnten bei Eintreffen dieser Vorhersage mittelfristig leicht ansteigen. Als Konsequenz
müssten dann die regionalen Verteilungsmodelle der Windspitzengeschwindigkeiten modi-
fiziert und möglicherweise normative charakteristische Werte nach oben korrigiert werden
(erste Vorschläge hierzu gibt es von KASPERSKI [10]).
Aus analogen Überlegungen zur klimatischen Abhängigkeit von mittleren Schneehöhen
könnte man folgern, dass diese mit steigenden Jahresmitteltemperaturen in unseren Breiten
tendenziell abnehmen würden. Die in Kapitel 3.2 am Beispiel erläuterte charakteristische
Stichprobeninhomogenität der Grundschneelast verbietet jedoch geradezu einen „leichtfer-
tigen“ Umgang mit dieser Größe. Zum Erreichen einer bemessungsrelevanten Dachschnee-
last bedarf es vor allem einer ungünstigen Kombination von Starkschneefall und dabei
herrschenden Windverhältnissen – derartige Konstellationen sind auch in einem „milden
mitteleuropäischen Winter“ jederzeit möglich.
5 Literatur
[1] Alfred-Wegener-Institut für Polar- und Meeresforschung: Zweijahresbericht
1998/1999, veröffentlicht unter www.awi-bremerhaven.de, 2000
[2] Cheng E., Yeung C.: Generalized extreme gust wind speeds distributions, Journal of
Wind Engineering and Industrial Aerodynamics 90 (2002) 1657-1669
[3] DIN 1055-5: Schneelast und Eislast für Bauten (6.75) A1 (4.94)
[4] E DIN 1055-4: Einwirkungen auf Tragwerke - Teil 4: Windlasten (Entwurf 2001)
[5] E DIN 1055-5: Lastannahmen für Bauten, Verkehrslasten – Teil 5: Schnee- und Eis-
last (Entwurf März 2001)
[6] E DIN 1055-8: Einwirkungen auf Tragwerke – Teil 8: Einwirkungen während der
Bauausführung (Entwurf September 2000)
[7] Heckert N.A., Simiu E., Whalen T.: Estimates of hurricane wind speeds by “peaks
over threshold” method, Journ. Of Struct. Engineering, April 1998, S.445 – 449
[8] IPCC 2001: Climate Change 2001: The Scientific Basis, Cambridge and New York
2001, veröffentlicht unter www.grida.no/climate/ipcc_tar/wg1/index.htm, 2003
[9] JCSS: Probabilistic Model Code, Part 2 (2001) – Load Models, veröffentlicht unter
www.jcss.ethz.ch
[10] Kasperski M.: Festlegung und Normung von Entwurfswindlasten, Januar 2000, Hab.
Ruhr-Uni Bochum
137
Ein Beitrag zur Wind- und Schneelastmodellierung
[11] Kasperski, M.: A new wind zone map of Germany, Jounal of Wind Engineering and
Industrial Aerodynamics 90 (2002) 1271-1287
[12] Lefebvre Ch.: Häufigkeit von Stürmen im Nordatlantik, Deutscher Wetterdienst, Ab-
teilung Klima und Umwelt, veröffentlicht unter www.dwd.de/de/FundE/Klima/KLIS-
/prod/spezial/sturm/index.htm
[13] Mehlhorn G.: Der Ingenieurbau, Band 8 – Tragwerkszuverlässigkeit und Einwirkun-
gen, Abschnitt Windlasten, S. 165 – 242, Abschnitt Schneelasten S. 293-304, Verlag
Ernst & Sohn, Berlin, 1997
[14] Otstavnov V.: “Elaboration of draft map for snow loads in russia”, Research Report
16-13-135/96, CNIISK, Moskau, 1996
[15] O’Rourke M., Auren M.: Snow loads on gable roofs, Journ. Of Struct. Engineering,
Dezember 1997, S.1645 – 1651
[16] O’Rourke M., Downey C.: Rain-on-snow surcharche for roof design, Journ. Of Struct.
Engineering, Januar 2001, S.74 – 79
[17] Plathe E.J.: „Statistik und angewandte Wahrscheinlichkeitslehre für Bauingenieure“,
Verlag Ernst & Sohn, Berlin 1993
[18] Schroers H., Lösslein H., Zilch K.: Untersuchung der Windstruktur bei Starkwind und
Sturm, Meteorologische Rundschau 42, 202-212 (Oktober 1990)
[19] Soukhov, D.: The Probability Distribution Function for Snow Load in Germany, Leip-
zig Annual civil Engineering Report, No. 3, Leipzig 1998
[20] Spaethe G.: Die Sicherheit tragender Baukonstruktionen, 2.Aufl., Springer-Verlag,
Berlin 1992
138
Fraktilwert von Rissbreiten
Lars Eckfeldt
Institut für Massivbau, Technische Universität Dresden
1 Einleitung
Die Sicherstellung einer bestimmten Rissbreite nimmt innerhalb der
Gebrauchstauglichkeitsnachweise eine Schlüsselstellung ein. Zu große Rissbreiten erhöhen
die Gefahr der fortgesetzten Stahlschädigung durch Korrosion, sind ein Eingangstor für
progressive Schädigungen der Betondeckung, beeinträchtigen die Oberflächenqualität des
Bauteils und behindern die Möglichkeit der Rissheilung bei zeitweisem Wasserdurchfluss.
Bei Biegesystemen wird zusätzlich in der Regel die Gesamtdehnung erhöht und es besteht
die Möglichkeit, dass die Randverformung der Druckzone in den Bereich progressiver
Kriech-Verformungen hineinwächst. Damit ist eine möglichst präzise Vorhersage der
Rissentwicklung und der Verbundsituation in der Nachbarschaft eines Rissufers essentiell
für die Beschreibung von Gebrauchszuständen.
139
Fraktilwert von Rissbreiten
Bekanntermaßen werden die Mindestbewehrungsgrade der DIN 1045-1 (7.01) als relativ
gering im Vergleich mit den europäischen und internationalen Mitbewerbern angesehen.
Performance bedeutet also, wie materialeffektiv oder intensiv eine bestimmte Zielrissbreite
erreicht werden kann und welche Überschreitungen bzw. Modellungenauigkeiten
zugelassen werden, ohne das Ziel einer definierten Lebensdauer zu verlassen.
Entscheidende Hilfsmittel zur Einschätzung der Performance ist der Vergleich der
Überschreitungswahrscheinlichkeiten und der durch das Berechnungsziel einer
Grenzrissbreite wlim, wk, wmax abbildbaren Fraktilwerte. Im Mittelpunkt der Fragestellung
wird also stehen müssen, welche (Teil-)Sicherheit gegen das Eintreten übergroßer
Rissbreiten besteht. Da die Rissbreiten bis zu einem gewissen Grad auch einen
halbzufälligen Charakter haben, insbesondere bei Einzelrissbreiten und Rissabstände
betreffend, ist neben dem Verständnis für die Verbundmechanismen eine statistische
Bewertung unumgänglich.
Exakt zu dem vorliegenden Konzept sind statistische Bewertungen noch rar oder aber aus
anderen Zusammenhängen, zum Teil auch streitbar, erzeugt worden, so dass eine
umfassendere Bewertung aussteht. Die vorliegende Veröffentlichung möchte dem Konzept
ein statistisches Gesicht geben, um dem in der Regel noch distanzierten Nutzer der DIN
1045-1 (7.01) die Möglichkeit der eigenen Bewertung und Sensibilisierung für die
Anwendbarkeit des Rechenmodells zu eröffnen.
140
Fraktilwert von Rissbreiten
Verhindern große Verformungen vor den Rippen ein Einstellen dieser Teilkompatibilität,
ist eine, bis auf eine kleine Verformungsdifferenz ∆(εs -εc) aus der dem Geometrie-
potential entsprechenden lokalen Reaktion, nahezu ungehinderte Stahldehnung möglich. In
diesem Bereich ist die Verbundsteifigkeit gering und der Verbund wird dort als sog.
„weicher“ Verbund bezeichnet. Bis auf lokale Spannungspitzen ist über weite Teile dieses
Bereiches die Verbundspannung konstant, bis der von Rippe zu Rippe konstante
Stahldehnungsabbau ∆(εs -εc) in größerem Abstand von der Trennrissöffnung weg die
Einstellung eines starren Verbundes mit weiterem Verbundspannungsabbau ermöglicht.
Der Ausbruchkegel an der Rissfront dagegen haftet in der Regel dem Stahl an und ist
zumindest formal ein Bereich „starren“ Verbundes. Trotzdem ist der Riss zwischen dem
anschließenden Verbundbereich und Ausbruchkegel so klein, dass eine theoretische
Möglichkeit der Zugspannungsübertragung unter Gebrauchslasten aufzeigbar ist, eine
Mitwirkung dieses Bereiches bei der Aufnahme von Zugkräften also nicht ohne weiters
ausgeschlossen werden darf. Abb. 3 zeigt die grundlegenden Zusammenhänge bei der
Mitwirkung des Betons zwischen zwei Rissen anhand des Bereiches bzw. Abstandes
zwischen zwei Einzelrissen. In der mittleren Zone kann sich theoretisch ein sekundärer
Riss ausbilden, wenn die aus der Mitwirkung auf Zug resultierende Betonzugspannung σct
die lokale Zugfestigkeit fct,eff(x) an dieser Stelle erreicht.
Die Verbundsituation ist damit abhängig von lokalen Entwicklungen und Verteilungen der
Betonfestigkeit auch hinsichtlich Zeit, Dauerbeanspruchung und Exposition zur Umwelt.
Insofern kann eine, auf eine bestimmte Betonfestigkeit fixierte Berechnung an langen
141
Fraktilwert von Rissbreiten
Cone
Outbreak
In der Regel ist der Aufbau eines räumlichen Systems von Tepfers-Zugringen sehr
aufwendig und nur begrenzt automatisierbar, da sehr viele, zum Teil noch nicht restlos
erforschte Parameter zu berücksichtigen sind (z.B. die Stützwinkel α vor den Rippen oder
das lokale Materialverhalten unter hohen Spannungen).
Oft wird daher versucht, diesen Aufwand durch die Auswertung von vermeintlich
signifikanten Reaktionen wie Verbundspannung und Schlupf aus Versuchen an
Testkörpern zu minimieren. Dabei werden diese Ergebnisse auf reale Verbundsituationen
übertragen.
Die behelfsmäßige Erfassung der Verbundsituationen mit Ergebnissen aus Versuchen an
kurzen Verbundlängen (mit Hilfe sog. Pull-Out-Körper), lb ~ 2 Øs, insbesondere die
Orientierung an so ermittelten Verbundspannungs – Schlupf - Beziehungen der Form:
142
Fraktilwert von Rissbreiten
τ = fb = C ⋅ sn Gleichung 1
Fs Gleichung 2
τ = fb = = const., (lb und s sind variabel)
π ⋅∅ s ⋅ lb
Das plastische Materialverhalten des Betons und das, durch die geometrischen Grenzen
eingeschränkte Verbundpotential der Betondeckung werden dabei besser widergespiegelt.
Dies gilt insbesondere für Verbundbereiche, die weich sind und im abgeschlossenen
Rissbildliegen oder lange Verbundlängen bei Einzelrissbildung in Verbindung mit großen
Betondeckungen. Die Gleichung 1 eignet sich dagegen besonders für die Beschreibung von
No-high-bond Situationen und Bereiche, in denen die Ausbildung diskreter, durch kleine
Verbundrisse getrennter Teilabschnitte nicht sehr wahrscheinlich ist (z.B. bei der
Übertragung von Spannkräften in die Betondeckung bei Vorspannung im Verbund unter
der Verwendung von Spannlitzen und bei der Übertragung von Druckspannungen).
Die nachfolgenden Abbildungen zeigen, dass ein präziser Aufbau einer miteinander durch
Zugspannungsübertragung korrespondierenden Zugringkette möglich ist. Der Aufbau
gelingt für die Einzelrissbildung als auch abgeschlossene Rissbildung und kann helfen,
Lösungen eines Verbundproblems langer Verbundlängen (lb > 5 Øs) herbeizuführen. Dabei
können sowohl Eigenschaften eines entfestigenden Betons zwischen Stahl und äußerem
elastischem Zugring berücksichtigt werden, als auch Zugkriecheffekte und das Absinken
der Betonzugfestigkeit unter Dauerlast. Dauerlast ist letztendlich zumindest durch eine
kontinuierliche Schwindverkürzung bei Bauteilen mit Kontakt zur Umgebungsluft
meistens vorhanden.
143
Fraktilwert von Rissbreiten
Bei sehr langen Verbundlängen wird die geometrische Abhängigkeit noch etwas deutlicher
sichtbar, denn über längere Bereiche ist kaum eine Veränderung der Verbundspannung
möglich. Mangels eingeschränkter Dehnungsverträglichkeit an der Stahloberfläche kann
sich hier die Stahldehnung nur über eine konstante Differenz ∆(εs -εc) von Rippe zu Rippe
abbauen, was auch über weite Strecken zu einem linearen Stahldehnungsabfall führt.
Eine höhere Belastung eines lokalen Ringes würde unweigerlich zu dessen Versagen durch
Überschreitung der letztmöglichen Gleichgewichtslage innerhalb des Zugrings zwischen
Belastung und tangentialem Verformungswiderstand gegen die Dehnung führen. Mit dieser
Annahme lässt sich systematisch die theoretische z-Komponente der Länge der
Verbundrisse in die Betondeckung hinein auffinden. Radiale Risse, am Stab beginnend,
schieben diese Gleichgewichtslage immer weiter vom Bewehrungsstab weg. Längsrisse in
der Betondeckung, die bis zur Oberfläche durchlaufen, sind die unweigerliche Folge der
Überschreitung von fb,max. Natürlich wird unter Dauerstandsbelastung die genannte Grenze
für fb,max abgesenkt, da die Größe der Zugringe praktisch aus der Erstbelastung
„eingefroren“ ist. Passt man jedoch auch für Kurzzeitbelastung die Grenze an geringere
obere Grenzwerte an, verlängert sich automatisch die Übertragungslänge für die
145
Fraktilwert von Rissbreiten
Verankerung einer Rissschnittgröße. Dies darf jedoch einer Beliebigkeit in der Anwendung
dieses Zusammenhanges nicht Tür und Tor öffnen, denn zumindest der Mittelwert der
Verbundspannung fbm sollte über die Länge zwischen Riss und Einleitungspunkt bzw.
zwischen zwei Rissen wie folgt eintreten, wenn man die mögliche Verteilung der
Betonzugfestigkeit zwischen fct, 0.05 und fct,0.95 berücksichtigt:
Unter Erhöhung der Stahlspannung auf Werte 200 N/mm² oberhalb der Rissschnittgröße
verändert sich diese Verbundspannungsentwicklung wie folgt:
146
Fraktilwert von Rissbreiten
die Annahme der Zone des Ausbruchkegels und der Zone des starren Verbundes
manipuliert werden, um ein bestimmten, auch in der Realität so eintretenden Effekt der
Spannungsumlagerung zum Verankerungspunkt hin abbilden zu können. Auch bei höheren
Betonfestigkeiten als der mittleren Zugfestigkeit fctm ist eine Einzelrissbildung unter
Nutzung aller internen Umlagerungsmöglichkeiten nur bis zum 1,3 .. (1,5) fachen der
mittleren Rissschnittgröße Fcr zu erwarten, oberhalb wird mit Sicherheit eine
abgeschlossene Rissbildung eintreten.
Die auf die mittlere Betonzugfestigkeit fctm abgestimmte Rissschnittgröße ist also zur
Beurteilung von Risszuständen notwendigerweise zu ermitteln und lässt sich wie folgt
entwickeln:
Beim Aufbau der Rissschnittgröße wird sichtbar, dass nicht nur die Rissspannung σct = fct
aufgebaut wird, sondern auch die dazu notwendige Dehnung erzeugt werden muss. Der
kontinuierliche Aufbau dieser Komponente ist Abb. 3 zu entnehmen.
Die in Gleichung 4 definierte Rissschnittgröße ist für den normalen Verbundfall bereits
eine obere Abschätzung, da die Einzelrissbildung oft an einer lokalen Fehlstelle beginnen
wird. Diese korrespondiert eher mit einem lokal geringeren Wert der Betonzugfestigkeit
fct(x; x → Position entlang der Stabachse) korrespondiert.
Es ist nicht auszuschließen, dass es über die Rissschnittgröße hinaus zu einer fortgesetzten
Lasteinleitung in das Verbundsystem kommt. Dies erfolgt in der Regel durch eine weitere
Aktivierung der Stahldehnung im Riss, wogegen in den angrenzenden Bereichen die
Dehnung im Beton natürlich behindert wird. Im einfachsten Fall ist eine externe Belastung
dafür notwendig, die auch eine Vergleichsmöglichkeit mit Fcr beinhaltet. Jedoch auch
Eigenspannungen oder aufgezwungene Verformungen können zur Steigerung der
Stahldehnung im Riss führen.
Ein Beispiel dafür ist der Spannungszuwachs im Bewehrungsstahl infolge Schwinden des
oberflächennahen Betons bei Exposition zur Umwelt:
σs Gleichung 5
σ s+cs (t ) = + ε cs (t ) ⋅ Es
Es
Ähnlich verhält es sich auch mit dem Einfluss einer Dauerlast auf ein Biegebauteil.
147
Fraktilwert von Rissbreiten
Diese Eigenspannungen sind also in der Lage, eine abgeschlossene Rissbildung auch ohne
zusätzliche externe Belastung zu erzeugen, wenn ausreichend Zeit zur Verfügung steht.
Es hält sich entsprechend Abb. 10 hartnäckig die Auffassung das Kriechen bzw. eine
Dauerbelastung grundsätzlich zu einer Rissöffnungsvergrößerung führt. Insbesondere für
Zugglieder ist dies jedoch nicht ohne weiteres richtig. Der Dehnungszuwachs des Betons
infolge Zugkriechen kann insbesondere für einen erst entstehenden Riss eine verkleinerte
Rissbreite zur Folge haben. Allerdings wird durch die Absenkung der Rissschnittgröße
nach Abb. 6 auch ein Riss wahrscheinlicher. Dies ist insbesondere der Grund, weshalb für
die meisten Bauteile der Nachweis einer Mindestbewehrung für eine definierte
Erstrissschnittgröße gefordert wird, da man davon ausgehen kann, dass ein Riss in der
Regel unter Berücksichtigung des Dauerlasteinflusses eintreten wird. Letztendlich bewirkt
das Einlegen von Bewehrungsstahl an sich bereits genug Verformungsbehinderung in der
Betonzugzone für eine wahrscheinliche Rissbildung infolge behinderte Eigenspannungen
in Ac(t),eff, auch ohne externe Belastung.
mit
Das Auftreten des sekundären Risses zwischen zwei Einzelrissen entlastet das
Verbundsystem und halbiert damit die Risslänge. Die Folge ist eine feinere Rissverteilung.
Ist die abzusichernde Schnittgröße bekannt und daraus Rissbildung zu erwarten, sollte
daher das Bemessungsziel immer die Erzwingung einer abgeschlossenen Rissbildung sein.
Abgeschlossene Rissbildung erzwingt eine Veränderung der Dehnungsbeziehungen
entlang der Verbundlänge, da zumindest einseitig ein neuer Gleichgewichtspunkt der
148
Fraktilwert von Rissbreiten
εs = f(x) εs = f(x)
εct = fct(x)/Ec=f(x)
εc = f(x) εc = f(x)
xi xi+2 xi+4 xi+6 xi+7 xi+8
lt,i+3 Position X
lt,i lt,i+4
lt,i8
sr,i sr,i+8
149
Fraktilwert von Rissbreiten
Die Verteilung der Zugfestigkeit entlang der Achse des Bewehrungsstahls ist also von
erheblicher Bedeutung für den Rissort. Nach der Bildung der zweiten Rissserie (Teilungen
der Einzelrissabstände) ist der Aufbau einer weiteren Rissschnittgröße zwischen zwei
Rissen unter statischen Lasten nahezu undenkbar, auch wenn lokale Umlagerungen zum
Gleichgewichtspunkt hin (also dem lokalen Minimum der Stahldehnungsfunktion) bei
dauernder Belastung zwischen zwei Rissen auch eine Steigerung der Zugbelastung des
Betons fördern können.
Nur unter spezifischen Schädigungen des Betons eines Zuggliedes unter
Ermüdungsbelastung ist zumindest theoretisch eine so hohe Auflösung des Betongefüges
(also eine Absenkung der Zugfestigkeit) denkbar, dass eine neue Rissspannung im
Verbundbereich aufgebaut werden könnte. Andererseits ist jedoch auch hier der
Verbundmechanismus in der Nähe der Stahloberfläche und vor den Rippen zumindest bei
normalfesten Betonen noch viel stärker geschädigt, so dass der Abfall der
150
Fraktilwert von Rissbreiten
a) b)
auf Basis vorhandener oder vorgegebener Dehnwerte von Druck- und Zugzone kann
ebenfalls befriedigende und schnell verfügbare Ergebnisse bei der Rückrechnung von
Verformungen ergeben. Man verabschiedet sich dann aber vom einfachen Bernoulli-
Ansatz für die Schnittebene an der Rissposition für den Zustand II, wenn der
Steifigkeitsunterschied zum „nackten“ Bewehrungsstahl in einem einfachen
Berechnungssystem nicht beachtet wird. Damit unterliegt man hinsichtlich der zu
erwartenden Druckzonenhöhe der Verpflichtung, fortlaufend deren Plausibilität
nachzuweisen.
152
Fraktilwert von Rissbreiten
genannte Effekt des fast vollständig „starren Verbundes“ über große Teile der
Verbundlänge ist typisch für kleine Rissbreiten (wsurface < 0,1..0,15 mm), festgestellt an
der Bauteiloberfläche. In jedem Fall ist auch dies ein Grund für große Streuungen von
Versuchs- gegenüber Rechenwerten bei kleinen Rissbreiten. Bei großen Stahldehnungen
sind große Bereiche starren Verbundes weitgehend ausgeschlossen, da
Dehnungsverträglichkeit bei so hohen Stahldehnungen auch mit größeren Verbundrissen
nicht herzustellen ist.
wcal,th − ws Gleichung 7
wsurface = + ws
(c − z ) 2
1−
c2
mit
Die sich aus einer Rückrechnung mit einer Oberflächenrissbreite ergebenden sehr kleinen
Risse an der Stahloberfläche sind so unter anderem auch in Edvardsen [3] veröffentlicht
und in der Praxis nachgewiesen worden.
Gemeinsam an der Berechnung aller möglichen Risssorte ist, dass die so zu ermittelnde,
auf ein bestimmtes Niveau bezogene Rissbreite jeweils durch die Integration über die
Differenzenfunktion bestimmt wird.
Dabei sind die Grenzen des bestimmten Integrals die Positionen xi-1, xi+2 der links und
rechts von einer Rissposition xi liegenden lokalen Minima der Stahldehnungsfunktion. Die
Gesamtlänge des verformten Systems ist mit dem bestimmten Integral über die
Stahldehnungsfunktion εs(x) vom Anfangs- zum Endpunkt des Systems zu finden. Ein
Bezug zur Bauteiloberfläche ist herzustellen. Werden bei Rückrechnungen die Dehnungen
auf der Bauteiloberseite abgenommen ist bei Biegesystemen unter Umständen noch eine
Dehnungskorrektur zwischen der Ebene des Stahls und der für die Oberflächenrissbreite
wichtigen Randfaser vorzunehmen.
(h − x II ) Gleichung 9
⋅ ε s ( x) = ε boundary fibre ( x)
(d − x II )
mit x II - Druckzonenhöhe im Zustand II
Da die Modelle zur Berücksichtigung der Mitwirkung des Betons aber oft an unbereinigten
„verschmierten“ Dehnungsmessungen an der Zugseite von Biegebalken kalibriert worden
sind, ist dieser Effekt, zumindest für die Bemessungsprobleme des üblichen Hochbaus,
wahrscheinlich bereits in den Normansätzen enthalten.
153
Fraktilwert von Rissbreiten
Mit diesen Überlegungen und dem Bezug zu (Abb. 11, Abb. 12) lässt sich folgende
grundlegende Beziehung für die Ermittlung der Rissbreite in einem bestimmten
Verbundbereich wie folgt aufbauen:
xi+1
Gleichung 10
wxi = ∫ ⎡⎣ εs ( x ) - εct ( x ) ⎤⎦ dx
xi-1
154
Fraktilwert von Rissbreiten
Funktionsparameter
t Zeitpunkt der Untersuchung
∆t Dauer einer Lasteinwirkung σ s,perm
nk Lastwechselzahl mit schädigungsäquivalenten Schwingspiel 2σ sA ; σ sm
( y, z ) Koordinaten in der virtuellen Rissfront/-uferebene
Der Ursprung des rechtshändigen Koordinatensystems liegt auf der
Stahlposition. Es gilt:
-s / 2 ≤ y ≤ s / 2, s ist der Abstand zum benachbarten Stab
− m ⋅ d1 ≤ z ≤ d1 , bezogen auf die effektive Betonzugzone A c,eff
∆ε c2 (t oder n) Verformungsänderung der Betondruckzone bei Biegesystemen
Insofern wird deutlich, dass eine Fülle von Parametern die lokale Entwicklung der
Rissbreite w bestimmt, die jedoch kaum detailliert in einem Bemessungsmodell
zusammengefasst werden können.
In den verfügbaren Normenvorschlägen muss also zwangsläufig eine gewisse
Beschränkung auf die wichtigsten Einflüsse erfolgen, andere Einflüsse werden mit einer
pauschalen Annahme in der Dehnungsdifferenz für das grós üblicher Bemessungsfälle
abgetan.
155
Fraktilwert von Rissbreiten
Gebrauchseinwirkungen nicht schon nachgewiesen werden das 1,3 · Fcr erreicht wird, ist
zumindest im Langzeitkontext für übliche Bemessungsfälle davon auszugehen, dass auch
aus einer Einzelrisssituation ein abgeschlossenes Rissbild entstehen kann.
Für die Fälle, unter denen unter äußeren Lasten das Erreichen der Rissschnittgröße nicht
gesichert ist, muss auch im Hinblick auf Betoneigenspannungen davon ausgegangen
werden, dass irgendwo die Bildung eines Erstrisses stattfinden wird, wobei in „worst-
case-scenarios“ oft davon ausgegangen wird, dass es zu einer abgeschlossenen
Rissbildung zumeist nicht kommt.
Um schnelle Berechnungen führen zu können, wird das Grundgesetz Gleichung 10
deutlich vereinfacht. Die Differenzenfunktion wird durch einen Vergleich der Mittelwerte
von Stahl- und Betondehnung abgebildet und mit einem Wirkungsbereich, also einer
vorbestimmten Länge multipliziert. Für die Betondehnung wird dabei eine Annahme für
die Dehnung an der Bauteiloberfläche getroffen.
Für Einzelrissbildung ergibt sich deshalb allgemein:
Benötigt wird also der Bereich (Wirkungs- oder Verankerungsbereich), der von zwei
Seiten notwendig ist, um über die Verbundspannung die Belastung in den Beton
einzutragen.
Die Rissbreitenberechnung hier, wird in der Regel durch die Anforderungen an die
Mindestbewehrung ersetzt. Insofern steht die abgeschlossene Rissbildung im Focus, die für
extern belastete Stahlbetonteile auch das Bemessungsziel sein sollte.
Aus Abb. 12, Abb. 14 wird erkennbar, dass der Ort der lokalen Minima der
Dehnungsfunktionen nicht die Mitte zwischen zwei Rissen treffen muss. Im Mittel über
alle Rissabstände im Bereich der Rissbildung wird aber der Abstand zwischen zwei
Rissabstandsmitten den Wirkungsbereich markieren. Aufgrund der Einfachheit und der
Gleichheit des Wertes kann als Wirkungsbereich auch der einfache mittlere Rissabstand
sr,m/2 + sr,m/2 = sr,m angenommen werden.
So ergibt sich für abgeschlossene Rissbildung:
wm = srm ⋅ (ε sm − ε cm ) Gleichung 12
f ctm,d (t ) Gleichung 13
σ s − kt (σ s ; t ) ⋅ (1 + (α e − 1) ⋅ eff ρ )
σ s − kt (σ s ; t ) ⋅ σ s,cr eff ρ
(ε sm − ε cm ) = =
Es Es
156
Fraktilwert von Rissbreiten
wk = sr,k ⋅ (ε sm − ε cm ) Gleichung 14
oder
wmax = sr,max ⋅ (ε sm* − ε cm* )
mit (ε sm* − ε cm* ) ≤ (ε sm − ε cm )
Modelle haben also die Aufgabe, je nach Zielgröße wlim und zugelassener
Überschreitungshäufigkeit einen oberen Fraktilwert der Rissseite oder ein (nahezu)
absolutes Maximum treffsicher zu erzeugen.
Es ist klar, dass ein sehr großer Rissabstand sr,k oder sr,max einen Übergang zur
Einzelrissbildung markieren kann und damit leicht aufzufinden ist. Es ist bekannt; dass der
Rissabstand bei Einzelrissbildung jedoch einen stark zufälligen Charakter hat und damit
auch unsignifikant groß werden kann. Daher ist davon auszugehen, dass gegenüber der, auf
ein Verankerungspotential abgesetzten Berechnung mit einem begrenzten Wert sr,k und
(ε sm − ε cm ) für einen beliebigen Rissabstand sr,max die vorzugebende Dehnungsdifferenz
unter Umständen zu senken ist.(siehe auch rechte Seite von Abb. 11).
Zwischen einem wk,95% -Wert einer mittleren Rissbreite und dem auffindbaren maximalen
Wert einer Rissbreite im Bauteil wird üblicherweise ein Unterschied wmax / wk,95% = 1,2
gesehen. Nach eigenen Errfahrungen mit vorhandenen Datensätzen ist wmax mit wmax /
wk,95% = 0,8 .. 1,28 aufzufinden unter Annahme von Zielrissbreiten wlim =0,2 mm; 0,3 mm.
Mit den genannten Faktoren kann für die Nutzung in Gleichung 14 folgender
Zusammenhang ergänzt werden.
157
Fraktilwert von Rissbreiten
Auf der anderen Seite kann man auch phänomenologisch vorgehen und erkennen dass sich
bei der Veränderung von der Einzelrissbildung zur abgeschlossenen Rissbildung, der neue
Riss sich zwischen zwei Einzelrissen bildet.
158
Fraktilwert von Rissbreiten
Damit lässt sich ein oberer Grenzwert für Rissabstände der Einzelrissbildung, in denen
noch an jedem Ort x eine Dehnungsdifferenz vorhanden ist, bilden.
Noch größere Abstände von Einzelrissen sind definitiv möglich, jedoch ist dann über
größere Abschnitte keine Dehnungsdifferenz zwischen Stahl und Beton vorhanden, so dass
eine Anpassung des Rechenmodells durch Absenkung von der mittleren
Dehnungsdifferenz unter das übliche Maß nach Gleichung 13 erfolgen muss.
3.3 Aktuelle Modelle des MC 90, der DIN 1045-1 und prEN 1992-1-1
(stage 49) im Vergleich ihres formalen Aufbaus
Der folgende Vergleich wird für sog. High-Bond-Bars, also gerippte Bewehrungsstähle
geführt.
Mittelwerte der Rissbreite wm eines Bauteils lassen sich wie folgt ermitteln:
MC 90 f ct,eff
σ s − kt ⋅ ⋅ [1 + α e ⋅ eff ρ ]
(DIN 1045-1): ∅s eff ρ
wm = ⋅ Gleichung 18
4,5 ⋅ eff ρ Es
(Biegung, Zug)
mit kt = 0,6 (short-time loading)
kt = 0,4 (long-time loading)
f ct,eff
σ s − kt ⋅ ⋅ [1 + α e ⋅ eff ρ ]
⎛ ∅s ⎞ eff ρ
⇒ = ⎜ 2c + ⎟⋅ Gleichung 19
⎝ 10 ⋅ eff ρ ⎠ Es
f ct,eff
σ s − kt ⋅ ⋅ [1 + α e ⋅ eff ρ ]
⎛ ∅s ⎞ eff ρ
⇒ = ⎜ 2c + ⎟⋅ Gleichung 20
⎝ 5 ⋅ eff ρ ⎠ Es
159
Fraktilwert von Rissbreiten
Das additive Glied 2c stellt in den prEN 1992-1-1 Vorschlägen die fehlende Mitwirkung
eines Ausbruchkegels an der Verbundwirkung des Betons dar, der bis zur Betondeckung
unter ~ 45° durchdringt. (Abb. 19) Im MC 90, DIN 1045-1 wird angenommen, dass diese
Zone wenn auch vermindert mitwirkt. Zu dem wird der Ausbreitungswinkel zur
Oberfläche laufend größer, so dass ein Abzugswert 2c überzogen zu sein scheint.
Detaillierte Verbundrechnungen und Praxiserfahrungen bestätigen das (siehe Abb. 7)
Der charakteristische Wert der Rissbreite wk wird nach DIN-1045-1, MC 90 über einen
großen Wert des Rissabstandes im abgeschlossenen Rissbild hergestellt. Für diesen gibt es
zwei Interpretationsmöglichkeiten.
Steuerungselement ist eine reduzierte Verbundspannung über einen an sich mittleren
Rissabstand, da in der Regel ein kleiner und ein großer Rissabstand aufeinander folgen (im
Mittel srm) und einen Riss erzeugen.
Entsprechend dem oben Berichtetem zu den zu einem Riss links- und rechts dazu
gehörigen Wirkungsbereichen für eine Rissbreite, könnte man sich aber auch vorstellen,
dass zwei große Risse aneinander stoßen. Der Einzelrissabstand wird dabei jeweils im
Verhältnis 1,25 ⋅ srm zu 0,75 ⋅ srm geteilt. Das entstehende Rissbild wird mit der mittleren
Verbundspannung belastet.
Formal ist sr,max ein hoher charakteristischer Wert (sr,k) von Rissabständen eines
abgeschlossenen Rissbildes. Bezieht man die an den Enden eines Rissbildes oft vereinzelt
stehende Einzelrisse ein (z.B. bei einem Balken), lässt sich mit der genannten Formel nicht
mehr als ein 75 - 80 % Fraktil aller Rissbreiten abbilden.
Die Formel für diesen Zusammenhang ist nach DIN 1045-1 und mit einer von
f b,mean 2, 25 f ct,eff E
= reduzierten Verbundspannung (jedoch α e = s → ersetzt mit (α e − 1) :
f b,min 1,8 f ct ,eff Ect
160
Fraktilwert von Rissbreiten
f ct,eff
σ s − kt ⋅ ⋅ ⎡1 + (α e − 1) ⋅ eff ρ ⎤⎦
eff ρ ⎣
⇒ = 1, 25 ⋅ srm ⋅ Gleichung 21
Es
Lt. ModelCode 1990 [4] soll sich mit diesem Modell ein 75%-Fraktilwert der Rissbreite
abbilden lassen. Der prEN 1992-1-1 kennt für diese Formel keine Entsprechung.
Rissbildung in ausschließlich zugbelasteten Stahlbetonbauteilen tritt oft durch Zwang oder
zumindest relativ langsam ein. In diesen Fällen scheint es ratsam, die verlängerte
Einleitungslänge unter Dauerlasteinfluss zu berücksichtigen (siehe Abb. 7). Damit wird
Gleichung 21 wie folgt verändert und findet ein fast identisches Ergebnis w wie der prEN
1992-1-1 (stage 49) Ansatz für Biegebauteile, insbesondere im Übergang zur
Einzelrissbreite:
Improved f ct,eff
σ s − kt ⋅ ⋅ ⎡1 + (α e − 1) ⋅ eff ρ ⎤⎦
MC 90, ∅s eff ρ ⎣
w(max) = 1, 2 ⋅ ⋅ Gleichung 22
3, 6 ⋅ eff ρ Es
DIN 1045-1:
(Zug- Zwang)
Zur Sicherung gegen einen hohen Maximalwert, kann der in Gleichung 17 gezeigte
Zusammenhang genutzt werden. Man nimmt also an, dass der gesamte Bereich zweier
nebeneinander liegender Einzelrissabstände durch Dehnungsunterschiede zwischen Stahl-
und Beton gekennzeichnet ist. Als ein notwendiges jedoch nicht hinreichendes Kriterium
für das mögliches Eintreffen dieses Risszustandes wird die feststelung der Gültigkeit der
folgenden Beziehung gehalten:
Fs < 1,3 Fcr
Der Ansatz für zentrische Zugglieder nach prEN 1992-1-1, allerdings unabhängig von der
Größe der eingetragenen Kraft, führt zu einem ähnlich hohem Wert für w im Verhältnis zu
zu einem Ausgangspunkt wm.
161
Fraktilwert von Rissbreiten
Der in Heft 400 [20] beschriebene, ähnlich lautende Ansatz hatte den Anspruch mit 90%
Sicherheit zu gewährleisten, dass kein wk,95%- Wert diese Grenze überschreitet.
Zu beachten ist, dass für alle Ansätze korrekterweise folgende Ersetzung erfolgen müsste:
E
α e = s → (α e − 1) . Alle nachfolgenden Vergleiche sind unter Veränderung dieser
Ect (t )
Ungenauigkeit geführt worden.
Für folgende Kombination in Tabelle 1 sind mangels exakter Literaturangaben oder
erheblicher Zweifel zu prüfen:
a) Welcher Fraktilwert durch den jeweils bezeichneten charakteristischen bzw.
Rechenwert der Rissbreite abgebildet wurde?
b) Gegen welche Überschreitung, welcher Ansatz mit seinem jeweiligen
Sicherheitsfeature sichert?
c) Welche Folgerungen für die Anwendung des DIN 1045-1 Ansatzes bei der
Rissbreitenbeschränkung sich aus diesen Einschätzungen ergeben?
Zusammengefasst werden folgende Ansätze in geprüft:
162
Fraktilwert von Rissbreiten
163
Fraktilwert von Rissbreiten
Die Aussagen zu den abgesicherten Fraktilwerten sind also mit geeigneten Datenbanken zu
überprüfen.
164
Fraktilwert von Rissbreiten
In der Fehling Datenbank sind Biegbauteile und Zugglieder hälftig durchmischt, für den
Corres- Peiretti - Datensatz sind dazu keine Angaben vorhanden. Alle Daten wurden den
Diagrammen der Veröffentlichungen entnommen.
Abb. 21 Angeordnet sind die Datensätze beginnend mit der Mittelwert wcal,m/ wm,exp-
Kombination oben links um die Auswirkung der Verbesserung der Modellperformance
entsprechend Tabelle 1 auf die Datenwolke erkennen zu können
Die Abbildung eines berechneten Zielwertes gegen den Mittelwert eines Experimentes in
wcal w
der Form = lim = δ entspricht praktisch der Abbildung einer Modellsicherheit.
wm,exp wm,exp
Besonders für den Berechnungsansatz 1, Tabelle 1, also das gültige Modell nach DIN
1045-1 scheint sich auf den ersten Blick keine gute Performance zu ergeben. Nur die
Modellansätze 3, Tabelle 1, für die Sicherung gegen Maxima scheinen auch in der Lage zu
sein, das Problem mit kleinen Rissbreiten zu lösen - allerdings mit offenbar zuviel
Sicherheit bei Rissbreiten wlim ≥ 0,2 mm.
Die Gesmatheit der Werte δ lässt sich dann statistisch bewerten und es ist abzuleiten,
gegen welchen Fraktilwert einer mittleren Rissbreite welcher Berechnungswert bzw.
welches Sicherungselement sichert. Das Ergebnis enthält nachfolgende Tabelle:
165
Fraktilwert von Rissbreiten
DIN 1045-1
1,32 75,15 1,31 79,62
(Tabelle 1, Z.1)
0,47 0,37
DIN 1045-1 x 1,2
1,58 89,26 1,57 93,68
(Tabelle 1, Z.2)
Zielwerte wlim sind in Abhängigkeit von der geforderten Anforderungsklassen nach Tabelle
18, 19 der DIN 1045-1 zu wählen.
Untersucht:
0,05..0,15 mm 0,15..0,25 mm 0,25..0,35 mm
wcal,model
Tabelle 3 Berechnungsklassen
Die Klassenuntersuchung beruht also auf aufsteigend sortierten Werten der berechneten
Rissbreite wcal,model je nach gewählten Model, also inklusive Teilsicherheit entsprechend
Zeile 1-3, Tabelle 1. Demzufolge wird je nach Modell und Klassenkombination ein
unterschiedlicher Datensatz von Mittelwert-Kombinationen q = wcal,m/wmexp angesprochen.
Das ist auch an den zugehörigen Standardabweichungen σ(q) sichtbar. Das Ergebnis
166
Fraktilwert von Rissbreiten
Abb. 22 Fraktilwerte der Berechnungsmodelle für eine Zielrissbreite bei vollem Lastniveau
(z.B. bei Rissbildung ausschließlich infolge Zwängungen)
σ(q) Fehling/ σ(q) Corres DIN 1045-1 DIN 1045-1 x 1,2 DIN 1045-1 x 1,8
(Tabelle 1, Z.1) (Tabelle 1, Z.2) (Tabelle 1, Z.3)
q = wcal,m/wm,exp
Die Ergebnisse der bisherigen Prüfungen zeigen, dass sich mit dem Modell nach DIN
1045-1 bereits akzeptable Ergebnisse für Zielrissbreiten 0,2 mm und 0,3 mm erreichen
lassen. Allerdings geht man in der Bewertung der Modelle immer noch davon aus, dass
sich die Lastgröße aus dem Experiment so auch in der Realität wieder findet. Dies ist aber
nur bei Zwangsproblemen der Fall, wo man für die Berechnung der Mindestbewehrung
davon ausgeht, dass eine bestimmte, beispielsweise Erstschnittgröße definitiv eintritt.
Bewertet man direkte Einwirkungen wie externe Lasten, hat man die Situation, dass man
mit einer Lastkombination des Grenzzustandes der Gebrauchstauglichkeit rechnet, die
einer Kombination der Eigenlast Gk mit der veränderlichen Einwirkung Qk entspricht.
167
Fraktilwert von Rissbreiten
Jedoch nur Gk ist ein Mittelwert und streut nur in geringen Grenzen (Auf 1 bezogenes
Streumaß: < 0,1..0,15). Damit lässt sich Gk gut mit der Datensatz-Auswertung in
Verbindung bringen. Die veränderliche Last Qk dagegen stellt einen 98% Fraktil dar und
streut mit σq,r = σq/Qk von 0,2 .. 0,5. Mit einem Kombinationsfaktor ψ wird besonders bei
der quasi-ständigen Einwirkungskombination bereits etwas von der Schärfe des Ansatzes
einer vollen 98% - Fraktils einer veränderlichen Einwirkung Q genommen. Offenbar ist
jedoch zwischen den Modellen und der Belastungsrealität mehr Sicherheit vorhanden, als
es der Bezug auf das volle Lastniveau widerspiegelt. Eine Nachrechnung zum Nachweis
dieses Umstandes darf jedoch nicht mit einem zusätzlichen, pauschalisierten
Sicherheitsfaktor erfolgen, sondern muss den zufälligen Charakter des Lasteintritts
widerspiegeln.
Damit für alle Modelle die gleichen Ausgangsbedingungen herrschen, wurde in einer
Simulation die experimentell ermittelten mittleren Rissbreiten mit einem zufällig erzeugten
Multiplikator randomisiert. Dieser Multiplikator Xcal kann wie folgt erzeugt werden:
Es wird eine typische Zusammensetzung von Eigen- und veränderlichen Lasten sowie
deren Streuung σ E,r als relativen Bezug zu 1 vorgewählt, da aus den Datensätzen die
zugehörigen Lastgrößen oder Stahlspannungen nicht bekannt sind.
Schritt 1: Berechnungsvorgaben
-Vorgabe der Lastanteile mit dem Bildungsgesetz
rGk + rQk = 1, unter der Annahme:
Gk − Mittelwert (50%-Fraktil)
Qk − 98% − Fraktil
⎛ "System" ⎞ ⎛ Footbridge ⎞ ⎛ Railwaybridge ⎞ ⎛ Roadbridge ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ rg ⎟⇒⎜ 0,5 ⎟;⎜ 0, 6 ⎟;⎜ 0, 7 ⎟
⎜ r ⎟ ⎜ 0,5 ⎟ ⎜ 0, 4 ⎟ ⎜ 0,3 ⎟ Gleichung 28
⎝ q ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠
mit rg,q - relative Anteile an der Gesamtlast 1
- Vorgabe des relativen Streubereiches σ g,q,r
σ g,r → 0, 05..0,15
σ q,r → 0, 20..0,50
- Vorgabe des Kombinationsfaktors der veränderlichen Last ψ
für die relevante Kombination im Grenzzustand der Gebrauchstauglichkeit
168
Fraktilwert von Rissbreiten
ψ
Zufällige relative Last = rGk ⋅ xσg + ⋅ rQk ⋅ xσq Gleichung 30
(1 + 2, 05 ⋅σ )
g
ψ
rGk ⋅ xσg + ⋅ rQk ⋅ xσq
X cal =
(1 + 2, 05 ⋅σ )g
Gleichung 31
rGk + rQk ⋅ψ
169
Fraktilwert von Rissbreiten
Abb. 24 Realistische Modellperformance bei Berechnungen mit dem DIN 1045-1 Modell
(Lastkombinationssystem "Railway Bridge": Gk ist 60% ; Qk ist 40% der Volllast; [rg + rq = 0,6 + 0,4 = 1];
Last variiert in folgenden Grenzen [ σg,r;σq,r ] = [±0,1; ±0,3])
(Lastkombinationssystem "Foot Bridge": Gk ist 50% ; Qk ist 50% der Volllast; [rg + rq = 0,5 + 0,5 = 1];
Last variiert in folgenden Grenzen [ σg,r;σq,r ] = [±0,1; ±0,5])
Tabelle 5 Übliche Grenzen, ab denen Füllen der Risse notwendig wird (nach [25])
Daher sind für die Beurteilung der Sicherheit der drei Modelle auch folgende Punkte
wichtig:
170
Fraktilwert von Rissbreiten
Die zugehörige Untersuchung kann mit zwei Methoden geführt werden. Man kann
einerseits akzeptieren, dass es für die hohen Abweichungen in einer Datenklasse wenig
systematische Gründe gibt. D.h., wenn in einer Klasse wk,cal = 0,05..0,15 mm
beispielsweise ein Wertepaar wk,cal;wm, exp (0,11;0,19) auftritt, akzeptiert man ein hohes
Zufallsmoment und hält alle Werte wm,exp in dieser Klasse als Absolutwerte auch für die
Kombination ausschließlich mit wk,cal = wlim = 0,1 mm möglich. Mit diesem Ansatz sind
relativ zutreffende und sehr konservative Antworten für die Fragen a) -e) ermittelbar.
Beispielhaft sind die Ergebnisse mit randomisierten mittleren Testrissbreiten für die
„Footbridge“-Kombination aufgetragen. (Abb. 25, Abb. 26 zeigen Ergebnisse dieses
Vorgehens)
Auf der anderen Seite können die Überschreitungen der Berechnungswerte auch ganz
systematisch erfolgen und es kann mithilfe des minimalen Modellsicherheit δmin = qmin · γw
in dieser Klasse ein Bezug zu der Zielrissbreite hergestellt werden. Der Maximalwert wmax
wird also über einen relativen Bezug hergestellt: (siehe auch Abb. 27)
wlim ⎛w ⎞
wmax = ⋅ max ⎜ m,exp ⎟
µ (δ )class,model ⎜w ⎟
⎝ cal,m ⎠ Gleichung 32
wcal,model
mit δ = und µ -Mittelwert der Modellsicherheit einer Klasse
wm,exp
0,400 25
0,350 0,343
0,322 20
0,300
0,276
0,250
15
0,227
0,200 0,205
10
0,150
0,125
0,100
5
0,050
0,000 0
0,100 0,200 0,300
Abb. 25 Performance des DIN 1045-1 Modells zur Berechnung der charakteristischen
Rissbreite unter Ansatz einer 50/50 Lastteilung zwischen charakteristischen Werten der
Eigenlast und veränderlicher Einwirkung (Arbeit mit Absolutwerten w)
171
Fraktilwert von Rissbreiten
0,250 18
16
0,206
0,200 14
0,179
12
0,150
0,159 10
0,119 0,124
8
0,100
0,089
6
0,050 4
0,000 0
0,100 0,200 0,300
Abb. 26 Performance des mit 1,8 multiplizierten Ergebnisses des DIN 1045-1 Modells zur
Sicherung gegen wlim unter Ansatz einer 50/50 Lastteilung zwischen charakteristischen
Werten der Eigenlast und veränderlicher Einwirkung (Arbeit mit Absolutwerten w)
Welche Informationen sind den Diagrammen, z.B. Abb. 25, Abb. 26 zu entnehmen?
- Beispiel:
Aus den Anforderungsklassen ergibt sich die Forderung nach wlim = 0,2 mm, d.h. es wird für
den Rechenwert der Rissbreite wk = 0,2 mm bemessen und die Bewehrung konzipiert. Die
Berechnung bezieht sich auf ein System der Lastkombination, die die als Diagramm-
Bedingung genannten Eigenschaften trägt. Die Kombination entspricht etwa einer quasi-
ständigen Kombination mit einer Haupteinwirkung.
Ist man mit der Performance noch nicht zufrieden, kann man eine Sicherung gegen einen
Wert der Rissbreite wlim = wk · 1,8 = 0,2 mm anstreben. Im Ergebnis ist der 95%-Fraktil der
randomisierten Rissbreiten bei wm,95% = 0,124 mm zu erwarten. Der Maximalwert der
aufgenommenen mittleren Rissbreiten wird diesen Wert mit möglicherweise
wm,max = 0,206 mm übertreffen und damit sogar wlim leicht überschreiten. Die
charakteristische Rissbreite wm,95% wird mehrfach überschritten, was aber aufgrund des
kleinen wmax Wertes unerheblich ist. Verpressungen werden nicht notwendig. Das
Berechnungssystem mit einem um den Faktor 1,8 erhöhten Teilsicherheitsbeiwert schießt für
wlim = 0,2 mm also weit über das Ziel hinaus. Das Ergebnis ist natürlich in der Variante mit
172
Fraktilwert von Rissbreiten
maximalem Teilsicherheitsbeiwert deutlich verbessert, wird aber wegen w/Øs = const. nur mit
einem um den Faktor 1,8 zu verkleinernden Stahldurchmesser Øs und deutlich zu
verringernden Stababstand s erreicht. Selbst hier ist jedoch bei einem hohen Einfluss des
Zufalls noch nicht gesichert, dass wlim unterhalb des Grenz- oder Zielwertes 0,2 mm bleibt.
Abb. 27 Performance des DIN 1045-1 Modells ohne randomisierte Mittelwerte mit einem
aus bezogenen Modellsicherheiten der Klasse erzeugten wmax Wert nach Gleichung 32 und
aus der Gesamtheit der Modellsicherheiten erzeugten Überschreitungshäufigkeiten
Vorher wurde ein Vergleich der absoluten wm,exp Werte einer Klasse mit dem wm,95%-Wert
dieser Klasse durchgeführt. In dem zu Abb. 27 gehörenden Verfahren wird dagegen nach
Überschreitungshäufigkeiten der einzelnen Modellabweichungen gegenüber dem zu wm,95%
gehörenden Modellfehler gesucht. Der wm,95% -Wert ist für beide Verfahren identisch
ermittelt worden.
Es wird deutlich sichtbar, wie die Verarbeitung eines maximalen Modellfehlers einer
Klasse als Relativbezug zu wlim zu einer wesentlich unproblematischeren Erwartungswert
für wmax führt und für die Klassen wlim = 0,2;0,3 mm eine deutliche Absenkung der
Überschreitungshäufigkeiten bringt. Die Verschiebung der Modell-Ungenauigkeiten auf
die Klassenmitte bringt in den Berechnungsklassen 2 und 3 eine Absenkung des
Erwartungswertes für wmax unter das wm,95% -Niveau. Das Verfahren ist formal korrekt, die
Ergebnisse werden aber, da das Zufallsmoment stark ausgeblendet wird, eine eher
optimistische Annahme darstellen.
Für wlim = 0,1 mm wird die Situation nicht verbessert. Das unterstreicht, dass die
Modell(un)sicherheit in dieser Klasse durch stark zufällige Einflüsse geprägt ist.
173
Fraktilwert von Rissbreiten
Nachfolgendes Diagramm zeigt die Auswirkungen einer solchen Absicherung auf die
Ausgangswerte der Abb. 25:
0,342
0,350 12
0,300 0,301
10
0,250
8
0,194
0,200 0,206
0,183
6
0,150
4
0,107
0,100
2
0,050
0,000 0
0,100 0,200 0,300
Targeted wlim by the calculation model [mm]
Es ist zudem davon auszugehen, dass ein bestimmter Anteil der Risse in dieser Klasse
0,1 mm immer Einzelrisse bleiben werden und damit durch das DIN-Modell für
abgeschlossene Rissbildung nur schwer erfasst werden können. Der Berechnungsvorschlag
für Einzelrisse nach Heft 525 [19] wird hier nur unter bestimmten Voraussetzungen
weiterhelfen, da er zu optimistisch sein kann, wenn der Riss bei der angestrebten
Zielrissbreite von 0,1 mm nicht bereits im frühen Betonalter erreicht wurde. Gründe für die
Abweichungen vom Berechnungsmodell enthält u.a. Kapitel 2.3.
174
Fraktilwert von Rissbreiten
Theoretisch besteht natürlich auch hier die Chance, Gleichung 24 zu nutzen, aber der
Mindestbewehrungsgrad wäre für eine Realisierung noch viel zu hoch. Hier hilft nur auf
eine Rissbildung mit Frühzwang zu hoffen und das eingesetzte Material auf dieses Ziel hin
zu optimieren. Nur in diesem Fall darf mit einem um 50% verminderten Wert für fcteff
gerechnet werden. Ein Dehnungsunterschied ist dann mit (εsm - εcm) = 0,4 σs,cr/Es über
einen Wirkungsbereich von sr,cr = srk + srm anzunehmen, da Dauerlasteinflüsse noch fehlen.
die Kriecheigenschaften des jungen Betons helfen zusätzlich die Rissbreite klein zu halten.
Tritt der Riss dann früh ein, muss zumindest für die zu sichernde Rissbreite wlim = 0,1 mm
der Nachweis mit einer berechneten Dehnungsdifferenz (εsm - εcm) ≥ 0,6 σs/Es für sr = srk
zusätzlich geführt werden. Damit besteht auch Sicherheit gegen spätere Zwängungen und
Eigenspannungen unter Annahme voller Zugfestigkeit fct,eff ≥ fctm, 28d entlang des
verbleibenden Rissabstandes srk.
Dieser Nachweis wird dann auch maßgebend gegenüber dem vorhergehenden Ergebnis aus
früher Rissbildung. Prinzipiell ist damit wieder der Berechnungsvorschlag von Heft 525
[19] hergestellt, aber eben nur wenn gesichert wird, dass der Riss ohne Verlust der
Betonqualität !! früh eintreten wird. Gelingt dies nicht, stehen die Verpressarbeiten
unweigerlich auf der Tagesordnung. Das nachfolgende Diagramm verdeutlicht den
Zusammenhang.
Abb. 28 Veränderter Ansatz für die Mindestbewehrung (min eff ρ) nach DIN 1045-1,
11.2.2. Integriert: Mögliche Nutzung des günstigen Einflusses einer frühen
Rissentwicklung
Die Stahlspannung σs ergibt sich aus den Materialbedingungen bei Erstrissbildung und
dem Ziel der Sicherung der Grenzrissbreite automatisch und braucht nicht weiter verfolgt
zu werden. Der „erlaubte“ Bereich der bezogenen Bewehrungsmenge befindet sich o b e r
h a l b der jeweiligen Kurve.
Kommentare zur Behandlung und Evaluierung von Eigenspannungen und Beton in frühem
Betonalter finden sich in [27], [28], [29].
175
Fraktilwert von Rissbreiten
Wird der zeitliche Bezug des wahrscheinlichen Risseintritts geändert und allgemein als
fct,eff = fct(t) eingeführt, lässt sich für eine frühe Rissentwicklung bei:
σs
Früher Zwang (Dehnungsdifferenz mit 0,4 ⋅ angesetzt):
Es
⎛ As+p ⎞ f ct (t )
Mindestbewehrung:min eff ρ = ⎜ ⎟=
⎝ k ⋅ kc ⋅ Act ⎠ 9 ⋅ f ct (t ) ⋅ wk ⋅ Es
∅s ⋅ corfac1 Gleichung 33
mit
⎛ 1, 0 ⇒ allgemein:DIN 1045-1 ⎞
⎜ ⎟
corfac1 → ⎜ 1, 2 ⇒ empfohlen: Zugglieder mit wk = 0,2 mm ⎟
⎜ ≤ 1,8 ⇒ empfohlen: w ≤ 0,15 mm ⎟
⎝ k ⎠
Bei Rissbildung nach t ≥ 28 d ergibt sich abweichend:
σs
Späterer Zwang (Dehnungsdifferenz mit 0,6 ⋅ angesetzt):
Es
⎛ As+p ⎞ f ct (t )
min eff ρ = ⎜ ⎟=
⎝ k ⋅ kc ⋅ Act ⎠ 6 ⋅ f ct (t ) ⋅ wk ⋅ Es
∅s ⋅ corfac 2 Gleichung 34
mit
⎛ 1, 0 ⇒ streng nach DIN 1045-1 ⎞
⎜ ⎟
corfac 2 → ⎜ 1, 2 ⇒ empfohlen: Zugglieder mit wk = 0,2 mm ⎟
⎜ ≤ 1,8 ⇒ empfohlen: w ≤ 0,15 mm ⎟
⎝ k ⎠
Da die Ansätze in Abb. 28 wie auch zur Bestimmung der Stabdurchmessertabelle in DIN
1045-1 ohne Berücksichtigung des Dehnungsaufbaus bei Einzelrissbildung hergeleitet
sind, existiert folgende theoretische Modellabweichung aus der vereinfachten Annahme
der Rissspannungen:
f ct (t ) = f ct,eff
vereinfacht: σ s = ~ σ sR
eff ρ
f (t ) = f ct,eff
exakt: σ sR = ct ⋅ [1 + (α e − 1) ⋅ eff ρ ]
eff ρ
2
⎡⎛ 1 E ⎞⎤
⎢ ⎜⎜ + s − 1⎟ ⎥
⎟
⎢ min, eff ρsimpl.method(Abb.28, DIN 1045-1) Ect(t) ⎠ ⎥
δ = ⎢⎝ ⎥ Gleichung 35
⎛ 1 Es ⎞
⎢ ⎜⎜ + − 1⎟ ⎥
⎢⎣ min, eff ρ E ⎟ ⎥⎦
⎝ exact ct(t) ⎠
176
Fraktilwert von Rissbreiten
Beispielsweise fordern Vorschriften für die Sicherung der Funktionalität des Bauteils oder
Bauwerks im Gebrauchszustand die Einhaltung eines Sicherheitsindexes ß für den
Bezugszeitraum eines Jahres wie folgt:
Sicherheitsklassen
1 2 3
Operative Versagenswahrscheinlichkeiten Pf
Zu beachten ist jedoch, dass mit den gestiegenen Anforderungen an die Dauerhaftigkeit die
Betondeckung c unter ähnlichem Vorsatz der Sicherung einer hohen Lebensdauer
angehoben wurde, insbesondere für zugbeanspruchte Bauteile wie Bodenplatten oder
Wandabschnitte eine sog. „Weißen“ Wanne. Das erschwert gleichzeitig jedoch die
Absicherung der zu erwartenden Risse gegen eine definierte Zielrissbreite. Eine
Korrelation der zutreffenden Grenzzustandsgleichungen zur Sicherung der Funktionalität
über eine vorgegebene Lebensdauer ist also aufgrund dieser Widersprüchlichkeit
wahrscheinlich nur schwer zu erreichen und es wird aus den vorhandenen Angaben nicht
klar, ob eine solche Korrelation mit den durch die Norm gegebenen Angaben und
Modellen auch für wlim ≤ 0,2 mm gezeigt werden kann. Insbesondere für wlim = 0,1 mm
wird auch bei Anwendung des sicheren Vorgehens nach Tabelle 1, Z.3 mit
Nachweisschwierigkeiten gerechnet, die ja durch die Erfahrungen in der Praxis bestätigt
werden (hohe Eintrittswahrscheinlichkeiten von Überschreitungen).
177
Fraktilwert von Rissbreiten
Der berechnete Riss wcal,m kann dagegen einen Mittelwert über den Bereich
≤ 5 ⋅ (c + ∅ s / 2) abbilden. Die lokal und diskret messbaren Rissabstände wloc streuen in
diesem Bereich unter Umständen erheblich. D.h. auch, dass zum Beispiel für ein lokal eng
begrenztes Maximum wmax,loc gelten kann: wmax,loc > wmax,erwartet. Nachfolgendes Bild zeigt
die Streuungen von wloc über die Risslänge.
178
Fraktilwert von Rissbreiten
Abb. 29a) und b) Ausprägung eines Risses in einem auf Biegung belasteten Bohrpfahl, der
die Eigenschaften eines charakteristischen Wertes wk und sr,k für diesen Versuch trägt [5]
Berechenbar ist die mittlere Rissbreite wcal auch über die Auswertung des Verhältnisses der
Fläche der Oberflächen-Rissprojektion zu der festgestellten Risslänge.
179
Fraktilwert von Rissbreiten
l =s
1 A
wcal = wcal , surface = ⋅ ∫ wlocal (l ) dl = w, surface
s l =0 stot
Schritt 1: Erzeugung eines Bildes mit 256 Graustufen und Skalierung; Feststellung des
Flächenäquivalents eines Pixels Aw,pixel (255- weiß)
Schritt 2: Ausschneiden des Risses, Lagerung in einem neuen Bild mit weißem
Hintergrund und Feststellung des durchschnittlichen Farbwertes der ausgeschnittenen
Rissfläche Cvriss; Ermittlung der Gesamtzahl nichtweißer Pixel Np
180
Fraktilwert von Rissbreiten
Schritt 3: Subjektive Festlegung eines oberen Dunkelwertes Cvcor > 0, der die Akzeptanz
eines Pixels als vollen Bestandteil von Aw,surface rechtfertigt, entsprechend den Kontrasten
und Helligkeiten des Fotos. (z.B. 55)
Schritt 4: Ausschneiden der Rissumgebung aus dem Original, Lagerung in einem dritten
Bild mit weißem Hintergrund und Feststellung ihres durchschnittlichen Farbwertes
Cvenviron
Abb. 30 Ergebnisse einer Auswertung einer Serie von Rissfotos mit dem vereinfachten
Verfahren und einer exakten fotogrammetrischen Auswertung im Vergleich
181
Fraktilwert von Rissbreiten
Diesem einfachen Ansatz steht natürlich die Genauigkeit einer genauen Fotogrammetrie
gegenüber, deren Wert vor allem in der geringen Standardabweichung der Messung zu
finden ist. Im vorliegenden Beispiel lag die exakte Auswertung einer Messung an der TU
Dresden von Dipl.- Ing. Uwe Hampel, Fakultät Geodäsie vor, die
Gebrauchstauglichkeitsversuche an Bohrpfählen begleitete. Die hier erzielten
Genauigkeiten übertrafen die Messmöglichkeiten einer Versuchsbegleitung mit 200 mm
langen IWA auf der Zugseite bei weitem.
Bereits Jungwirth [30] hat deshalb auf akzeptable Toleranzen zwischen berechneten
Grenzwerten und maximal feststellbaren Werten der Rissbreite hingewiesen, deren
Grenzen ursprünglich im Zusammenhang mit einer (verbundgefährdenden)
Längsrissbildung standen. Auf die neue DIN 1045-1 umgesetzt, würde sich folgende
Tabelle ergeben:
B, C, D (geringe
0,2 (0,25) 0,24 ... 0,3
Längsrissbildung)
A (Haarrisse, nach
0,10 (0,15) 0,12 ... 0,18
Sondermaßnahmen)
In der Orientierung an der Längsrissbildung bleibt der Bezug zu einem durch das
Rissbreitenmodell beschriebenen Verbundspannungspotential erhalten. Es bleibt zu
beachten, dass jeder Versuch, anstelle von wk ein ähnlich großes wmax als Berechnungsziel
zu formulieren, zu einer Absenkung des Rechenwertes wk führen muss. Dieses dann
notwendige wk würde damit weit unter den zulässigen Werten liegen müssen. Die
Bewehrungsmenge zur Beschränkung der mittleren Rissbreite insbesondere bei
Spannbetonbauteilen würde demnach deutlich erhöht werden. In der Folge sind höhere
Materialkosten, ein weitaus höherer Arbeitswand und Probleme mit der Betonqualität zu
erwarten.
In europäischen Normungsentwürfen ist deshalb bereits folgender Satz als eine Art Opener
den Nachweisen der beschränkung der Rissbreite vorangestellt.
182
Fraktilwert von Rissbreiten
“A limiting calculated crack width, wmax, taking into account of the proposed function and
nature of the structure and the costs of limiting cracking, should be established”. – etwa:
“Eine Grenzrissbreite wmax ist in der Regel zu etablieren, die die angestrebte Funktion und
Natur des Bauwerks sowie die Kosten für die Rissbreitenbeschränkung (auf diese
Rissbreite !- Anm. des Verfassers) berücksichtigt.“
Da also auch die Kosten betrachtet werden sollen, kann also die ökonomisch fragwürdige
Beschränkung der Rissbreite auf ein absolutes Maximum kaum gefordert werden. D.h.
jeder gewählte Wert „wmax“ oder wk wird zwar ein relativ selten erreichter Wert sein, der
aber möglicherweise vereinzelt als überschritten aufgefunden werden wird. Diese
einzelnen Überschreitungen sind für Veränderungen gegenüber einer prognostizierten
Verformung relativ ungefährlich, solange kein Stahlfließen beliebige
Verformungszustände ermöglicht. Weitere Gefahren können durch erleichterte
Stahlkorrosion oder durchfließende Flüssigkeiten entstehen. Für die Gefahr durch
Stahlkorrosion sind aber nicht die Oberflächenrissbreiten, sondern die Rissbreiten an der
Risswurzel sowie die Stahldurchmesser entscheidend. Es gilt dabei, je größer der
Durchmesser, desto geringer die potentielle Gefährdung durch den korrosionsbedingten
Querschnittsverlust.
Hinsichtlich der Gefahren durch durchfließende Wasser ist Folgendes zu bedenken. Die
Durchflussgefährdung durch Wasser besteht nur, solange wie Rissheilung ausgeschlossen
wird. In neuen technischen Regeln für Wasserbauten werden aufgrund der Ergebnisse aus
[31] eine Rissbreitenbegrenzung auf wk,cal = 0,25 mm für ausreichend gehalten, eine
Rissheilung im gegebenen Fall immer noch zuzulassen.
Aufgrund des vorhandenen Wissenstandes kann aber auch insbesondere für die Bauteile
mit großen Biegeverformungen festgestellt werden, dass der Rechenwert der Rissbreite ein
hohes Maß an Modellsicherheit gegenüber der wahrscheinlich eintretenden Rissbreite
bietet.
183
Fraktilwert von Rissbreiten
6 Literatur
[1] prEN 1992-1-1, Eurocode 2: Design of Concrete Structures- Part 1: General Rules
and Rules for Buildings. CEN, November 2002
[4] Bulletin d’information No. 213: CEB-FIP Model Code 1990. Lausanne, 1993
[5] DIN 1045: Beton und Stahlbeton, Bemessung und Ausführung. Ausgabe Juli 1988,
Beuth Bauverlag Berlin, 1989
[6] DIN 1045-1: Tragwerke aus Beton, Stahlbeton und Spannbeton. Teil 1: Bemessung
und Konstruktion. Ausgabe Juli 2001
[7] König, N; Tue, N.: Grundlagen und Bemessungshilfen für die Rissbreitenbeschrän-
kung im Stahlbetonbau und Spannbetonbau. Heft 466 des DAfStb, Beuth-Verlag,
Berlin, 1996
[8] Kordina, K.; Schubert, L.; Troitzsch, U.: Kriechen von Beton unter Zugbean-
spruchung. Heft 498 des DAfStb, Beuth-Verlag, Berlin, 2000
[9] Rots, J. G.: Simulation of Bond and Anchorage: Usefulness of Softening Fracture
Mechanics. From: Applications of Fracture Mechanics to Reinforced Concrete.
Edited by A. Carpintieri, Elsevier Science Publishers, London · New York, 1992
[11] Corres Peiretti, H.: Serviceability Limit State. Supporting Document for Section 7
(Crack control) of EN 1992-1, 2001, not published yet
[12] CEB Bulletin 242: Ductility of Reinforced Concrete Structures. Synthesis Report
and Individual Contributions, Task Group 2.2, Lausanne 1998
[13] Noghabai, K.: Reinforced Concrete Elements under Combined Loading and
Environmental Exposure: Survey on Degradation Processes and Experimental
Study. Research Report, Lulea Tekniska Universitet, 2001
[14] Kordina, K.; Schubert, L.; Troitzsch, U.: Kriechen von Beton unter Zugbean-
spruchung. Heft 498 des DAfStb. Beuth-Verlag, Berlin 2000
184
Fraktilwert von Rissbreiten
[15] Huang, Z.; Engström, B.; Magnusson, J.: Experimental and Analytical Studies of
the Bond Behaviour of Deformed Bars in High Strength Concrete. Fourth
International Symposium at the Utilization of High Strength /High Performance
Concrete, Vol. 3, Laboratories des Ponts et Chausées, Paris, 1996
[19] Curbach, M.; Tue, N.; Eckfeldt, L.; Speck, K.: Beitrag: Zum Nachweis der
Rissbreitenbeschränkung gemäß DIN 1045-1. Aus: Erläuterungen zu DIN 1045-1.
Teil 2. Heft 525 des DAfStb, Beuth Verlag, Berlin 2003, S. 190 ff.
[20] Schießl, P.: Grundlagen der Neuregelung zur Beschränkung der Rissbreite. Heft
400 des DAfStb, Beuth Verlag, Berlin 1989
[22] Eligehausen, R., Popow, E. P. und Bertero, V. V.: Local Bond Stress-Slip Relation-
ships of Deformed Bars under Generalized Excitations, Report No. UCB/EERC-
83/23 Earthquake Engineering Research Center, University of California, Berkeley,
Oktober 1983
[23] Bruggeling, A.S.G.: Übertragen der Vorspannung mittels Verbund, Beton- und
Stahlbetonbau, Heft 3/2001; Verlag Ernst & Sohn, Berlin 2001
[24] Stevens, R.F.: Deflection of reinforced concrete beams. Proceedings, Institution of
Civil Engineers (London), Part 2, Research and Theory, Sept., S. 207-224
[25] DBV-Merkblatt: Füllen von Rissen. Anwendung von Reaktionsharzen im
Betonbau. Deutscher Betonverein, Berlin 1987
[26] Vismann, U.;Zilch, K.;.: Non-linear analysis and safety evaluation by finite-
element-reliability method. In: CEB Bulletin d´information No. 229: New
developments in non-linea analysis methods. CEB, Lausanne 1995
[27] Bergner, H.: Rissbreitenbeschränkung zwangbeanspruchter Bauteile aus hoch-
festem Normalbeton. Heft 482 des DAfStb, Beuth Verlag, Berlin 1997
185
Fraktilwert von Rissbreiten
[30] Jungwirth, D.: Begrenzung der Rissbreite im Stahl- und Spannbetonbau. Beton-
und Stahlbetonbau 7/1985, S. 178 ff.
186