Posts mit dem Label Numerische Simulation werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Numerische Simulation werden angezeigt. Alle Posts anzeigen
Samstag, 5. Mai 2012
Astronomische Strömungsmechanik
Der letzte Physiknobelpreis wurde für die Entdeckung vergeben, dass sich das Weltall beschleunigt ausdehnt. Ein regelmässiger Leser dieses Blogs machte damals die abscheuliche Bemerkung, dass aber doch wenigstens das nichts mit Strömungsmechanik zu tun hätte. Man möge ihm dies verzeihen, hat er doch nur in Mäusezucht promiviert.
Nichtsdestotrotz muss ich gestehen, dass die Frage einige Berechtigung hat. Denn Strömungsmechanik beschreibt die Interaktion zwischen Molekülen auf einer makroskopischen Ebene. Dies ist deswegen möglich, weil sich in einem Kubikcentimeter Luft etwa 10^19 Moleküle aufhalten mit einer mittleren freien Weglänge von 68 Nanometern. Um uns herum ist also ständig Karambolage total und das spüren wir als Luftdruck und Wind und können einzelne Moleküle nicht wahrnehmen. Mathematisch gesehen ist die Geschwindigkeit eines Gases die Geschwindigkeit, die eine winzige Gasmenge im statistischen (!) Mittel hat. Entsprechen tauchen im Standardmodell zur Beschreibung von Gasen, nämlich den Navier-Stokes-Gleichungen, nur noch makroskopische Grössen auf. Dabei setzt diese Statistik voraus, dass Moleküle hinreichend oft miteinander interagieren, wird dies zu selten, kann man nicht mehr von einem Gas sprechen.
Im Weltall, so weiss der Volksmund, herrscht Vakuum. Und es macht auch keinen Sinn, von einem Gas und seiner Geschwindigkeit zu reden wenn es nur ein Molekül pro Kubiklichtjahr gibt. Tatsächlich ist die Dichte wesentlich höher, innerhalb des Sonnensystems sind es immerhin noch 10.000 Teilchen pro Kubikcentimeter. Das ist ein besseres Vakuum als je von Menschenhand auf der Erde erzeugt und bedeutet, dass ein Teilchen eine mittlere freie Weglänge von 11 Kilometern hat. Und damit ist es fraglich, von einem Gas zu sprechen. Also schauen wir uns mal an, wie das im All so aussieht. Die Grundlage des Videos ist dieser Fachartikel.
Da sieht ja irgendwie alles aus wie Gas. Wie kann das sein? Der Punkt ist die Zeitskala. Das Video zeigt aneinandergehängte Bilder, die das Hubble-Teleskop innerhalb von 14 Jahren aufnahm. Auf einer Zeitskala von einer Sekunde mit einer Raumskala von einem Meter ergibt sich bei den genannten Bildern keine sinnvolle Statistik und keine Beschreibung als Gas beziehungsweise über die Navier-Stokes-Gleichungen. Auf einer Zeitskala von einem Tag und einer Raumskala von einem Lichtjahr ergibt sich aber plötzlich etwas was wie ein Gas aussieht, weil die abgebildeten Moleküle schneller als der Schall unterwegs sind. Dies lässt sich dann mit den Methoden der Strömungsmechanik beschreiben, die Umskalierung von Zeit und Raum wird dabei über die so genannte Strouhal-Zahl erledigt.
Ein ähnliches Beispiel ist eine Wolkendecke, die auf einen Berggipfel trifft. In Zeitlupe sieht dies so ähnlich aus wie Meereswellen.
Und der Nobelpreis? Ein zentrales Werkzeug dabei war die Betrachtung von Typ Ia-Supernovae, auch liebevoll Standardkerzen genannt. Bei diesen sammelt ein weißer Zwerg (ein sehr heißer, aber leuchtarmer Stern) Gas aus seiner Umgebung auf, bis er aufgrund seiner Masse kollabiert. Dies führt zu einer Kernfusion mit anschließender Explosion. Bei diesen Explosionen weiß man recht genau, wie hell sie sind, aus der beobachteten Helligkeit lässt sich also auf die Entfernung schließen, daraus dann wieder auf die Rotverschiebung des Lichts und damit wiederum, dass sich das Weltall beschleunigt ausdehnt. Und dieses wiederum führte die Physiker zur dunklen Energie (nicht zu verwechseln mit dunkler Materie).
Die Quantifizierung all dieser Dinge, die mit den ganz großen Fragen zu Entstehung und Entwicklung des Universums direkt zusammenhängen, beruht zum Beispiel darauf, dass man tatsächlich weiß, wie hell eine Typ Ia-Supernova genau ist. Tatsächlich hat man nur Schätzungen, die immerhin so 15% genau sind. Und da man in diesem Fall mit Experimenten nicht weit kommt, hilft nur eins: Die Numerik. Diverse National Labs der USA (Lawrence Berkeley beispielsweise) beschäftigen sich mit solchen Sachen. Könnte man die Sachen simulieren, könnten die Physiker viel genauere Aussagen zu dunkler Energie und dem Universum treffen. Die Sache ist unglaublich komplex, insbesondere hat so eine Supernova verschiedene Phasen, in denen die Sachen auf sehr unterschiedlichen Zeitskalen ablaufen.
Ein interessanter Aspekt dabei ist, dass während einer der Phasen die Machzahl klein ist, was erklärt, warum verschiedene der Topleute zu kleinen Machzahlen am Lawrence Berkeley Lab sitzen. Ich habe die auch mal besucht, dazu muss man vorab erklären, dass man nicht mit Schurkenstaaten zusammenarbeitet.
Also: Dem Geheimnis der dunklen Energie rückt man mit ebenso dunkler numerischer Strömungsmechanik zuleibe.
Und sonst:
Nichtsdestotrotz muss ich gestehen, dass die Frage einige Berechtigung hat. Denn Strömungsmechanik beschreibt die Interaktion zwischen Molekülen auf einer makroskopischen Ebene. Dies ist deswegen möglich, weil sich in einem Kubikcentimeter Luft etwa 10^19 Moleküle aufhalten mit einer mittleren freien Weglänge von 68 Nanometern. Um uns herum ist also ständig Karambolage total und das spüren wir als Luftdruck und Wind und können einzelne Moleküle nicht wahrnehmen. Mathematisch gesehen ist die Geschwindigkeit eines Gases die Geschwindigkeit, die eine winzige Gasmenge im statistischen (!) Mittel hat. Entsprechen tauchen im Standardmodell zur Beschreibung von Gasen, nämlich den Navier-Stokes-Gleichungen, nur noch makroskopische Grössen auf. Dabei setzt diese Statistik voraus, dass Moleküle hinreichend oft miteinander interagieren, wird dies zu selten, kann man nicht mehr von einem Gas sprechen.
Im Weltall, so weiss der Volksmund, herrscht Vakuum. Und es macht auch keinen Sinn, von einem Gas und seiner Geschwindigkeit zu reden wenn es nur ein Molekül pro Kubiklichtjahr gibt. Tatsächlich ist die Dichte wesentlich höher, innerhalb des Sonnensystems sind es immerhin noch 10.000 Teilchen pro Kubikcentimeter. Das ist ein besseres Vakuum als je von Menschenhand auf der Erde erzeugt und bedeutet, dass ein Teilchen eine mittlere freie Weglänge von 11 Kilometern hat. Und damit ist es fraglich, von einem Gas zu sprechen. Also schauen wir uns mal an, wie das im All so aussieht. Die Grundlage des Videos ist dieser Fachartikel.
Da sieht ja irgendwie alles aus wie Gas. Wie kann das sein? Der Punkt ist die Zeitskala. Das Video zeigt aneinandergehängte Bilder, die das Hubble-Teleskop innerhalb von 14 Jahren aufnahm. Auf einer Zeitskala von einer Sekunde mit einer Raumskala von einem Meter ergibt sich bei den genannten Bildern keine sinnvolle Statistik und keine Beschreibung als Gas beziehungsweise über die Navier-Stokes-Gleichungen. Auf einer Zeitskala von einem Tag und einer Raumskala von einem Lichtjahr ergibt sich aber plötzlich etwas was wie ein Gas aussieht, weil die abgebildeten Moleküle schneller als der Schall unterwegs sind. Dies lässt sich dann mit den Methoden der Strömungsmechanik beschreiben, die Umskalierung von Zeit und Raum wird dabei über die so genannte Strouhal-Zahl erledigt.
Ein ähnliches Beispiel ist eine Wolkendecke, die auf einen Berggipfel trifft. In Zeitlupe sieht dies so ähnlich aus wie Meereswellen.
Und der Nobelpreis? Ein zentrales Werkzeug dabei war die Betrachtung von Typ Ia-Supernovae, auch liebevoll Standardkerzen genannt. Bei diesen sammelt ein weißer Zwerg (ein sehr heißer, aber leuchtarmer Stern) Gas aus seiner Umgebung auf, bis er aufgrund seiner Masse kollabiert. Dies führt zu einer Kernfusion mit anschließender Explosion. Bei diesen Explosionen weiß man recht genau, wie hell sie sind, aus der beobachteten Helligkeit lässt sich also auf die Entfernung schließen, daraus dann wieder auf die Rotverschiebung des Lichts und damit wiederum, dass sich das Weltall beschleunigt ausdehnt. Und dieses wiederum führte die Physiker zur dunklen Energie (nicht zu verwechseln mit dunkler Materie).
Die Quantifizierung all dieser Dinge, die mit den ganz großen Fragen zu Entstehung und Entwicklung des Universums direkt zusammenhängen, beruht zum Beispiel darauf, dass man tatsächlich weiß, wie hell eine Typ Ia-Supernova genau ist. Tatsächlich hat man nur Schätzungen, die immerhin so 15% genau sind. Und da man in diesem Fall mit Experimenten nicht weit kommt, hilft nur eins: Die Numerik. Diverse National Labs der USA (Lawrence Berkeley beispielsweise) beschäftigen sich mit solchen Sachen. Könnte man die Sachen simulieren, könnten die Physiker viel genauere Aussagen zu dunkler Energie und dem Universum treffen. Die Sache ist unglaublich komplex, insbesondere hat so eine Supernova verschiedene Phasen, in denen die Sachen auf sehr unterschiedlichen Zeitskalen ablaufen.
Ein interessanter Aspekt dabei ist, dass während einer der Phasen die Machzahl klein ist, was erklärt, warum verschiedene der Topleute zu kleinen Machzahlen am Lawrence Berkeley Lab sitzen. Ich habe die auch mal besucht, dazu muss man vorab erklären, dass man nicht mit Schurkenstaaten zusammenarbeitet.
Also: Dem Geheimnis der dunklen Energie rückt man mit ebenso dunkler numerischer Strömungsmechanik zuleibe.
Und sonst:
- Die Flugzeuge der Zukunft?
- Nettes Blog über Astronomie und Wissenschaft: Astrodicticum Simplex von Florian Freistetter.
- Sascha Lobo hat Recht: Eulen sind die neuen Katzen.
Labels:
Astronomie,
Numerische Simulation
Montag, 11. Juli 2011
Nie wieder 747
Vor einer Woche bin ich von San Francisco das erstemal mit einer Airbus A380 der Lufthansa nach Frankfurt geflogen. Darauf hatte ich mich seit der Buchung gefreut und ich kann nur sagen: Nie wieder 747!
In der 747, auch bei Lufthansa-Bestuhlung, wird der Flug immer dann zur Tortur, wenn die Vorderfrau den Sitz komplett nach hinten stellt. In der A380 in der ich geflogen bin, war das kein Problem. Darüberhinaus ist es merklich leiser. Ausserdem war mein Sitznachbar E-Techniker und konnte mir zu einem Optimierungsproblem an dem ich arbeite, ein paar Tips geben. Aber vielleicht war das gar keine Eigenschaft des Flugzeugs. Alles in allem in der Economy class immer noch kein Zuckerschlecken, aber erträglich und insofern eine dramatische Verbesserung. Auch sehr cool: Es gibt im Onboardentertainment-System drei Kameras die man sich anschauen kann, eine senkrecht nach unten, eine waagerecht nach vorne von der Nase aus und eine schräg nach unten vom Höhenleitwerk. Wirklich cool, sich letztere bei der Landung anzuschauen, wenn auch nicht unbedingt was für Leute mit Flugzeugsabsturzangst.
Auf den Flug gefreut habe ich mich auch, weil sich damit für mich ein Kreis schloss: Als krasse Forscher 2000 ihre erste Stelle als wissenschaftlicher Mitarbeiter antraten, war das im Sonderforschungsbereich 401, der als Thema die numerische Simulation des A380 hatte. Und zwar sind die zwei Dinge, die den Unterschied machen im Vergleich zu vorherigen Flugzeugen, einmal die Grösse und zum anderen die neuen Materialien, da in nennenswertem Masse kohlefaserbasierte Kunststoffe eingesetzt wurden.
Der erste Punkt bedeutet, dass die Reynolds-Zahl extrem groß wird, etwa 10^8. Diese dimensionslose Kennzahl erlaubt es, Strömungen von Modellen unterschiedlicher Größe miteinander zu identifizieren oder anders gesagt sagt sie einem, wie gut ein Windkanalmodell gefertigt sein muss, um das echte Flugzeug abzubilden, also wie gering Unreinheiten auf der Modelloberfläche sein dürfen. 10^8 bedeutet: So gut, dass man das Ding am Ende in Gold aufwiegen kann. Gleichzeitig ist die Dicke der Grenzschicht, in der die Fluggeschwindigkeit von Null auf der Oberfläche auf die Geschwindigkeit des umgebenden Fluids (hier Reisegeschwindigkeit von Mach 0.85) von der dimensionslosen Größenordnung 1/Re, also extrem dünn. Das wiederum bedeutet, dass die Grenzschicht in einem Computermodell extrem fein aufgelöst werden muss, was wiederum implizite Verfahren notwendig macht.
Die neuen Materialien bedeuten nun, dass das Problem des Flatterns komplett neu bewertet werden muss, da die extrem langen Kunststoffflügel so noch nie da gewesen waren. Das Grundproblem ist in folgendem NASA-Video illustriert.
Was dort passiert ist eine nichtlineare Interaktion zwischen der Luft und der Struktur, bei der die große Energie die die Luft in die Struktur pumpt, zu Instabilitäten führt und wenn der Pilot nicht reagiert zum Zerbrechen des Flügels und entsprechend Absturz des Flugzeugs. Dieses Phänomen tritt bei jedem Flugzeug auf, und zwar ab einer gewissen kritischen Geschwindigkeit die in der Regel mit dem Prototypen ermittelt wird und ab dann für die Piloten tabu ist.
Grundproblem dabei ist, dass Tragflächen absichtlich nicht starr sind, sondern leicht biegsam, eben damit sie nicht brechen. Macht man die Sachen aber zu biegsam, gibt man Flattern Vorschub. Beim A380 hängen die Tragflächen vor dem Start etwas durch, nach dem Flug biegen sie sich mehrere Meter nach oben. Ich saß über der Tragfläche und das Durchbiegen nachoben hat die komplette Aussicht versperrt.
Als Flugzeughersteller möchte man natürlich beim Prototypen keine unangenehmen Überraschungen mehr erleben. Was? Wir haben Flattern schon beim Abflug? Entsprechend wird das ganze mittels numerischer Simulation vorab angeschaut. Und auch die wiederum musste beim A380 Neuland betreten. Sprich: Ich fands ziemlich cool als das Viech abgehoben ist, die Flügel sich megamässig durchgebogen haben und die Piloten das mit der Landung gut hinbekommen haben.
Auf dann, Samstag in ner 747 nach Westen!
Und sonst:
In der 747, auch bei Lufthansa-Bestuhlung, wird der Flug immer dann zur Tortur, wenn die Vorderfrau den Sitz komplett nach hinten stellt. In der A380 in der ich geflogen bin, war das kein Problem. Darüberhinaus ist es merklich leiser. Ausserdem war mein Sitznachbar E-Techniker und konnte mir zu einem Optimierungsproblem an dem ich arbeite, ein paar Tips geben. Aber vielleicht war das gar keine Eigenschaft des Flugzeugs. Alles in allem in der Economy class immer noch kein Zuckerschlecken, aber erträglich und insofern eine dramatische Verbesserung. Auch sehr cool: Es gibt im Onboardentertainment-System drei Kameras die man sich anschauen kann, eine senkrecht nach unten, eine waagerecht nach vorne von der Nase aus und eine schräg nach unten vom Höhenleitwerk. Wirklich cool, sich letztere bei der Landung anzuschauen, wenn auch nicht unbedingt was für Leute mit Flugzeugsabsturzangst.
Auf den Flug gefreut habe ich mich auch, weil sich damit für mich ein Kreis schloss: Als krasse Forscher 2000 ihre erste Stelle als wissenschaftlicher Mitarbeiter antraten, war das im Sonderforschungsbereich 401, der als Thema die numerische Simulation des A380 hatte. Und zwar sind die zwei Dinge, die den Unterschied machen im Vergleich zu vorherigen Flugzeugen, einmal die Grösse und zum anderen die neuen Materialien, da in nennenswertem Masse kohlefaserbasierte Kunststoffe eingesetzt wurden.
Der erste Punkt bedeutet, dass die Reynolds-Zahl extrem groß wird, etwa 10^8. Diese dimensionslose Kennzahl erlaubt es, Strömungen von Modellen unterschiedlicher Größe miteinander zu identifizieren oder anders gesagt sagt sie einem, wie gut ein Windkanalmodell gefertigt sein muss, um das echte Flugzeug abzubilden, also wie gering Unreinheiten auf der Modelloberfläche sein dürfen. 10^8 bedeutet: So gut, dass man das Ding am Ende in Gold aufwiegen kann. Gleichzeitig ist die Dicke der Grenzschicht, in der die Fluggeschwindigkeit von Null auf der Oberfläche auf die Geschwindigkeit des umgebenden Fluids (hier Reisegeschwindigkeit von Mach 0.85) von der dimensionslosen Größenordnung 1/Re, also extrem dünn. Das wiederum bedeutet, dass die Grenzschicht in einem Computermodell extrem fein aufgelöst werden muss, was wiederum implizite Verfahren notwendig macht.
Die neuen Materialien bedeuten nun, dass das Problem des Flatterns komplett neu bewertet werden muss, da die extrem langen Kunststoffflügel so noch nie da gewesen waren. Das Grundproblem ist in folgendem NASA-Video illustriert.
[フレーム]
Was dort passiert ist eine nichtlineare Interaktion zwischen der Luft und der Struktur, bei der die große Energie die die Luft in die Struktur pumpt, zu Instabilitäten führt und wenn der Pilot nicht reagiert zum Zerbrechen des Flügels und entsprechend Absturz des Flugzeugs. Dieses Phänomen tritt bei jedem Flugzeug auf, und zwar ab einer gewissen kritischen Geschwindigkeit die in der Regel mit dem Prototypen ermittelt wird und ab dann für die Piloten tabu ist.
Grundproblem dabei ist, dass Tragflächen absichtlich nicht starr sind, sondern leicht biegsam, eben damit sie nicht brechen. Macht man die Sachen aber zu biegsam, gibt man Flattern Vorschub. Beim A380 hängen die Tragflächen vor dem Start etwas durch, nach dem Flug biegen sie sich mehrere Meter nach oben. Ich saß über der Tragfläche und das Durchbiegen nachoben hat die komplette Aussicht versperrt.
Als Flugzeughersteller möchte man natürlich beim Prototypen keine unangenehmen Überraschungen mehr erleben. Was? Wir haben Flattern schon beim Abflug? Entsprechend wird das ganze mittels numerischer Simulation vorab angeschaut. Und auch die wiederum musste beim A380 Neuland betreten. Sprich: Ich fands ziemlich cool als das Viech abgehoben ist, die Flügel sich megamässig durchgebogen haben und die Piloten das mit der Landung gut hinbekommen haben.
Auf dann, Samstag in ner 747 nach Westen!
Und sonst:
- Flugzeug macht Schnee
- Octopus (danke an Tim)
- Deutschland, bitte aufwachen
Labels:
Flugzeuge,
Numerische Simulation
Mittwoch, 18. Mai 2011
Mathematiker: Das Ende der Nahrungskette?
Da werden sich die Leser wundern: Mathematiker, Herrscherinnen des Wissenschaftskosmos, Könige der Abstraktion, Heldinnen der Grundlagenforschung irgendetwas anderem Unteran als den eigenen Launen oder dem Drittmittelgeber? Ich weiß, ich weiß, man mag es kaum glauben.
Und streng genommen stimmt es auch nicht, da des bedauerlichen Umstandes von dem ich schreiben möchte, wohl nur die Numeriker etwas wissen, während die Zahlentheoretiker im obersten Stock des Elfenbeinturms einfach nie aus dem Fenster schauen. Es geht um Hardware. Die numerische Mathematik bedient sich Computer, um mathematische Probleme zu lösen. Dabei sind auch beachtliche Erfolge erzielt worden. Hardwaremässig wurde seit 1950 eine Beschleunigung um einen Faktor von 10^9 erzielt (gemeint sind ähnliche Investitionskosten). Dazu kommen für mathematische Probleme noch die Verbesserungen der zugrundeliegenden numerischen Verfahren, was für viele relevante Problemklassen ein Faktorvon 10^5 bis 10^7 ist. Die beiden Sachen multiplizieren sich und so kann ich die Laplace-Gleichung heute 10^16 mal schneller lösen als früher oder, was heute eine Sekunde braucht, hätte 1950 300 Millionen Jahre gebraucht.
Die Hardwareverbesserung wird empirisch durch Moore's Law beschrieben. Und dies kommt nun an eine physikalische Grenze, weil die Dimensionen, auf denen gearbeitet wird, Molekülbreite erreichen. Und auch wenn Intel derzeit einige Stunts macht, wird es keine 20 Jahre mehr dauern, bis die Verbesserungen einzelner Mikroprozessoren das Ende der Fahnenstange erreicht haben. Das wissen natürlich auch die Hardwarehersteller und deswegen gibt es den Trend zur Parallelisierung, also verschiedene Prozessoren in derselben Maschine zu haben, die beispielsweise einen gemeinsamen Arbeitsspeicher haben. Im Supercomputingbereich ist das nichts neues, sondern ganz normal. Auf dem PC-Markt ist das mittlerweile angekommen, jeder Computer den man heutzutage kauft, hat einen Multicore-Prozessor.
Neu ist dagegen der Trend, im Scientific Computing Grafikprozessoren (GPUs für Graphical Processor Units) zu nutzen. Und zwar hat sich dank der vielen fleissigen Computerspieler ein riesiger Bedarf nach Grafikhardware entwickelt. Denn was macht Standard-Computergrafik-Software? Sie rechnet aus, ob Teile der Spielfigur vielleicht gerade in einer Wand stecken, sie rechnet aus, was der Spieler jetzt gerade sehen kann und berechnet die entsprechende Grafik, alles basierend auf analytischer Geometrie. Vielleicht löst sie nebenbei noch die Flachwassergleichungen, weil bei denen nettaussehende Oberfächenwellen rauskommen, vor denen sich Spielerinnen versonnen den berechneten Sonnenuntergang betrachten können. Anders gesagt: Im Gegensatz zu einer CPU ist eine GPU für einen einzigen Zweck konzeptioniert: Numbercrunching. Oder nochmal anders gesagt: Für Numerik.
Das wurde Numerikern klar, sie probierten ihre Verfahren auf GPUs auf und berichteten von atemberaubenden Beschleunigungsfaktoren von 1000. Und durch den wachsenden Markt im Bereich der numerischen Strömungsmechanik wurde Nvidia klar, dass sie ihr Geld nicht nur von Computerspielern beziehen müssen, sondern dass da ein komplett neuer Kundenkreis wartet. Und als Nebenbemerkung: Der Gründer und Geschäftsführer Jen-Hsun Huang ist Stanford-Absolvent und aufgrund einer großzügigen Spende ist das neue Ingenieurwissenschaften-Gebäude, in dem auch mein Institut sitzt, nach ihm benannt. Und eines Tages Ende 2010 stand er vor der Tür des Instituts, betrachtete das beschreibende Poster, sagte "Das ist genau das, was ich unterstützen will" und spendete einen GPU-Cluster.
Wie auch immer, Tatsache ist, dass die Beschleunigungsfaktoren von 1000 nur auf zwei Dingen beruhen: Einem Vergleich von Äpfeln und Birnen und dem Nutzen schlechter Codes, die nie für die CPU optimiert wurden. Schaut man genauer hin, was vergleichbare CPUs und GPUs leisten, kommt man auf einen Faktor von 5, wobei die GPU mehr kostet und auch mehr Strom verbraucht. Auch das ist aber nicht der Punkt, an dem Mathematiker wie ich anfangen, doof zu gucken.
Der Punkt ist: Eine handelsübliche CPU ist inhärent sequentiell, es wird also brav ein Befehl nach dem anderen abgearbeitet, in Spezialfällen können die CPUs zwei Dinge gleichzeitig erledigen. Eine GPU ist dagegen inhärent parallel, die macht so genanntes Multithreading und macht einfach mal 1000 Multiplikationen parallel. Und da fangen die Konsequenzen für den Mathematiker an.
Nehmen wir an, ich habe ein Verfahren, bei dem ich warten muss, bis ein Ergebnis da ist, bevor ich das nächste ausrechnen kann. Das klassische Beispiel ist hier das Gauß-Seidel-Verfahren. Dieses liefert näherungsweise Lösungen linearer Gleichungssysteme, indem es mit einer Lösung anfängt, in der ersten Gleichung alle bis auf die erste Unbekannte festhält und dann die erste Unbekannte so wählt, dass die Gleichung stimmt. Dann geht es weiter zur zweiten Gleichung, hält alle Unbekannten bis auf die zweite fest, wobei es für die erste Unbekannte den eben errechneten neuen Wert nimmt und bestimmt die zweite Unbekannte so, dass die zweite Gleichung erfüllt ist. Dadurch ist die erste Gleichung nicht mehr erfüllt! Führt man das bis zur letzten Gleichung durch, hat man einen Näherungsvektor, der unter gewissen Voraussetzungen näher an der Lösung ist als der ursprüngliche. Dieser Zyklus wird nun wiederholt. Klar ist aber: auf der GPU wäre das Verfahren nicht schneller als auf der CPU, weil ich eine Gleichung nach der anderen abarbeiten muss.
Eine Alternative ist das Jacobi-Verfahren. Das macht dasselbe wie Gauß-Seidel, nur werden in jeder Gleichung die Werte der alten Näherung genommen. Dadurch kann ich in jeder Gleichung die neue Iteration gleichzeitig ausrechnen. Wie geschaffen für eine GPU, bzw. im allgemeinem für parallele Rechnungen, im Gegensatz zu Gauß-Seidel.
Und das ist dann das Ende des lamentierens: Elektrotechniker basteln neue Hardware. Informatiker basteln dafür Compiler. Numeriker schauen sich das an, stellen fest dass ihre Verfahren auf der neuen Hardware mit den neuen Compilern nicht mehr funktionieren und fragen sich, ob das die Rache der Informatiker und Elektrotechniker dafür ist, dass sie im Studium Mathe hören mussten.
Und sonst:
Und streng genommen stimmt es auch nicht, da des bedauerlichen Umstandes von dem ich schreiben möchte, wohl nur die Numeriker etwas wissen, während die Zahlentheoretiker im obersten Stock des Elfenbeinturms einfach nie aus dem Fenster schauen. Es geht um Hardware. Die numerische Mathematik bedient sich Computer, um mathematische Probleme zu lösen. Dabei sind auch beachtliche Erfolge erzielt worden. Hardwaremässig wurde seit 1950 eine Beschleunigung um einen Faktor von 10^9 erzielt (gemeint sind ähnliche Investitionskosten). Dazu kommen für mathematische Probleme noch die Verbesserungen der zugrundeliegenden numerischen Verfahren, was für viele relevante Problemklassen ein Faktorvon 10^5 bis 10^7 ist. Die beiden Sachen multiplizieren sich und so kann ich die Laplace-Gleichung heute 10^16 mal schneller lösen als früher oder, was heute eine Sekunde braucht, hätte 1950 300 Millionen Jahre gebraucht.
Die Hardwareverbesserung wird empirisch durch Moore's Law beschrieben. Und dies kommt nun an eine physikalische Grenze, weil die Dimensionen, auf denen gearbeitet wird, Molekülbreite erreichen. Und auch wenn Intel derzeit einige Stunts macht, wird es keine 20 Jahre mehr dauern, bis die Verbesserungen einzelner Mikroprozessoren das Ende der Fahnenstange erreicht haben. Das wissen natürlich auch die Hardwarehersteller und deswegen gibt es den Trend zur Parallelisierung, also verschiedene Prozessoren in derselben Maschine zu haben, die beispielsweise einen gemeinsamen Arbeitsspeicher haben. Im Supercomputingbereich ist das nichts neues, sondern ganz normal. Auf dem PC-Markt ist das mittlerweile angekommen, jeder Computer den man heutzutage kauft, hat einen Multicore-Prozessor.
NVidia-GeForce-GPU. Wir hams immer gewusst:
Computerspiele führen zu nix gutem!
Bild: Tors via Wikimedia Commons
Computerspiele führen zu nix gutem!
Bild: Tors via Wikimedia Commons
Neu ist dagegen der Trend, im Scientific Computing Grafikprozessoren (GPUs für Graphical Processor Units) zu nutzen. Und zwar hat sich dank der vielen fleissigen Computerspieler ein riesiger Bedarf nach Grafikhardware entwickelt. Denn was macht Standard-Computergrafik-Software? Sie rechnet aus, ob Teile der Spielfigur vielleicht gerade in einer Wand stecken, sie rechnet aus, was der Spieler jetzt gerade sehen kann und berechnet die entsprechende Grafik, alles basierend auf analytischer Geometrie. Vielleicht löst sie nebenbei noch die Flachwassergleichungen, weil bei denen nettaussehende Oberfächenwellen rauskommen, vor denen sich Spielerinnen versonnen den berechneten Sonnenuntergang betrachten können. Anders gesagt: Im Gegensatz zu einer CPU ist eine GPU für einen einzigen Zweck konzeptioniert: Numbercrunching. Oder nochmal anders gesagt: Für Numerik.
Das wurde Numerikern klar, sie probierten ihre Verfahren auf GPUs auf und berichteten von atemberaubenden Beschleunigungsfaktoren von 1000. Und durch den wachsenden Markt im Bereich der numerischen Strömungsmechanik wurde Nvidia klar, dass sie ihr Geld nicht nur von Computerspielern beziehen müssen, sondern dass da ein komplett neuer Kundenkreis wartet. Und als Nebenbemerkung: Der Gründer und Geschäftsführer Jen-Hsun Huang ist Stanford-Absolvent und aufgrund einer großzügigen Spende ist das neue Ingenieurwissenschaften-Gebäude, in dem auch mein Institut sitzt, nach ihm benannt. Und eines Tages Ende 2010 stand er vor der Tür des Instituts, betrachtete das beschreibende Poster, sagte "Das ist genau das, was ich unterstützen will" und spendete einen GPU-Cluster.
Wie auch immer, Tatsache ist, dass die Beschleunigungsfaktoren von 1000 nur auf zwei Dingen beruhen: Einem Vergleich von Äpfeln und Birnen und dem Nutzen schlechter Codes, die nie für die CPU optimiert wurden. Schaut man genauer hin, was vergleichbare CPUs und GPUs leisten, kommt man auf einen Faktor von 5, wobei die GPU mehr kostet und auch mehr Strom verbraucht. Auch das ist aber nicht der Punkt, an dem Mathematiker wie ich anfangen, doof zu gucken.
Der Punkt ist: Eine handelsübliche CPU ist inhärent sequentiell, es wird also brav ein Befehl nach dem anderen abgearbeitet, in Spezialfällen können die CPUs zwei Dinge gleichzeitig erledigen. Eine GPU ist dagegen inhärent parallel, die macht so genanntes Multithreading und macht einfach mal 1000 Multiplikationen parallel. Und da fangen die Konsequenzen für den Mathematiker an.
Nehmen wir an, ich habe ein Verfahren, bei dem ich warten muss, bis ein Ergebnis da ist, bevor ich das nächste ausrechnen kann. Das klassische Beispiel ist hier das Gauß-Seidel-Verfahren. Dieses liefert näherungsweise Lösungen linearer Gleichungssysteme, indem es mit einer Lösung anfängt, in der ersten Gleichung alle bis auf die erste Unbekannte festhält und dann die erste Unbekannte so wählt, dass die Gleichung stimmt. Dann geht es weiter zur zweiten Gleichung, hält alle Unbekannten bis auf die zweite fest, wobei es für die erste Unbekannte den eben errechneten neuen Wert nimmt und bestimmt die zweite Unbekannte so, dass die zweite Gleichung erfüllt ist. Dadurch ist die erste Gleichung nicht mehr erfüllt! Führt man das bis zur letzten Gleichung durch, hat man einen Näherungsvektor, der unter gewissen Voraussetzungen näher an der Lösung ist als der ursprüngliche. Dieser Zyklus wird nun wiederholt. Klar ist aber: auf der GPU wäre das Verfahren nicht schneller als auf der CPU, weil ich eine Gleichung nach der anderen abarbeiten muss.
Eine Alternative ist das Jacobi-Verfahren. Das macht dasselbe wie Gauß-Seidel, nur werden in jeder Gleichung die Werte der alten Näherung genommen. Dadurch kann ich in jeder Gleichung die neue Iteration gleichzeitig ausrechnen. Wie geschaffen für eine GPU, bzw. im allgemeinem für parallele Rechnungen, im Gegensatz zu Gauß-Seidel.
Und das ist dann das Ende des lamentierens: Elektrotechniker basteln neue Hardware. Informatiker basteln dafür Compiler. Numeriker schauen sich das an, stellen fest dass ihre Verfahren auf der neuen Hardware mit den neuen Compilern nicht mehr funktionieren und fragen sich, ob das die Rache der Informatiker und Elektrotechniker dafür ist, dass sie im Studium Mathe hören mussten.
Und sonst:
- Domino-Cola+Mentos. Und was MythBusters dazu sagen.
- Wie eigentlich immer, interessanter Artikel von Isotopp: Von der Spackeria, von Aluhüten und vom Kontrollverlust
- Dirk ist in der Form seines Lebens.
Labels:
Hardware,
Numerische Simulation
Samstag, 30. April 2011
Simulationsmethoden für Windkraftanlagen
An der Uni Kassel gibt es seit einigen Jahren ein Promotionskolleg ScoSA von Mathematikern und Ingenieuren mit dem Thema numerische Strömungsmechanik, dessen Fokus in der letzten Zeit auf Windkraftanlagen gesetzt wurde. Daraus entstanden ist in diesem Sommersemester eine Ringvorlesung "Simulationsmethoden für Windkraftanlagen", die in Zusammenarbeit des Promotionskollegs mit dem Fraunhofer Institut für Windenergie und Energie-Systemtechnologie (ISET) läuft. Geplant ist das schon länger, aber die Ereignisse der letzten Monate zeigen, dass das ein recht interessantes Thema ist.
Was sind denn eigentlich die Schwierigkeiten bei Windkraftanlagen, beziehungsweise was lässt sich noch verbessern? Nun, während sich im Onshore-Bereich ein gewisser Standard etabliert hat, sind im Offshore-Bereich, wo die Energie der Zukunft gewonnen werden soll, noch fast alle Fragen offen. Das fängt bei der Platzierung an, etwa bei der Frage, wo und in welchem Ausmass man in der Ostsee bauen kann, ohne dass der Austausch mit der Nordsee gefärdet ist. Es geht beim Bau weiter mit der Frage, wo man guten Untergrund findet, wie man das ganze kostengünstig gestalten kann und so weiter. Die nächste Frage ist die Wartung: Kann man die Systeme so gestalten, dass sie wenig Wartung brauchen oder sogar selbstwartend sind bzw. von Land aus computergesteuert gewartet werden können, um nicht ständig rüberfahren zu müssen?
Bei der Lösung dieser Probleme kann eine numerische Simulation entscheidend sein. Diese ist hier extrem schwierig. Zunächst handelt es sich um eine so genannte Fluid-Struktur-Interaktion, bei der der Wind (die Luft) mit dem Rotorblatt interagiert. Diese Interaktion ist nichtlinear und ist in Form von Flattern ein gefürchtetes Phänomen in der Luftfahrt. Dann erzeugt das Rotorblatt hinter sich eine turbulente Strömung, die Lärm erzeugt, der minimiert werden will, sowie die Anlagen windab beeinflusst. Schließlich gibt es eine Fluid-Struktur-Interaktion zwischen dem Wasser und dem Turm der Anlage. Auch diese ist wieder hochkomplex. Schließlich ist da noch der Untergrund. Beim Bau von Masten und Türmen ist es Allgemeinbildung bei den Bauingenieuren, dass der Grund eine wesentliche Rolle bei der Stabilität spielt. Entsprechend sind die typischen Untergründe in westlichen Ländern in dieser Hinsicht gut untersucht bzw. man weiß wie man ein Fundament bauen sollte, damit so ein Ding für die Ewigkeit steht. Beim Nordseegrund? Eher unklar. Ach ja, selbstverständlich ist die Machzahl klein, damit ist die akustische Welle sehr schnell gegenüber der Windgeschwindigkeit und das Problem somit steif, es sind also implizite Verfahren zur Zeitintegration nötig.
Fluid-Struktur-Interaktion ist ein heißes Thema in der Numerik. Grund ist, dass die Lösung schon nur eines Problems (Fluid oder Struktur) eine Vielzahl an Herausforderungen darstellt, sich aber ein gewisser Standard herausgebildet hat mit dem man arbeiten kann. Damit ist man heutzutage in der Lage, gekoppelte Probleme zu betrachten (neudeutsch: Multiphysics), womit sich ein attraktives Forschungsgebiet ergibt. Kopplung heißt dabei, dass man zwei Gebiete hat, in denen jeweils ein eigenes mathematisches Modell gilt, die aber an einem Rand interagieren. Hier könnte das die Luft mit den Navier-Stokes-Gleichungen und das Rotorblatt mit einem elastischen Strukurmodell sind, die auf der Oberfläche des Blattes Kräfte austauschen. Der Wind drückt, das Blatt drückt zurück.Oder die Wellen und die inkompressiblen Navier-Stokes-Gleichungen mit dem Turm.
Das Problem ist nun, dass es grundsätzlich viele Möglichkeiten gibt, diese Kopplung mathematisch zu definieren, davon sich aber viele als völlig unbrauchbar herausstellen und erst so langsam Klarheit herrscht, was man tun sollte. Schränkt man sich dann noch ein, indem man sagt, dass man die Codes wiederverwenden will, die in jahrzehntelanger Arbeit für die Einzelprobleme entwickelt wurden, wird das ganze noch etwas schwieriger.
Ein weiterer interessanter Aspekt ist, dass dieselben mathematischen Techniken bei der Entwicklung von Verfahren für Supercomputer genutzt werden. Bei der Nutzung von Parallelrechnern in der numerischen Simulation wird typischerweise jedem Prozessor oder Blocks von Prozessoren ein räumliches Gebiet zugewiesen und dort wird das Problem lokal gelöst (und damit parallel auf allen Prozessoren). Dann müssen aber diese lokalen Lösungen miteinander abgeglichen werden und das ist mathematisch dasselbe wie bei der Fluid-Struktur-Interaktion, nur dass dann nicht verschiedene mathematische Modelle miteinander gekoppelt werden, sondern dasselbe Modell zigmal mit sich selbst.
Und sonst:
Was sind denn eigentlich die Schwierigkeiten bei Windkraftanlagen, beziehungsweise was lässt sich noch verbessern? Nun, während sich im Onshore-Bereich ein gewisser Standard etabliert hat, sind im Offshore-Bereich, wo die Energie der Zukunft gewonnen werden soll, noch fast alle Fragen offen. Das fängt bei der Platzierung an, etwa bei der Frage, wo und in welchem Ausmass man in der Ostsee bauen kann, ohne dass der Austausch mit der Nordsee gefärdet ist. Es geht beim Bau weiter mit der Frage, wo man guten Untergrund findet, wie man das ganze kostengünstig gestalten kann und so weiter. Die nächste Frage ist die Wartung: Kann man die Systeme so gestalten, dass sie wenig Wartung brauchen oder sogar selbstwartend sind bzw. von Land aus computergesteuert gewartet werden können, um nicht ständig rüberfahren zu müssen?
Alpha Ventus im Bau, DOTI/Matthias Ibeler, CC-by-sa 3-0
Diesen Fragen ist eins gemein: Sie sind schwierig und wichtig, aber die Simulation von Windkraftanlagen spielt dabei aber keine essentielle Rolle. Zum Glück für krasse Forscher gibt es aber noch weitere. Die eine ist, wie man ein Rotorblatt baut, so dass es einen hohen Wirkungsgrad hat. Oder wie man einen Windpark baut, so dass der Nachlauf der Strömung die Anlagen windab nicht negativ beeinflusst. Lillgrund Offshore-Anlage bei Malmö. Schlaue Platzierung? Oder nicht?
Mariusz Paździora, CC-by-sa 3.0
Die derzeit vermutlich größte Herausforderung ist es, die Downtime der Anlagen zu reduzieren. Im Moment werden Anlagen aus Sicherheitsgründen bei besonders starkem oder besonders böigem Wind abgeschaltet und laufen somit grob 30% der Zeit gar nicht. Wenn also viel Wind da ist und viel Strom produziert werden könnte, ist Feierabend. Dazu kommt noch, dass das Wiederanfahren Strom benötigt, also erstmal wieder Energie investiert werden muss. Eine interessante Idee ist, die Rotorblätter aus adaptiven Kunststoffen zu fertigen, die in der Lage sind, aufgrund von Umwelteinflüssen in kurzer Zeit ihre Eigenschaften zu ändern, etwa weich oder hart. Mariusz Paździora, CC-by-sa 3.0
Bei der Lösung dieser Probleme kann eine numerische Simulation entscheidend sein. Diese ist hier extrem schwierig. Zunächst handelt es sich um eine so genannte Fluid-Struktur-Interaktion, bei der der Wind (die Luft) mit dem Rotorblatt interagiert. Diese Interaktion ist nichtlinear und ist in Form von Flattern ein gefürchtetes Phänomen in der Luftfahrt. Dann erzeugt das Rotorblatt hinter sich eine turbulente Strömung, die Lärm erzeugt, der minimiert werden will, sowie die Anlagen windab beeinflusst. Schließlich gibt es eine Fluid-Struktur-Interaktion zwischen dem Wasser und dem Turm der Anlage. Auch diese ist wieder hochkomplex. Schließlich ist da noch der Untergrund. Beim Bau von Masten und Türmen ist es Allgemeinbildung bei den Bauingenieuren, dass der Grund eine wesentliche Rolle bei der Stabilität spielt. Entsprechend sind die typischen Untergründe in westlichen Ländern in dieser Hinsicht gut untersucht bzw. man weiß wie man ein Fundament bauen sollte, damit so ein Ding für die Ewigkeit steht. Beim Nordseegrund? Eher unklar. Ach ja, selbstverständlich ist die Machzahl klein, damit ist die akustische Welle sehr schnell gegenüber der Windgeschwindigkeit und das Problem somit steif, es sind also implizite Verfahren zur Zeitintegration nötig.
Fluid-Struktur-Interaktion ist ein heißes Thema in der Numerik. Grund ist, dass die Lösung schon nur eines Problems (Fluid oder Struktur) eine Vielzahl an Herausforderungen darstellt, sich aber ein gewisser Standard herausgebildet hat mit dem man arbeiten kann. Damit ist man heutzutage in der Lage, gekoppelte Probleme zu betrachten (neudeutsch: Multiphysics), womit sich ein attraktives Forschungsgebiet ergibt. Kopplung heißt dabei, dass man zwei Gebiete hat, in denen jeweils ein eigenes mathematisches Modell gilt, die aber an einem Rand interagieren. Hier könnte das die Luft mit den Navier-Stokes-Gleichungen und das Rotorblatt mit einem elastischen Strukurmodell sind, die auf der Oberfläche des Blattes Kräfte austauschen. Der Wind drückt, das Blatt drückt zurück.Oder die Wellen und die inkompressiblen Navier-Stokes-Gleichungen mit dem Turm.
Das Problem ist nun, dass es grundsätzlich viele Möglichkeiten gibt, diese Kopplung mathematisch zu definieren, davon sich aber viele als völlig unbrauchbar herausstellen und erst so langsam Klarheit herrscht, was man tun sollte. Schränkt man sich dann noch ein, indem man sagt, dass man die Codes wiederverwenden will, die in jahrzehntelanger Arbeit für die Einzelprobleme entwickelt wurden, wird das ganze noch etwas schwieriger.
Ein weiterer interessanter Aspekt ist, dass dieselben mathematischen Techniken bei der Entwicklung von Verfahren für Supercomputer genutzt werden. Bei der Nutzung von Parallelrechnern in der numerischen Simulation wird typischerweise jedem Prozessor oder Blocks von Prozessoren ein räumliches Gebiet zugewiesen und dort wird das Problem lokal gelöst (und damit parallel auf allen Prozessoren). Dann müssen aber diese lokalen Lösungen miteinander abgeglichen werden und das ist mathematisch dasselbe wie bei der Fluid-Struktur-Interaktion, nur dass dann nicht verschiedene mathematische Modelle miteinander gekoppelt werden, sondern dasselbe Modell zigmal mit sich selbst.
Und sonst:
- Viva la Revolucion! Oder: Warum diese Hochzeit nix ist.
- Falls sich jemand gewundert hat, warum SkyNet noch immer keinen trouble gemacht hat.
- Krasse Forscher fliegen Anfang Juli A-380.
- PhdComics: Dark Matters.
Labels:
Numerische Simulation,
Windkraftanlagen
Sonntag, 24. April 2011
Ein viertes Paradigma der Wissenschaft
Bevor er Ende Januar 2007 spurlos auf See verschwand, hat Jim Gray, seines Zeichens mit schlechten Wikipedia-Artikeln geschlagener Turing-Preisträger, sich mit dem Gedanken beschäftigt, dass datenbasierte Wissenschaft ein viertes Paradigma eben derselben sein könnte beziehungsweise schon ist. Der Gedanke ist in dem Sammelband "The fourth paradigm" ausgeführt.
Mit Paradigma ist hier eine grundlegende Herangehensweise zu wissenschaftlicher Erkenntnis zu gelangen, gemeint. Und wenn er vom vierten redet, was sind dann die ersten drei? Das erste ist in seinen Augen empirische Wissenschaft, also die Natur zu betrachten und daraus Schlüsse zu ziehen, indem man etwa einen Zusammenhang zwischen Mond und Flut beobachtet. Als zweites wäre da theoretische Wissenschaft, bei der theoretische Überlegungen angestellt und mathematische Modelle aufgestellt werden. Zwei herausragende Beispiele wären Newtons Principia Mathematica und die newtonschen Gesetze oder Einsteins spezielle und allgemeine Relativitätstheorie. So weit so gut, bei diesen beiden wird vermutlich niemand wiedersprechen, damit wird man schon in der Schule konfrontiert. Theoretische Wissenschaft nutzt dabei einen Modellierungskreislauf:
An die Stelle einer exakten Lösung tritt dann die approximierbare Lösung, womit wir beim weniger bekannten dritten Paradigma sind, welches er "Computational Science" nennt. Dies ist erst in den letzten Jahrzehnten aufgekommen ist, und zwar bedingt durch drei Punkte:
Grey setzt nun noch einen drauf und redet von einem vierten Paradigma, nämlich datenbasierter Wissenschaft. Und zwar so wie Computer es möglich machen, von theoretischen Modellen auf numerische Modelle zu gehen, machen sie es ebenso möglich, von rein empirischen Beobachtungen auf das elektronische Sammeln von Daten mit anschließender Auswertung zu gehen. Dies hat deswegen eine neue Qualität, weil mittlerweile Datenmengen gesammelt werden, die jede Vorstellungskraft übersteigen und außerdem zunehmend Auswerteprogramme und geräte zur Verfügung stehen, mit denen diese Datenmengen nutzbar gemacht werden können. Dies kann in einer einfachen Form Visualisierung am Bildschirm bedeuten, aber auch komplexer sein wie die CAVE (nein, habe ich leider noch nicht erleben können), bei der 3D-Daten in einem echten Raum erfahrbar werden.
Ein krasses Beispiel ist das Planetary Skin Institute. Und zwar liefern NASA-Satelliten ja von jedem Punkt der Erde mindestens alle 24 Stunden ein Bild (naja, manchmal nur von Wolken, aber egal). Diese gigantischen Datenmengen werden gesammelt und erlauben es, nicht nur eine Darstellung der Erdoberfläche zu liefern, sondern insbesondere eine zeitliche Entwicklung der Mengen an Getreide, Wäldern oder Wüsten zu liefern. Und damit sind plötzlich Untersuchungen möglich, die noch vor zehn Jahren völlig unvorstellbar waren.
Und für die dies bis zum Ende geschafft haben:
Mit Paradigma ist hier eine grundlegende Herangehensweise zu wissenschaftlicher Erkenntnis zu gelangen, gemeint. Und wenn er vom vierten redet, was sind dann die ersten drei? Das erste ist in seinen Augen empirische Wissenschaft, also die Natur zu betrachten und daraus Schlüsse zu ziehen, indem man etwa einen Zusammenhang zwischen Mond und Flut beobachtet. Als zweites wäre da theoretische Wissenschaft, bei der theoretische Überlegungen angestellt und mathematische Modelle aufgestellt werden. Zwei herausragende Beispiele wären Newtons Principia Mathematica und die newtonschen Gesetze oder Einsteins spezielle und allgemeine Relativitätstheorie. So weit so gut, bei diesen beiden wird vermutlich niemand wiedersprechen, damit wird man schon in der Schule konfrontiert. Theoretische Wissenschaft nutzt dabei einen Modellierungskreislauf:
- Definiere den Teil der Wirklichkeit, der betrachtet werden soll.
- Stelle ein möglichst einfaches mathematisches Modell auf (einen Satz von Gleichungen), das diese Wirklichkeit beschreibt.
- Löse das Modell und schaue, ob es tatsächlich die zu untersuchenden Phänomene beschreibt. Wenn Nein, gehe zu 2. und wähle ein komplexeres Modell. Wenn du das Modell nicht lösen kannst, suche einen Mathematiker der es kann. Wenn der das Modell nicht lösen kann, warte 50 Jahre, bis die Mathematik so weit ist und schreibe unterdessen "wissenschaftliche" Artikel ohne jegliche Relevanz zu einem vereinfachten Modell, das deine Physik nicht beschreibt.
Sir Godfrey Kneller: Sir Isaac Newton. Konnte das 3-Körper-Problem der Astronomie auch nicht lösen. Ebensowenig das 2-Körper-Problem der Soziologie und starb kinderlos.
Mittlerweile ist man in den Natur- und Ingenieurswissenschaften (Wirtschaftswissenschaftler überspringen in der Regel den Schritt mit der Suche nach dem Mathematiker und gehen direkt zum letzten Teil mit den "wissenschaftlichen" Artikeln) in der Situation, dass die interessierenden Modelle nicht mehr gelöst werden können. Sie sind zu komplex und teilweise konnte sogar nachgewiesen werden, dass gar keine Lösungen hingeschrieben werden können, etwa beim Drei-Körper-Problem, aber auch bei den Navier-Stokes-Gleichungen.An die Stelle einer exakten Lösung tritt dann die approximierbare Lösung, womit wir beim weniger bekannten dritten Paradigma sind, welches er "Computational Science" nennt. Dies ist erst in den letzten Jahrzehnten aufgekommen ist, und zwar bedingt durch drei Punkte:
- Das Aufkommen leistungsfähiger und bezahlbarer Rechner
- Die Bereitstellung und drastische Verbesserung numerischer Verfahren, mit denen mathematische Modelle auf diesen Rechnern ausgewertet werden können
- Das Problem, dass die interessanten mathematischen Modelle mittlerweile zu komplex sind, als dass sie von Menschen ausgewertet werden könnten
- Definiere den Teil der Wirklichkeit, der betrachtet werden soll.
- Stelle ein möglichst einfaches mathematisches Modell auf, das diese Wirklichkeit beschreibt.
- Programmiere ein numerisches Verfahren, um Lösungen der Gleichungen mit einer gewissen Genauigkeit anzunähern (dies nennt sich Computermodell oder numerisches Modell).
- Stelle fest, ob die heutigen Verfahren und Rechner in der Lage sind, das Computermodell zu behandeln. Wenn Nein, gehe zu 3. und wähle eine geringere Genauigkeit. Wenn das nicht funktioniert, gehe zu 2. und vereinfache das Modell.
- Löse das Computermodell und schaue, ob es tatsächlich die betrachteten Phänomene beschreibt. Wenn Nein, gehe zu 2. und wähle ein komplexeres Modell. Wenn Du schon vorher das mathematische Modell vereinfacht hast, um das Computermodell überhaupt auswerten zu können, suche Dir einen Numeriker, der Deinen Code anschaut, Dir Tiernamen gibt und ihn in einer Stunde um einen Faktor zehn beschleunigt. Wenn das nicht ausreicht, warte ein paar Jahre, bis entweder die Rechner dank Moore's Law das Problem erledigen können oder die Numeriker effizientere Verfahren bereit stellen. Veröffentliche währenddessen Deine Arbeiten und nenne es "Proof of Concept".
Simulation oder Visualisierung einer X-43A-Scramjet-Simulation? Bild: NASA
Umgekehrt ist vielen Ingenieuren der Unterschied zwischen einer Simulation und einer Visualisierung derselben gar nicht mehr klar, so selbstverständlich sind diese Werkzeuge geworden. Grey setzt nun noch einen drauf und redet von einem vierten Paradigma, nämlich datenbasierter Wissenschaft. Und zwar so wie Computer es möglich machen, von theoretischen Modellen auf numerische Modelle zu gehen, machen sie es ebenso möglich, von rein empirischen Beobachtungen auf das elektronische Sammeln von Daten mit anschließender Auswertung zu gehen. Dies hat deswegen eine neue Qualität, weil mittlerweile Datenmengen gesammelt werden, die jede Vorstellungskraft übersteigen und außerdem zunehmend Auswerteprogramme und geräte zur Verfügung stehen, mit denen diese Datenmengen nutzbar gemacht werden können. Dies kann in einer einfachen Form Visualisierung am Bildschirm bedeuten, aber auch komplexer sein wie die CAVE (nein, habe ich leider noch nicht erleben können), bei der 3D-Daten in einem echten Raum erfahrbar werden.
Ein krasses Beispiel ist das Planetary Skin Institute. Und zwar liefern NASA-Satelliten ja von jedem Punkt der Erde mindestens alle 24 Stunden ein Bild (naja, manchmal nur von Wolken, aber egal). Diese gigantischen Datenmengen werden gesammelt und erlauben es, nicht nur eine Darstellung der Erdoberfläche zu liefern, sondern insbesondere eine zeitliche Entwicklung der Mengen an Getreide, Wäldern oder Wüsten zu liefern. Und damit sind plötzlich Untersuchungen möglich, die noch vor zehn Jahren völlig unvorstellbar waren.
Und für die dies bis zum Ende geschafft haben:
- Terry Taos Karrieretip: Schreib auf was Du hast!
- "Obama's Wars" von Bob Woodward gelesen über den Umgang der Obama-Regierung mit Afghanistan. Am deutlichsten wird, wie unfassbar unfähig die Vorgängerregierung war. Und dass es keinen zufriedenstellenden Ausgang in Afghanistan geben wird. Interessant dazu: Link.
- Wie bewirbt man ein Luxusklo für 6.400$? So! (Danke an Tim.)
Labels:
Numerische Simulation,
Wissenschaft
Mittwoch, 23. März 2011
Schon Jodtabletten gekauft?
„Last Tuesday, the 2nd, was Candlemas day, the day on which, the Groundhog peeps out of his winter quarters and if he sees his shadow he pops back for another six weeks nap, but if the day be cloudy he remains out, as the weather is to be moderate.“ James Morris, Berks County, 4. Februar 1841Im letzten Blogpost hatte ich mich mit den Grundlagen von Tsunami-Simulation auseinandergesetzt, woraufhin in den Kommentaren die Frage aufkam, wie es denn mit der Zuverlässigkeit von Vorhersagen zum nuklearen Fallout aussieht, beziehungsweise von Wettervorhersagen. Und nicht nur in Deutschland, wo Jodtabletten und Geigerzähler kaum noch zu kriegen sind, sondern auch an der amerikanischen Westküste gibt es naturwissenschaftliche Nieten, die sich Sorgen machen. Also, wie macht man eine Wettervorhersage wenn man gerade kein Murmeltier zur Hand hat? Heutzutage nur noch mit dem Computer, also mit einer numerischen Simulation. Grundlage sind, was denn auch sonst wird der regelmässige Leser einwerfen, die Navier-Stokes-Gleichungen. Diese beschreiben newtonsche Fluide, also Gas und Wasser und man kann sie auch für Dampf, Wolken etc. verwenden.
Bei der Sache treten neben unzähligen kleinen und mittelgroßen Problem zwei große Probleme auf. Das erste ist, dass die Erde ziemlich groß ist. Wenn wir also die ersten zehn Kilometer Atmosphäre nehmen und die einmal um die Erde rum als das uns interessierende Gebiet betrachten, ergibt das mit 550 Millionen km^2 Oberfläche 5.5 Millarden Kubikkilometer. Bei einer Auflösung von einem Kubikkilometer sind das, da die Navier-Stokes-Gleichungen in drei Dimensionen aus 5 Gleichungen bestehen, 27.5 Millarden Unbekannte. Damit kann noch nicht mal der Earth Simulator 2 sinnvoll umgehen. Und wir reden hier noch gar nicht davon, den Einfluss der Ozeane, der Sonneneinstrahlung, der Bodenrauigkeit (Kornfelder bremsen Wind weniger als Wälder), der Gebirge oder sonstiger relevanter Schwierigkeiten zu berücksichtigen.
Die Lösung dieses Problems ist die mathematische Modellierung. Es werden also unter bestimmten Annahmen Vereinfachungen der Navier-Stokes-Gleichungen betrachtet oder komplexe Effekte durch einfache Terme approximiert. Eine wichtige Annahme in sehr vielen Klima-Berechnungen ist beispielsweise die des hydrostatischen Gleichgewichts, bei dem man annimmt, dass sich unter- bzw. übereinanderliegende Luftschichten nicht beeinflussen. Im Ergebnis hat man das Problem um eine Dimension reduziert und erhält eine zweidimensionale Analyse des Wetters. Eine weitere Möglichkeit ist, das Gebiet zu verkleinern. Wenn ich mich nur für das Wetter um Japan in einem 24-Stunden-Zeitraum interessiere, kann ich ohne Genauigkeitsverlust einen Grossteil der Welt ignorieren.
Und schliesslich ist da noch die asymptotische Analyse, für deren Einsatz in der Meteorologie Rupert Klein einen Leibniz-Preis erhalten hat, indem er bestehende Modelle der Meteorologie erstmals mathematisch fundiert zueinander in Beziehung setzen konnte. Dabei geht es darum, auf systematische Weise herauszufinden, welche Effekte denn nun relevant sind für das vorliegende Problem. Beispielsweise kann man die Geschwindigkeit einer Strömung über die Machzahl charakterisieren, das ist das Verhältnis von Strömungs- zu Schallgeschwindigkeit. Die Reisegeschwindigkeit eines Verkehrsflugzeugs ist etwa Mach 0.8, also knapp unterhalb der Schallgeschwindigkeit, der Jetstream bewegt sich mit Mach 0.3, am Boden typische Windgeschwindigkeiten sind aber unterhalb von Mach 0.1. Damit befasst sich die Meteorologie fast ausschliesslich mit Strömungen kleiner Machzahl und die asymptotische Analyse ergibt, dass man für Machzahl gegen Null die so genannten inkompressiblen Navier-Stokes-Gleichungen mit variabler Dichte erhält.
Für den Wind in Fukushima derzeit irrelevant:
Kármánsche Wirbelstraße bei den Juan-Fernandez-Inseln
Auf diese Weise kommt man auch der Frage näher, wie man mit unterschiedlichen Zeitskalen umgeht: Der Wind in Fukushima diese Woche hängt nicht davon ab, ob ein Sack Reis umfällt, wie schnell die Gletscher schmelzen oder ob mal wieder Kármánsche Wirbelstraße bei den Juan-Fernandez-Inseln angesagt ist. Wenn ich vorhersagen will, ob ein Hurrikan entsteht, ist letzteres dagegen wichtig, während die Gletscher dann relevant sind, wenn ich Langzeitklimaprognosen betrachte. Unterschiedliche Aspekte des Wetters beeinflussen sich also auf unterschiedlichen Zeit- und Raumskalen. Hier die richtigen auszuwählen und gleichzeitig ein Modell zu finden, das die interessierenden Probleme berücksichtigt und irrelevante Phänomene ohne Genauigkeitsverluste ausblendet ist hochgradig komplex und wird noch lange Gegenstand von mathematischer und meteorologischer Forschung bleiben.Kármánsche Wirbelstraße bei den Juan-Fernandez-Inseln
Das zweite Problem beginnt damit, dass der ganze Punkt an der Wettervorhersage ja ist, dass wir in die Zukunft schauen wollen. Naja, das haben wir beim Tsunami ja auch schon, was ist also der Big Deal? Nun, wenn ich eine Wettervorhersage 24 Stunden im voraus machen will, kann ich zum Beispiel anschauen, wie sich das Wetter von Sekunde zu Sekunde ändert. Das klingt sinnvoll, weil es bestimmt eine ziemlich gute Vorhersage wird, nur wird die Simulationszeit vermutlich länger als 24 Stunden sein. Also wären grössere Zeitintervalle sinnvoll. Genauer gesagt erlaubt die räumliche Auflösung eine gewisse Genauigkeit und die zeitliche Auflösung sollte versuchen dieselbe zu erzielen, um sowohl unnötige Rechnungen zu vermeiden, als auch keine Genauigkeit zu verlieren. Es gibt nun grob gesagt zwei Arten von Methoden, mit denen man in die Zukunft schauen kann, explizite und implizite.
Explizite machen wenig Arbeit pro Zeitschritt und müssen jede Unbekannte etwa dreimal speichern (ja, bei der Kubikkilometerauflösung alle 27.5 Milliarden mal drei), allerdings orientiert sich der maximale Zeitschritt an der Geschindigkeit der schnellsten Welle, das ist hier die Schallwelle mit etwas über 3000 Metern pro Sekunde, und zwar in der Hinsicht, dass diese sich pro Zeitschritt maximal einen Punkt bewegen darf. Bei einer Auflösung von "nur" zehn Kubikkilometern wären das maximal 3 Sekunden, die ein Zeitschritt lang sein darf, bei einem Kubikkilometer Auflösung nur noch 0.3 Sekunden. Das klingt nicht gut. Beim Tsunami ist es so, dass die Geschwindigkeit der Tsunamiwelle nicht wesentlich kleiner ist als der Schall, im Gegensatz zur Windgeschwindigkeit.
Die Alternative sind implizite Verfahren, die pro Zeitschritt zwischen 10 und 100 mal teurer sind als explizite Verfahren und ausserdem noch zwischen zwei und zehnmal so viel Speicher benötigen. Wir kommen hier also in die Größenordnung von einer Trillion Werten, also soviel Geld wie Bryn und Page haben, aber noch nicht mal die haben einen Cluster, auf dem das noch handlen kann. Dafür haben implizite Verfahren nicht das obige Stabilitätsproblem, der Zeitschritt muss sich also nicht an den schnellsten Wellen orientieren, sondern nur nach Genauigkeit. Probleme, bei denen implizite Verfahren trotz der deutlich größeren Kosten pro Zeitschritt besser abschneiden als explizite Verfahren, heißen "steif" und waren Thema meiner Vorlesung in Stanford. Fans können sich das ganze ab April in Kassel nochmal anhören.
Die neusten Arbeiten krasser Forscher zu diesem Thema sollten im April auf einem Workshop am Hochleistungsrechenzentrum in Stuttgart vorgetragen werden, aber die Organisatoren sind von NEC in Japan und haben das ganze abgesagt und murmelten etwas von Erdbeben, Tsunami und Stromausfällen wegen Reaktorunglücken...
Es bleibt nun noch die Eingangsfrage: Wie genau sind Wettervorhersagen? Wie bei den Tsunamis werden die Simulationen vorher an den bestehenden Daten validiert, das sind dank der Wetteraufzeichnungen mittlerweile ziemlich viele gute Datensätze. Es bleibt, dass es keine mathematisch beweisbaren beliebig genauen Verfahren für das Problem gibt und für fast alle Probleme die bestehenden Verfahren auf den bestehenden Rechnern auch keine beliebig gute Genauigkeit erzielen könnten. Grob gesagt: Kurzfristige Wettervorhersagen für ein Land wie Japan können schon jetzt ausreichend genau sein, mittelfristige Wettervorhersagen sind sehr schwierig, weil die bestehenden Modelle große Probleme haben, die relevanten Phänomene rauszufiltern, Langzeitvorhersagen sind was konkrete Gebiete angeht (In Holland wird in 100 Jahren die Temperatur um X angestiegen sein), rein spekulativ, globale Aussagen lassen sich allerdings mit gewissen Techniken treffen (Im Mittel wird die Temperatur in 100 Jahren unter diesen und jenen Annahmen über Entwicklung von Gletschern und Ozeanen und Treibhausgasen um Y angestiegen sein).
Zum Fallout in Deutschland lässt sich noch festhalten; Bei den bis jetzt ausgetretenen Mengen an Radioaktivität kann kein Wetter der Welt die radioaktiven Isotope so schnell nach Deutschland tragen, dass sie dort noch in gefährlicher Weise ankommen. Wer Angst hat, sollte deswegen nicht die Fenster zu, sondern aufmachen, um die Radonmenge zu reduzieren, das ist gerade im Winter wichtig wenn man im Erdgeschoss wohnt.
Wers durch die diesmalige Textwüste bis hierher geschafft hat, hat natürlich wieder etwas Ablenkung verdient:
- Habt ihr das auch manchmal, dass ihr Euch sicher seid, etwas getan zu haben, es aber nicht getan habt? Tjaha, nicht eure Schuld!
- Angenehm nüchterner Artikel zur Frage des Islam in Deutschland, sowohl Multikulti als auch die deutsche Leitkultur sind eben nur sinnfreie Schlagworte, die nicht erklären, wie das notwendige Zusammenleben von Menschen unterschiedlicher Kultur in Deutschland funktionieren soll.
- Wenn ihr wüsstet, dass ihr keinen freien Willen hättet, würdet ihr mehr Betrügen?
- Visualisierung der massiven kulturellen Schieflage der englischen Wikipedia. Ich vermute, die Visualisierung der deutschen wäre noch dramatischer.
Dienstag, 15. März 2011
Trifft Dich der Tsunami?
Die Frage, wann ein Tsunami, der an einem bestimmten Ort ausgelöst wurde, eine Küste erreicht, kann mit heutigen Frühwarnsystemen recht gut beantwortet werden. Kalifornien hatte etwa zehn Stunden Zeit, sich vorzubereiten. Das reicht, um in Ruhe zu frühstücken, ein Mittagessen, eine gemütliche Fahrt zum Strand, um dann pünktlich zum Eintreffen des Tsunamis das ganze Spektakel zu beobachten oder, wie im Falle des einzigen Opfers in Kalifornien, den letzten Schnappschuss seines Lebens zu tätigen. Reif für den Darwin-Award.
Am Tag des Tsunamis produzierten die Kollegen vom NOAA Center for Tsunami Research bereits das folgenden Video.
Wie man sieht, ist die Frage, ob ich von einem Tsunami getroffen werde, nicht so klar zu beantworten, da die Frontwelle durch Inseln gestört, reflektiert und überlagert wird, siehe etwa die Antarktis in diesem Fall oder Teile Chiles.
Ich dachte mir, ich versuche mal zu erklären, wie solche numerischen Simulationen eigentlich gemacht werden. Dies ist auch ein Versuch, mathematische Sachen ohne Formeln zu erklären. Nicht, weil ich das für besonders dufte halte, sondern weil Blogger leider nichts bereitstellt, um vernünftig Formeln einzugeben. Deswegen wieder mal ne Umfrage, bitte beantworten.
Erster Schritt einer Simulation ist die Frage, welche physikalischen Gleichungen dem ganzen zu Grunde gelegt werden sollen. Als Standardgleichungen zur Beschreibung der Ausbreitung eines Tsunamis haben sich mittlerweile die so genannten Flachwassergleichungen etabliert. Diese wurden im 19. Jahrhundert vom Franzosen St. Venant aufgestellt, heißen deswegen in Frankreich auch St.-Venant-Gleichungen und stellen eine Vereinfachung der Navier-Stokes-Gleichungen unter bestimmten Annahmen dar. Nicht ganz überraschend war St. Venant am Prozess der Identifikation der Navier-Stokes-Gleichungen als Modell für Fluide beteiligt, eine der, wie treue Birchlogleser wissen, grössten wissenschaftlichen Leistungen des 19. Jahrhunderts. Die Flachwassergleichungen beschreiben, wie der Name schon andeutet, die Ausbreitung von Wellen in flachen Gewässern in Abhängigkeit vom Bodenprofil. Für Leute, die beim Anblick von Formeln nicht gleich zu Lesen aufhören, findet sich eine interessante Herleitung durch Terry Tao hier.
Spätestens hier dürften die meisten allerdings sagen: Was haben flache Gewässer mit Tsunamis im Pazifik zu tun, der immerhin elf Kilometer tief ist? Nun, hier kommt eine der Modellannahmen ins Spiel, unter der die Gleichungen aus den Navier-Stokes-Gleichungen hergeleitet wurden: Die Wellenlänge muss im Vergleich zur Tiefe groß sein. Eine typische Wasserwelle hat eine Wellenlänge von 100 Metern, eine Tsunamiwelle dagegen jedoch von 200 Kilometern (!), was im Vergleich zur Bodentiefe des Pazifiks groß ist. Anders gesagt: Für den Tsunami ist der Pazifik flach. Zumindest bis er an den Strand kommt, woraufhin er alles kaputt macht.
Hat man sich für eine Gleichung entschieden, muss man Daten bereitstellen, hier das Bodenprofil des Pazifiks, die Küstenlinien und Anfangsdaten wie initiale Wellengeschwindigkeiten. Diese sind nicht exakt bekannt, insbesondere ist das mit den Messstationen im Pazifik so eine Sache, dazu aber später mehr.
Schließlich kommt die so genannte Diskretisierung. Exakte Lösungsformeln für die Flachwassergleichungen gibt es nicht. Darüberhinaus hat der Pazifik als mathematisches Gebiet betrachtet unendlich viele Punkte und damit unendlich mehr als in den Speicher eines Computers passen. Entsprechend muss eine endliche Zahl (deswegen diskret) von Punkten im Ozean ausgewählt werden (entsprechend des Bodenprofils, der Küstenlinie), mit denen im Folgenden gearbeitet wird. Damit muss nun ein Kompromiss zwischen Genauigkeit und Aufwand geschlossen werden. Gleichzeitig müssen es mindestens so viele Punkte sein, dass die relevanten Phänomene überhaupt dargestellbar sind. Eine normale Wasserwelle ist bei einer Auflösung von einem Kilometer gar nicht sichtbar. Freak Waves sowieso nicht. Eine Tsunamiwelle ist dagegen sogar bei einer geringeren Auflösung sichtbar. Das ist gut, denn bei einem Kilometer Auflösung, also einem Punkt pro Quadratkilometer wären das schon 500 Millionen Unbekannte für diese Simulation. Hinweis: Auf jedem Punkt brauchen wir zwei Geschwindigkeitskomponenten, sowie den Druck). Bei 10 Kilometern Auflösung immerhin noch 5 Millionen, das geht problemlos auf einem kleinen Cluster.
Die diskrete Auswahl der Punkte hat ein weiteres Problem beschert: Die Flachwassergleichungen sind ein System von, jetzt kommts, hyperbolischen partiellen Differentialgleichungen, was mathematisch dafür ist, dass sie Wellenphänomene beschreiben. Der entscheidende Punkt ist, dass das Wort Differentialgleichung davon kommt dass Differentiale, also Ableitungen auftauchen. Und zwar im Raum und in der Zeit. Die Ableitung beschreibt die Steigung einer Funktion in einem Punkt. Punkte haben wir nach der eben getätigten Auswahl aber nur noch endlich viele und Funktionen gibt es überhaupt nicht mehr, eben weil die Punkte diskret sind.
Wie weiß man nun, ob das ganze bei all diesen Vereinfachungen und Approximationen etwas mit der Realität zu tun hat? Die penible Antwort des Mathematikers ist: Genau weiß man es nicht. Nötig wäre für jeden der genannten Schritte eine Aussage, wie groß der entstandene Fehler ist. Nur, wie groß ist der Modellierungsfehler dadurch, dass statt der Navier-Stokes-Gleichungen die viel einfacheren Flachwassergleichungen verwendet wurden? Durch das Ignorieren des Wetters und alleinige Betrachten des Wassers? Wie ist es mit den Messfehlern im Bodenprofil und den anderen Anfangsdaten? Und die Approximation der Ableitungen? Zumindest zu letzterem gibt es mathematische Aussagen, die so etwas sagen wie: Packe mehr Punkte in die Gegend von Japan. Nur ist das manchmal gar nicht möglich oder sinnvoll, weil die dortigen Daten zu fehlerbehaftet sind. Die Kollegen vom NOAA benutzen beispielsweise "Nested Grids", das heisst wenn sie küstennahe Gebiete simulieren, werden unter die bisherigen Punkte viel feiner aufgelöste weitere Gitter gelegt. Alles in allem müssen letztlich Vergleiche mit realen Daten gemacht werden, die Simulation muss validiert werden. Konkret heisst das also, vorab Rechnungen durchzuführen, bei denen mit bereits vorhanden Tsunamidaten verglichen werden kann.
Und das ist die Antwort des Ingenieurs: Über die Validierung kann eine Simulationssoftware soweit mit der Realität abgeglichen werden, dass man ihr vertrauen kann. Beispielsweise werden Flugzeuge heutzutage vollständig am Rechner entwickelt. Ein Gegenbeispiel war der Vulkanausbruch im April: Die von einer Londoner Meteorologengruppe bereitgestellten Schätzungen, wo sich die Aschewolke befindet, waren erheblich fehlerhaft. Ohne detaillierte Wetterdaten und in Ermangelung von Daten, wie sich Asche in dieser speziellen Zusammensetzung in der Luft ausbreitet, waren sie chancenlos, genaue Vorhersagen zu liefern. Nur ärgerlich, dass dies in der Presse nicht aufgenommen wird. Ist eben wie die Wahlumfragen, bei denen die Ungenauigkeit standardmässig nicht mitgeteilt wird. Meiner Meinung nach fahrlässige Irreführung.
Was ist nun, wenn die Validierung ergibt, dass die Simulation fehlerhaft ist? Dann muss man die vorherigen Schritte nochmal durchgehen und überlegen, wo etwas falsch gemacht wurde. Wurde in den Modellgleichungen etwas wesentliches vergessen? Waren die Daten zu schlecht? Zu wenig Punkte? Das Verfahren zur Approximation der Ableitungen ungenügend? Dann gilt es, nachzubessern und erneut zu validieren.
Am Tag des Tsunamis produzierten die Kollegen vom NOAA Center for Tsunami Research bereits das folgenden Video.
[フレーム]
Wie man sieht, ist die Frage, ob ich von einem Tsunami getroffen werde, nicht so klar zu beantworten, da die Frontwelle durch Inseln gestört, reflektiert und überlagert wird, siehe etwa die Antarktis in diesem Fall oder Teile Chiles.
Ich dachte mir, ich versuche mal zu erklären, wie solche numerischen Simulationen eigentlich gemacht werden. Dies ist auch ein Versuch, mathematische Sachen ohne Formeln zu erklären. Nicht, weil ich das für besonders dufte halte, sondern weil Blogger leider nichts bereitstellt, um vernünftig Formeln einzugeben. Deswegen wieder mal ne Umfrage, bitte beantworten.
Erster Schritt einer Simulation ist die Frage, welche physikalischen Gleichungen dem ganzen zu Grunde gelegt werden sollen. Als Standardgleichungen zur Beschreibung der Ausbreitung eines Tsunamis haben sich mittlerweile die so genannten Flachwassergleichungen etabliert. Diese wurden im 19. Jahrhundert vom Franzosen St. Venant aufgestellt, heißen deswegen in Frankreich auch St.-Venant-Gleichungen und stellen eine Vereinfachung der Navier-Stokes-Gleichungen unter bestimmten Annahmen dar. Nicht ganz überraschend war St. Venant am Prozess der Identifikation der Navier-Stokes-Gleichungen als Modell für Fluide beteiligt, eine der, wie treue Birchlogleser wissen, grössten wissenschaftlichen Leistungen des 19. Jahrhunderts. Die Flachwassergleichungen beschreiben, wie der Name schon andeutet, die Ausbreitung von Wellen in flachen Gewässern in Abhängigkeit vom Bodenprofil. Für Leute, die beim Anblick von Formeln nicht gleich zu Lesen aufhören, findet sich eine interessante Herleitung durch Terry Tao hier.
Spätestens hier dürften die meisten allerdings sagen: Was haben flache Gewässer mit Tsunamis im Pazifik zu tun, der immerhin elf Kilometer tief ist? Nun, hier kommt eine der Modellannahmen ins Spiel, unter der die Gleichungen aus den Navier-Stokes-Gleichungen hergeleitet wurden: Die Wellenlänge muss im Vergleich zur Tiefe groß sein. Eine typische Wasserwelle hat eine Wellenlänge von 100 Metern, eine Tsunamiwelle dagegen jedoch von 200 Kilometern (!), was im Vergleich zur Bodentiefe des Pazifiks groß ist. Anders gesagt: Für den Tsunami ist der Pazifik flach. Zumindest bis er an den Strand kommt, woraufhin er alles kaputt macht.
Hat man sich für eine Gleichung entschieden, muss man Daten bereitstellen, hier das Bodenprofil des Pazifiks, die Küstenlinien und Anfangsdaten wie initiale Wellengeschwindigkeiten. Diese sind nicht exakt bekannt, insbesondere ist das mit den Messstationen im Pazifik so eine Sache, dazu aber später mehr.
Schließlich kommt die so genannte Diskretisierung. Exakte Lösungsformeln für die Flachwassergleichungen gibt es nicht. Darüberhinaus hat der Pazifik als mathematisches Gebiet betrachtet unendlich viele Punkte und damit unendlich mehr als in den Speicher eines Computers passen. Entsprechend muss eine endliche Zahl (deswegen diskret) von Punkten im Ozean ausgewählt werden (entsprechend des Bodenprofils, der Küstenlinie), mit denen im Folgenden gearbeitet wird. Damit muss nun ein Kompromiss zwischen Genauigkeit und Aufwand geschlossen werden. Gleichzeitig müssen es mindestens so viele Punkte sein, dass die relevanten Phänomene überhaupt dargestellbar sind. Eine normale Wasserwelle ist bei einer Auflösung von einem Kilometer gar nicht sichtbar. Freak Waves sowieso nicht. Eine Tsunamiwelle ist dagegen sogar bei einer geringeren Auflösung sichtbar. Das ist gut, denn bei einem Kilometer Auflösung, also einem Punkt pro Quadratkilometer wären das schon 500 Millionen Unbekannte für diese Simulation. Hinweis: Auf jedem Punkt brauchen wir zwei Geschwindigkeitskomponenten, sowie den Druck). Bei 10 Kilometern Auflösung immerhin noch 5 Millionen, das geht problemlos auf einem kleinen Cluster.
Die diskrete Auswahl der Punkte hat ein weiteres Problem beschert: Die Flachwassergleichungen sind ein System von, jetzt kommts, hyperbolischen partiellen Differentialgleichungen, was mathematisch dafür ist, dass sie Wellenphänomene beschreiben. Der entscheidende Punkt ist, dass das Wort Differentialgleichung davon kommt dass Differentiale, also Ableitungen auftauchen. Und zwar im Raum und in der Zeit. Die Ableitung beschreibt die Steigung einer Funktion in einem Punkt. Punkte haben wir nach der eben getätigten Auswahl aber nur noch endlich viele und Funktionen gibt es überhaupt nicht mehr, eben weil die Punkte diskret sind.
Ableitung, CC-by-sa 3.0, Honina
Schaut man sich die obige Grafik an, wird klar, dass ich in unserem Fall in Ermangelung der Zwischenpunkte nicht von einer Sekante zur Tangente übergehen kann, indem ich den rechten Punkt auf den linken zulaufen lasse. Allerdings kann ich einfach eine Sekante durch zwei gegebene Punkte als Annäherung der Tangenten nehmen! Das nennt sich Finite-Differenzen-Verfahren. Etwas intelligenter als diese erste Idee sind Finite-Elemente- oder Finite-Volumen-Verfahren, wobei sich letztere sehr gut für die Flachwassergleichungen eignen. Sobald eine dieser Konstruktionen sowohl auf die Raum- als auch auf die Zeitableitungen angewandt wurde, ist eine, zugegebenermassen ziemlich komplizierte, Vorschrift vorhanden, wie sich die Informationen etwa zu den Wellengeschwindigkeiten mit der Zeit näherungsweise verändern. Diese programmiert man, füllt sie mit Anfangsdaten und lässt das ganze laufen.Wie weiß man nun, ob das ganze bei all diesen Vereinfachungen und Approximationen etwas mit der Realität zu tun hat? Die penible Antwort des Mathematikers ist: Genau weiß man es nicht. Nötig wäre für jeden der genannten Schritte eine Aussage, wie groß der entstandene Fehler ist. Nur, wie groß ist der Modellierungsfehler dadurch, dass statt der Navier-Stokes-Gleichungen die viel einfacheren Flachwassergleichungen verwendet wurden? Durch das Ignorieren des Wetters und alleinige Betrachten des Wassers? Wie ist es mit den Messfehlern im Bodenprofil und den anderen Anfangsdaten? Und die Approximation der Ableitungen? Zumindest zu letzterem gibt es mathematische Aussagen, die so etwas sagen wie: Packe mehr Punkte in die Gegend von Japan. Nur ist das manchmal gar nicht möglich oder sinnvoll, weil die dortigen Daten zu fehlerbehaftet sind. Die Kollegen vom NOAA benutzen beispielsweise "Nested Grids", das heisst wenn sie küstennahe Gebiete simulieren, werden unter die bisherigen Punkte viel feiner aufgelöste weitere Gitter gelegt. Alles in allem müssen letztlich Vergleiche mit realen Daten gemacht werden, die Simulation muss validiert werden. Konkret heisst das also, vorab Rechnungen durchzuführen, bei denen mit bereits vorhanden Tsunamidaten verglichen werden kann.
Und das ist die Antwort des Ingenieurs: Über die Validierung kann eine Simulationssoftware soweit mit der Realität abgeglichen werden, dass man ihr vertrauen kann. Beispielsweise werden Flugzeuge heutzutage vollständig am Rechner entwickelt. Ein Gegenbeispiel war der Vulkanausbruch im April: Die von einer Londoner Meteorologengruppe bereitgestellten Schätzungen, wo sich die Aschewolke befindet, waren erheblich fehlerhaft. Ohne detaillierte Wetterdaten und in Ermangelung von Daten, wie sich Asche in dieser speziellen Zusammensetzung in der Luft ausbreitet, waren sie chancenlos, genaue Vorhersagen zu liefern. Nur ärgerlich, dass dies in der Presse nicht aufgenommen wird. Ist eben wie die Wahlumfragen, bei denen die Ungenauigkeit standardmässig nicht mitgeteilt wird. Meiner Meinung nach fahrlässige Irreführung.
Was ist nun, wenn die Validierung ergibt, dass die Simulation fehlerhaft ist? Dann muss man die vorherigen Schritte nochmal durchgehen und überlegen, wo etwas falsch gemacht wurde. Wurde in den Modellgleichungen etwas wesentliches vergessen? Waren die Daten zu schlecht? Zu wenig Punkte? Das Verfahren zur Approximation der Ableitungen ungenügend? Dann gilt es, nachzubessern und erneut zu validieren.
Ansonsten:
- Aufklärung erbeten: Steve Nash schwanger?
- Erde dreht sich nun schneller.
- Für den Fall, dass sich unter den Lesern nichtregelmäßige XKCD-Leser befinden.
- Der neue Denis Rodman ist ein guter Junge? That ain't right! "So that's why, every time I play, I just tell myself every rebound I get is going to add an extra day to her life."
- Sommerzeit for the win: Hier war schon Umstellung, fliege in zehn Tagen vor der deutschen Umstellung, also eine Stunde weniger Jetlag!
Labels:
Numerische Simulation,
Tsunami
Dienstag, 8. März 2011
Mathematik ist ueberall
Vor ein paar Wochen hatte ich mich mit der Frage auseinandergesetzt, ob die Mathematik geeignet ist, die Welt zu erklaeren und dazu gesagt, das Mathematik unglaublich nuetzlich dafuer ist, Simulationen zu liefern, aber nicht unbedingt, um die Welt zu erklaeren. Dies fuehrte zu sehr lesenswerten Kommentaren der Maeusezuechterfraktion, in denen insbesondere gefragt wurde, wann denn die Mathematik endlich aus ihrem Elfenbeinturm komme, um ihren rechtmaessigen Platz im Kampf gegen die Unbildung aufzunehmen.
Letzte Woche war ich in Reno auf einer Konferenz zu dem, was sich heute Computational Mathematics and Engineering nennt. Kurz zu Reno: Wie Lawrence Friedman mir erklaert hat, hatte Nevada, obwohl ein Staat seit 1864, Ende des 19. Jahrhunderts unter 100.000 Einwohner. Ein Staat zu sein, bedeutete aber auch viele Freiheiten und damit wurde in Nevada im wesentlichen alles erlaubt, was in allen anderen Staaten verboten war: Unkomplizierte Heiratsschliessungen und Scheidungen, Gluecksspiel und Prostitution (Ja, in Kalifornien darf man Leute dafuer bezahlen, es miteinander zu treiben und sie dabei zu filmen, aber nicht, es mit einem selbst zu tun). Die Massnahmen griffen und so hat Nevada heutzutage eine ansehnliche Population, die aber oekonomisch fast ausschliesslich vom Tourismus abhaengt. Reno ist also wie Las Vegas, nur in haesslich und nicht in der Wueste. Und mein Laptop ist kaputt gegangen. Bin jetzt Mac-Besitzer (der Dual Core i7 im MacBook Pro hat mich schwach gemacht) und muss sagen: TeXShop begeistert.
Wie dem auch sei, die Konferenz war hochinteressant, alle haben dieselben Probleme was Softwareentwicklung im akademischen Bereich angeht und es herrscht eine gewisse Unsicherheit, wie mit der zukuenftigen Hardwareentwicklung umzugehen ist, etwa mit GPUs. Ich moechte kurz die Eingangsfrage beantworten: Mathematik ist ueberall. Das ist ein Slogan, der beispielsweise im Jahr der Mathematik benutzt wurde. Er ist abgedroschen. Aber er ist wahr.
Folgende Anwendungen wurden nur in den Vortraegen die ich besucht habe, behandelt:
-Flattern einer F-16 und wie man dies mit einem kleinen Onboard-Computer vorhersagen kann. Sauschwierig. Geht jetzt wohl mit einer iPhone-App.
-Statik beim Brueckenbau
-Simulation des Wachstums von Krebszellen (noch nicht in realistischer Weise moeglich)
-Simulation des Blutflusses im Hirn bei der Behandlung von Aneurismen (mittlerweile moeglich, das Thema fuehrte aber bei einem Anwesenden zur Ohnmacht)
-Simulation der elektrischen Stroeme in Halbleitern zwecks Chip-Design (Standard bei Infineon et. al.)
-Nukleare Reaktoren vom Tokamak-Typ. Anders gesagt: Die amerikanischen National Laboratories erhalten 100 Millionen aus dem ITER-Projekt, um bei Beginn der Experimente den Experimentatoren ueber numerische Simulationen die wichtigen Experimente nennen zu koennen, um so die Zahl der Experimente und damit Kosten und Zeit massiv zu reduzieren.
-Der Film Avatar: Die Firma Weta, die nicht nur fuer diesen Film die digitalen Effekte gemacht hat, ist bekannt dafuer, realistische digitale Effekte zu produzieren. Warum ist das so? Weil sie versuchen, die Welt durch numerische Simulation so gut wie moeglich nachzuempfinden. Grobe numerische Fluidsimulation fuer die Generation von realistisch aussehenden Wellen ist mittlerweile Standard in der Computergrafik. Ebenso bei der Darstellung von Stoff in Kleidung oder wehendem Haar. Neu bei Avatar war, dass die Gesichter der Aliens ebenfalls simuliert wurden. Hinter der Mimik steckt also ein Modell von partiellen Differentialgleichungen fuer die Mechanik der Muskeln und Knochen, gepaart mit einem Finite-Elemente-Verfahren fuer deren Loesung.
-Simulation von Oelreservoirs
-Verarbeitung von gigantischen Datenmengen am Beispiel des Planetary Skin Institutes, welches Fotos von NASA-Satelliten nutzt, die von jeden Punkt der Erde einmal am Tag ein Bild liefern, um Zeitreihen von Dingen auf der Erde zu gestalten, beispielsweise der Entwicklung von Waeldern oder Nahrungsquellen.
-Wettervorhersage (wird schon seit Ewigkeiten nicht mehr vom Wetterfrosch, sondern mittels numerischer Simulation gemacht).
-Simulation von Sonneneruptionen zur Vorhersage von magnetischen Stuermen
-Bestimmung der Flugform von Fledermausfluegeln
-Kuehlstrategien bei der Stahlumformung (ganz krasse Forscher!).
-Design von Formel-1-Autos (Dort ist numerische Stroemungssimulation mittlerweile Standard)
Diese Entwicklung wird noch laenger so weitergehen: Die bahnbrechenden Resultate der Mathematik des 20. Jahrhunderts, gepaart mit der Entwicklung von Computern erlauben es nun schon kleinen Firmen, numerische Simulationen zu verwenden. In zehn Jahren wird das Handy-Taschencomputerdingens vibrieren, wenn wir beim Rausgehen keinen Schirm dabei haben, obwohl unsere Terminkalender-Software berechnet hat, dass wir am Nachmittag im Regen auf den Bus warten werden. Die Mathematik dahinter: Nur mit Promotion in Mathematik nachvollziehbar und fuer den Anwender absolut unsichtbar.
Und mal wieder ein paar Schnipsel:
Letzte Woche war ich in Reno auf einer Konferenz zu dem, was sich heute Computational Mathematics and Engineering nennt. Kurz zu Reno: Wie Lawrence Friedman mir erklaert hat, hatte Nevada, obwohl ein Staat seit 1864, Ende des 19. Jahrhunderts unter 100.000 Einwohner. Ein Staat zu sein, bedeutete aber auch viele Freiheiten und damit wurde in Nevada im wesentlichen alles erlaubt, was in allen anderen Staaten verboten war: Unkomplizierte Heiratsschliessungen und Scheidungen, Gluecksspiel und Prostitution (Ja, in Kalifornien darf man Leute dafuer bezahlen, es miteinander zu treiben und sie dabei zu filmen, aber nicht, es mit einem selbst zu tun). Die Massnahmen griffen und so hat Nevada heutzutage eine ansehnliche Population, die aber oekonomisch fast ausschliesslich vom Tourismus abhaengt. Reno ist also wie Las Vegas, nur in haesslich und nicht in der Wueste. Und mein Laptop ist kaputt gegangen. Bin jetzt Mac-Besitzer (der Dual Core i7 im MacBook Pro hat mich schwach gemacht) und muss sagen: TeXShop begeistert.
Wie dem auch sei, die Konferenz war hochinteressant, alle haben dieselben Probleme was Softwareentwicklung im akademischen Bereich angeht und es herrscht eine gewisse Unsicherheit, wie mit der zukuenftigen Hardwareentwicklung umzugehen ist, etwa mit GPUs. Ich moechte kurz die Eingangsfrage beantworten: Mathematik ist ueberall. Das ist ein Slogan, der beispielsweise im Jahr der Mathematik benutzt wurde. Er ist abgedroschen. Aber er ist wahr.
Folgende Anwendungen wurden nur in den Vortraegen die ich besucht habe, behandelt:
-Flattern einer F-16 und wie man dies mit einem kleinen Onboard-Computer vorhersagen kann. Sauschwierig. Geht jetzt wohl mit einer iPhone-App.
-Statik beim Brueckenbau
-Simulation des Wachstums von Krebszellen (noch nicht in realistischer Weise moeglich)
-Simulation des Blutflusses im Hirn bei der Behandlung von Aneurismen (mittlerweile moeglich, das Thema fuehrte aber bei einem Anwesenden zur Ohnmacht)
-Simulation der elektrischen Stroeme in Halbleitern zwecks Chip-Design (Standard bei Infineon et. al.)
-Nukleare Reaktoren vom Tokamak-Typ. Anders gesagt: Die amerikanischen National Laboratories erhalten 100 Millionen aus dem ITER-Projekt, um bei Beginn der Experimente den Experimentatoren ueber numerische Simulationen die wichtigen Experimente nennen zu koennen, um so die Zahl der Experimente und damit Kosten und Zeit massiv zu reduzieren.
-Der Film Avatar: Die Firma Weta, die nicht nur fuer diesen Film die digitalen Effekte gemacht hat, ist bekannt dafuer, realistische digitale Effekte zu produzieren. Warum ist das so? Weil sie versuchen, die Welt durch numerische Simulation so gut wie moeglich nachzuempfinden. Grobe numerische Fluidsimulation fuer die Generation von realistisch aussehenden Wellen ist mittlerweile Standard in der Computergrafik. Ebenso bei der Darstellung von Stoff in Kleidung oder wehendem Haar. Neu bei Avatar war, dass die Gesichter der Aliens ebenfalls simuliert wurden. Hinter der Mimik steckt also ein Modell von partiellen Differentialgleichungen fuer die Mechanik der Muskeln und Knochen, gepaart mit einem Finite-Elemente-Verfahren fuer deren Loesung.
-Simulation von Oelreservoirs
-Verarbeitung von gigantischen Datenmengen am Beispiel des Planetary Skin Institutes, welches Fotos von NASA-Satelliten nutzt, die von jeden Punkt der Erde einmal am Tag ein Bild liefern, um Zeitreihen von Dingen auf der Erde zu gestalten, beispielsweise der Entwicklung von Waeldern oder Nahrungsquellen.
-Wettervorhersage (wird schon seit Ewigkeiten nicht mehr vom Wetterfrosch, sondern mittels numerischer Simulation gemacht).
-Simulation von Sonneneruptionen zur Vorhersage von magnetischen Stuermen
-Bestimmung der Flugform von Fledermausfluegeln
-Kuehlstrategien bei der Stahlumformung (ganz krasse Forscher!).
-Design von Formel-1-Autos (Dort ist numerische Stroemungssimulation mittlerweile Standard)
Diese Entwicklung wird noch laenger so weitergehen: Die bahnbrechenden Resultate der Mathematik des 20. Jahrhunderts, gepaart mit der Entwicklung von Computern erlauben es nun schon kleinen Firmen, numerische Simulationen zu verwenden. In zehn Jahren wird das Handy-Taschencomputerdingens vibrieren, wenn wir beim Rausgehen keinen Schirm dabei haben, obwohl unsere Terminkalender-Software berechnet hat, dass wir am Nachmittag im Regen auf den Bus warten werden. Die Mathematik dahinter: Nur mit Promotion in Mathematik nachvollziehbar und fuer den Anwender absolut unsichtbar.
Und mal wieder ein paar Schnipsel:
- Ein weiterer Artikel darueber, warum der Impact Factor nur den Impact Factor misst (ueber Terry Taos Blog).
- Grandios (danke an Tim): Science-Slam-Vortrag, der richtig gut erklaert, wofuer krasse Forscher denn so grob bezahlt werden. Vom selben Typ: Kuehltuerme sind nicht nur da, um Wolken zu machen.
- Die Nachbarschaft ist ruiniert: Facebook zieht nach Menlo Park! Wie ich aus "The Social Network" erfahren habe, bedeutet das Drogen, wilde Parties und Babes!
Labels:
Mathematik,
Numerische Simulation
Abonnieren
Posts (Atom)