Springe direkt zu Inhalt

Abschlussarbeit

Diese Seite soll einen Überblick über die Durchführung, das Aussehen und die Organisation von Abschlussarbeiten am Institut für Meteorologie verschaffen.

Weiter unten finden sich momentane Themenvorschläge für Bachelor- und Masterarbeiten der verschiedenen AGs, dem GFZ Potsdam, dem Observatorium Lindenberg und dem Institut für Weltraumwissenschaften. 

Überblick

Die Abschlussarbeit ist wohl das größte Projekt eures Studiums. Es wird empfohlen, sich ein Gitlab repository dafür einzurichten.

Dies hat zwei große Vorteile: 

  1. Externe Sicherung eurer Daten, falls eure lokale Ablage beschädigt oder nicht mehr verfügbar ist.
  2. Versionsverwaltung - ihr könnt jederzeit auf ältere Versionen eurer Dateien zugreifen.

Die offizielle Dokumentation zum Arbeiten mit Gitlab und ein Tutorial für Studierende der Meteorologie sind sehr lesenswert.

Im GitLab findet ihr ein Template für Abschlussarbeiten am Institut für Meteorologie.

Es gibt nun drei Möglichkeiten:

1. Template als zip-Datei downloaden unter 

https://gitlab.met.fu-berlin.de/magro/Masterarbeit.git

und lokal arbeiten.

2. Den repository klonen mit

$ git clone https://gitlab.met.fu-berlin.de/magro/Abschlussarbeit-Template.git

und lokal weiterarbeiten.

3. Den repository klonen und in ein eigenes repository pushen (empfohlen!)
  1. Neues repository Abschlussarbeit unter eurem user auf https://gitlab.met.fu-berlin.de anlegen

  2. Terminal öffnen

  3. $ git clone --mirror https://gitlab.met.fu-berlin.de/magro/Abschlussarbeit-Template.git
  4. $ cd Abschlussarbeit-Template.git
  5. $ git push --mirror https://gitlab.met.fu-berlin.de/user/Abschlussarbeit.git
  6. $ cd ..
  7. $ git clone https://gitlab.met.fu-berlin.de/user/Abschlussarbeit.git
  8. $ rm -Rf Abschlussarbeit-Template.git

Vorschläge: Unten finden sich momentane Themenvorschläge für Bachelor- und Masterarbeiten.

Oder: Vorbringen eines eigenen Vorschlags direkt bei einem/einer MitarbeiterIn.

Zu beachten ist: 

Macht euch rechtzeitig Gedanken über euer Thema! Eine umfassende Literaturrecherche ist sehr zeitintensiv.

Sind die gewünschten Betreuer auch prüfungsberechtigt? Ist das nicht der Fall, müsst ihr euch um einen weiteren (oder sogar beide) Gutachter selber kümmern. Nach Beschluss des Prüfungsausschusses (anders als in der Prüfungsordnung zu lesen) muss für die Bachelorarbeit mindestens ein Gutachter prüfungsberechtigt sein. Für die Masterarbeit müssen dagegen beide prüfungsberechtigt sein. 

Für die Anmeldung der Abschlussarbeit gibt es ein entsprechendes Formular vom Prüfungsbüro. Dieses muss mit der Unterschrift des Betreuers versehen werden und danach beim Prüfungsbüro in Lankwitz abgeben werden. Dort wird dann das Datum für die Abgabefrist festgelegt. Die Bewilligung dieses Antrags sollte im Allgemeinen keine Hürde darstellen, sodass ihr ab jetzt für die Bachelorarbeit drei Monate und für die Masterarbeit fünf Monate Bearbeitungszeit habt.

Bewilligung des Antrags der Anmeldung

Wurde der Antrag vom Prüfungsauschuss bewilligt, erhaltet ihr postalisch die endgültige Bestätigung der Anmeldung der Abschlussarbeit vom Prüfungsbüro. Die Daten stehen auch nochmal im Campus Management.

Hinweis: Diese Reihenfolge ist einer von vielen Wegen der nach Rom führt!
  1. Literaturrecherche (Bibliothek, bereits veröffentlichte Paper oder Abschlussarbeiten, ...).
  2. Sichtung der euch gegebenen Daten und der eventuell zur Auswertung zu benutzenden Programme - müsst ihr euch erst einarbeiten in eine Programmiersprache? Ist das Programm schon fertig und kann es direkt benutzt werden?
  3. Anwendung des Datensatzes auf eure Statistik/Auswertung der Daten. Als Tipp: Haltet kontinuierlich Kontakt mit euren Betreuern! Ihr könnt ein regelmäßiges Treffen, z.B. einmal pro Woche, vorschlagen.
  4. Niederschreiben der Arbeit.
  5. Gegenlesen. Plant dafür mehrere Wochen ein.
  6. Der Vortrag im gemeinsamen Seminar.  Der Vortrag über die Bachelorarbeit ist unbenotet und darf zu jedem Zeitpunkt stattfinden. Oft bringt die Diskussion im gemeinsamen Seminar neue Ansätze. Der Vortrag über die Masterarbeit ist benotet und darf erst nach deren Abgabe stattfinden. Dieser macht 5LP der 30LP aus. 

[Eventueller Antrag auf Verlängerung]

Solltet ihr also wider Erwarten mit der vorgegebenen Bearbeitungszeit nicht zurechtkommen, könnt ihr begründet einen Antrag auf Verlängerung stellen. Hierbei sollten nachvollziehbare Gründe aufgezählt werden und sicherlich nicht Urlaub o.Ä., der euch in Zeitbedrängnis brachte. Der Antrag muss vom Betreuer als auch vom Vorsitzenden des Prüfungsausschusses unterschrieben werden.

Steht die Endfassung eurer Abschlussarbeit fest, kann es ans Drucken- und Bindenlassen gehen. Beides könnt ihr bei diversen Copy-Shops erledigen lassen oder bei der ZEDAT in der Rost- und Silberlaube. Bedenkt, dass ihr drei (!) Exemplare später abgeben müsst und eine beschriftete CD mit der digitalen Fassung eurer Arbeit.

Anschließend geht es mit den gedruckten Exemplaren und der CD nach Lankwitz ins Prüfungsbüro.

Achtung: Erkundigt euch langfristig vorher, ob und wann das Prüfungsbüro geöffnet ist, vor allem während der Semesterferien! Rechnet also mit Urlaub oder sehr knappen Öffnungszeiten.

In den meisten Fällen erfährt man nach einigen Wochen via Campus Management die Note der Abschlussarbeit. Diese setzt sich aus dem arithmetischen Mittel der Noten der beiden Gutachter zusammen.

Bachelorarbeitsthemen

Zuletzt aktualisiert am: 05.12.2019

Durch welche Mechanismen vertiefen sich Europäische Extremzyklonen?

Betreuung: Dr. Jens Grieger, Prof. Dr. Uwe Ulbrich

Beschreibung: Mit Hilfe der Drucktendenzgleichung lässt sich die Entwicklung extra-tropischer
Tiefdruckgebiete bestimmten Mechanismen zuordnen. Diese sind hauptsächlich durch Baroklinität
und diabatische Prozesse bestimmt. In dieser Arbeit sollen Europäische Extremzyklonen eines Ereigniskataloges untersucht und dabei die verschiedenen Beiträge zur Intensivierung bestimmt werden.

Datengrundlage: ERA-20C Reanalyse, Zyklonenzugbahnen, Drucktendenzdaten

Vorkenntnisse: CDO, R und eventuell NCL


Untersuchung des Zusammenhanges von NAO und Wärmeinhalt des Nordatlantiks auf der dekadischen Zeitskala

Betreuung: Thomas Moran

Beschreibung: Es existieren Untersuchungen, die einen Zusammenhang zwischen großräumigen atmosphärischen Zirkulationsmustern, insbesondere der NAO und Meeresoberflächentemperaturen des Nordatlantiks zeigen. Dabei scheint vor allem die Atmosphäre die Temperaturverteilung im Ozean zu beeinflussen. Andere Studien zeigen, dass auch der Ozean die Atmosphäre beeinflusst. Im Rahmen eines Projektes, das in der Arbeitsgruppe bearbeitet wird, wurde bereits der Zusammenhang zwischen dem Ozeanwärmeinhalt und der dekadischen Variabilität von Winterstürmen über Europa und dem Nordatlantik untersucht. In der Bachelorarbeit soll die Wechselwirkung von Ozeanwärmeinhalt im Nordatlantik und der NAO auf der dekadischen Zeitskala in einem Ensemble aus gekoppelten Modellsimulationen analysiert werden.

Grundlagen: Ensemble von Modellsimulationen Voraussetzungen: CDO, R, Statistik (Zeitreihenanalyse)


COSMO-Reanalysen: Charakteristika von Niederschlagsereignissen

Betreuung: Dr. Martin Göber, Edmund Meredith

Beschreibung: Im Cosmo-Reanalyseprodukt des Hans-Ertel-Zentrums (Uni Bonn) werden intensive Niederschlagssysteme untersucht. Sie werden als zusammenhängende Gebiete mit Überschreitungen eines Perzentilwerts identifiziert. Die Auswertung untersucht die Häufigkeitsverteilung von Ausdehnung, mittlerer (Perzentil-)Intensität, der (Perzentil-)Maxima und der Zahl der Extrema innerhalb des Gebiets, sowie die Beziehungen zwischen diesen Größen. Es wird untersucht, ob sich innerhalb Deutschlands und im Jahresgang Unterschiede in den Charakteristika zeigen.

Datengrundlage: COSMO-Reanalysen.

Vorkenntnisse: CDO und R/Matlab Kenntnisse erforderlich


Untersuchung des Zusammenhangs zwischen Winterstürmen und Ozeantemperaturen in einem Klimamodell

Betreuung: Ines Höschel

Beschreibung: Da Winterstürme zu den schadensträchtigsten Wetterextremen in Europa zählen, besteht ein großes Interesse an deren längerfristigen Vorhersagbarkeit und dem Verständnis involvierter Prozesse, z.B. im Ozean. Im Rahmen eines am Institut durchgeführten Projektes wurde in Reanalysedaten ein Zusammenhang zwischen der Häufung Europäischer Winterstürme und den Meeresoberflächentemperaturen im Pazifik und Atlantik des Vorjahres nachgewiesen. In dieser Arbeit soll untersucht werden, ob dieser Zusammenhang auch in den Gleichgewichtssimulationen eines Klimamodells zu finden ist und mit welchen Anomalien und räumlichen Mustern im Wärmeinhalt des Ozeans die Häufung von Stürmen im Modell verbunden ist.

Datengrundlage: u- und v-Wind (6-stündlich), Meeresoberflächentemperaturen und Wärmeinhalt des Ozeans (monatlich) des Gleichgewichtslaufes des Erdsystemmodells des MPI Hamburg (MPI-ESM-LR)

Vorkenntnisse: CDO, R, Unix/Linux


Die Rolle von Zyklonen bei Starkniederschlagsereignissen

Betreuung: Dr. Katrin Nissen

Beschreibung: Im Rahmen des EU RAIN Projektes wurden Starkniederschlagsereignisse in Europa für den Zeitraum von 1981-2010 identifiziert. In der Bachelorarbeit soll untersucht werden welche Rolle Zyklonen für die Ereignisse gespielt haben. Ein Katalog von Zyklonenzugbahnen, die mit Hilfe des ERA Interim Reanalyse Datensatzes bestimmt wurden, liegt vor. Für die Arbeit soll ein Algorithmus, der für die Zuordnung von Stürmen zu Zyklonen entwickelt wurde, so angepasst werden, dass eine Zuordnung der Niederschlagsereignisse zu Zyklonen erfolgt. In der Arbeit sollen dann die charakteristischen Eigenschaften von Zyklonen, die extremen Niederschlag in Europa ausgelöst haben, untersucht werden (z.B. Stärke der Zyklonen, Geschwindigkeit, Lage zum Niederschlagsereignis). Weiterhin soll analysiert werden, welche Niederschlagsereignisse bevorzugt von Zyklonen ausgelöst werden (z.B. Auftrittsort, Jahreszeit, Niederschlagsdauer).

Datengrundlage: Katalog von extremen Niederschlagsereignissen, Katalog von Zyklonen, Fortranprogramm zur Zuordnung von Extremereignissen zu Zyklonen.

Vorkenntnisse: Fortran (wer kein Fortran mag, kann das existierende Programm auch gerne als nur als Anhaltspunkt verwenden und ein eigenes in R schreiben), R.


Vergleich eines automatischen Verfahrens zur Unterscheidung der Niederschlagsphasen (fest/flüssig, flüssig/flüssig) mit der Wetterbeobachtung an der FU-Berlin

Betreuung: Bernd Bartels (DWD, Luftfahrtberatungszentrale Ost , Berlin), Eckhard Lanzinger (DWD), Dr. Klaus Müller, Thomas Schartner

Beschreibung: Quantitativer Vergleich des am DWD entwickelten Algorithmus zur Bestimmung der Niederschlagsphase mit den entsprechenden Wetterbeobachtungen an der FU-Berlin. Überblick über die zugehörigen Zeitreihen. Systematische Analyse von Abweichungen, insbesondere auf Basis der Eingangs-Größen des Algorithmus und der synoptischen Meldungen.

Datengrundlage: Zeitreihen der Wetterbeobachtung und der Messdaten (insb. des Disdrometers) an der Station Dahlem.

Vorkenntnisse: Statistik (Zeitreihenanalyse)

Validierung einer statistischen Methode zur Vorhersage der NAO

Betreuer: Dr. Ingo Kirchner

Beschreibung: Die Schätzung der NAO mittels erster EOF der geopotentiellen Höhe der 500 hPa Fläche wird auf die Vorhersagen verschiedener Modelle für 1-2 Wochen angewendet. Die Berechnung der NAO Stärke aus den Vorhersagen ist mit den Beobachtungen bzgl. der Zuverlässigkeit zu prüfen.

Grundlagen: Auswertung der täglichen Vorhersagen seit 2012


Verifikation des Einflusses der NAO Stärke auf das Wetter in Berlin

Betreuer: Dr. Ingo Kirchner

Beschreibung: Die Berechnung der NAO Stärke mit einer statistischen Methode wird als Indikator für die Charakterisierung des Berliner Wetters herangezogen. Es ist zu untersuchen, inwieweit sich dieser Indikator als Prediktor für verschiedene Wetterelemente eignet. Die Untersuchung stützt sich auf das Berliner Stadtmessnetz.

Grundlagen: Auswertung der täglichen Vorhersagen seit 2012 und Daten des Stadtmessnetzes


Energiebilanz in einem Globalmodell und die Veränderungen durch die Modellauflösung

Betreuer: Dr. Ingo Kirchner

Beschreibung: Analyse von Modellvariablen, die mit der Energiebilanz in Beziehung stehen, untersucht wird das statistische Verhalten auf verschieden Zeitskalen.

Grundlagen: Modelldaten von neun 40 Jahres-AMIP Simulationen mit ECHAM5 (Ausbau des Themas als Masterarbeit möglich) 


Extremniederschläge in einem wärmeren Klima

Betreuer: Stephan Pfahl

Beschreibung: Mögliche Änderungen der Intensität extremer Niederschläge gehören zu den folgenreichsten Konsequenzen der Klimaerwärmung. Auf Grund des höheren Sättigungsdampfdrucks in einer wärmeren Atmosphäre erwartet man eine Zunahme des atmosphärischen Feuchtegehalts und damit auch der Niederschlagsintensität, aber regional können auch Änderungen in der atmosphärischen Dynamik eine große Rolle spielen (Pfahl et al., 2017). Diese dynamischen Effekte sind noch mit großen Unsicherheiten verbunden.

Das Ziel dieser Arbeit ist es, mit Hilfe einer Fallstudie unser Prozessverständnis solcher dynamischer Effekte zu verbessern. Dazu werden Modellsimulationen für das heutige Klima und ein mögliches wärmeres Klima am Ende dieses Jahrhunderts analysiert (Kay et al., 2015). Beispielhaft soll die synoptische Situation während zwei extremen Niederschlagsereignissen (eins unter heutigen Bedingungen, eins im wärmeren Klima) detailliert beschrieben werden. Dazu werden z.B. der atmosphärische Feuchtegehalt, die Zirkulation in der freien Troposphäre und der Transport von Luftmassen betrachtet (siehe Beispiel in der Abbildung unten).

Vorkenntnisse: Interesse am Klimawandel sowie an synoptischen Betrachtungen von extremen Wetterereignissen. Grundkenntnisse in einer Skriptsprache (R, Python)

Literatur:

  • Grams, C. M., H. Binder, S. Pfahl, N. Piaget, and H. Wernli, 2014: Atmospheric processes triggering the central European floods in June 2013. Nat. Hazards Earth Syst. Sci. 14, 1691-1702, doi:10.5194/nhess-14-1691-2014.
  • Kay. J. E. et al., 2015: The Community Earth System Model (CESM) Large Ensemble Project: A community resource for studying climate change in the presence of internal climate variability. Bull. Amer. Meteor. Soc.96, 1333-1349, doi:10.1175/BAMS-D-13-00255.1.
  • Pfahl, S., P. A. O’Gorman, and E. M. Fischer, 2017: Understanding the regional pattern of projected future changes in extreme precipitation. Nature Clim. Change 7, 423-427, doi:10.1038/nclimate3287.

Äquipotentielle Temperatur und Bodendruckkarte am 31.05.2013 über Zentraleuropa; Bildquelle: Grams et al., 2014


Der Zusammenhang zwischen Trockenheit und blockierenden Hochdruckgebieten

Betreuer: Stephan Pfahl

Beschreibung: Blockierende Hochdruckgebiete sind stationäre Wettersysteme, die im Sommer zu erhöhten Temperaturen führen und häufig extreme Hitzewellen verursachen (Pfahl und Wernli, 2012). Außerdem gehen solche Hochdruckgebiete typischerweise mit absinkenden Luftmassen, wolkenfreiem Himmel und damit Trockenheit einher (siehe Abbildung unten). Während der Zusammenhang der Hochdruck-Wetterlagen mit Temperaturextremen relativ gut verstanden und quantifiziert ist, gibt es bisher wenige Studien zu einer Verknüpfung von blockierenden Hochdruckgebieten mit Trockenperioden. Ein besseres Verständnis der dynamischen Prozesse, die Trockenheit begünstigen, ist aber insbesondere im Kontext des anthropogenen Klimawandels vonnöten, der in vielen Regionen zu stärker ausgeprägten Trockenperioden führen könnte (Dai, 2013).

In dieser Arbeit wird eine einfache statistische Methode (nach Pfahl und Wernli, 2012) verwendet, um den räumlichen Zusammenhang zwischen blockierenden Hochdrucklagen und Trockenheit zu quantifizieren. Dazu wird, basierend auf Reanalyse-Daten, ein objektiver Index für blockierende Hochdruckgebiete mit einem oder mehreren Trockenheits-Indizes (zum Beispiel nach Byun und Wilhite, 1999) verknüpft.

Vorkenntnisse: Interesse am atmosphärischen Wasserkreislauf sowie an klimatologischen Auswertungen. Grundkenntnisse in einer Skriptsprache (R, Python)

Literatur:

  • Byun, H.-R. and D. A. Wilhite, 1999: Objective quantification of drought severity and duration. J. Climate 12, 2747-2756.
  • Dai, A., 2013: Increasing drought under global warming in observations and models. Nature Clim. Change 3, 52-58, doi:10.1038/NCLIMATE1633.
  • Pfahl, S. and H. Wernli, 2012: Quantifying the relevance of atmospheric blocking for co-located temperature extremes in the Northern Hemisphere on (sub-)daily time scales. Geophys. Res. Lett.39, L12807, doi:10.1029/2012GL052261.
Blockierende Hochdrucklage während des trockenen und heissen Sommers 2015 über Europa im Satellitenbild vom 01. Juli 2015 (grün konturiert dynamische Tropopause, blau blockierende Antizyklone), Bildquelle: Christian Grams


Tägliche Schwankungen der Temperatur unter Einfluss der Klimaerwärmung

Betreuer: Stephan Pfahl

Beschreibung: Änderungen in der Variabilität der bodennahen Temperatur in einem wärmeren Klima können weitreichende Konsequenzen für die Gesellschaft haben. Bisher wurden diesbezüglich vor allem Änderungen in der statistischen Varianz der Temperatur analysiert (z.B. Screen, 2014; Schneider et al., 2015). Gerade für die menschliche Gesundheit sind aber auch die Schwankungen der Temperatur von Tag zu Tag ein entscheidender Faktor.

In dieser Arbeit sollen diese Schwankungen mit Hilfe von Reanalysedaten für verschieden Regionen der Erde quantifiziert werden. Außerdem werden die dazugehörigen Zirkulations-Anomalien charakterisiert und es wird eine Trend-Analyse durchgeführt.

Vorkenntnisse: Interesse an klimatologischen Auswertungen. Grundkenntnisse in einer Skriptsprache (R, Python), die zur Datenauswertung verwendet werden kann, sind von Vorteil, können aber auch während der Arbeit erworben werden.

Literatur:

  • Schneider, T., T. Bischoff, and H. Plotka, 2015: Physics of changes in synoptic midlatitude temperature variability. J. Climate 28, 2312-2331, doi:10.1175/JCLI-D-14-00632.1.
  • Screen, J., 2014: Arctic amplification decreases temperature variance in northern mid- to high-latitudes. Nature Clim. Change 4, 577-582, doi:10.1038/NCLIMATE2268.

Anomalie der subsaisonalen Temperatur-Varianz in den nördlichen Breiten für die Periode 1979-2013. Rote Farben kennzeichnen eine positive, blaue Farben eine negative Anomalie. Aus Screen (2014).


Kalibrierung eines Tropfenzählbasierenden Niederschlagsmessers

Betreuung: Prof. Dr. Henning Rust

Beschreibung: Tropfenzählbasierte Niederschlagsmesser erlauben durch die Möglichkeit der Messung kleiner Regenmengen eine hohe Auflösung in der Zeit. Vier dieser Geräte laufen im Probebetrieb am IfM und sollen mit den Standard-Messgeräten (Wippe, Waage) verglichen und anhand dieser kalibriert werden.

Grundlagen: Spaß an statistischer Auswertung, R oder Ähnliches

Evaluierung der Luftqualitätsvorhersage von LOTOS-EUROS innerhalb CAMS

Betreuer: Prof. Martijn Schaap, Dr. Sabine Banzhaf

Beschreibung: Innerhalb die Europäische Copernicus Atmosphäre Monitoring Service (CAMS: http://atmosphere.copernicus.eu/) werden Luftqualitätsvorhersagen erstellt für Feinstaub, Ozon und NO2. Es gibt derzeit 7 Modelle die zusammen ein Ensemble bauen, unter deren das LOTOS-EUROS Modell das am FUB mitentwickelt wird. Ziel dieses Themas ist die Validierung der Vorhersagen von LOTOS-EUROS anhand Beobachtungsdaten. Die Frage ist in wie weit sich der Modellskill sich unterscheiden von der andere Modelle und ob es Erklärungen dafür gibt. Die Validierung findet statt anhand standard statistischen Parameter. Studien könnten separat über Ozon, Feinstaub und NO2 gemacht werden.

Grundlagen: Literatur und Modellergebnisse sind vorhanden

Bemerkung: Betreuung teilweise von TNO, Holland.


Evaluierung der Herkunft von NO2 in Berlin

Betreuer: Prof. Martijn Schaap, Dr. Sabine Banzhaf

Beschreibung: NO2 ist schädlich für die Gesundheit. Derzeit gibt es Fragen zum Herkunft von NO2-Konzentration innerhalb Berlin. Vor allem nächtliche Werte sind manchmal erhöht ohne das es direkte Quellen gibt. Ziel dieses Themas ist anhand Messdaten und ein LOTOS-EUROS Lauf inklusive Quellenzuordnung die Variabilität in der Herkunft des NO2 zu bestimmen.

Grundlagen: Literatur und Modellergebnisse sind vorhanden

Bemerkung: Betreuung teilweise von TNO, Holland.


Analyse von der natürlichen chemischen Zusammensetzung der Erdatmosphäre

Betreuer: Prof. Peter Builtjes

Beschreibung: Die Bestimmung der natürlichen Konzentrationen von Spurengasen und Aerosolen ist wichtig, um die chemische Zusammensetzung der Atmosphäre bestimmen zu können. Neben dieser wissenschaftlichen Fragestellung/Neugier ist die Kenntnis auch wichtig für Untersuchungen im Themengebiet Luftreinhaltung. Wenn bekannt ist wie groß der Beitrag von biogenen und geogenen Emissionen zur auftretenden Konzentration ist, kann man den Einfluss von anthropogenen Emissionen ableiten. Basiert auf einer Literaturanalyse von Messkampagnen (z.B. in Eisbornkernen), Laboruntersuchungen und theoretischen Betrachtungen der Entwicklung der Erdatmosphäre und mit Hilfe von Modellergebnisse kann man eine Abschätzung über die natürlichen Konzentrationen von Spurengasen und Aerosolen machen. Studien können über Stoffe wie CH4, CO2, SO2, NO2, NH3, O3, VOC, Aerosolen (PM) gemacht werden.

Grundlagen: Literatur und einige Modellergebnisse sind vorhanden

Bemerkung: Betreuung teilweise von Holland aus 

Untersuchungen verschiedener Phasen der Nordatlantischen Oszillation (NAO) und des Pazifik-Nordamerika Telekonnektionsmusters (PNA) mithilfe der harmonischen Analyse des Geopotentials

Betreuung: Dipl. Math. Anette Müller, PD Dr. Peter Névir

Beschreibung: Verschiedene Phasen der Nordatlantischen Oszillation (NAO) und des Pazifik-Nordamerika-Telekonnektionsmusters (PNA) sind durch unterschiedliche Aktivität planetarer Wellen gekennzeichnet. Es sollen mit Hilfe der harmonischen Analyse über unterschiedliche globale Wellenkonfigurationen ein Zusammenhang von NA0 und PNA herausgearbeitet werden.

Grundlagen: Zur Verfügung stehen die ERA-Interim Reanalysen sowie das Programm zur Berechnung der Fourier-Koeffizienten der harmonischen Analyse.


Untersuchung des meridionalen Temperaturgradienten auf der Nordhalbkugel mithilfe der harmonischen Analyse

Betreuung: Dipl. Math. Anette Müller, PD Dr. Peter Névir

Beschreibung: Der meridionale Temperaturgradient ist ein wichtiges Maß für die Baroklinität und Zyklonenaktivität der Westwindzone der mittleren Breiten. Es soll mit Hilfe der harmonischen Analyse des meridionalen Temperaturgradienten die globale Struktur wellendynamisch untersucht werden und ein Zusammenhang zu der Wellenstruktur des Geopotentials hergestellt werden.

Grundlagen: Zur Verfügung stehen die ERA-Interim und NCE-Reanalysen sowie das Programm zur Berechnung der Fourier-Koeffizienten der harmonischen Analyse.


Untersuchung der Beziehung zwischen dem Dynamischen Zustandsindex (DSI) und Prozessen auf der konvektiven Skala

Betreuung: Dipl. Math. Anette Müller, PD Dr. Peter Névir

Beschreibung: Der dynamische Zustandsindex (DSI) wurde in der Arbeitsgruppe Theoretische Meteorologie entwickelt. Er beschreibt Abweichungen eines Grundzustandes. Es konnte bisher gezeigt werden, dass der Index stark mit diabatischen Prozessen wie beispielsweise Niederschlag korreliert ist. Zusammenhänge zu weiteren Prozessen und bekannten meteorologischen Größen sollen datenbasiert untersucht werden.

Grundlagen: Zur Verfügung stehen berechnete DSI-Daten sowie die REA2 und die REA6 Reanalysen für Deutschland und Europa.

Einfluss der synoptischen Bedingungen in der Troposphäre auf das polare Totalozon im Nordwinter

Betreuer: Prof. Dr. Ulrike Langematz , Janice Scheffler

Projektanbindung: SHARP

Beschreibung: Der Ozongehalt in der Polarregion kann im Winter chemisch und dynamisch beeinflusst sein. In der Stratosphäre kann ein starker, kalter Polarwirbel durch chemischen Ozonabbau zu geringem Totalozon führen. Andererseits können geringe Totalozonwerte auch auftreten, wenn in der Troposphäre Hochdruckgebiete vorherrschen (sog. Ozonminilöcher). In dieser Studie soll anhand einer Modellsimulation mit einem Klima-Chemie Modell untersucht werden, wie oft das Winterminimum im Totalozon durch Ozonabbau in der Stratosphäre oder durch Ozonminilöcher verursacht wird. Dies soll anhand von Fall- und Kompositstudien synoptisch und statistisch analysiert werden.

Grundlagen: Modelloutput einer Simulation mit dem Klima-Chemie Modell EMAC (SHARP REF0, 75 Jahre), vorhandene Auswertesoftware 


Thema auf Anfrage im gemeinsamen Gespräch

Bei Interesse bitte Konakt mit Univ.-Prof. Langematz aufnehmen.

Variabilität der oberflächennahen Winde in aktuellen atmosphärischen Reanalysen und deren Einfluss auf die simulierte windgetriebene Ozeanzirkulation

Betreuer: Dr. Henryk Dobslaw (dobslaw@gfz-potsdam.de), Prof. Dr. Maik Thomas (mthomas@gfz-potsdam.de)

Beschreibung: Die windgetriebene Zirkulation im Weltozean hat insbesondere auf Zeitskalen von Tagen bis hin zu Dekaden einen großen Einfluß auf regionale und lokale Änderungen des Meeresspiegels. Prädiktionen der zeitvariablen windgetriebenen Dynamik werden regelmäßig aus Simulationsexperimenten mit globalen numerischen Ozeanmodellen gewonnen, die mit Atmosphärendaten aus globalen NWP-Analysen oder Reanalysen angetrieben werden. Ausgehend von vier aktuellen globalen soll der Ensemble-Spread der oberflächennahen Windgeschwindigkeiten und -schubspannungen für verschiedene Frequenzbänder bestimmt und in seinen räumlichen Mustern diskutiert werden, um Sensitivitätsexperimente mit einem globalen Ozeanzirkulationsmodell unter realistisch verrauschten Windschubspannungen vorzubereiten.

Anforderungen: Theorie der windgetriebenen Ozeandynamik; Kenntnisse der CDO's (Climate Data Operators); Grundkenntnisse in Matlab oder R.


Untersuchung der raumzeitlichen Variabilität globaler Niederschläge in GPCC- Analysen

Betreuer: Dr. Robert Dill (dill@gfz-potsdam.de), Prof. Dr. Maik Thomas (mthomas@gfz- potsdam.de)

Beschreibung: Das beim Deutschen Wetterdienst angesiedelte Weltzentrum für Niederschlag (Global Precipitation Climatology Centre; GPCC) sammelt und archiviert alle weltweit verfügbaren Beobachtungen zu Niederschlagsmengen und -ereignissen und erstellt routinemäßig globale Rasterdatensätze mit unterschiedlichen räumlichen und zeitlichen Auflösungen. Zur Vorbereitung von Vergleichen bzw. zur Kombination von klassischen Niederschlagsbeobachtungen und Änderungen des terrestrisch gespeicherten Wassers aus Daten der Satellitenschwerefeldmission GRACE sollen in dieser Arbeit die verschiedenen aktuell verfügbaren Produkte des GPCC analysiert und zur späteren Nutzung als Antriebsdaten des globalen Landoberflächenmodells LSDM vorbereitet werden.

Anforderungen: Grundkenntnisse in R or Matlab; Kenntnisse der CDO's (Climate Data Operators)


Analyse von atmosphärischen und hydrosphärischen Auflastdeformationen an GPS-Permanentstationen in Hinblick auf eine 3D Erdstruktur

Betreuer: Dr. Volker Klemann (volker.klemann@gfz-potsdam.de), Prof. Dr. Maik Thomas (mthomas@gfz-potsdam.de)

Beschreibung: Untersucht werden sollen Auflastdeformationen, die durch zeitvariable Massenverteilungen an der Erdoberfläche verursacht werden und Messungen an GPS- Stationen beeinflussen. So müssen vor allem für Stationen nahe an der Küste oder an einem Fluss die verursachenden atmosphärischen, ozeanischen oder hydrologischen Auflasten in hoher räumlicher Auflösung betrachtet und die lokale Erdstruktur berücksichtigt werden. An Hand bereits vorhandener Übertragungsfunktionen, welche die Deformationsantwort einer 1D Erdstruktur charakterisieren, und dem Vergleich mit der Deformationsantwort eines 3D Erdmodelles sollen die verwendeten Übertragungsfunktionen evaluiert werden.

Anforderungen: Grundkenntnisse in Fortran/Matlab/Shell Programmierung und Interesse an numerischen Fragestellungen


Entwicklung der Beringstraße während des letzten glazialen Zyklus

Betreuer: Dr. Volker Klemann (volker.klemann@gfz-potsdam.de), Prof. Dr. Maik Thomas (mthomas@gfz-potsdam.de)

Beschreibung: Während eines glazialen Zyklus fällt der Meeresspiegel um bis zu 130 m. Diese Änderung ist nicht homogen, sondern wird von der isostatischen Antwort der festen Erde auf die zeitlich variierende Lastverteilung überprägt. Die damit verbundene Veränderung des Meeresspiegels soll anhand der zeitweisen Öffnung der Beringstraße beispielhaft untersucht werden. Mit Hilfe vorhandener Modell-Ensembles, die die Abhängigkeit des Meeresspiegels von der Erdstruktur und der Eisgeschichte abbilden, sollen Unsicherheiten und Variabilitäten in der Rekonstruktion dieser Wasserstraße untersucht werden.

Anforderungen: Programmierkenntnisse in Fortran, R oder Matlab, Shellprogrammierung und Interesse an numerischen Fragestellungen 


Thema auf Anfrage im gemeinsamen Gespräch

Bei Interesse an einem Bachelorarbeitsthema am GFZ wendens Sie sich bitte an Herrn Prof. Maik Thomas (mthomas@gfz-potsdam.de)

Vergleich verschiedener Stabilitätsmaße aus Messungen auf dem  GM Falkenberg

Betreuer: Dr. Frank Beyrich (MOL-RAO, DWD) / Zweitbetreuer NN (FUB)

Beschreibung: Zur Charakterisierung der Stabilität der Schichtung insbesondere in Bodennähe können verschiedene Kriterien und Maßzahlen genutzt werden, u.a. Temperaturgradienten bzw. –differenzen, die Obukhov-Länge oder die Richardsonzahl (Gradient-, Fluss-, oder Bulk-Ri-Zahl). Diese Maßzahlen sollen aus Messungen an den Masten auf dem GM Falkenberg bestimmt, miteinander verglichen und insbesondere ihre Konsistenz in den untersten etwa 50 m über Grund charakterisiert werden. Von Bedeutung sind diese Untersuchungen u.a. für die Bestimmung von Stabilitätsklassen für die Ausbreitungsrechnung von Luftbeimengungen sowie für die Interpretation von Scintillometer-Messungen zur Ableitung flächengemittelter turbulenter Flüsse.

Grundlagen: Datensatz Temperatur- und Windprofile sowie turbulente Flüsse vom GM Falkenberg

Voraussetzungen: Fähigkeit zum Umgang mit Software zur Datenanalyse und –bearbeitung für umfangreichere Datensätze


Nutzung von Scintillometerdaten für die Qualitätsbewertung von Eddy-Kovarianzmessungen

Betreuer: Dr. Frank Beyrich (MOL-RAO, DWD) / NN (FUB)

Beschreibung: Auf dem Grenzschichtmessfeld Falkenberg werden bodennahe Turbulenzmessungen sowohl mittels Ultraschall-Anemometer-Thermometer als auch  mittel Surface-Layer-Scintillometer durchgeführt, wobei die Mess- und Auswerteverfahren sich grundlegend unterscheiden. Unter Nutzung von Hersteller- bzw. Standard-Software erfolgt eine jeweils voneinander unabhängige Qualitätsbewertung der abgeleiteten turbulenten Flüsse. Mit der Arbeit soll untersucht werden, inwieweit Querbezüge zwischen der jeweiligen Bewertung der Datenqualität möglich sind.

Grundlagen: Datensatz turbulente Flüsse aus Sonic-/Scintillometerdaten vom GM Falkenberg. 

Voraussetzungen: Fähigkeit zum Umgang mit Software zur Datenanalyse und –bearbeitung für umfangreichere Datensätze


Test eines Modells für das vertikale Windprofil in der unteren Grenzschicht anhand kombinierter Mast-Lidar-Daten

Betreuer: Dr. Frank Beyrich (MOL-RAO, DWD) / NN (FUB)

Beschreibung: In der VDI-Richtlinie 3783 Blatt 8 „Messwertgestützte Turbulenzparametrisierung für Ausbreitungsrechnungen“ wird ein Modell für die Beschreibung des vertikalen Windprofils in der Grenzschicht in Abhängigkeit von Bodenrauhigkeit, Stabilität, Mischungsschichthöhe angegeben. Das Modell soll für verschiedene Stabilitätsklassen mit gemessenen Windprofilen verglichen werden. Hierfür sind zuvor aus Mast- und Lidar-Messungen synthetische Windprofile für die zu betrachtenden Stabilitätsklassen zu ermitteln.

Grundlagen: Windprofilmodell der VDI 3783/8 und Messungen mittels Schalenstern / Windfahne am Mast sowie Lidar  auf dem GM Falkenberg über einen Zeitraum von etwa 2 Jahren 

Voraussetzungen: Fähigkeit zum Umgang mit Software zur Datenanalyse und –bearbeitung für umfangreichere Datensätze

Kontaktiert bei Interesse Rene Preusker per Mail mit eindeutigem Betreff, sonst landet eure Anfrage im Spamfilter, aber am besten persönlich in Raum 159.

Masterarbeitsthemen

Zuletzt aktualisiert am:  05.12.2019

Thema auf Anfrage im gemeinsamen Gespräch
Bei Interesse an einem Masterarbeitsthema in der AG Klimadiagnose und meteorologische Extremeregnisse wendens Sie sich bitte an Herrn Prof. Ulbrich (ulbrich@met.fu-berlin.de).
Feuchte in der Atmosphäre

Betreuer: Stephan Pfahl, Ingo Kirchner

Beschreibung: Atmosphärischer Wasserdampf ist ein essentieller Bestandteil des Klimasystems, zum Beispiel auf Grund seiner Bedeutung für das Strahlungsbudget der Erde und die Bildung von Niederschlag. Eine fundamentale Eigenschaft des Wasserdampfes ist die Aufenthaltsdauer in der Atmosphäre, also die typische Zeitspanne zwischen Verdunstung von der Erdoberfläche und Niederschlag. Schätzungen dieser Zeitskale basierend auf grundsätzlichen Überlegungen zum Feuchtebudget belaufen sich im Mittel auf ca. 8-10 Tage (Trenberth, 1998), wohingegen neuere, mehr prozessorientierte Abschätzungen kürzere Zeitskalen ergeben (Läderach und Sodemann, 2016; siehe Abbildung unten).

In dieser Arbeit soll eine detaillierte Abschätzung der atmosphärischen Aufenthaltsdauer von Wasserdampf mit Hilfe von speziell designten Experimenten mit einem globalen Zirkulationsmodell (Eckstein et al., 2017) durchgeführt werden. Diese Modell-Version erlaubt es, Wasser aus bestimmten Quellen als sogenannte „Tracer“ zu markieren und so separat zu verfolgen. Zur Abschätzung der Aufenthaltsdauer werden mehrere Tracer verwendet, die die Verdunstung in begrenzten Zeiträumen markieren (siehe Läderach, 2016).

Vorkenntnisse: Programmierkenntnisse, Interesse an der Arbeit mit Modellen sowie am atmosphärischen Wasserkreislauf. Die/der Studierende sollte aktiv am Design der Modell-Experimente mitwirken, was etwas technische Arbeit erfordert, aber auch einen Einblick in die Modellstruktur erlaubt.

Literatur:

  • Eckstein, J. et al., 2017: From climatological to small scale applications: Simulating water isotopologues with ICON-ART-iso (version 2.1). Geosci. Model Dev. Discuss., doi:10.5194/gmd-2017-280.
  • Läderach, A. and H. Sodemann, 2016: A revised picture of the atmospheric moisture residence time. Geophys. Res. Lett. 43, 924-933, doi:10.1002/2015GL067449.
  • Läderach, A., 2016: Characteristic scales of atmospheric moisture transport. Diss. ETH No. 23586, doi:10.3929/ethz-a-010741025.
  • Trenberth, K. E., 1998: Atmospheric moisture residence times and cycling: Implications for rainfall rates and climate change. Clim. Change 39, 667-694, doi:10.1023/A:1005319109110.

Trajektorien-basierte Abschätzung der Aufenthaltsdauer von Feuchte in der Atmosphäre, Bildquelle: Läderach und Sodemann, 2016


Der Zusammenhang zwischen Trockenheit und blockierenden Hochdruckgebieten

Hinweis: Das Thema kann auch im Rahmen einer Masterarbeit bearbeitet werden.

Betreuer: Stephan Pfahl

Beschreibung: Blockierende Hochdruckgebiete sind stationäre Wettersysteme, die im Sommer zu erhöhten Temperaturen führen und häufig extreme Hitzewellen verursachen (Pfahl und Wernli, 2012). Außerdem gehen solche Hochdruckgebiete typischerweise mit absinkenden Luftmassen, wolkenfreiem Himmel und damit Trockenheit einher (siehe Abbildung unten). Während der Zusammenhang der Hochdruck-Wetterlagen mit Temperaturextremen relativ gut verstanden und quantifiziert ist, gibt es bisher wenige Studien zu einer Verknüpfung von blockierenden Hochdruckgebieten mit Trockenperioden. Ein besseres Verständnis der dynamischen Prozesse, die Trockenheit begünstigen, ist aber insbesondere im Kontext des anthropogenen Klimawandels vonnöten, der in vielen Regionen zu stärker ausgeprägten Trockenperioden führen könnte (Dai, 2013).

In dieser Arbeit wird eine einfache statistische Methode (nach Pfahl und Wernli, 2012) verwendet, um den räumlichen Zusammenhang zwischen blockierenden Hochdrucklagen und Trockenheit zu quantifizieren. Dazu wird, basierend auf Reanalyse-Daten, ein objektiver Index für blockierende Hochdruckgebiete mit einem oder mehreren Trockenheits-Indizes (zum Beispiel nach Byun und Wilhite, 1999) verknüpft.

Vorkenntnisse: Interesse am atmosphärischen Wasserkreislauf sowie an klimatologischen Auswertungen. Grundkenntnisse in einer Skriptsprache (R, Python)

Literatur:

  • Byun, H.-R. and D. A. Wilhite, 1999: Objective quantification of drought severity and duration. J. Climate 12, 2747-2756.
  • Dai, A., 2013: Increasing drought under global warming in observations and models. Nature Clim. Change 3, 52-58, doi:10.1038/NCLIMATE1633.
  • Pfahl, S. and H. Wernli, 2012: Quantifying the relevance of atmospheric blocking for co-located temperature extremes in the Northern Hemisphere on (sub-)daily time scales. Geophys. Res. Lett.39, L12807, doi:10.1029/2012GL052261.
Blockierende Hochdrucklage während des trockenen und heissen Sommers 2015 über Europa im Satellitenbild vom 01. Juli 2015 (grün konturiert dynamische Tropopause, blau blockierende Antizyklone), Bildquelle: Christian Grams


Blockierende Hochdruckgebiete in einem wärmeren Klima

Betreuer: Stephan Pfahl

Beschreibung: Blockierende Hochdruckgebiete sind ein wichtiger Bestandteil der atmosphärischen Zirkulation in den mittleren Breiten und können zur Entstehung verschiedener Wetterextreme beitragen (siehe z.B. Pfahl und Wernli, 2012). Zukünftige Änderungen in der Häufigkeit solcher Blockierungen könnten weitreichende Konsequenzen nach sich ziehen, allerdings besteht zu Zeit noch kein Konsens zum Ausmaß solcher möglichen Änderungen. Das liegt zum Teil daran, dass unterschiedliche Definitionen und Indizes zur Identifikation der blockierenden Wetterlagen zu unterschiedlichen Ergebnissen in Modellprojektionen führen (siehe Abbildung).

In dieser Arbeit sollen Klimasimulationen analysiert werden, um projizierte zukünftige Änderungen in der Häufigkeit von blockierenden Hochdruckgebieten besser zu verstehen. Dazu werden zwei verschiedene Indizes (die zu sehr unterschiedlichen Ergebnissen führen) in direkten Bezug zueinander gesetzt.

Voraussetzungen für diese Arbeit sind Interesse an atmosphärischer Dynamik und Klimasimulationen. Grundkenntnisse in einer Skriptsprache (R, Python), die zur Datenauswertung verwendet werden kann, sind von Vorteil, können aber auch während der Arbeit erworben werden. 

Literatur: 

  • Pfahl, S. and H. Wernli, 2012: Quantifying the relevance of atmospheric blocking for co-located temperature extremes in the Northern Hemisphere on (sub-)daily time scales. Geophys. Res. Lett.39, L12807, doi:10.1029/2012GL052261.
  • Woollings, T. et al. (2018): Blocking and its response to climate change. Curr. Clim. Change Rep. 4, 287-300, doi:10.1007/s40641-018-0108-z.

Simulierte zukünftige Änderung (für die Periode 2061-2090, Mittel über verschiedene Modelle) in der Blocking-Häufigkeit im Winter basierend auf zwei unterschiedlichen Indizes. Blaue Farben kennzeichnen eine Abnahme, rote Farben eine Zunahme der Häufigkeit. Aus Woollings et al. (2018).



Tägliche Schwankungen der Temperatur unter Einfluss der Klimaerwärmung

Betreuer: Stephan Pfahl

Beschreibung: Änderungen in der Variabilität der bodennahen Temperatur in einem wärmeren Klima können weitreichende Konsequenzen für die Gesellschaft haben. Bisher wurden diesbezüglich vor allem Änderungen in der statistischen Varianz der Temperatur analysiert (z.B. Screen, 2014; Schneider et al., 2015). Gerade für die menschliche Gesundheit sind aber auch die Schwankungen der Temperatur von Tag zu Tag ein entscheidender Faktor.

In dieser Arbeit sollen diese Schwankungen mit Hilfe von Reanalysedaten für verschieden Regionen der Erde quantifiziert werden. Außerdem werden die dazugehörigen Zirkulations-Anomalien charakterisiert und es wird eine Trend-Analyse durchgeführt.

Vorkenntnisse: Interesse an klimatologischen Auswertungen. Grundkenntnisse in einer Skriptsprache (R, Python), die zur Datenauswertung verwendet werden kann, sind von Vorteil, können aber auch während der Arbeit erworben werden.

Literatur:

  • Schneider, T., T. Bischoff, and H. Plotka, 2015: Physics of changes in synoptic midlatitude temperature variability. J. Climate 28, 2312-2331, doi:10.1175/JCLI-D-14-00632.1.
  • Screen, J., 2014: Arctic amplification decreases temperature variance in northern mid- to high-latitudes. Nature Clim. Change 4, 577-582, doi:10.1038/NCLIMATE2268.

Anomalie der subsaisonalen Temperatur-Varianz in den nördlichen Breiten für die Periode 1979-2013. Rote Farben kennzeichnen eine positive, blaue Farben eine negative Anomalie. Aus Screen (2014).

Prüfung der Eignung einer neuen hochaufgelösten Reanalyse für Verwendung in der Ausbreitungsrechnung

Betreuung: Prof. Dr. Henning Rust, Frank Kreienkamp (DWD)

Beschreibung: Für eine Immissionsprognose im Rahmen einer Ausbreitungsrechnung nach der TA Luft wird eine Übertragbarkeitsprüfung meteorologischer Daten benötigt. Hierbei wird geprüft welche naheliegende meteorologische Station für den zu untersuchenden Ort übertragbar /repräsentativ ist. Dieses erfolgt entsprechender der VDI-Richtlinie 3783 Blatt 20 (Stand: März 2017). Alternativ zu Stationsdaten können auch die Ergebnisse von Reanalyse-Simulationen, von geostatistischen-Verfahren oder synthetische Zeitreihen genutzt werden. In diesem Rahmen stellen sind folgende Forschungsfragen: Sind alle Datengrundlagen gleichwertig nutzbar? Gibt es eine regional unterschiedliche Nutzbarkeit? Wenn ja, warum? Sind Model-Output-Statistik Methoden in der Lage die möglichen vorhandenen systematischen Abweichungen zu korrigieren? Wenn ja, wie? Für verschiedene Datensätze (s.u.) soll ein systematischer Vergleich für die mittlere Verteilung der Windrichtung und die Verteilung der Windgeschwindigkeiten (incl. Schwachwind) angestellt werden.

Grundlagen: Stationsdaten und Ergebnisse von Reanalyse-Simulationen (COSMO-HERTZ-Reanalyse 2.8 und 6 km), geostatistischen-Verfahren.

Vorraussetzungen: Kenntnisse in R, CDO, Unix/Linux und Freude an statistischer Auswertung.


Windmessung in der atmosphärischen Grenzschicht mittels UAV

Betreuung: Jens Grieger, Henning Rust

Beschreibung: In dieser Arbeit sollen die Möglichkeiten der Windmessung in der Grenzschicht mittels eines unbemannten Fluggerätes (UAV, Drohne) ausgelotet werden.  Hierzu gibt es zwei Ansatzpunkte: a) der Versatz des UAVs durch den horizontalen Wind wird mittels GPS registriert und darüber wird auf den Wind geschlossen; b) das UAV wird über einen festen Punkt auf dem Boden gehalten und über die intensität der automatischen Positionskorrektur soll auf den Wind geschlossen werden. Die Qualität der Messung wird über einen Vergleich des 100m Masts in Falkenberg bewertet. Eine oder beide Möglichkeiten der horizontalen Windmessung sollen in dieser Arbeit untersucht werden um Advektionsphänomene in der Grenzschicht zu studieren.

Grundlagen: UAV mit automatischer Positionskorrektur, ggf. offenen Hardware um die Intensität der Positinskorrektur auszulesen. Daten des 100m Masts in Falkenberg.

Voraussetzung: Kenntnisse in R und/oder Python, Unix/Linux und Freude an statistischer Auswertung und Spaß am Basteln und Fliegen des UAVs.


Messung meteorologischer Parameter in der Grenzschicht mit UAV

Betreuung: Jens Grieger, Henning Rust

Beschreibung: In dieser Arbeit sollen die Möglichkeiten der Messung verschiedener atmosphärischer Parameter in der Grenzschicht mittels UAV ausgelotet werden, wie beispielsweise Temperatur, Feuchte und Druck. Als Vergleich für die Messungen sollen die UAV Flüge u.a. unmittelbar vor und nach Radiosondenaufstiegen in Lindenberg durchgeführt werden. Teil der Arbeit ist auch die Konfiguration der Messplattform bestehend aus verschiedenen Sensortypen und einem Einplatinenkomputer. Lässt sich mittels eines solchen Messaufbaus die Stabilität der Grenzschicht analysieren?

Grundlage: UAV mit automatischer Positionskorrektur und Sensoren sowie Einplatinencomputer für die Messung und Registrierung von Daten. Daten des 100m Masts in Falkenberg und Radiosondenaufstiege von Lindenberg.

Voraussetzung: Kenntnisse in R und/oder Python, Unix/Linux und Freude an statistischer Auswertung und Spaß am Basteln mit Einplatinencomputern (Raspberry Pi) und Fliegen des UAVs.


Identifizierung und Verfolgung konvektiver Strukturen in Reanalysedaten mit Hilfe visueller Datenanalyse Beschreibung

Betreuung: Dr. Annette Müller, Prof. Dr. Henning Rust

Beschreibung: siehe AG Theoretische Meteorologie


Variabilität in der Andauer von Wetterlagen

Betreuung: Henning Rust, Ko-Betreut vom DWD

Beschreibung: In Zusammenarbeit mit dem DWD soll die Frage erörtert werden, ob sich die Andauer gewisser Wetterlagen in den letzten Jahrzenten geändert hat. Diese Wetterlagen werden entweder aus Reanalysedaten identifiziert und/oder es wird auf vorliegende Datensätze zu den Wetterlagen zurückgegriffen. Die Modellierung der Andauern soll mit verallgemeinerten linearen Modellen erfolgen.

Grundlagen: Reanalysedatensatz und Algorithmus zur Identifikation von Wetterlagen, alternativ ein Datensatz mit identifizierte Wetterlagen. Verallgemeinerte lineare Modelle (GLM) zur Modellierung der Andauern.

Vorraussetzungen: Kenntnisse in R und/oder Python, Unix/Linux und Freude an statistischer Modellierung.


Detektion von ColdPools mittels Temperatur- und Druckgradienten

Betreuung: Henning Rust, Martin Göber

Beschreibung: Bei Gewittern führt der fallende Niederschlag zu einer Abkühlung von Luft, die sich am Boden sammelt. Diese sogenannten Cold-Pools sind aus Simulationen bekannt und sollen im Rahmen der Messkampagne FESSTVaL 220 erstmal gemessen werden. Dazu gibt es etwa 250 Geräte in der Nähe von Lindenberg die Temperatur und Druck messen. Aus diesen vielen Stationen soll mittels räumlicher Statistik ein Temperatur- und Druckfeld geschätzt werden und Cold Pools, sowie deren Entstehung visualisiert werden. Zur Vorbereitung der Messkampagne soll anhand von Pseudomessungen aus Simlationen optimale Aufstellorte der Stationen ermittelt werden.

Grundlagen: Es existieren Hochaufgelöste Simulationen von Cold Pools. Räumliche statistische Modellierung basierend auf Gaußschen Prozessen (Kriging).

Vorraussetzungen: Kenntnisse in R und/oder Python, Unix/Linux und Freude an statistischer Modellierung.


Statistische Modellierung von Sturmschäden in deutschen Landkreisena

Betreuung: Henning Rust, Nico Becker

Projektanbindung: WEXICOM

Beschreibung: In einem bereits existierenden probabilistischen Sturmschadenmodell (Pardowitz et al. 2016) werden Schadensätze (versicherter Schaden / versicherte Werte) in Abhängigkeit von der Windgeschwindigkeit betrachtet. Eine weitere Größe zur Beschreibung von Sturmschäden ist die Schadenhäufigkeit (Anzahl betroffener Verträge / Gesamtzahl der Verträge), die allerdings bisher nicht genauer untersucht wurde. Im ersten Schritt dieser Arbeit wird der Zusammenhang zwischen Schadensatz und Schadenhäufigkeit untersuch. Im zweiten Schritt wird ein statistisches Modell für Schadenhäufigkeiten in deutschen Landkreisen entwickelt.

Grundlagen: Versicherungsdaten von Gesamtverband Deutscher Versicherungsunternehmen, Reanalysen, ECMWF-Ensemblevorhersagen.

Vorraussetzungen: Kenntnisse in R und Freude an statistischer Auswertung.



Statistische Modellierung von Verkehrsunfällen in deutschen Landkreisena

Betreuung: Henning Rust, Nico Becker

Projektanbindung: WEXICOM

Beschreibung: In einem bereits existierenden statistischen Modell für Wahrscheinlickeiten wetterbedingter Verkehrsunfälle werden Unfalldaten aus Polizeiberichten mit verschiedenen Wetterparametern (Niederschlag und Temperatur) in Verbindung gebracht. Ein wichtiger Parameter zur Beschreibung der Unfallhäufigkeit, die Verkehrsdichte, wird auf Grund von unzureichender Datenverfügbarkeit bisher nicht mit berücksichtigt. Ziel dieser Arbeit ist es, für ausgewählte Landkreise verfügbare Verkehrsmessungen in das Unfallmodell zu integrieren. In einem zweiten Schritt soll gestestet werden, ob das Hinzufügen weiterer Wetterparameter (z.B. Wind, blendende Sonne,...) zu einer Verbesserung des Modells führt.

Grundlagen: Polizeiberichte zu schweren Verkehrsunfällen in Deutschland, Reanalysen, Radar-Produkte.

Vorraussetzungen: Kenntnisse in R und Freude an statistischer Auswertung.


Analyse der langfristige Entwicklung der Steigerung von Schadstoffkonzentrationen in europäischen Städten

Betereuer: Prof. Tim Butler

Beschreibung: Laut Emissionskataster der Europäischen Union sinken Emissionen von Luftschadstoffen, darunter NOx(Stickoxide). Messungen von NO2 innerhalb Berlin und anderen europäischen Städten zeigen aber oft keine entsprechende Senkung der Konzentrationen. Messungen werden am Straßenrand, im sogenannten urbanen Hintergrund, und auch in ländlichen Gebieten regelmäßig durchgeführt. Durch Analyse der Verhältnisse zwischen ländlich/urban und urban/Straße Messungen von verschiedenen Schadstoffen, kann eine Schätzung der langfristigen Emissionen gemacht werden.

Datengrundlage: Messungen aus der Luftdatenbank „Airbase“ sind vorhanden.

Vorkenntnisse: Interesse am Thema Luftqualität; Grundkenntnisse in einer Skriptsprache (z.B. R, Python, Perl).


Entwicklung eines Schadstoffemissionsmodell auf Basis meteorologischer Daten

Betereuer: Prof. Martijn Schaap oder Prof. Tim Butler

Beschreibung: Die Variabilität von Schadstoffkonzentrationen wird bedingt durch Emissionsstarke und meteorologischen Bedingungen. Leider wird in die Vorhersage der Luftqualität der Einfluss meteorologischer Parameter auf Emissionen oft vernachlässigt. Das Ziel dieser Arbeit ist Parametrisierungen zu Entwickeln für Quellen die stark durch die Wetterbedingungen geprägt werden. Relevante Quellen und Komponente sind Streusalz, Aufwirbelung, VOC emissionen, agrarisch bedingte Staubemissionen, unz.

Datengrundlage: Ein Emissionsmodell das als Basis dient ist vorhanden.

Vorkenntnisse: Interesse am Thema Luftqualität; Grundkenntnisse in einer Programmiersprache oder Skriptsprache (z.B. Fortran, Python, Perl).


Entwicklung eines Emissionsmodell für natürliche Schwefelkomponente

Betereuer: Prof. Martijn Schaap

Beschreibung: Die Variabilität von Schadstoffkonzentrationen wird bedingt durch Emissionsstarke und meteorologischen Bedingungen. Leider wird in die Vorhersage der Luftqualität der Einfluss meteorologischer Parameter auf Emissionen oft vernachlässigt. Das Ziel dieser Arbeit ist eine neue Parametrisierung für marine DMS Emissionen an zu wenden in LOTOS-EUROS. Dazu sollte ein Emissionsmodul entwickelt werden auf Basis der Literatur.

Datengrundlage: Ein Emissionsmodell das als Basis dient ist vorhanden.

Vorkenntnisse: Interesse am Thema Luftqualität; Grundkenntnisse in einer Programmiersprache oder Skriptsprache (z.B. Fortran, Python, Perl).


Thema auf Anfrage im gemeinsamen Gespräch

Betereuer: Prof. Tim Butler (tim.butler@iass-potsdam.de) oder Prof. Martijn Schaap (martijn.schaap@met.fu-berlin.de)

Beschreibung: Analyse von Luftqualitätsdaten aus Beobachtungen und/oder Modellrechnungen; Modellanwendung; Modellentwicklung und Testen .

Vorkenntnisse: Interesse am Thema Luftqualität. Gute Erfahrung mit mehreren Programmiersprachen.

Bemerkung: Hoch motiviert sein sowie wissenschaftliche Neugier und Interesse am Verständnis von Prozessen der Luftqualität.

Identifizierung und Verfolgung konvektiver Strukturen in Reanalysedaten mit Hilfe visueller Datenanalyse Beschreibung

Betreuung: Dr. Annette Müller, Prof. Dr. Henning Rust

Beschreibung: Ziel dieser Arbeit ist es, mithilfe der COSMO-REA2 Daten konvektive Bewegungen zu identifizeren und zu tracken. Als Variable soll dabei der vertikalen Massefluss dienen. Mittelse der 3D Visualisierungssoftware AMIRA und in Zusammenarbeit mit dem Zuse-Institut Berlin sollen Bereiche konvektiver Aktivität identifiziert und verfolgt werden. Die Eigenschaften der so identifizierten Ereignisse werden registriert und mittels statistischer Modelle weiter untersucht.

Grundlagen: Bereitstellung der COSMO-REA2 Daten, AMIRA-Software

Voraussetzungen: Kenntnisse in Python und/oder R und Statistik, Freude am Einarbeiten in 3D Analyse-tools und die Software AMIRA

Detektion von ColdPools mittels Temperatur- und Druckgradienten

Betreuung: Prof. Dr. Henning Rust, Dr. Martin Güber

Beschreibung: siehe AG Statistische Meteorologie


Statistische Modellierung von Sturmschäden in deutschen Landkreisena

Betreuung: Henning Rust, Nico Becker

Beschreibung:siehe AG Statistische Meteorologie


Statistische Modellierung von Verkehrsunfällen in deutschen Landkreisena

Betreuung: Henning Rust, Nico Becker

Beschreibung:siehe AG Statistische Meteorologie

Neuronale Netze in der Erdsystem-Modellierung

Betreuer: C. Irrgang, J. Saynisch, M. Thomas

Beschreibung:  Aufgrund mangelnder räumlicher, zeitlicher oder physikalischer Auflösung  können numerische Erdsystem-Modelle die Wirklichkeit stets nur mit  begrenzter Genauigkeit abbilden. Künstliche neuronale Netzwerke  können in diesem Zusammenhang als Zusatz-Modelle dienen, um etwa  nicht berücksichtigte physikalische Prozesse zu kompensieren. Das Ziel  dieser Masterarbeit ist es, die Möglichkeiten dieser Methoden zu  untersuchen. Dafür soll ein künstliches neuronales Netzwerk entworfen  und anhand verschiedener Modelldaten unserer Arbeitsgruppe trainiert  werden. Ziel ist es, fehlende Modellphysik zu erkennen und zu rekonstruieren.

Voraussetzungen:  Interesse und Spaß beim Untersuchen und Interpretieren simulierter  Daten aus verschiedenen Erdsystem-Modellen

Von Vorteil:  Kenntnisse in statistischen Skript- und Programmiersprachen (R, Python, ...) Grundwissen über künstliche neuronale Netzwerke


Thema auf Anfrage im gemeinsamen Gespräch
Bei Interesse an einem Masterarbeitsthema am GFZ wendens Sie sich bitte an Herrn Prof. Maik Thomas (mthomas@gfz-potsdam.de)
Windböen am 99m-Mast in Falkenberg

Betreuer: Dr. Frank Beyrich / M.Sc. Carola Detring (MOL-RAO, DWD) / NN (FUB)

Beschreibung: Untersucht werden sollen das Auftreten und das Zeitverhalten von Windböen in verschiedenen Höhen (2.4 m, 50 m, 90 m) auf der Basis von hoch aufgelösten Turbulenzmessungen mit Ultraschallanemometern auf dem GM Falkenberg. Betrachtet werden sollen verschiedene typische meteorologische Situationen. Die Ergebnisse „klassischer“ Windmessungen mittels Schalenstern-Anemometern sollen vergleichend betrachtet werden. Sie sollen auch zur Auswahl geeigneter Fälle genutzt werden

Grundlagen: Datengrundlage sind Messungen mit Ultraschall-Anemometern in 10Hz-Auflösung über einen Zeitraum von einem Jahr, sowie Windprofilmessungen mittels Schalenstern-Anemometern in 10-min Auflösung (Mittelwert, Standardabweichung, Maximalwert)

Voraussetzungen: Programmierkenntnisse / Fähigkeit zum Umgang mit Software zur Bearbeitung größerer Datenmengen


Charakterisierung der Nahfeldeigenschaften der im DWD-Messnetz eingesetzten Ceilometer

Betreuer: Dr. Ulrich Görsdorf (MOL-RAO, DWD – Sachgebiet „Fernmessung“) / Dr. Ina Mattis (MOHp, DWD), Zweitbetreuer NN (FUB)

Beschreibung: Ceilometer werden im meteorologischen Messnetz des DWD zur Ableitung  der Wolkenbasis und  von Aerosolprofilen eingesetzt. Die Güte dieser atmosphärischen Messgrößen hängt unter anderem  von den Nahfeldeigenschaften der Ceilometer ab. Durch statistische Analyse der von Ceilometern gemessenen Aerosolprofile an Strahlungstagen sind die Nahfeldeigenschaften von Ceilometern und  deren Variabilität zu charakterisieren.

Grundlagen: Datengrundlage sind die im NetCDF-Format vorliegenden Messungen der im DWD-Netz eingesetzten Ceilometer. Die Methode zur Bestimmung der Nahfeldeigenschaften ist in Hervo et al: An empirical method to correct for temperature-dependent variations in the overlap function of CHM15k ceilometers (www.atmos-meas-tech.net/9/2947/2016/) beschrieben.

Voraussetzungen: Programmierkenntnisse / Fähigkeit zum Umgang mit Software zur Bearbeitung größerer Datenmengen


Modellierung der langwelligen Gegenstrahlung für ausgewählte Standorte in Deutschland

Betreuer: Dr. Stefan Wacker (MOL-RAO, DWD – Sachgebiet „Strahlungsprozesse“), Zweitbetreuer: N.N.  (FU Berlin)

Beschreibung: Die langwellige atmosphärische Gegenstrahlung steht in direkter Beziehung zum Treibhauseffekt und stellt eine bedeutende Grösse im Strahlungshaushalt dar, deren genaue Kenntnis  somit von enormer Wichtigkeit ist und zwar sowohl in der Meteorologie als auch in der Klimaforschung und den damit verbunden Anwendungen. Aufgrund der limitierten Anzahl von direkten Bodenmessungen der Gegenstrahlung und den Unsicherheiten in ihrer Bestimmung aus Satellitendaten, kommt der Modellierung eine besondere Bedeutung zu. In Prinzip kann die Gegenstrahlung mit Hilfe von Strahlungstransfermodellen innerhalb der Messunsicherheit von ca. 5 Wm-2  berechnet werden, vorausgesetzt die vertikalen Temperatur- und Wasserdampfprofile, sowie die vertikalen Profile von Kohlendioxid, Ozon, Aerosolen und weiterer aktiver Spurengase sind bekannt. Da dies weltweit nur an ganz wenigen Standorten der Fall ist, wird bei  nicht Vorhandensein dieser Profilmessungen die Gegenstrahlung mit Hilfe von so genannten Parametrisierungen modelliert, welche zur Berechnung der Gegenstrahlung routinemäßig gemessene Variablen wie die Lufttemperatur und Feuchte verwenden.   In dieser  Masterarbeit sollen für gut zehn Standorte in Deutschland bestehende Parametrisierungen optimiert werden, so dass die langwellige Gegenstrahlung an diesen Standorten möglichst innerhalb der Messunsicherheit modelliert werden kann. Die Optimierung und die Validierung der Parametrisierung erfolgt mit Hilfe von präzisen Messungen aus dem Bodenmessnetz des DWD.  Die Berechnungen sollen dann einerseits dazu dienen, den Strahlungseffekt der Wolken zu erfassen, anderseits sollen die Modelle wiederum Anwendung in der Qualitätssicherung der Messungen finden.

Grundlagen & Voraussetzungen: Grundkenntnisse in Strahlung und Strahlungstransfer; Grundkenntnisse in Programmierungssprachen (Python, IDL, R oder Matlab)


Fernerkundung der Ozonsäule mithilfe spektraler Messungen der UV-Strahlung mit einem Array Spektroradiometer

Betreuer: Dr. Lionel Doppler (MOL-RAO, DWD – Sachgebiet „Strahlungsprozesse“), NN (FUB)

Beschreibung:

Am Observatorium Lindenberg wird seit mehr als 30 Jahren die Ozonsäule mit dem Instrument Brewer gemessen. Der Brewer ist ein Spektrometer mit einem Monochromator, das sowohl die spektrale Bestrahlungsstärke in der direkten Sonnenrichtung („Direct“) als auch die spektrale Bestrahlungsstärke „Global“ (= Summe der direkten und diffusen Abwärtsflüsse) misst. Die Messmethode mit dem Brewer ist weltweit als Referenz anerkannt. Sie benutzt aber eine alte Technologie, die langsam und wartungstechnisch aufwendig ist. 

Seit Mitte 2019 hat das Observatorium Lindenberg zwei Array-Spektroradiometer BTS 2048 von der Firma Gigahertz-Optik in Betrieb. Diese moderne Technik erlaubt schnelle und präzise Messungen der spektralen Bestrahlungsstärke im UV Spektralbereich mit einem kompakten Gerät, das mit moderner Software betrieben wird. Ein Array-Spektroradiometer führt „Direct“ Messungen der spektralen Bestrahlungsstärke im UV durch, während das zweite Gerät die spektrale UV-Globalstrahlung erfasst.

Das Ziel der Masterarbeit ist die Entwicklung eines Algorithmus zur Ableitung der Ozonsäule aus den „Direct“ Messungen des Array Spectroradiometers. Der Algorithmus soll durch einen Vergleich mit den Brewer-Messungen der Ozonsäule validiert werden. Zusätzlich sollen die Messungen des UV-Spektrums „Global“ des zweiten Array Spektroradiometers mit Hilfe der Ozonsäule und zusätzlichen Messparametern (Wolken, Aerosol, Bodendruck) interpretiert werden.

Grundlagen & Voraussetzungen: Grundkenntnisse in Programmierungssprachen (Python, IDL, R oder Fortran), Lust auf Programmierung zu haben, Motivation neue Programmierungstechniken/Sprachen zu lernen, Grundkenntnisse in Strahlung, Aerosol und atmosphärische Komposition, Grundkenntnisse in Fernerkundung.





Kontaktiert bei Interesse Rene Preusker per Mail mit eindeutigem Betreff, sonst landet eure Anfrage im Spamfilter, aber am besten persönlich in Raum 159.