Strategien bis 2030

Wortwolke Scenario Planningzum Vergr??ern anklicken
Wortwolke Scenario Planning
Quelle: Ben Chams / Fotolia.com

Die Luftreinhaltepolitik stellt die Weichen für die Luftqualit?t der Zukunft. Die Zusammenh?nge zwischen Ma?nahmen der Luftreinhaltepolitik und ihren Folgen für Mensch und Umwelt sind dabei ?u?erst komplex und schwer zu durchschauen.

Inhaltsverzeichnis

 

Szenarien

Eine Luftreinhaltepolitik nach dem Prinzip von Versuch und Irrtum, die sich vom Ergebnis überraschen l?sst (?schau’n wir mal”), ist jedoch weder zu verantworten noch politisch durchzusetzen:

  • Auf der einen Seite kostet die Umsetzung neuer Luftreinhaltema?nahmen viel Zeit und Geld. Die von der Europ?ischen Kommission vorgelegte ?Strategie für saubere Luft” wird auf Kosten von rund 7,1 Mrd. € pro Jahr veranschlagt, über einen Zeitraum von 15 Jahren.

  • Auf der anderen Seite führt Luftverschmutzung zu gro?en Sch?den an der Umwelt und an der menschlichen Gesundheit. Vorzeitige Todesf?lle, Krankheitsf?lle, Krankenhausaufnahmen und verminderte Arbeitsproduktivit?t wiederum führen zu hohen volkswirtschaftlichen Kosten. So geht die Europ?ische Kommission bei der Begründung ihrer Strategie davon aus, dass diese Gesundheitssch?den in Europa derzeit Kosten zwischen 427 und 790 Mrd. € pro Jahr verursachen.

Es wird also ein Instrument ben?tigt, mit dem das Prinzip von Versuch und Irrtum schnell, zu geringen Kosten und ohne sch?dliche Folgen im Experiment durchgespielt werden kann, ein Instrument, das die Frage beantwortet: ?Was w?re, wenn…” – wenn beispielsweise im Jahr 2020 alle Ma?nahmen umgesetzt w?ren, die die Europ?ische Kommission in ihrer Strategie vorsieht. Ein solches virtuelles Experiment wird als ⁠Szenario⁠ bezeichnet. Ein ⁠Emissionsszenario⁠ enth?lt alle Angaben, die n?tig sind, um die Emissionen der Luftschadstoffe zu berechnen: Annahmen über die Entwicklung von Bev?lkerung, Wirtschaft, Technik, Energieverbrauch und Verkehr sowie beispielsweise die von der Europ?ischen Kommission vorgesehenen Luftreinhaltema?nahmen. Auf dieser Grundlage lassen sich mit einem ACTM die Luftschadstoffkonzentrationen berechnen, die unter dem Szenario zu erwarten sind.

Bereits in den 1990er Jahren wurden in Deutschland Szenarienrechnungen im Aktionsprogramm und Ma?nahmenplan Ozon eingesetzt, um wirksame Ma?nahmen gegen den Sommersmog zu identifizieren. Weitere Einsatzfelder für Szenarienrechnungen sind die Luftreinhaltepl?ne, die nach den Vorgaben der Luftqualit?ts-Rahmenrichtlinie von den zust?ndigen Beh?rden erstellt werden müssen, wenn die Schadstoffkonzentrationen die Summe aus Grenzwert und Toleranzmarge überschreiten. Mit Hilfe von Modellen kann dabei untersucht werden, wie stark einzelne Emissionsquellen zur Luftverschmutzung beitragen und welche Verbesserung der Luftqualit?t mit den im Luftreinhalteplan vorgesehenen Ma?nahmen zu erwarten sind.

 

PAREST - Strategien zur Verminderung der Feinstaubbelastung

Weitere Ma?nahmen zur Verminderung der Feinstaubbelastung notwendig

Das abgeschlossene Forschungsvorhaben des Umweltbundesamtes ?Strategien zur Verminderung der Feinstaubbelastung – PAREST“ untersuchte eine Vielzahl von Emissionsminderungsma?nahmen, mit denen sich die Belastungen durch Lauftschadstoffe weiter mindern lassen. Um fl?chendeckend die Einhaltung der Luftqualit?tsgrenzwerte zu gew?hrleisten, sind aber weitere Anstrengungen n?tig.

Trotz der bisher schon eingeleiteten Ma?nahmen zur Emissionsminderung werden in Deutschland an vielen Orten – besonders in stark belasteten Innenst?dten die Luftqualit?tsgrenzwerte für Feinstaub und Stickstoffdioxid überschritten. Das hat negative Auswirkungen auf die menschliche Gesundheit und die Umwelt. Um Mensch und Umwelt zu schützen, sind weitere Ma?nahmen zur Minderung von Luftschadstoffen umzusetzen.
Das Forschungsvorhaben ?Strategien zur Verminderung der Feinstaubbelastung – PAREST“ untersuchte deshalb verschiedene Emissionsminderungsma?nahmen und Szenarien und bewertet mit Hilfe von Ausbreitungsmodellen, welche dieser Ma?nahmen und Szenarien die Feinstaubbelastung wirksam mindern k?nnen.

Zun?chst wurde ein Basisszenario entwickelt, das ausgehend vom Basisjahr 2005 die Emissionszukunft bis zum Jahr 2020 beschreibt. In diesem ⁠Szenario⁠ sind alle bereits beschlossenen Regelungen und Ma?nahmen zur Emissionsminderung berücksichtigt. über dieses Basisszenario hinaus sind aber zus?tzliche Emissionsminderungen durch weitergehende Ma?nahmen m?glich. Hauptziel des Forschungsprojekts war die Entwicklung und Bewertung verschiedener Ma?nahmenszenarien.

Neben realen Ma?nahmenszenarien wurden auch verschiedene Sensitivit?tsszenarien untersucht, z.B. ein ambitioniertes Klimaschutzszenario, das zeigt dass Klimaschutzma?nahmen einen überwiegend positiven Effekt auf die Luftqualit?t haben und dazu beitragen k?nnen, Luftschadstoffemissionen zu mindern.

Mithilfe des REM-CALGRID-Modells der FU Berlin wurden schlie?lich die immissionsseitigen Wirkungen aller Szenarien berechnet. Die Analyse zeigt, dass die Luftschadstoffbelastung im Basisszenario bis zum Jahr 2020 zurückgeht und darüber hinaus deutliche Minderungspotenziale durch weitere Ma?nahmen bestehen. Ein sehr wirksames Instrument zur Verminderung der Feinstaubbelastung ist die gerade abgeschlossene Novellierung der Verordnung über kleine und mittlere Feuerungsanlagen (1. ⁠BImSchV⁠), die Staubgrenzwerte für Heizungen und ?fen versch?rft. Weitere wirkungsvolle Minderungsma?nahmen sind die Umsetzung von sch?rferen Emissionsgrenzwerten für Gro?feuerungs- und Industrieanlagen und – besonders in l?ndlichen Gebieten – technische und verhaltens?ndernde Ma?nahmen in der Landwirtschaft, z.B. die schnellere Einarbeitung von Gülle und anderen Wirtschaftsdüngern auf dem Feld und ein verringerter Einsatz von Harnstoffdüngern. Die wichtigste Ma?nahme im Verkehr ist die Einführung der Abgasnormen Euro 6 und VI für Pkws, leichte und schwere Nutzfahrzeuge, die ihre Wirkung allerdings erst ab dem Jahr 2015 entfalten.

Allerdings reichen die Minderungen im Basisszenario und teilweise auch in den Szenarien mit weiteren Ma?nahmen nicht aus, um bis zum Jahr 2020 überall in Deutschland die Einhaltung der Immissionsgrenzwerte für Feinstaub und Stickstoffdioxid zu gew?hrleisten. Erst wenn weitergehende Luftreinhaltema?nahmen ergriffen werden und mit Klimaschutzma?nahmen kombiniert werden, lassen sich die Grenzwerte auch an den stark belasteten Standorten in Deutschland einhalten.

Die Forschungsergebnisse sind in einem Abschlussbericht sowie in 32 Teilberichten ausführlich dokumentiert.

Abschlussbericht:

Emissionsberichte:

Modellierungsberichte:

 

Aerosol-Chemie-Transport-Modelle

Aus der Wettervorhersage im Fernsehen sind Computeranimationen der Wolkenbewegungen bekannt, die wie Satellitenfilme aussehen. Diese Darstellungen beruhen auf den Ergebnissen von Wettervorhersagemodellen, also speziellen Computerprogrammen, die mit numerischen Methoden physikalische Gleichungen l?sen und so die die zeitliche Entwicklung meteorologischer Felder (Wind, Luftdruck, Temperatur, Feuchte, Wolkenwasser, Niederschlag) simulieren.

Mit ?hnlichen Computermodellen k?nnen die physikalischen und chemischen Prozesse simuliert werden, die Luftschadstoffe in der ⁠Atmosph?re⁠ transportieren und chemisch umwandeln. Ein Beispiel für eine chemische Umwandlung in der Atmosph?re ist die Bildung von Ozon aus Stickstoffoxiden (NO X ) und flüchtigen organischen Verbindungen (⁠VOC⁠), ein anderes ist die Bildung von Aerosolen (Feinst?uben) aus gasf?rmigen Verbindungen wie z. B. Ammoniak (NH 3 ) und Schwefeldioxid (SO 2 ). Derartige Computermodelle werden als Aerosol-Chemie-Transport-Modelle (ACTM) bezeichnet. Sie erm?glichen – analog zur Wettervorhersage – die ⁠Vorhersage⁠ der Konzentrationen von gasf?rmigen Luftschadstoffen und von Feinst?uben.

Die Luftqualit?ts-Rahmenrichtlinie 96/62/EG sieht eine fl?chendeckende Beurteilung und Kontrolle der Luftqualit?t vor. Dies ist mit Hilfe von Messungen nur unvollst?ndig m?glich, da ein Messwert nur für eine begrenzte Umgebung der Messstation repr?sentativ ist und aus Kostengründen nur eine begrenzte Anzahl von Messstationen betrieben werden kann. Folgerichtig sieht die Richtlinie als Mittel zur Beurteilung der Luftqualit?t neben Messungen erstmalig auch Modellrechnungen vor.

 

Analogiebildung

Aerosol-Chemie-Transport-Modelle (ACTMs) werden – wie Computersimulationsmodelle im Allgemeinen – zu dem Zweck entwickelt und angewendet, detaillierte, quasi-realistische Informationen über den Zustand und die zeitliche Entwicklung eines interessierenden Systems zu liefern, in diesem Fall über die Konzentrationen gas- und partikelf?rmiger Schadstoffe in der ⁠Atmosph?re⁠. Aus praktischen Gründen ist es nicht m?glich, Schadstoffkonzentrationen an allen Orten zu messen und aus prinzipiellen Gründen k?nnen Messungen keine Informationen über zukünftige Schadstoffkonzentrationen liefern. In solchen F?llen werden ACTMs als Ersatz für die Wirklichkeit herangezogen, um die fraglichen Konzentrationen zu ermitteln. Dabei stellt sich die Frage: Warum und in welchem Ma?e sind Modelle bzw. Modellergebnisse vertrauenswürdig?

Bei der Diskussion über die Aussagekraft von Modellergebnissen haben sich Begriffe bew?hrt, die von der englischen Wissenschaftsphilosophin Mary Brenda Hesse gepr?gt wurden, n?mlich positive Analogie, negative Analogie und neutrale Analogie.
Details

Klassische Modelle und komplexe Computersimulationsmodelle

Klassische Modelle der Physik, wie das Wellenmodell des Lichts oder das Billardkugelmodell kinetischer Gase, beruhen auf einer einzelnen Modellverstellung, die in mathematische Gleichungen umgesetzt wird, welche wiederum analytisch gel?st werden. Im Unterschied dazu enthalten die ACTMs als quasi-realistische Computersimulationsmodelle mehrere ineinander verschachtelte Teilmodelle, die z. B. den turbulenten Transport in der atmosph?rischen Grenzschicht, die ⁠Emission⁠ biogener Spurenstoffe aus der Vegetation, die ⁠Deposition⁠ von Gasen und Partikeln an der Vegetation und anderen Oberfl?chen, die nasse Deposition von Gasen und Partikeln durch Niederschlag, die chemisch Umwandlung in der Gas- und Flüssigphase und die Interaktion und das Wachstum atmosph?rischer Partikel simulieren.

Zweck der Integration von Teilmodellen ist es, zus?tzliche neutrale Analogien zu erschlie?en. Würde in einem ACTM das Teilmodell der nassen Deposition fehlen, k?nnte es nur Aussagen über Episoden ohne Regen und Schneefall machen; würde das Teilmodell der chemischen Umwandlung fehlen, k?nnte es nur die Ausbreitung chemisch inerter Schadstoffe beschreiben. Durch Integration von Teilmodellen k?nnen ACTMs auf Situationen angewendet werden, die sich in vielen Aspekten von bekannten unterscheiden.

Die Teilmodelle haben allerdings auch jeweils negative Analogien, die das Ergebnis st?ren k?nnen. Soweit m?glich wird versucht, diese St?rungen durch die geschickte Wahl von Randbedingungen und Parametrisierungen zu kompensieren.

Die Differentialgleichungssysteme von ACTMs k?nnen nicht analytisch gel?st werden und müssen daher mit numerischen Verfahren integriert werden. Diese Verfahren führen zu Rundungsfehlern und sind teilweise nur bedingt stabil. Au?erdem k?nnen ACTMs erst angewendet werden, wenn sie als Computerprogramme implementiert sind. Diese Programme sind sehr gro?, so dass mit Programmierfehlern gerechnet werden muss.

Analogiebegriffe

Positive Analogie

Modell eines Systems kann nur sein, was bestimmte Beobachtungen reproduziert, die an dem System gemacht wurden. Derartige übereinstimmungen oder positive Analogien zwischen Modell und Wirklichkeit begründen das Interesse am Modell und st?rken das Vertrauen in das Modell. Ein klassisches Beispiel einer positiven Analogie ist die Struktur der Intensit?tsverteilung bei der Beugung am Spalt, die vom Wellenmodell des Lichts reproduziert wird. Bei einem ACTM gilt es als positive Analogie, wenn für eine bestimmte Episode berechnete Konzentrationsfelder in ihren wesentlichen Merkmalen mit den entsprechenden Messungen konsistent sind.

Negative Analogie

Ein Modell ist nicht identisch mit der Wirklichkeit, die es abbildet, also sind Unterschiede zwischen Modell und Wirklichkeit bekannt, die als negative Analogien bezeichnet werden. Eine negative Analogie eines regionalen ACTMs sind die Modellr?nder seitlich und oberhalb des Modellgebiets, au?erhalb derer die Schadstoffkonzentrationen undefiniert sind. Eine weitere negative Analogie numerischer Modelle ist die Diskretisierung, die z. B. bedeuten kann, dass Konzentrationen nur an diskreten Gitterpunkten im Raum und zu diskreten Zeitpunkten definiert sind. Durch die negativen Analogien ist ein Modell im trivialen Sinne falsch – nicht aber wertlos: Die Kunst des Modellierens besteht vor allem darin, negative Analogien zu kennen und das Modell so zu w?hlen und zu konfigurieren, dass sie die Ergebnisse im Hinblick auf die jeweilige Fragestellung m?glichst wenig st?ren. Wo eine St?rung der Modellergebnisse durch negative Analogien nicht vermieden werden kann, muss diese St?rung bei einer fachgerechten Interpretation der Modellergebnisse benannt und berücksichtigt werden.

Neutrale Analogie

Dieser Begriff bezeichnet eine Eigenschaft bzw. Aussage des Modells, die weder als negative Analogie bekannt ist, noch bereits durch Beobachtungen best?tigt wurde. Das Potenzial eines Modells zur Untersuchung von neuen Szenarien beruht auf seinen neutralen Analogien. Je mehr neutrale Analogien ein Modell in sich birgt, umso mehr bisher unbekannte Aspekte der Wirklichkeit k?nnen m?glicherweise mit dem Modell berechnet werden. Die Arbeitshypothese bei der Modellierung besagt, dass die vom Modell berechneten neuen Ergebnisse bisher unbekannte Aspekte der Wirklichkeit zutreffend beschreiben. Dies ist jedoch nur eine Hypothese. Durch Evaluierung bzw. Validierung eines Modells wird versucht abzusch?tzen, wie vertrauenswürdig diese Hypothese ist.

 

Evaluierung und Validierung von Modellen

Hesses Diskussion von Modellen führt zu dem Schluss, dass gerade die interessanten Aussagen von Modellen – n?mlich über ansonsten unbekannte Aspekte der Wirklichkeit – prinzipiell nicht sicher sind. Warum werden Modelle dann überhaupt zur Untersuchung solcher Probleme verwendet? Weil der Mensch keine andere M?glichkeit hat, Aussagen über neue Ph?nomene zu machen, als vom Bekannten auf das Unbekannte zu schlie?en. Es gibt verschiedene Gründe für solche Hypothesen über das Unbekannte. Einer ist das Streben nach wissenschaftlicher Erkenntnis. Bei ACTMs steht der gesellschaftliche Auftrag im Vordergrund, die gegenw?rtige Umweltsituation umfassend zu beurteilen und die voraussichtliche zukünftige Entwicklung der Umweltsituation im Sinne der Vorsorge zu berücksichtigen. Dabei ist es wichtig, konsistente, transparente, konsensf?hige Methoden konsequent anzuwenden. In diesem Sinne haben sich ACTMs bew?hrt.

Spezielle Verfahren wurden entwickelt, um die Vertrauenswürdigkeit dieser Modelle zu prüfen. H?ufig werden solche Prüfungen als Validierung und erfolgreich geprüfte Modelle als validiert bezeichnet. Bislang gibt es jedoch kein allgemein verbindliches Validierungsverfahren für ACTMs, so dass im Einzelfall zu kl?ren bleibt, welche Prüfungen ein als validiert bezeichnetes Modell bestanden hat und welche Kriterien dabei angelegt wurden. In Reaktion auf Kritik durch die amerikanische Wissenschaftshistorikerin Naomi Oreskes vermeiden manche Modellierer den Begriff Validierung wegen seiner Konnotation von Sicherheit, verwenden aber dennoch entsprechende Evaluierungsverfahren. Zur Evaluierung bzw. Validierung werden Vergleiche mit Messwerten, Vergleiche mit anderen Modellen und die überprüfung der inneren Struktur der Modelle herangezogen.

überprüfung der inneren Struktur

Negative Analogien von Teilmodellen k?nnen sich in bestimmten Situationen gegenseitig kompensieren mit dem Ergebnis, dass das Gesamtmodell eine Beobachtung zufrieden stellend reproduziert. Das Modell liefert dann right answers for the wrong reasons. Dies ist auch dann nicht auszuschlie?en, wenn ein Gesamtmodell viele Beobachtungen gut reproduziert. (H?ufig liegen aber nur wenige Beobachtungen so vollst?ndig vor, dass sie eine Evaluierung des Modells erlauben.)

Deshalb sollte ein komplexes Modell grunds?tzlich nicht nur als black box anhand seiner Ergebnisse überprüft werden, sondern auch seine innerer Struktur sollte untersucht werden, um negative Analogien und Grenzen der Anwendbarkeit aufzuspüren: Wurden die verwendeten Teilmodelle einzeln evaluiert, und wie? Sind bei der Anwendung des Gesamtmodells alle Bedingungen erfüllt, die bei der Entwicklung der Teilmodelle vorausgesetzt wurden? Widerspricht das Modell anerkannten Konzepten wie z. B. der Massenerhaltung? Eignen sich numerische Verfahren, Diskretisierung, Anfangs- und Randbedingungen zur Untersuchung der Fragestellung? Bei ACTMs ist in diesem Zusammenhang die Qualit?t der Emissionsdaten ?u?erst wichtig. Wurde die Implementierung als Computerprogramm mit seinen Unterprogrammen, Funktionen und Funktionsbibliotheken auf Programmierfehler überprüft, und wie? Derartige Prüfungen sind geeignet, Fehler und negative Analogien festzustellen.

Das Vertrauen auf die Aussagekraft von ACTMs beruht unter anderem darauf, dass sie solchen detaillierten Prüfungen zug?nglich sind, dass also der Zusammenhang zwischen Eingangs- und Ausgabegr??en – anders als bei rein statistischen Modellen oder neuronalen Netzen – in seinen wesentlichen Schritten mit etablierten kausalen Zusammenh?ngen nachvollzogen werden kann. Falls bei solchen Prüfungen keine Fehler gefunden werden, garantiert dies nicht, dass etwaige positive Analogien des Modells right answers for the right reasons sind. Erst recht ist es kein Beweis für die Hypothese, dass neutrale Analogien des Modells Aspekte der Wirklichkeit zutreffend beschreiben. Es ist jedoch ein Indiz für die Vertrauenswürdigkeit dieser Hypothese.

Vergleiche mit Messwerten

Durch solche Vergleiche wird versucht, positive Analogien nachzuweisen. Dabei wird das Modell als ganzes, als black box geprüft. Das Vertrauen w?chst, wenn in m?glichst vielen und m?glichst verschiedenartigen F?llen und über lange Beobachtungszeitr?ume hinweg positive Analogien gefunden werden. Wenn es sich beispielsweise in der Vergangenheit meist als nützlich erwiesen hat, die Ergebnisse der numerischen Wettervorhersage zu berücksichtigen, w?chst die Bereitschaft, dies auch in Zukunft zu tun. Das Ma? der übereinstimmung zwischen Modell und Beobachtung wird mit statistischen Verfahren bewertet. Fehlende übereinstimmung, also negative Analogien geben Hinweise auf Grenzen und Fehler des Modells. Bei diesen Vergleichen ist zu beachten, dass Messwerte nicht mit der Wirklichkeit gleichgesetzt werden dürfen, da sie z. B. Messfehler enthalten und ihrerseits unter Verwendung von Modellen eines Messprinzips z. B. aus elektrischen Signalen des Messger?ts berechnet werden.

Da komplexe Modelle viele Randbedingungen und numerische Parameter enthalten, besteht die Gefahr der überanpassung, dass also die Modelle zwar bestimmte Situationen gut reproduzieren, nachdem diese ?Stellschrauben” geeignet eingestellt wurden, dass sie aber in anderen Situationen falsche Voraussagen machen. Um eine m?gliche überanpassung zu erkennen, werden die verfügbaren Beobachtungswerte aufgeteilt in separate Datens?tze für die Kalibrierung und die Validierung. Die Gefahr einer überanpassung ist jedoch geringer, als durch die schiere Anzahl an Modellparametern vermutet werden k?nnte. Dies liegt an der Modularisierung der Modelle bzw. an der Arbeitsteilung zwischen den Modellierern: Teilmodelle wie z. B. zur ⁠Deposition⁠ werden von Spezialisten entwickelt, kalibriert und validiert und anschlie?end oft unver?ndert in ACTMs übernommen. Zur Kalibrierung eines aus Teilmodellen zusammengesetzten ACTMs werden daher bei weitem nicht alle in den Teilmodellen vorhandenen Parameter verwendet. Nach Abschluss der Modellentwicklung werden bei der Anwendung einer bestimmten Modellversion meist nur ausgew?hlte Anfangs- und Randbedingungen eingestellt.

 

Modellsystem für die Ermittlung der Schadstoffbelastung und zur Ma?nahmenplanung

Umsetzung der Anforderungen der EU-Luftqualit?tsrichtlinien

  • Forschungsvorhaben 298 41 252 - Modellierung und Prüfung von Strategien zur Verminderung der Belastung durch Ozon
  • Forschungsvorhaben 299 43 246 - Entwicklung eines Modellsystems für das Zusammenspiel von Messung und Rechnung für die bundeseinheitliche Umsetzung der EU-Rahmenrichtlinie Luftqualit?t
  • Forschungsvorhaben 201 43250 - Anwendung modellgestützter Beurteilungssysteme für die bundeseinheitliche Umsetzung der EU-Rahmenrichtlinie Luftqualit?t und ihrer Tochterrichtlinien

Nach dem Abschluss der an der FUB durchgeführten Modellrechnungen zur Wirksamkeit von überregionalen/gro?r?umigen und von regionalen/lokalen Emissionsminderungsma?nahmen sowohl dauerhafter als auch tempor?rer Art zur Reduzierung von Ozonspitzenkonzentrationen bei hochsommerlichen Wetterlagen (Aktionsprogramm und Ma?nahmenplan Ozon, AMPO) rückte die überprüfung von Ma?nahmenoptionen im Hinblick auf saisonale und auch auf Jahresbelastungen in den Mittelpunkt des Interesses.?Diese Schwerpunktsverschiebung deckte sich mit den Anforderungen der EU-Luftqualit?ts-Rahmenrichtlinie (RRL), 96/62/EG PDF / 774 KB sowie deren Tochterrichtlinien (TRLn), 1999/30/EG PDF / 258 KB, 2000/69/EG PDF / 277 KB und 2002/3/EG PDF / 145 KB an ein Modellinstrumentarium, das zur Berechnung der langfristigen Schadstoffbelastungen in der europaweiten, der nationalen, der regionalen/urbanen sowie der lokalen Skala geeignet ist.

Das Konzept der drei Vorhaben umfasste

  • die Entwicklung eines Modellsystems zum Einsatz für ein oder mehrere Jahre unter besonderer Berücksichtigung der Module zur Aerosolbehandlung,
  • Anpassung der gro?r?umigen Modell-Emissionsdatenbasis auf den jeweils neuesten Stand
  • das Erstellen von Emissionsminderungsszenarien nach den auf internationaler (NEC, CAFE) und nationaler Ebene (nationales Programm im Rahmen der Umsetzung der NEC-Richtlinie) erarbeiteten Vorgaben.
  • die Anwendung für Beurteilung der Auswirkung von Emissionsminderungsma?nahmen auf die Luftqualit?t,
  • Weiterentwicklung des jeweilig erreichten Standes soweit für Praxis verwendbare Erkenntnisse aus der Grundlagenforschung zur Verfügung stehen,
  • Qualit?tssicherung durch Modellevaluierung mit Messdaten, international durch Modellvergleiche und Bezugnahme auf hochkomplexe Modellans?tze, die in der Grundlagenforschung zum Einsatz kommen (EURAD).
  • Einbringen in politikrelevante Bereiche, EMEP-TFMM (EMEP-Modell Review/ EuroDelta) und CAFE (CityDelta) und in die Ma?nahmenplanung der L?nder (z. B. Berlin, Hessen)

Im F+E-Vorhaben 298 41 252 wurde ein skalenübergreifendes Modellinstrumentarium entwickelt, das den in den EU-Luftqualit?tsrichtlinien festgelegten Anforderungen genügt. Betrachtet werden die Schadstoffe SO2, NOX, Benzol, Ozon, PM10 und CO. Gerechnet wird in stündlicher Aufl?sung für das ganze Jahr.

Das Modellsystem enth?lt folgende Ausbreitungsmodelle:

  • Das dreidimensionale Aerosol-Chemie-Transportmodell REM-CALGRID (RCG) PDF / 307 KB zur Bestimmung der Luftqualit?t in der europaweiten, der nationalen sowie der urbanen Raumskala (Ballungsgebiet). Die Entwicklung dieses Modells und die Bereitstellung der zur Betreibung notwendigen Datenbasen war Schwerpunkt des Vorhabens 298 41 252. Die aus der jeweils gr??eren Skala berechnete Hintergrundbelastung wird als Randbedingung für die kleinere Skala verwendet (?one-way-nesting”).
  • Das Canyon-Plume-Box-Modell (CPB) zur Bestimmung der Luftqualit?t in Stra?enschluchten (?hot-spot”-Betrachtung in der lokalen Skala). Das CPB-Modell ist ein 2-dimensionales analytisch-empirisches Modell. Die Hintergrundbelastung wird dazu von den urbanen Ausbreitungsrechnungen bereit gestellt (?one-way-nesting”).
  • AUSTAL2000 zur Bestimmung der Luftqualit?t im n?heren Einflussbereich von Anlagen (?hot-spot”-Betrachtung in der lokalen Skala). AUSTAL2000 ist ein Lagrange'sches Partikelsimulationsmodell zur Beschreibung von Immissionsbelastungen ausgehend von industriellen Quellen. Die Hintergrundbelastung dazu wird ebenfalls von den urbanen Ausbreitungsrechnungen bereit gestellt (?one-way-nesting”).

Schwerpunkt des Vorhabens 299 43 246 war die genestete Anwendung des im Rahmen des Forschungsvorhabens 298 41 252 erstellten Modellinstrumentariums auf die Region Berlin-Brandenburg. Für die genestete Simulation der Immissionssituation in Berlin wurde das RCG-Modell in zwei verschiedenen Aufl?sungen angewandt: Europaweit in einer Aufl?sung von circa 25 km2, für die L?nder Brandenburg und Berlin in einer Aufl?sung von 2 km2. Das CPB-Modell diente zur Immissionsberechnung in einer Berliner Stra?enschlucht. Ein weiterer Arbeitspunkt dieses Vorhabens umfasste eine Datenassimilation (Kombination von Mess- und Rechenergebnissen) mit unterschiedlicher Komplexit?t.

Das Forschungsvorhaben 201 43 250 baut auf den Ergebnissen auf, die im Rahmen des Forschungsprojektes 298 41 252 ?Modellierung und Prüfung von Strategien zur Verminderung der Belastung durch Ozon” und des FE-Vorhabens 299 43 246 ?Entwicklung eines Modellsystems für das Zusammenspiel von Messung und Rechnung für die bundeseinheitliche Umsetzung der EU-Rahmenrichtlinie Luftqualit?t” erzielt wurden. Das Forschungsprojekt 201 43 250 war in vier Teile gegliedert:

  • Weiterentwicklung der Methodik der Optimalen Interpolation zur Verknüpfung von Messungen mit Modellergebnissen hin zur operationellen Anwendung in Verbindung mit dem Modell REM-CALGRID.
  • Ableitung des Immissionsklimas 1995 - 2003 aus Beobachtung und Modellrechnung. In diesem Teilvorhaben wurden die j?hrlichen Unterschiede der ⁠Immission⁠ von Ozon, NO2, PM10 und SO2 in Deutschland im Zeitraum 1995-2003 hinsichtlich des Einflusses von Wettervariabilit?t und Emissionstrends untersucht.
  • Anwendung und Bewertung des RCG-Modells im Rahmen der internationalen Modellvergleiche EURODELTA und TFMM. An diesem Vergleich nahmen neben dem RCG fünf andere europ?ische Chemie-Transportmodelle teil.
  • Entwicklung eines Ansatzes zur Konkretisierung der in den EU-Tochterrichtlinien genannten Qualit?tskriterien, die zum Nachweis der darin verlangten Genauigkeit von Modellrechnungen benutzt werden k?nnen.
 

Vernetzung von Messungen und Modellen

In den letzten Jahren ist eine zunehmende Vernetzung von Messungen und Modellen zu beobachten, die sowohl von Seiten der Experimentatoren als auch von Seiten der Modellierer vorangetrieben wird.

Messwerte enthielten immer schon Modellrechnungen, da jedes Messprinzip auf einem Modell des Messvorgangs beruht und den empfangenen Signalen mit Hilfe dieses Modells Messwerte zuordnet. Die unvermeidlichen Messfehler sind Ausdruck der Fehler und Unsicherheiten dieses Modells. Darüber hinaus versuchen Experimentatoren jedoch, ihre durch Messungen gewonnenen Beobachtungen zu verallgemeinern, indem sie Datens?tze mit immer komplexeren statistischen Methoden r?umlich interpolieren und zeitlich extrapolieren oder neuronale Netze damit trainieren. Auf der Suche nach einer breiteren Anwendbarkeit ihrer Datens?tze und nach allgemeineren Aussagen verschieben sie ihre Ergebnisse weiter weg von positiven und negativen Analogien in Richtung neutraler Analogien und handeln sich damit eine h?here ⁠Unsicherheit⁠ ein.

ACTMs enthielten durch Parametrisierung, Kalibrierung, Anfangs- und Randbedingungen immer schon abstrahierte Messwerte. Darüber hinaus versuchen Modellierer, konkrete Situationen genauer zu reproduzieren, indem zeitlich und r?umlich ver?nderliche Messwerte bereits w?hrend der Modellrechnung durch Methoden der Assimilation berücksichtigt oder nachtr?glich durch optimale Interpolation mit Ergebnissen der Modellrechnung kombiniert werden. Auf diese Weise werden positive Analogien gest?rkt, neutrale Analogien jedoch geschw?cht, denn je mehr ein Modell auf situationsspezifische Messungen angewiesen ist, desto weniger kann es Aussagen für Situationen machen, für die solche Messungen fehlen.

Die schon lange übliche Triangulation von Punktemessungen zur Erzeugung fl?chenhafter Darstellungen ist ein sehr einfaches Modell mit bekannten negativen Analogien: Das Modell berücksichtigt z. B. nicht explizit, dass eine Messung nur für eine begrenzte Umgebung repr?sentativ ist.

Pdfs

  • Schwerpunkt Umweltzonen UMID 04/2011
Teilen:
Artikel:
Drucken Senden
Schlagworte:
 Luftreinhalte- und Aktionspl?ne  Modelle  Szenarien