BdWi - Bund demokratischer Wissenschaftlerinnen und Wissenschaftler

»Wissenschaft ist also ein prinzipielles Gegen-den-Strom-Schwimmen.«

Klaus Holzkamp

Newsletter abonnierenKontaktSuchenSitemapImpressum
BdWi
BdWi-Verlag
Forum Wissenschaft

Ambivalenzen zu den maximal 2 °C Erwärmung

15.05.2009: Oder zur Bestimmbarkeit der Grenze zur Gefahr

  
 

Forum Wissenschaft 2/2009

Politische Dokumente enthalten wissenschaftliche Aufgaben, häufig aus unterschiedlichsten Fächern. Sie sollen entschlüsselbar sein und wieder in politische Handlungen übergehen können, trotz aller Meinungsunterschiede und Kompromisse zwischen denen, die sie verabschiedeten. Hans-Jochen Luhmann ent-deckt Beschreibungen und Interpretationen - und landet bei noch schwierigeren Aufgaben als denen, die wir zu kennen glauben.

Artikel 2 UN Klimarahmenkonvention (UNFCCC) besagt: "The ultimate objective of this Convention ... is to achieve ... stabilization of greenhouse gas concentrations in the atmosphere at a level that would prevent dangerous anthropogenic interference with the climate system". Die Klimarahmenkonvention qualifiziert dies weiter mit den drei folgenden Erklärungen: "Such a level should be achieved within a time frame sufficient

  • to allow ecosystems to adapt naturally to climate change,
  • to ensure that food production is not threatened and
  • to enable economic development to proceed in a sustainable manner."
  • Es ist nicht für jedermann offensichtlich - aber wer sehen kann, der sieht: Art. 2 UNFCC hat die, in Worten formulierte, Gestalt einer mathematischen Funktion. Er formuliert Bedingungen, die, sofern quantifiziert, die Parameter einer logistischen Funktion bestimmen - und damit sie selbst. Die logistische Funktion ist von Alfred Lotka zu Beginn des 20. Jahrhunderts als eine Variante der Exponentialfunktion entwickelt worden, zum Zweck der verfeinerten Beschreibung von Populationsdynamiken. Der Stand bis dahin war durch die e-Funktion gegeben. Die beschreibt einen Zuwachs, der proportional zum Bestand verläuft, stellt also eine mathematische Beschreibung der reinen Fertilität dar, für die es keine obere Schranke gibt, weil sie nicht eingebettet, sondern isoliert wahrgenommen wird. Lotka dachte einen Schritt ,ökologischer', in Richtung Einbettung. Er suchte nach einer Beschreibung für die spezielle Situation, dass Grenzen, z.B. eine beschränkte Nahrungsgrundlage, die (mit einer e-Funktion zu beschreibende) Wachstumsdynamik der von ihr lebenden Population so einschränken, dass das Bestandswachstum sich nur asymptotisch der maximalen Tragekapazität nähern kann. Das ist eine spezielle Beschreibung des Verhaltens einer Population bei Anwesenheit einer oberen Schranke, da nämlich ein zeitweises Überschießen, ein Oszillieren um den maximal nachhaltig möglichen oberen Wert, ausgeschlossen ist. Ausgeschlossen ist damit ein Rückgang qua ,Katastrophe'. Es handelt sich um eine sehr ,gnädige' Beschreibung, eine, die eigentlich, generell genommen, unrealistisch ist - realitätsgerecht ist sie nur, wenn ein spezielles Verhalten unterstellt wird, zu dem wohl nur der Mensch die Voraussetzungen mitbringt: das Vermögen der Antizipation der Grenze.

    Die Obergrenze für das Wachstum sowie die Steigung im Wendepunkt sind die beiden Parameter, die eine logistische Kurve definieren. Dieses quasi-mathematische Konzept war von den ,Vätern' der Formulierung in Art. 2 UNFCCC so angelegt worden, offensichtlich mit dem Ziel, der Wissenschaft die Auslegung möglich zu machen bzw. nahezulegen. Mit der Annahme dieser Formulierung im Juni 1992 besteht somit ein doppelter einhelliger Konsens in der Völkergemeinschaft: Es soll zu einem Stopp des anthropogenen Klimawandels kommen, die Emissionen sollen also auf das Gleichgewichtsniveau heruntergeführt werden; das soll erreicht werden, bevor ein Niveau der Gefahr erreicht wird.

    Dieses Niveau seinerseits ist im Text von Art. 2 UNFCCC durch die drei angeführten Kriterien definiert. Deren zentrale Begriffe sind Fachwissenschaften entnommen: der Ökosystemanalyse, der Lehre von der Produktion von Nahrungsmitteln sowie der Ökonomie.

    Der Gegenstand des Ziels

    Die damit rechtlich vorgegebene Herausforderung gilt dem menschengemachten Klimawandel. Der anthropogene Klimawandel ist quantitativ zu bestimmen als Anstieg des (anthropogenen) radiative forcing gegenüber vorindustrieller Zeit. Als Wechselpunkt zwischen industrieller und vorindustrieller Zeit ist vom IPCC - implizit - zweierlei eingeführt worden. Für den (definierenden) anthropogenen Klimawandel, das radiative forcing, das Jahr 1750; für die erste Folge des Klimawandels, den erst mit massivem Zeitverzug (voll) eintretenden Effekt auf die atmosphärische Erdmitteltemperatur, das Jahr 1906.1 Das quantitative Ergebnis einer Abschätzung des ,verursachten' (,committed to') anthropogenen Klimawandels gemäß dieser Definition ist der wohlbekannten Abb. 1 (Quelle: IPCC) zu entnehmen.

    Es handelt sich um eine Mehr-Komponenten-Abbildung. Ins Auge springt, dass langlebige und kurzlebige THG einen Effekt entgegengesetzten Vorzeichens aufweisen. Es fragt sich, wie aus ihr ,die' (Singular!) anthropogene Veränderung des Strahlungsantriebs korrekt zu entnehmen ist. Die Beantwortung der Frage in der folgenden Darstellung ist zweidimensional angelegt, einmal inhaltlich und zum anderen, nebenläufig, methodisch. An diesem Beispiel soll zugleich gezeigt werden, wie die Ambivalenz zentraler Begriffe der Wissenschaft vom anthropogenen Klimawandel in eine Ambivalenz quantitativer Angaben zu Parametern eben dieser Wissenschaft durchschlägt.

    Die Abbildung selbst, somit das IPCC, gibt das total net anthropogenic radiative forcing, also den menschengemachten Klimawandel, in der letzten Zeile, der Summenzeile, mit 1,6 W/m2 an - den natürlichen Klimawandel mit 0,12 W/m2 übrigens. Angegeben ist damit lediglich das Ausmaß der ,gegenwärtig' wirksamen Änderung der Strahlungsbilanz - die Zukunft, das, wozu wir bereits, wie es im Angelsächsischen heißt, ,commited' sind, ist in dieser Bildung einer Summe über alle Komponenten ausgeblendet. Die Gliederung nach Komponenten in der Abbildung zeigt als leitenden Gesichtspunkt aber exakt eine Unterscheidung der Komponenten nach einer zeitlichen Struktur, nach der Dauer des ausgelösten energetischen Effekts. Da sind zum einen oben die ,long lived greenhouse gases', zum anderen, unten, überwiegend solche mit nur kurz bis sehr kurzfristig währendem Effekt. Die ,long lived greenhouse gases' sind diejenigen Agentien, die der Klimapolitik zur Bekämpfung des anthropogenen Klimawandels unterworfen worden sind - die Politik hat sich nicht sämtliche Agentien, die in dieser Abbildung als anthropogene Verursacher aufgeführt sind, zum Gegenstand gemacht. Sie hat sich mit den sechs Gasen des sog. ,Kyoto-Korbs' allein die ,long lived greenhouse gases' zum Gegenstand gemacht. ,Long lived' verweist auf eine nicht-physikalische Eigenschaft der Treibhausgase, auf ihre lange Verweildauer in der Atmosphäre - dafür verantwortlich sind eher chemische bis ,bio-geo-systemische' Eigenschaften dieser Gase, die über ihre physikalischen hinausreichen.

    Diejenigen Agentien, die den negativen Treibhauseffekt in der Größenordnung von minus 1,2 W/m2 im wesentlichen bringen, die Aerosole, haben eine Verweildauer in der Erdatmosphäre nur von Tagen - sie sind weitgehend Effekt der ,schmutzigen' Verbrennung, von fossilen Energieträgern, aber auch von Feuerholz. Sie vermögen somit kurzfristig und immer erneuert den Effekt dessen zu maskieren, was als Ursache vom Menschen bereits langfristig und unwiderruflich gesetzt ist. Sie sind zudem Begleiterscheinungen des Verbrennens fossiler Energieträger und deshalb zum Verschwinden programmiert, wenn entschieden ist, dass das Problem gelöst, der anthropogene Klimawandel gestoppt werden soll - diese Entscheidung aber ist mit Art. 2 UNFCCC getroffen.

    Definiert man den gegenwärtigen menschengemachten Klimawandel allein als den energetischen Veränderungsbeitrag, den die Gase des Kyoto-Korbs (incl. der Gase, die unter das Montrealer Protokoll fallen) bringen, dann stellt sich das total net anthropogenic radiative forcing, also der ,realisierte' menschengemachte Klimawandel, auf 2,64 W/m2.2 Damit ist nebenläufig eine Übersetzung des im Angelsächsischen bereits eingebürgerten ,commited to' mit ,realisiert' angeboten worden.

    Mit Abb. 1 bietet das IPCC somit die beiden erläuterten polaren Definitionsoptionen. Die entscheidende Frage bei der Wahl von Definitionen ist die nach den Gründen der Wahl. Hier ist zu fragen: Gibt es einen sachlichen Grund dafür, eine unter den möglichen Definitionen zu präferieren? Zu dieser Frage ist erstens festzustellen: Das IPCC argumentiert zu dieser Frage nicht - es entscheidet über den von ihm gewählten Sprachgebrauch lediglich implizit. Zweitens gilt: Setzt man den menschengemachten Klimawandel mit dem Niveau der Konzentration anthropogener Treibhausgase in der Erdatmosphäre gleich - und dazu nötigen die begrifflichen Entscheidungen in der UNFCCC -, so scheint es inkonsistent und also eher willkürlich, die zeitliche Dimension, also die Erstreckung der ,programmierten' Wirkung vom Menschen in die Atmosphäre entlassener Treibhausgase, in der Definition zu unterdrücken. Das spräche für 2,64 statt 1,6 W/m2.

    Die Lehre guter Begriffsbildung besagt, dass Kriterien für die Wahl von Begriffen nur aus dem Anwendungsfeld dieser Begriffe gewonnen werden können - dort haben sie sich zu bewähren. Im vorliegenden Falle geht es um Begriffsbildung zur Unterstützung der Klimapolitik - dort, in politischer Perspektive, ist die Rechtfertigung für die Begriffsbildung zu suchen. In dieser Hinsicht wird man einräumen müssen, dass die vom IPCC angebotene Netto-Begriffs-Bildung eher irreführend ist. Die Agentien, die für den negativen Treibhauseffekt in der Größenordnung von minus 1,2 W/m2 verantwortlich sind, ähneln in ihrem maskierenden Effekt einer Wechselreiterei, bei der die letztliche Einlösung bekanntlich unvermeidlich ist. Den maskierten Teil des menschengemachten Klimawandels bei dessen quantitativer Bestimmung auszublenden, scheint somit nicht angemessen - das wäre so, als wenn man die Bonität eines Schuldners nach seiner augenblicklichen Liquidität, nicht nach seinem (Netto-)Schuldenstand bemäße. Die Antwort auf die Frage nach dem energetischen Ausmaß des ,gegenwärtig erreichten', des ,realisierten' Standes menschengemachten Klimawandels muss deshalb 2,64 W/m2 lauten, nicht 1,6 W/m2. Nur dann auch ist die Antwort kompatibel mit der Angabe des erreichten Standes des Anstiegs der Treibhausgaskonzentration in Höhe von etwa 430 ppmv CO2-eq. Denn mit "erreichter Stand des Anstiegs der Treibhausgaskonzentration" ist offensichtlich der erreichte Stand des anthropogenen Klimawandels gemeint.

    Zusammenhänge

    Der eben benutzte Begriff ,Anstieg' (der Treibhausgaskonzentration) ist als eine Netto-Erhöhung gemeint, gedacht in einem Bassin-Konzept. Eine Ursache des anthropogenen Klimawandels wird in diesem Konzept gesetzt, wenn der Zufluss größer ist als der (natürliche) Abfluss - es gibt deshalb keinen einsinnigen Zusammenhang mit der Änderung von Treibhausgasemissionen, deren Zu- oder Abnahme. Der Klimawandel wird diesem Bild gemäß gestoppt, wenn das Zufluss-Niveau der THG-Emissionen auf die ,natürliche' Ablaufkapazität heruntergeführt wird - bzw. genauer gesagt die erdsystemische, da inzwischen auch die ,natürliche' nicht mehr natürlich ist, sie vielmehr anthropogen gestört ist. Aus deren Differenz nämlich ergibt sich der Anstieg des Pegels. Der Stopp des anthropogenen Klimawandels wird erreicht, wenn die Emissionen von Treibhausgasen (THG) von heute etwa 50 Gt/a heruntergefahren werden auf das Gleichgewichtsniveau - das liegt deutlich unter 10 Gt/a. Das Niveau heutiger bionaher Emissionen (Änderungen der Landnutzung; Landwirtschaft) liegt oberhalb des Gleichgewichtsniveaus - diese Emissionen bzw. Änderungen sind nicht vollständig mit ,Regierungstechniken' beherrschbar. Das ist bei der Verbrennung fossiler Energieträger weit günstiger einzuschätzen. ,Stopp des Klimawandels' heißt somit, im Klartext formuliert: Die Verbrennung fossiler Energieträger ist auf Null herunterzufahren.

    Die oben beschriebene Struktur der Zeitverzögerung sowie der unabweislichen Demaskierung sind ebenfalls im Bild deutbar: Bei Drosselung der Zuflüsse an der Quelle ist noch soviel Wasser unterwegs, dass ein weiterer Anstieg des Pegels im Bassin über einen längeren Zeitraum unvermeidlich ist. Wir messen gegenüber vorindustrieller Zeit einen Temperaturanstieg um 0,75 °C - das erweckt den Anschein, wir seien von der plus 2-Grad-Obergrenze und damit der Oberkante des Fassungsvermögens des Stausees noch beruhigend weit entfernt. Das aber ist Schein. Es ist noch so viel "Wasser" unterwegs, dass ein Anstieg um weitere 1,3 °C bereits heute ,verursacht' ist (= comitted to).

    Mit dem Bild "Bassin" ist ein Weiteres nahe gelegt: Auf der Ebene des damit Bezeichneten, beim Klima, gebe es ein maximal verträgliches Niveau des Anstiegs des Inhalts. Jenseits des Bassinrandes beginnt, klimarechtlich gesprochen, der Bereich der "Gefahr". Im Bassin-Bild formuliert kommt es da zum "Überlauf", also zu einem nicht-linearen Geschehen. Der führt zu Schäden außerhalb des Bassins - und hält sich der Klimawandel an die bekannten Muster, im Bilde gesprochen: Bleibt das übertretende Wasser im ,Urstrombett' des regulierten Flusses, so ist der Schaden, in den üblichen Grenzen, auch einigermaßen gut vorherzukalkulieren.

    Sofern dieses Bild gilt, sofern das Erdsystem wissenschaftlich präzise zu objektivieren ist, sofern wir auf das Bild, welches die Wissenschaft neuzeitlichen Verständnisses mit ihrer Fixierung auf Quantifizierung sowie Sicherheit ihrer quantifizierten Aussagen entwirft, vertrauen können und wollen, sind wir in Kenntnis des Zusammenhangs von Brutto- und Nettoemissionen, Konzentrationsanstieg und (mit einiger Zeitverzögerung) resultierendem Effekt auf die atmosphärische Erdmitteltemperatur. Trauen wir diesen Zusammenhängen, wie die Wissenschaft sie uns als ihre ,beste Schätzung' in IPCC-Berichten angibt, so können wir die Tragekapazität des Erdsystems, unserer Lebensgrundlage, bis zur Grenze ,austesten'. Trauen wir ihr nicht, so müssen wir zur Grenze einen Sicherheitsabstand lassen, wie es ansonsten, bei der Kalkulation der Tragfähigkeit einer Brücke zum Beispiel, übliche Praxis ist.

    Der Zentralparameter

    Abb. 2 zeigt die Geschichte der besten Schätzung in der Geschichte der Wissenschaft vom Klimasystem. Es wird daran dreierlei deutlich - und jedes der Elemente ist in der Lage, eher Vertrauen zu erschüttern als zu geben.

  • Das IPCC hat in der Geschichte die niedrigsten Werte angegeben
  • - und hat sich kürzlich korrigiert.

  • Eine Analyse des Grundes der Korrektur zeigt, dass mit dieser einen Korrektur kein Ende des Korrekturbedarfs eingetreten sein wird.
  • Mahnend steht zudem am Anfang der Umrechnungswert, den Arrhenius, auf Basis paläoklimatologischer Analogie, angegeben hat. Wenn das, was der Mensch in den letzten 200 Jahren unternommen hat, wirklich ein Eingriff erdhistorischer Dimension ist, dann ist ni
  • cht zu erwarten, dass eine Klimasensitivität, die nach dem Evaluations-Kriterium für Klimamodelle bestimmt ist, ,bester fit während der letzten 50-80 Jahre', allzu lange Bestand haben kann.

    Bassin-Bild mit tipping points

    Doch der "Überlauf" ist überdies ein Geschehen, das in der Lage ist, die bergende Struktur, das Bassin selbst, zu zerstören. Das ist Gegenstand der Behandlung von sog. ,tipping points' in der Klimawissenschaft - das sind Effekte, die in den normalen Klimamodellen, die durch ihre Klimasensitivität beschrieben sind, nicht berücksichtigt sind. Durch die Erwärmung werden bespielsweise Kohlenstoffvorräte aus natürlichen Beständen - z.B. aus Permafrostböden und der labil ja nur gelagerten Humus-Auflage in Wäldern - mobilisiert und als Kohlendioxid oder Methan (zusammen mit erheblichen Mengen an Lachgas) emittiert - sie werden zu anthropogenen Quellen anderer, nämlich indirekter Art. Anders gesagt: Der Klimawandel hat das Potenzial, zu einem sich selbst beschleunigenden Prozess zu werden.3 Ins Bild übertragen bedeutet das: Die Zuflüsse, die bislang nur so eingezeichnet waren, als ob sie sich auf ihrem zwar zeitraubenden, aber doch klar vorgespurten Weg zum Bassin befinden, drohen in EURheit Dämme weiterer Wasserreservoire niederzureißen - deren Inhalt droht ebenfalls dem arg strapazierten Bassin zugeführt zu werden.

    Folge wäre, dass sämtliche Simulationen des Geschehens dann unmöglich werden, weil die "Gestalt", mit der bzw. auf deren Basis Erfahrungen vorliegen, zerstört wird. Aussagen zum Geschehen jenseits dieser Grenze sind deshalb rein spekulativ. Der Überlauf ist deshalb zu vermeiden, an der Schwelle beginnt der Bereich des Illegalen - so ist es völkerrechtlicher Konsens, formuliert in Art. 2 UNFCCC.

    Der Zeitpunkt, zu dem dieser Stopp erreicht werden muss, ergibt sich aus der Auslegung des Terminus ,Gefahr' in Art. 2 UNFCCC - der entspricht Art. 20a Grundgesetz; es geht um die "natürliche Lebensgrundlage". Zur Auslegung besteht weder ein wissenschaftlicher noch ein völkerrechtlicher Konsens. Wissenschaft (IPCC) wie Staatengemeinschaft (Verpflichtung gemäß Art. 4 (2) d UNFCCC) haben sich bislang verweigert, eine Klärung herbeizuführen.

    Eine EU-Proklamation

    Vor dem Hintergrund dieses Ausweichens vor der Ernsthaftigkeit der anstehenden Herausforderung auf globaler bzw. kollektiver Ebene wuchs innerhalb der EU die Einsicht: Die Post-2012-Verhandlungen dürfen an dieser Stelle nicht erneut so ausweichen, wie es zum Zulauf auf die Verhandlungen zum Kyoto-Protokoll in den frühen 1990er Jahren der Fall gewesen war. Sollte es diesmal anders laufen und anders ausgehen, so müssten die Post-2012-Verhandlungen, so die Einsicht, in die Perspektive eines elaborierten Verständnisses von Art. 2 UNFCCC gestellt werden. Also hat die EU-Kommission einen entsprechenden Vorbereitungsprozess veranlasst - im Ergebnis hat die Europäische Union sich im März 2005 für die Verhandlungen für die Zeit nach 2012 wie folgt positioniert. In einem Beschluss des Europäischen Rates heißt es: "It confirms that, with a view to achieving the ultimate objective of the UN Framework Convention on Climate Change, the global annual mean surface temperature increase should not exceed 2 ºC above pre-industrial levels." (EU Council, 22-23-March 2005) (Hvh. H.-J.L.)

    Zusammenfassen lässt sich die bis heute mit diesem Vorstoß gemachte Erfahrung wie folgt: Allein die EU unter den Industriestaaten hat in ihrem Positionsbezug zur Vorbereitung der Post-2012-Verhandlungen Bezug genommen auf das ,ultimate objective' in Art. 2 UNFCCC und hat daraus, intellektuell korrekt, die global notwendigen Emissionsreduktionen bis zum Jahre 2050 abgeleitet. Sie hat ihren ursprünglichen Beschluss jedoch zu einem Zeitpunkt gefasst, als der jetzige Stand der Einsicht in die Dramatik hinsichtlich Klimasensitivität und aktueller Zunahme der Emissionen noch nicht präsent war - ihr Beschluss spiegelt noch die gleichsam relativ entspannte Problemperspektive von IPCC AR3 aus dem Jahre 2001. Auf Basis dieser Sichtweise hatte die EU aus ihrer Festlegung auf ein ,max. + 2°C'-Ziel geschlossen, dass die globalen THG-Emissionen bis 2050 relativ zu ,1990', präzise gesagt dem Referenzjahr der Kyoto-Verpflichtungen, um 15 bis 50% zurückzuführen seien. Diese Position, der mit IPCC AR4 im Januar 2007 die Basis entzogen war, hat sie mit Heiligendamm (Juni 2007) korrigiert. Explizit gemacht hat das erstmals der Europäische Rat der Umweltminister auf seiner Frühjahrstagung am 2. März 2009 (Zi. 8; 7128/09). Seitdem gilt "at least 50% by 2050 compared to 1990", d.h. "mehr als minus 50%".

    ,Mehr als minus 50%'

    Um diese nach oben offene Formel konkreter auszulegen, hat die wohl prominenteste und kompetenteste Gruppe, die zur unabhängigen Beratung der multilateralen Klimapolitik zur Verfügung steht, die von der UN-Stiftung (und vom Club de Madrid) eingesetzte Gruppe ehemaliger Staatsoberhäupter und Personen vergleichbarer Reputation4 unter dem Titel "Global Leadership for Climate Action" in ihrem Vorschlag für ein "Framework for a Post-2012-Agreement" (vom 10. September 2007) formuliert: "Scientific experts believe that a temperature rise above 2.0 - 2.5 ºC (450-550 ppm CO2-equivalent) risks serious impacts. Avoiding such a future requires global greenhouse emissions to peak in the next 10-15 years, followed by substantial reductions of at least 60% by 2050 compared to 1990." (p. 1) (Hvh. H.-J. L.)

    Der zweite Satz entspricht beinahe wörtlich dem, was die G8-Präsidentschaft ursprünglich zur Beschlussfassung in Heiligendamm vorgeschlagen hatte - mit einem Unterschied nur, der Ersetzung von "around 50%" durch "at least 60%". Die Größenordnung der max. + 2 °C entsprechenden (globalen) THG-Minderung anzugeben, ist, wie man leicht nachvollziehen kann, eine stark tabu-behaftete Aussage. Sie lautet, offen gesagt,

  • global minus 80% in 2050 (vs. 1990) für energiebedingte Emissionen (aus fossilen Quellen);
  • für Industriestaaten minus 95% in 2050 (vs. 1990) für sämtliche THG.
  • Anmerkungen

    1) Die Temperatur-Datensätze reichen bis 1850 zurück (IPCC AR4 WG1, Chap. 3.2.1). Den Zeitraum 1850-1906 zu vernachlässigen, ist nicht willkürlich, sondern kann begründet werden mit "there was not much overall change from 1850 to about 1915, aside from ups and downs associated with natural variability but which may have also partly arisen from poor sampling." (ebd., FAQ 3.1, p. 252) Ergebnisrelevant aber ist die Definition auf der anderen Seite, der ,Gegenwart'. Folgt man der WMO-Vorgabe, nach der Klimaereignisse als Mittelwert von 30-Jahres-Perioden definiert sein sollen, so erhält man, so IPCC-Sprechweise, einen gemessenen Temperaturanstieg gegenüber vorindustrieller Zeit um 0,74 °C (ebd.). Stellt man dagegen auf die Zeitpunkte 2005 vs.1906 (bzw. 1850) ab, so haben wir gegenüber vorindustrieller Zeit einen Anstieg um 1 °C erreicht.

    2) mit einem solaren, also natürlichen, Anteil, der dann bei lediglich etwa 5% liegt.

    3) UNESCO-SCOPE: Policy Briefs October 2006: The Global Carbon Cycle; www.unesco.org/mab/publications/pdf/carbonBriefsNo2.pdf

    4) Mitglieder sind u.a. Gro Harlem Brundtland, gegenwärtig ,special envoy' des UN Generalsekretärs für Klimafragen, Klaus Töpfer und Timothy Wirth, der ehemalige Chefunterhändler der USA (unter Clinton) für Klimafragen, der also ,Kyoto' verhandelt hatte.


    Dr. Hans-Jochen Luhmann ist am Wuppertal Institut für Klima, Umwelt und Energie verantwortlich für Grundsatzfragen in der Forschungsgruppe Zukünftige Energie- und Mobilitätsstrukturen. Seine Arbeitsgebiete sind insbesondere Klima-, Steuer- und Wahrnehmungspolitik.

    Zum Seitenanfang | Druckversion | Versenden | Textversion