Banc De Venezuelao

 


Ein besonders hau g benutzter Datensatz zur empirischen Analyse von Wachs Siehe http: So hat der Erwerb von Dividendenwerten ausländischer Unternehmen des Euro-Raums überdurchschnittlich zugelegt, aber auch Aktien von japanischen und britischen Unternehmen waren gefragt. A variation resulting from different numbers of neutrons in the nucleus is called an isotope.

Schlagwörter zu diesem Artikel


Be ndet sich die deutsche Wirtschaft am Anfang einer Aufschwungphase? Schaffen Subventionen fur erneuerbare Energien Arbeitsplatze? Wie wird sich die demogra sche Entwicklung auf die Finanzierung zukunftigerRentenzahlungen auswirken?

Wie stark beein ussen die Olpreise die Konjunktur? Ist die Arbeitslosigkeit im letzten Monat saisonbereinigt gestiegen oder gefallen? Wie bereits diese nahezu willkurliche Au istung von Beispielen verdeutlicht,gibt es in jedem Bereich der Okonomie Fragestellungen, welche den Einsatz derMethoden empirischer Wirtschaftsforschung erfordern.

Demnach stehen am Anfang einer empirischen Untersuchung eine okonomischeTheorie und Fakten, die mit dieser zusammenhangen. Ausgehend davon wird imzweiten Schritt die Theorie zu einem Modell konkretisiert, das mit den Daten, wel-che die Fakten reprasentieren sollen, in Verbindung gebracht werden kann.

Einegleichberechtigte Rolle spielt die statistische Theorie, die dabei hilft, Aussagen ubermogliche Beziehungen zwischen Daten und Modell herzuleiten. Es resultiert als drit-ter Schritt das okonometrische Modell, das einer quantitativen Analyse mit den zudiesem Zweck aufbereiteten Daten zuganglich ist. Die okonometrischen Methodenwerden bereitgestellt, um die quantitative Analyse durchzufuhren und ihre Qualitatzu gewahrleisten oder zumindest zu prufen.

Aus den Ergebnissen der Schatzung desModells, d. Die strukturelle Analyse dient einem besseren Verstandnis des okonomischenModells, indem die Relevanz von Ein ussgroen uberpruft und die Groenordnun-gen einzelner Modellparameter bestimmt werden.

Insbesondere gehort hierzu dieEvaluation des okonomischen Modells an sich, da bestimmte Zusammenhange, diesich aus der Theorie ableiten lassen, moglicherweise von den Daten nicht getra-gen werden. Es gilt also zu uberprufen, ob Aussagen und Folgerungen der Theo-rie durch die Daten verworfen werden. Beispielsweise folgt aus der Standardversionder Quantitatstheorie des Geldes, dass die Geldnachfrage direkt proportional zumTransaktionsvolumen steigen sollte.

Empirisch werden jedoch hau g deutlich groere Parameterwertegefunden,2 was wiederum Anlass zur Erweiterung des theoretischen Rahmens gab. Eine andere Anwendung liegt in der Politikevaluation. Mit Hilfe der geschatztenZusammenhange soll dabei beurteilt werden, ob Politikmanahmen den gewunsch-ten Effekt hatten, und ob dieselben Ziele mit anderen Manahmen einfacher, schnel-ler oder kostengunstiger zu erreichen gewesen waren. Ein aktuelles Beispiel betrifftdie anhaltende Diskussion um die Beschaftigungswirkungen aktiver Arbeitsmarkt-politik.

Dabei ist einerseits zu prufen, ob und in welchem Ausma die Teilnehmeran derartigen Manahmen davon pro tieren, und andererseits, ob sich auch gesamt-wirtschaftlich positive Wirkungen ergeben. Wenn die geschatzten quantitativen Zusammenhangezwischen einzelnen Variablen als vergleichsweise stabil betrachtet werden konnen,reicht die Kenntnis der wahrscheinlichen Entwicklung einiger Groen aus, um auchAussagen uber die Entwicklung anderer wichtiger Variablen machen zu konnen.

Die-se sind jedoch bestenfalls so gut wie die Gute der Prognose der erklarenden oder2 Coenen und Vega , S. Empirische Wirtschaftsforschungexogenen Groen und die Qualitat des geschatzten Modells. Wichtige Prognosen furdie gesamtwirtschaftliche Entwicklung legen die Arbeitsgemeinschaft der fuhren-den Wirtschaftsforschungsinstitute und der Sachverstandigenrat zur Begutachtungder gesamtwirtschaftlichen Entwicklung jeweils im Spatherbst vor.

Der Vergleichdieser Prognosen mit den tatsachlich realisierten Werten ein Jahr spater weist auf dieSchwierigkeiten dieser Ansatze hin. Vielmehr ist es, wie bereits erwahnt, zentraler Bestandteil der okonomischen For-schung, entwickelte Theorien an der Realitat zu testen. Die Ergebnisse solcher Ana-lysen dienen wiederum dazu, die Theoriebildung voranzutreiben. Schlielich konnendie Resultate empirischer Untersuchungen auch Ruckwirkungen auf den Prozess derDatenbeschaffung und -aufbereitung sowie die Entwicklung geeigneter okonome-trischer Verfahren haben.

Der sich ergebende deduktiv-induktive Prozess kann bei-spielsweise wie in Abbildung 1. Deduktiv-induktiver Ansatz der WirtschaftsforschungRealePhanomene Abstraktion TheorieEvaluationLogischeAbleitungenFolgerungenfur realePhanomene Interpre-tation Schluss-folgerungenAus der Beobachtung realwirtschaftlicher Phanomene wird durch Abstraktion,beispielsweise indem unbedeutend erscheinende Details vernachlassigt werden, einokonomisches Theoriegebaude hergeleitet.

Im Rahmen dieser Theorie konnendurch logische Ableitungen aus unterstellten oder beobachteten Zusammenhangenweitere Schlussfolgerungen gezogen werden. Ein Teil dieser Schlussfolgerungenlasst eine Interpretation hinsichtlich realer Groen zu, d.

Aufgabe der empirischenWirtschaftsforschung ist es nun, diese Schlussfolgerungen anhand von Daten mitHilfe okonometrischer Verfahren zu uberprufen. Fuhrt diese Evaluation zu dem Er-gebnis, dass die Schlussfolgerungen mit den realen Phanomenen kompatibel sind,kann die Theorie zunachst nicht verworfen werden. Anderenfalls ergibt sich unmit-telbar die Notwendigkeit, im Zuge der Abstraktion die beobachtete Diskrepanz zwi-schen realen Phanomenen und den aus der bisherigen Theorie gewonnenen Schluss-folgerungen zu erklaren, d.

Der Kreis schliet sich. Dies gilt auch fur die Verknupfungmit allge-meinen wissenschaftstheoretischen Ansatzen. Ausfuhrlicher wird in den ersten beiden Kapiteln von- Stier auf diesen Themenkomplex eingegangen. Eine allgemeine Darstellung und Kritikaktueller Forschungsmethoden ndet sich in- Hendry und Swann spezi sch im Hinblick auf den Gebrauch undMissbrauch okonometrischer Methoden,- Schor und- Popper , insbesondere Kapitel I und II,wahrend Kuhn eine grundlegende Beschreibung des Wissenschaftsprozessesliefert.

Teil IIDaten2Datenbasis der empirischen WirtschaftsforschungMost applied economics do not invest a large amount of time in collecting their owndata though there are some honourable exceptions. As a result, we often give littlethought to where our data come from. Yes itdoes, if the mental models which data collectors use to collect their data are differentfrom our own.

Davon bleibt auch die empirische Wirt-schaftsforschung nicht verschont, indem das Problem der Datenverfugbarkeit unter-schatzt wird.

Stattdessen wird davon ausgegangen, dass die notwendigen Daten inhinreichender Qualitat ohne allzu groen Aufwand beschafft werden konnen. Diesist allerdings in der Praxis eher die Ausnahme als die Regel. Datenbeschaffung undDatenqualitat stellen vielmehr je nach Untersuchungsgegenstand hau g einenzentralen Engpass der empirischen Wirtschaftsforschung dar.

Zu dessen Aufgaben gehort es insbesondere, Empfehlun-gen abzugeben, wie der Datenzugang fur die Wissenschaft verbessert werden kann. Auerdem beschaftigt er sich auch mit Methoden zur Erstellung neuer Datensatze,beispielsweise im Bereich der Kriminalstatistik oder im Hinblick auf die Messungregionaler Preisunterschiede.

Verfugbarkeit, Quellen und Beschaffung von Daten,2. Qualitat der Daten und3. Aufbereitung und deskriptive Interpretation der Daten. Datenbasis der empirischen WirtschaftsforschungBevor auf die genannten Punkte im Detail eingegangen werden kann, solltezunachst der Begriff der Daten geklart werden. Offenbar kann es sich dabei nichtallein um die Zahlen handeln, die in einschlagigen Tabellen ausgewiesen sind.

Viel-mehr wird die Zahl 2 ,20 Mrd. Damitist eine klare De nition der Zahl gegeben; nicht geklart ist hingegen, ob die ubli-che Praxis, eine solche Zahl synonym fur die gesamtwirtschaftliche Produktion Yin einem makrookonomischenModell einzusetzen, gerechtfertigt ist. Dahinter stecktdie Frage nach dem Zusammenhang zwischen einem theoretischen Konzept in ei-nem okonomischen Modell und einem Datenkonzept, fur das Beobachtungen vor-liegen.

Um im genannten Beispiel zu bleiben: Wie steht es etwa um Komponenten wie die unentgeltlicheArbeit im Haushalt oder die Schattenwirtschaft? Die realen Phanomene, die be-schrieben werden sollen, umfassen die Produktion von Gutern und Dienstleistungen. Ob diese steuerlich erfasst werden oder nicht, ist dabei fur viele Fragestellungennicht relevant.

Versucht man, den Wert aller in einer Volkswirtschaft in einem be-stimmten Zeitraum produzierten Guter und Dienstleistungen zu erfassen, um durchSummation eine Messgroe fur den gesamtwirtschaftlichen Output zu erhalten, wirdschnell das Problem der Mehrfachzahlung offenkundig.

Da man den Wert in der Re-gel nur bei konkreten Transaktionen beobachten kann, wurden die Messwerte starkvom Ausma der vertikalen Integration der Produktion abhangen.

Werden Fahrrad-reifen von einem Zulieferer gekauft, tauchen sie zweimal in der Messgroe auf das zweite Mal als Bestandteil des Fertigproduktes Fahrrad. Produziert der Fahr-radhersteller auch die Reifen selbst, werden sie hingegen nur einmal gezahlt. Zusinnvollen Messgroen gelangt man offenbar nur uber eine klare theoretische Vor-stellung dessen, was zu messen ist. Im Falle des gesamtwirtschaftlichen Geschehensist das zugrunde liegende Konzept das der Wertschopfung, d.

DieOperationalisierung fuhrt in diesem Fall beispielsweise auf das Bruttoinlandsproduk-tes,4 so dass als messbares Merkmal die Wertschopfung in jedem Produktionsschrittzu erheben ware.

Die Messung selbst kann in diesem Fall fur viele Bereiche direkterfolgen, beispielsweise gekoppelt an die Umsatzsteuerstatistik. Datenbasis der empirischen Wirtschaftsforschung 13Abb. Auf Basis von Festlegungen uberden Umgang mit diesen Komponenten resultiert schlielich die gesuchte Mazahl. Wie etwa sollte ein Datenkonzept aus-sehen, dass die steigenden Kosten der privaten Haushalte fur Guter des taglichenBedarfs angemessen erfasst?

Und welche Mazahl ist fur Importe zu verwenden? Wenn es gelungen ist, ein geeignetes Konzept zur Erfassung der realen Phano-mene festzulegen, sollten die auf Basis dieser Vorgabe erhobenen Daten die unterden folgenden drei Stichworten beschriebenen Eigenschaften aufweisen: Objektivitat, Zuverlassigkeit Reliabilitat und Validitat. Die Objektivitat der Daten erfordert, dass das Ergebnis ihrer Messung un-abhangig vom Beobachter ist. Wahrend beispielsweise schlechtes Wetter eine sub-jektive Bewertung darstellt, kann derselbe Sachverhalt mit Regen objektiv darge-stellt werden, sofern Einigkeit uber den Begriff Regen besteht.

In der empirischen5 Zur aktuellen Berechnung gesamtwirtschaftlicher Daten fur Deutschland siehe auch dieBeitrage in der Zeitschrift Wirtschaft und Statistik des Statistischen Bundesamts, z.

Rath und Braakman Datenbasis der empirischen WirtschaftsforschungWirtschaftsforschung ergeben sich Unterschiede in den Daten aufgrund unterschied-licher Datenkonzepte und Messverfahren, z.

Zuverlassigkeit ist dann gegeben, wenn wiederholte Messungen zu identischenErgebnissen fuhren. In dieser Hinsicht sind insbesondere Daten, die aus Umfragenmit kleinem Teilnehmerkreis basieren, anfallig, da bei einer Wiederholung mit einerneuen Stichprobe nicht unerhebliche Abweichungen auftreten konnen.

Die Validitatschlielich bezieht sich auf den bereits angesprochenen Zusammenhang zwischentheoretischem Konzept und empirischen Beobachtungen. Es geht also darum, ob Da-ten tatsachlich das messen, was im okonomischen Modell oder in der wirtschaftspo-litischen Diskussion betrachtet wird. Die Fallbeispiele Wer ist arbeitslos? Die griechische TragodieAm April veroffentlichte Eurostat eine Pressemitteilung mit ersten Zahlenuber das offentliche De zit in der Eurozone fur das Jahr Eurostat, DieseZahlen waren vielleicht der buchstabliche Tropfen, um das Fass der angeschlagenenReputation der griechischen Zahlungsfahigkeit zum Uberlauf zu bringen.

Ursache dafur waren unklare Zuordnungen derVerbindlichkeiten offentlicher Einrichtungen, insbesondere der Krankenhauser. Damit hatten sich einmal mehr die Zahlen zu BIP, De zit und Schuldenstand Grie-chenlands als wenig objektiv, unzuverlassig und damit auch wenig valide fur weitereAnalysen, z. Bereits im Jahr fuhrte eine genauere Analyse der griechischen Datenzu einer erheblichen Revision. Der Schuldenstand fur die Jahre bis eldanach jeweils um etwa acht Prozentpunkte hoher aus als ursprunglich geschatzt.

Doch damit waren die Probleme ungenugender Datenerfassung, mangelnder Doku-mentation und fehlerhafter Datenubermittlung etc. Allerdingswaren methodische Probleme nur fur einen Teil der Fehler mageblich. Schwererwiegt, dass es mehrfach zu einer vorsatzlichen Meldung falscher Zahlen kam, u. Europaische Kommission und Eurostat Die konkrete Datenerhebung hangt vom gewahlten Datenkonzept und washau g unerwahnt bleibt von den Kosten der Erhebung ab.

So kann man einmal2. Mi-krozensus unterscheiden und zum anderen nach der Art der Erhebung zwischenBefragung z. Guterpreise zur Berechnung von Preisindizes und Schatzung z. Von der moglichen beziehungsweise notwendigenArt der Erhebung hangt es ab, ob und zu welchen Konditionen die Daten verfugbarsind.

Es liegt auf der Hand, dass Vollerhebungen dabei in der Regel hohere Kostenals Stichproben verursachen. Schlielich muss auf die Unscharferelation der empirischen Wirtschaftsfor-schung hingewiesen werden, welche die mogliche Interaktion von Befragung, Ant-wortverhalten und okonomischem Verhalten beschreibt.

Einmal kann sich der Befragte durchzu detaillierte Fragen derart in Anspruch genommen sehen, dass er die Antwort ver-weigert. Zu erwarten sind solche Ef-fekte beispielsweise bei Haushalten, die im Auftrag des Statistischen Bundesamtesein Haushaltsbuch fuhren, in dem alle Ein- und Ausgaben notiert werden mussen. Obwohl die Beschaffung von Daten mit einem groen Aufwand verbunden ist,der unter anderem aus den genannten Aspekten resultiert, gibt es mittlerweile zu fastallen Bereichen der Okonomie einen groen und standig wachsenden Datenbestand.

Dieser kann im Folgenden nach der Art von Daten, die er umfasst, und nach derHerkunft dieser Daten aus der nationalen amtlichen Statistik, der nicht amtlichenStatistik und der internationalen Statistik untergliedert werden.

Die erste Kategorisierung orientiert sich am Aussagegehalt der Zahlenwerte, dieeiner Variablen zugewiesen werden konnen. Hierbei werden mit zunehmendem In-formationsgehalt drei Formen der Skalierung unterschieden: Die einzelnen Auspragungen der Variablen haben keine uberihre Unterscheidung hinausgehende Bedeutung.

Postleitzahlen konnen bei-spielsweise zwar der Groe nach geordnet werden, doch ist daraus keine klare6 Vgl. Datenbasis der empirischen Wirtschaftsforschunginhaltliche Ordnung zu entnehmen, allenfalls kann man aus ahnlichen Postleit-zahlen oft auf eine gewisse raumliche Nahe schlieen. Hau ger treten nominalskalierte Variablen in der empirischen Wirtschaftsforschung in Form von Dum-myvariablen auf, die nur die Werte 0 und 1 annehmen konnen. Phasen xer beziehungsweise exibler Wechselkurse oderdie Zeit vor und nach der deutschen Wiedervereinigung.

Hier kann die Ordnung der Auspragungen der Variablen in-terpretiert werden. Bei Klausurnoten etwa ist eine 1 besser als eine 2, eine 2besser als eine 3 usw. Ein anderes Beispiel sind Angaben uber die gegenwartigeGeschaftslage im ifo Konjunkturtest, die mit 1 gut , 2 mittel und 3 schlecht codiert werden. Auch hier ist 1 besser als 2, und 2 besser als 3.

Die Ordnung derAuspragungen erlaubt es jedoch nicht, Aussagen uber die Abstande zwischenden Werten zu machen. Obwohl numerisch die 3 ebenso weit von der 2 entferntist wie die 1, darf nicht geschlossen werden, dass im Beispiel der Klausurnoten der Abstand zwischen einer 3 und einer 2 genauso gro ist wie der zwischeneiner 2 und einer 1. Fur das Beispiel der ifo Geschaftslageindikatoren kann mansogar okonometrisch belegen, dass die Schwellen, ab denen die Firmen gutbeziehungsweise schlecht angeben, verschieden hoch sind Entorf und Ka-valakis, Die weitgehendste Interpretation erlauben kardinale Merk-male, fur die auch der Unterschied zwischen den Auspragungen interpretiertwerden kann.

Im einfachsten Fall bedeutet dies, dass auch die Differenzen zwi-schen zwei Auspragungen interpretiert werden konnen. Man spricht dann auchvon intervallskalierten Daten. Ist zusatzlich noch ein naturlicher Nullpunkt derSkala vorhanden, liegt eine Verhaltnisskala vor, da in diesem Fall auch Quoti-enten der Daten interpretiert werden konnen.

Ein groer Teil ublicher okono-mischer Zeitreihen gehort zu dieser Gruppe, beispielsweise alle Wertgroen derVolkswirtschaftlichen Gesamtrechnung, aber auch Zinssatze und Preise. Fur der-artige Daten ndet sich auch die Bezeichnung metrische Daten.

Zu den qualitativen Datengehoren nach der vorangegangenen Gliederung die nominal und ordinal skaliertenDaten, wahrend kardinale Daten quantitativen Charakter haben. Eine weitere Unterscheidung der Daten kann nach dem Aggregationsniveau, denMerkmalstragern10 und der Frequenz der Datenerhebung erfolgen.

Fur die in den Wirtschaftswissenschaften ublichen inGeldeinheiten gemessenen Groen liegt jedoch immer ein naturlicher Nullpunkt vor. In der Regelwird dabei eine regelmaige Frequenz, z. Ferner werden die Daten nach Moglichkeit bei densel-ben Merkmalstragern und mit gleichbleibender Methodik und De nition erho-ben. Querschnittsdaten beziehen sich auf zeitlich ungeordnete Beobachtungen fur un-terschiedliche Merkmalstrager, die hau g zu einem einheitlichen Zeitpunkterhoben werden.

Damit Querschnittsdaten einen empirischen Gehalt haben,mussen sie starker disaggregiert sein. Zu denQuerschnittsdaten gehoren auch die bei einzelnen Wirtschaftssubjekten Perso-nen oder Unternehmen erhobenen Individualdaten wie die Umsatze von Unter-nehmen oder die Einkommen von Haushalten. Paneldaten schlielich kombinieren die Eigenschaften von Zeitreihen- und Quer-schnittsdaten, indem fur eine Vielzahl von Merkmalstragern mehrere zeitlichgeordnete Beobachtungen vorliegen. Neben diesen Individual-daten konnen jedoch auch sektoral oder international vergleichende Daten Pa-nelcharakter aufweisen, wenn sie uber mehrere Perioden beobachtet wurden.

Die Durchfuhrung obliegt den statistischen Amtern als zustandi-gen Fachbehorden. Zum Teil ergibt sich die Verp ichtung zur Erhebung von Datendurch das Statistische Bundesamt auch aus der Mitgliedschaft in internationalen Or-ganisationen. Um Objektivitat und Neutralitat zu gewahrleisten, sind die statistischenAmter in methodischen und wissenschaftlichen Fragen nicht an fachliche Weisungengebunden.

Dies gilt nicht nur fur Vollerhebungen wie dieVolks- und Betriebsstattenzahlung, sondern auch fur Stichprobenerhebungenwie den11 Vgl. Dadurch sol-len Verzerrungen der Ergebnisse aufgrund unterschiedlicher Auskunftsbereitschaftvermieden werden. Mit der Auskunftsp icht verknupft ist die Geheimhaltungsp ichtseitens der statistischen Amter.

Die erhobenen Daten uber Personen oder Firmen In-dividualdaten durfen weder fur die Zwecke anderer Amter genutzt werden, nochdurfen Daten veroffentlicht werden, die in irgendeiner Form den Ruckschluss aufIndividualdaten zulassen. Daher werden die meisten Daten fur Gruppen von Individuen zusammengefasstund dadurch in anonymer Form publiziert. Enthalt eine derart gebildete Gruppe nursehr wenige Individuen, so werden keine Angaben publiziert, da ein Ruckschlussauf einzelne Merkmalstrager moglich ware.

Ein Beispiel hierfur stellen die Angabenuber Beschaftigte nach Betriebsgroenklassen dar. Eine Sonderstellung nimmt der seit jahrlich durchgefuhrte Mikrozensusein. Der Fragenkatalog des Mikrozen-sus umfasst ein regelmaig erhobenes Grundprogramm, fur das Auskunftsp icht be-steht, und sich im Zeitablauf andernde Zusatzfragen, deren Zusammensetzung sichab etwas verandert hat.

Insbesondere werden Informationen zur wirtschaftli-chen und sozialen Lage, Erwerbstatigkeit und Ausbildung erhoben. Um diesen um-fangreichen Datensatz einer wissenschaftlichen Auswertung zuganglich zu machenund trotzdem die Anonymitat der Befragten zu gewahrleisten, stellt das StatistischeBundesamt faktisch anonymisierte Mikrodaten les zur Verfugung.

Bei der Durchfuhrung konnen drei Stadien unterschieden werden: Durchfuhrung der Erhebung und Aufbereitung der Daten und3. Bereitstellung der Ergebnisse und Veroffentlichung. Die Kompetenz fur die methodische und technische Vorbereitung der einzelnen Sta-tistiken und die Zusammenstellung und Veroffentlichung der Bundesergebnisse liegt13 Die Anonymisierung wird durch eine Reihe von Manahmen sichergestellt. Die geogra sche Untergliederung beschrankt sich auf die Bundeslandebene.

Eswerden nur Variablen ausgewiesen, fur die eine Mindestanzahl an Beobachtungen vorliegt. Siehe auch Pohlmeier et al. Diese veroffentlichen auch Er-gebnisse auf Landesebene und fur die kleineren regionalen Verwaltungseinheiten. Lediglich fur zentrale Statistiken wie die Auenhandelsstatistik ist das StatistischeBundesamt allein zustandig. Die Veroffentlichungen im Rahmen der nationalen amtlichen Statistik inDeutschland erfolgen unter anderem durch: Das Statistische Bundesamt16Statistisches Jahrbuch seit , ab fur das vereinte Deutschland er-scheint einmal jahrlich und gibt einen aktuellen Uberblick uber relevantewirtschaftliche, gesellschaftliche und okologische Zusammenhange in derBundesrepublik Deutschland.

DieFachserien umfassen die selben Gebiete wie das Statistische Jahrbuch, je-doch in groerer Gliederungstiefe. Beispielsweise enthalt die Fachserie 18die Ergebnisse der volkswirtschaftlichen Gesamtrechnung fur die Bundes-republik Deutschland. Zeitschrift Wirtschaft und Statistik erscheint monatlich und enthalt nebenaktuellen statistischen Zahlen zum Teil vorlau ger Natur Artikel zum me-thodischen Vorgehen der Bundesstatistik.

Insbesondere ist hier die Fundstel-le fur detaillierte Informationen uber die De nition einzelner Variablen undAnderungen dieser De nitionen im Zeitablauf. Statistische Wochenberichte erscheinen ublicherweise freitags im Internetan-gebot des Statistischen Bundesamtes und bieten aktuell umfangreiche Tabel-len zu Entwicklungen in vielen Bereichen des gesellschaftlichen und wirt-schaftlichen Lebens in Deutschland. Statistische Jahrbucher und Handbucher enthalten Wirtschaftsdaten furLander, Regionen, Kreise und Gemeinden entsprechend der regionalenUntergliederung.

In der Regel liegen dabei Beobachtungen uber mehrereJahre hinweg vor. Die Deutsche BundesbankMonatsberichte informieren uber die Veranderungen wichtiger monetarerGroen und deren Hintergrunde. Im statistischen Teil nden sich vor allem15 Aktuelle Informationen uber die Weiterentwicklung der Methoden und Verfahren der amt-lichen Statistik nden sich in der Reihe Methoden.

Entwicklungen, diebeim Statistischen Bundesamt online bezogen werden kann. Datenbasis der empirischen WirtschaftsforschungAbb. Statistisches Bundesamt , S.

Daneben werden einige allgemeine wirt-schaftliche Zahlen aus anderen Quellen ubernommen. Statistische Beihefte enthalten detailliertere Informationen zu den Bereichen: Bankenstatistik nach Bankengruppen, Wertpapierstatistik, Zahlungsbilanz-statistik, saisonbereinigte Wirtschaftszahlen, Wahrungen der Welt.

Geschaftsberichte erscheinen einmal jahrlich und geben zusammenfas-sende Ubersichten. Insbesondere sind darin Daten zur Kredituber-wachungsfunktion der Bundesbank enthalten. Die BundesregierungBerichte werden zu verschiedenen Bereichen veroffentlicht und enthalten auchselbst erstellte Statistiken. Zu den Berichten gehoren der Jahreswirtschafts-bericht, der Finanzbericht, der Agrarbericht und der Sozialbericht.

Diesgeschieht aus den unterschiedlichstenBeweggrunden, die von der wissenschaftlichenForschung bis hin zum gewerblichen Angebot reichen. Die folgende Liste ist nur alsHinweis auf die Vielfaltigkeit des Datenangebotes zu betrachten.

Sie wurde insbe-sondere im Hinblick auf die Daten zusammengestellt, die in folgenden Kapiteln furBeispiele verwendet werden. Der Sachverstandigenrat zur Begutachtung der gesamtwirtschaftlichen Entwick-lung SVR Jahresgutachten mit umfangreichem Tabellenanhang, in dem Daten aus ver-schiedenen nationalen und internationalen Quellen zusammengestellt wer Bundesministerium fur Wirtschaft und Technologie. Datenbasis der empirischen Wirtschaftsforschungden. Die Daten beinhalten insbesondere die wichtigsten Indikatoren hin-sichtlich der Ziele des Stabilitatsgesetzes.

Mannheimer Innovationspanel MIP wird seit jahrlich als Panelbefra-gung in den Bereichen Bergbau, verarbeitendes Gewerbe, Energie, Bauge-werbe, unternehmensnahe Dienstleistungen und distributive Dienstleistun-gen erhoben. Der inhaltliche Schwerpunkt liegt dabei auf Produkt- und Pro-zessinovationen, deren Bestimmungsgrunde und Auswirkungen. Auerdem wer-den Daten uber die Entwicklung der Anzahl der Insolvenzen bereitgestellt. Ausdem Fragebogen in Abbildung 2. Dennoch ist die Beantwortung mit einem gewissenAufwand verbunden.

So zeigt Abbildung 2. Ebenfalls auf Bran-chenebene werden den Firmen Daten uber aktuelle und erwartete Auftragseingangs-,Lager- und Geschaftslageeinschatzungen zur Verfugung gestellt. Im Fall des Soziookonomischen Panels, an dem private Haushalte teilnehmen,wird eine hohe Beteiligung uber die Jahre hinweg dadurch erreicht, dass die Erhe-bung der Daten durch Interviewer in den Haushalten erfolgt, kombiniert mit kleinenmateriellen Anreizen.

Obwohl das Internetdiesen direkten Zugriff auf auslandische Daten wesentlich erleichtert,26 bestehendoch hau g gravierende Probleme. Diese beginnen bereits damit, dass die Doku-mentation und Erlauterung der nationalen Statistik in der Regel in der Landesspracheerfolgt. Ferner werden internationale Daten hau g benutzt, um vergleichende Studi-en fur verschiedene Lander durchzufuhren. Hierbei stellt sich die Frage, in wieweit22 Abberger et al.

Zur Konstruktion und Interpretationderartiger Salden siehe auch Abschnitt 3. Sektorale Auswertung des ifo Konjunkturtestsdie Daten aus unterschiedlichen nationalen Statistiken vergleichbar sind.

Denn nur indiesem Fall konnen die Daten sinnvoll eingesetzt werden, um beispielsweise die Aus-wirkungen unterschiedlicher Politikansatze zu beurteilen. Anderenfalls konnte dieFrage nicht beantwortet werden, ob eine relativ gunstigere Arbeitsmarktentwicklungin einem Land tatsachlich auf eine bessere Konjunktur oder geeignete wirtschafts-politische Manahmen zuruckzufuhren ist oder lediglich aus den unterschiedlichenOperationalisierungen dieser Groen in den Daten resultiert.

Sowohl das Sprachproblem als auch die Problematik unterschiedlicher Opera-tionalisierungen werden beim Zugriff auf die Datenbestande internationaler Orga-nisationen verringert. Auerdem nden Bemuhun-gen statt, die Datenbasis, die aus nationalen Quellen gesammelt wird, internationalvergleichbar zu machen. Eurostat hat als der Europaischen Kommission zugeordnete Institution die Aufga-be, der Europaischen Union einen hochwertigen statistischen Informationsdienstzur Verfugung zu stellen.

Eurostat stellt ein sehr umfangreiches Angebot an Da-ten aus allen wirtschaftlichen Bereichen zur Verfugung, wobei groes Augen-merk auf die Vergleichbarkeit der Daten zwischen den Landern der EU gerichtetwird. Dabei basieren jedoch viele Daten auf den jeweiligen Angaben der Mit Vgl. Datenbasis der empirischen Wirtschaftsforschunggliedslander diese Problematik wurde besonders fur Griechenland in den Jah-ren seit offenkundig siehe hierzu auch das Fallbeispiel Die griechischeTragodie auf Seite Fur den potentiellen Nutzer von Interesse durfte dieEntscheidung von Eurostat sein, alle eigenen Daten und Veroffentlichungen seitdem 1.

Oktober kostenlos im Internet bereit zu stellen. Ins-besondere werden Daten aus dem Bereich der Wirtschafts- und Sozialstatistik,sowie der Umwelt- und Energiestatistik zur Verfugung gestellt, wobei die Abde-ckung uber die Zeit und Inhalte hinweg zwischen den Landern stark unterschied-lich ausfallt.

Neben der Aufgabe als Datenlieferant werden von der United Nati-ons Statistics Division auch Anstrengungen zur weltweiten Harmonisierung dernationalen statistischen Systeme unternommen. Marz und deren Ziel in der Stabilisierung von Finanz- und Wechselkurssystemen be-steht. Bank fur internationalen Zahlungsausgleich BIS liefert vor allem Daten zummonetaren Bereich, insbesondere uber grenzuberschreitendeEinlagen- und Kre-ditgeschafte, Emission von Wertpapieren, Handel mit Derivaten, Devisenmarkteund die Staatsverschuldung gegenuber dem Ausland.

Ein besonders hau g benutzter Datensatz zur empirischen Analyse von Wachs Siehe http: Die Daten decken dabei jeweils ganz oderteilweise den Zeitraum ab. Alle Wertgroen sind in internationale Preiseumgerechnet. Theoretisch lasst sich diese Frage klar beantworten: Arbeitslos ist eine Person, diezum gegebenen Lohn mehr Arbeit anbietet, als nachgefragt wird. Damit wareArbeitslosigkeit eher in Stunden als in Personen zu messen.

In der Realitat sindArbeitsangebot und -nachfrage und damit auch die Lohnsatze jedoch sehr heterogen. Ist eine Person, die gerne als Busfahrer arbeiten wurde, aber keinen entsprechendenFuhrerschein vorweisen kann, arbeitslos?

Und was ware wenn zwar ein Busfuhrer-schein vorhanden ware, aber keine relativ sichere Stelle bei einem kommunalenVerkehrsunternehmen, sondern nur eine bei einem privaten Anbieter? Die Opera-tionalisierung des theoretischen Konzeptes fallt im Fall der Arbeitslosigkeit nichtleicht. Die folgendeTabelle fasst die wesentlichen Unterschiede beider Konzepte zusammen: Registrierte Arbeitslose ILO-Erwerbsloseweniger als 15 Stunden weniger als 1 Stundepro Woche gearbeitet pro Woche gearbeitetbei der Arbeitsagentur aktive Arbeitssuchearbeitslos gemeldet in den vergangenen vier Wochensteht der Arbeitsvermittlung sofort innerhalb von zwei Wochen zur Verfugung verfugbarErscheint die amtliche Zahl der registrierten Arbeitslosen im ersten Kriterium naheram theoretischen Konzept, sieht es beim zweiten Kriterium gerade umgekehrt aus: Aktive Arbeitssuche ist hier sicher naher an der Theorie als die Meldung bei derArbeitsagentur.

Die nach beiden Konzeptionen erhobenen Zahlen unterscheiden sichdabei durchaus. Zusatzlich ist zu beachten, dass viele nach demILO-Konzept erwerbslose Personen nicht amtlich registrierte Arbeitslose sind undumgekehrt. Welche der beiden Zahlen fur eine empirische Analyse hilfreicher ist, hangt vonder konkreten Anwendung ab. Will man ein Prognosemodell fur die Ausgaben derBundesagentur fur Arbeit entwickeln, sind sicher die registrierten Arbeitslosen diewichtigere Kennzahl. Datenbasis der empirischen Wirtschaftsforschung2.

Wahrend bis zu Beginn der neun-ziger Jahre der Zugang zu Daten immer mit der Ubergabe eines physischen Daten-tragers zunachst in gedruckter Form, spater auch als Magnetband, Diskette oderCD-Rom verbunden war, stellt mittlerweile der Zugriff uber das Internet den Stan-dard dar. Lediglich fur historische Daten oder besonders sensible Daten Individual-daten fur Haushalte oder Firmen werden auch traditionelle Formen weiterhin eineRolle spielen.

Als Beispiel fur den Zugriff uber das Internet zeigt Abbildung 2. Dort sind viele Datendirekt und sehr aktuell verfugbar. Daruber hinaus besteht die Moglichkeit, auf diegesamte Zeitreihenbibliothek zuzugreifen. Allerdings sind diese Zugriffe dann teil-weise kostenp ichtig. Die Datenqualitat umfasst eine ganze Reihe vonMerkmalen, die in den vorangegangenen Abschnitten angesprochen wurden. Dazugehoren so unterschiedliche Aspekte wie die Frage, ob die Daten das eigentlich inter-essierende reale Phanomen wirklich abbilden, oder die Klassi kation in quantitativeund qualitative Daten.

Von daher erscheint es schwierig, einen eindimensionalen In-dikator oder gar eine Mazahl fur die Datenqualitat abzuleiten. Da es nicht moglich erscheint, alle Aspekte der Datenqualitat in einem exaktenRahmen darzustellen, soll hier lediglich ein heuristischer Ansatz vorgestellt werden,der dazu dienen soll, die Qualitat der fur eine Untersuchung benutzten Daten zumin-dest grob einzuordnen. Damit wird es moglich, die gewonnenen Resultate relativ zurAusgangsbasis von der Datenseite her zu sehen.

Das heuristische Konzept bestehtdarin, die Daten auf einer Skala von hart bis weich einzustufen. Abweichungen zwischen theoretischem Konzept und gemessener30 In Damia und Picon Aguilar wird ein Ansatz vorgestellt, auf Basis verschiedenerKriterien zu quantitativen Qualitatsindikatoren zu gelangen. Dabei werden insbesonderedas Ausma von Revisionen und die Konsistenz der Daten berucksichtigt. Ahnlich hart sind auch andere monetareGroen wie Wertpapierkurse einzuschatzen.

Registrierte Arbeitslose zu einem Stichtag werden durch eine Vollerhebung uberdie Arbeitsagenturen ermittelt. Abgesehen von Erfassungs- und Ubertragungsfehlernbei den einzelnen Agenturen stellen die Daten daruber somit die untersuchte Groeexakt und in kardinaler Skalierung dar.

Die Tatsache, dass die Variable Arbeits-lose noch einmal deutlich weiter unten auf der Skala erscheint, verweist jedochauf ein Problem. Die Anzahl der registrierten Arbeitslosen wird zwar verlasslich er-fasst, doch hau g ist das nicht die okonomisch interessierende Groe.

Dies ist eherdie tatsachliche Anzahl der Arbeitslosen, also inbesondere einschlielich der zumBeispiel aufgrund fehlender Anspruche an die Arbeitslosenversicherung nicht re-gistrierten Arbeitslosen.

Datenbasis der empirischen WirtschaftsforschungTabelle 2. Ahnliches gilt fur die Zahl der offenen Stellen,die nicht nur die Zahl der gemeldeten offenen Stellen umfasst. Im Rahmen des amtlichen Melde-verfahrens sind die Firmen verp ichtet, Angaben uber das Volumen ihrer Importezu machen.

Da diese Meldungen teilweise erst mit Verzogerung bei den statisti-schen Amtern eingehen und fehlerbehaftet sein konnen, kommt es in den Folge-jahren hau g zu deutlichen Revisionen der zunachst ausgewiesenen Werte.

Der Preisindex der Lebenshaltung stellt intervallskalierte Daten aus amtlicherStatistik bereit. Diese beruhen zwar im Gegensatz zur Zahl der registrierten Arbeits-losen nicht auf einer Gesamterhebung, sondern lediglich auf einer umfangreichenStichprobe. Dennoch kann bei Erhebung und Aufbereitung dieser Daten von guterQualitat ausgegangen werden.

Dafur ist jedoch das Konzept der Berechnung vonPreisindizes selbst mit einigen Problemen behaftet, auf die in Abschnitt 3. Damit wird letztlich das okonomische Konzept des Preisniveaus nurbedingt beziehungsweise weich erfasst. York und Atkinson , S. Fur manche Anwendun-gen ist es dabei notwendig, die jeweils historisch verfugbaren Daten zu nutzen, so genannteEchtzeitdaten. Im Fragebogen siehe Abbildung 2. Damit wird deutlich, dass es sich bei den individuellenAngaben eher um grobe Schatzwerte handeln wird.

Dennoch kann der aggregierte Indikator ein relativgenaues Bild der aktuellen Konjunkturlage aus Firmensicht liefern. Bei der Messung der Direktinvestitionen treffen konzeptionelle und erfassungs-bedingte Probleme zusammen, so dass von diesen Daten nur sehr wenig Informati-on uber das eigentlich interessierende Phanomen auslandischer Direktinvestitionenin Deutschland, beziehungsweise deutscher Direktinvestitionen im Ausland erwartetwerden kann. Da es gerade die Natur der Schatten-wirtschaft ist, nicht mit Amtern zu interagieren, werden dort keine verwertbarenDaten vorliegen.

Auch die Erhebung von Daten mit Hilfe einer Umfrage ist nurbegrenzt moglich, da die beteiligten Firmen und Personen nicht bekannt sind. Da-mit konnen bestenfalls zufallig einige Reprasentanten befragt werden.

Allerdingskonnen andere Daten, in denen sich Aktivitaten jenseits der direkt statistisch er-fassten Wertschopfung niederschlagen, zur Schatzung der Schattenwirtschaftsantei-le herangezogen werden. So konnen Eigenleistungen im Wohnungsbaubereich et-wa aus dem Umsatz in Bau- und Heimwerkermarkten approximiert werden. Durcheine Erfassung von Wohnungs achen und Quadratmetermieten ist es moglich, dieWertschopfung auch fur nicht of ziell vermietete Wohnungen zu erfassen.

Die Diskussion der in Tabelle 2. Sie soll vielmehr andeuten, wie eine derartige Anordnung grundsatzlich hergeleitetwerden kann. Verbunden damit ist die Empfehlung, bei jeder konkreten Anwendung35 Vgl. Datenbasis der empirischen Wirtschaftsforschungeine Einschatzung der Qualitat der vorliegenden Daten fur die untersuchte Fragestel-lung vorzunehmen.

Eine kritische Wurdigung des Verhaltnisses der Wirtschaftsforschungzu empirischen Daten liefern- Morgenstern , der auch ausfuhrlich auf Datenquellen und Fehler in Datender empirischen Wirtschaftsforschung eingeht,- Brinkmann , Kapitel 16,- Swann , Kapitel 2, und- Winkler , Kapitel 2 und 3. Speziell mit der Datenerhebung und -aufbereitung fur die Volkswirtschaftliche Ge-samtrechnung befassen sich unter anderem- Frenkel und John , die insbesondere auf Probleme bei der Datenerhebungund -aufbereitung sowie die Anpassung an die ESVG eingehen,- Stobbe , er im Anhang I einige wichtige amtliche, nicht amtliche und in-ternationale Datenquellen beschreibt, und- Krug et al.

Diefolgenden Ausfuhrungen werden sich auf das Ziel konzentrieren, die in den Datenenthaltene Information zu komprimieren. Eine derartige Informationsverdichtungkann erforderlich sein, um eine hau g unubersichtliche Fulle an Daten in moglichstknapper aber informationsreicher Form fur den Endnutzer zur Verfugung zu stel-len. Gra sche Darstellungen sind zu diesem Zweck sicherlich besonders geeignetund weit verbreitet.

Daruber hinaus werden in diesem Kapitel einfache Transfor-mationen der Daten, statistische Kenngroen, Preis- und Mengenindizes sowie dieSaldierung von Tendenzindikatoren vorgestellt. Eine besonders ef ziente Form derInformationsverdichtung stellt auch die okonometrische Analyse dar, auf die ab Ka-pitel 6 naher eingegangen wird. Allerdings stoen auch okonometrische Verfahrenbei zu umfangreichen Daten gelegentlich an ihre Grenzen.

Diese Grenzen konnen inder gewahlten Methodik oder mit wachsenden Computerkapazitaten in abnehmen-der Bedeutung in Beschrankungen der Rechenkapazitat liegen. In diesem Kontextstot man beispielsweise auf das Problem der Aggregation von Zeitreihen, auf dasin Abschnitt 3. Schlielich wird auch das Problem vonMessfehlern und Ausreiern kurz angesprochen, deren Ein uss im Rahmen einesokonometrischen Modells in Abschnitt 8.

Die Behandlung von Trends und saisonalen Effekten stellt eine weitere sehr ver-breitete Form der Datenaufbereitung dar. Die Notwendigkeit zur Identi kation undgegebenenfalls Eliminierung von Trends und saisonalen Mustern ergibt sich unteranderem daraus, dass deutliche Trends oder heftige saisonale Schwankungen dieIdenti kation anderer Veranderungen in den Daten, z.

Einige Methoden zur Trend- und Saisonbereinigung werden inKapitel 10 naher vorgestellt. Obgleich fur viele Anwendungen unvermeidbar, birgt dennoch jede Form derDatenaufbereitung die Gefahr von Fehlern, irrefuhrenden Ergebnissen und im Ex-tremfall auch die Gefahr der bewussten Manipulation in sich. Deshalb ist bei derAnwendung der im Folgenden beschriebenen Verfahren und vielleicht mehr noch beider weiteren Verwendung und Interpretation der aufbereiteten Daten groe VorsichtP.

Schwerer wiegt diese Gefahr dann, wenn die Daten nicht selbst aufbereitetwurden, so dass im Extremfall weder Ursprungsdaten noch Aufbereitungsverfahrenim Detail bekannt sind. Durch eine derartige Ver-dichtung werden Daten hau g erst fur eine Analyse brauchbar. Andererseits fuhrtjedes dieser Verfahren auch zum Verlust an Information, so dass sich die Frage nachdem optimalen Verdichtungsgrad stellt, der wiederum von der jeweiligen Anwen-dung abhangt. In der deskriptiven Statistik wird meistens ein hoher Verdichtungs-grad angestrebt, um nur wenige Kennzahlen interpretieren zu mussen.

Fur okono-metrische Ansatze hingegen konnen und sollten weniger verdichtete Daten genutztwerden, da okonometrische Verfahren selbst als Informationsverdichtung fungieren. Eine gut gewahlte gra sche Darstellungsform ermoglicht einen schnellenUberblick uber wesentliche Aspekte der Daten. Die folgende Tabelle nennt einigegebrauchliche Formen und Beispiele ihrer Anwendung. Konkrete Anwendungen dermeisten Darstellungsformen nden sich uber das ganze Buch verteilt.

Es wird jeweilsder Verweis auf ein Beispiel ausgewiesen. BIP Abbildung 3. Konsumund verfugbares Einkommen Abbildung 3. Entspre-chend wirkt die Entwicklung des nominalen BIP in der rechten Abbildung deutlichdynamischer, obwohl es sich in beiden Fallen um die Darstellung derselben Datenhandelt.

Nominales Bruttoinlandsprodukt Mrd. Deutsche Bundesbank; Zeitreihen-Datenbank; Zeitreihenkennung jja Ahnliche Verzerrungen des optischen Eindrucks ergeben sich beispielsweiseauch durch eine unterschiedliche Wahl des in die Abbildung aufgenommenen Zeit-raums.

So wird ein gegebener Trend in einer Zeitreihe in der gra schen Darstellungschwacher wirken, wenn er auf eine Phase hohen Wachstums folgt, im Vergleich zueiner Abbildung, die mit der schwachen Wachstumsphase beginnt. Datenaufbereitungtrachtung der Entwicklung im Zeitablauf erleichtert werden.

Schlielich sind Quo-tienten hau g unabhangig von den Niveaus der Variablen, was wiederum intertem-poralen und internationalen Vergleichen zu Gute kommt. Anhand des letztgenannten Beispiels der Arbeitslosenquote lasstsich zeigen, dass die Quotientenbildung nicht ganz unproblematisch ist.

Fur die zweite Konzeption liegtdie berechnete Arbeitslosenquote stets hoher. Als Beispiel zeigt Abbildung 3. Die Daten beziehen sich bis einschlielich aufWestdeutschland und ab auf Deutschland. Beide Reihen weisen einen deut-lichen Trend uber die Zeit hinweg auf. Dazu kommen kurzfristige Schwankungeninnerhalb eines Jahres, die auf Saisonein usse zuruckzufuhren sind. Im unteren Teil der Abbildung 3. Auerdem ist ein gleitender Durchschnitt6 als schwarze Linie dargestellt,durch den die Saisoneffekte eliminiert werden.

In diesem Fall hilft der Quotient,mittelfristige Veranderungen im Konsumverhalten beispielsweise den Anstieg derKonsumquote nach der Wiedervereinigung auszuweisen. Allerdingsmuss bei der Interpretation hau g auch das Niveau in Betracht gezogen werden.

Sobedeuten etwa hohe reale Wachstumsraten fur ein Entwicklungsland relativ zu ge-ringen Wachstumsraten in den Industrielandern nicht unbedingt, dass es tatsachlichzu einer Verringerung der absoluten Einkommensunterschiede kommen wird.

Fur die Berechnung von Wachstumsraten konnen verschiedene De nitionen be-nutzt werden: Verfugbares Einkommen, privater Verbrauch und KonsumquoteMrd. Der Vorteil dieser Be-rechnungsart liegt darin, dass die Wachstumsrate uber mehrere Perioden hinwegexakt der Summe der einzelnen Wachstumsraten entspricht, was fur die Metho-den i iii nur naherungsweise gilt. DatenaufbereitungAm Beispiel des deutschen Bruttoinlandsproduktes in jeweiligen Preisen fur die Jah-re kann der Unterschied in den Ergebnissen demonstriert werden: Wachstumsrate nach Konzeptt xt i ii iii iv 2 Die Resultate nach Verfahren iii und iv liegen jeweils dazwischen.

Wenn die Zuwachsraten insgesamt eher kleinausfallen, sind auch die Unterschiede in den ausgewiesenen Wachstumsraten gering.

Bei groeren Wachstumsraten fallen sie entsprechend deutlicher aus. Auerdemkann begrundetwerden,warum sich die logarithmischeWachstumsra-te bei vergleichsweise kleinen Zuwachsen nur wenig von der klassischen De nitionnach Konzept i unterscheidet.

Dies liegt daran, dass fur die Funktion des naturli-chen Logarithmus und 1. Alternativ kann ruckwarts verkettet werden. Dazu mussendie Werte des ersten Index fur die Perioden vor der Umstellungsperiode durch denWert in der Umstellungsperiode geteilt und gegebenenfalls mit multi-pliziert werden. Das Ergebnis ist in der letzten Spalte fur das Beispiel ausgewiesen. Digitalkameras und hedonische Preisindizes IWie haben sich die Preise fur Digitalkameras seit verandert?

Dies sind Fragen, die mit den konventionellen Ansatzen zur Berechnung von Preisin-dizes kaum beantwortet werden konnen. Am Beispiel der Preise fur Digitalkameraswerden zwei zentrale Probleme deutlich. Erstens entstehen und verschwinden hierGuter in einer Geschwindigkeit, die weit groer ist, als es die Anpassung der Indizesim Abstand von funf Jahren erlaubt. Auerdem andert sich die Qualitat der Guter,beispielsweise die Au osung des Bildsensors, standig. Eine Moglichkeit, mit diesen Problemen umzugehen, stellen so genannte hedonischePreisindizes dar.

Dabei wird nicht die Preisentwicklung fur ein konkretes Gut be-trachtet, sondern die okonometrisch geschatzte Preisentwicklung fur ein Bundel vonCharakteristika, die den Nutzen des Gutes ausmachen. So wird beispielsweise diePreisentwicklung von Digitalkameras in Abhangigkeit von Au osung des Bildsen-sors, Groe der Speicherkarte und optischem Zoomfaktor usw. Auf Basis vonSchatzungen dieser Effekte siehe hierzu Fallbeispiel Digitalkameras und hedoni-sche Preisindizes II auf Seite kann dann eine qualitatsbereinigte Preisentwick-lung berechnet werden.

Die aus derartigen Ansatzen resultierenden hedonischen Preisindizes werden in ei-nigen Landern fur unterschiedliche Gutergruppen bereits eingesetzt. Je nach Ge-wicht der berucksichtigten Gutergruppen fur den gesamten Preisindex konnen sichdaraus mehr oder weniger groe Unterschiede zum konventionellen Index ergeben,die besonders dann relevant sind, wenn der Verbraucherpreisindex die Grundlage furkonkrete Zahlungen darstellt, beispielsweise fur Transferzahlungen wie in den USAoder fur die Anpassung indizierter Mieten.

Winker und Rippin und Linz und Dexheimer Dieses Vorgehen kann auch wiederholt benutzt werden, so dass mehrere Index-reihen aneinander gehangt werden konnen. Im Extremfall erfolgt in jedem Jahr eineneue Basierung.

In diesem Fall spricht man auch von Kettenindizes, wie sie neu Kapitel 3. Datenaufbereitungerdings vom Statistischen Bundesamt zur Berechnung von realen Aggregaten derVolkswirtschaftlichen Gesamtrechnung eingesetzt werden Todter, Fur Mazahlen gilt auerdem die Transitivitat oder Verkettungsregel, d.

Fur Indizes gilt dies nur approximativ. Preisindex nach Laspeyres nach PaascheP1 2 1. Der Preisanstieg von der ersten zur zweiten Periodewird vom Index nach Paasche deutlich geringer ausgewiesen, da hier der durch denPreisanstieg induzierte Ruckgang in der Nachfrage nach Gut 1 bereits berucksich-tigt wird. Die gesamten Ausgabenfur beide Guter betragen in Periode eins ebenso wie in Periode drei 30 Geldeinhei-ten.

Anhand des Beispiels kann ferner belegt werden, dass die Verkettungsregel furPreisindizes nicht exakt gilt. Bei der Berechnung und Interpretationvon Kaufkraftparitaten ist wesentlich, welcher Warenkorb jeweils zugrunde gelegt3.

Vom Statistischen Bundesamt werden beispielsweise re-gelmaig Verbrauchergeldparitatenerhoben und in Fachserie 17, Reihe 10 publiziert. Diese Verbrauchergeldparitaten basieren auf einem reprasentativen Warenkorb mitrund ausgewahlten Waren und Dienstleistungen der privaten Lebenshaltung oh-ne Wohnungsmiete Grundmiete. Als Wechselkurse werden die von der DeutschenBundesbank berechneten Devisenmittelwerte verwendet.

Wahrend Norwegen in diesem Index mit 7. Diese Zahlen werden jedoch nicht allein als In-formation uber Kaufkraftunterschiede aufgefasst, sondern als Indikator fur die Unter-beziehungsweise Uberbewertung der Wahrungen interpretiert. Denn nach der Kauf-kraftparitatentheorie der Wechselkurse sollten diese sich langfristig so einstellen, dasses keine Kaufkraftunterschiede mehr gibt. Die Motivation fur diese Theorie stammtaus einem Arbitrageargument: Aber wer fahrt schon nach Chinafur einen Big Mac?

Dennoch scheint der Big Mac Indikator in der Vergangenheiteinen gewissen Prognosegehalt fur Wechselkursanderungen gehabt zu haben. Relevant sind die so berechneten Kaufkraftparitaten daher vorallem fur Deutsche, die beispielsweise aus beru ichen Grunden langere Zeit im Aus-land leben.

Als Indikator fur die Kaufkraft von Touristen kommen eher so genannteReisegeldparitaten in Betracht, die Gewichte unterstellen, wie sie eher im Reise-verkehr typisch sind. Auerdem ist dann eine Erhebung der Preise in den Touristenre-gionen sinnvoller. Derartige Reisegeldparitaten wurden gelegentlich ebenfalls vomStatistischen Bundesamt veroffentlicht. He taught me intertemporal economics and dynamic optimization about 35 years ago. After so many years and quite a number of complicated mathematical papers on intertemporal Preface xv topics, I finally dared to talk about intertemporal economics in ordinary language that every educated person should be able to understand, regardless of his or her field of specialization, hoping that my fellow colleagues will not think this is non-science simply because the equations have been turned into words.

I can assure them that this was more difficult than doing it the other way round. Munich, January to the residents of Novosibirsk, with a suggestion that they start growing palm trees 1 Why the Earth Is Getting Warmer Just a tiny little bit Carbon dioxide CO2 is a non-toxic gas.

It is contained in every carbonated drink, and its sparkle feels refreshing. But it also strikes fear in us, because ever-larger amounts of it are being released into the atmosphere, accelerating the greenhouse effect.

Akin to the glass panels in a greenhouse, CO2 traps sunlight and thereby warms the planet. Burning the carbon contained in oil, coal, natural gas, wood, and other organic matter produces carbon dioxide. The fats, carbohydrates, and proteins burned chemically by living organisms also contain carbon. It is striking how little carbon dioxide the atmosphere contains. It accounts for barely 0. Chemists refer to this as ppm, with ppm standing for parts per million. Before industrialization, the CO2 concentration was ppm.

And, by the way, any gas spreads out in the atmosphere in such a way that its molecules are separated equally from each other when the air pressure is the same. The volume ratio thus always corresponds to the ratio of the number of molecules.

CO2 is a pretty heavy gas, and without constant movement of the air it would concentrate near the ground. Oxygen and nitrogen constitute 97 percent of the atmosphere. Oxygen accounts for 21 percent; nitrogen accounts for 76 percent. The rest consists of approximately 2.

The second most important is methane produced by the decay of plant matter in the absence of oxygen, for instance in the stomachs of cattle ; it accounts 2 Chapter 1 for 1. Greenhouse gases, strictly defined, include carbon dioxide, methane, nitrous oxide, and other trace gases. A broader definition includes water vapor. Water vapor plays a very significant role in the greenhouse effect. It is usually present as an invisible, wholly diluted gas, but it can quickly condense at lower pressures or temperatures and turn into clouds, rain, or snow.

Its concentration varies greatly. The greenhouse effect occurs only when water vapor is in its uncondensed, invisible form. As a rule, 96 percent of the water in the atmosphere consists of water vapor. The remaining 4 percent is in the form of water droplets and ice crystals in clouds, rain, and fresh snow. As is often the case, it all depends on the right dose. It would be much colder if there were water in the form of vapor and clouds in the air but none of the strictly defined greenhouse gases, as the cloud cover would be so thick that little sunshine would reach the ground.

This will be explained below. At present, the average temperature at ground level is It was these gases that made life as we know it possible. A temperature of This is a temperature at which both people and nature feel comfortable, because evolution made us for it.

Plants and animals can cope with changes of this magnitude because they can move back and forth between cold and warm regions. During the last ice age, which ended 18, years ago, the average temperature was about 5. No one lived in Europe north of the Alps, as practically the entire region was buried Why the Earth Is Getting Warmer 3 under an ice layer. If the current concentration 0. God preserve us from conditions such as those on Venus, whose atmosphere consists mainly of carbon dioxide and water vapor.

Lovers are advised to keep their distance from Venus. The greenhouse effect Behind the public pronouncements on the greenhouse effect lie sound theories and vast records of measurements and observations. As these are shared by practically every leading climate scientist, there can be little doubt about the greenhouse basics, despite some irritating public debates in recent years.

The first studies of the greenhouse effect were conducted in the nineteenth century. A veritable flood of scientific publications on the subject are now available. The energy contained in the sunlight radiated by the Earth back to space, mainly in infrared frequencies, plays a major role in this. Methane has the chemical formula CH4, which means it consists of five atoms. Akin to a color filter that absorbs a certain spectrum and so tints everything in a certain hue, the greenhouse gases absorb certain spectral colors.

Sunlight has a wide color spectrum that contains particularly high levels of energy in the shorter blue wavelengths. It reaches the surface of the Earth practically unhindered, warms it, and turns into infrared light, which is then reflected by the Earth.

The police are very fond of shooting pictures in infrared, and we can do that ourselves in order to find out where warmth leaks out of our houses. A significant portion of the infrared light reflected by the Earth is absorbed by the greenhouse gases, converted into heat, and thus prevented from being expelled into space.

This keeps our planet warm. In theory, the Earth has a stable average temperature whose level depends on greenhouse-gas concentrations and other factors. An egg carried in a spoon is in a stable position. Although it rocks to and fro, it returns to stillness once the person carrying the spoon stops moving. If, however, one places the egg on the back of the spoon, it will be in an unstable position, and the tiniest movement will send it tumbling down.

The temperature of our planet will not swing explosively if a change in solar radiation occurs, but it will experience minor swings that dampen down with time, tending toward an equilibrium. If the temperature were not stable, life would not be possible on our planet, because the many disturbances during its history would have turned it alternatively into a frozen waste and then a stifling desert. The temperature remains stable because the more energy the Earth absorbs, the more it radiates back into space.

If external factors make the planet warmer than what corresponds to its stable temperature, it radiates more energy into space and so the increase in temperature is slowed. Conversely, when an external factor makes it cooler, the planet Why the Earth Is Getting Warmer 5 radiates less energy than it receives from the sun, which slows the decline of temperature. It is like a light bulb. Averaging out all its regions, winter and summer, day and night, the Earth, including its enveloping atmosphere, receives an amount of energy amounting to watts per square meter 32 watts per square foot.

It must then be warm enough to radiate exactly this amount of energy back into space. The temperature on the surface would then stabilize at a level at which the heat radiated back to space would equate to watts per square meter.

Moreover, account has to be taken of the fact that lower temperatures lead to more condensation of water vapor in the atmosphere, which diminishes the amount of solar radiation reaching the surface. The higher temperature leads to increased evaporation from the oceans, and with the higher water vapor content in the atmosphere a further greenhouse effect comes into play. With the increased warmth, there is less cloud formation, which in turn accelerates warming. Though the clouds block some of the radiated heat, the fact that they reflect sunlight exerts a larger effect.

Each has its peculiarities, and these must be understood in order to ascertain their meaning for our climate. Water vapor is the most important greenhouse gas. Though its contribution per molecule to the greenhouse effect is equal to only 4 percent of the contribution of carbon dioxide, there is so much water vapor in the atmosphere that it accounts for about 65 percent of the total effect. This gives rise to the distinction between strictly and broadly defined greenhouse gases mentioned above.

This is important in view of the common assertion that the influence of carbon dioxide is irrelevant relative to the overwhelming importance of water vapor. Instead of focusing on CO2, the argument goes, we should pay attention to the fact that enormous amounts of water vapor are expelled into the atmosphere from the cooling towers of power plants and through the burning of hydrocarbons such as coal, natural gas, Why the Earth Is Getting Warmer 7 and oil.

Furthermore, attention ought to be paid to the fact that a hydrogen-based economy, which would release significant amounts of water vapor into the atmosphere, would warm the planet even more. These assertions ignore the fact that the proportion of water vapor in the atmosphere regulates itself continuously through the weather. Water vapor is released from the oceans, condenses, rains down again within 8 to 10 days, and is brought back to the sea by the rivers.

The warmer the air, the more water vapor it can store. You can see it any morning: Carbon dioxide, in contrast, plays a central role in the influence that human activities are exerting on the climate. Though it ranks second to water vapor as a greenhouse gas and accounts for about 60 percent of the third not accounted for by water vapor see table 1.

Carbon dioxide readily binds with water vapor, forming carbonic acid, and gets washed into the oceans when it rains. Waves then release it back into the atmosphere, in a fashion similar to the bubbling away of carbon dioxide when you shake a soda bottle. As the concentration of CO2 increases in these layers, which are responsible for the exchange between water and air, a larger amount of CO2 will be released by the waves.

Thus, only a limited amount of the CO2 released by human activities can be absorbed by the seas; the rest accumulates in the atmosphere and in biomass. As was noted above, water vapor gives rise to a feedback effect in climate because higher temperatures lead to more water vapor, which in turn increases the greenhouse effect. Carbon dioxide shows a similar reinforcing pattern. As the temperature of the oceans rises, their capacity to absorb CO2 decreases. We know this phenomenon from the spraying 8 Chapter 1 that happens when we open a warm soda bottle.

Another destabilizing factor would be the thawing of the permafrost regions, most of which are in Siberia and Canada. Should this happen, a decay processes in those tundra regions would take place, releasing carbon dioxide and methane and thus accelerating the greenhouse effect.

Carbon dioxide is absorbed not only by the oceans but also by plants. If the atmosphere contains higher proportions of CO2, some plants grow faster, as a nutrient relevant to their growth would be more abundantly available. On the other hand, the subsequent decay of those plants would release higher amounts of carbon dioxide as well.

Still, more carbon dioxide will be absorbed than released, as the biomass stock in terms of plants and animals would increase. This would slow the pace at which temperature increases and thus act as a climate stabilizer. The vegetation effect is much too weak to prevent temperature increases, not least because high enough temperatures can also cause plants to die off.

Carbon dioxide is much more chemically stable than other greenhouse gases. It is being pumped into the atmosphere as a result of the burning of fossil fuels, adding to the stocks already there. This is the principal reason it plays such a significant role in concerns about our climate. Only when the carbon dioxide washed by rain into the oceans enters into a reaction with calcium, building calcium carbonate, and gradually sinks to deeper layers, can the stock of CO2 in the atmosphere be reduced, but these processes, from our human perspective, are far too slow to pose a solution to climate change.

Methane is a natural gas, most of which leaks out of underground deposits. But it also arises from the natural decay of organic matter. If oxygen is present in the decay process, CO2 is produced.

If decay occurs in the absence of oxygen, methane is produced. This is the case mainly in humus layers, but can also occur through fermentation in the stomachs of ruminants. Methane absorbs much more radiation per unit of weight than CO2 does. Fortunately, it reacts with oxygen and decays into water and CO2 in about 15 years on average.

It continues to be damaging for our climate, but not as much as it was before decaying. For this reason, the usual practice is to measure its contribution to global warming not in terms of its current absorption of radiation but in terms of the total contribution that one kilogram of methane, in comparison to one kilogram of CO2, makes to global warming over a certain span of time. The last figure is important because it helps us understand the consequences of burning methane. For this reason, we should never allow methane to reach the atmosphere unburned.

It is a pity that in drilling for oil the escaping gas is burned rather than put to profitable use, but burning it is better than pumping it into the atmosphere.

Farmers must also be congratulated for turning organic waste into gas that they can use for heating, instead of just letting it rot away unattended. Nitrous oxide N2O , with 0. Ozone, which occurs naturally at altitudes of 20—40 kilometers 12—25 miles , forms a barrier against ultraviolet radiation. Over years, the greenhouse effect of a unit of weight of nitrous oxide amounts to times that of CO2, and that of a unit of weight of ozone amounts to as much as 2, times that of CO2.

But because their concentrations are low, these greenhouse gases account for only 13 percent N2O 4 percent; O3 9 percent of the anthropogenic man-made greenhouse effect. Chlorofluorocarbons are somewhat more important. They were once used in spray cans and in refrigerators, from which they leaked out into the atmosphere.

Since , when their production was banned through the Montreal Protocol, the stocks of these gases in the atmosphere have been gradually decreasing, and the ozone holes over the poles are starting to close again. The proportion of one of these gases, CFC, reached its peak in and has been slowly decreasing ever since. No reduction in the concentration of CFC can be detected yet, but since the early s its rate of increase has diminished markedly.

Over the next years, the CFCs already released into the atmosphere will account for about one-ninth of global warming. Over years, the current combined greenhouse gases, excluding carbon dioxide and water vapor, will produce a greenhouse effect equivalent to 50—70 ppm of carbon dioxide.

The first column gives the volume shares of the various gases in the atmosphere. The second column gives their average permanence in the air. The values range from two months for ozone to 35, years for CO2. The third column gives the greenhouse effect of a kilogram 2.

Schönwiese, Klimatologie, second edition Ulmer, , p. The fourth column gives the CO2 equivalent in particles per million for the respective gases according to their current concentration in the atmosphere. This forms the basis for the calculation of their greenhouse effect over a period of years. The last column, which gives the percentage share in the greenhouse effect of each gas, except water vapor, illustrates starkly why such overwhelming significance is attached to carbon dioxide in devising appropriate climate policies.

The human influence Thanks to the many air samples from times past that nature has left us, we know fairly accurately how much the proportion of carbon dioxide in the atmosphere has changed since the Industrial Revolution.

Such air samples are found in air bubbles trapped between rock layers and in the ice of glaciers and the polar caps. The deeper you drill, the older the sample. The ice cores drilled on the Law Dome in East Antarctica give particularly good measurements. There is no other explanation for this increase than industrialization.

Burning fossil fuels—at first mostly coal, then, starting around the end of the nineteenth century, also oil—has left its traces on our planet. Natural gas, because of its lower consumption and its high content of hydrogen, has thus far played only a minor role. Clearing forests has played a role, however— see chapter 3. Cement also has been of some importance, as its production releases large amounts of CO2. When calcium carbonate, the raw material for cement, is heated, it produces lime and CO2.

This process is called calcination. The CO2 released during calcination comes in addition to that released by the fuels used to fire up the kilns where calcination takes place. This makes cement production very detrimental to our climate. Even under optimum conditions, producing one ton of cement releases 1. Cement production currently accounts for 4 percent of worldwide anthropogenic CO2 emissions.

The curve is dramatic. The left-hand scale in figure 1. A gigaton is another name for a billion metric tons. In order to simplify comparisons with the carbon stocks still underground and with the carbon contents of fossil fuels, this book will normally base the weight specifications on the carbon content of CO2.

Because CO2 contains two oxygen atoms attached to each carbon atom, and each oxygen atom is 1. You need only multiply the weight of the carbon contained in a specified amount of CO2 by 3. The chart shows that in the combustion of fossil fuels and the production of cement released 7.

The area underneath the curve is the total stock of CO2 emitted. For the greenhouse effect, what is important, of course, is not the stock emitted, let alone the annual flow of emissions, but the emitted stock that has not been absorbed by the oceans or by biomass. With forest 14 Chapter 1 clear-cutting included, humans have increased the stock of carbon in the atmosphere from about to gigatons of carbon since the Industrial Revolution, which corresponds to an increase in CO2 density from to ppm.

Whether public policies can induce people to extract and release to the air less fossil carbon so as to slow down global warming, and if so how they can do so, is the main theme of this book, especially of chapters 4 and 5. One more degree already The big question is this: In view of the large temperature fluctuations between hot periods and ice ages that have always occurred, it is legitimate to ponder to what extent mankind has provoked the current climate change.

Research has shown, for example, that in the second half of the fifteenth century a small ice age lowered temperatures in Europe by about 0. Three hundred years earlier, temperatures were 0. About 18, years ago, when the last ice age came to an end, the world was 5. The new stable equilibrium resulting from the change in the greenhouse-gas concentration mentioned above will be reached very quickly from a geological point of view, but from our human perspective it appears to take much longer.

It takes many decades until the warming process of air, rocks, and bodies of water has been completed. Whereas the temperature of the air in the layers in which airplanes fly the troposphere can change within a few days, in the stratosphere it can take much longer.

Much slower still is the change in temperature at surface level, as the oceans, which react very sluggishly to climate change, exert a dominant influence there. The global average temperature is calculated on the basis of measurements from 3, weather stations.

The dot near the bottom of the left scale shows the preindustrial temperature level in the year , which according to Otto-Bliesner et al. The most recent value for the current global average temperature, according to Jones et al. The temperature curve in figure 1. At present, 16 Chapter 1 however, the curve depicted in the figure reflects the best available direct data on air temperatures.

In Germany, for example, a station in Potsdam shows an increase from to today from 8. They were, in decreasing order of global average, the years , , , , , , , , , and Over the period —, practically no temperature increase was registered.

This can probably be attributed to the high emissions of sulfur dioxide during the fast-paced economic development that took place after World War II. After measures to reduce air pollution and sulfur dioxide emissions were introduced globally, starting in the s, this effect disappeared and the greenhouse effect took over again. Whether there really is any anthropogenic global warming has been a subject of heated debate in recent years.

However, this argument was refuted by Benestad and Schmidt, who showed that only 8 percent of global warming in the twentieth century can be explained by that effect.

The curve representing the data looks like a hockey stick lying horizontally with its blade pointing up. McIntyre and McKitrick31 argued that the data set of Mann, Bradley, and Hughes was useless because the method for creating a temperature indicator from the proxy data was mistaken. Their findings are summarized in a report published by the National Research Council in The data screened referred to, among other things, bore-hole temperatures, glacier lengths, tree rings, and various composite proxy indicators.

Meanwhile, the criticized authors invited others to join a bigger research program that would reconsider the issue. This new data set was again criticized by McIntyre and McKitrick, and again the criticism was refuted by the original authors.

There is an ongoing debate that, at this writing, has not yet come to a conclusion. The data sets leave little doubt about the global warming effect. One such data set is the direct measurement of temperature by thermometers, as in figure 1. The researchers managed 18 Chapter 1 to bore into the Dome C ice mountain to a depth of 3, meters 10, feet , reaching , years into the past and thus amply surpassing the previous record of , years.

The CO2-concentration data came from air bubbles trapped in the Antarctic ice, which consisted of compressed snow that had accumulated without ever melting. How the temperature data were obtained is less straightforward. After all, ice is equally cold everywhere. But temperature data can be reconstructed by means of the isotope method, an ingenious method that has fundamental significance in climate research.

A variation resulting from different numbers of neutrons in the nucleus is called an isotope. Water containing oxygen 16 and water containing oxygen 18 evaporate at different speeds.

Oxygen 16 makes for lighter water, oxygen 18 for heavier water. Because lighter water evaporates faster than heavier water, the ratios of the two isotopes in Antarctic ice cores provide precise indications of the temperatures that prevailed in previous periods. These ratios reveal the temperature of seawater that subsequently evaporated, was transported by the wind over Antarctica, precipitated there as snow, and eventually became compressed into Antarctic ice. The great advantage of the isotope method is that it can be carried out using the same ice cores used to determine the CO2 content of the air bubbles trapped in them.

This makes it possible to derive data on CO2 content and temperature from the same sample. This is the highest average temperature not only in the past few years but in the past , years. It was last higher during the Eemian Interglacial, a warm period that began , years ago and lasted 11, years. That was the warmest period in the last , years, during which humankind evolved from Homo erectus to Homo sapiens. Obviously we are living through one of the warmest periods in human history.

The temperature scale on the right side of the upper panel shows the deviation of Antarctic temperature from its average of the past 1, years; that on the right side of the lower panel shows the corresponding average temperature.

This scale was based on other data that were adjusted according to the following information: This temperature lies exactly 0. The numbers are counted backward from the present. It amounts to ppm, which, as was mentioned above, corresponds to its pre-industrial value.

One shows deviations in Antarctic temperature from the average of the past 1, years; the other translates these temperatures into a global average temperature. The zero value on the left-hand scale corresponds to a According to figure 1.

The Eemian Interglacial also can be seen clearly. It occurred around , years ago, with an average temperature of The fluctuations can be attributed to disturbances that affect the amounts of energy received and radiated. Like a top, the Earth wobbles as it rotates more slowly. Meteorite impacts and volcanic eruptions can also influence our climate: In addition, solar radiation has itself experienced large variations over time, as shown by the sunspot phenomenon.

All these factors have combined to create the fluctuations in our climate depicted in figure 1. They amount to ppm of carbon dioxide and an average global temperature of There was never, over the , years shown, as much Why the Earth Is Getting Warmer 21 carbon dioxide in the atmosphere as there is now,36 and the temperature now also hovers in the upper ranges, exceeded only occasionally during the interglacial warm periods.

A solvable puzzle It is striking how closely correlated the CO2 curve and the temperature curve are. On the face of it, one could take this correlation as proof of the greenhouse effect. This eliminates the possibility that the greenhouse effect was the major force behind the correlation observed. The real reasons for the correlation are found in the fizzing effect, in the permafrost effect, and in biological processes. These effects were mentioned previously in relation to the self-energizing processes of the greenhouse effect.

The permafrost areas, in turn, begin to thaw and release CO2 through the decay of organic matter, either directly or through the production of methane, which quickly decays through oxidation into CO2. With higher temperatures, the carbon stored in biomass will also be reduced, as deserts will expand. The opposite occurs when temperatures decrease.

In that case, the oceans will again absorb more CO2 and, up to a certain point, more plants will grow, their photosynthesis capturing CO2 from the atmosphere and storing it as biomass. Some skeptics have used these findings to cast doubt on the assertions about the effects of greenhouse gases on our climate. Thus, skeptics say, the entire climate discussion that has caused such an uproar around the world is based on a 22 Chapter 1 fallacy, and we should therefore desist from introducing measures to reduce industrial CO2 emissions.

These arguments are hollow. No serious climate researcher has ever asserted that the correlation between CO2 content in the atmosphere and temperature was due to temperature-independent disturbances in CO2 content in the atmosphere. In fact, climate researchers have arrived at their conclusions essentially through theoretical models and refined statistical methods that stand above the allegation that they are based on a mere interpretation of the correlation observed. As was explained above, the central element in the theoretical explanation is the absorption of infrared back-radiation by the greenhouse gases.

This absorption is a physical effect firmly established in theory and confirmed by many experiments. Direct proof of this absorption has been provided in recent years by spectral measurements from satellites. After showing that the two data sets were comparable, Harries et al. Thus, the temperature increase over this period can indeed be largely attributed to the greenhouse effect. It is true that the correlations shown in figure 1.

But the reason is simply that variations in solar radiation are bigger and more frequent than exogenous variations in greenhouse-gas concentration in the atmosphere, for which, except for the human influence, little other than volcanic eruptions would come into consideration. Usually a car comes to rest because the driver has stepped on the brake pedal.

More seldom, one comes to rest because it has run into an obstacle. The fact that these fluctuations have attained the magnitudes depicted in figure 1. When the oceans were being warmed by increased radiation from the sun and were releasing more CO2 , the additional CO2 then warmed the planet even more.

This is reason enough to be afraid of the exogenous variations brought about by industrialization. Unfortunately, as was mentioned above, we are currently living through a warm period. If we were in the midst of an ice age, the additional global warming resulting from industrial greenhouse gases would be quite welcome. It would counteract the geological cycle and exert a stabilizing effect. The reality is, however, exactly the opposite. During pre-industrial times the global temperature was already above its longterm average.

Now man-made effects are exacerbating the increase, bringing it to levels resembling the peaks of the past million years. We are burning carbon stocks that were essentially formed during the Carboniferous period, from million to million years ago, from vast forests.

The burial of large forest areas as a result of tectonic movements led to the formation of bogs in which new plants grew, died, and gradually sank ever deeper. The resulting coal, oil, and natural gas were removed from the biological cycle until man began pumping them back into that cycle once again. The stocks of fossil fuels played no part in the fluctuations of CO2 content in the atmosphere shown in figure 1.

They lay so deep that no oxygen could reach them; thus, they were not able to burn or otherwise oxidize and thus release carbon dioxide. These fluctuations were essentially results of the displacement of a given amount of carbon between the oceans, biomass, and the atmosphere brought about by the fizzing water effect and by biological processes.

Volcanic emissions account for only onetenth of a gigaton of carbon per year, equivalent to only 1. Over the next years—a vanishingly short portion of the time span represented in figure 1.

This will lead to a break in the trend of the temperature curve and will cause a lasting increase in the average measured over ice ages and interglacial periods, regardless of variations caused by disturbances in solar radiation that bring about fluctuations between warm and cold periods.

That, however, should not be expected in, say, the next , years. Humans will have disappeared from this planet before the new carbon is removed from the cycle and again stored in the crust. On to the North Pole The first consequences of global warming are visible in many places. Photographs taken during the first half of the twentieth century show clearly that the glaciers in the Alps are retreating. The area of the Watzmann glacier, for instance, shrank by 64 percent from to , that of the Northern Schneeferner glacier by 70 percent from to , and that of the Southern Schneeferner glacier by 90 percent from to In the years — , the area of the ice sheet over the North Pole shrank by 1.

The shrinkage was so extreme that during the summer of the Northwest Passage between Alaska and Labrador was ice-free for the first time, prompting Russia to quickly proclaim its sovereignty over the Arctic. Our planet warms more rapidly over the North Pole than over the South Pole because it has more land surface and less ocean in its northern portion, even though the South Pole lies over a continent and the North Pole over an ocean.

If an iceberg melts, the melted water exactly fills the space below the surface that the iceberg displaced before. One cause of the rise in sea level is the melting of glaciers in the Northern Hemisphere. Greenland was settled during a warmer period, around the year 1,, by a Viking known as Eric the Red, but then it turned too cold for further settlement.

Today, once again, it is literally flourishing. Even orchids are blooming there now. The forecasts are that an increase of the global average temperature of about 2 to 3 Celsius degrees relative to pre-industrial times will cause the Greenland ice cap to begin to shrink.

Another cause of sea-level rise is that water expands as it gets warmer. The two effects combined have caused only a centimeter rise in sea levels until now,45 but more is to come. How warm will it get? How much will the temperature on the surface of our planet rise, and what consequences will that have for life?

We should not expect the worst. Life on our planet will not be wiped out by the greenhouse effect. The relevant models can allay our fears. Nevertheless, tipping events could lead to an acceleration of global warming even if the temperature initially rises only a little. A similar effect is operating in the Arctic.

Moreover, an increase in temperatures can destroy the complex equilibrium of tree physiology, fire, and rainfall 26 Chapter 1 in the boreal forests coniferous forests in the Russian taiga and northern Canada , in the Amazon rainforest, or in the West African monsoon regions, killing the trees and setting free the carbon that had been captured in them.

Melting of permafrost regions results in the release of huge amounts of methane and CO2, which further accelerates global warming. What could happen is bad enough, as was pointed out by a commission appointed by the British Government and led by Nicholas Stern, a former chief economist at the World Bank.

The Stern Commission examined alternative scenarios for the further evolution of the global climate. In the worst-case scenario, this concentration could come to pass as early as around the year The temperature on the surface would rise from its pre-industrial average of This would be a substantial acceleration of the pace prevailing in the past years. As a comparison with figure 1. If humanity does nothing, the atmospheric CO2 content will continue rising unabated.

Even the best economist with the most sophisticated models can only calculate scenarios on the basis of a set of assumptions that themselves are not predictions but merely plausibility considerations.

The Stern Commission investigated a range of very different trend extrapolations published in the literature, in particular those of the IPCC. In what they considered the most plausible scenario for the business-as-usual Why the Earth Is Getting Warmer 27 case, the CO2 concentration would rise to ppm by , which equates to a temperature of Yearly global carbon dioxide emissions would increase fourfold from their levels to All of them assume that globalization progresses rapidly, leading to fast economic growth and a rapid regional convergence of living conditions.

It also assumes that energy will continue to be obtained from the intensive burning of fossil fuels. It is to be hoped that neither scenario will prove true, and that humanity will manage to curb CO2 emissions in time.

These scenarios, however, are realistic trend extrapolations of the case where we do nothing and continue business as usual. Because we can forecast self-energizing effects in climate only up to a point, things could be significantly worse. The range of dispersion in figure 1. Lately, reports suggesting that the more pessimistic scenarios are becoming more likely seem to be proliferating.

Dashed lines depict how the projections vary according to changes in assumptions. Johnson, Climate Change Cambridge University Press, , p. Nicholas Stern himself has, in the meantime, made even more alarming statements.

He calls for carbon dioxide emissions to be halved by relative to the levels. What took 18, years would now come to pass in only On top of that, the rise in temperature would not be spread equally across the Earth. That would change how humans live and how they interact. Not everyone shares these concerns. What is the big deal about a couple more degrees by and four or five more by ?

Those who find it a bit chilly sitting on their terrace on a summer evening would not mind a couple of degrees more. And, after all, do we not vacation in the sunnier, warmer spots?

And then, think of Siberia. The largest contiguous land mass stretches from Norway to northern China, but a significant portion of it is too cold for agriculture.

The permafrost regions of the former Soviet Union cover an area of 11 million square kilometers, one-tenth more than the land area of the United States. True, Sicily might wither away, but how big is Sicily in comparison with Siberia? Such views, however, betray superficial knowledge. Technical literature has substantiated the following effects: The subtropical regions, home to many people today, would be assailed by droughts.

Droughts affect the entire Mediterranean region even now, but they would extend to Western Africa, Mexico, California, and Australia and make life difficult there. That would cause problems not only in Bangladesh but also in many other coastal areas. The Netherlands would be the most affected country in Europe.

Hurricanes and typhoons would increase in number and in force. This would not happen without armed hostilities, ethnic conflicts, civil wars, and great social penury. The world would have to find a new settlement structure. That would have dramatic consequences for Western Europe, which, contrary to the general trend, would develop into a cold zone. Europe north of the Alps would be barely inhabitable, with climatic conditions similar to those prevailing in northern Canada. This concern is, however, not shared by most of the literature.

At most, a weakening of the Gulf Stream is expected, which would not necessarily be bad for Western Europe because it might counteract the global warming. Even if the Gulf Stream were to cease to flow altogether, the warming trend in Europe would merely grow somewhat weaker. But if temperatures were to continue to increase far beyond that, so that one day even the Antarctic ice would melt away, sea levels could rise by 61 meters, if only after hundreds of years.

Hardly anyone dares to deal with such projections. The Stern Commission tried to calculate the consequences of global warming in monetary terms. For the BAU scenario, according to which temperature rises to about 4.

Even though the numerical calculations behind such numbers rest on many assumptions and are therefore not free from arbitrariness, they do provide a learned argument for why, from an economic point of view, there is a case for acting now to slow climate change.

An arguably stronger qualitative case leading to the same conclusion will be presented in chapter 4. Let us try to pack the air in sacks. This chapter gives an overview of the amount and kind of energy countries produce and discusses the options for carbon-free energy alternatives as well as the actual policy measures chosen for the purpose of moving toward more carbon-friendly energy sources. It does not yet focus on bioenergy and resource-conservation issues; those are treated in later chapters.

Though the climate debate is old, a worldwide breakthrough in public awareness of the global warming problem was made by former US vicepresident Al Gore, who reached a huge audience with his film An Inconvenient Truth and who was with the IPCC a recipient of the Nobel Peace Prize.

And the Stern Review, published in , exerted a major impact on both science and politics. At the G8 Summit in at Heiligendamm, Germany, wide-ranging proposals to battle the greenhouse effect were put forth, and those proposals were adopted in principle a year later at the G8 Summit in Toyako, Japan.

Essentially, the G8 countries subscribed to the goal of halving their CO2 emissions by Public awareness of the climate problem was preceded by more than 30 years of intensive scientific discussion, in which climate researchers raised many warnings.

Scientific discussion of the greenhouse effect had already started in the nineteenth century with the works of Fourier, Tyndall, and Arrhenius. The Geneva conference is considered to have initiated the current wave of climate research, leading eventually to insights and findings such as those addressed in chapter 1 of this book. Since , experts from various UN sub-agencies had devoted their efforts to the relationship between climate anomalies and the influence of human activities on climate evolution.

They pointed out that CO2 concentration in the atmosphere deserved the greatest attention of the international community because it could provoke grave changes in global climate. Political voices first addressed the issue during the Toronto conference of , calling for a 20 percent reduction in global CO2 emissions by , as well as for the formulation of an international convention on the matter.

Around natural science scholars, economists, sociologists, and environmentalists from 48 countries took part in the conference. At that conference it was agreed to start negotiations for an internationally binding agreement on climate change. Under this convention, the by then signatories committed to reducing their carbon dioxide emissions in order to slow down climate change. The first and thus far the only commitment to concrete actions was achieved during the Kyoto conference.

That was a step forward, but it was no real solution. Five years earlier, the Environmental Treaty of Rio de Janeiro had only brought commitments to cut back on CO2 output, leaving open by how much each country would reduce its own emissions. For that reason, during the next World Climate Summit, held in Berlin in , it was agreed to start negotiations aimed at devising a binding protocol that would set reduction goals and deadlines for the industrial nations.

The Kyoto Protocol, ratified by countries, established the goal of reducing greenhouse-gas emissions over the period — by 5. The Kyoto Protocol was a milestone in international coordination for battling climate change. However, it was far from truly successful, since most of the signatory countries faced no consequences at all. Caps were set for only 51 countries, which together accounted for 28 percent of anthropogenic CO2 emissions in China and India have signed and ratified the Kyoto Protocol but are exempted from a cap in order not to imperil their economic development.

But Australia changed its position and accepted effective emission constraints in , when Kevin Rudd of the Labor Party became prime minister. Australia signed and ratified the protocol in December of that year. By , about 27 percent of global CO2 emissions had come under the Kyoto restrictions, a bit less than five years earlier because of the rapid increase in emissions by the unrestricted countries.

For a while there was some hope that the United States, which accounts for about 19 percent of the global CO2 emissions, would revise its position once again and ratify the protocol. President 36 Chapter 2 Barack Obama had suggested that the US might change its position, but unfortunately the economic crisis of and absorbed the funds and attention necessary to pursue this goal further in the short and the medium term.

The Kyoto Protocol established specific percentage reductions for the average emissions of individual countries for the years — relative to Japan, for instance, must reduce its emissions by 6 percent, while the EU committed to a collective 8 percent reduction target, targets for the individual countries being set through a burden-sharing plan.

The current EU, with 27 member countries, has no common reduction target within the framework of the Kyoto Protocol. Poland and Hungary have committed to 6 percent. Industrialized countries would have to curtail their emissions by 80 percent, and other countries by 50 percent.

The figure pertains to the 20 countries that account for the largest CO2 emissions. The upper panel shows which countries are the largest polluters. The larger an economy, the higher its CO2 emissions. Japan and Germany, whose GDPs rank third and fourth, rank fifth and sixth in emissions.

Russia and India, also rather high emitters, come third and fourth in the CO2 ranking, although in terms of GDP they rank eleventh and twelfth.

As the lower panel shows, Russia, Germany, and Ukraine have achieved high percentage reductions. The upper panel shows emissions in France, Ukraine, and Russia adopted no reduction commitments, but neither were they allowed to increase their emissions.

While the EU as a whole committed to an 8 percent reduction per country, differing commitments were agreed among the member countries in accordance to a burden-sharing plan. The lower panel shows the commitments resulting from this burden-sharing plan. Worthy of note is the looming climate problem represented by the emerging economies of China, India, Brazil, Indonesia, Iran, and South Korea.

The formidable economic development of these countries is made possible by a rapidly increasing consumption of fossil fuels, which brings a corresponding increase in carbon dioxide emissions.

Of all the countries represented in figure 2. And with an effective reduction of Great Britain was also exemplary, committing to far-reaching reductions and partly achieving them by In contrast, the United States, Japan, Canada, Iran, Australia, and Spain have disappointing records, as do most of the original EU countries, some of which have increased their emissions markedly.

The climate sinners As it is a bit unfair to compare countries by their absolute emissions, the left-hand side of figure 2. It is more interesting to look at CO2 emissions relative to GDP, as shown on the right-hand side of figure 2. This makes it possible to say something about how climate damaging or climate friendly the respective production processes are. Switzerland and Sweden stand out as shining examples. Among the bigger countries, France and the United Kingdom perform well.

Hydro power and nuclear energy account for their top positions in the ranking. The United States is in eighteenth place. The dirtiest producers are Russia and Ukraine, which have not yet managed to get rid of their communist-era industrial facilities. China, on account of its size and 40 Chapter 2 its blistering rate of economic development, poses a particularly difficult problem for the world.

Though China recently made some efforts to develop showcase electric vehicle projects to convince the world of its willingness to curb its CO2 emissions, the amount of CO2 it spews out goes well beyond what would correspond to the size of its economy, and things will get worse before they improve. Currently China opens about seventy megawatt coal-fired power stations per year.

However, this was nearly exclusively traditional hydro power. According to a study by the IEA, China even subsidizes fossil-fuel consumption. The prices for oil, coal, electricity, and natural gas it charges their final consumers are below world market prices. Industrialized countries do the opposite: Thanks to their relatively low level of industrialization, China and India still exhibit comparatively low per-capita carbon dioxide emissions in absolute terms, but that could change very quickly.

Though China accounted for only 6. Many believe the future economy will be carbon-free, with all energy coming from sunlight, wind, and water; others place their hope in nuclear power. Apart from the direct absorption of sunlight by the environment, 35 percent of the primary energy sources fossil fuels, renewable energy, and nuclear power processed by mankind is used for the direct production of heat by burning , and 59 percent to power all kinds of engines, including power plants and combustion engines.

Six percent of primary energy is used not for energy production but as an input in the production of chemicals. Of the 59 percent used for engines, about 38 percentage points go into the production of electricity, 20 percentage points are used for airborne, water, and overland transportation; the remaining percentage point is used to power other machines that operate with primary energy—for example, gas turbines in pumping stations or stationary diesel engines.

It applies to the OECD countries and refers to , the most recent year for which data are available at this writing. The figure shows that crude oil is by far the largest source of final energy consumed in the world, contributing While coal is primarily used for the production of electricity, crude oil is primarily used for fuel production, and natural gas primarily for heating. Together, these three fossil energy sources account for Nuclear energy accounts for 5 percent of the total final-energy use.

By far the largest source of renewable energy is bioenergy, of which wood is still the main item. Bioenergy contributes nearly as much as nuclear energy does 4. A word of caution is appropriate, however, when interpreting the above figures, as final energy is not the same as primary energy.