Klimatbloggen

november 30, 2006

Golfströmmens variationer över ett millennium

Filed under: Klimatperioder,Oceancirkulation,Rekonstruktioner — by Daniel @ 19:40

Det har vart mycket diskussioner om Golfströmmens variationer under det senaste året (se kategori). I en rykande färsk artikel, publicerad i dagens (30/11) nummer av Nature läggs ett förslag fram på hur Golfströmmen varierat i styrka under de senaste tusen åren uttolkat ur havssediment. Idag håller sig volymtransporten i Golfströmmen uppskattningsvis runt 31 Sverdrup (1 Sverdrup = 1 miljoner kubikmeter per sekund). Så har det inte alltid vart, och kommer säkerligen inte heller att vara (det är inte mycket som är konstant). Vår förståelse för hur Golfströmmen fungerar rent dynamiskt, och hur den reagerar på exempelvis mer färskvatten eller högre salthalt, är fortfarande relativt låg. Mätningar för längre tidsperioder saknas och kontinuerliga mätningar av delar av hela termohalina cirkulationen (i vilken Golfströmmen är en delström) har precis påbörjats. Som så mycket annat måste man ta till proxy-data för att förstå hur variationerna varit.

För den aktuella Natureartikeln har sedimentkärnor tagits upp utanför Florida; vid Dry Tortugas (7 kärnor från 5 olika djup i intervallet 200-750 m) och vid Great Bahama Bank (7 kärnor vid 4 olika djup i intervallet 260-700 m). Foramininiferer, vilket är små skalförsedda organismer på havsbotten, har sedan analyserats i borrkärnan. Skalet hos en foraminifer innehåller syreisotopen dO18, vars förekomst i skalet beror på omgivande temperatur vid skalbildning och dO18 i vattnet. Eftersom det hela tiden läggs nytt sediment ovanpå äldre sediment kan man räkna ut hur gammalt varje lager är med tillhörande dO18-värde. På så sätt kan artikelförfattarna få fram flödesvolymen för Golfströmmen under de senaste 1100 åren.

Från artikeln får vi veta att volymflödet i Golfströmmen varierade med uppskattningsvis 3±1 Sverdrup över det senaste millenniet, vilket skulle motsvara cirka 10% av det totala flödet. I geologiskt tidsperspektiv är det däremot inte lika våldsamt som under Last Glacial Maximum (ca 20 000 år sedan) då uppskattningar tyder på en reduktion av flödet på uppåt 10-15 Sverdrup. I vart fall inträffade det lägsta volymflödet för Golfströmmen, enligt dO18-beräkningar, för under perioden 700-100 år sedan. Detta sammanfaller grovt med den uppskattade tidsperioden för Lilla Istiden (ca år 1300-1850), vilket avspeglar sig i många proxy-data och längre instrumentella serier i Europa (och även nordöstra Nordamerika). Eftersom Golfströmmen antas vara relativt tätt kopplad till värmen på våra breddgrader skulle det kunna vara så att mindre värmetransport i form av lägre volymtransport påverkat klimatet under Lilla Istiden i framförallt Europa. På motsvarande sätt fann artikelförfattarna högre volymtransport 100-0 samt 1100-1000 år sedan, det sistnämnda vilket borde falla inom vad man tror var en medeltida värmeperiod (hur denna såg ut är dock inte fullt utrett). Flödesfördelningen ser dock lite annorlunda ut idag jämfört med för 1000 år sedan.

Vilka implikationer får detta för klimatet? Flödesförändringarna är inte bara kopplade ihop med kallare klimat på de högre breddgraderna. Under Lilla Istiden var det väldigt torrt i Central- och Sydamerika samtidigt som höga ytsalthalter kunde återfinnas i Floridaströmmen (rundar floridas spets och beger sig norrut längs USAs östkust och övergår till att bli Golfströmmen). Artikelförfattarna genomförde en jämförelse mellan dO18-halterna i Floridaströmmen med de data för torka som finns för Cariaco Basin, utanför Venezuela. Tydligen finns det en länk dem emellan. Författarna tror att en minskad värmetransport i Golfströmmen under Lilla Istiden förändrade ytvattentemperaturen i Atlanten och därmed fick den atlantiska Intertropical Convergence Zone (ITCZ; ett lågtrycksbälte runt ekvatorn) att förflyttas söderut och därmed skapa torka i Central- och Sydamerika. Förhållandevis små förändringar (<1 grader Celcius) i ytvattentemperaturgradienten över ekvatorn på års- och dekadskala kan få ITCZ att förflyttas över 1000 kilometer. Av denna anledning var det kanske en utjämnad salthaltsgradient (genom ökad salthalt kring Karibien) som fick golfströmmen att sakta ner under Lilla Istiden. En annan förklaring kan vara att solinstrålningen minskade varvid vinden avtog, vilket minskade transporten, då ITCZ förflyttades söderut.

Artikelförfattarna skriver dock att även om Golfströmmen spelade en nyckelroll i Lilla Istidens klimat på våra breddgrader går det inte att, från deras resultat, avgöra om det berodde på en feedback på en intern variation i klimatsystemet eller om det var en förstärkt reaktion på en extern drivning (vilket jag tolkar som ifall det var golfströmmen som orsakade klimatförändringen eller om det var klimatförändringen som påverkade volymtransporten).

november 27, 2006

Felvaliderad ENSO?

Filed under: Havet,Klimatdata — by Daniel @ 19:59

Med anledningen av förgående inlägg, om att El Niño etablerats i Stilla Havet, kan man fundera på en kort artikel, som dök upp i Geophysical Research Letters under förgående vecka. Artikel, skriven av Andrew Solow, genomför en analys av tillgänglig ENSO-data (ENSO = El Niño Southern Oscillation) för att se om fenomenet beter sig utanför det naturliga mönstret. Det har föreslagits att El Niño kan komma att uppstå oftare (eller åtminstone starkare) jämfört med normalt när jorden värms upp. Specifikt hänvisar Solow till en välciterad artikel publicerad 1996 av Kevin Trenberth och Timothy Hoar i Geophysical Research Letters. Enligt denna skulle det mönster som observerades under första hälften av 1990-talet vara såpass ovanligt att sannolikheten för inträffandet var 1 på 2000 år, varför man funderade på om det fanns länkar med växthusgaser och om ett regimskifte hade ägt rum.

Solow anser att den metod Trenberth och Hoar använt kan ge en lite missvisande bild då de använt samma data i såväl beräkningar som i valideringssyfte. Detta ger upphov till en viss rundgång eftersom samma data används för att validera sig självt. Tyvärr är det inte helt omöjligt att sådana situationer uppstår, speciellt i fall där data är mycket begränsat. Exempelvis använder många temperaturrekonstruktioner en mängd olika mätserier. Om man efter rekonstruktionen använder någon av dessa mätserier för att validera temperaturen jämför man lite döljt egentligen samma serie med sig självt. Så det får man passa sig noga för.

Solow räknade om resultaten med fristående data och fann att Trenberths och Hoars slutsatser kanske inte var såpass robusta som man först kunde tro. ENSO-beteendet under tidiga 1990-talet var, enligt Solow, ovanligt men att ett regimskifte ägt rum var endast svagt uppbackat i data. Om det stämer eller inte ger det ändå intresse att få upp frågan på bordet igen för vidare utredning.

november 24, 2006

Notis: El Niño etablerad

Filed under: Atmosfären,Havet,Notiser,Temperaturer — by Daniel @ 8:02

Just nu har en El Niño etablerats utanför sydamerikas kust. Den kommer att existera åtminstone de kommande 10 månaderna och medför temperaturavvikelser på uppåt 1 grad i vattnet i vissa tropiska områden av Stilla Havet. Styrkan på fenomenet anses vara moderat och därmed inte såpass stark som super-El Niñon från 1998. Den exakta klimatpåverkan en El Niño  medför är förhöjt i visst dunkel även om man tydligt kan se kopplingar till nederbörd och temperaturer på vissa platser på jorden (framförallt gäller det Syd- och Nordamerika). Generellt är uppfattningen att El Niño medför globalt varmare temperaturer.  För Europas del verkar det inte finns några tydliga kopplingar med temperatur eller nederbörd.

november 23, 2006

Lake Chad? Megachad!

Filed under: Regionalt,Vattenstånd — by Daniel @ 20:09

Tchadsjön på gränsen mellan Niger, Nigeria, Tchad och Kamerun är en liten sjö i Sahel (Saharas södra gränstrakt) med ett maxdjup på cirka 7 meter (varierar ganska mycket från år till år och mellan säsonger) och på gränsen att torka ut (enligt vissa källor har sjön torkat ut ett flertal gånger under de senaste 1000 åren och var nästan helt uttorkad 1908 och 1984).  Under mitten av 1960-talet och 1970-talet skedde den mest dramatiska minskningen av sjön i modern tid och sedan mitten av 1980-talet har nivån legat relativt stabilt. Orsaken är att sjön är starkt beroende av nederbörd och det mönstret verkar ha förändrats under de senaste dekaderna, förmodligen på grund av förändrat vindmönster. Vidare har befolkningen omkring sjön ökat sitt uttag av vatten för att bevattna sina grödor. Båda faktorerna har därmed försämrat utsikterna för sjöns tillvaro. Så har det inte alltid vart. Denna sjö på knappt 1500 kvadratkilometer var en gång i tiden en av världens största sjöar. För 7000 år sedan täckte sjön en area på minst 400 000 kvadratkilometer och hade ett djup på över 170 meter. Med hjälp av nya metoder (bildanalys av satellitbilder) har några brittiska forskare enligt en artikel i tidsskriften The Holocene funnit att denna supersjö – Megachad – fört en stegvis minskade tillvaro. Tidigare har man trott att sjön minskat kontinuerligt från sin största storlek ner till dagens och att maximala ytan var något mindre än 400 000 kvadratkilometer. Den nya artikeln föreslår istället att minskningen skedde stegvist, eller åtminstone tillräckligt långsamt för att flertalet strandlinjer skulle hinna bildas. Störst yta hade sjön någongång mellan 7500 och 6940 år sedan med en area av lite mer än 400 000 kvadratkilometer (större än någon sjö i världen idag). Ännu längre tillbaka i tiden finns det stöd till bevis för en ännu större sjö, men på grund av erosion kan man inte fastslå detta med säkerhet. Skulle det vara så kan den sjön ha vart uppåt 840 000 kvadratkilometer stor och därmed uppta 8% av Saharas area.

Författarna har också hittat stöd till teorierna att Megachad inte var ensam sjö i Sahara. Hela fyra stora sjöar skall en gång i tiden ha funnits i området. Dessa sjöar tillsammans kan ha påverkat klimatet tillräckligt för att upprätthålla varandra (förutsatt stationära vindmönster) och introducera mer vegetation i Sahara. Att Sahara var grönare en gång i tiden under holocen är allmänt vedertaget (även om man inte vet riktigt HUR grönt) och visst stöd finns bland annat i Algeriet där klippmålningar visar savannlevande djur (antingen var Sahara mer som en savann i vissa regioner eller så hade klippmålarna kunskap om djurlivet utanför Sahara). Megachad och de andra stora sjöarna skulle kunnat, enligt författarna, ha fungerat som en korridor mer mer grönska så att både djur och människor kunde ta sig tvärs över Sahara.

Med hjälp av vågformationer på gamla strandkanter kunde författarna identifiera två vindsystem som dominerade (och dominerar) området. Den första var nordöstlig (torrare luft) och en sydvästlig (fuktigare luft). När vinden var sydvästlig ökade nederbörden och sjön kunde upprätthålla sin storlek. Om vinden slog över och blev nordöstlig försvann nederbörden och sjön började krympa. I vår region har vi lite av en ”liknande” situation med två dominerande system; ett med västliga vindar från Atlanten som ger oss fuktig och mild luft (ungefär som denna hösten har vart) och ett med nordöstliga vindar med torr luft och kallare temperaturer. För lite mindre än 4000 år sedan hade Megachad sjunkt undan såpass mycket att den delades upp i tre nya sjöar, där ”moderna” Tchadsjön uppstod med en ytarea på cirka 22 000 kvadratkilometer (dagens Tchadsjö upptar inte ens en tiondel av den arean) och fortsatte sedan att sjunka undan till dagens nivåer med stark mänsklig påverkan. Under 1990-talet verkar satellitmätningar ha uppfattat en liten förbättring i Tchadsjön, men med tanke på hur stora de dekadala variationerna kan jag inte tänka mig att man kan dra några slutsatser alls (speciellt inte om man tittar på den årsliga variationerna mellan slutet av 1990-talet och början av 2000-talet). Dessvärre har jag inte hittat nyare data (det vill säga data efter 2001) om hur Tchadsjön utvecklats.

november 21, 2006

Att dammsuga nätet ger kunskap

Filed under: Politik/Media,Samhälle — by Daniel @ 19:09

I några tidigare inlägg (här, här och här) har jag diskuterat vetenskapsdebatten i Sverige och hur media framställer en fråga inte alltid efter vad vetenskapliga rön faktiskt visar (främst tänker jag nu på ”larmet” om golfströmmen vilket till och med var tvunget att ”korrigeras” i Science den 17:e november – så illa kan det gå). Det finns mycket kvar att diskutera kring detta och jag kommer säkert ha fler anledningar att återgå till ämnet i framtiden. Så även idag i detta lilla inlägg.

NyTeknik rapporterar om en undersökning bland amerikanska medborgare och deras förhållande till vetenskap och tillgängligheten av det. Vetenskapsnyheter på internet har blivit en viktig källa för amerikaner, även om TV fortfarande är den största rivalen. En av fem amerikaner letar upp sina vetenskapsnyheter online medan två av fem får dem via TV. Går man steget längre och analyserar fördelningen efter uppkopplingshastighet finner man att dem med bredband, med en procentenhets marginal, hellre letar vetenskapsnyheter online än får dem via TV. Dessutom är dem som letar vetenskap på nätet ganska drillade med att hitta fler än en källa för vad de är intresserade av att veta, hela 80% gjorde det. Detta är den starka sidan av internet, ty vetenskap är inte (för det mesta) ett ämne där endast en tolkning kan erbjudas (TV erbjuder inte alltid den möjligheten).

Som framkommit av tidigare diskussioner har de svenska forskarna i stor utsträckning misslyckats med att informera allmänheten vad universiteten egentligen pysslar med. Visst finns det undantag och vissa ämnen är lättare att populärisera än andra, men suget från allmänheten i Sverige är stort medan förhållandevis få vågar ta kontakt direkt med en forskare. Klimatfrågor är något som många är intresserade av och jag märker av stadigt ökande antal träffar hos min lilla blogg (passerade för ett tag sedan 25 000 besökare under de dryga 6 månader jag skrivit [vilket är väldigt hedrande men också lite skrämmande] med majoriteten besökare från mitten av augusti) och det har nog sina förklaringar. Delar av ämnet är också ett av de få som faktiskt diskuteras relativt vetenskapligt i media, även om ovanstående exempel inte är helt otypiska. Jag tror att vi i Sverige har större andel internetanvändare än vad USA har, och att svenskarna generellt har tillgång till snabbt internet jämfört med i USA (men jag är som sagt inte säker på den punkten) så det hade vart intressant att se en liknande undersökning i Sverige. Jag tror nämligen att även om vetenskapsdebatten i Sverige inte är bra är allmänheten ändå intresserad av att veta vad som försiggår. Förhoppningsvis tar universiteten detta på stort allvar och försöker föra forskningen lite närmre folket. Ett exempel på bra framsteg är hur Göteborgs Universitet via sin hemsida enkelt och på ett begripligt sätt ger besökare tillfälle att ta åt sig av forskningen (främst från nya avhandlingar) med hjälp av lite mer populärvetenskapliga artiklar, som sätter rönen i ett sammanhang. Och det är till stor hjälp, inte bara för en intresserad allmänhet, utan även för våra blivande studenter. För dem är informationsökning via internet en allt viktigare kanal. Detta kan i sig stimulera till vidare större vetenskapsdebatt i samhället.

Uppdatering 22/11: Vetenskapsnytt skriver bra och lite mer fördjupat om undersökningen som nämns ovan.

november 15, 2006

Sovjetisk snödata ger upphov till paradox

Filed under: Arktis/Antarktis,Klimatdata,Regionalt — by Daniel @ 22:20

En av de förmodade bästa indikatorerna på att en ny klimatregim fattat greppet är hur snö och is reagerar. En varmare klimatregim bör göra det svårare för is och snö att finnas en längre tid, medan en kallare klimatregim ger motsatt respons. Tidigare har jag uppmärksammat hur känslig isutbredningen i Östersjön är mot förändringar i lufttemperatur; en vintermedeltemperatur (vinter är definierat som december, januari och februari) i över Östersjön understigande -6 grader skulle generera ett helt istäckt innanhav medan +2 grader skulle se till att ingen is bildades (storskaligt) – ett spann på 8 grader där vi i dagsläget ligger på cirka -2 grader (långtidsmedeltemperatur under de senaste 50 åren). Men hur reagerar snö på temperaturförändringar?

Nya dataset kommer fram hela tiden, vilket ger mer kunskap om klimatets variabilitet och dess mekanismer. Ett av de senaste dataseten (nyligen publicerad i Journal of Climate) om snö och markförhållanden (frusen/ofrusen etc) kommer från cirka 2100 stationer inom gränserna av forna Sovjetunionen och täcker en tidsperiod av 69 år (1936-2004). Stationerna är fördelade över hela landmassan med tyngdpunkten i västra och södra forna Sovjet, men det finns också flertalet stationer i Sibirien och Kamtjatkahalvön. Även den tidsmässiga fördelningen av stationer är variabel, med tyngdpunkten av mätstationer aktiva mellan 1956 och 1991.

Några av slutsatserna i artikeln är som följer:

  • Under perioden 1956-2004 har antalet dagar med ofryst mark ökat med mellan 4 till 9 dagar, eller i snitt 6 dagar för hela forna Sovjetunionen (5 dagar om endast Ryssland räknas). Trenden är statistiskt signifikant men beror på en minskning av frost, is och snörester snarare än en minskning av snötäcket i sig. Under 1990-talet upphörde trenden att gälla.
  • Perioden 1936-2004 gav en ökning av antalet dagar med snötäcke i Ryssland och norr om ryska polcirkeln (5 respektive 12 dagar).  Detta trots en ökning av temperaturen med 1,2 grader mellan 1956-2004 (och statistisk signifikant). Temperaturökningen mellan 1936-2004 är däremot 0,1 grader och inte statistisk signifikant.

Paradoxen uppkommer av att temperaturen gått upp samtidigt som trenden påvisar fler dagar med snötäcke i ryska Arktis, något som vi normalt inte förutsätter. En förklaring skulle kunnat vara att en ökad temperatur ger upphov till högre luftfuktighet, som i sin tur ger mer nederbörd i form av snö. Detta stödjs dock inte av meteorologiska mätningar i området enligt artikelförfattarna. Istället presenteras en alternativ hypotes. Under det varma 1930- och 1940-talen var värmen koncentrerad till den atlantiska delen av Ryssland snarare än i djupa Sibirien. Högtryck över norra Europa gav vintertid (och under våren) mindre nederbörd och torrare luft över hela ryska Arktis. Under andra hälften av 1900-talet var däremot uppvärmningen koncentrerad till den arktiska snarare än den atlantiska regionen, vilket enligt författarna ”might outweigh dynamic factors and cause the increase in the number of days with unfrozen soil on the expense of the cold land conditions” (det vill säga snötäcke och fryst mark med snörester enligt standardklassificering). Författarna vidhåller dock att de inte gjort några djupare studier av den storskaliga atmosfärscirkulationen i detta sammanhang.

Det är intressant med dessa nya dataset som kommer upp till ytan lite då och då. Oftast har man känt till dem en längre tid, men ingen har haft tid att digitalisera dem eller på andra sätt sammanställa data. Men mer projekt börjar nu se över all tillgänglig data då alla pusselbitar behövs för att få en fullständig bild. Inte minst gäller det övergången mellan manuella mätningar till automatiska mätningar för vidare övergång till satellitmätningar. Allt måste kalibreras mot varandra för att försäkra att datakvalitén hålls uppe. Det skall nämnas att författarna till den aktuella artikeln har kvalitetskontrollerat det nya datasetet mot satelliter och funnit att överensstämmelsen är god (efter kalibration). Nu återstår att se vad för mer information som går att plocka fram ur datasetet.

november 13, 2006

Gåtorna kring orkaner

Filed under: Atmosfären,Klimatdata — by Daniel @ 21:34

Det är en livlig debatt om orkaner i världen. Främst förs den inte helt konstigt nog i USA, som ganska ofta blir föremål för landhuggande orkaner. Inte minst är minnet fortfarande färskt från de intensiva säsongerna 2004 och 2005. I år har det vart lugnt däremot, enligt säsongarkivet hos NOAA behöver man gå tillbaka till 1997 för att träffa på en såpass ”lugn” säsong som iår (syftandes på Atlanten). I förra veckan kom hos Geophysical Research Letters en artikel, som undersöker relationen mellan startdatum för orkansäsongen och hur intensiv den blir. Ju tidigare start, destu intensivare säsong generellt. Samtidigt rasar debatten vidare om det är den förstärkta växthuseffekten eller Atlantic Multidecadal Oscillation (eller andra mekanismer) som är största boven i dramat – eller en kombination. Situationen känns igen då det är en klassisk slagfråga att få rätt detection och attribution av klimatförändringar, vad än som orsakar dem.

I fredagens Science fanns det en liten nyhetsreview av Richard Kerr om ett seminarie som hölls i Washington (Capitol Hill) i oktober av American Meteorological Society. Tänkte sammanfatta artikeln eftersom den är intressant läsning. Båda sidorna i orkandebatten (om man nu skall förenkla den så grovt) kan anse sig vara gynnade med nya rön samtidigt som ytterligare ett pussel att lösa flyter upp till ytan. Den första punkten som vart omdebatterad är huruvida dataserierna av observerade orkaner är tillförlitliga eller ej. Fram till 1940-talet kommer upplysningar om orkaner och tropiska stormar från landbaserade källor eller fartygstrafik. På så sätt kan man ha missat en hel del stormar, som inte tog sig in över land (vilket inte alla stormar gör) eller korsade farleder. Efter 1940-talet kom flyget in som en rapportör, tillsammans med land- och fartygsobservationer. Trots det kan man fortfarande ha missat några stormar, även om tekniken blev bättre och bättre över tid. När så satelliter kom in i bilden började de att användas för att övervaka tropiska stormar och orkaner. Vid det här laget bör man inte ha missat några stormar då man kan anta att instrumenten var välkalibrerade och täckte hela jordytan. Hur byte av observationsmetod påverkar dataserien är alltså en stor fråga. Enligt Kerr kunde James Kossin på seminariet åtminstone garantera att data från år 1983 och framåt med hjälp av en ny kalibreringsmetod för atlantens del skall vara homogent och inte innehålla kontigheter beroende på observationsmetod. Data från övriga världen däremot kan uppvisa en icke-existerande ökning. Detta för oss direkt över på nästa punkt; längd av dataserie.

Det är alltid ett problem med korta dataserier speciellt för de klimatologiska parametrarna. Man måste ha bredden av den interna variabiliteten för att kunna göra en någorlunda korrekt attribution av klimatförändringar – för den interna dynamiken kan vara ganska komplicerad och arbeta på långa tidsskalor. Det är inte säkert det räcker med 23 års data för att med säkerhet kunna avgöra hur stor den antropogena klimatsignalen är jämfört med den interna. Ännu värre blir det om man har naturliga oscillationer med i spelet, vilka kan arbeta över tidsskalor uppåt sekel. Det är ett problem. Likväl verkar det för atlantens del enligt Kossin finnas tillförlitliga data från 1983 och framåt, vilket visar på en fördubbling av energi mellan 1983 och 2005. Goda tillgängliga data finns också för östra Stilla havet där man istället kunde se en 60%-ig minskning av energin under samma period. I övriga världen var data enligt Kossin inte pålitlig. Kalibrerar man om dessa mätningar, på samma sätt som gjorts för Atlanten och östra Stilla havet, fås en obetydlig minskning av energin, eller ingen förändring alls, beroende på region (norra och södra indiska oceanen samt västra och södra stilla havet). Och det skall tilläggas att 85% av alla tropiska stormar i världen sker i dessa regioner. Det är alltså bara i Atlanten som det finns tendenser på en ökning av intensitet hos de tropiska stormarna, detta trots att ytvattnet i alla regioner mer eller mindre värmts upp under de senaste 23 åren. En annan deltagare i seminariet, Philip Klotzbach, håller i stort sett med och säger att dessa resultaten indikerar att den tilltagande aktiviteten i tropiska stormar förmodligen är mindre än vad tidigare artiklar hävdat. Detta ger spontant upphov till frågor om den nya kalibreringsmetoden är rätt, om de gamla data är rätt, om det är mekanismer vi missat i vår förståelse och hur stor vattentemperaturen spelar roll för intensiteten snarare än uppkomsten av tropiska stormar.

Studerar man däremot antalet tropiska stormar med namn, och hur många av dem som övergår till kategorin ”major hurricane”, kan man se två tydliga steg under 1900-talet enligt Peter Webster och Greg Holland. Under 1920-talet ökade antalet namngivna stormar för att återigen öka under 1990-talet. Däremot går det inte att se några större trender i antalet stora orkaner (major) då de oscillerar upp och ner med några dekaders mellanrum. Philip Klotzbach anser däremot att det inte kan uteslutas att antalet namngivna orkaner kan vara en artefakt av bättre övervakning – bättre metoder, även med satelliter, ger bättre information av vilken typ av orkan det rör sig om och därmed ge inhomogeniteter i dataserien.

Sist, men inte minst, fanns såklart klimatmodellörerna på plats i form av Thomas Wigley och Thomas Delworth. Enligt beräkningar verkar det som den direkta effekten av ökade ytvattentemperaturer är ganska liten, istället är effekten större via indirekta effekter. Men exakt vilka dessa är verkar i nuläget fortfarande vara osäkert, men en idé kan vara att aerosoler spelar någon form av roll, vilket är vad Michael Mann och Kerry Emanuel föreslog i en artikel i EOS tidigare i år. Jag antar att vi får se mer och av detta ju mer det hela utvecklar sig. Mest spännande är om det går att homogenisera dataserierna längre bak i tiden än 1983 samt om AMO spelar någon större roll.

Mer om seminariet finns att hitta här.

november 10, 2006

Helgläsning om koraller

Filed under: Ekologi,Klimatdata,Lästips,Rekonstruktioner — by Daniel @ 8:05

Woods Hole Oceanographic Institution, en av de världsledande marina forskningscentra, har en bra hemsida med mycket information rörande det mesta inom marin forskning. Deras tidning Oceanus har ofta intressanta artiklar och har under senare publicerat artiklar rörande djuphavskoraller (alltså inte dem vi vanligtvis tänker på). Den första artikeln, The Coral-Climate Connection, behandlar koraller ur ett proxydataperspektiv vilket är ytterligare framsteg för exempelvis temperaturrekonstruktioner och förståelsen av variabilitet. Den andra artikeln, What Other Tales Can Coral Skeletons Tell?, är mer inriktad på korallers evolution – också det ett fascinerande ämne. Läsning av båda artiklarna rekommenderas.

november 8, 2006

Nyckeln till framtiden är att förstå historien

Filed under: Historia,Klimatdata,Rekonstruktioner — by Daniel @ 20:46

Jag är en stark anhängare till att använda historiska data i ett klimatologiskt perspektiv och driver mer än gärna tesen ”nyckeln till framtiden är att förstå historien”, vilket även är rubrik till detta inlägg. Instrumentella data är extremt begränsat i ett historiskt perspektiv och vi måste hitta andra metoder att få fram data för parametrar viktiga för klimatets utveckling (allt från temperatur, nederbörd, salthalt, flodtillförsel, isutbredning, vegetation, erosion, lufttryck etc). Mycket har hittills fokuserats på de naturliga datalagren som finns överallt, framförallt gäller det trädringar, speleothem, forams, islager, pollen, sediment och liknande metoder. Mycket, allt för mycket, finns också kvar att göra

Klimatet är dynamiskt och i konstant förändring. Att använda bara en metod för rekonstruktioner är därför en dålig idé eftersom olika metoder fångar upp olika frekvenser i klimatet (trädringar kan visa exempelvis temperatur och/eller nederbörd beroende på omgivande faktorer). Istället måste man använda sig av en kombination av metoder för att säkerställa en mer tillförlitlig datamängd. Dessa naturliga datakällor benämns för proxy-data och är väldigt användbara om vi skall gå riktigt långt bakåt i tiden. Men det finns andra sorters data med oftast högre upplösning, dock med nackdelen att de bara sträcker sig kanske maximalt 2000 år bakåt i tiden (undantag finns); historiska dokumenterade data.

Nature hade en spännande och mycket fascinerande news feature i en av sina oktobernummer. Med titeln The Real Sea Change berättades det om dokument och hur de används i forskning inom ekologi. Först och främst handlade det om anteckningar som pirater lämnat efter sig. En del av vad de skrev ner handlade självklart om sina bedrifter, men även en hel del data om vart man kunde hitta vissa arter (exempelvis om förekomsten av sköldpaddor eller vilka fiskar de kunde fånga) eller hur omgivningen såg ut (något som ger en referenspunkt till idag). Tydligen hade även Charles Darwin under sin världsomsegling med sig en redogörelse från en pirat, nedskriven cirka hundra år tidigare. Med hjälp av dem kunde Darwin bland annat orientera sig på Galapagos. Men det är självklart inte bara piraters anteckningar som är värdefulla. Skeppsjournaler har det skrivits under en mycket lång tid och de är överfyllda med referenser till omgivningsbeskrivningar samt även meteorologiska uppgifter, även om de ofta är mer subjektiva då instrument innan mitten av 1700-talet var en mindre ”lyxvara” (vindriktningen är väl nästan den enda parametern man kan uppskatta någorlunda korrekt utan instrument. Temperatur är mycket svårare utan träning).

Det finns en rad andra dokument som kan användas som källor. Ett exempel är fiskerinäringens anteckningar av allehanda sorters fiskar som kommer iland. Inte minst finns det utförliga beskrivningar om förekomsten av torsk i Nordatlanten. Dessa går mycket utmärkt att omvandla i termer av exempelvis vattentemperatur. Ett liknande exempel är fångsten av sälar i Östersjön och hur priserna på säl varierat genom tid som en direkt funktion av tillgång. Det är i sig en indikator på isutbredning. Och isutbredning visade jag i en artikel vara starkt beroende av säsongsmedeltemperaturen över vintern.

I en nyligen publicerad artikel av Brázdil, Pfister, Wanner, von Storch och Luterbacher i tidsskriften Climatic Change går man djupare in på vilka data som finns tillgängliga i Europa; både naturliga proxies samt dokument. Europa har de längsta observationerna i världen. Temperatur har uppmätts sedan 1659 i England, men de flesta tidsserier påbörjades inte förren under mitten av 1800-talet (i Sverige var Uppsala och Stockholm först år 1722 repsektive 1756). Men långa tidsserier finns även för tryck, nederbörd samt snö- och isläget. På dokumentsidan räknas ett mindre antal andra klimatindikatorer upp; naturkatastrofer, vattenstånd, snöfallsdag, fenologi, vinskörd, skördedag, sockerhalt i vin, målningar, epigrafik och arkeologiska lämningar. Inte minst, vilket inte nämns i listan, är böndernas almanackor väldigt värdefulla då de ger en stor mängd data rörande jordbruket, och det är väldigt beroende av rådande klimatregim. Andra händelser som anteckningar om när Thamsen i England frös är också viktiga, eller militärhistoria (återigen är Karl X ett bra exempel).

Dessa data kan inte enkelt användas rakt av (det gäller egentligen all typ av data). Det finns mycket problem med dessa anteckningar, precis som det finns även med de naturliga proxydata. Alla typer av data måste kalibreras och homogeniseras innan de används. Väldigt påtagligt är det i personliga anteckningar då dessa är en samling subjektiva bedömningar. Vad är kallt och vad är varmt i ett historiskt perspektiv? Det är inte samma referensram idag som under exempelvis slutet av 1600-talet. Under slutet av 1600-talet skulle en mild vinter kunna vara samma som en tämligen kall vinter idag allt beroende på referensram. Att tre hypotetiska bönder i Södermanland fryser om tårna en sommar 1423 betyder inte att sommaren i sig var ovanligt kall, också det beroende på referensram. Även om de för personerna kanske var en mild vinter eller kall sommar är inte klimatet stationärt och stora förändringar har skett över tid. Att översätta dessa subjektiva noteringar till en verklig temperatur blir därför en aning knivig, men med hjälp av flera oberoende källor kan man så småningom få en bra översikt av hur situationen verkligen var (en bra övergång är att använda sig av index-beskrivning istället, exempelvis winter severity index). Helst kalibreras det hela mot riktiga observerade data, men de är ju som sagt ganska sparsamma bakåt i tiden och det är inte säkert att anteckningar fortsatt föras fram till instrumentell tid. På samma sätt skall det också homogeniseras. Ett exempel på det är observationer av orkaner i Atlanten. Land- och fartygsobservationer var det enda tillgängliga fram till 1940-talet då flygövervakning klev in i bilden. Tjugo år senare var det satellitövervakning som tog vid. Att bara sätta ihop serien går inte då mängden information fram till 1940-talet är mer begränsat än när satelliter gjorde intog under 1960-talet. Serien måste därför kalibreras och homogeniseras för att kontinuiteten skall bevaras.

Historiska dokument i kombination med naturliga proxies är den i särklass starkaste metoden att rekonstruera klimatets gång och det är en intressant utveckling vi nu ser framför oss då allt fler dokument kommer upp i ljuset för använding i rekonstruktioner samtidigt som allt fler vänder sig till dokumenten i sin forskning. Dessa rekonstruktioner är viktiga då vi ännu faktiskt på många områden har dålig förståelse av den interna variabiliteten av klimatsystemet, inte allra minst på regional och lokal nivå där man bör koncentrera klimatstudierna ännu mer då det är på den nivån, inte på global nivå, som människorna individuellt påverkas. För att bättre förstå hur klimatet kommer att utvecklas i framtiden måste vi ha förstått hur klimatet förändrats under historiens gång (inom ramen för dokument gäller det främst att förstå magnituden och utbredningen av såväl lilla istiden som den medeltida värmeperioden vilket är långt ifrån avklarade frågor). Då kan vi också förbättra såväl klimatmodeller som scenarier. Jag ser stora framsteg komma…

Notis: Uppdaterad vinterprognos

Filed under: Notiser,Prognoser,Regionalt — by Daniel @ 20:40

MetOffice har nu uppdaterat sin vinterprognos inför kommande vinter (vintern 2007). Utvecklingen av de nordatlantiska ytvattentemperaturerna samt den nybildade El Niño gör att prognosen fortfarande är skakig. En viss förändring har dock skett sedan sist. För centrala och norra Sverige råder fortfarande lika stor chans för kallare och varmare vinter än normalt, medan det för södra delen av landet och i de absolut nordligaste delarna är lite mer chans för mildare än normalt vinter. Nästa uppdatering sker den 1:a december.

november 4, 2006

Om vetenskapslarm och journalistik

Filed under: Politik/Media — by Daniel @ 18:36

När man kommer hem från en konferens tar det alltid en liten stund innan man hunnit läsa ikapp på olika områden, speciellt det dagsaktuella nyhetsflödet. Därför tittade jag idag igenom de senaste dagarnas videoarkiv från SVT online. I senaste Pressklubben i Studio 24 diskuterar man vetenskapslarm och om journalistiken kring dem är trovärdig eller inte. Det var ett mycket intressant program och debatten var upplyftande och konstruktiv. Jag var faktiskt mest imponerad av Erika Bjerströms, reporter hos SVT, inlägg i programmet. Hon medgav att det fanns problem inom miljöjournalistiken, bland annat när det gäller hur journalister kritiskt granskar pressmeddelanden från olika avsändare. Som hypotetiskt exempel togs i programmet upp ett pressmeddelande från Volvo och Naturskyddsföreningen eller Världsnaturfonden och man ställde sig frågan vilket pressmeddelande som journalister kritiskt granskar mest. Även om de faktamässiga grunderna förmodligen är lika stor i dessa pressmeddelanden skulle Volvo ändå förmodligen bli mer kritiskt granskat än någon av miljöorganisationerna (om det är så eller inte vet jag inte, men det diskuterades i programmet). Självklart måste det vara så att alla pressmeddelanden, oavsett vem det kommer ifrån, skall granskas lika mycket annars är det inte seriös journalistik. Det är dock svårare när det ofta anspelar på känslor (just nu är det ”rädda isbjörnen” – när kommer ”rädda Melosira arctica”?). Men en annan punkt som togs upp, som jag faktiskt inte ens reflekterat över, är medlemskap i diverse organisationer om man är journalist. Erika nämnde exempelvis att man inte bör vara medlem i Naturskyddsföreningen om man är miljöjournalist, och det är faktiskt en mycket vettig ståndpunkt i mina ögon och öron. Som journalist skall man stå fri från intressegrupper, även om man nu skulle råka sympatisera med dem. På samma sätt gäller det politiska journalister som har medlemskap i partier, det är också något oförenligt. En förening/parti etc har ju alltid en agenda och för journalistens egen trovärdighets skull bör han/hon inte vara medlem.

Erika nämnde att forskare inte är särskilt bra kommunikatörer och ”slår på trumman”. Ja, så är det i stor utsträckning, mycket tack vare att vi forskare inte har en tradition att informera om våra resultat – trots att vi egentligen är skyldiga till det (se här). Men jag tror också en bidragande faktor till det hela kan vara att många forskare inte vill ta kontakt med media eftersom de är medvetna om att de väldigt lätt blir felciterade eller placeras i ett fack/sammanhang de inte vill kännas vid. Kanske är risken inte lika hög hos de mer seriösa tidningarna och radio/tv-kanalerna även om den självklart finns (det är aldrig ”skoj” för en journalist att rapportera saker bara för informationens skull). Hos kvällspressen (där jag även räknar in gratis morgontidningar) är risken överhängande. Vetenskapliga resultat som presenteras sakligt i exempelvis SVT kan få stora larmrubriker i Aftonbladet. Och där kommer vi in på nästa grej, vilket Erika också erkände fanns – de så kallade ”nyttiga idioterna”. En del forskare vill prata med journalister och vet vilka nyckelord journalisterna är ute efter. Använder man dem i en intervju kan man självklart få journalisten lite mer lindad kring sitt lillfinger, vilket kan resultera i större rubriker, kanske mer exponering för forskaren och hans/hennes ämne, vilket i sin tur kan generera mer pengar till forskningen. Jag tror inte andelen forskare som gör så är särskilt stor, det är nog större risk att man omedvetet råkar använda ”rätt” nyckelord. Däremot är det säkert vanligare att den metoden användas medvetet av organisationer, myndigheter och företag för att nå ut.

Så när jag kom hem från Oslo såg jag att det i GöteborgsPosten fanns en debattartikel med Miljöpartiet som avsändare. Det politiska budskapet i debattartikeln lämnar vi åt sidan. Istället reagerade jag över de tre ”larmrapporter” som artikelförfattarna refererade till. Två av dem kan man säkert diskutera hur bra de var (Sternrapporten och Klimat- och Sårbarhetsutredningen), jag har inte läst dem och har inte kompetens att bedöma deras trovärdighet. Det tredje man skrev om var ”mardrömsscenariot” att golfströmmen håller på att stanna av. Inte nog att det är vilseledande, det är också fel återgivet och ger upphov till huvudbry ifall författarna bryr sig om vetenskapen i sig eller bara vill ha stora rubriker. Det är ett typiskt exempel på att förattarna inte kritiskt granskat de nyheter som skapat de senaste dagarnas rubriker. Och det är trist, speciellt när det gäller trovärdigheten för ett parti, som man tycker åtminstone skulle kunna ställa sig kunskapssnäppet över kvällspressen.

Uppdatering 7/11: Dagens kvällspressjournalistikpris går till TV4. Deras ”isberg på drift varslar om klimathot” är ytterligare ett exempel på dålig vetenskapsjournalistik. Rubriken insinuerar att de isberg, som nu flyter norrut mot Nya Zealand, skulle vara kopplade till klimatförändringar, något som Nya Zealändska forskare inte håller med om (de hävdar istället att det är omöjligt att koppla detta till klimatförändringar). Isberg så långt norrut är ovanligt (senast var 1931), men det säger absolut ingenting om klimat. Ibland är förhållanden (strömmar och vindar) de rätta för att isberg skall förflytta sig långt norrut innan de hunnit smälta.

Toni-temat. Skapa en gratis webbplats eller blogg på WordPress.com.

Följ

Få meddelanden om nya inlägg via e-post.