Dowody na istnienie wywołanego przez człowieka globalnego ocieplenia uderzają w „złoty standard”: jak to zrobili?

35

Ta wiadomość w artykule Reutera z 25.02.2019 jest obecnie w wiadomościach:

Dowody na istnienie wywołanego przez człowieka globalnego ocieplenia uderzają w „złoty standard”

[Naukowcy] stwierdzili, że pewność, że działalność człowieka podnosi ciepło na powierzchni Ziemi, osiągnęła poziom „pięciu sigma”, statystyczny wskaźnik oznaczający, że istnieje tylko jedna na milion szansa, że ​​sygnał pojawi się, jeśli będzie bez ocieplenia.

Uważam, że odnosi się to do tego artykułu „Świętujemy rocznicę trzech kluczowych wydarzeń w nauce o zmianach klimatu”, który zawiera fabułę, która jest pokazana schematycznie poniżej (Jest to szkic, ponieważ nie mogłem znaleźć obrazu open source dla oryginalnego, podobnego darmowe zdjęcia znajdują się tutaj ). Kolejny artykuł z tej samej grupy badawczej, który wydaje się być bardziej oryginalnym źródłem, znajduje się tutaj (ale używa 1% znaczenia zamiast 5σ ).


Na wykresie przedstawiono pomiary z trzech różnych grup badawczych: systemów teledetekcji, Centrum Zastosowań i Badań Satelitarnych oraz University of Alabama w Huntsville.

Na wykresie wyświetlane są trzy rosnące krzywe stosunku sygnału do szumu w funkcji długości trendu.

sygnał antropogeniczny

W jakiś sposób naukowcy zmierzyli antropogeniczny sygnał globalnego ocieplenia (lub zmiany klimatu?) Na poziomie 5σ , co jest najwyraźniej jakimś naukowym standardem dowodów .

Dla mnie taki wykres, który ma wysoki poziom abstrakcji, rodzi wiele pytań i ogólnie zastanawiam się nad pytaniem „Jak oni to zrobili?” . Jak wyjaśnimy ten eksperyment prostymi słowami (ale nie tak abstrakcyjnymi), a także wyjaśnimy znaczenie 5 σ5σ ?

Zadaję to pytanie tutaj, ponieważ nie chcę dyskusji na temat klimatu. Zamiast tego chcę odpowiedzi dotyczących treści statystycznej, a zwłaszcza wyjaśnienia znaczenia takiego stwierdzenia, które używa / twierdzi 5σ .


Jaka jest hipoteza zerowa? Jak zorganizowali eksperyment, aby uzyskaćsygnałantropogeniczny? Jaki jestrozmiarefektusygnału? Czy to tylko mały sygnał, który mierzymy teraz, ponieważ hałas maleje, czy też sygnał rośnie? Jakie założenia przyjęto w celu stworzenia modelu statystycznego, za pomocą którego określają przekroczenie progu 5 sigma (niezależność, efekty losowe itp.)? Dlaczego trzy krzywe dla różnych grup badawczych są różne, czy mają różne szumy, czy też mają różne sygnały, a w przypadku tych ostatnich, co to oznacza w odniesieniu do interpretacji prawdopodobieństwa i zewnętrznej ważności?

Sextus Empiricus
źródło
2
@MattF. Oczekuję, że będzie możliwe stworzenie prostej prezentacji wyjaśniającej koncepcję statystyczną zastosowanego tutaj progu (przynajmniej fizyków cząstek wysokoenergetycznych, którzy również wykorzystują rozbieżności / efekty σ do opisania stosunku sygnału do szumu pod względem liczby zdarzeń nie ma z tym problemu). Mówiąc prosto, mam na myśli coś oderwanego od żargonu klimatologicznego, ale na tyle wyrafinowanego, że zawiera esencję. Powiedzmy, że byłoby to coś napisanego dla zawodowych statystyk i matematyków, tak aby mogli zrozumieć tutaj 5 σ . 5σσ5σ
Sextus Empiricus
1
Aby podkreślić kontrast z fizyką wysokich energii: w tym polu statystycy mogą zrozumieć, że poziom jest w zasadzie bez znaczenia, a poprzeczka jest wysoko ustawiona, ponieważ obliczenia są technicznie niepoprawne (1. efekt w innym miejscu 2. błędne założenia dotyczące rozkładu błędów ignorując skutki systematyczne 3. domyślnie dokonując analizy bayesowskiej, „roszczenia nadzwyczajne wymagają nadzwyczajnych dowodów”). 5σ
Sextus Empiricus
1
Pytanie brzmi, jak bardzo te trzy efekty są obecne w przypadku tego artykułu na temat globalnego ocieplenia. Uważam, że ważne jest, aby to wyjaśnić, aby zdemistyfikować twierdzenia naukowe. Jest tak powszechne, że po prostu rzuca się pewnymi liczbami w argument, aby brzmiał rygorystycznie, a większość ludzi przestaje go kwestionować.
Sextus Empiricus
2
Czy widziałeś tę krytykę: judithcurry.com/2019/03/01/… ?
Robert Long
2
Przypadkowo czytałem te gazety zaledwie kilka dni temu i teraz zauważyłem twoją nową nagrodę. Mogę coś teraz napisać.
ameba mówi Przywróć Monikę

Odpowiedzi:

15

Nie zawsze chodzi o testy statystyczne. Może dotyczyć także teorii informacji.

Termin 5σ jest, jak to się mówi: stosunek „sygnału” do „szumu”. W testowaniu hipotez mamy oszacowany parametr rozkładu i błąd standardowy oszacowania. Pierwszy to „sygnał”, drugi to „szum”, a stosunek statystyki do jej standardowego błędu to statystyki z, statystyki t, statystyki F, jak to nazywacie.

Niemniej jednak stosunek sygnału do szumu jest użyteczny wszędzie tam, gdzie odbieramy / odbieramy pewne informacje przez pewien hałas. Jak wyjaśnia cytowany link

Stosunek sygnału do szumu (często skracany SNR lub S / N) jest miarą stosowaną w nauce i inżynierii w celu oszacowania, jak bardzo sygnał jest uszkodzony przez szum.

W naszym przypadku „sygnał” jest zmierzoną rzeczywistą zmianą temperatury niektórych warstw atmosfery, a „hałas” jest prognozą zmiany z symulacji bez znanych wpływów antropogenicznych. Zdarza się, że symulacje te przewidywały mniej więcej stałą temperaturę z pewnym odchyleniem standardowym σ.

Wróćmy do statystyk. Wszystkie statystyki testowe (z, t, F) są stosunkami oszacowania do błędu standardowego. Kiedy więc statystycy słyszą o czymś takim jak S / N, myślimy o statystykach Z i wyposażamy je w prawdopodobieństwo. Klimatolodzy oczywiście tego nie robią (nigdzie w artykule nie wspomniano o prawdopodobieństwie ). Po prostu dowiadują się, że zmiana jest „z grubsza trzy do ośmiu” razy większa niż oczekiwano, S / N wynosi od 3σ do 8σ.

Co to za artykuł donosi się, że zrobili dwa rodzaje symulacji: te ze znanymi antropogenicznych czynników uwzględnionych w modelu oraz innymi ze znanym antropogenicznych wpływów wykluczonych. Pierwsze symulacje były podobne do zmierzonych rzeczywistych danych satelitarnych, podczas gdy drugie były dalekie. Jeśli jest to prawdopodobne, czy nie, nie mówią i oczywiście nie dbają o to.

Aby odpowiedzieć na inne pytania. Nie przeprowadzili żadnych eksperymentów, wykonali symulacje zgodnie ze swoimi modelami. Nie ma więc wyraźnej hipotezy zerowej, z wyjątkiem oczywistej, że zmiana jest podobna do oczekiwanej (S / N wynosi 1).

Wielkość efektu sygnału jest różnicą między rzeczywistymi danymi a symulacjami. Jest to sygnał pięciokrotnie większy niż oczekiwano (pięciokrotność zwykłej zmienności temperatur). Wygląda na to, że hałas maleje ze względu na ilość i być może dokładność pomiarów.

W przeciwieństwie do naszych oczekiwań od „prawdziwych naukowców”, nie ma modelu statystycznego, o którym moglibyśmy porozmawiać, dlatego pytanie o przyjęte założenia jest puste. Jedynym założeniem jest to, że ich modele umożliwiają im przewidywanie klimatu. Jest to tak samo ważne, jak stwierdzenie, że modele użyte do prognoz pogody są solidne.

Istnieją znacznie więcej niż trzy krzywe. Są to wyniki symulacji z różnych modeli. Po prostu muszą być inne. I tak, mają inny hałas. Sygnał, o ile jest inny, to różne zestawy pomiarów, które mają swój błąd pomiaru, a także powinny być różne. Co to oznacza w odniesieniu do interpretacji? Interpretacja prawdopodobieństwa S / N nie jest dobra. Jednak zewnętrzna wiarygodność ustaleń jest solidna. Twierdzą po prostu, że zmiany klimatu w okresie od 1979 do 2011 r. Są porównywalne z symulacjami, gdy uwzględniane są znane wpływy antropogeniczne i około pięć razy większe niż te obliczone w symulacji, gdy znane czynniki antropogeniczne są wykluczone z modelu.

Pozostaje więc jedno pytanie. Gdyby klimatolodzy poprosili statystyków o wykonanie modelu, jaki powinien być? Moim zdaniem coś w stylu ruchu Browna.

Nino Rode
źródło
Czym więc jest „sygnał”, jaka jest natura „szumu” i jakiemu niewidzialnemu procesowi możemy go przypisać?
Josh
1
Sory @Josh, przedwcześnie nacisnąłem przycisk wysyłania. Teraz możesz przeczytać moją pełną odpowiedź. Co więcej, „sygnał” to rzeczywiste pomiary, a „hałas” to wyniki symulacji, gdy znane czynniki antropogeniczne są wykluczone z modelu. I moim zdaniem jest to bardzo niestatystyczne ...
Nino Rode
1
Po drugie, z twojego postu wynika, że ​​statystyka S / N jest zdeterminowana przez sygnał: różnicę między dwoma modelami teoretycznymi (efekt ludzki w porównaniu z linią bazową), a szumem: odchylenie w obrębie modeli teoretycznych. Jednak na systematyczne efekty mogą mieć ogromny wpływ. Rozkład efektów losowych nie jest dobrze określony przez zwykłe uśrednienie wariancji w symulacjach Monte Carlo (patrz cząstka Vivianonium). Jeśli występuje błąd systematyczny, możesz zrobić tak dużą rozbieżność jak tylko chcesz, zbierając więcej danych. nσ
Sextus Empiricus
3
@NinoRode Może czegoś mi brakuje, ale skoro model „hałasu” bez wpływów antropogenicznych jest ewidentnie niewłaściwy ze względu na fakt, że średnia temperatura wzrosła w oparciu o pomiary empiryczne , w jaki sposób model ten zapewnia odpowiednią linię bazową? Ponieważ należy rozumieć, że temperatury zmieniają się w wyniku procesów naturalnych ( en.wikipedia.org/wiki/Little_Ice_Age ) oprócz tych antropogenicznych, co stanowi podstawę do założenia, że ​​model „hałasu” powinien mieć wzrost średniej wartości zero w stosunku do okres analizy?
Josh
1
@Scott, problem ze sprytną kreskówką polega na tym, że w szeregach czasowych nie widać szumu, ponieważ pomiary prawdopodobnie nie są wystarczająco udoskonalone, aby określić, jaka była temperatura w określonym stuleciu, nie mówiąc już o konkretnym roku. Wygląda więc płynnie i stopniowo aż do pojawienia się nowoczesnych urządzeń pomiarowych. W mechanice płynów byłoby to jak porównanie natychmiastowej obserwacji pola prędkości z polem uśrednionym przez Reynoldsa; to nie jest właściwe porównanie. Chyba że tak naprawdę uważasz, że do czasu narodzin Grety Thunberg istniała zasadniczo zerowa zmienność. :)
Josh
11

Uwaga: NIE jestem ekspertem od klimatologii, to nie moja dziedzina. Proszę o tym pamiętać. Korekty mile widziane.


Liczba, do której się odwołujesz, pochodzi z ostatniego artykułu Santer i in. 2019, Świętujemy rocznicę trzech kluczowych wydarzeń w nauce o zmianie klimatu, wydanych przez Nature Climate Change . To nie jest praca naukowa, ale krótki komentarz. Ta liczba jest uproszczoną aktualizacją podobnej liczby z wcześniejszego artykułu naukowego tych samych autorów, Santer i in. 2018, Wpływ człowieka na sezonowy cykl temperatur troposferycznych . Oto liczba z 2019 r .:

enter image description here

A oto liczba z 2018 r .; panel A odpowiada wartości z 2019 r .:

enter image description here

W tym miejscu postaram się wyjaśnić analizę statystyczną stojącą za tą ostatnią liczbą (wszystkie cztery panele). The naukowy jest otwarty i dość czytelny; dane statystyczne są, jak zwykle, ukryte w Materiałach uzupełniających. Przed omówieniem statystyki jako takiej trzeba powiedzieć kilka słów o danych obserwacyjnych i zastosowanych tutaj symulacjach (modelach klimatycznych).


1. Dane

Skróty RSS, UAH i STAR odnoszą się do rekonstrukcji temperatury troposferycznej z pomiarów satelitarnych. Temperatura troposfery jest monitorowana od 1979 r. Za pomocą satelitów pogodowych: patrz Wikipedia na temat pomiarów temperatury w MSU . Niestety satelity nie mierzą bezpośrednio temperatury; mierzą coś innego, z czego można wywnioskować temperaturę. Ponadto wiadomo, że cierpią one na różne zależne od czasu tendencje i problemy z kalibracją. To sprawia, że ​​odtworzenie rzeczywistej temperatury jest trudnym problemem. Kilka grup badawczych przeprowadza tę rekonstrukcję, stosując nieco inne metodologie i uzyskując nieco inne wyniki końcowe. RSS, UAH i STAR to te rekonstrukcje. Cytując Wikipedię,

Satelity nie mierzą temperatury. Mierzą one promienie w różnych pasmach fal, które następnie należy odwrócić matematycznie, aby uzyskać pośrednie wnioskowanie o temperaturze. Wynikowe profile temperatur zależą od szczegółów metod stosowanych do uzyskiwania temperatur z promieniowania. W rezultacie różne grupy, które analizowały dane satelitarne, uzyskały różne trendy temperatur. Wśród tych grup są systemy teledetekcji (RSS) i University of Alabama w Huntsville (UAH). Seria satelitów nie jest w pełni jednorodna - płyta jest zbudowana z serii satelitów z podobną, ale nie identyczną oprzyrządowaniem. Czujniki pogarszają się z upływem czasu i konieczne są korekty dryfu satelity na orbicie.

Toczy się wiele dyskusji na temat tego, która rekonstrukcja jest bardziej niezawodna. Każda grupa co jakiś czas aktualizuje swoje algorytmy, zmieniając całe zrekonstruowane szeregi czasowe. Dlatego na przykład RSS v3.3 różni się od RSS v4.0 na powyższym rysunku. Ogólnie rzecz biorąc, AFAIK jest dobrze akceptowane w terenie, że szacunki globalnej temperatury powierzchni są bardziej precyzyjne niż pomiarów satelitarnych. W każdym razie dla tego pytania ważne jest to, że istnieje kilka dostępnych szacunków przestrzennie rozdzielonej temperatury troposferycznej od 1979 r. Do chwili obecnej - tj. Jako funkcji szerokości, długości i czasu.

T(x,t) .

2. Modele

Istnieją różne modele klimatu, które można uruchomić w celu symulacji temperatury troposferycznej (również w zależności od szerokości, długości i czasu). Modele te przyjmują na wejściu stężenie CO2, aktywność wulkaniczną, promieniowanie słoneczne, stężenie aerozoli i różne inne wpływy zewnętrzne, a na wyjściu wytwarzają temperaturę. Modele te można uruchamiać w tym samym okresie (1979 r. - teraz), wykorzystując rzeczywiste zmierzone wpływy zewnętrzne. Dane wyjściowe można następnie uśrednić, aby uzyskać średnią wydajność modelu.

Można również uruchomić te modele bez wprowadzania czynników antropogenicznych (gazy cieplarniane, aerozole itp.), Aby uzyskać wyobrażenie o prognozach nieantropogenicznych. Zauważ, że wszystkie inne czynniki (słoneczne / wulkaniczne / itp.) Oscylują wokół ich średnich wartości, więc wyniki nieantropogeniczne modelu są nieruchome ze względu na budowę. Innymi słowy, modele nie pozwalają na naturalną zmianę klimatu, bez żadnej konkretnej przyczyny zewnętrznej.

M(x,t)N(x,t)

z

T(x,t)M(x,t)N(x,t) . Podobieństwo można oszacować na różne sposoby, odpowiadające różnym „odciskom palców” antropogenicznego globalnego ocieplenia.

T(x,i)M(x,i)N(x,i)i

  1. Średnia roczna: po prostu średnia temperatura przez cały rok.
  2. Roczny cykl sezonowy: temperatura letnia minus temperatura zimowa.
  3. xi .
  4. Roczny cykl sezonowy z odejmowaną średnią globalną: to samo co (2), ale ponownie odejmując średnią globalną.

M(x,i)F(x) . Jest to w zasadzie dwuwymiarowy wzór maksymalnej zmiany wielkości zainteresowania zgodnie z modelem antropogenicznym.

T(x,i)F(x)

Z(i)=xT(x,i)F(x),
βz

W.(ja)=xN.(x,ja)fa(x),
i znów znajdź jego nachylenie βnojasmi. Aby uzyskać zerowy rozkład zboczy, uruchamiają modele antropogeniczne przez 200 lat, dzielą wyniki na 30-letnie fragmenty i powtarzają analizę. Odchylenie standardowe wartościβnojasmi wartości tworzą mianownik z-Statystyczny:

z=βVar1/2)[βnojasmi].

To, co widzisz w panelach A - D powyższego rysunku, to: z wartości dla różnych końcowych lat analizy.

Hipoteza zerowa polega na tym, że temperatura zmienia się pod wpływem stacjonarnych sygnałów słonecznych / wulkanicznych / itp. Bez dryfu. Wysokośćz wartości wskazują, że obserwowane temperatury troposferyczne nie są zgodne z tą hipotezą zerową.

4. Niektóre komentarze

Pierwszy odcisk palca (panel A) jest według IMHO najbardziej trywialny. Oznacza to po prostu, że obserwowane temperatury monotonicznie rosną, podczas gdy temperatury pod hipotezą zerową nie. Nie sądzę, że do wyciągnięcia takiego wniosku potrzebna jest cała ta skomplikowana maszyneria. Szereg czasowy średniej globalnej niższej temperatury troposferycznej (wariant RSS) wygląda następująco :

enter image description here

i wyraźnie istnieje tutaj bardzo znaczący trend. Nie sądzę, żeby ktoś to widział.

Odcisk palca w panelu B jest nieco bardziej interesujący. Tutaj odejmuje się średnią globalną, więcz-wartości nie zależą od rosnącej temperatury, ale od przestrzennych wzorów zmiany temperatury. Rzeczywiście, dobrze wiadomo, że półkula północna rozgrzewa się szybciej niż południowa (półkule można porównać tutaj: http://images.remss.com/msu/msu_time_series.html ), i to również modele klimatu wydajność. Panel B jest w dużej mierze wyjaśniony tą różnicą między półkulami.

Odcisk palca w panelu C jest prawdopodobnie jeszcze bardziej interesujący i był faktycznym celem Santera i in. Artykuł 2018 (przypomnij tytuł: „Wpływ człowieka na sezonowy cykl temperatur troposferycznych”, podkreślenie dodane). Jak pokazano na rysunku 2 w artykule, modele przewidują, że amplituda cyklu sezonowego powinna wzrosnąć na średnich szerokościach geograficznych obu półkul (i zmniejszyć się gdzie indziej, szczególnie w rejonie monsunu indyjskiego). Tak właśnie dzieje się w obserwowanych danych, przynosząc wysoką wartośćz-wartości w panelu C. Panel D jest podobny do C, ponieważ tutaj efekt nie wynika z globalnego wzrostu, ale z powodu określonego wzorca geograficznego.


PS Szczególna krytyka na judithcurry.com , którą podlinkowałeś powyżej, wydaje mi się dość powierzchowna. Podnoszą cztery punkty. Po pierwsze, te wykresy pokazują tylkoz-statystyki, ale nie wielkość efektu; jednakże otwierając Santer i in. W 2018 r. Wszystkie pozostałe liczby wyraźnie pokażą rzeczywiste wartości nachylenia, które są interesującym rozmiarem efektu. Drugi, którego nie rozumiałem; Podejrzewam, że to zamieszanie z ich strony. Trzeci dotyczy znaczenia hipotezy zerowej; jest to dość sprawiedliwe (ale nie na temat na CrossValidated). Ostatni rozwija pewien argument na temat autokorelowanych szeregów czasowych, ale nie rozumiem, jak to odnosi się do powyższego obliczenia.

ameba mówi Przywróć Monikę
źródło
2
(+1) To świetna odpowiedź! Jeśli nie masz nic przeciwko: czy możesz rozwinąć etap „PCA w punktach czasowych”? Nie rozumiem, co kryje się za robieniem tam PCA zamiast analizowania każdego wymiaru osobno.
mkt - Przywróć Monikę
+1 To jest cudowne wyjaśnienie. Bardzo blisko tego, czego się spodziewałem (tak naprawdę nie wiedziałem, czego się właściwie spodziewać, a moje pytanie było niejasne) i warte nagród (zostawię to do końca, aby zwrócić uwagę). Muszę jeszcze kilka razy przeczytać sekcję odcisków palców i przez chwilę gotować na wolnym ogniu, wciąż pragnę nieco więcej intuicji i lepszego zrozumieniaβhałasoraz związek z szumem w danych i jaka jest to podstawowa zasada prawdopodobieństwa (w fizyce cząstek o wysokiej energii jest to bardziej oczywiste). Ale ta odpowiedź pomoże mi wystarczająco.
Sextus Empiricus
1
@mkt Jestem pewien, że istnieje wiele różnych sposobów przeprowadzenia podobnej analizy. To nie jest moja dziedzina i nie wiedziałbym, dlaczego autorzy dokonali tych konkretnych wyborów do analizy. To powiedziawszy, robią PCA redukują to, co nazwałemN.(x,ja) do fa(x), tj. aby usunąć zależność od czasu. To dlatego, że chcą rzutować zaobserwowane wartości każdego roku (jak to nazwałemT.(x,ja)) na to fa(x). W tym celu powinien być niezależny od czasu. Podejrzewam, że zamiast robić PCA, mogliby skorzystaćN.(x,2019)lub średnia z ostatnich kilku lat. Ale dlaczego nie PCA.
ameba mówi Przywróć Monikę
1
Tak, te rzeczy można omawiać z różnych stron. Często osobiście nie oceniam żadnej strony, ale podoba mi się, że argumenty są jasne i jasne. Raporty o klimacie są obecnie bardzo rozmyte.
Sextus Empiricus
1
Co jeszcze mnie zastanawia o treatement technicznej jest sens zfa(x)(możesz opisać teoretyczne szeregi czasowe jako sumę składowych, a to jest ta z największą wariancją?) Ale dlaczego korelować mierzony sygnał z tym składnikiem i odnosić go do wariancji korelacji modelu antropogenicznego z tym składnikiem? (czy może zmieniłeś model antropogeniczny i antropogeniczny?) Wszystkie te rzeczy (ukryta analiza) bardzo utrudniają stwierdzenie, czy rzeczywiście odkryli guz z 5 sigma, czy też stwierdzili, że pomiary nie pasują do modelu.
Sextus Empiricus