Ta wiadomość w artykule Reutera z 25.02.2019 jest obecnie w wiadomościach:
Dowody na istnienie wywołanego przez człowieka globalnego ocieplenia uderzają w „złoty standard”
[Naukowcy] stwierdzili, że pewność, że działalność człowieka podnosi ciepło na powierzchni Ziemi, osiągnęła poziom „pięciu sigma”, statystyczny wskaźnik oznaczający, że istnieje tylko jedna na milion szansa, że sygnał pojawi się, jeśli będzie bez ocieplenia.
Uważam, że odnosi się to do tego artykułu „Świętujemy rocznicę trzech kluczowych wydarzeń w nauce o zmianach klimatu”, który zawiera fabułę, która jest pokazana schematycznie poniżej (Jest to szkic, ponieważ nie mogłem znaleźć obrazu open source dla oryginalnego, podobnego darmowe zdjęcia znajdują się tutaj ). Kolejny artykuł z tej samej grupy badawczej, który wydaje się być bardziej oryginalnym źródłem, znajduje się tutaj (ale używa 1% znaczenia zamiast ).
Na wykresie przedstawiono pomiary z trzech różnych grup badawczych: systemów teledetekcji, Centrum Zastosowań i Badań Satelitarnych oraz University of Alabama w Huntsville.
Na wykresie wyświetlane są trzy rosnące krzywe stosunku sygnału do szumu w funkcji długości trendu.
W jakiś sposób naukowcy zmierzyli antropogeniczny sygnał globalnego ocieplenia (lub zmiany klimatu?) Na poziomie , co jest najwyraźniej jakimś naukowym standardem dowodów .
Dla mnie taki wykres, który ma wysoki poziom abstrakcji, rodzi wiele pytań † i ogólnie zastanawiam się nad pytaniem „Jak oni to zrobili?” . Jak wyjaśnimy ten eksperyment prostymi słowami (ale nie tak abstrakcyjnymi), a także wyjaśnimy znaczenie 5 σ ?
Zadaję to pytanie tutaj, ponieważ nie chcę dyskusji na temat klimatu. Zamiast tego chcę odpowiedzi dotyczących treści statystycznej, a zwłaszcza wyjaśnienia znaczenia takiego stwierdzenia, które używa / twierdzi .
Jaka jest hipoteza zerowa? Jak zorganizowali eksperyment, aby uzyskaćsygnałantropogeniczny? Jaki jestrozmiarefektusygnału? Czy to tylko mały sygnał, który mierzymy teraz, ponieważ hałas maleje, czy też sygnał rośnie? Jakie założenia przyjęto w celu stworzenia modelu statystycznego, za pomocą którego określają przekroczenie progu 5 sigma (niezależność, efekty losowe itp.)? Dlaczego trzy krzywe dla różnych grup badawczych są różne, czy mają różne szumy, czy też mają różne sygnały, a w przypadku tych ostatnich, co to oznacza w odniesieniu do interpretacji prawdopodobieństwa i zewnętrznej ważności?
źródło
Odpowiedzi:
Nie zawsze chodzi o testy statystyczne. Może dotyczyć także teorii informacji.
Termin 5σ jest, jak to się mówi: stosunek „sygnału” do „szumu”. W testowaniu hipotez mamy oszacowany parametr rozkładu i błąd standardowy oszacowania. Pierwszy to „sygnał”, drugi to „szum”, a stosunek statystyki do jej standardowego błędu to statystyki z, statystyki t, statystyki F, jak to nazywacie.
Niemniej jednak stosunek sygnału do szumu jest użyteczny wszędzie tam, gdzie odbieramy / odbieramy pewne informacje przez pewien hałas. Jak wyjaśnia cytowany link
W naszym przypadku „sygnał” jest zmierzoną rzeczywistą zmianą temperatury niektórych warstw atmosfery, a „hałas” jest prognozą zmiany z symulacji bez znanych wpływów antropogenicznych. Zdarza się, że symulacje te przewidywały mniej więcej stałą temperaturę z pewnym odchyleniem standardowym σ.
Wróćmy do statystyk. Wszystkie statystyki testowe (z, t, F) są stosunkami oszacowania do błędu standardowego. Kiedy więc statystycy słyszą o czymś takim jak S / N, myślimy o statystykach Z i wyposażamy je w prawdopodobieństwo. Klimatolodzy oczywiście tego nie robią (nigdzie w artykule nie wspomniano o prawdopodobieństwie ). Po prostu dowiadują się, że zmiana jest „z grubsza trzy do ośmiu” razy większa niż oczekiwano, S / N wynosi od 3σ do 8σ.
Co to za artykuł donosi się, że zrobili dwa rodzaje symulacji: te ze znanymi antropogenicznych czynników uwzględnionych w modelu oraz innymi ze znanym antropogenicznych wpływów wykluczonych. Pierwsze symulacje były podobne do zmierzonych rzeczywistych danych satelitarnych, podczas gdy drugie były dalekie. Jeśli jest to prawdopodobne, czy nie, nie mówią i oczywiście nie dbają o to.
Aby odpowiedzieć na inne pytania. Nie przeprowadzili żadnych eksperymentów, wykonali symulacje zgodnie ze swoimi modelami. Nie ma więc wyraźnej hipotezy zerowej, z wyjątkiem oczywistej, że zmiana jest podobna do oczekiwanej (S / N wynosi 1).
Wielkość efektu sygnału jest różnicą między rzeczywistymi danymi a symulacjami. Jest to sygnał pięciokrotnie większy niż oczekiwano (pięciokrotność zwykłej zmienności temperatur). Wygląda na to, że hałas maleje ze względu na ilość i być może dokładność pomiarów.
W przeciwieństwie do naszych oczekiwań od „prawdziwych naukowców”, nie ma modelu statystycznego, o którym moglibyśmy porozmawiać, dlatego pytanie o przyjęte założenia jest puste. Jedynym założeniem jest to, że ich modele umożliwiają im przewidywanie klimatu. Jest to tak samo ważne, jak stwierdzenie, że modele użyte do prognoz pogody są solidne.
Istnieją znacznie więcej niż trzy krzywe. Są to wyniki symulacji z różnych modeli. Po prostu muszą być inne. I tak, mają inny hałas. Sygnał, o ile jest inny, to różne zestawy pomiarów, które mają swój błąd pomiaru, a także powinny być różne. Co to oznacza w odniesieniu do interpretacji? Interpretacja prawdopodobieństwa S / N nie jest dobra. Jednak zewnętrzna wiarygodność ustaleń jest solidna. Twierdzą po prostu, że zmiany klimatu w okresie od 1979 do 2011 r. Są porównywalne z symulacjami, gdy uwzględniane są znane wpływy antropogeniczne i około pięć razy większe niż te obliczone w symulacji, gdy znane czynniki antropogeniczne są wykluczone z modelu.
Pozostaje więc jedno pytanie. Gdyby klimatolodzy poprosili statystyków o wykonanie modelu, jaki powinien być? Moim zdaniem coś w stylu ruchu Browna.
źródło
Uwaga: NIE jestem ekspertem od klimatologii, to nie moja dziedzina. Proszę o tym pamiętać. Korekty mile widziane.
Liczba, do której się odwołujesz, pochodzi z ostatniego artykułu Santer i in. 2019, Świętujemy rocznicę trzech kluczowych wydarzeń w nauce o zmianie klimatu, wydanych przez Nature Climate Change . To nie jest praca naukowa, ale krótki komentarz. Ta liczba jest uproszczoną aktualizacją podobnej liczby z wcześniejszego artykułu naukowego tych samych autorów, Santer i in. 2018, Wpływ człowieka na sezonowy cykl temperatur troposferycznych . Oto liczba z 2019 r .:
A oto liczba z 2018 r .; panel A odpowiada wartości z 2019 r .:
W tym miejscu postaram się wyjaśnić analizę statystyczną stojącą za tą ostatnią liczbą (wszystkie cztery panele). The naukowy jest otwarty i dość czytelny; dane statystyczne są, jak zwykle, ukryte w Materiałach uzupełniających. Przed omówieniem statystyki jako takiej trzeba powiedzieć kilka słów o danych obserwacyjnych i zastosowanych tutaj symulacjach (modelach klimatycznych).
1. Dane
Skróty RSS, UAH i STAR odnoszą się do rekonstrukcji temperatury troposferycznej z pomiarów satelitarnych. Temperatura troposfery jest monitorowana od 1979 r. Za pomocą satelitów pogodowych: patrz Wikipedia na temat pomiarów temperatury w MSU . Niestety satelity nie mierzą bezpośrednio temperatury; mierzą coś innego, z czego można wywnioskować temperaturę. Ponadto wiadomo, że cierpią one na różne zależne od czasu tendencje i problemy z kalibracją. To sprawia, że odtworzenie rzeczywistej temperatury jest trudnym problemem. Kilka grup badawczych przeprowadza tę rekonstrukcję, stosując nieco inne metodologie i uzyskując nieco inne wyniki końcowe. RSS, UAH i STAR to te rekonstrukcje. Cytując Wikipedię,
Toczy się wiele dyskusji na temat tego, która rekonstrukcja jest bardziej niezawodna. Każda grupa co jakiś czas aktualizuje swoje algorytmy, zmieniając całe zrekonstruowane szeregi czasowe. Dlatego na przykład RSS v3.3 różni się od RSS v4.0 na powyższym rysunku. Ogólnie rzecz biorąc, AFAIK jest dobrze akceptowane w terenie, że szacunki globalnej temperatury powierzchni są bardziej precyzyjne niż pomiarów satelitarnych. W każdym razie dla tego pytania ważne jest to, że istnieje kilka dostępnych szacunków przestrzennie rozdzielonej temperatury troposferycznej od 1979 r. Do chwili obecnej - tj. Jako funkcji szerokości, długości i czasu.
2. Modele
Istnieją różne modele klimatu, które można uruchomić w celu symulacji temperatury troposferycznej (również w zależności od szerokości, długości i czasu). Modele te przyjmują na wejściu stężenie CO2, aktywność wulkaniczną, promieniowanie słoneczne, stężenie aerozoli i różne inne wpływy zewnętrzne, a na wyjściu wytwarzają temperaturę. Modele te można uruchamiać w tym samym okresie (1979 r. - teraz), wykorzystując rzeczywiste zmierzone wpływy zewnętrzne. Dane wyjściowe można następnie uśrednić, aby uzyskać średnią wydajność modelu.
Można również uruchomić te modele bez wprowadzania czynników antropogenicznych (gazy cieplarniane, aerozole itp.), Aby uzyskać wyobrażenie o prognozach nieantropogenicznych. Zauważ, że wszystkie inne czynniki (słoneczne / wulkaniczne / itp.) Oscylują wokół ich średnich wartości, więc wyniki nieantropogeniczne modelu są nieruchome ze względu na budowę. Innymi słowy, modele nie pozwalają na naturalną zmianę klimatu, bez żadnej konkretnej przyczyny zewnętrznej.
To, co widzisz w panelach A - D powyższego rysunku, to:z wartości dla różnych końcowych lat analizy.
Hipoteza zerowa polega na tym, że temperatura zmienia się pod wpływem stacjonarnych sygnałów słonecznych / wulkanicznych / itp. Bez dryfu. Wysokośćz wartości wskazują, że obserwowane temperatury troposferyczne nie są zgodne z tą hipotezą zerową.
4. Niektóre komentarze
Pierwszy odcisk palca (panel A) jest według IMHO najbardziej trywialny. Oznacza to po prostu, że obserwowane temperatury monotonicznie rosną, podczas gdy temperatury pod hipotezą zerową nie. Nie sądzę, że do wyciągnięcia takiego wniosku potrzebna jest cała ta skomplikowana maszyneria. Szereg czasowy średniej globalnej niższej temperatury troposferycznej (wariant RSS) wygląda następująco :
i wyraźnie istnieje tutaj bardzo znaczący trend. Nie sądzę, żeby ktoś to widział.
Odcisk palca w panelu B jest nieco bardziej interesujący. Tutaj odejmuje się średnią globalną, więcz -wartości nie zależą od rosnącej temperatury, ale od przestrzennych wzorów zmiany temperatury. Rzeczywiście, dobrze wiadomo, że półkula północna rozgrzewa się szybciej niż południowa (półkule można porównać tutaj: http://images.remss.com/msu/msu_time_series.html ), i to również modele klimatu wydajność. Panel B jest w dużej mierze wyjaśniony tą różnicą między półkulami.
Odcisk palca w panelu C jest prawdopodobnie jeszcze bardziej interesujący i był faktycznym celem Santera i in. Artykuł 2018 (przypomnij tytuł: „Wpływ człowieka na sezonowy cykl temperatur troposferycznych”, podkreślenie dodane). Jak pokazano na rysunku 2 w artykule, modele przewidują, że amplituda cyklu sezonowego powinna wzrosnąć na średnich szerokościach geograficznych obu półkul (i zmniejszyć się gdzie indziej, szczególnie w rejonie monsunu indyjskiego). Tak właśnie dzieje się w obserwowanych danych, przynosząc wysoką wartośćz -wartości w panelu C. Panel D jest podobny do C, ponieważ tutaj efekt nie wynika z globalnego wzrostu, ale z powodu określonego wzorca geograficznego.
PS Szczególna krytyka na judithcurry.com , którą podlinkowałeś powyżej, wydaje mi się dość powierzchowna. Podnoszą cztery punkty. Po pierwsze, te wykresy pokazują tylkoz -statystyki, ale nie wielkość efektu; jednakże otwierając Santer i in. W 2018 r. Wszystkie pozostałe liczby wyraźnie pokażą rzeczywiste wartości nachylenia, które są interesującym rozmiarem efektu. Drugi, którego nie rozumiałem; Podejrzewam, że to zamieszanie z ich strony. Trzeci dotyczy znaczenia hipotezy zerowej; jest to dość sprawiedliwe (ale nie na temat na CrossValidated). Ostatni rozwija pewien argument na temat autokorelowanych szeregów czasowych, ale nie rozumiem, jak to odnosi się do powyższego obliczenia.
źródło