Aby dopasować y = A + B log x , po prostu dopasuj y do (log x ).
>>> x = numpy.array([1, 7, 20, 50, 79])
>>> y = numpy.array([10, 19, 30, 35, 51])
>>> numpy.polyfit(numpy.log(x), y, 1)
array([ 8.46295607, 6.61867463])
# y ≈ 8.46 log(x) + 6.62
Aby dopasować y = Ae Bx , weź logarytm z obu stron, aby uzyskać log y = log A + Bx . Więc dopasuj (log y ) do x .
Zauważ, że dopasowanie (log y ) tak, jakby było liniowe, uwydatni małe wartości y , powodując duże odchylenie dla dużego y . Dzieje się tak, ponieważ polyfit
(regresja liniowa) działa poprzez minimalizację ∑ i (Δ Y ) 2 = ∑ i ( Y i - Ŷ i ) 2 . Gdy Y i = log y i , reszty Δ Y i = Δ (log y i ) ≈ Δ y i / | y i |. Więc nawet jeślipolyfit
podejmuje bardzo złą decyzję dla dużego y , funkcja „dziel przez | y |” czynnik zrekompensuje to, powodując polyfit
faworyzowanie małych wartości.
Można to złagodzić, nadając każdemu wpisowi „wagę” proporcjonalną do y . polyfit
obsługuje ważone najmniejsze kwadraty za pośrednictwem w
argumentu słowa kluczowego.
>>> x = numpy.array([10, 19, 30, 35, 51])
>>> y = numpy.array([1, 7, 20, 50, 79])
>>> numpy.polyfit(x, numpy.log(y), 1)
array([ 0.10502711, -0.40116352])
# y ≈ exp(-0.401) * exp(0.105 * x) = 0.670 * exp(0.105 * x)
# (^ biased towards small values)
>>> numpy.polyfit(x, numpy.log(y), 1, w=numpy.sqrt(y))
array([ 0.06009446, 1.41648096])
# y ≈ exp(1.42) * exp(0.0601 * x) = 4.12 * exp(0.0601 * x)
# (^ not so biased)
Zwróć uwagę, że Excel, LibreOffice i większość kalkulatorów naukowych zazwyczaj używa nieważonego (obciążonego) wzoru na linie wykładniczej regresji / trendu. Jeśli chcesz, aby Twoje wyniki były zgodne z tymi platformami, nie dołączaj wag, nawet jeśli zapewnia to lepsze wyniki.
Teraz, jeśli możesz użyć scipy, możesz użyć scipy.optimize.curve_fit
do dopasowania dowolnego modelu bez przekształceń.
Dla y = A + B log x wynik jest taki sam jak w przypadku metody transformacji:
>>> x = numpy.array([1, 7, 20, 50, 79])
>>> y = numpy.array([10, 19, 30, 35, 51])
>>> scipy.optimize.curve_fit(lambda t,a,b: a+b*numpy.log(t), x, y)
(array([ 6.61867467, 8.46295606]),
array([[ 28.15948002, -7.89609542],
[ -7.89609542, 2.9857172 ]]))
# y ≈ 6.62 + 8.46 log(x)
Jednak dla y = Ae Bx możemy uzyskać lepsze dopasowanie, ponieważ bezpośrednio oblicza Δ (log y ). Ale musimy podać przypuszczenie inicjalizacji, aby curve_fit
osiągnąć pożądane lokalne minimum.
>>> x = numpy.array([10, 19, 30, 35, 51])
>>> y = numpy.array([1, 7, 20, 50, 79])
>>> scipy.optimize.curve_fit(lambda t,a,b: a*numpy.exp(b*t), x, y)
(array([ 5.60728326e-21, 9.99993501e-01]),
array([[ 4.14809412e-27, -1.45078961e-08],
[ -1.45078961e-08, 5.07411462e+10]]))
# oops, definitely wrong.
>>> scipy.optimize.curve_fit(lambda t,a,b: a*numpy.exp(b*t), x, y, p0=(4, 0.1))
(array([ 4.88003249, 0.05531256]),
array([[ 1.01261314e+01, -4.31940132e-02],
[ -4.31940132e-02, 1.91188656e-04]]))
# y ≈ 4.88 exp(0.0553 x). much better.
y
jest to małe, zostaną sztucznie przeważone. Lepiej jest zdefiniować funkcję (liniową, a nie transformację logarytmiczną) i użyć dopasowania krzywej lub minimalizatora.Można także dopasować zestaw do danych niezależnie od funkcji, którą jak przy użyciu
curve_fit
odscipy.optimize
. Na przykład, jeśli chcesz dopasować funkcję wykładniczą (z dokumentacji ):A jeśli chcesz spiskować, możesz zrobić:
(Uwaga:
*
przedpopt
kiedy wykreślić rozszerzy się z pojęć doa
,b
ic
żefunc
. Spodziewa)źródło
a
,b
ic
?Miałem z tym pewien problem, więc pozwól, że wyrażę się bardzo wyraźnie, aby nikt taki jak ja mógł to zrozumieć.
Powiedzmy, że mamy plik danych lub coś w tym rodzaju
wynik to: a = 0,849195983017, b = -1,18101681765, c = 2,24061176543, d = 0,816643894816
źródło
y = [np.exp(i) for i in x]
jest bardzo wolny; jednym z powodów, dla których powstał numpy, było to, że możesz pisaćy=np.exp(x)
. Ponadto dzięki tej zamianie możesz pozbyć się swojej brutalnej sekcji siłowej. W ipythonie jest%timeit
magia, z którejIn [27]: %timeit ylist=[exp(i) for i in x] 10000 loops, best of 3: 172 us per loop In [28]: %timeit yarr=exp(x) 100000 loops, best of 3: 2.85 us per loop
x = np.array(x, dtype=float)
powinno umożliwić Ci pozbycie się powolnego rozumienia list.Cóż, myślę, że zawsze możesz użyć:
Nieznacznie modyfikując odpowiedź IanVS :
Daje to następujący wykres:
źródło
Oto opcja linearyzacji prostych danych, która wykorzystuje narzędzia ze scikit Learn .
Dany
Kod
Dopasuj dane wykładnicze
Dopasuj dane dziennika
Detale
Ogólne kroki
x
,y
lub obu)np.exp()
) i dopasowanie do oryginalnych danychZakładając, że nasze dane są zgodne z trendem wykładniczym, ogólne równanie + może wyglądać następująco:
Możemy zlinearyzować to drugie równanie (np. Y = punkt przecięcia z osią + nachylenie * x), biorąc logarytm :
Mając zlinearyzowane równanie ++ i parametry regresji, moglibyśmy obliczyć:
A
przez przechwycenie (ln(A)
)B
przez zbocze (B
)Podsumowanie technik linearyzacji
+ Uwaga: linearyzacja funkcji wykładniczych działa najlepiej, gdy szum jest mały i C = 0. Używaj ostrożnie.
++ Uwaga: podczas gdy zmiana danych x pomaga linearyzować dane wykładnicze , zmiana danych y pomaga w linearyzacji danych dziennika .
źródło
Pokazujemy cechy
lmfit
przy rozwiązywaniu obu problemów.Dany
Kod
Podejście 1 -
lmfit
ModelDopasuj dane wykładnicze
Podejście 2 - model niestandardowy
Dopasuj dane dziennika
Detale
Możesz określić wywnioskowane parametry z obiektu regresora. Przykład:
Uwaga:
ExponentialModel()
następuje funkcja rozpadu , która przyjmuje dwa parametry, z których jeden jest ujemny.Zobacz także
ExponentialGaussianModel()
, który akceptuje więcej parametrów .Zainstaluj bibliotekę za pośrednictwem
> pip install lmfit
.źródło
Wolfram ma rozwiązanie w postaci zamkniętej do dopasowania wykładniczego . Mają również podobne rozwiązania do dopasowywania prawa logarytmicznego i potęgowego .
Okazało się, że to działa lepiej niż curve_fit w scipy. Oto przykład:
źródło