Mam ramkę danych pandy (to tylko mały kawałek)
>>> d1
y norm test y norm train len(y_train) len(y_test) \
0 64.904368 116.151232 1645 549
1 70.852681 112.639876 1645 549
SVR RBF \
0 (35.652207342877873, 22.95533537448393)
1 (39.563683797747622, 27.382483096332511)
LCV \
0 (19.365430594452338, 13.880062435173587)
1 (19.099614489458364, 14.018867136617146)
RIDGE CV \
0 (4.2907610988480362, 12.416745648065584)
1 (4.18864306788194, 12.980833914392477)
RF \
0 (9.9484841581029428, 16.46902345373697)
1 (10.139848213735391, 16.282141345406522)
GB \
0 (0.012816232716538605, 15.950164822266007)
1 (0.012814519804493328, 15.305745202851712)
ET DATA
0 (0.00034337162272515505, 16.284800366214057) j2m
1 (0.00024811554516431878, 15.556506191784194) j2m
>>>
Chcę podzielić wszystkie kolumny zawierające krotki. Na przykład chcę zastąpić kolumnę LCV
kolumnami LCV-a
i LCV-b
.
Jak mogę to zrobić?
Na znacznie większych zbiorach danych stwierdziłem, że
.apply()
jest to kilka zamówień wolniej niżpd.DataFrame(df['b'].values.tolist(), index=df.index)
Ten problem z wydajnością został zamknięty w GitHubie, chociaż nie zgadzam się z tą decyzją:
https://github.com/pandas-dev/pandas/issues/11615
EDYCJA: na podstawie tej odpowiedzi: https://stackoverflow.com/a/44196843/2230844
źródło
pd.DataFrame(df['b'].tolist())
bez.values
wydaje się działać dobrze. (I dzięki, twoje rozwiązanie jest znacznie szybsze niż.apply()
)str
Accessor która jest dostępna dlapandas.Series
obiektówdtype == object
jest faktycznie iterable.Załóżmy
pandas.DataFrame
df
:df = pd.DataFrame(dict(col=[*zip('abcdefghij', range(10, 101, 10))])) df col 0 (a, 10) 1 (b, 20) 2 (c, 30) 3 (d, 40) 4 (e, 50) 5 (f, 60) 6 (g, 70) 7 (h, 80) 8 (i, 90) 9 (j, 100)
Możemy sprawdzić, czy jest to iterowalne
from collections import Iterable isinstance(df.col.str, Iterable) True
Następnie możemy z niego przypisać, tak jak robimy inne iterowalne:
var0, var1 = 'xy' print(var0, var1) x y
Najprostsze rozwiązanie
Czyli w jednej linii możemy przypisać obie kolumny
df['a'], df['b'] = df.col.str df col a b 0 (a, 10) a 10 1 (b, 20) b 20 2 (c, 30) c 30 3 (d, 40) d 40 4 (e, 50) e 50 5 (f, 60) f 60 6 (g, 70) g 70 7 (h, 80) h 80 8 (i, 90) i 90 9 (j, 100) j 100
Szybsze rozwiązanie
Tylko trochę bardziej skomplikowane, możemy użyć
zip
do stworzenia podobnej iteracjidf['c'], df['d'] = zip(*df.col) df col a b c d 0 (a, 10) a 10 a 10 1 (b, 20) b 20 b 20 2 (c, 30) c 30 c 30 3 (d, 40) d 40 d 40 4 (e, 50) e 50 e 50 5 (f, 60) f 60 f 60 6 (g, 70) g 70 g 70 7 (h, 80) h 80 h 80 8 (i, 90) i 90 i 90 9 (j, 100) j 100 j 100
Inline
Znaczenie, nie modyfikuj istniejących
df
Działa to, ponieważ
assign
przyjmuje argumenty słów kluczowych, w których słowa kluczowe są nowymi (lub istniejącymi) nazwami kolumn, a wartości będą wartościami nowej kolumny. Możesz użyć słownika, rozpakować go i sprawić,**
by działał jako argumenty słów kluczowych. Jest to więc sprytny sposób przypisania nowej kolumny o nazwie,'g'
która jest pierwszą pozycją wdf.col.str
iterowalnej i'h'
jest drugą pozycją wdf.col.str
iterowalnej.df.assign(**dict(zip('gh', df.col.str))) col g h 0 (a, 10) a 10 1 (b, 20) b 20 2 (c, 30) c 30 3 (d, 40) d 40 4 (e, 50) e 50 5 (f, 60) f 60 6 (g, 70) g 70 7 (h, 80) h 80 8 (i, 90) i 90 9 (j, 100) j 100
Moja wersja
list
podejściaZ nowoczesnym zrozumieniem list i rozpakowywaniem zmiennych.
Uwaga: również przy użyciu inline
join
df.join(pd.DataFrame([*df.col], df.index, [*'ef'])) col g h 0 (a, 10) a 10 1 (b, 20) b 20 2 (c, 30) c 30 3 (d, 40) d 40 4 (e, 50) e 50 5 (f, 60) f 60 6 (g, 70) g 70 7 (h, 80) h 80 8 (i, 90) i 90 9 (j, 100) j 100
Wersja mutująca byłaby
df[['e', 'f']] = pd.DataFrame([*df.col], df.index)
Naiwny test czasu
Short DataFrameUżyj jednego zdefiniowanego powyżej
Długi DataFrame%timeit df.assign(**dict(zip('gh', df.col.str))) %timeit df.assign(**dict(zip('gh', zip(*df.col)))) %timeit df.join(pd.DataFrame([*df.col], df.index, [*'gh'])) 1.16 ms ± 21.5 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each) 635 µs ± 18.7 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each) 795 µs ± 42.5 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
10 ^ 3 razy większy
df = pd.concat([df] * 1000, ignore_index=True) %timeit df.assign(**dict(zip('gh', df.col.str))) %timeit df.assign(**dict(zip('gh', zip(*df.col)))) %timeit df.join(pd.DataFrame([*df.col], df.index, [*'gh'])) 11.4 ms ± 1.53 ms per loop (mean ± std. dev. of 7 runs, 100 loops each) 2.1 ms ± 41.4 µs per loop (mean ± std. dev. of 7 runs, 100 loops each) 2.33 ms ± 35.1 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
źródło
df['a'], df['b'] = df.col.str
:)Myślę, że prostszy sposób to:
>>> import pandas as pd >>> df = pd.DataFrame({'a':[1,2], 'b':[(1,2), (3,4)]}) >>> df a b 0 1 (1, 2) 1 2 (3, 4) >>> df['b_a']=df['b'].str[0] >>> df['b_b']=df['b'].str[1] >>> df a b b_a b_b 0 1 (1, 2) 1 2 1 2 (3, 4) 3 4
źródło
str
reprezentacjipd.Series
obiektu. Czy możesz wyjaśnić, jak to w ogóle działa ?!Wiem, że to było jakiś czas temu, ale zastrzeżenie drugiego rozwiązania:
pd.DataFrame(df['b'].values.tolist())
polega na tym, że jawnie odrzuci indeks i doda domyślny indeks sekwencyjny, podczas gdy zaakceptowana odpowiedź
nie, ponieważ wynik zastosowania zachowa indeks wiersza. Podczas gdy kolejność jest początkowo zachowywana z oryginalnej tablicy, pandy będą próbowały dopasować wskazania z dwóch ramek danych.
Może to być bardzo ważne, jeśli próbujesz ustawić wiersze w tablicy indeksowanej numerycznie, a pandy automatycznie spróbują dopasować indeks nowej tablicy do starej i spowodować pewne zniekształcenia w kolejności.
Lepszym rozwiązaniem hybrydowym byłoby ustawienie indeksu oryginalnej ramki danych na nową, tj
pd.DataFrame(df['b'].values.tolist(), index=df.index)
Który zachowa szybkość korzystania z drugiej metody, zapewniając jednocześnie zachowanie kolejności i indeksowania wyniku.
źródło