Mam pand DataFrame formularza:
id start_time sequence_no value
0 71 2018-10-17 20:12:43+00:00 114428 3
1 71 2018-10-17 20:12:43+00:00 114429 3
2 71 2018-10-17 20:12:43+00:00 114431 79
3 71 2019-11-06 00:51:14+00:00 216009 100
4 71 2019-11-06 00:51:14+00:00 216011 150
5 71 2019-11-06 00:51:14+00:00 216013 180
6 92 2019-12-01 00:51:14+00:00 114430 19
7 92 2019-12-01 00:51:14+00:00 114433 79
8 92 2019-12-01 00:51:14+00:00 114434 100
Co staram się zrobić to wypełnić brakujące sequence_no
per id
/ start_time
combo. Na przykład, id
/ start_time
parowania 71
i 2018-10-17 20:12:43+00:00
jest brak sequence_no 114430. Dla każdego dodanego brakującej sequence_no, również potrzeba średnio / interpolacji brakujących value
wartości kolumny. Tak więc końcowe przetwarzanie powyższych danych wyglądałoby następująco:
id start_time sequence_no value
0 71 2018-10-17 20:12:43+00:00 114428 3
1 71 2018-10-17 20:12:43+00:00 114429 3
2 71 2018-10-17 20:12:43+00:00 114430 41 **
3 71 2018-10-17 20:12:43+00:00 114431 79
4 71 2019-11-06 00:51:14+00:00 216009 100
5 71 2019-11-06 00:51:14+00:00 216010 125 **
6 71 2019-11-06 00:51:14+00:00 216011 150
7 71 2019-11-06 00:51:14+00:00 216012 165 **
8 71 2019-11-06 00:51:14+00:00 216013 180
9 92 2019-12-01 00:51:14+00:00 114430 19
10 92 2019-12-01 00:51:14+00:00 114431 39 **
11 92 2019-12-01 00:51:14+00:00 114432 59 **
12 92 2019-12-01 00:51:14+00:00 114433 79
13 92 2019-12-01 00:51:14+00:00 114434 100
( **
dodano po prawej stronie nowo wstawionych wierszy dla łatwiejszej czytelności)
Moje oryginalne rozwiązanie tego polegało w dużej mierze na pętlach Pythona nad dużą tabelą danych, więc wydawało się, że jest to idealne miejsce dla numpy i pand. Opierając się na SO odpowiedziach, takich jak Pandy: tworzyć wiersze, aby wypełnić luki numeryczne , wymyśliłem:
import pandas as pd
import numpy as np
# Generate dummy data
df = pd.DataFrame([
(71, '2018-10-17 20:12:43+00:00', 114428, 3),
(71, '2018-10-17 20:12:43+00:00', 114429, 3),
(71, '2018-10-17 20:12:43+00:00', 114431, 79),
(71, '2019-11-06 00:51:14+00:00', 216009, 100),
(71, '2019-11-06 00:51:14+00:00', 216011, 150),
(71, '2019-11-06 00:51:14+00:00', 216013, 180),
(92, '2019-12-01 00:51:14+00:00', 114430, 19),
(92, '2019-12-01 00:51:14+00:00', 114433, 79),
(92, '2019-12-01 00:51:14+00:00', 114434, 100),
], columns=['id', 'start_time', 'sequence_no', 'value'])
# create a new DataFrame with the min/max `sequence_no` values for each `id`/`start_time` pairing
by_start = df.groupby(['start_time', 'id'])
ranges = by_start.agg(
sequence_min=('sequence_no', np.min), sequence_max=('sequence_no', np.max)
)
reset = ranges.reset_index()
mins = reset['sequence_min']
maxes = reset['sequence_max']
# Use those min/max values to generate a sequence with ALL values in that range
expanded = pd.DataFrame(dict(
start_time=reset['start_time'].repeat(maxes - mins + 1),
id=reset['id'].repeat(maxes - mins + 1),
sequence_no=np.concatenate([np.arange(mins, maxes + 1) for mins, maxes in zip(mins, maxes)])
))
# Use the above generated DataFrame as an index to generate the missing rows, then interpolate
expanded_index = pd.MultiIndex.from_frame(expanded)
df.set_index(
['start_time', 'id', 'sequence_no']
).reindex(expanded_index).interpolate()
Dane wyjściowe są poprawne, ale działają prawie dokładnie z tą samą prędkością, co moje rozwiązanie wielu partii pętli python. Jestem pewien, że są miejsca, które mógłbym wyciąć o kilka kroków, ale najwolniejszą częścią moich testów wydaje się być reindex
. Biorąc pod uwagę, że dane ze świata rzeczywistego składają się z prawie miliona wierszy (często używanych), czy istnieją oczywiste sposoby na uzyskanie przewagi wydajności w stosunku do tego, co już napisałem? Jakieś sposoby na przyspieszenie tej transformacji?
Aktualizacja 9.12.2019
Połączenie rozwiązania scalającego z tej odpowiedzi z oryginalną konstrukcją rozszerzonej ramki danych daje jak dotąd najszybsze wyniki, gdy jest testowany na wystarczająco dużym zestawie danych:
import pandas as pd
import numpy as np
# Generate dummy data
df = pd.DataFrame([
(71, '2018-10-17 20:12:43+00:00', 114428, 3),
(71, '2018-10-17 20:12:43+00:00', 114429, 3),
(71, '2018-10-17 20:12:43+00:00', 114431, 79),
(71, '2019-11-06 00:51:14+00:00', 216009, 100),
(71, '2019-11-06 00:51:14+00:00', 216011, 150),
(71, '2019-11-06 00:51:14+00:00', 216013, 180),
(92, '2019-12-01 00:51:14+00:00', 114430, 19),
(92, '2019-12-01 00:51:14+00:00', 114433, 79),
(92, '2019-12-01 00:51:14+00:00', 114434, 100),
], columns=['id', 'start_time', 'sequence_no', 'value'])
# create a ranges df with groupby and agg
ranges = df.groupby(['start_time', 'id'])['sequence_no'].agg([
('sequence_min', np.min), ('sequence_max', np.max)
])
reset = ranges.reset_index()
mins = reset['sequence_min']
maxes = reset['sequence_max']
# Use those min/max values to generate a sequence with ALL values in that range
expanded = pd.DataFrame(dict(
start_time=reset['start_time'].repeat(maxes - mins + 1),
id=reset['id'].repeat(maxes - mins + 1),
sequence_no=np.concatenate([np.arange(mins, maxes + 1) for mins, maxes in zip(mins, maxes)])
))
# merge expanded and df
merge = expanded.merge(df, on=['start_time', 'id', 'sequence_no'], how='left')
# interpolate and assign values
merge['value'] = merge['value'].interpolate()
merge
jest znacznie szybszy niżreindex
, ale okazuje się, żeexplode
jest bardzo wolny na większych zestawach danych. Łącząc scalenie z oryginalną konstrukcją rozszerzonego zestawu danych, otrzymujemy najszybszą jak dotąd implementację (patrz aktualizacja 9.12.2019 do pytania)copy=False
do scalania powinno nieco przyspieszyć, a także uniknąć niepotrzebnego kopiowania danych.merge = expanded.merge(df, on=['start_time', 'id', 'sequence_no'], how='left', copy=False)
Krótsza wersja
merge
rozwiązania:Wynik:
źródło
Inne rozwiązanie
reindex
bez użyciaexplode
:źródło