Видаліть рядки з повторюваними індексами (Pandas DataFrame та TimeSeries)


252

Я читаю деякі автоматизовані дані про погоду з Інтернету. Спостереження відбуваються кожні 5 хвилин і складаються у щомісячні файли для кожної метеостанції. Як тільки я закінчую розбір файлу, DataFrame виглядає приблизно так:

                      Sta  Precip1hr  Precip5min  Temp  DewPnt  WindSpd  WindDir  AtmPress
Date                                                                                      
2001-01-01 00:00:00  KPDX          0           0     4       3        0        0     30.31
2001-01-01 00:05:00  KPDX          0           0     4       3        0        0     30.30
2001-01-01 00:10:00  KPDX          0           0     4       3        4       80     30.30
2001-01-01 00:15:00  KPDX          0           0     3       2        5       90     30.30
2001-01-01 00:20:00  KPDX          0           0     3       2       10      110     30.28

Проблема, яка у мене виникає, полягає в тому, що іноді вчений повертається назад і виправляє спостереження - не шляхом редагування помилкових рядків, а шляхом додавання дублюючого рядка до кінця файлу. Простий приклад такого випадку наведено нижче:

import pandas 
import datetime
startdate = datetime.datetime(2001, 1, 1, 0, 0)
enddate = datetime.datetime(2001, 1, 1, 5, 0)
index = pandas.DatetimeIndex(start=startdate, end=enddate, freq='H')
data1 = {'A' : range(6), 'B' : range(6)}
data2 = {'A' : [20, -30, 40], 'B' : [-50, 60, -70]}
df1 = pandas.DataFrame(data=data1, index=index)
df2 = pandas.DataFrame(data=data2, index=index[:3])
df3 = df2.append(df1)
df3
                       A   B
2001-01-01 00:00:00   20 -50
2001-01-01 01:00:00  -30  60
2001-01-01 02:00:00   40 -70
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2

І тому мені потрібно навіть df3рівномірно ставати:

                       A   B
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5

Я думав, що додавання стовпця номерів рядків ( df3['rownum'] = range(df3.shape[0])) допоможе мені вибрати найнижчий рядок для будь-якого значення DatetimeIndex, але я застряг у з'ясуванні висловлювань group_byабо pivot(або ???), щоб зробити цю роботу.


1
Ще один спосіб отримання дублікатів - погодинні дані в нічний час, коли годинники встановлюються на літній час: 1 ранку, 2, 3, 2, 3 знову, 4 ...
деніст

Відповіді:


467

Я б запропонував скопіювати метод дублювання в індексі Pandas:

df3 = df3.loc[~df3.index.duplicated(keep='first')]

Незважаючи на те, що всі інші методи працюють, наразі прийнята відповідь є найменш ефективним для наведеного прикладу. Крім того, хоча метод groupby є лише дещо менш ефективним, я вважаю, що дублюється метод є більш читабельним.

Використовуючи надані вибіркові дані:

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')
1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()
1000 loops, best of 3: 580 µs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]
1000 loops, best of 3: 307 µs per loop

Зауважте, що ви можете зберегти останній елемент, змінивши аргумент збереження.

Слід також зазначити, що цей метод також працює MultiIndex(використовуючи df1, як зазначено в прикладі Павла ):

>>> %timeit df1.groupby(level=df1.index.names).last()
1000 loops, best of 3: 771 µs per loop

>>> %timeit df1[~df1.index.duplicated(keep='last')]
1000 loops, best of 3: 365 µs per loop

3
locможе не знадобитися. Просто зробіть df3 = df3[~df3.index.duplicated(keep='first')], що випаде всі рядки з повторюваним індексом, крім першого виникнення.
lingjiankong

1
чи було б сенсом використовувати це для дуже великих часових рядів, де дублікати зазвичай є лише першими чи останніми значеннями?
сир

1
що робить ~ df3 = df3.loc [~ df3.index.duplicate (Keep = 'first')], якщо хтось не проти відповісти?
jsl5703

3
@ jsl5703 Маска обертається назад. Тож перетворюється все, що було True False і навпаки. У цьому випадку це означає, що ми виберемо ті, які не дублюються відповідно до методу.
n8yoder

115

Мою оригінальну відповідь, яка зараз застаріла, зберігається для довідки.

Просте рішення - використовувати drop_duplicates

df4 = df3.drop_duplicates(subset='rownum', keep='last')

Для мене це швидко діяло на великих наборах даних.

Для цього потрібно, щоб "rownum" був стовпцем з дублікатами. У модифікованому прикладі "rownum" не має дублікатів, тому нічого не усувається. Ми дійсно хочемо, щоб «cols» були встановлені в індекс. Я не знайшов способу сказати drop_duplicates лише розглянути індекс.

Ось рішення, яке додає індекс у стовпчик фрейму даних, опускає дублікати, а потім видаляє новий стовпець:

df3 = df3.reset_index().drop_duplicates(subset='index', keep='last').set_index('index')

І якщо ви хочете, щоб речі повернулися в належному порядку, просто зателефонуйте sortдо фрейму даних.

df3 = df3.sort()

10
Ще одна варіація щодо цього:df.reset_index().drop_duplicates(cols='index',take_last=True).set_index('index')
Luciano

Хоча цей метод працює, він також створює дві тимчасові копії DataFrame і значно менш ефективні, ніж використання методів дублювання індексу або groupby, запропонованих як альтернативні відповіді.
n8yoder

Якщо ваш індекс - MultiIndex, додайте reset_index()стовпці level_0, level_1 тощо. І якщо ваш індекс має ім'я, це ім'я буде використано замість мітки "index". Це робить це трохи більше, ніж однолінійний, щоб зробити це правильно для будь-якої DataFrame. index_label = getattr(df.index, 'names', getattr(df.index, 'name', 'index'))то cols=index_labelтоді, set_index(index_labels)і навіть це не є бездоганним (не буде працювати для неназваних мультиіндексів).
варильні панелі

1
Переміщення індексу до стовпця, очищення дублікатів та скидання індексу було приголомшливим, саме це мені було потрібно!
mxplusb

З огляду на те idx = df.index.name or 'index', можна також df2 = df.reset_index(); df2.drop_duplicates(idx, inplace=True); df2.set_index(idx, inplace=True)уникати проміжних копій (завдяки inplace=True)
Анаханд

67

О Боже. Це насправді так просто!

grouped = df3.groupby(level=0)
df4 = grouped.last()
df4
                      A   B  rownum

2001-01-01 00:00:00   0   0       6
2001-01-01 01:00:00   1   1       7
2001-01-01 02:00:00   2   2       8
2001-01-01 03:00:00   3   3       3
2001-01-01 04:00:00   4   4       4
2001-01-01 05:00:00   5   5       5

Продовжуйте редагувати 2013-10-29 У випадку, коли у мене досить складний MultiIndex, я думаю, що я віддаю перевагу groupbyпідходу. Ось простий приклад для нащадків:

import numpy as np
import pandas

# fake index
idx = pandas.MultiIndex.from_tuples([('a', letter) for letter in list('abcde')])

# random data + naming the index levels
df1 = pandas.DataFrame(np.random.normal(size=(5,2)), index=idx, columns=['colA', 'colB'])
df1.index.names = ['iA', 'iB']

# artificially append some duplicate data
df1 = df1.append(df1.select(lambda idx: idx[1] in ['c', 'e']))
df1
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233
#   c   0.275806 -0.078871  # <--- dup 1
#   e  -0.066680  0.607233  # <--- dup 2

і ось важлива частина

# group the data, using df1.index.names tells pandas to look at the entire index
groups = df1.groupby(level=df1.index.names)  
groups.last() # or .first()
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233

якщо вони мають імена, то в іншому випадку (якщо одне ім’я немає None), скажімо, level=[0,1]буде працювати, якщо є 2 рівні df1.groupby(level=[0,1]).last(). Це повинно бути частиною панд в якості комплементарноїdrop_duplicates
dashesy

@dashesy так. Використання df.index.names- це просто простий спосіб групування за всіма рівнями індексу.
Пол H

Чудове рішення, дякую! Я також додам, що це працює в xarrayроботі з дублікатами індексів DateTime, а також тим, що роблять ds.resampleі ds.groupbyоперації
закінчуються

Поправка до мого попереднього коментарю: він працює в xarrayтих пір , як ви зміните grouped = df3.groupby(level=0)до grouped = df3.groupby(dim='time')або незалежно від розмірності , який містить дублікати
DRG

4

На жаль, я не думаю, що Pandas дозволяє опускати дублі з індексів. Я б запропонував таке:

df3 = df3.reset_index() # makes date column part of your data
df3.columns = ['timestamp','A','B','rownum'] # set names
df3 = df3.drop_duplicates('timestamp',take_last=True).set_index('timestamp') #done!

1

Якщо комусь, як я, подобається обробляти доступні дані, використовуючи позначення крапок панди (наприклад, трубопроводи), то може бути корисним наступне:

df3 = df3.query('~index.duplicated()')

Це дозволяє зв'язати такі оператори:

df3.assign(C=2).query('~index.duplicated()').mean()

Я спробував це, але не зміг змусити його працювати. Я отримую помилку на зразок такої: TypeError: 'Series' objects are mutable, thus they cannot be hashed.. Це насправді спрацювало для вас?
Онно Еберхард

1

Видалення дублікатів (зберігання першим)

idx = np.unique( df.index.values, return_index = True )[1]
df = df.iloc[idx]

Видалення дублікатів (Тримання останніх)

df = df[::-1]
df = df.iloc[ np.unique( df.index.values, return_index = True )[1] ]

Тести: 10k циклів із використанням даних OP

numpy method - 3.03 seconds
df.loc[~df.index.duplicated(keep='first')] - 4.43 seconds
df.groupby(df.index).first() - 21 seconds
reset_index() method - 29 seconds
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.