Перевірте, чи містить стовпчик панди всі елементи зі списку


20

У мене такий df:

frame = pd.DataFrame({'a' : ['a,b,c', 'a,c,f', 'b,d,f','a,z,c']})

І список предметів:

letters = ['a','c']

Моя мета - отримати всі рядки, frameякі містять принаймні два елементиletters

Я придумав таке рішення:

for i in letters:
    subframe = frame[frame['a'].str.contains(i)]

Це дає мені те, що я хочу, але це може бути не найкращим рішенням з точки зору масштабованості. Чи є якесь «векторизоване» рішення? Дякую


4
Він дасть вам лише рядки, які містять останню букву, оскільки ви перекриваєте підрамник у будь-якій ітерації
Том Рон,

@TomRon Ти маєш рацію, яка помилка :)
Каубер

Відповіді:


12

Я буду складати список серій, а потім застосовувати векторизований np.all:

contains = [frame['a'].str.contains(i) for i in letters]
resul = frame[np.all(contains, axis=0)]

Він дає, як очікувалося:

       a
0  a,b,c
1  a,c,f
3  a,z,c

3
congratz на 100k!
Пітер Хаддад

14

Один із способів - розділити значення стовпців на списки за допомогою str.splitта перевірити, чи set(letters)є один subsetіз отриманих списків:

letters_s = set(letters)
frame[frame.a.str.split(',').map(letters_s.issubset)]

     a
0  a,b,c
1  a,c,f
3  a,z,c


Орієнтир:

def serge(frame):
    contains = [frame['a'].str.contains(i) for i in letters]
    return frame[np.all(contains, axis=0)]

def yatu(frame):
    letters_s = set(letters)
    return frame[frame.a.str.split(',').map(letters_s.issubset)]

def austin(frame):
    mask =  frame.a.apply(lambda x: np.intersect1d(x.split(','), letters).size > 0)
    return frame[mask]

def datanovice(frame):
    s = frame['a'].str.split(',').explode().isin(letters).groupby(level=0).cumsum()
    return frame.loc[s[s.ge(2)].index.unique()]

perfplot.show(
    setup=lambda n: pd.concat([frame]*n, axis=0).reset_index(drop=True), 

    kernels=[
        lambda df: serge(df),
        lambda df: yatu(df),
        lambda df: df[df['a'].apply(lambda x: np.all([*map(lambda l: l in x, letters)]))],
        lambda df: austin(df),
        lambda df: datanovice(df),
    ],

    labels=['serge', 'yatu', 'bruno','austin', 'datanovice'],
    n_range=[2**k for k in range(0, 18)],
    equality_check=lambda x, y: x.equals(y),
    xlabel='N'
)

введіть тут опис зображення


Я отримую, TypeError: unhashable type: 'set'коли запускаю ваш код? запустив його на передбаченому кадрі абе
Datanovice

Яка версія? @Datanovice Подвійна перевірка і все здається нормально
yatu

мої панди є, 1.0.3а пітон, 3.7мабуть, тільки я
Datanovice

3
@Datanovice Я думаю, вам потрібен python 3.8 для цього :)
anky

2
Дякую, я отримую таку ж помилку, що і @Datanovice, і не можу перейти на python 3.8 на жаль
Kauber

7

Ви можете використовувати np.intersect1d:

import pandas as pd
import numpy as np

frame = pd.DataFrame({'a' : ['a,b,c', 'a,c,f', 'b,d,f','a,z,c']})
letters = ['a','c']

mask =  frame.a.apply(lambda x: np.intersect1d(x.split(','), letters).size > 0)
print(frame[mask])

    a
0  a,b,c
1  a,c,f
3  a,z,c


6

Використовуйте set.issubset :

frame = pd.DataFrame({'a' : ['a,b,c', 'a,c,f', 'b,d,f','a,z,c','x,y']})
letters = ['a','c']

frame[frame['a'].apply(lambda x: set(letters).issubset(x))]

Out:

       a
0  a,b,c
1  a,c,f
3  a,z,c

5

IIUC explodeта булевий фільтр

ідея полягає у створенні однієї серії, тоді ми можемо групувати за індексом підрахунок справжніх подій вашого списку за допомогою накопичувальної суми

s = frame['a'].str.split(',').explode().isin(letters).groupby(level=0).cumsum()

print(s)

0    1.0
0    1.0
0    2.0
1    1.0
1    2.0
1    2.0
2    0.0
2    0.0
2    0.0
3    1.0
3    1.0
3    2.0

frame.loc[s[s.ge(2)].index.unique()]

out:

       a
0  a,b,c
1  a,c,f
3  a,z,c

1
frame.iloc[[x for x in range(len(frame)) if set(letters).issubset(frame.iloc[x,0])]]

вихід:

        a
 0  a,b,c
 1  a,c,f
 3  a,z,c

timeit

%%timeit
#hermes
frame.iloc[[x for x in range(len(frame)) if set(letters).issubset(frame.iloc[x,0])]]

вихід

300 µs ± 32.9 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.