Мені потрібно знайти частоту елементів у невпорядкованому списку
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
вихід->
b = [4,4,2,1,2]
Також я хочу видалити дублікати з
a = [1,2,3,4,5]
Мені потрібно знайти частоту елементів у невпорядкованому списку
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
вихід->
b = [4,4,2,1,2]
Також я хочу видалити дублікати з
a = [1,2,3,4,5]
Відповіді:
Примітка. Ви повинні сортувати список перед використанням groupby
.
Ви можете використовувати groupby
з itertools
пакету, якщо список є упорядкованим списком.
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
from itertools import groupby
[len(list(group)) for key, group in groupby(a)]
Вихід:
[4, 4, 2, 1, 2]
groupby
. Мене цікавить його ефективність та диктичний підхід, хоча
sum(1 for _ in group)
.
[(key, len(list(group))) for key, group in groupby(a)]
або {key: len(list(group)) for key, group in groupby(a)}
@buhtz
У Python 2.7 (або новіших версіях) ви можете використовувати collections.Counter
:
import collections
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
counter=collections.Counter(a)
print(counter)
# Counter({1: 4, 2: 4, 3: 2, 5: 2, 4: 1})
print(counter.values())
# [4, 4, 2, 1, 2]
print(counter.keys())
# [1, 2, 3, 4, 5]
print(counter.most_common(3))
# [(1, 4), (2, 4), (3, 2)]
Якщо ви використовуєте Python 2.6 або новіші, ви можете завантажити його тут .
collections.Counter
є підкласом dict
. Ви можете використовувати його так само, як і звичайний дикт. Якщо ви дійсно хочете дикту, однак, ви можете перетворити його на дикт, використовуючи dict(counter)
.
Python 2.7+ впроваджує розуміння словника. Створення словника зі списку дозволить вам підрахувати, а також позбутися дублікатів.
>>> a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>> d = {x:a.count(x) for x in a}
>>> d
{1: 4, 2: 4, 3: 2, 4: 1, 5: 2}
>>> a, b = d.keys(), d.values()
>>> a
[1, 2, 3, 4, 5]
>>> b
[4, 4, 2, 1, 2]
{x:a.count(x) for x in set(a)}
a.count()
робить повний обхід кожного елемента a
, роблячи це квадратичним підходом O (N ^ 2). collections.Counter()
є набагато більш ефективним , оскільки він розраховує лінійний час (O (N)). У числах це означає, що цей підхід виконає 1 мільйон кроків для списку довжиною 1000, проти всього 1000 кроків з Counter()
, 10 ^ 12 кроків, коли лише 10 ^ 6 потрібно Counter для мільйона елементів у списку тощо.
a.count()
повністю карликів в ефективності використання набору там.
Щоб підрахувати кількість виступів:
from collections import defaultdict
appearances = defaultdict(int)
for curr in a:
appearances[curr] += 1
Щоб видалити дублікати:
a = set(a)
Counter
може використовувати кілька числових типів, включаючи float
або Decimal
, не тільки int
.
У Python 2.7+ ви можете використовувати collection.Counter для підрахунку елементів
>>> a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>>
>>> from collections import Counter
>>> c=Counter(a)
>>>
>>> c.values()
[4, 4, 2, 1, 2]
>>>
>>> c.keys()
[1, 2, 3, 4, 5]
Підрахунок частоти елементів, мабуть, найкраще зробити зі словником:
b = {}
for item in a:
b[item] = b.get(item, 0) + 1
Щоб видалити дублікати, використовуйте набір:
a = list(set(a))
defaultdict
.
b = {k:0 for k in a}
:?
Ось ще одна альтернатива використання, itertools.groupby
яка також працює для невпорядкованого введення:
from itertools import groupby
items = [5, 1, 1, 2, 2, 1, 1, 2, 2, 3, 4, 3, 5]
results = {value: len(list(freq)) for value, freq in groupby(sorted(items))}
результати
{1: 4, 2: 4, 3: 2, 4: 1, 5: 2}
Ви можете зробити це:
import numpy as np
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
np.unique(a, return_counts=True)
Вихід:
(array([1, 2, 3, 4, 5]), array([4, 4, 2, 1, 2], dtype=int64))
Перший масив - це значення, а другий масив - кількість елементів з цими значеннями.
Отже, якщо ви хочете отримати просто масив з числами, вам слід скористатися цим:
np.unique(a, return_counts=True)[1]
from collections import Counter
a=["E","D","C","G","B","A","B","F","D","D","C","A","G","A","C","B","F","C","B"]
counter=Counter(a)
kk=[list(counter.keys()),list(counter.values())]
pd.DataFrame(np.array(kk).T, columns=['Letter','Count'])
seta = set(a)
b = [a.count(el) for el in seta]
a = list(seta) #Only if you really want it.
count
є смішно дорогим і не вимагається в цьому сценарії.
Я просто використовую scipy.stats.itemfreq таким чином:
from scipy.stats import itemfreq
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
freq = itemfreq(a)
a = freq[:,0]
b = freq[:,1]
ви можете перевірити документацію тут: http://docs.scipy.org/doc/scipy-0.16.0/reference/generated/scipy.stats.itemfreq.html
def frequencyDistribution(data):
return {i: data.count(i) for i in data}
print frequencyDistribution([1,2,3,4])
...
{1: 1, 2: 1, 3: 1, 4: 1} # originalNumber: count
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
# 1. Get counts and store in another list
output = []
for i in set(a):
output.append(a.count(i))
print(output)
# 2. Remove duplicates using set constructor
a = list(set(a))
print(a)
Вихідні дані
D:\MLrec\venv\Scripts\python.exe D:/MLrec/listgroup.py
[4, 4, 2, 1, 2]
[1, 2, 3, 4, 5]
Просте рішення за допомогою словника.
def frequency(l):
d = {}
for i in l:
if i in d.keys():
d[i] += 1
else:
d[i] = 1
for k, v in d.iteritems():
if v ==max (d.values()):
return k,d.keys()
print(frequency([10,10,10,10,20,20,20,20,40,40,50,50,30]))
max(d.values())
не зміниться в останньому циклі. Не обчислюйте його в циклі, обчислюйте його перед циклом.
#!usr/bin/python
def frq(words):
freq = {}
for w in words:
if w in freq:
freq[w] = freq.get(w)+1
else:
freq[w] =1
return freq
fp = open("poem","r")
list = fp.read()
fp.close()
input = list.split()
print input
d = frq(input)
print "frequency of input\n: "
print d
fp1 = open("output.txt","w+")
for k,v in d.items():
fp1.write(str(k)+':'+str(v)+"\n")
fp1.close()
num=[3,2,3,5,5,3,7,6,4,6,7,2]
print ('\nelements are:\t',num)
count_dict={}
for elements in num:
count_dict[elements]=num.count(elements)
print ('\nfrequency:\t',count_dict)
from collections import OrderedDict
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
def get_count(lists):
dictionary = OrderedDict()
for val in lists:
dictionary.setdefault(val,[]).append(1)
return [sum(val) for val in dictionary.values()]
print(get_count(a))
>>>[4, 4, 2, 1, 2]
Щоб видалити дублікати та підтримувати порядок:
list(dict.fromkeys(get_count(a)))
>>>[4, 2, 1]
Я використовую Counter для створення частоти. dict з текстового файлу слова в 1 рядку коду
def _fileIndex(fh):
''' create a dict using Counter of a
flat list of words (re.findall(re.compile(r"[a-zA-Z]+"), lines)) in (lines in file->for lines in fh)
'''
return Counter(
[wrd.lower() for wrdList in
[words for words in
[re.findall(re.compile(r'[a-zA-Z]+'), lines) for lines in fh]]
for wrd in wrdList])
Інший підхід зробити це, хоча і за допомогою більш важкої, але потужної бібліотеки - NLTK.
import nltk
fdist = nltk.FreqDist(a)
fdist.values()
fdist.most_common()
Ще одне рішення з іншим алгоритмом без використання колекцій:
def countFreq(A):
n=len(A)
count=[0]*n # Create a new list initialized with '0'
for i in range(n):
count[A[i]]+= 1 # increase occurrence for value A[i]
return [x for x in count if x] # return non-zero count
Ви можете використовувати вбудовану функцію, надану в python
l.count(l[i])
d=[]
for i in range(len(l)):
if l[i] not in d:
d.append(l[i])
print(l.count(l[i])
Вищевказаний код автоматично видаляє дублікати зі списку, а також друкує частоту кожного елемента в оригінальному списку та списку без дублікатів.
Дві птахи за один постріл! XD
Цей підхід можна спробувати, якщо ви не хочете користуватися будь-якою бібліотекою, а зберігати її просто та коротко!
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
marked = []
b = [(a.count(i), marked.append(i))[0] for i in a if i not in marked]
print(b)
о / п
[4, 4, 2, 1, 2]
Для запису функціональна відповідь:
>>> L = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>> import functools
>>> >>> functools.reduce(lambda acc, e: [v+(i==e) for i, v in enumerate(acc,1)] if e<=len(acc) else acc+[0 for _ in range(e-len(acc)-1)]+[1], L, [])
[4, 4, 2, 1, 2]
Чистіше, якщо ви також порахуєте нулі:
>>> functools.reduce(lambda acc, e: [v+(i==e) for i, v in enumerate(acc)] if e<len(acc) else acc+[0 for _ in range(e-len(acc))]+[1], L, [])
[0, 4, 4, 2, 1, 2]
Пояснення:
acc
списку;e
з L
нижче , ніж розмір acc
, ми просто оновити цей елемент: v+(i==e)
кошти , v+1
якщо індекс i
в acc
це поточний елемент e
, в іншому випадку попереднє значення v
;e
величини L
більший або дорівнює розміру acc
, ми повинні розгорнути, acc
щоб розмістити новий 1
.Елементи не потрібно сортувати ( itertools.groupby
). Ви отримаєте дивні результати, якщо будете мати від’ємні цифри.
Знайшов інший спосіб зробити це, використовуючи набори.
#ar is the list of elements
#convert ar to set to get unique elements
sock_set = set(ar)
#create dictionary of frequency of socks
sock_dict = {}
for sock in sock_set:
sock_dict[sock] = ar.count(sock)
Щоб знайти унікальні елементи у списку
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
a = list(set(a))
Щоб знайти кількість унікальних елементів у відсортованому масиві за допомогою словника
def CountFrequency(my_list):
# Creating an empty dictionary
freq = {}
for item in my_list:
if (item in freq):
freq[item] += 1
else:
freq[item] = 1
for key, value in freq.items():
print ("% d : % d"%(key, value))
# Driver function
if __name__ == "__main__":
my_list =[1, 1, 1, 5, 5, 3, 1, 3, 3, 1, 4, 4, 4, 2, 2, 2, 2]
CountFrequency(my_list)
Довідкові GeeksforGeeks
Ще одним способом є використання словника та list.count, нижче наївного способу зробити це.
dicio = dict()
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
b = list()
c = list()
for i in a:
if i in dicio: continue
else:
dicio[i] = a.count(i)
b.append(a.count(i))
c.append(i)
print (b)
print (c)