什么时候适合使用 df.value_counts() vs df.groupby('...').count()?

Posted

技术标签:

【中文标题】什么时候适合使用 df.value_counts() vs df.groupby(\'...\').count()?【英文标题】:When is it appropriate to use df.value_counts() vs df.groupby('...').count()?什么时候适合使用 df.value_counts() vs df.groupby('...').count()? 【发布时间】:2018-05-09 07:45:48 【问题描述】:

我听说在 Pandas 中通常有多种方法可以做同样的事情,但我想知道 –

如果我尝试按特定列中的值对数据进行分组并计算具有该值的项目数,那么何时使用 df.groupby('colA').count() 有意义,何时使用 df['colA'].value_counts() 有意义?

【问题讨论】:

【参考方案1】:

简单地说:.value_counts() 返回一个包含 DataFrame 中唯一行计数的系列,这意味着它计算特定行中的各个值并报告有多少值在柱子: 想象一下我们有一个如下的数据框:

df = pd.DataFrame('first_name': ['John', 'Anne', 'John', 'Beth'],

                   'middle_name': ['Smith', pd.NA, pd.NA, 'Louise'])

first_name  middle_name
0   John    Smith
1   Anne    <NA>
2   John    <NA>
3   Beth    Louise

然后我们对其应用 value_counts:

    df.value_counts()

first_name  middle_name
Beth        Louise         1
John        Smith          1
dtype: int64

如您所见,它没有计算具有 NA 值的行。 但是count() 计算每列或每行的非 NA 单元格。 在我们的示例中:

df.count()

first_name     4
middle_name    2
dtype: int64

【讨论】:

【参考方案2】:

Groupbyvalue_counts 是完全不同的功能。您不能对数据框执行 value_counts。

Value Counts 仅限于单个列或系列,其唯一目的是返回值的频率系列

Groupby 返回一个对象,以便对其执行统计计算。因此,当您执行 df.groupby(col).count() 时,它将返回相对于 groupby 中的 specific columns 列中存在的真实值的数量。

什么时候应该使用value_counts,什么时候应该使用groupby.count: 举个例子吧

df = pd.DataFrame('id': [1, 2, 3, 4, 2, 2, 4], 'color': ["r","r","b","b","g","g","r"], 'size': [1,2,1,2,1,3,4])

分组计数

df.groupby('color').count()
       id  size
color          
b       2     2
g       2     2
r       3     3

Groupby 计数通常用于获取值的有效数量 出现在所有列中 with reference towith respect to 一个 或更多列指定。所以不会排除数字(nan)。

要使用 groupby 查找频率,您需要像 @jez 那样对指定的列本身进行聚合。 (也许可以避免这种情况并让开发人员轻松实现 value_counts )。

价值计数

df['color'].value_counts()

r    3
g    2
b    2
Name: color, dtype: int64

值计数通常用于查找值的频率 出现在一个特定的列中。

总结:

.groupby(col).count() 应在您想要查找与指定col 相关的列中有效值出现的频率时使用。

.value_counts() 应该用于查找序列的频率。

【讨论】:

【参考方案3】:

有区别value_counts返回:

生成的对象将按降序排列,因此第一个元素是最常出现的元素。

count 不是,它按index(由groupby('col') 中的列创建)对输出进行排序。


df.groupby('colA').count() 

用于通过函数count. 聚合df 的所有列,因此它计算的值不包括NaNs。

所以如果需要count只需要一列:

df.groupby('colA')['colA'].count() 

示例:

df = pd.DataFrame('colB':list('abcdefg'),
                   'colC':[1,3,5,7,np.nan,np.nan,4],
                   'colD':[np.nan,3,6,9,2,4,np.nan],
                   'colA':['c','c','b','a',np.nan,'b','b'])

print (df)
  colA colB  colC  colD
0    c    a   1.0   NaN
1    c    b   3.0   3.0
2    b    c   5.0   6.0
3    a    d   7.0   9.0
4  NaN    e   NaN   2.0
5    b    f   NaN   4.0
6    b    g   4.0   NaN

print (df['colA'].value_counts())
b    3
c    2
a    1
Name: colA, dtype: int64

print (df.groupby('colA').count())
      colB  colC  colD
colA                  
a        1     1     1
b        3     2     2
c        2     2     1

print (df.groupby('colA')['colA'].count())
colA
a    1
b    3
c    2
Name: colA, dtype: int64

【讨论】:

以上是关于什么时候适合使用 df.value_counts() vs df.groupby('...').count()?的主要内容,如果未能解决你的问题,请参考以下文章

什么时候适合使用 KnownType 属性?

什么时候适合使用虚方法?

什么时候不适合使用派生表?

什么时候适合使用 std::optional

什么时候适合使用 Django 上下文处理器?

什么时候适合使用python2.x