如何根据列值从DataFrame中选择行?

fnatzsnv  于 2022-09-18  发布在  Java
关注(0)|答案(16)|浏览(208)

如何根据Pandas中某些列的值从DataFrame中选择行?

在SQL中,我将使用:

SELECT *
FROM table
WHERE column_name = some_value
oprakyz7

oprakyz71#

To select rows whose column value equals a scalar, some_value, use ==:

df.loc[df['column_name'] == some_value]

To select rows whose column value is in an iterable, some_values, use isin:

df.loc[df['column_name'].isin(some_values)]

Combine multiple conditions with &:

df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]

Note the parentheses. Due to Python's operator precedence rules, & binds more tightly than <= and >=. Thus, the parentheses in the last example are necessary. Without the parentheses

df['column_name'] >= A & df['column_name'] <= B

is parsed as

df['column_name'] >= (A & df['column_name']) <= B

which results in a Truth value of a Series is ambiguous error.

To select rows whose column value does not equalsome_value, use !=:

df.loc[df['column_name'] != some_value]

isin returns a boolean Series, so to select rows whose value is not in some_values, negate the boolean Series using ~:

df.loc[~df['column_name'].isin(some_values)]

For example,

import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)

# A      B  C   D

# 0  foo    one  0   0

# 1  bar    one  1   2

# 2  foo    two  2   4

# 3  bar  three  3   6

# 4  foo    two  4   8

# 5  bar    two  5  10

# 6  foo    one  6  12

# 7  foo  three  7  14

print(df.loc[df['A'] == 'foo'])

yields

A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

If you have multiple values you want to include, put them in a list (or more generally, any iterable) and use isin:

print(df.loc[df['B'].isin(['one','three'])])

yields

A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

Note, however, that if you wish to do this many times, it is more efficient to make an index first, and then use df.loc:

df = df.set_index(['B'])
print(df.loc['one'])

yields

A  C   D
B              
one  foo  0   0
one  bar  1   2
one  foo  6  12

or, to include multiple values from the index use df.index.isin:

df.loc[df.index.isin(['one','two'])]

yields

A  C   D
B              
one  foo  0   0
one  bar  1   2
two  foo  2   4
two  foo  4   8
two  bar  5  10
one  foo  6  12
e5nqia27

e5nqia272#

有几种方法可以从Pandas Dataframe 中选择行:

1.布尔索引(df[df['col'] == value])
1.位置索引(df.iloc[...])
1.标签索引(df.xs(...))
1.df.query(...)接口

下面我将向您展示每种技术的示例,并给出何时使用某些技术的建议。假设我们的标准是列'A'=='foo'

(关于性能的注意:对于每个基本类型,我们可以通过使用Pandas API来使事情变得简单,或者我们可以在API之外冒险,通常是进入NumPy,并加快速度。)

设置

我们需要做的第一件事是确定一个条件,该条件将作为我们选择行的标准。我们将从OP的案例column_name == some_value开始,并包括其他一些常见用例。

从@unutbu借用:

import pandas as pd, numpy as np

df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})

1.布尔索引

..。布尔索引需要找到每一行的'A'列的真值等于'foo',然后使用这些真值来确定要保留哪些行。通常,我们会将这个序列命名为真值数组mask。我们在这里也会这样做。

mask = df['A'] == 'foo'

然后,我们可以使用此掩码对 Dataframe 进行切片或索引

df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

这是完成这项任务最简单的方法之一,如果性能或直觉性不是问题,这应该是你选择的方法。但是,如果性能是个问题,那么您可能需要考虑另一种创建mask的方法。

2.位置索引

位置索引(df.iloc[...])有其用例,但这不是其中之一。为了确定在哪里切片,我们首先需要执行与上面相同的布尔分析。这就让我们多做了一步来完成同样的任务。

mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

3.标签标引

  • LABEL*索引可能非常方便,但在这种情况下,我们再次做了更多无益的工作
df.set_index('A', append=True, drop=False).xs('foo', level=1)

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

4.df.query()接口

  • pd.DataFrame.query*是执行此任务的一种非常优雅/直观的方式,但通常速度较慢。然而,如果您注意下面的计时,对于大数据,查询效率非常高。这比标准方法更有说服力,与我的最佳建议差不多。
df.query('A == "foo"')

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

我更喜欢使用Boolean``mask

实际的改进可以通过修改我们创建Boolean``mask的方式来实现。

**mask备选方案1使用底层NumPy数组,并放弃创建另一个pd.Series的开销

mask = df['A'].values == 'foo'

我将在最后展示更多完整的时间测试,但只看一下我们使用样例数据框获得的性能收益。首先,我们看看创建mask的不同之处

%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'

5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

使用NumPy数组评估mask的速度大约快30倍。这在一定程度上是因为NumPy计算通常更快。这在一定程度上也是因为缺乏构建索引和相应的pd.Series对象所需的开销。

接下来,我们将查看maskmask的切片时间。

mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]

219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

性能提升并不是那么明显。我们将拭目以待,看看这是否经得起更强大的测试。

mask备选方案2我们也可以重建 Dataframe 。在重建 Dataframe 时有一个很大的警告-您必须在执行此操作时注意dtypes

我们将这样做,而不是df[mask]

pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

如果 Dataframe 是混合类型(我们的示例是混合类型),则当我们获得df.values时,结果数组是dtype``object,因此,新 Dataframe 的所有列都将是dtype``object。因此需要astype(df.dtypes)并扼杀任何潜在的性能提升。

%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

但是,如果数据框不是混合类型,这是一种非常有用的方法。

vt.给出

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

d1

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
6  8  7  6  4  7
7  6  2  6  6  5
8  2  8  7  5  8
9  4  7  6  1  5
%%timeit
mask = d1['A'].values == 7
d1[mask]

179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

对战

%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)

87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

我们把时间缩短了一半。

mask备选方案3

@unutbu还向我们展示了如何使用pd.Series.isin来说明df['A']中的每个元素都在一组值中。如果我们的值集是一个值集,即'foo',则计算结果相同。但如果需要,它还可以泛化为包含更大的值集。事实证明,这仍然是相当快的,尽管这是一个更一般的解决方案。对于那些不熟悉这个概念的人来说,唯一真正的损失是直觉。

mask = df['A'].isin(['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

然而,和以前一样,我们可以利用NumPy来提高性能,而几乎不会牺牲任何东西。我们将使用np.in1d

mask = np.in1d(df['A'].values, ['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

计时

我会将其他帖子中提到的其他概念也包括在内,以供参考。

以下代码

此表中的每个代表一个不同长度的 Dataframe ,我们在该 Dataframe 上测试每个函数。每一列都显示了所用的相对时间,其中最快的函数的基本索引为1.0

res.div(res.min())

                         10        30        100       300       1000      3000      10000     30000
mask_standard         2.156872  1.850663  2.034149  2.166312  2.164541  3.090372  2.981326  3.131151
mask_standard_loc     1.879035  1.782366  1.988823  2.338112  2.361391  3.036131  2.998112  2.990103
mask_with_values      1.010166  1.000000  1.005113  1.026363  1.028698  1.293741  1.007824  1.016919
mask_with_values_loc  1.196843  1.300228  1.000000  1.000000  1.038989  1.219233  1.037020  1.000000
query                 4.997304  4.765554  5.934096  4.500559  2.997924  2.397013  1.680447  1.398190
xs_label              4.124597  4.272363  5.596152  4.295331  4.676591  5.710680  6.032809  8.950255
mask_with_isin        1.674055  1.679935  1.847972  1.724183  1.345111  1.405231  1.253554  1.264760
mask_with_in1d        1.000000  1.083807  1.220493  1.101929  1.000000  1.000000  1.000000  1.144175

您会注意到,最快的时间似乎在mask_with_valuesmask_with_in1d之间共享。

res.T.plot(loglog=True)

函数

def mask_standard(df):
    mask = df['A'] == 'foo'
    return df[mask]

def mask_standard_loc(df):
    mask = df['A'] == 'foo'
    return df.loc[mask]

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_values_loc(df):
    mask = df['A'].values == 'foo'
    return df.loc[mask]

def query(df):
    return df.query('A == "foo"')

def xs_label(df):
    return df.set_index('A', append=True, drop=False).xs('foo', level=-1)

def mask_with_isin(df):
    mask = df['A'].isin(['foo'])
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

测试

res = pd.DataFrame(
    index=[
        'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
        'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
    ],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

for j in res.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in res.index:a
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        res.at[i, j] = timeit(stmt, setp, number=50)

特殊计时

看一下当我们对整个 Dataframe 具有单个非对象dtype时的特殊情况。

以下代码

spec.div(spec.min())

                     10        30        100       300       1000      3000      10000     30000
mask_with_values  1.009030  1.000000  1.194276  1.000000  1.236892  1.095343  1.000000  1.000000
mask_with_in1d    1.104638  1.094524  1.156930  1.072094  1.000000  1.000000  1.040043  1.027100
reconstruct       1.000000  1.142838  1.000000  1.355440  1.650270  2.222181  2.294913  3.406735

事实证明,经过几百行重建是不值得的。

spec.T.plot(loglog=True)

函数

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

def reconstruct(df):
    v = df.values
    mask = np.in1d(df['A'].values, ['foo'])
    return pd.DataFrame(v[mask], df.index[mask], df.columns)

spec = pd.DataFrame(
    index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

测试

for j in spec.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in spec.index:
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        spec.at[i, j] = timeit(stmt, setp, number=50)
tjvv9vkg

tjvv9vkg3#

tl;DR

Pandas相当于

select * from table where column_name = some_value

table[table.column_name == some_value]

多个条件:

table[(table.column_name == some_value) | (table.column_name2 == some_value2)]

table.query('column_name == some_value | column_name2 == some_value2')

代码示例

import pandas as pd

# Create data set

d = {'foo':[100, 111, 222],
     'bar':[333, 444, 555]}
df = pd.DataFrame(d)

# Full dataframe:

df

# Shows:

# bar   foo

# 0  333   100

# 1  444   111

# 2  555   222

# Output only the row(s) in df where foo is 222:

df[df.foo == 222]

# Shows:

# bar  foo

# 2  555  222

在上面的代码中,df[df.foo == 222]行根据列值提供行,在本例中为222

还可能出现多种情况:

df[(df.foo == 222) | (df.bar == 444)]

# bar  foo

# 1  444  111

# 2  555  222

但在这一点上,我建议使用query函数,因为它不那么冗长,并产生相同的结果:

df.query('foo == 222 | bar == 444')
jfewjypa

jfewjypa4#

我发现前面答案的语法是多余的,很难记住。Pandas在v0.13中引入了query()方法,我更喜欢它。对于你的问题,你可以做df.query('col == val')

转载自Query()方法(实验性)

In [167]: n = 10

In [168]: df = pd.DataFrame(np.random.rand(n, 3), columns=list('abc'))

In [169]: df
Out[169]:
          a         b         c
0  0.687704  0.582314  0.281645
1  0.250846  0.610021  0.420121
2  0.624328  0.401816  0.932146
3  0.011763  0.022921  0.244186
4  0.590198  0.325680  0.890392
5  0.598892  0.296424  0.007312
6  0.634625  0.803069  0.123872
7  0.924168  0.325076  0.303746
8  0.116822  0.364564  0.454607
9  0.986142  0.751953  0.561512

# pure python

In [170]: df[(df.a < df.b) & (df.b < df.c)]
Out[170]:
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

# query

In [171]: df.query('(a < b) & (b < c)')
Out[171]:
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

您还可以通过添加@来访问环境中的变量。

exclude = ('red', 'orange')
df.query('color not in @exclude')
r6vfmomb

r6vfmomb5#

Pandas>=0.25.0使用.query更灵活:

由于PANDA>=0.25.0,我们可以使用query方法来过滤 Dataframe ,其中包含PANDA方法,甚至是包含空格的列名。通常,列名中的空格会产生错误,但现在我们可以使用反号(`)来解决这个问题-请参阅GitHub


# Example dataframe

df = pd.DataFrame({'Sender email':['ex@example.com', "reply@shop.com", "buy@shop.com"]})

     Sender email
0  ex@example.com
1  reply@shop.com
2    buy@shop.com

.query用于方法str.endswith

df.query('`Sender email`.str.endswith("@shop.com")')

输出

Sender email
1  reply@shop.com
2    buy@shop.com

此外,我们还可以在查询中使用局部变量,方法是在其前面加上@

domain = 'shop.com'
df.query('`Sender email`.str.endswith(@domain)')

输出

Sender email
1  reply@shop.com
2    buy@shop.com
euoag5mw

euoag5mw6#

用于仅从Pandas中给定值的多列中选择特定列:

select col_name1, col_name2 from table where column_name = some_value.

选项loc

df.loc[df['column_name'] == some_value, [col_name1, col_name2]]

query

df.query('column_name == some_value')[[col_name1, col_name2]]
qq24tv8q

qq24tv8q7#

在较新版本的Pandas中,灵感来自文档(查看数据):

df[df["colume_name"] == some_value] #Scalar, True/False..

df[df["colume_name"] == "some_value"] #String

通过将子句放在括号()中并与&|(和/或)组合来组合多个条件。就像这样:

df[(df["colume_name"] == "some_value1") & (pd[pd["colume_name"] == "some_value2"])]

其他过滤器

pandas.notna(df["colume_name"]) == True # Not NaN
df['colume_name'].str.contains("text") # Search for "text"
df['colume_name'].str.lower().str.contains("text") # Search for "text", after converting  to lowercase
wpcxdonn

wpcxdonn8#

使用numpy.where可以更快地实现结果。

例如,通过UNUBTU的设置-

In [76]: df.iloc[np.where(df.A.values=='foo')]
Out[76]: 
     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

时序比较:

In [68]: %timeit df.iloc[np.where(df.A.values=='foo')]  # fastest
1000 loops, best of 3: 380 µs per loop

In [69]: %timeit df.loc[df['A'] == 'foo']
1000 loops, best of 3: 745 µs per loop

In [71]: %timeit df.loc[df['A'].isin(['foo'])]
1000 loops, best of 3: 562 µs per loop

In [72]: %timeit df[df.A=='foo']
1000 loops, best of 3: 796 µs per loop

In [74]: %timeit df.query('(A=="foo")')  # slowest
1000 loops, best of 3: 1.71 ms per loop
35g0bw71

35g0bw719#

下面是一个简单的例子

from pandas import DataFrame

# Create data set

d = {'Revenue':[100,111,222], 
     'Cost':[333,444,555]}
df = DataFrame(d)

# mask = Return True when the value in column "Revenue" is equal to 111

mask = df['Revenue'] == 111

print mask

# Result:

# 0    False

# 1     True

# 2    False

# Name: Revenue, dtype: bool

# Select * FROM df WHERE Revenue = 111

df[mask]

# Result:

# Cost    Revenue

# 1  444     111
ivqmmu1c

ivqmmu1c10#

添加:您还可以执行df.groupby('column_name').get_group('column_desired_value').reset_index()来创建具有特定值的指定列的新数据框。例如,

import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split()})
print("Original dataframe:")
print(df)

b_is_two_dataframe = pd.DataFrame(df.groupby('B').get_group('two').reset_index()).drop('index', axis = 1) 

# NOTE: the final drop is to remove the extra index column returned by groupby object

print('Sub dataframe where B is two:')
print(b_is_two_dataframe)

运行此程序可实现以下效果:

Original dataframe:
     A      B
0  foo    one
1  bar    one
2  foo    two
3  bar  three
4  foo    two
5  bar    two
6  foo    one
7  foo  three
Sub dataframe where B is two:
     A    B
0  foo  two
1  foo  two
2  bar  two
5vf7fwbs

5vf7fwbs11#

您还可以使用.Apply:

df.apply(lambda row: row[df['B'].isin(['one','three'])])

它实际上是按行工作的(即,将函数应用于每一行)。

输出为

A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

结果与@unutbu提到的使用相同

df[[df['B'].isin(['one','three'])]]
w51jfk4q

w51jfk4q12#

如果你想反复查询你的 Dataframe ,速度对你来说很重要,最好的办法是把你的 Dataframe 转换成字典,然后这样做可以使查询速度提高数千倍。

my_df = df.set_index(column_name)
my_dict = my_df.to_dict('index')

在创建我的词典之后,您可以完成以下操作:

if some_value in my_dict.keys():
   my_result = my_dict[some_value]

如果在COLUMN_NAME中有重复的值,则不能创建字典。但您可以使用:

my_result = my_df.loc[some_value]
yqkkidmi

yqkkidmi13#

DataFrame上使用DuckDB选择行的SQL语句

使用DuckDB,我们可以在highly performant way中使用SQL语句查询PandasDataFrame。

由于问题是如何根据列值从DataFrame中选择行?,而问题中的示例是一个SQL查询,因此这个答案在本主题中看起来很合乎逻辑。

示例

In [1]: import duckdb

In [2]: import pandas as pd

In [3]: con = duckdb.connect()

In [4]: df = pd.DataFrame({"A": range(11), "B": range(11, 22)})

In [5]: df
Out[5]:
     A   B
0    0  11
1    1  12
2    2  13
3    3  14
4    4  15
5    5  16
6    6  17
7    7  18
8    8  19
9    9  20
10  10  21

In [6]: results = con.execute("SELECT * FROM df where A > 2").df()

In [7]: results
Out[7]:
    A   B
0   3  14
1   4  15
2   5  16
3   6  17
4   7  18
5   8  19
6   9  20
7  10  21
dgiusagp

dgiusagp14#

您可以将loc(方括号)与函数一起使用:


# Series

s = pd.Series([1, 2, 3, 4]) 
s.loc[lambda x: x > 1]

# s[lambda x: x > 1]

产出:


# DataFrame

df = pd.DataFrame({'A': [1, 2, 3], 'B': [10, 20, 30]})
df.loc[lambda x: x['A'] > 1]

# df[lambda x: x['A'] > 1]

产出:

A   B
1  2  20
2  3  30

此方法的优点是您可以将选择与以前的操作链接起来。例如:

df.mul(2).loc[lambda x: x['A'] > 3, 'B']

# (df * 2).loc[lambda x: x['A'] > 3, 'B']

VS

df_temp = df * 2
df_temp.loc[df_temp['A'] > 3, 'B']

产出:

hujrc8aj

hujrc8aj15#

很好的答案。只是,当Dataframe 大小接近百万行时,许多方法在使用df[df['col']==val]时往往需要很长时间。我想让所有可能的值“Another_Column”对应于“SOME_COLUMN”中的特定值(在本例中是在字典中)。这起作用了,而且很快。

s=datetime.datetime.now()

my_dict={}

for i, my_key in enumerate(df['some_column'].values): 
    if i%100==0:
        print(i)  # to see the progress
    if my_key not in my_dict.keys():
        my_dict[my_key]={}
        my_dict[my_key]['values']=[df.iloc[i]['another_column']]
    else:
        my_dict[my_key]['values'].append(df.iloc[i]['another_column'])

e=datetime.datetime.now()

print('operation took '+str(e-s)+' seconds')```

相关问题