spark从字符串中提取列

h6my8fg2  于 2021-05-18  发布在  Spark
关注(0)|答案(1)|浏览(550)

需要帮助解析字符串,其中包含每个属性的值。下面是我的示例字符串。。。

otherPartofString Name=<Series VR> Type=<1Ac4> SqVal=<34> conn ID=<2>

有时,字符串可以包含其他具有不同分隔符的值,如

otherPartofString Name=<Series X> Type=<1B3> SqVal=<34> conn ID=<2> conn Loc=sfo dest=chc bridge otherpartofString..

输出列将

Name      | Type | SqVal | ID | Loc  | dest 
-------------------------------------------
Series VR | 1Ac4 | 34    | 2  | null | null
Series X  | 1B3  | 34    | 2  | sfo  | chc
oxalkeyp

oxalkeyp1#

如前所述,要在示例数据上使用str\u to\u map函数,可以将pairdelim和keyvaluedelim设置为:

pairDelim: '(?i)>? *(?=Name|Type|SqVal|conn ID|conn Loc|dest|$)'
keyValueDelim: '=<?'

其中paridelim不区分大小写 (?i) 带有可选的 > 后跟零个或多个空格,然后后跟一个预定义键(我们使用 '|'.join(keys) 动态生成)或结束字符串锚定 $ . keyvaluedelim是带有可选 < .

from pyspark.sql import functions as F

df = spark.createDataFrame([                                               
   ("otherPartofString Name=<Series VR> Type=<1Ac4> SqVal=<34> conn ID=<2>",),   
   ("otherPartofString Name=<Series X> Type=<1B3> SqVal=<34> conn ID=<2> conn Loc=sfo dest=chc bridge otherpartofString..",)
],["value"])

keys = ["Name", "Type", "SqVal", "conn ID", "conn Loc", "dest"]

# add the following conf for Spark 3.0 to overcome duplicate map key ERROR

# spark.conf.set("spark.sql.mapKeyDedupPolicy", "LAST_WIN")

df.withColumn("m", F.expr("str_to_map(value, '(?i)>? *(?={}|$)', '=<?')".format('|'.join(keys)))) \
    .select([F.col('m')[k].alias(k) for k in keys]) \
    .show()
+---------+----+-----+-------+--------+--------------------+
|     Name|Type|SqVal|conn ID|conn Loc|                dest|
+---------+----+-----+-------+--------+--------------------+
|Series VR|1Ac4|   34|      2|    null|                null|
| Series X| 1B3|   34|      2|     sfo|chc bridge otherp...|
+---------+----+-----+-------+--------+--------------------+

我们需要对最后一个Map键的值进行一些后处理,因为没有锚定或模式将它们与其他不相关的文本区分开来(这可能是一个问题,因为它可能发生在任何键上),请告诉我您是否可以指定任何模式。
编辑:如果使用map进行不区分大小写的搜索效率较低,因为它需要一些昂贵的预处理,请尝试以下操作:

ptn = '|'.join(keys)
df.select("*", *[F.regexp_extract('value', r'(?i)\b{0}=<?([^=>]+?)>? *(?={1}|$)'.format(k,ptn), 1).alias(k) for k in keys]).show()

如果尖括号 < 以及 > 仅当值或其下一个相邻键包含任何非单词字符时才使用,可以通过一些预处理来简化:

df.withColumn('value', F.regexp_replace('value','=(\w+)','=<$1>')) \
    .select("*", *[F.regexp_extract('value', r'(?i)\b{0}=<([^>]+)>'.format(k), 1).alias(k) for k in keys]) \
    .show()

edit-2:添加了一个字典来处理键别名:

keys = ["Name", "Type", "SqVal", "ID", "Loc", "dest"]

# aliases are case-insensitive and added only if exist

key_aliases = {
    'Type': [ 'ThisType', 'AnyName' ],
    'ID': ['conn ID'],
    'Loc': ['conn Loc']
}

# set up regex pattern for each key differently

key_ptns = [ (k, '|'.join([k, *key_aliases[k]]) if k in key_aliases else k) for k in keys ]  

# [('Name', 'Name'),

# ('Type', 'Type|ThisType|AnyName'),

# ('SqVal', 'SqVal'),

# ('ID', 'ID|conn ID'),

# ('Loc', 'Loc|conn Loc'),

# ('dest', 'dest')]

df.withColumn('value', F.regexp_replace('value','=(\w+)','=<$1>')) \
    .select("*", *[F.regexp_extract('value', r'(?i)\b(?:{0})=<([^>]+)>'.format(p), 1).alias(k) for k,p in key_ptns]) \
    .show()
+--------------------+---------+----+-----+---+---+----+
|               value|     Name|Type|SqVal| ID|Loc|dest|
+--------------------+---------+----+-----+---+---+----+
|otherPartofString...|Series VR|1Ac4|   34|  2|   |    |
|otherPartofString...| Series X| 1B3|   34|  2|sfo| chc|
+--------------------+---------+----+-----+---+---+----+

相关问题