我有以下代码:
def multiple_invoice_matches(payment_regex, invoice_regex):
multiple_invoice_payment_matches=[]
for p in payment_regex:
if p["match_count"]>1:
for k in p["matches"]:
for i in invoice_regex:
if i["rechnung_nr"] ==k:
multiple_invoice_payment_matches.append({"fuzzy_ratio":100, "type":2, "m_match":0, "invoice":i, "payment":p})
return multiple_invoice_payment_matches
大小 payment_regex
及 invoice_regex
它们真的很大。因此,上面给出的代码片段需要花费太多时间才能返回结果。如何加快此代码的运行时间?或者如何通过并发性来加快代码的运行速度(如果可能的话)?
1条答案
按热度按时间aurhwmvo1#
你可以看一看
numba
如果您的数据具有并行化的可能性,那么使用numba库重写函数肯定会加快代码的速度。如果不考虑数据的大小和结构,就很难给出优化函数的一般方法。