栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

Python,并行处理大型文本文件

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python,并行处理大型文本文件

最简单的方法可能是使用现有代码一次处理所有30个文件-仍然需要花费一整天的时间,但您需要一次处理所有文件。(即,“ 9个月内有9个婴儿”很容易,“
1个月内有1个婴儿”很难)

如果您确实想更快地完成单个文件,则取决于计数器实际更新的方式。如果几乎所有工作都只是在分析价值,则可以使用多处理模块来减轻负担:

import timeimport multiprocessingdef slowfunc(value):    time.sleep(0.01)    return value**2 + 0.3*value + 1counter_a = counter_b = counter_c = 0def add_to_counter(res):    global counter_a, counter_b, counter_c    counter_a += res    counter_b -= (res - 10)**2    counter_c += (int(res) % 2)pool = multiprocessing.Pool(50)results = []for value in range(100000):    r = pool.apply_async(slowfunc, [value])    results.append(r)    # don't let the queue grow too long    if len(results) == 1000:        results[0].wait()    while results and results[0].ready():        r = results.pop(0)        add_to_counter(r.get())for r in results:    r.wait()    add_to_counter(r.get())print counter_a, counter_b, counter_c

这将允许50个slowfuncs并行运行,因此无需花费1000s(= 100k * 0.01s),而是需要20s(100k / 50)*
0.01s才能完成。如果您可以像上面那样将函数重组为“ slowfunc”和“ add_to_counter”,则应该可以使速度提高24倍。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/517042.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号