站长网 资讯 从头认知生成器Generator

从头认知生成器Generator

我们知道,函数体包含 yield 关键字的函数不是一个普通函数。这种函数叫做 生成器 ( generator ),一般用于循环处理结构,应用得当可以极大优化内存使用效率。例如,设计一个函数,打开文件并将每一行转成大写并返回: defread_file_upper(path): lines=[]

我们知道,函数体包含 yield 关键字的函数不是一个普通函数。这种函数叫做 生成器 ( generator ),一般用于循环处理结构,应用得当可以极大优化内存使用效率。例如,设计一个函数,打开文件并将每一行转成大写并返回:

def read_file_upper(path): 

    lines = [] 

    with open(path) as f: 

        for line in f: 

            lines.append(line.upper()) 

    return lines 

这个版本的函数,在内部创建了一个 list 对象,用于保存转换结果。for 循环则遍历文件每一行,将其转成大写并追加到列表中。这样一来,文件中的每一行均需要保存在列表中,如果文件很大,内存开销可想而知。

我们可以借助 yield 关键字,将 read_file_upper 函数改成生成器版本。函数主体逻辑没有任何变化,只是将每行数据的处理结果通过 yield 逐个返回,而不是收集到 list 对象后再返还。

def iter_file_upper(path): 

    with open(path) as f: 

        for line in f: 

            yield line.upper() 

如果现在有一个文本文件 data.txt ,里面包含以下内容:

hello, world 

life is short, use python 

my wechat id is: coding-fan 

bye 

用 iter_file_upper 生成器,我们可以这样对它进行处理:

>>> for line in iter_file_upper('text.txt'): 

…     print(line.strip()) 

HELLO, WORLD 

LIFE IS SHORT, USE PYTHON 

MY WECHAT ID IS: CODING-FAN 

BYE 

iter_file_upper 生成器用法与 read_file_upper 函数大致相同,但它不会一次性拿住文件所有数据行,而是逐行处理、逐个返回,这样便将内存使用量降到最低。

从头认知生成器Generator

本文来自网络,不代表站长网立场,转载请注明出处:https://www.tzzz.com.cn/html/biancheng/zx/2021/0601/8510.html

作者: dawei

【声明】:站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。
联系我们

联系我们

0577-28828765

在线咨询: QQ交谈

邮箱: xwei067@foxmail.com

工作时间:周一至周五,9:00-17:30,节假日休息

返回顶部