浅谈python写入大量文件的问题
时间:2022-02-08 17:49 作者:admin
今天准备把几个txt文件合并成一个文件时,用f.write方法写入时,发现程序执行完了,本应该十万行左右的txt记录,实际上只被写入了4k多行。
网上查了是因为程序执行速度太快,以至于读到内容还没有完全写入文件,文件就已经关闭了
方法一:加入缓冲区
f.flush()//operationos.fsync(output)f.close()
打开文件后执行flush(),关闭文件前执行os.fsync()确保缓冲区的内容都写出去了。
方法二:用sleep
用了上述方法不行,因为我在打开文件后用了迭代输出,可能会让缓冲区爆炸,在循环中加入sleep函数可以确保每次循环都能将内容写入
with open(outputfile,'a') as output: for i in all_txt_name: f =open(dir+'/'+i) for a in f: output.write(a) time.sleep(0.00000001) f.close()
后来发现:
txt文件如果太大,在pycharm中只会显示一小部分,可能是指显示了部分文件导致未以为文件没写进去,fuck
以上这篇浅谈python/' target='_blank'>python写入大量文件的问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
(责任编辑:admin)