Python多進程分塊讀取超大檔案的方法

來源:互聯網
上載者:User
本文執行個體講述了Python多進程分塊讀取超大檔案的方法。分享給大家供大家參考,具體如下:

讀取超大的文字檔,使用多進程分塊讀取,將每一塊單獨輸出成檔案

# -*- coding: GBK -*-import urlparseimport datetimeimport osfrom multiprocessing import Process,Queue,Array,RLock"""多進程分塊讀取檔案"""WORKERS = 4BLOCKSIZE = 100000000FILE_SIZE = 0def getFilesize(file):  """    擷取要讀取檔案的大小  """  global FILE_SIZE  fstream = open(file,'r')  fstream.seek(0,os.SEEK_END)  FILE_SIZE = fstream.tell()  fstream.close()def process_found(pid,array,file,rlock):  global FILE_SIZE  global JOB  global PREFIX  """    進程處理    Args:      pid:進程編號      array:進程間共用隊列,用於標記各進程所讀的檔案塊結束位置      file:所讀檔案名稱    各個進程先從array中擷取當前最大的值為起始位置startpossition    結束的位置endpossition (startpossition+BLOCKSIZE) if (startpossition+BLOCKSIZE)

更多關於Python相關內容感興趣的讀者可查看本站專題:《Python字串操作技巧匯總》、《Python入門與進階經典教程》及《Python檔案與目錄操作技巧匯總》

希望本文所述對大家Python程式設計有所協助。

  • 聯繫我們

    該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

    如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

    A Free Trial That Lets You Build Big!

    Start building with 50+ products and up to 12 months usage for Elastic Compute Service

    • Sales Support

      1 on 1 presale consultation

    • After-Sales Support

      24/7 Technical Support 6 Free Tickets per Quarter Faster Response

    • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.