python基礎教程項目四之新聞彙總

來源:互聯網
上載者:User
這篇文章主要為大家詳細介紹了python基礎教程項目四之新聞彙總,具有一定的參考價值,感興趣的小夥伴們可以參考一下

《python基礎教程》書中的第四個練習,新聞彙總。現在很少見的一類應用,至少我從來沒有用過,又叫做Usenet。這個程式的主要功能是用來從指定的來源(這裡是Usenet新聞群組)收集資訊,然後講這些資訊儲存到指定的目的檔案中(這裡使用了兩種形式:純文字和html檔案)。這個程式的用處有些類似於現在的部落格訂閱工具或者叫RSS訂閱器。

先上代碼,然後再來逐一分析:

from nntplib import NNTPfrom time import strftime,time,localtimefrom email import message_from_stringfrom urllib import urlopenimport textwrapimport reday = 24*60*60def wrap(string,max=70):    '''    '''    return '\n'.join(textwrap.wrap(string)) + '\n'class NewsAgent:    '''    '''    def __init__(self):        self.sources = []        self.destinations = []    def addSource(self,source):        self.sources.append(source)    def addDestination(self,dest):        self.destinations.append(dest)    def distribute(self):        items = []        for source in self.sources:            items.extend(source.getItems())        for dest in self.destinations:            dest.receiveItems(items)class NewsItem:    def __init__(self,title,body):        self.title = title        self.body = bodyclass NNTPSource:    def __init__(self,servername,group,window):        self.servername = servername        self.group = group        self.window = window    def getItems(self):        start = localtime(time() - self.window*day)        date = strftime('%y%m%d',start)        hour = strftime('%H%M%S',start)        server = NNTP(self.servername)        ids = server.newnews(self.group,date,hour)[1]        for id in ids:            lines = server.article(id)[3]            message = message_from_string('\n'.join(lines))            title = message['subject']            body = message.get_payload()            if message.is_multipart():                body = body[0]            yield NewsItem(title,body)        server.quit()class SimpleWebSource:    def __init__(self,url,titlePattern,bodyPattern):        self.url = url        self.titlePattern = re.compile(titlePattern)        self.bodyPattern = re.compile(bodyPattern)    def getItems(self):        text = urlopen(self.url).read()        titles = self.titlePattern.findall(text)        bodies = self.bodyPattern.findall(text)        for title.body in zip(titles,bodies):            yield NewsItem(title,wrap(body))class PlainDestination:    def receiveItems(self,items):        for item in items:            print item.title            print '-'*len(item.title)            print item.bodyclass HTMLDestination:    def __init__(self,filename):        self.filename = filename    def receiveItems(self,items):        out = open(self.filename,'w')        print >> out,'''        <html>        <head>         <title>Today's News</title>        </head>        <body>        <h1>Today's News</hi>        '''        print >> out, '<ul>'        id = 0        for item in items:            id += 1            print >> out, '<li><a href="#" rel="external nofollow" >%s</a></li>' % (id,item.title)        print >> out, '</ul>'        id = 0        for item in items:            id += 1            print >> out, '<h2><a name="%i">%s</a></h2>' % (id,item.title)            print >> out, '<pre>%s</pre>' % item.body        print >> out, '''        </body>        </html>        '''def runDefaultSetup():    agent = NewsAgent()    bbc_url = 'http://news.bbc.co.uk/text_only.stm'    bbc_title = r'(?s)a href="[^" rel="external nofollow" ]*">\s*<b>\s*(.*?)\s*</b>'    bbc_body = r'(?s)</a>\s*<br/>\s*(.*?)\s*<'    bbc = SimpleWebSource(bbc_url, bbc_title, bbc_body)    agent.addSource(bbc)    clpa_server = 'news2.neva.ru'    clpa_group = 'alt.sex.telephone'    clpa_window = 1    clpa = NNTPSource(clpa_server,clpa_group,clpa_window)    agent.addSource(clpa)    agent.addDestination(PlainDestination())    agent.addDestination(HTMLDestination('news.html'))    agent.distribute()if __name__ == '__main__':    runDefaultSetup()

這個程式,首先從整體上進行分析,重點部分在於NewsAgent,它的作用是儲存新聞來源,儲存目標地址,然後在分別調用來原始伺服器(NNTPSource以及SimpleWebSource)以及寫新聞的類(PlainDestination和HTMLDestination)。所以從這裡也看的出,NNTPSource是專門用來擷取新聞伺服器上的資訊的,SimpleWebSource是擷取一個url上的資料的。而PlainDestination和HTMLDestination的作用很明顯,前者是用來輸出擷取到的內容到終端的,後者是寫資料到html檔案中的。

有了這些分析,然後在來看主程式中的內容,主程式就是來給NewsAgent添加資訊源和輸出目的地址的。

這確實是個簡單的程式,不過這個程式可是用到了分層了。


相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.