Python3 利用xml库解析百度糯米北京团购信息

上一篇 / 下一篇  2016-08-04 07:24:26 / 个人分类:python

     首先利用爬虫程序利用百度糯米提供的api来采集数据。为何要先采集本地呢,笔者试着爬去了北京一天的团购信息,采集下来的数据一共有172M, 这还是少量的数据,所以笔者采取先采集数据在爬去。现在把解析数据的代码分析给大家


import xml.etree.ElementTree as ET
import os


class Nuomi():
   
    def __init__(self):
       
        self.numi=[]
    def Parse(self,filepath):

        tree=ET.parse(filepath)
        root =tree.getroot()
        for url in root.iter('url'):
            nuomi_lei={}
            data=url.find('data')
            if data is not None:
                display=data.find('display')
                if display is not None:
                    try:
                        nuomi_lei['title']=display.find('title').text
                    except Exception as e:
                        print("No title")
                    try:
                        nuomi_lei['businessTitle']=display.find('businessTitle').text
                    except Exception as e:
                        print ("No businessTitle")
                    try:
                        nuomi_lei['value'] =display.find('value').text
                    except Exception as e:
                        print ("No value")
                    try:
                        nuomi_lei['price']=float(display.find('price').text)
                    except Exception as e:
                        print("No pire")
                    self.numi.append(nuomi_lei)
        return(self.numi)

   
if __name__ == '__main__':
   
    nuomi=Nuomi()
    date=nuomi.Parse('numi.html')
    print(len(date))
   

TAG:

 

评分:0

我来说两句

日历

« 2024-03-18  
     12
3456789
10111213141516
17181920212223
24252627282930
31      

数据统计

  • 访问量: 12992
  • 日志数: 13
  • 建立时间: 2016-04-14
  • 更新时间: 2019-11-07

RSS订阅

Open Toolbar