• Python urllib的urlretrieve()函数解析

    Python的爬虫函数
    服务器君一共花费 9.160 ms 进行了 4 次数据库查询,努力地为您提供了这个页面。
    广告很萌的

    下面我们再来看看 urllib 模块提供的 urlretrieve() 函数。urlretrieve() 方法直接将远程数据下载到本地。

    >>> help(urllib.urlretrieve)
    Help on function urlretrieve in module urllib:
    
    urlretrieve(url, filename=None, reporthook=None, data=None)
    
    • 参数 finename 指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
    • 参数 reporthook 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。
    • 参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。

    下面通过例子来演示一下这个方法的使用,这个例子将 google 的 html 抓取到本地,保存在 D:/google.html 文件中,同时显示下载的进度。

    import urllib
    def cbk(a, b, c):  
        '''回调函数 
        @a: 已经下载的数据块 
        @b: 数据块的大小 
        @c: 远程文件的大小 
        '''  
        per = 100.0 * a * b / c  
        if per > 100:  
            per = 100  
        print '%.2f%%' % per
      
    url = 'http://www.google.com'
    local = 'd://google.html'
    urllib.urlretrieve(url, local, cbk)
    

    在 Python Shell 里执行如下:

    Python 2.7.5 (default, May 15 2013, 22:44:16) [MSC v.1500 64 bit (AMD64)] on win32
    Type "copyright", "credits" or "license()" for more information.
    >>> import urllib
    >>> def cbk(a, b, c):  
        '''回调函数 
        @a: 已经下载的数据块 
        @b: 数据块的大小 
        @c: 远程文件的大小 
        '''  
        per = 100.0 * a * b / c  
        if per > 100:  
            per = 100  
        print '%.2f%%' % per
    
        
    >>> url = 'http://www.google.com'
    >>> local = 'd://google.html'
    >>> urllib.urlretrieve(url, local, cbk)
    -0.00%
    -819200.00%
    -1638400.00%
    -2457600.00%
    ('d://google.html', <httplib.HTTPMessage instance at 0x0000000003450608>)
    >>> 
    

    下面是 urlretrieve() 下载文件实例,可以显示下载进度。

    #!/usr/bin/python
    #encoding:utf-8
    import urllib
    import os
    def Schedule(a,b,c):
        '''''
        a:已经下载的数据块
        b:数据块的大小
        c:远程文件的大小
       '''
        per = 100.0 * a * b / c
        if per > 100 :
            per = 100
        print '%.2f%%' % per
    url = 'http://www.python.org/ftp/python/2.7.5/Python-2.7.5.tar.bz2'
    #local = url.split('/')[-1]
    local = os.path.join('/data/software','Python-2.7.5.tar.bz2')
    urllib.urlretrieve(url,local,Schedule)
    ######output######
    #0.00%
    #0.07%
    #0.13%
    #0.20%
    #....
    #99.94%
    #100.00%
    

    通过上面的练习可以知道,urlopen() 可以轻松获取远端 html 页面信息,然后通过 python 正则对所需要的数据进行分析,匹配出想要用的数据,在利用urlretrieve() 将数据下载到本地。对于访问受限或者对连接数有限制的远程 url 地址可以采用 proxies(代理的方式)连接,如果远程数据量过大,单线程下载太慢的话可以采用多线程下载,这个就是传说中的爬虫。

更多 推荐条目

Welcome to NowaMagic Academy!

现代魔法 推荐于 2013-02-27 10:23   

本章最新发布
随机专题
  1. [移动开发] Android Studio里的Gradle 3 个条目
  2. [计算机算法] 两数交换的各种算法细节 2 个条目
  3. [数据结构] 图的定义 1 个条目
  4. [移动开发] 从代码角度去认识 Handler 4 个条目
  5. [软件工程与项目管理] 浏览器的HTML解析器 8 个条目
  6. [PHP程序设计] PHP数组的遍历 7 个条目
  7. [移动开发] 刷机与root相关 2 个条目
  8. [Python程序设计] Python HTTP服务器 7 个条目
  9. [移动开发] Activity 初步知识 2 个条目
  10. [移动开发] Android抽屉导航NavigationDrawer 5 个条目
  11. [计算机算法] 从双端队列引出的卡特兰数 3 个条目
  12. [Python程序设计] Django后台管理系统 2 个条目
窗口 -- [资讯]