《python 网络爬虫》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
抓取网页的含义和URL基本构成1、网络爬虫的定义网络爬虫,即WebSpider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。这样看来,网络爬虫就是一个爬行程序,一个抓取网页的程序。网络爬虫的基本操作是抓取网页。那么如何才能随心所欲地获得自己想要的页面?我们先从URL开始。 2、浏览网页的过程抓取网页的过程其实和读者平时使用IE浏览器浏览网页的道理是一样的。比如说你在浏览器的地址栏中输入 www.baidu.com 这个地址。打开网页的过程其实就是浏览器作为一个浏览的“客户端”,向服务器端发送了一次请求,把服务器端的文件“抓”到本地,再进行解释、展现。HTML是一种标记语言,用标签标记内容并加以解析和区分。浏览器的功能是将获取到的HTML代码进行解析,然后将原始的代码转变成我们直接看到的网站页面。3、URI的概念和举例简单的来讲,URL就是在浏览器端输入的 www.baidu.com 这个字符串。在理解URL之前,首先要理解URI的概念。什么是URI?Web上每种可用的资源,如HTML文档、图像、视频片段、程序等都由一个通用资源标志符(UniversalResourceIdentifier,URI)进行定位。 URI通常由三部分组成:①访问资源的命名机制;②存放资源的主机名; ③资源自身的名称,由路径表示。如下面的URI:http://www.why.com.cn/myhtml/html1223/我们可以这样解释它:①这是一个可以通过HTTP协议访问的资源,②位于主机www.webmonkey.com.cn上,③通过路径“/html/html40”访问。 4、URL的理解和举例URL是URI的一个子集。它是UniformResourceLocator的缩写,译为“统一资源定位符”。通俗地说,URL是Internet上描述信息资源的字符串,主要用在各种WWW客户程序和服务器程序上。采用URL可以用一种统一的格式来描述各种信息资源,包括文件、服务器的地址和目录等。URL的格式由三部分组成: ①第一部分是协议(或称为服务方式)。②第二部分是存有该资源的主机IP地址(有时也包括端口号)。③第三部分是主机资源的具体地址,如目录和文件名等。第一部分和第二部分用“://”符号隔开,第二部分和第三部分用“/”符号隔开。第一部分和第二部分是不可缺少的,第三部分有时可以省略。 下面来看看两个URL的小例子。1.HTTP协议的URL示例:使用超级文本传输协议HTTP,提供超级文本信息服务的资源。 例:http://www.peopledaily.com.cn/channel/welcome.htm 其计算机域名为www.peopledaily.com.cn。超级文本文件(文件类型为.html)是在目录/channel下的welcome.htm。这是中国人民日报的一台计算机。 例:http://www.rol.cn.net/talk/talk1.htm 其计算机域名为www.rol.cn.net。超级文本文件(文件类型为.html)是在目录/talk下的talk1.htm。这是瑞得聊天室的地址,可由此进入瑞得聊天室的第1室。2.文件的URL用URL表示文件时,服务器方式用file表示,后面要有主机IP地址、文件的存取路径(即目录)和文件名等信息。有时可以省略目录和文件名,但“/”符号不能省略。 例:file://ftp.yoyodyne.com/pub/files/foobar.txt 上面这个URL代表存放在主机ftp.yoyodyne.com上的pub/files/目录下的一个文件,文件名是foobar.txt。例:file://ftp.yoyodyne.com/pub 代表主机ftp.yoyodyne.com上的目录/pub。 例:file://ftp.yoyodyne.com/ 代表主机ftp.yoyodyne.com的根目录。 爬虫最主要的处理对象就是URL,它根据URL地址取得所需要的文件内容,然后对它进行进一步的处理。因此,准确地理解URL对理解网络爬虫至关重要。利用urllib2通过指定的URL抓取网页内容所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端,然后读取服务器端的响应资源。在Python中,我们使用urllib2这个组件来抓取网页。urllib2是Python的一个获取URLs(UniformResourceLocators)的组件。它以urlopen函数的形式提供了一个非常简单的接口。最简单的urllib2的应用代码只需要四行。我们新建一个文件urllib2_test01.py来感受一下urllib2的作用:[python] viewplaincopy1.import urllib2 1.response = urllib2.urlopen('http://www.baidu.com/') 2.html = response.read() 3.print html 按下F5可以看到运行的结果: 我们可以打开百度主页,右击,选择查看源代码(火狐OR谷歌浏览器均可),会发现也是完全一样的内容。也就是说,上面这四行代码将我们访问百度时浏览器收到的代码们全部打印了出来。这就是一个最简单的urllib2的例子。除了"http:",URL同样可以使用"ftp:","file:"等等来替代。HTTP是基于请求和应答机制的:客户端提出请求,服务端提供应答。urllib2用一个Request对象来映射你提出的HTTP请求。在它最简单的使用形式中你将用你要请求的地址创建一个Request对象,通过调用urlopen并传入Request对象,将返回一个相关请求response对象,这个应答对象如同一个文件对象,所以你可以在Response中调用.read()。我们新建一个文件urllib2_test02.py来感受一下:[python] viewplaincopy1.import urllib2 2.req = urllib2.Request('http://www.baidu.com') 3.response = urllib2.urlopen(req) 4.the_page = response.read() 5.print the_page 可以看到输出的内容和test01是一样的。urllib2使用相同的接口处理所有的URL头。例如你可以像下面那样创建一个ftp请求。[python] viewplaincopy1.req = urllib2.Request('ftp://example.com/') 在HTTP请求时,允许你做额外的两件事。1.发送data表单数据这个内容相信做过Web端的都不会陌生,有时候你希望发送一些数据到URL(通常URL与CGI[通用网关接口]脚本,或其他WEB应用程序挂接)。在HTTP中,这个经常使用熟知的POST请求发送。这个通常在你提交一个HTML表单时由你的浏览器来做。并不是所有的POSTs都来源于表单,你能够使用POST提交任意的数据到你自己的程序。一般的HTML表单,data需要编码成标准形式。然后做为data参数传到Request对象。编码工作使用urllib的函数而非urllib2。我们新建一个文件urllib2_test03.py来感受一下:[python] viewplaincopy1.import urllib 2.import urllib2 3. 1.url = 'http://www.someserver.com/register.cgi' 2. 3.values = {'name' : 'WHY', 4. 'location' : 'SDU', 5. 'language' : 'Python' } 6. 7.data = urllib.urlencode(values) # 编码工作 8.req = urllib2.Request(url, data) # 发送请求同时传data表单 9.response = urllib2.urlopen(req) #接受反馈的信息 10.the_page = response.read() #读取反馈的内容 如果没有传送data参数,urllib2使用GET方式的请求。GET和POST请求的不同之处是POST请求通常有"副作用",它们会由于某种途径改变系统状态(例如提交成堆垃圾到你的门口)。Data同样可以通过在Get请求的URL本身上面编码来传送。[python] viewplaincopy1.import urllib2 2.import urllib 3. 4.data = {} 5. 6.data['name'] = 'WHY' 7.data['location'] = 'SDU' 8.data['language'] = 'Python' 9. 10.url_values = urllib.urlencode(data) 11.print url_values 12. 13.name=Somebody+Here&language=Python&location=Northampton 14.url = 'http://www.example.com/example.cgi' 15.full_url = url + '?' + url_values 16. 17.data = urllib2.open(full_url) 这样就实现了Data数据的Get传送。 2.设置Headers到http请求有一些站点不喜欢被程序(非人为访问)访问,或者发送不同版本的内容到不同的浏览器。默认的urllib2把自己作为“Python-urllib/x.y”(x和y是Python主版本和次版本号,例如Python-urllib/2.7),这个身份可能会让站点迷惑,或者干脆不工作。浏览器确认自己身份是通过User-Agent头,当你创建了一个请求对象,你可以给他一个包含头数据的字典。下面的例子发送跟上面一样的内容,但把自身模拟成InternetExplorer。[python] viewplaincopy1.import urllib 2.import urllib2 3. 4.url = 'http://www.someserver.com/cgi-bin/register.cgi' 5. 6.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' 7.values = {'name' : 'WHY', 8. 'location' : 'SDU', 9. 'language' : 'Python' } 10. 11.headers = { 'User-Agent' : user_agent } 12.data = urllib.urlencode(values) 13.req = urllib2.Request(url, data, headers) 14.response = urllib2.urlopen(req) 15.the_page = response.read() 异常的处理和HTTP状态码的分类先来说一说HTTP的异常处理问题。当urlopen不能够处理一个response时,产生urlError。不过通常的PythonAPIs异常如ValueError,TypeError等也会同时产生。HTTPError是urlError的子类,通常在特定HTTPURLs中产生。 1.URLError通常,URLError在没有网络连接(没有路由到特定服务器),或者服务器不存在的情况下产生。这种情况下,异常同样会带有"reason"属性,它是一个tuple(可以理解为不可变的数组),包含了一个错误号和一个错误信息。我们建一个urllib2_test06.py来感受一下异常的处理:[python] viewplaincopy1.import urllib2 2. 3.req = urllib2.Request('http://www.baibai.com') 4. 5.try: urllib2.urlopen(req) 6. 7.except urllib2.URLError, e: 8. print e.reason 按下F5,可以看到打印出来的内容是:[Errno11001]getaddrinfofailed也就是说,错误号是11001,内容是getaddrinfofailed2.HTTPError服务器上每一个HTTP应答对象response包含一个数字"状态码"。有时状态码指出服务器无法完成请求。默认的处理器会为你处理一部分这种应答。例如:假如response是一个"重定向",需要客户端从别的地址获取文档,urllib2将为你处理。其他不能处理的,urlopen会产生一个HTTPError。典型的错误包含"404"(页面无法找到),"403"(请求禁止),和"401"(带验证请求)。HTTP状态码表示HTTP协议所返回的响应的状态。比如客户端向服务器发送请求,如果成功地获得请求的资源,则返回的状态码为200,表示响应成功。如果请求的资源不存在,则通常返回404错误。 HTTP状态码通常分为5种类型,分别以1~5五个数字开头,由3位整数组成:------------------------------------------------------------------------------------------------200:请求成功 处理方式:获得响应的内容,进行处理 201:请求完成,结果是创建了新资源。新创建资源的URI可在响应的实体中得到 处理方式:爬虫中不会遇到 202:请求被接受,但处理尚未完成 处理方式:阻塞等待 204:服务器端已经实现了请求,但是没有返回新的信息。如果客户是用户代理,则无须为此更新自身的文档视图。 处理方式:丢弃300:该状态码不被HTTP/1.0的应用程序直接使用,只是作为3XX类型回应的默认解释。存在多个可用的被请求资源。 处理方式:若程序中能够处理,则进行进一步处理,如果程序中不能处理,则丢弃301:请求到的资源都会分配一个永久的URL,这样就可以在将来通过该URL来访问此资源 处理方式:重定向到分配的URL302:请求到的资源在一个不同的URL处临时保存 处理方式:重定向到临时的URL 304请求的资源未更新 处理方式:丢弃 400非法请求 处理方式:丢弃 401未授权 处理方式:丢弃 403禁止 处理方式:丢弃 404没有找到 处理方式:丢弃 5XX回应代码以“5”开头的状态码表示服务器端发现自己出现错误,不能继续执行请求 处理方式:丢弃------------------------------------------------------------------------------------------------ HTTPError实例产生后会有一个整型'code'属性,是服务器发送的相关错误号。ErrorCodes错误码因为默认的处理器处理了重定向(300以外号码),并且100-299范围的号码指示成功,所以你只能看到400-599的错误号码。BaseHTTPServer.BaseHTTPRequestHandler.response是一个很有用的应答号码字典,显示了HTTP协议使用的所有的应答号。当一个错误号产生后,服务器返回一个HTTP错误号,和一个错误页面。你可以使用HTTPError实例作为页面返回的应答对象response。这表示和错误属性一样,它同样包含了read,geturl,和info方法。我们建一个urllib2_test07.py来感受一下:[python] viewplaincopy1.import urllib2 2.req = urllib2.Request('http://bbs.csdn.net/callmewhy') 3. 4.try: 5. urllib2.urlopen(req) 6. 7.except urllib2.URLError, e: 8. 9. print e.code 10. #print e.read() 按下F5可以看见输出了404的错误码,也就说没有找到这个页面。 3.Wrapping所以如果你想为HTTPError或URLError做准备,将有两个基本的办法。推荐使用第二种。我们建一个urllib2_test08.py来示范一下第一种异常处理的方案:[python] viewplaincopy1.from urllib2 import Request, urlopen, URLError, HTTPError 2. 3.req = Request('http://bbs.csdn.net/callmewhy') 4. 5.try: 6. 7. response = urlopen(req) 8. 9.except HTTPError, e: 10. 11. print 'The server couldn't fulfill the request.' 12. 13. print 'Error code: ', e.code 14. 15.except URLError, e: 16. 17. print 'We failed to reach a server.' 18. 19. print 'Reason: ', e.reason 20. 21.else: 22. print 'No exception was raised.' 23. # everything is fine 和其他语言相似,try之后捕获异常并且将其内容打印出来。 这里要注意的一点,exceptHTTPError必须在第一个,否则exceptURLError将同样接受到HTTPError 。因为HTTPError是URLError的子类,如果URLError在前面它会捕捉到所有的URLError(包括HTTPError )。我们建一个urllib2_test09.py来示范一下第二种异常处理的方案:[python] viewplaincopy1.from urllib2 import Request, urlopen, URLError, HTTPError 2. 3.req = Request('http://bbs.csdn.net/callmewhy') 4. 5.try: 6. 7. response = urlopen(req) 8. 9.except URLError, e: 10. 11. if hasattr(e, 'reason'): 12. 13. print 'We failed to reach a server.' 14. 15. print 'Reason: ', e.reason 16. 17. elif hasattr(e, 'code'): 18. 19. print 'The server couldn't fulfill the request.' 20. 21. print 'Error code: ', e.code 22. 23.else: 24. print 'No exception was raised.' 25. # everything is fine Opener与Handler的介绍和实例应用在开始后面的内容之前,先来解释一下urllib2中的两个个方法:infoandgeturl urlopen返回的应答对象response(或者HTTPError实例)有两个很有用的方法info()和geturl()1.geturl():这个返回获取的真实的URL,这个很有用,因为urlopen(或者opener对象使用的)或许会有重定向。获取的URL或许跟请求URL不同。以人人中的一个超级链接为例,我们建一个urllib2_test10.py来比较一下原始URL和重定向的链接:[python] viewplaincopy1.from urllib2 import Request, urlopen, URLError, HTTPError 2. 3. 4.old_url = 'http://rrurl.cn/b1UZuP' 5.req = Request(old_url) 6.response = urlopen(req) 7.print 'Old url :' + old_url 8.print 'Real url :' + response.geturl() 运行之后可以看到真正的链接指向的网址: 2.info():这个返回对象的字典对象,该字典描述了获取的页面情况。通常是服务器发送的特定头headers。目前是httplib.HTTPMessage实例。经典的headers包含"Content-length","Content-type",和其他内容。我们建一个urllib2_test11.py来测试一下info的应用:[python] viewplaincopy1.from urllib2 import Request, urlopen, URLError, HTTPError 2. 3.old_url = 'http://www.baidu.com' 4.req = Request(old_url) 5.response = urlopen(req) 6.print 'Info():' 7.print response.info() 运行的结果如下,可以看到页面的相关信息:下面来说一说urllib2中的两个重要概念:Openers和Handlers。1.Openers: 当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。正常情况下,我们使用默认opener:通过urlopen。但你能够创建个性的openers。2.Handles:Openers使用处理器handlers,所有的“繁重”工作由handlers处理。每个handlers知道如何通过特定协议打开URLs,或者如何处理URL打开时的各个方面。例如HTTP重定向或者HTTPcookies。如果你希望用特定处理器获取URLs你会想创建一个openers,例如获取一个能处理cookie的opener,或者获取一个不重定向的opener。要创建一个opener,可以实例化一个OpenerDirector,然后调用.add_handler(some_handler_instance)。同样,可以使用build_opener,这是一个更加方便的函数,用来创建opener对象,他只需要一次函数调用。build_opener默认添加几个处理器,但提供快捷的方法来添加或更新默认处理器。其他的处理器handlers你或许会希望处理代理,验证,和其他常用但有点特殊的情况。 install_opener用来创建(全局)默认opener。这个表示调用urlopen将使用你安装的opener。Opener对象有一个open方法。该方法可以像urlopen函数那样直接用来获取urls:通常不必调用install_opener,除了为了方便。说完了上面两个内容,下面我们来看一下基本认证的内容,这里会用到上面提及的Opener和Handler。BasicAuthentication基本验证为了展示创建和安装一个handler,我们将使用HTTPBasicAuthHandler。当需要基础验证时,服务器发送一个header(401错误码)请求验证。这个指定了scheme和一个‘realm’,看起来像这样:Www-authenticate:SCHEMErealm="REALM".例如Www-authenticate:Basicrealm="cPanelUsers"客户端必须使用新的请求,并在请求头里包含正确的姓名和密码。这是“基础验证”,为了简化这个过程,我们可以创建一个HTTPBasicAuthHandler的实例,并让opener使用这个handler就可以啦。 HTTPBasicAuthHandler使用一个密码管理的对象来处理URLs和realms来映射用户名和密码。如果你知道realm(从服务器发送来的头里)是什么,你就能使用HTTPPasswordMgr。通常人们不关心realm是什么。那样的话,就能用方便的HTTPPasswordMgrWithDefaultRealm。这个将在你为URL指定一个默认的用户名和密码。这将在你为特定realm提供一个其他组合时得到提供。我们通过给realm参数指定None提供给add_password来指示这种情况。最高层次的URL是第一个要求验证的URL。你传给.add_password()更深层次的URLs将同样合适。说了这么多废话,下面来用一个例子演示一下上面说到的内容。我们建一个urllib2_test12.py来测试一下info的应用:[python] viewplaincopy1.# -*- coding: utf-8 -*- 2.import urllib2 3. 4.# 创建一个密码管理者 5.password_mgr = urllib2.HTTPPasswordMgrWithDefaultRealm() 6. 7.# 添加用户名和密码 1. 2.top_level_url = "http://example.com/foo/" 3. 4.# 如果知道 realm, 我们可以使用他代替 ``None``. 5.# password_mgr.add_password(None, top_level_url, username, password) 6.password_mgr.add_password(None, top_level_url,'why', '1223') 7. 8.# 创建了一个新的handler 9.handler = urllib2.HTTPBasicAuthHandler(password_mgr) 10. 11.# 创建 "opener" (OpenerDirector 实例) 12.opener = urllib2.build_opener(handler) 13. 14.a_url = 'http://www.baidu.com/' 15. 16.# 使用 opener 获取一个URL 17.opener.open(a_url) 18. 19.# 安装 opener. 20.# 现在所有调用 urllib2.urlopen 将用我们的 opener. 21.urllib2.install_opener(opener) 22. 23. 注意:以上的例子我们仅仅提供我们的HHTPBasicAuthHandler给build_opener。默认的openers有正常状况的handlers:ProxyHandler,UnknownHandler,HTTPHandler,HTTPDefaultErrorHandler,HTTPRedirectHandler,FTPHandler,FileHandler,HTTPErrorProcessor。代码中的top_level_url实际上可以是完整URL(包含"http:",以及主机名及可选的端口号)。例如:http://example.com/。 也可以是一个“authority”(即主机名和可选的包含端口号)。例如:“example.com”or“example.com:8080”。后者包含了端口号。urllib2的使用细节与抓站技巧前面说到了urllib2的简单入门,下面整理了一部分urllib2的使用细节。1.Proxy的设置urllib2默认会使用环境变量http_proxy来设置HTTPProxy。如果想在程序中明确控制Proxy而不受环境变量的影响,可以使用代理。新建test14来实现一个简单的代理Demo:[python] viewplaincopy1.import urllib2 2.enable_proxy = True 3.proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'}) 4.null_proxy_handler = urllib2.ProxyHandler({}) 5.if enable_proxy: 6. opener = urllib2.build_opener(proxy_handler) 7.else: 8. opener = urllib2.build_opener(null_proxy_handler) 9.urllib2.install_opener(opener) 这里要注意的一个细节,使用urllib2.install_opener()会设置urllib2的全局opener。 这样后面的使用会很方便,但不能做更细致的控制,比如想在程序中使用两个不同的Proxy设置等。比较好的做法是不使用install_opener去更改全局的设置,而只是直接调用opener的open方法代替全局的urlopen方法。2.Timeout设置在老版Python中(Python2.6前),urllib2的API并没有暴露Timeout的设置,要设置Timeout值,只能更改Socket的全局Timeout值。[python] viewplaincopy1.import urllib2 2.import socket 3.socket.setdefaulttimeout(10) # 10 秒钟后超时 4.urllib2.socket.setdefaulttimeout(10) # 另一种方式 在Python2.6以后,超时可以通过urllib2.urlopen()的timeout参数直接设置。[python] viewplaincopy1.import urllib2 2.response = urllib2.urlopen('http://www.google.com', timeout=10) 3.在HTTPRequest中加入特定的Header要加入header,需要使用Request对象:[python] viewplaincopy1.import urllib2 2.request = urllib2.Request('http://www.baidu.com/') 3.request.add_header('User-Agent', 'fake-client') 4.response = urllib2.urlopen(request) 5.print response.read() 对有些header要特别留意,服务器会针对这些header做检查User-Agent:有些服务器或Proxy会通过该值来判断是否是浏览器发出的请求Content-Type:在使用REST接口时,服务器会检查该值,用来确定HTTPBody中的内容该怎样解析。常见的取值有:application/xml:在XMLRPC,如RESTful/SOAP调用时使用application/json:在JSONRPC调用时使用application/x-www-form-urlencoded:浏览器提交Web表单时使用在使用服务器提供的RESTful或SOAP服务时,Content-Type设置错误会导致服务器拒绝服务4.Redirecturllib2默认情况下会针对HTTP3XX返回码自动进行redirect动 作,无需人工配置。要检测是否发生了redirect动作,只要检查一下Response的URL和Request的URL是否一致就可以了。[python] viewplaincopy1.import urllib2 2.my_url = 'http://www.google.cn' 3.response = urllib2.urlopen(my_url) 4.redirected = response.geturl() == my_url 5.print redirected 6. 7.my_url = 'http://rrurl.cn/b1UZuP' 8.response = urllib2.urlopen(my_url) 9.redirected = response.geturl() == my_url 10.print redirected 如果不想自动redirect,除了使用更低层次的httplib库之外,还可以自定义HTTPRedirectHandler类。[python] viewplaincopy1.import urllib2 2.class RedirectHandler(urllib2.HTTPRedirectHandler): 3. def http_error_301(self, req, fp, code, msg, headers): 4. print "301" 5. pass 6. def http_error_302(self, req, fp, code, msg, headers): 7. print "303" 8. pass 9. 10.opener = urllib2.build_opener(RedirectHandler) 11.opener.open('http://rrurl.cn/b1UZuP') 5.Cookieurllib2对Cookie的处理也是自动的。如果需要得到某个Cookie项的值,可以这么做:[python] viewplaincopy1.import urllib2 2.import cookielib 3.cookie = cookielib.CookieJar() 4.opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie)) 5.response = opener.open('http://www.baidu.com') 6.for item in cookie: 7. print 'Name = '+item.name 8. print 'Value = '+item.value 运行之后就会输出访问百度的Cookie值:6.使用HTTP的PUT和DELETE方法urllib2只支持HTTP的GET和POST方法,如果要使用HTTPPUT和DELETE,只能使用比较低层的httplib库。虽然如此,我们还是能通过下面的方式,使urllib2能够发出PUT或DELETE的请求:[python] viewplaincopy1.import urllib2 2.request = urllib2.Request(uri, data=data) 1.request.get_method = lambda: 'PUT' # or 'DELETE' 2.response = urllib2.urlopen(request) 7.得到HTTP的返回码对于200OK来说,只要使用urlopen返回的response对象的getcode()方法就可以得到HTTP的返回码。但对其它返回码来说,urlopen会抛出异常。这时候,就要检查异常对象的code属性了:[python] viewplaincopy1.import urllib2 2.try: 3. response = urllib2.urlopen('http://bbs.csdn.net/why') 4.except urllib2.HTTPError, e: 5. print e.code 8.DebugLog使用urllib2时,可以通过下面的方法把debugLog打开,这样收发包的内容就会在屏幕上打印出来,方便调试,有时可以省去抓包的工作[python] viewplaincopy1.import urllib2 2.httpHandler = urllib2.HTTPHandler(debuglevel=1) 3.httpsHandler = urllib2.HTTPSHandler(debuglevel=1) 4.opener = urllib2.build_opener(httpHandler, httpsHandler) 5.urllib2.install_opener(opener) 6.response = urllib2.urlopen('http://www.google.com') 这样就可以看到传输的数据包内容了:9.表单的处理登录必要填表,表单怎么填? 首先利用工具截取所要填表的内容。比如我一般用firefox+httpfox插件来看看自己到底发送了些什么包。以verycd为例,先找到自己发的POST请求,以及POST表单项。可以看到verycd的话需要填username,password,continueURI,fk,login_submit这几项,其中fk是随机生成的(其实不太随机,看上去像是把epoch时间经过简单的编码生成的),需要从网页获取,也就是说得先访问一次网页,用正则表达式等工具截取返回数据中的fk项。continueURI顾名思义可以随便写,login_submit是固定的,这从源码可以看出。还有username,password那就很显然了:[python] viewplaincopy1.# -*- coding: utf-8 -*- 2.import urllib 3.import urllib2 4.postdata=urllib.urlencode({ 5. 'username':'汪小光', 6. 'password':'why888', 7. 'continueURI':'http://www.verycd.com/', 8. 'fk':'', 9. 'login_submit':'登录' 10.}) 11.req = urllib2.Request( 12. url = 'http://secure.verycd.com/signin', 13. data = postdata 14.) 15.result = urllib2.urlopen(req) 16.print result.read() 10.伪装成浏览器访问某些网站反感爬虫的到访,于是对爬虫一律拒绝请求 这时候我们需要伪装成浏览器,这可以通过修改http包中的header来实现[python] viewplaincopy1.#… 2. 3.headers = { 4. 'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6' 5.} 6.req = urllib2.Request( 7. url = 'http://secure.verycd.com/signin/*/http://www.verycd.com/', 8. data = postdata, 9. headers = headers 10.) 11.#... 11.对付"反盗链"某些站点有所谓的反盗链设置,其实说穿了很简单,就是检查你发送请求的header里面,referer站点是不是他自己,所以我们只需要像把headers的referer改成该网站即可,以cnbeta为例:#...headers={'Referer':'http://www.cnbeta.com/articles'}#...headers是一个dict数据结构,你可以放入任何想要的header,来做一些伪装。例如,有些网站喜欢读取header中的X-Forwarded-For来看看人家的真实IP,可以直接把X-Forwarde-For改了。 一个简单的百度贴吧的小爬虫[python] viewplaincopy1.# -*- coding: utf-8 -*- 2.#--------------------------------------- 3.# 程序:百度贴吧爬虫 4.# 版本:0.1 5.# 作者:why 6.# 日期:2013-05-14 7.# 语言:Python 2.7 8.# 操作:输入带分页的地址,去掉最后面的数字,设置一下起始页数和终点页数。 9.# 功能:下载对应页码内的所有页面并存储为html文件。 10.#--------------------------------------- 11. 12.import string, urllib2 13. 14.#定义百度函数 15.def baidu_tieba(url,begin_page,end_page): 16. for i in range(begin_page, end_page+1): 17. sName = string.zfill(i,5) + '.html'#自动填充成六位的文件名 18. print '正在下载第' + str(i) + '个网页,并将其存储为' + sName + '......' 19. f = open(sName,'w+') 20. m = urllib2.urlopen(url + str(i)).read() 21. f.write(m) 22. f.close() 23. 24. 25.#-------- 在这里输入参数 ------------------ 26. 27.# 这个是山东大学的百度贴吧中某一个帖子的地址 28.#bdurl = 'http://tieba.baidu.com/p/2296017831?pn=' 29.#iPostBegin = 1 30.#iPostEnd = 10 31. 32.bdurl = str(raw_input(u'请输入贴吧的地址,去掉pn=后面的数字: ')) 33.begin_page = int(raw_input(u'请输入开始的页数: ')) 34.end_page = int(raw_input(u'请输入终点的页数: ')) 1.#-------- 在这里输入参数 ------------------ 2. 3. 4.#调用 5.baidu_tieba(bdurl,begin_page,end_page) Python中的正则表达式教程接下来准备用糗百做一个爬虫的小例子。但是在这之前,先详细的整理一下Python中的正则表达式的相关内容。正则表达式在Python爬虫中的作用就像是老师点名时用的花名册一样,是必不可少的神兵利器。一、正则表达式基础1.1.概念介绍正则表达式是用于处理字符串的强大工具,它并不是Python的一部分。其他编程语言中也有正则表达式的概念,区别只在于不同的编程语言实现支持的语法数量不同。它拥有自己独特的语法以及一个独立的处理引擎,在提供了正则表达式的语言里,正则表达式的语法都是一样的。下图展示了使用正则表达式进行匹配的流程: 正则表达式的大致匹配过程是:1.依次拿出表达式和文本中的字符比较,2.如果每一个字符都能匹配,则匹配成功;一旦有匹配不成功的字符则匹配失败。3.如果表达式中有量词或边界,这个过程会稍微有一些不同。下图列出了Python支持的正则表达式元字符和语法: 1.2.数量词的贪婪模式与非贪婪模式正则表达式通常用于在文本中查找匹配的字符串。贪婪模式,总是尝试匹配尽可能多的字符;非贪婪模式则相反,总是尝试匹配尽可能少的字符。Python里数量词默认是贪婪的。例如:正则表达式"ab*"如果用于查找"abbbc",将找到"abbb"。而如果使用非贪婪的数量词"ab*?",将找到"a"。1.3.反斜杠的问题与大多数编程语言相同,正则表达式里使用""作为转义字符,这就可能造成反斜杠困扰。假如你需要匹配文本中的字符"",那么使用编程语言表示的正则表达式里将需要4个反斜杠"\\":第一个和第三个用于在编程语言里将第二个和第四个转义成反斜杠,转换成两个反斜杠\后再在正则表达式里转义成一个反斜杠用来匹配反斜杠。这样显然是非常麻烦的。Python里的原生字符串很好地解决了这个问题,这个例子中的正则表达式可以使用r"\"表示。同样,匹配一个数字的"\d"可以写成r"d"。有了原生字符串,妈妈再也不用担心我的反斜杠问题~ 二、 介绍re模块2.1. CompilePython通过re模块提供对正则表达式的支持。使用re的一般步骤是:Step1:先将正则表达式的字符串形式编译为Pattern实例。Step2:然后使用Pattern实例处理文本并获得匹配结果(一个Match实例)。Step3:最后使用Match实例获得信息,进行其他的操作。我们新建一个re01.py来试验一下re的应用:[python] viewplaincopy1.# -*- coding: utf-8 -*- 2.#一个简单的re实例,匹配字符串中的hello字符串 3. 4.#导入re模块 5.import re 6. 7.# 将正则表达式编译成Pattern对象,注意hello前面的r的意思是“原生字符串” 8.pattern = re.compile(r'hello') 9. 10.# 使用Pattern匹配文本,获得匹配结果,无法匹配时将返回None 11.match1 = pattern.match('hello world!') 12.match2 = pattern.match('helloo world!') 13.match3 = pattern.match('helllo world!') 14. 15.#如果match1匹配成功 16.if match1: 17. # 使用Match获得分组信息 18. print match1.group() 19.else: 20. print 'match1匹配失败!' 21. 22. 23.#如果match2匹配成功 1.if match2: 2. # 使用Match获得分组信息 3. print match2.group() 4.else: 5. print 'match2匹配失败!' 6. 7. 8.#如果match3匹配成功 9.if match3: 10. # 使用Match获得分组信息 11. print match3.group() 12.else: 13. print 'match3匹配失败!' 可以看到控制台输出了匹配的三个结果:下面来具体看看代码中的关键方法。★re.compile(strPattern[,flag]):这个方法是Pattern类的工厂方法,用于将字符串形式的正则表达式编译为Pattern对象。第二个参数flag是匹配模式,取值可以使用按位或运算符'|'表示同时生效,比如re.I|re.M。另外,你也可以在regex字符串中指定模式,比如re.compile('pattern',re.I|re.M)与re.compile('(?im)pattern')是等价的。可选值有: · re.I(全拼:IGNORECASE):忽略大小写(括号内是完整写法,下同)· re.M(全拼:MULTILINE):多行模式,改变'^'和'$'的行为(参见上图)· re.S(全拼:DOTALL):点任意匹配模式,改变'.'的行为· re.L(全拼:LOCALE):使预定字符类wWbBsS取决于当前区域设定· re.U(全拼:UNICODE):使预定字符类wWbBsSdD取决于unicode定义的字符属性· re.X(全拼:VERBOSE):详细模式。这个模式下正则表达式可以是多行,忽略空白字符,并可以加入注释。以下两个正则表达式是等价的:[python] viewplaincopy1.# -*- coding: utf-8 -*- 2.#两个等价的re匹配,匹配一个小数 3.import re 4. 5.a = re.compile(r"""d + # the integral part 6. . # the decimal point 7. d * # some fractional digits""", re.X) 8. 9.b = re.compile(r"d+.d*") 10. 11.match11 = a.match('3.1415') 12.match12 = a.match('33') 13.match21 = b.match('3.1415') 14.match22 = b.match('33') 15. 16.if match11: 1. # 使用Match获得分组信息 2. print match11.group() 3.else: 4. print u'match11不是小数' 5. 6.if match12: 7. # 使用Match获得分组信息 8. print match12.group() 9.else: 10. print u'match12不是小数' 11. 12.if match21: 13. # 使用Match获得分组信息 14. print match21.group() 15.else: 16. print u'match21不是小数' 17. 18.if match22: 19. # 使用Match获得分组信息 20. print match22.group() 21.else: 22. print u'match22不是小数' re提供了众多模块方法用于完成正则表达式的功能。这些方法可以使用Pattern实例的相应方法替代,唯一的好处是少写一行re.compile()代码,但同时也无法复用编译后的Pattern对象。这些方法将在Pattern类的实例方法部分一起介绍。如一开始的hello实例可以简写为:[html] viewplaincopy1.# -*- coding: utf-8 -*- 2.#一个简单的re实例,匹配字符串中的hello字符串 3.import re 4. 5.m = re.match(r'hello', 'hello world!') 6.print m.group() re模块还提供了一个方法escape(string),用于将string中的正则表达式元字符如*/+/?等之前加上转义符再返回2.2.MatchMatch对象是一次匹配的结果,包含了很多关于此次匹配的信息,可以使用Match提供的可读属性或方法来获取这些信息。属性:1.string:匹配时使用的文本。2.re:匹配时使用的Pattern对象。3.pos:文本中正则表达式开始搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。4.endpos:文本中正则表达式结束搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。5.lastindex:最后一个被捕获的分组在文本中的索引。如果没有被捕获的分组,将为None。6.lastgroup:最后一个被捕获的分组的别名。如果这个分组没有别名或者没有被捕获的分组,将为None。方法:1.group([group1,…]):获得一个或多个分组截获的字符串;指定多个参数时将以元组形式返回。group1可以使用编号也可以使用别名;编号0代表整 个匹配的子串;不填写参数时,返回group(0);没有截获字符串的组返回None;截获了多次的组返回最后一次截获的子串。1.groups([default]): 以元组形式返回全部分组截获的字符串。相当于调用group(1,2,…last)。default表示没有截获字符串的组以这个值替代,默认为None。2.groupdict([default]):返回以有别名的组的别名为键、以该组截获的子串为值的字典,没有别名的组不包含在内。default含义同上。3.start([group]): 返回指定的组截获的子串在string中的起始索引(子串第一个字符的索引)。group默认值为0。4.end([group]):返回指定的组截获的子串在string中的结束索引(子串最后一个字符的索引+1)。group默认值为0。5.span([group]):返回(start(group),end(group))。6.expand(template): 将匹配到的分组代入template中然后返回。template中可以使用id或g 标签 14. BgnPartRex = re.compile("
|
标签 14. BgnPartRex = re.compile("
此文档下载收益归作者所有