好得很程序员自学网

<tfoot draggable='sEl'></tfoot>

如何用Python爬虫获取那些价值博文

本篇文章的内容是如何用Python爬虫获取那些价值博文,现在分享给大家,有需要的朋友可以参考一下这篇文章地的内容

采用“类(class)”的方式属于Python的面向对象编程,在某些时候比我们通常使用的面向过程的编程方便,在大型工程中经常使用面向对象编程。对于初学者来说,面向对象编程不易掌握,但是经过学习习惯之后,会逐步慢慢从面向过程到面向对象编程过渡。


特别注意的是,RePage类主要用正则表达式处理从网页中获取的信息,正则表达式设置字符串样式如下:


用正则表达式去匹配所要爬取的内容,用Python和其它软件工具都可以实现。正则表达式有许多规则,各个软件使用起来大同小异。用好正则表达式是爬虫和文本挖掘的一个重要内容。


SaveText类则是把信息保存在本地,效果如下:


用python编写爬虫代码,简洁高效。这篇文章仅从爬虫最基本的用法做了讲解,有兴趣的朋友可以下载代码看看,希望大家从中有收获。

附相关Python代码:


1 #-*-coding:UTF-8-*-
2 import re
3 import urllib2
4 import sys
5 #目的:读取博客文章,记录标题,用Htnl格式保存存文章内容
6 #版本:python2.7.13
7 #功能:读取网页内容
8 class GetHtmlPage () :
9 #注意大小写
10 def __init__ (self,strPage) :
11 self.strPapge = strPage
12 #获取网页
13 def GetPage (self) :
14 req = urllib2.Request(self.strPapge) # 建立页面请求
15 rep = req.add_header( "User-Agent" , "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 Safari/537.36 SE 2.X MetaSr 1.0" )
16 try :
17 cn = urllib2.urlopen(req) #网页请求
18 page = cn.read() #读网页
19 uPage = page.decode( "utf-8" ) #网页编码
20 cn.close()
21 return uPage
22 except urllib2.URLError, e: #捕获异常
23 print 'URLError:' , e.code
24 return
25 except urllib2.HTTPError, e: #捕获异常
26 print 'HTTP Error:' + e.reason
27 return
28 return rePage
29 #正则表达式,获取想要的内容
30 class RePage () :
31 #正则表达式提取内容,返回链表
32 def GetReText (self,page,recode) :
33 rePage = re.findall(recode,page,re.S)
34 return rePage
35 #保存文本
36 class SaveText () :
37 def Save (self,text,tilte) :
38 try :
39 t= "blog\\" +tilte+ ".html"
40 f = file(t, "a" )
41 f.write(text)
42 f.close()
43 except IOError,e:
44 print e.message
45 if __name__ == "__main__" :
46 s = SaveText()
47 #文件编码
48 #字符正确解码
49 reload(sys)
50 sys.setdefaultencoding( "utf-8" ) #获得系统的默认编码
51 #获取网页
52 page = GetHtmlPage( "http://blog.csdn.net/u013088062/article/list/1" )
53 htmlPage = page.GetPage()
54 #提取内容
55 reServer = RePage()
56 reBlog = reServer.GetReText(htmlPage, r' .*?(\s.+?) ' ) #获取网址链接和标题
57 #再向下获取正文
58 for ref in reBlog:
59 pageHeard = "http://blog.csdn.net/" #加链接头
60 strPage = pageHeard+ref[ 0 ]
61 tilte=ref[ 1 ].replace( ' [置顶] ' , "" ) #用替换的功能去除杂的英文
62 tilte=tilte.replace( "\r\n" , "" ).lstrip().rstrip()
63 #获取正文
64 htmlPage = GetHtmlPage(strPage)
65 htmlPageData = htmlPage.GetPage()
66 reBlogText = reServer.GetReText(htmlPageData, '

(.+?)

')
67 #保存文件
68 for s1 in reBlogText:
69 s1= '\n' +s1
70 s.Save(s1,tilte)

相关推荐:

php实现简单爬虫的开发案例

Python爬虫浏览器标识库

记录一次简单的Python爬虫实例

以上就是如何用Python爬虫获取那些价值博文的详细内容,更多请关注Gxl网其它相关文章!

查看更多关于如何用Python爬虫获取那些价值博文的详细内容...

  阅读:42次