#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import re
import urllib.request
import urllib.error
import urllib.parse
sum = 0
def craw(url,page):
html1=urllib.request.urlopen(url).read()
html1=str(html1)
pat1=r'<p id="plist".+? <p class="page clearfix">'
result1=re测试数据pile(pat1).findall(html1)
result1=result1[0]
pat2=r'<img width="200" height="200" data-img="1" src="//(.+?\.jpg)">|<img width="200" height="200" data-img="1" src-img="//(.+?\.jpg)">'
imagelist=re测试数据pile(pat2).findall(result1)
x=1
global sum
for imageurl in imagelist:
imagename='./books/'+str(page)+':'+str(x)+'.jpg'
if imageurl[0]!='':
imageurl='http://'+imageurl[0]
else:
imageurl='http://'+imageurl[1]
print('开始爬取第%d页第%d张图片'%(page,x))
try:
urllib.request.urlretrieve(imageurl,filename=imagename)
except urllib.error.URLError as e:
if hasattr(e,'code') or hasattr(e,'reason'):
x+=1
print('成功保存第%d页第%d张图片'%(page,x))
x+=1
sum+=1
for i in range(1,251):
url='https://list.jd测试数据/list.html?cat=1713,3287,3797&page='+str(i)
craw(url,i)
print('爬取图片结束,成功保存%d张图'%sum) 运行结果如下:
总结
以上就是Python3实战爬虫之爬取京东图书的图文详解的详细内容,更多请关注Gxl网其它相关文章!
查看更多关于Python3实战爬虫之爬取京东图书的图文详解的详细内容...
声明:本文来自网络,不代表【好得很程序员自学网】立场,转载请注明出处:http://haodehen.cn/did81714