香港云主机最佳企业级服务商!

ADSL拨号VPS包含了中国大陆(联通,移动,电信,)

中国香港,国外拨号VPS。

当前位置:云主机 > python >

电信ADSL拨号VPS
联通ADSL拨号VPS
移动ADSL拨号VPS

python实现爬虫下载美女图片


时间:2021-12-08 14:53 作者:admin610456


本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励

在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie

爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0

#-*- coding:utf-8 -*-import urllib2import reimport requestsfrom lxml import etree这些是要导入的库,代码并没有使用正则,使用的是xpath,正则困难的童鞋可以尝试使用下推荐各位先使用基本库来写,这样可以学习到更多links=[]    #遍历url的地址k=1    print u'请输入最后的页数:'endPage=int(raw_input())    #最终的页数  (r'\d+(?=\s*页) 这是一个比较通用的正则抓取总页数的代码,当然最后要group#这里是手动输入页数,避免内容太多for j in range(0,endPage):  url='http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn='+str(j)      #页数的url地址  html=urllib2.urlopen(url).read()                #读取首页的内容  selector=etree.HTML(html)              #转换为xml,用于在接下来识别  links=selector.xpath('//div/a[@class="j_th_tit"]/@href')        #抓取当前页面的所有帖子的url#大家可以使用浏览器自带的源码查看工具,在指定目标处查看元素,这样更快捷  for i in links:    url1="http://tieba.baidu.com"+i      #因为爬取到的地址是相对地址,所以要加上百度的domain    html2=urllib2.urlopen(url1).read()      #读取当前页面的内容    selector=etree.HTML(html2)          #转换为xml用于识别    link=selector.xpath('//img[@class="BDE_Image"]/@src')    #抓取图片,各位也可以更换为正则,或者其他你想要的内容#此处就是遍历下载    for each in link:      #print each      print u'正在下载%d'%k      fp=open('image/'+str(k)+'.bmp','wb')      #下载在当前目录下 image文件夹内,图片格式为bmp      image1=urllib2.urlopen(each).read()        #读取图片的内容      fp.write(image1)                  #写入图片      fp.close()      k+=1    #k就是文件的名字,每下载一个文件就加1print u'下载完成!'

如果想要爬取其他站点的内容,大家可以参考一下

(责任编辑:admin)






帮助中心
会员注册
找回密码
新闻中心
快捷通道
域名登录面板
虚机登录面板
云主机登录面板
关于我们
关于我们
联系我们
联系方式

售前咨询:17830004266(重庆移动)

企业QQ:383546523

《中华人民共和国工业和信息化部》 编号:ICP备00012341号

Copyright © 2002 -2018 香港云主机 版权所有
声明:香港云主机品牌标志、品牌吉祥物均已注册商标,版权所有,窃用必究

云官方微信

在线客服

  • 企业QQ: 点击这里给我发消息
  • 技术支持:383546523

  • 公司总台电话:17830004266(重庆移动)
  • 售前咨询热线:17830004266(重庆移动)