python教程

发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来

python教程 51源码 2022-12-02 人阅读

发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来[Python常见问题]

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

今天发现一个好网站

https://www.mzitu.com/

 

先来欣赏一下爬下来的图片

 

 

 

咳咳。。。不知道能不能过

 

学习之余我们来练习一下代码

开发工具

  • python 3.6.5
  • pycharm

爬虫代码

导入工具

import requests
import parsel

 

请求网页获取列表页

response = requests.get(url=url, headers=headers)
selector = parsel.Selector(response.text)
lis = selector.css("#pins li a::attr(href)").getall()
for li in lis:
    page_id = li.split("/")[-1]

 

获取详情页下一页url

def netx_url(url, page_id):
    response_2 = requests.get(url=url, headers=headers)
    selector = parsel.Selector(response_2.text)
    last_num = selector.css(".pagenavi a:nth-child(7) span::text").get()
    for i in range(1, int(last_num) + 1):
        new_url = "https://www.mzitu.com/{}/{}".format(page_id, i)

 

保存数据

def download(url):
    response = requests.get(url=url, headers=headers)
    selector = parsel.Selector(response.text)
    title = selector.css("body > div.main > div.content > h2::text").get()  # 图片标题
    img_url = selector.css(".main-image p img::attr(src)").get()  # 图片地址
    path = "D:pythondemo妹子图img" + title + ".jpg"
    download_response = requests.get(url=img_url, headers=headers)
    with open(path, mode="wb") as f:
        f.write(download_response.content)
        print(title, img_url)

 

运行代码,效果如下图

 

版权声明:文章搜集于网络,如有侵权请联系本站,转载请说明出处:https://www.51yma.cn/jiaocheng/python/962.html
文章来源:
标签 都是 尤物 就都
下一篇: 返回列表