利用Python爬虫实现30秒爬取500篇微信文章

liftword3个月前 (02-21)技术文章43

引言

由于工作需要,给公司前端做了一个小工具,使用python语言,爬取搜狗微信的微信文章,附搜狗微信官方网址

私信小编01即可获取Python学习资料

搜狗微信:https://weixin.sogou.com/


从热门到时尚圈,并且包括每个栏目下面的额加载更多内容选项

?
一共加起来500+篇文章

需求

爬取这些文章获取到每篇文章的标题和右侧的图片,将爬取到的图片以规定的命名方式输出到规定文件夹中,并将文章标题和图片名称对应输出到Excel和txt中

效果

?

?

?

?

完整代码如下

Package                   Version
------------------------- ---------
altgraph                  0.17
certifi                   2020.6.20
chardet                   3.0.4
future                    0.18.2
idna                      2.10
lxml                      4.5.2
pefile                    2019.4.18
pip                       19.0.3
pyinstaller               4.0
pyinstaller-hooks-contrib 2020.8
pywin32-ctypes            0.2.0
requests                  2.24.0
setuptools                40.8.0
urllib3                   1.25.10
XlsxWriter                1.3.3
xlwt                      1.3.0
# !/usr/bin/python
# -*- coding: UTF-8 -*-
import os

import requests
import xlsxwriter
from lxml import etree

# 请求微信文章的头部信息
headers = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
    'Accept-Encoding': 'gzip, deflate, br',
    'Accept-Language': 'zh-CN,zh;q=0.9',
    'Host': 'weixin.sogou.com',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'
}
# 下载图片的头部信息
headers_images = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
    'Accept-Encoding': 'gzip, deflate',
    'Accept-Language': 'zh-CN,zh;q=0.9',
    'Host': 'img01.sogoucdn.com',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'
}
a = 0
all = []

# 创建根目录
save_path = './微信文章'
folder = os.path.exists(save_path)
if not folder:
    os.makedirs(save_path)
# 创建图片文件夹
images_path = '%s/图片' % save_path
folder = os.path.exists(images_path)
if not folder:
    os.makedirs(images_path)
for i in range(1, 9):
    for j in range(1, 5):
        url = "https://weixin.sogou.com/pcindex/pc/pc_%d/%d.html" % (i, j)
        # 请求搜狗文章的url地址
        response = requests.get(url=url, headers=headers).text.encode('iso-8859-1').decode('utf-8')
        # 构造了一个XPath解析对象并对HTML文本进行自动修正
        html = etree.HTML(response)
        # XPath使用路径表达式来选取用户名
        xpath = html.xpath('/html/body/li')
        for content in xpath:
            # 计数
            a = a + 1
            # 文章标题
            title = content.xpath('./div[@class="txt-box"]/h3//text()')[0]
            article = {}
            article['title'] = title
            article['id'] = '%d.jpg' % a
            all.append(article)
            # 图片路径
            path = 'http:' + content.xpath('./div[@class="img-box"]//img/@src')[0]
            # 下载文章图片
            images = requests.get(url=path, headers=headers_images).content
            try:
                with open('%s/%d.jpg' % (images_path, a), "wb") as f:
                    print('正在下载第%d篇文章图片' % a)
                    f.write(images)
            except Exception as e:
                print('下载文章图片失败%s' % e)
# 信息存储在excel中
# 创建一个workbookx
workbook = xlsxwriter.Workbook('%s/Excel格式.xlsx' % save_path)
# 创建一个worksheet
worksheet = workbook.add_worksheet()
print('正在生成Excel...')
try:
    for i in range(0, len(all) + 1):
        # 第一行用于写入表头
        if i == 0:
            worksheet.write(i, 0, 'title')
            worksheet.write(i, 1, 'id')
            continue
        worksheet.write(i, 0, all[i - 1]['title'])
        worksheet.write(i, 1, all[i - 1]['id'])
    workbook.close()
except Exception as e:
    print('生成Excel失败%s' % e)
print("生成Excel成功")
print('正在生成txt...')
try:
    with open('%s/数组格式.txt' % save_path, "w") as f:
        f.write(str(all))
except Exception as e:
    print('生成txt失败%s' % e)
print('生成txt成功')
print('共爬取%d篇文章' % a)

最后将程序打包成exe文件,在windows系统下可以直接运行程序

?
点赞收藏关注,你的支持是我最大的动力!

相关文章

详细介绍一下Python中如何使用来创建爬虫?

Selenium是一个用来对Web应用程序进行测试的自动化测试工具,能够模拟出用户在浏览器中的各种行为,通过自动化的操作来执行任务,例如说可以模拟用户点击按钮、填写表单、抓取网页内容等,虽然是一个自动...

最简单的python爬虫案例,适合入门学习

用python从网页爬取数据,网上相关文章很多,但能让零基础初学者轻松上手的却很少。可能是有的作者觉得有些知识点太简单不值得花费精力讲,结果是难者不会会者不难,初学者常常因此而蒙圈。本人也是小白,刚摸...

如何入门 Python 爬虫?_python爬虫入门教程

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

Python爬虫超详细讲解(零基础入门,老年人都看得懂)

Python爬虫超详细讲解(零基础入门,老年人都看得懂)

先看后赞,养成习惯。点赞收藏,人生辉煌。讲解我们的爬虫之前,先概述关于爬虫的简单概念(毕竟是零基础教程)爬虫网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟浏览器发送网络请求,接收请求响应,一种按照一...

详细介绍一下Python爬虫技术?_python爬虫技术简介

Python爬虫技术主要是用来通过一些脚本以及自动化的手段从互联网上获取到信息,一般情况下,通过HTTP请求获取到网页内容之后,通过爬虫解析这些内容并且将有用的信息提取出来形成自己的知识库,在Pyth...

分享一个使用Python网络爬虫抓取百度关键词和链接的代码

分享一个使用Python网络爬虫抓取百度关键词和链接的代码唉,今天真是累死我了,下班回家还得给你们写教程。不过说实话,这个爬虫小玩意儿还挺有意思的,咱们来聊聊呗。我记得刚入行那会儿,对爬虫可是又爱又恨...