python实现爬取豆瓣电影Top250

liftword3个月前 (03-24)技术文章14


最近学习了用python爬取某网站电影Top250的数据,在这里记录一下。

需要引入几个模块

from bs4 import BeautifulSoup    	# 网页解析,获取数据
import re      																	 # 正则表达式,进行文字匹配
import urllib.request,urllib.error   	# 制定URL,获取网页数据
import xlwt    																	# 进行Excel操作

1、爬取网页

首先对该网站进行分析,发现Top250共有10页,每页25条信息。

第一页是:
https://movie.douban.com/top250?start=0

第二页是:
https://movie.douban.com/top250?start=25&filter=

以此类推...... 其中&filter是可以去掉的。

因此定义基础的url变量:baseurl = "
https://movie.douban.com/top250?start="

将其置于for循环中,start=可以根据for循环的变量添加

    for i in range (0,10):              # 调用获取页面信息的函数10次
        url = baseurl+str(i*25)

1.1、获取网页源代码

这里的基础知识详见:
https://blog.csdn.net/Zhouzi_heng/article/details/108573489

首先我们要模拟浏览器对该网站进行访问。可以查看自己浏览器的代理,进行模仿。

用户代理,告诉豆瓣服务器,我们是什么类型的机器、浏览器(本质上是告诉浏览器,我们可以接受什么水平的文件内容)

然后用urllib.request.Request()方法进行请求的模仿,并返回得到的信息。

第三步将请求返回的内容作为参数,传递到urlopen方法中,进行网页信息的爬取。

最后在加入异常判断。

#得到指定一个URL的网页内容
def askURL(url):
    #用户代理,告诉豆瓣服务器,我们是什么类型的机器,浏览器(本质上是告诉浏览器,我们可以接受什么水平的文件内容)
 
    #头部信息,模拟浏览器头部信息,向豆瓣浏览器发送消息
    head={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36"}
    #请求
    request = urllib.request.Request(url,headers=head)
    #存储
    html = ""
    try:
        response = urllib.request.urlopen(request)
        html = response.read().decode("utf-8")
        #print(html)
    except urllib.error.URLError as e:
        if hasattr(e,"code"):
            print(e.code)
        if hasattr(e,"reason"):
            print(e.reason)
    return html

2、对获取到的信息逐一进行解析

BeautifulSoup的基础知识详见:
https://blog.csdn.net/Zhouzi_heng/article/details/108586516

我们这里用是HTML解析,因此,定义

soup = BeautifulSoup(html,"html.parser")       #解析

定义一个list保存一部电影的信息:data=[]

查看原码发现,每部电影都是 li标签,对于其中每一个电影,是从

开始的

那么我们就从这里开始查找网页中的字符串。

通过正则表达式来进行查找相应的字符串是比较方便的

影片详情的正则表达式规则

findLink = re.compile(r'')

依此类推

#影片图片的链接规则
findImaSrc = re.compile(r'<img.*src="(.*?)"',re.S)    #re.S让换行符包含在字符中
#影片片名
findTitle = re.compile(r'(.*)')
#评分
findRating = re.compile(r'(.*)')
#评价人数
findJudge = re.compile(r'(\d*)人评价')
#找到概况
findInq = re.compile(r'(.*)')
#找到影片的相关内容
findBd = re.compile(r'

(.*?)

',re.S) #re.S让换行符包含在字符中

再用re库来通过正则表达式查找指定的字符串,并添加到data中

对影片详情的超链接的添加:

#影片详情的超链接
link = re.findall(findLink,item)[0]            #re库用来通过正则表达式查找指定的字符串
data.append(link)                              #添加链接

其他的以此类推

imgSrc = re.findall(findImaSrc,item)[0]
            data.append(imgSrc)                            #添加图片
 
            titles = re.findall(findTitle,item)
            if (len(titles)==2):
                ctitle = titles[0]
                data.append(ctitle)                            #添加中文名
                otitle = titles[1].replace("/","")            #去掉/
                data.append(otitle)                           #添加外国名
            else:
                data.append(titles[0])
                data.append(" ")                              #外国名留空
 
            rating = re.findall(findRating,item)[0]
            data.append(rating)                             #添加打分
 
            judgeNum = re.findall(findJudge,item)[0]
            data.append(judgeNum)                           #添加评价人数
 
            inq = re.findall(findInq,item)
            if len(inq)!=0:
                inq = inq[0].replace("。","")              #去掉句号
                data.append(inq)                                #添加概述
            else:
                data.append(" ")                          #留空
 
            bd = re.findall(findBd,item)[0]
            bd = re.sub('(\s+)?'," ",bd)       #去掉
bd = re.sub('/'," ",bd) #替换/ data.append(bd.strip()) #去掉前后的空格

需要注意的是title有中文名和外文名(英文、韩语等),需要特殊处理。概况和影片相关内容也需要处理。

最后再用一个datalist的列表将data进行存储。

3、保存数据

不同的是需要加入行说明

book = xlwt.Workbook(encoding="utf-8",style_compression=0)  # 1创建workbook对象
    sheet = book.add_sheet("豆瓣电影Top250",cell_overwrite_ok=True)  # 2.创建worksheet  创建工作表  cell_overwrite_ok=True覆盖以前的内容
 
    col = ("电影详情链接","图片链接","影片中文名","影片外国名","评分","评价数","概况","相关信息")
    for i in range(0,8):
        sheet.write(0,i,col[i])              #写入列表

再循环250次将之前datalist中的元素存写到worksheet中,并保存

  for i in range(0,250):
        print("第%d条"%(i+1))
        data = datalist[i]
        for j in range(0,8):
            sheet.write(i+1,j,data[j])
 
    book.save(savePath)      #保存名称

4、运行结果

github: https://github.com/StudyWinter/doubanSpider

相关文章

用Python 爬取并保存小说

1. 安装requests pip install requests2. 安装lxml pip install lxml3. 斗罗大陆网页代码4 import requests from lxml i...

python:最简单爬虫之爬取小说网Hello wrold

以下用最简单的示例来演示爬取某小说网的类目名称。新建一个retest.py,全文代码如下,读者可以复制后直接运行。代码中我尽量添加了一些注释便于理解。需要说明的一点,该小说网站如果后续更新改版了,文中...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用 requests 和 re 来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前 500 本好五星评书籍怎么样?ok接下来就是学习 python 的正确姿...

Python爬虫:用Beautifulsoup爬取html文本数据

Beautifulsoup介绍:是一个高效的网页解析库,可以从HTML或XML文件中提取数据支持不同的解析器,比如,对HTML解析,对XML解析,对HTML5解析就是一个非常强大的工具,爬虫利器一个灵...

python利用Selenium爬取电影天堂实现电影自由

前几期我们实现了小说,音乐自由,当然不能少了影视自由啦,这期我们就来看看如何利用python实现电影自由。首先老办法我们打开电影天堂的网站,右击检查查看下网站的源码经过分析后暗暗窃喜,跟之前一个套路,...

Python“三步”即可爬取,毋庸置疑

声明:本实例仅供学习,切忌遵守robots协议,请不要使用多线程等方式频繁访问网站。#第一步导入模块import reimport requests#第二步获取你想爬取的网页地址,发送请求,获取网页内...