千锋教育-做有情怀、有良心、有品质的职业教育机构

手机站
千锋教育

千锋学习站 | 随时随地免费学

千锋教育

扫一扫进入千锋手机站

领取全套视频
千锋教育

关注千锋学习站小程序
随时随地免费学习课程

当前位置:首页  >  技术干货  > Scrapy与Selenium完美结合获取小红书涨粉榜单

Scrapy与Selenium完美结合获取小红书涨粉榜单

来源:千锋教育
发布人:wjy
时间: 2022-06-07 09:51:00 1654566660

  Scrapy框架与Selenium我们前面都介绍过,本次给大家分享的是两者如何配合使用。

  本次我们获取千瓜的数据:http://www.qian-gua.com/rank/category/

Scrapy与Selenium完美结合获取小红书涨粉榜单111

 

  不好意思!接下来这个页面你会很郁闷!

Scrapy与Selenium完美结合获取小红书涨粉榜单133

 

  我们想获取更多的日榜达人的数据怎么操作?借助selenium哦!为了获取更多我们结合Scrapy完成此次的爬虫任务。

  任务要求:

  Python3环境

  Scrapy框架

  Selenium 可以参照https://selenium-python-zh.readthedocs.io/en/latest/

  谷歌浏览器+ChromeDriver

  ChromeDriver的下载地址:https://chromedriver.storage.googleapis.com/index.html

  首先我们创建项目:scrapy startproject qiangua_spider

  然后进入qiangua_spider目录下,执行:scrapy genspider qiangua qian-gua.com

  在Pycharm中打开创建的项目,目录结构如下:

Scrapy与Selenium完美结合获取小红书涨粉榜单510

 

  修改settings.py文件ROBOTSTXT_OBEY 为 False

  编写items.py文件内容如下:

Scrapy与Selenium完美结合获取小红书涨粉榜单569

 

  代码如下:

import scrapy

class QianguaSpiderItem(scrapy.Item):
    # define the fields for your item here like:
    name = scrapy.Field()
    level = scrapy.Field()
    fans = scrapy.Field()
    likeCollect = scrapy.Field()

  编写spider.py爬虫文件,如果不登陆我们是无法看的更多的小红书达人们的账号排行、涨粉等信息。如果想看的更多则需要登陆才可以。

  流程与思路:

  先进入http://www.qian-gua.com/rank/category/

  点击右上角的登陆(此过程需要有千瓜的账号才可以)

  有两种登陆方式,我们可以选择微信扫码登陆,或者手机登陆(本案例采用手机登陆)

  获取登陆的Cookies

  保存Cookies并访问

  http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=页码数&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=时间戳

  得到json数据并解析数据

  在上述的流程中1-4,我们都是结合selenium完成的。

  代码如下

import json
import time
import scrapy
from selenium import webdriver
from qiangua_spider.items import QianguaSpiderItem


class QianguaSpider(scrapy.Spider):
    name = 'qiangua'
    allowed_domains = ['www.qian-gua.com']
    # start_urls = ['http://www.qian-gua.com/rank/category/']

    headers = {
        'Origin': 'http://app.qian-gua.com',
        'Host': 'api.qian-gua.com',
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/14.1.2 Safari/605.1.15'
    }

    def start_requests(self):
        driver = webdriver.Chrome()
        url = 'http://www.qian-gua.com/rank/category/'
        driver.get(url)
        driver.implicitly_wait(5)
        driver.find_element_by_xpath('//div[@class="loggin"]/a').click()
        time.sleep(2)
        driver.find_element_by_xpath('//div[@class="login-tab"]/span[2]').click()
        driver.find_element_by_xpath('//input[@class="js-tel"]').send_keys('15010185644')
        driver.find_element_by_xpath('//input[@class="js-pwd"]').send_keys('qiqining123')
        driver.find_element_by_xpath('//button[@class="btn-primary js-login-tel-pwd"]').click()
        time.sleep(2)
        cookies = driver.get_cookies()
        driver.close()

        jsonCookies = json.dumps(cookies)  # 通过jsoncookies写入文件
        with open('qianguaCookies.json', 'w') as f:
            f.write(jsonCookies)
        print(cookies)
        with open('qianguaCookies.json', 'r', encoding='utf-8') as f:
            listcookies = json.loads(f.read())  # 获取cookies

        cookies_dict = dict()
        for cookie in listcookies:
            # 在保存成dict时,我们其实只要cookies中的namevalue,而domain等其他都可以不要
            cookies_dict[cookie['name']] = cookie['value']
# 更多的数据需要开通会员才可以,我们当前获取了top30的数据
        for page in range(1, 2):
            t = time.time()
            timestamp = str(t).replace(".", '')[:13]
            data_url = "http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=" + str(
                page) + "&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=" + timestamp

            yield scrapy.Request(url=data_url, cookies=cookies_dict, callback=self.parse, headers=self.headers)

    def parse(self, response):
        rs = json.loads(response.text)
        if rs.get('Msg')=='ok':
            blogger_list = rs.get('Data').get("ItemList")
            for blogger in blogger_list:
                name = blogger.get('BloggerName')
                level = blogger.get('LevelName','')
                fans = blogger.get('Fans')
                likeCollect = blogger.get('LikeCollectCount')
                item = QianguaSpiderItem()
                item['name'] = name
                item['level'] = level
                item['fans'] = fans
                item['likeCollect'] = likeCollect
                yield item

  最后我们添加pipelines.py保存解析的数据,我们是将数据保存到csv文件中

  代码如下:

import csv
from itemadapter import ItemAdapter


class QianguaSpiderPipeline:
    def __init__(self):
        self.stream = open('blogger.csv', 'w', newline='', encoding='utf-8')
        self.f = csv.writer(self.stream)

    def open_spider(self, spider):
        print("爬虫开始...")

    def process_item(self, item, spider):
        data = [item.get('name'), item.get('level'), item.get('fans'), item.get('likeCollect')]
        self.f.writerow(data)

    def close_spider(self, spider):
        self.stream.close()
        print('爬虫结束!')

  务必记得将settings.py中pipelines部分的代码注释取消掉

ITEM_PIPELINES = {
   'qiangua_spider.pipelines.QianguaSpiderPipeline': 300,
}

  执行爬虫

  scrapy crawl qiangua

  结果很令我们满意

Scrapy与Selenium完美结合获取小红书涨粉榜单4773

 

更多关于python培训的问题,欢迎咨询千锋教育在线名师。千锋教育拥有多年IT培训服务经验,采用全程面授高品质、高体验培养模式,拥有国内一体化教学管理及学员服务,助力更多学员实现高薪梦想。

tags:
声明:本站稿件版权均属千锋教育所有,未经许可不得擅自转载。
10年以上业内强师集结,手把手带你蜕变精英
请您保持通讯畅通,专属学习老师24小时内将与您1V1沟通
免费领取
今日已有369人领取成功
刘同学 138****2860 刚刚成功领取
王同学 131****2015 刚刚成功领取
张同学 133****4652 刚刚成功领取
李同学 135****8607 刚刚成功领取
杨同学 132****5667 刚刚成功领取
岳同学 134****6652 刚刚成功领取
梁同学 157****2950 刚刚成功领取
刘同学 189****1015 刚刚成功领取
张同学 155****4678 刚刚成功领取
邹同学 139****2907 刚刚成功领取
董同学 138****2867 刚刚成功领取
周同学 136****3602 刚刚成功领取
相关推荐HOT