久久精品国产亚洲高清|精品日韩中文乱码在线|亚洲va中文字幕无码久|伊人久久综合狼伊人久久|亚洲不卡av不卡一区二区|精品久久久久久久蜜臀AV|国产精品19久久久久久不卡|国产男女猛烈视频在线观看麻豆

    1. <style id="76ofp"></style>

      <style id="76ofp"></style>
      <rt id="76ofp"></rt>
      <form id="76ofp"><optgroup id="76ofp"></optgroup></form>
      1. 千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機(jī)構(gòu)

        手機(jī)站
        千鋒教育

        千鋒學(xué)習(xí)站 | 隨時(shí)隨地免費(fèi)學(xué)

        千鋒教育

        掃一掃進(jìn)入千鋒手機(jī)站

        領(lǐng)取全套視頻
        千鋒教育

        關(guān)注千鋒學(xué)習(xí)站小程序
        隨時(shí)隨地免費(fèi)學(xué)習(xí)課程

        當(dāng)前位置:首頁(yè)  >  技術(shù)干貨  > Scrapy與Selenium完美結(jié)合獲取小紅書(shū)漲粉榜單

        Scrapy與Selenium完美結(jié)合獲取小紅書(shū)漲粉榜單

        來(lái)源:千鋒教育
        發(fā)布人:qyf
        時(shí)間: 2022-09-20 16:36:20 1663662980

          Scrapy框架與Selenium我們前面都介紹過(guò),本次給大家分享的是兩者如何配合使用。如果喜歡不要忘記分享、點(diǎn)贊哦!

          本次我們獲取千瓜的數(shù)據(jù):http://www.qian-gua.com/rank/category/

        Picture

          不好意思!接下來(lái)這個(gè)頁(yè)面你會(huì)很郁悶!

        Picture(1)

          我們想獲取更多的日榜達(dá)人的數(shù)據(jù)怎么操作?借助selenium哦!為了獲取更多我們結(jié)合Scrapy完成此次的爬蟲(chóng)任務(wù)。

          任務(wù)要求:

          Python3環(huán)境

          Scrapy框架

          Selenium 可以參照https://selenium-python-zh.readthedocs.io/en/latest/

          谷歌瀏覽器+ChromeDriver

          ChromeDriver的下載地址:https://chromedriver.storage.googleapis.com/index.html

          首先我們創(chuàng)建項(xiàng)目:scrapy startproject qiangua_spider

          然后進(jìn)入qiangua_spider目錄下,執(zhí)行:scrapy genspider qiangua qian-gua.com

          在Pycharm中打開(kāi)創(chuàng)建的項(xiàng)目,目錄結(jié)構(gòu)如下:

        Picture(2)

          修改settings.py文件ROBOTSTXT_OBEY 為 False

          編寫(xiě)items.py文件內(nèi)容如下:

        Picture(3)

         

          代碼如下:

          import scrapy

          class QianguaSpiderItem(scrapy.Item):

          # define the fields for your item here like:

          name = scrapy.Field()

          level = scrapy.Field()

          fans = scrapy.Field()

          likeCollect = scrapy.Field()

          編寫(xiě)spider.py爬蟲(chóng)文件,如果不登陸我們是無(wú)法看的更多的小紅書(shū)達(dá)人們的賬號(hào)排行、漲粉等信息。如果想看的更多則需要登陸才可以。

          流程與思路:

          先進(jìn)入http://www.qian-gua.com/rank/category/

          點(diǎn)擊右上角的登陸(此過(guò)程需要有千瓜的賬號(hào)才可以)

          有兩種登陸方式,我們可以選擇微信掃碼登陸,或者手機(jī)登陸(本案例采用手機(jī)登陸)

          獲取登陸的Cookies

          保存Cookies并訪(fǎng)問(wèn)

          http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=頁(yè)碼數(shù)&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=時(shí)間戳

          得到j(luò)son數(shù)據(jù)并解析數(shù)據(jù)

          在上述的流程中1-4,我們都是結(jié)合selenium完成的。

          代碼如下

          import json

          import time

          import scrapy

          from selenium import webdriver

          from qiangua_spider.items import QianguaSpiderItem

          class QianguaSpider(scrapy.Spider):

          name = 'qiangua'

          allowed_domains = ['www.qian-gua.com']

          # start_urls = ['http://www.qian-gua.com/rank/category/']

          headers = {

          'Origin': 'http://app.qian-gua.com',

          'Host': 'api.qian-gua.com',

          'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/14.1.2 Safari/605.1.15'

          }

          def start_requests(self):

          driver = webdriver.Chrome()

          url = 'http://www.qian-gua.com/rank/category/'

          driver.get(url)

          driver.implicitly_wait(5)

          driver.find_element_by_xpath('//div[@class="loggin"]/a').click()

          time.sleep(2)

          driver.find_element_by_xpath('//div[@class="login-tab"]/span[2]').click()

          driver.find_element_by_xpath('//input[@class="js-tel"]').send_keys('15010185644')

          driver.find_element_by_xpath('//input[@class="js-pwd"]').send_keys('qiqining123')

          driver.find_element_by_xpath('//button[@class="btn-primary js-login-tel-pwd"]').click()

          time.sleep(2)

          cookies = driver.get_cookies()

          driver.close()

          jsonCookies = json.dumps(cookies) # 通過(guò)json將cookies寫(xiě)入文件

          with open('qianguaCookies.json', 'w') as f:

          f.write(jsonCookies)

          print(cookies)

          with open('qianguaCookies.json', 'r', encoding='utf-8') as f:

          listcookies = json.loads(f.read()) # 獲取cookies

          cookies_dict = dict()

          for cookie in listcookies:

          # 在保存成dict時(shí),我們其實(shí)只要cookies中的name和value,而domain等其他都可以不要

          cookies_dict[cookie['name']] = cookie['value']

          # 更多的數(shù)據(jù)需要開(kāi)通會(huì)員才可以,我們當(dāng)前獲取了top30的數(shù)據(jù)

          for page in range(1, 2):

          t = time.time()

          timestamp = str(t).replace(".", '')[:13]

          data_url = "http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=" + str(

          page) + "&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=" + timestamp

          yield scrapy.Request(url=data_url, cookies=cookies_dict, callback=self.parse, headers=self.headers)

          def parse(self, response):

          rs = json.loads(response.text)

          if rs.get('Msg')=='ok':

          blogger_list = rs.get('Data').get("ItemList")

          for blogger in blogger_list:

          name = blogger.get('BloggerName')

          level = blogger.get('LevelName','無(wú)')

          fans = blogger.get('Fans')

          likeCollect = blogger.get('LikeCollectCount')

          item = QianguaSpiderItem()

          item['name'] = name

          item['level'] = level

          item['fans'] = fans

          item['likeCollect'] = likeCollect

          yield item

          最后我們添加pipelines.py保存解析的數(shù)據(jù),我們是將數(shù)據(jù)保存到csv文件中

          代碼如下:

          import csv

          from itemadapter import ItemAdapter

          class QianguaSpiderPipeline:

          def __init__(self):

          self.stream = open('blogger.csv', 'w', newline='', encoding='utf-8')

          self.f = csv.writer(self.stream)

          def open_spider(self, spider):

          print("爬蟲(chóng)開(kāi)始...")

          def process_item(self, item, spider):

          data = [item.get('name'), item.get('level'), item.get('fans'), item.get('likeCollect')]

          self.f.writerow(data)

          def close_spider(self, spider):

          self.stream.close()

          print('爬蟲(chóng)結(jié)束!')

          務(wù)必記得將settings.py中pipelines部分的代碼注釋取消掉

          ITEM_PIPELINES = {

          'qiangua_spider.pipelines.QianguaSpiderPipeline': 300,

          }

          執(zhí)行爬蟲(chóng)

          scrapy crawl qiangua

          結(jié)果很令我們滿(mǎn)意

        Picture(4)

        tags:
        聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
        10年以上業(yè)內(nèi)強(qiáng)師集結(jié),手把手帶你蛻變精英
        請(qǐng)您保持通訊暢通,專(zhuān)屬學(xué)習(xí)老師24小時(shí)內(nèi)將與您1V1溝通
        免費(fèi)領(lǐng)取
        今日已有369人領(lǐng)取成功
        劉同學(xué) 138****2860 剛剛成功領(lǐng)取
        王同學(xué) 131****2015 剛剛成功領(lǐng)取
        張同學(xué) 133****4652 剛剛成功領(lǐng)取
        李同學(xué) 135****8607 剛剛成功領(lǐng)取
        楊同學(xué) 132****5667 剛剛成功領(lǐng)取
        岳同學(xué) 134****6652 剛剛成功領(lǐng)取
        梁同學(xué) 157****2950 剛剛成功領(lǐng)取
        劉同學(xué) 189****1015 剛剛成功領(lǐng)取
        張同學(xué) 155****4678 剛剛成功領(lǐng)取
        鄒同學(xué) 139****2907 剛剛成功領(lǐng)取
        董同學(xué) 138****2867 剛剛成功領(lǐng)取
        周同學(xué) 136****3602 剛剛成功領(lǐng)取
        相關(guān)推薦HOT
        什么是域控制器?

        一、域控制器的定義域控制器是指在Windows Server操作系統(tǒng)中部署Active Directory服務(wù)的服務(wù)器。Active Directory是微軟公司開(kāi)發(fā)的目錄服務(wù),用...詳情>>

        2023-10-15 00:10:28
        深度學(xué)習(xí)模型權(quán)重h5、weights、ckpt、pth有什么區(qū)別?

        1.來(lái)源框架不同h5格式通常用于Keras和TensorFlow框架,weights用于Darknet框架,ckpt是TensorFlow框架的一種格式,而pth則主要用于PyTorch框架...詳情>>

        2023-10-15 00:05:17
        大數(shù)據(jù)測(cè)試工程師需要具備哪些技能?

        一、理解大數(shù)據(jù)概念大數(shù)據(jù)測(cè)試工程師需要理解大數(shù)據(jù)的基本概念和原理,如分布式存儲(chǔ)、MapReduce、實(shí)時(shí)計(jì)算等。他們還需要了解如何處理大規(guī)模的...詳情>>

        2023-10-14 23:43:03
        為什么SpringBoot的 jar 可以直接運(yùn)行?

        一、JAR文件的結(jié)構(gòu)與執(zhí)行方式Spring Boot的JAR包是Java Archive的縮寫(xiě),它是一種壓縮文件格式,可以將Java項(xiàng)目的類(lèi)文件、資源文件以及依賴(lài)庫(kù)等...詳情>>

        2023-10-14 23:01:49
        站群服務(wù)器是什么?

        站群服務(wù)器的含義與用途站群服務(wù)器主要用于支持站群,即由一組相互鏈接的網(wǎng)站組成的群體。這些網(wǎng)站通常由同一組織或個(gè)人擁有,并且經(jīng)常會(huì)互相鏈...詳情>>

        2023-10-14 22:46:12
        快速通道
        邹平县| 洛浦县| 澜沧| 加查县| 安岳县| 白山市| 普洱| 定州市| 多伦县| 涡阳县| 太湖县| 宜城市| 白朗县| 长岛县| 铁岭市| 石嘴山市| 钟山县| 临潭县| 保德县| 浦江县| 焦作市| 紫云| 临漳县| 高平市| 陇南市| 德江县| 河池市| 内黄县| 溆浦县| 上虞市| 汉沽区| 盱眙县| 新源县| 虎林市| 大悟县| 孙吴县| 莲花县| 长泰县| 英山县| 师宗县| 萍乡市|