python 爬取華為應用市場評論 python

目錄
  • 代碼分享
  • 一、安裝並創建Scrapy項目
  • 二、爬取應用市場評論過程
    • 1. Scrapy爬蟲運行流程
    • 2. 頁面分析
      • 頁面分析過程一
      • 頁面分析過程二
      • 頁面分析過程三
    • 3. 爬蟲實現
      • 解析json並構造請求
      • 將數據保存在items中
      • 構造新的請求
      • item數據的處理

代碼分享

整個項目我放在瞭github上,在python3.7下可以正常使用,如果有什麼問題歡迎大傢指正。

github項目地址:https://github.com/LSY-C/scrapy_hauweiappstore_comment

分別爬取的一些應用信息以及應用的評論信息,數據結構如下:

一、安裝並創建Scrapy項目

Scrapy官方文檔:https://docs.scrapy.org/en/latest/intro/install.html

Scrapy是一個比較好用的python爬蟲框架,官方文檔寫得也比較詳細。可以直接運行以下命令安裝:

pip install Scrapy

安裝完畢後,需要創建Scrapy項目,相當於是一個爬蟲項目框架,在想要放置項目的地方打開命令行並輸入以下命令會自動創建一個名為[project_name]的档案夾,比如我這裡的[project_name]是appstore,档案夾中會自動生成的一些档案。

scrapy startproject appstore
  • appstore/scrapy.cfg中包含瞭用於啟動爬蟲的一些基礎配置,一般不用管它。
  • appstore/appstore/items.py:定義瞭爬取到的數據格式類,在這裡面創建類來存放爬取到的數據的item格式。
  • appstore/appstore/middlewares.py:定義瞭爬蟲中間鍵的一些行為,我一般也不會去動它。
  • appstore/appstore/pipelines.py:定義瞭爬取到item後對其進行的處理。
  • appstore/appstore/settings.py:是爬蟲配置档案。
  • appstore/appstore/spiders/:這個目錄下存放的是爬蟲,也就是向網頁發送請求並受到應答然後進行數據處理的過程。

二、爬取應用市場評論過程

爬取網頁信息有兩個常用的方法:

  • 直接通過xpath解析html档案
  • 依據特定格式構造請求獲取json數據進行解析

顯然前者更簡單方便一些,但是現在許多網頁都是動態的,所以後者泛用性更強一些,這裡我爬取華為應用市場上所有應用的評論信息主要使用的是後面一種方法。

1. Scrapy爬蟲運行流程

首先需要大致瞭解Scrapy的爬蟲是如何運作的,分為以下幾個步驟:

  • Step1: 在項目的spiders档案夾中新建一個.py档案,比如huawei.py,一般來說每一個档案代表一個爬蟲,也就是對某一個網頁的爬取策略。
  • Step2: 創建一個類繼承自scrapy.Spider,類中至少需要有name、allowed_domain、start_urls變量以及一個函數parse(self)。其中name是此爬蟲的唯一標識,之後啟動時通過指定name來判斷啟動哪個爬蟲(因為spiders档案夾中可能包含多個爬蟲档案);allowed_domain用來指定當前爬蟲可以訪問的主網域名稱;start_urls用來指定首先獲取的頁面,而此獲取結果將會交由parse函數進行處理。每個爬蟲中的處理函數可能有很多個,命名格式一般是parse_xxx之類的,用來處理多級頁面,比如parse處理完主頁面之後構造新的請求獲取二級頁面信息並通過parse_second進行處理,但不管怎麼樣都會包含一個parse函數。
import scrapy
class HuaWei(scrapy.Spider):
    name = "huawei"
    allowed_domains = ['appstore.huawei.com', 'web-drcn.hispace.dbankcloud.cn']
    start_urls = [
        'https://web-drcn.hispace.dbankcloud.cn/uowap/index?method=internal.getTemplate&serviceType=20&zone=&locale=zh']

    def parse(self, response):
    	pass
  • step3: 爬蟲編寫好之後,在項目根目錄(也就是scrapy.cfg档案的同級目錄)打開命令行,並輸入以下命令啟動爬蟲:
scrapy crawl hauwei

2. 頁面分析

首先,通過瀏覽器訪問應用市場,分析一下想要爬取網頁的基本信息,這裡我想要爬取應用市場中所有應用的評論,所以首先需要進入到所有應用的詳細界面,然後在詳細界面中展開評論進行爬取,基本的思路是:對每一個分類–>對每一個子分類–>展開每一個應用–>獲取應用全部評論。

爬取的初始頁面是https://appgallery.huawei.com/#/Apps,瀏覽器中使用F12啟動開發者模式,調試網頁前端代碼,我們希望的是能夠找到頁面排版的某些規律。

頁面分析過程一

我們發現不管在應用分類的選項卡中選擇哪一個分類或是子分類,url都不會變。也就是說,選擇分類後顯示對應的應用列表這一功能是動態實現的,我們沒辦法通過抓取html中的信息來獲取不同分類的應用列表,那麼我們隻能通過自己構造請求獲取json數據的方式爬取信息。
首先,打開調試窗口中的Network選項卡來分析獲取不同分類應用列表時的網絡數據包:

除瞭第一個數據包以外,後面的都是獲取應用圖標數據,也就是說第一個數據包裡面就包含瞭應用的其他數據,查看此數據包中的request_url為:

https://web-drcn.hispace.dbankcloud.cn/uowap/index
?method=internal.getTabDetail
&serviceType=20
&reqPageNum=1
&uri=8e62cf6d238c4abdb892b400ff072f43
&maxResults=25
&zone=
&locale=zh

我們直接在瀏覽器中訪問此url,可以得到一個json档案,分析後發現此json档案中包含瞭列表中應用的信息。點擊不同的分類、子分類,獲取不同的request_url,我們發現,每一個子分類的request_url都隻有uri字段不一樣,且默認情況都隻顯示第1頁的25個應用。也就是說我們以此request_url為模板,修改uri字段實現獲取不同類別應用列表,修改reqPageNum字段獲取列表中的多頁應用。

頁面分析過程二

手動點進每一個應用的詳細界面時,我們發現,不同應用的詳細界面的url隻有最後的定位有不同,比如騰訊視頻與優酷視頻這兩個應用詳細界面的url分別是:

多觀察幾個應用就會發現最後的那一串代碼應該是類似於應用唯一標識符一樣的東西。而在上一步中,我們可以發現在獲取的每個應用信息中包含能夠找到這些標識符(‘appid’鍵的值),於是我在這裡嘗試直接以這種格式構造url請求獲取頁面,但是失敗瞭,猜測可能是頁面重定向的問題,沒辦法,隻能按部就班地通過其它方式繼續分析。
通過F12查看頁面排版,每一個app卡片中雖然有app名稱以及一些其他信息,但是找不到app詳細頁面的鏈接,因為獲取應用詳細信息功能被寫成瞭使用js動態獲取的,因此我們沒辦法直接從html界面中獲取,所以依舊采用構造request_url的方法獲取json數據。

與分析過程一類似,我們可以獲取以下的request_url:

https://web-drcn.hispace.dbankcloud.cn/uowap/index
?method=internal.getTabDetail
&serviceType=20
&reqPageNum=1
&maxResults=25
&uri=app%7CC174391
&shareTo=
&currentUrl=https%253A%252F%252Fappgallery.huawei.com%252F%2523%252Fapp%252FC174391
&accessId=
&appid=C174391
&zone=
&locale=zh

通過此request_url獲取的json中包含瞭應用的詳細信息,實際上通過測試,其中的reqPageNum、maxResults、shareTo、currentUrl、accessId、appid、zone、locale字段都是不需要的,而又發現uri字段中後面的“C174391”是當前應用的appid,也就是說我們隻需要修改uri字段的“app%7C”後面的字符串為不同應用的appid(可以在分析過程一中的json档案裡獲取),就可以獲取不同應用的詳細信息。

頁面分析過程三

有瞭上面兩次分析的經驗,我們繼續來爬取每個應用的評論數據,發現這些數據也是通過js動態獲取的,於是繼續分析request_url,格式如下:

https://web-drcn.hispace.dbankcloud.cn/uowap/index
?method=internal.user.commenList3
&serviceType=20
&reqPageNum=1
&maxResults=25
&appid=C2002
&version=10.0.0
&zone=
&locale=zh

與之前類似,我們可以通過修改appid字段爬取不同應用的評論,通過修改reqPageNum字段爬取多頁評論。

3. 爬蟲實現

整個爬取過程就是:構造request_url請求獲取json數據–>解析json數據–>構造新的request_url獲取json數據–>…
下面是爬蟲中的一個處理函數,功能是處理每一個應用的詳細信息並構造獲取評論的request_url發送新的請求,接下來依次說明其中的關鍵部分。

def app_parse(self, response):
    """
    解析應用,獲取應用名稱、描述、資費、版本、開發者,然後轉至appcomment_parse進行處理
    :param resonse:
    :return:
    """
    appid = response.meta['appid']
    app_json = json.loads(response.text)
    Name = app_json.get('layoutData')[0].get('dataList')[0].get('name')
    Star = app_json.get('layoutData')[0].get('dataList')[0].get('intro')
    Downloads = app_json.get('layoutData')[0].get('dataList')[0].get('stars')
    Price = app_json.get('layoutData')[3].get('dataList')[0].get('tariffDesc')
    Version = app_json.get('layoutData')[3].get('dataList')[0].get('version')
    Developer = app_json.get('layoutData')[3].get('dataList')[0].get('developer')
    Description = app_json.get('layoutData')[7].get('dataList')[0].get('appIntro').replace('\n', '')
    AppData = AppItem(
        AppId=appid,
        AppName=Name,
        AppDesc=Description,
        AppPrice=Price,
        AppVersion=Version,
        AppDeveloper=Developer,
        AppStar=Star,
        AppDownloads=Downloads
    )
    yield AppData
    for pagenum in range(1, 20):
        request_url = "https://web-drcn.hispace.dbankcloud.cn/uowap/index?method=internal.user.commenList3&serviceType=20&reqPageNum={}&maxResults=25&appid={}&version=10.0.0&zone=&locale=zh".format(
            pagenum, appid)
        yield scrapy.Request(url=request_url, callback=self.appcomment_parse, meta={'appid': appid})

解析json並構造請求

第8行中通過json.loads將響應解析為json格式,並在後續使用鍵值與index訪問裡面的信息。

將數據保存在items中

在items.py档案中定義好Item類之後,可以在此新建一個Item對象,並在填入相應的值,將此item返回交由pipeline.py進行處理。

# items.py
class AppItem(scrapy.Item):
    AppId = scrapy.Field()
    AppName = scrapy.Field()
    AppDesc = scrapy.Field()
    AppPrice = scrapy.Field()
    AppVersion = scrapy.Field()
    AppDeveloper = scrapy.Field()
    AppStar = scrapy.Field()
    AppDownloads = scrapy.Field()

yield是python中的一個關鍵詞,與return類似,會讓函數返回此關鍵詞修飾的表達式值,與return不同的是,yield在返回一個值後會繼續執行後面的代碼,而return不會。

構造新的請求

在最後一行中針對所有評論列表構造新的request_url以獲取評論信息,並通過scrapy.Request發送請求,其中callback指定用於處理此請求響應的處理函數,而meta中包含瞭想要傳遞給callback函數的信息。

item數據的處理

在爬取數據的過程中,處理函數會實時將不同的item返回並交由pipeline進行處理,此時需要在pipeline.py中指定如何處理這些item,比如在此我把數據全都記錄入csv表格中。pipeline類中必須定義process_item函數來處理每一個item,而__init__與close_spider都是可選的。

class AppStorePipeline:
    def __init__(self):
        self.app_list = []
        self.comment_list = []

    def process_item(self, item, spider):	# 接收到item時調用的函數
        if isinstance(item, AppItem):
            self.app_list.append(dict(item))
        elif isinstance(item, CommentItem):
            self.comment_list.append(dict(item))
        return item

    def close_spider(self, spider):			# 當爬蟲關閉時調用的函數
        df_app = pd.DataFrame(self.app_list)
        df_comment = pd.DataFrame(self.comment_list)
        df_app.to_csv('app_info.csv')
        df_comment.to_csv('comment_info.csv')

以上就是python 爬取華為應用市場評論的詳細內容,更多關於python 爬取華為應用市場的資料請關註其它相關文章!

發佈留言