簡(jiǎn)單來(lái)說(shuō)互聯(lián)網(wǎng)是由一個(gè)個(gè)站點(diǎn)和網(wǎng)絡(luò)設(shè)備組成的大網(wǎng),我們通過(guò)瀏覽器訪問(wèn)站點(diǎn),站點(diǎn)把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經(jīng)過(guò)瀏覽器解析、渲染,將豐富多彩的網(wǎng)頁(yè)呈現(xiàn)我們眼前;
一、爬蟲是什么?
如果我們把互聯(lián)網(wǎng)比作一張大的蜘蛛網(wǎng),數(shù)據(jù)便是存放于蜘蛛網(wǎng)的各個(gè)節(jié)點(diǎn),而爬蟲就是一只小蜘蛛,
沿著網(wǎng)絡(luò)抓取自己的獵物(數(shù)據(jù))爬蟲指的是:向網(wǎng)站發(fā)起請(qǐng)求,獲取資源后分析并提取有用數(shù)據(jù)的程序;
從技術(shù)層面來(lái)說(shuō)就是通過(guò)程序模擬瀏覽器請(qǐng)求站點(diǎn)的行為,把站點(diǎn)返回的HTML代碼/JSON數(shù)據(jù)/二進(jìn)制數(shù)據(jù)(圖片、視頻)爬到本地,進(jìn)而提取自己需要的數(shù)據(jù),存放起來(lái)使用;
二、爬蟲的基本流程:
用戶獲取網(wǎng)絡(luò)數(shù)據(jù)的方式:
方式1:瀏覽器提交請(qǐng)求--->下載網(wǎng)頁(yè)代碼--->解析成頁(yè)面
方式2:模擬瀏覽器發(fā)送請(qǐng)求(獲取網(wǎng)頁(yè)代碼)->提取有用的數(shù)據(jù)->存放于數(shù)據(jù)庫(kù)或文件中
1、發(fā)起請(qǐng)求
使用http庫(kù)向目標(biāo)站點(diǎn)發(fā)起請(qǐng)求,即發(fā)送一個(gè)Request
Request包含:請(qǐng)求頭、請(qǐng)求體等
Request模塊缺陷:不能執(zhí)行JS和CSS代碼
2、獲取響應(yīng)內(nèi)容
如果服務(wù)器能正常響應(yīng),則會(huì)得到一個(gè)Response
Response包含:html,json,圖片,視頻等
3、解析內(nèi)容
解析html數(shù)據(jù):正則表達(dá)式(RE模塊),第三方解析庫(kù)如Beautifulsoup,pyquery等
解析json數(shù)據(jù):json模塊
解析二進(jìn)制數(shù)據(jù):以wb的方式寫入文件
4、保存數(shù)據(jù)
數(shù)據(jù)庫(kù)(MySQL,Mongdb、Redis)
文件
三、http協(xié)議請(qǐng)求與響應(yīng)
Request:用戶將自己的信息通過(guò)瀏覽器(socketclient)發(fā)送給服務(wù)器(socketserver)
Response:服務(wù)器接收請(qǐng)求,分析用戶發(fā)來(lái)的請(qǐng)求信息,然后返回?cái)?shù)據(jù)(返回的數(shù)據(jù)中可能包含其他鏈接,如:圖片,js,css等)
ps:瀏覽器在接收Response后,會(huì)解析其內(nèi)容來(lái)顯示給用戶,而爬蟲程序在模擬瀏覽器發(fā)送請(qǐng)求然后接收Response后,是要提取其中的有用數(shù)據(jù)。
四、request
1、請(qǐng)求方式:
常見(jiàn)的請(qǐng)求方式:GET/POST
2、請(qǐng)求的URL
url全球統(tǒng)一資源定位符,用來(lái)定義互聯(lián)網(wǎng)上一個(gè)唯一的資源例如:一張圖片、一個(gè)文件、一段視頻都可以用url唯一確定
url編碼
https://www.baidu.com/s?wd=圖片
圖片會(huì)被編碼(看示例代碼)
網(wǎng)頁(yè)的加載過(guò)程是:
加載一個(gè)網(wǎng)頁(yè),通常都是先加載document文檔,
在解析document文檔的時(shí)候,遇到鏈接,則針對(duì)超鏈接發(fā)起下載圖片的請(qǐng)求
3、請(qǐng)求頭
User-agent:請(qǐng)求頭中如果沒(méi)有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個(gè)非法用戶host;
cookies:cookie用來(lái)保存登錄信息
注意:一般做爬蟲都會(huì)加上請(qǐng)求頭
請(qǐng)求頭需要注意的參數(shù):
(1)Referrer:訪問(wèn)源至哪里來(lái)(一些大型網(wǎng)站,會(huì)通過(guò)Referrer做防盜鏈策略;所有爬蟲也要注意模擬)
(2)User-Agent:訪問(wèn)的瀏覽器(要加上否則會(huì)被當(dāng)成爬蟲程序)
(3)cookie:請(qǐng)求頭注意攜帶
4、請(qǐng)求體
請(qǐng)求體
如果是get方式,請(qǐng)求體沒(méi)有內(nèi)容(get請(qǐng)求的請(qǐng)求體放在url后面參數(shù)中,直接能看到)
如果是post方式,請(qǐng)求體是formatdata
ps:
1、登錄窗口,文件上傳等,信息都會(huì)被附加到請(qǐng)求體內(nèi)
2、登錄,輸入錯(cuò)誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁(yè)面通常會(huì)跳轉(zhuǎn),無(wú)法捕捉到post
五、響應(yīng)Response
1、響應(yīng)狀態(tài)碼
200:代表成功
301:代表跳轉(zhuǎn)
404:文件不存在
403:無(wú)權(quán)限訪問(wèn)
502:服務(wù)器錯(cuò)誤
2、responeheader
響應(yīng)頭需要注意的參數(shù):
(1)Set-Cookie:BDSVRTM=0;path=/:可能有多個(gè),是來(lái)告訴瀏覽器,把cookie保存下來(lái)
(2)Content-Location:服務(wù)端響應(yīng)頭中包含Location返回瀏覽器之后,瀏覽器就會(huì)重新訪問(wèn)另一個(gè)頁(yè)面
3、preview就是網(wǎng)頁(yè)源代碼
JSO數(shù)據(jù)
如網(wǎng)頁(yè)html,圖片
二進(jìn)制數(shù)據(jù)等
六、總結(jié)
1、總結(jié)爬蟲流程:
爬取--->解析--->存儲(chǔ)
2、爬蟲所需工具:
請(qǐng)求庫(kù):requests,selenium(可以驅(qū)動(dòng)瀏覽器解析渲染CSS和JS,但有性能劣勢(shì)(有用沒(méi)用的網(wǎng)頁(yè)都會(huì)加載);)
解析庫(kù):正則,beautifulsoup,pyquery
存儲(chǔ)庫(kù):文件,MySQL,Mongodb,Redis
以上內(nèi)容為大家介紹了Python爬蟲原理,希望對(duì)大家有所幫助,如果想要了解更多Python相關(guān)知識(shí),請(qǐng)關(guān)注IT培訓(xùn)機(jī)構(gòu):千鋒教育。http://m.2667701.com/