中文字幕 另类精品,亚洲欧美一区二区蜜桃,日本在线精品视频免费,孩交精品乱子片免费

<sup id="3hn2b"></sup>

    1. <sub id="3hn2b"><ol id="3hn2b"></ol></sub><legend id="3hn2b"></legend>

      1. <xmp id="3hn2b"></xmp>

      2. "); //-->

        博客專欄

        EEPW首頁 > 博客 > 想成為Python高手,必須看這篇爬蟲原理介紹?。ǜ?9個(gè)爬蟲項(xiàng)目)

        想成為Python高手,必須看這篇爬蟲原理介紹!(附29個(gè)爬蟲項(xiàng)目)

        發(fā)布人:傳感器技術(shù) 時(shí)間:2022-12-14 來源:工程師 發(fā)布文章

        互聯(lián)網(wǎng)是由一個(gè)個(gè)站點(diǎn)和網(wǎng)絡(luò)設(shè)備組成的大網(wǎng),我們通過瀏覽器訪問站點(diǎn),站點(diǎn)把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經(jīng)過瀏覽器解析、渲染,將豐富多彩的網(wǎng)頁呈現(xiàn)我們眼前。


        一、爬蟲是什么?


        如果我們把互聯(lián)網(wǎng)比作一張大的蜘蛛網(wǎng),數(shù)據(jù)便是存放于蜘蛛網(wǎng)的各個(gè)節(jié)點(diǎn),而爬蟲就是一只小蜘蛛,沿著網(wǎng)絡(luò)抓取自己的獵物(數(shù)據(jù))爬蟲指的是:向網(wǎng)站發(fā)起請求,獲取資源后分析并提取有用數(shù)據(jù)的程序。


        從技術(shù)層面來說就是 通過程序模擬瀏覽器請求站點(diǎn)的行為,把站點(diǎn)返回的HTML代碼/JSON數(shù)據(jù)/二進(jìn)制數(shù)據(jù)(圖片、視頻) 爬到本地,進(jìn)而提取自己需要的數(shù)據(jù),存放起來使用;

         

        圖片

         

        二、爬蟲的基本流程


        用戶獲取網(wǎng)絡(luò)數(shù)據(jù)的方式:

        方式1:瀏覽器提交請求--->下載網(wǎng)頁代碼--->解析成頁面

        方式2:模擬瀏覽器發(fā)送請求(獲取網(wǎng)頁代碼)->提取有用的數(shù)據(jù)->存放于數(shù)據(jù)庫或文件中

        爬蟲要做的就是方式2。

        圖片

        1、發(fā)起請求

        使用http庫向目標(biāo)站點(diǎn)發(fā)起請求,即發(fā)送一個(gè)Request

        Request包含:請求頭、請求體等 

        Request模塊缺陷:不能執(zhí)行JS 和CSS 代碼

         

        2、獲取響應(yīng)內(nèi)容

        如果服務(wù)器能正常響應(yīng),則會得到一個(gè)Response

        Response包含:html,json,圖片,視頻等

         

        3、解析內(nèi)容

        解析html數(shù)據(jù):正則表達(dá)式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等

        解析json數(shù)據(jù):json模塊

        解析二進(jìn)制數(shù)據(jù):以wb的方式寫入文件

         

        4、保存數(shù)據(jù)

        數(shù)據(jù)庫(MySQL,Mongdb、Redis)

        文件

         

        三、http協(xié)議 請求與響應(yīng)


        圖片

         

        Request:用戶將自己的信息通過瀏覽器(socket client)發(fā)送給服務(wù)器(socket server)

        Response:服務(wù)器接收請求,分析用戶發(fā)來的請求信息,然后返回?cái)?shù)據(jù)(返回的數(shù)據(jù)中可能包含其他鏈接,如:圖片,js,css等)

        ps:瀏覽器在接收Response后,會解析其內(nèi)容來顯示給用戶,而爬蟲程序在模擬瀏覽器發(fā)送請求然后接收Response后,是要提取其中的有用數(shù)據(jù)。

         

        四、 request


        1、請求方式:

        常見的請求方式:GET / POST

         

        2、請求的URL

        url全球統(tǒng)一資源定位符,用來定義互聯(lián)網(wǎng)上一個(gè)唯一的資源 例如:一張圖片、一個(gè)文件、一段視頻都可以用url唯一確定

         

        url編碼

        https://www.baidu.com/s?wd=圖片

        圖片會被編碼(看示例代碼)

         

        網(wǎng)頁的加載過程是:

        加載一個(gè)網(wǎng)頁,通常都是先加載document文檔,

        在解析document文檔的時(shí)候,遇到鏈接,則針對超鏈接發(fā)起下載圖片的請求

         

        3、請求頭

        User-agent:請求頭中如果沒有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個(gè)非法用戶host;

        cookies:cookie用來保存登錄信息

        注意:一般做爬蟲都會加上請求頭

        圖片

        圖片

        圖片


        請求頭需要注意的參數(shù):

        (1)Referrer:訪問源至哪里來(一些大型網(wǎng)站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)

        (2)User-Agent:訪問的瀏覽器(要加上否則會被當(dāng)成爬蟲程序)

        (3)cookie:請求頭注意攜帶


        4、請求體


        請求體

        如果是get方式,請求體沒有內(nèi)容 (get請求的請求體放在 url后面參數(shù)中,直接能看到)
        如果是post方式,請求體是format data

        ps:

        1、登錄窗口,文件上傳等,信息都會被附加到請求體內(nèi)

        2、登錄,輸入錯(cuò)誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉(zhuǎn),無法捕捉到post

         

        五、 響應(yīng)Response


        1、響應(yīng)狀態(tài)碼

        200:代表成功

        301:代表跳轉(zhuǎn)


        404:文件不存在

        403:無權(quán)限訪問

        502:服務(wù)器錯(cuò)誤

         

        2、respone header


        響應(yīng)頭需要注意的參數(shù):

        (1)Set-Cookie:BDSVRTM=0; path=/:可能有多個(gè),是來告訴瀏覽器,把cookie保存下來

        (2)Content-Location:服務(wù)端響應(yīng)頭中包含Location返回瀏覽器之后,瀏覽器就會重新訪問另一個(gè)頁面

         

        3、preview就是網(wǎng)頁源代碼

        JSO數(shù)據(jù)

        如網(wǎng)頁html,圖片

        二進(jìn)制數(shù)據(jù)等 

         

        六、總結(jié)


        1、總結(jié)爬蟲流程:

         爬取--->解析--->存儲

         

        2、爬蟲所需工具:

         請求庫:requests,selenium(可以驅(qū)動瀏覽器解析渲染CSS和JS,但有性能劣勢(有用沒用的網(wǎng)頁都會加載);)
         解析庫:
        正則,beautifulsoup,pyquery
         存儲庫:文件,MySQL,Mongodb,Redis

         

        補(bǔ)充:29個(gè)Python爬蟲項(xiàng)目(所有鏈接指向GitHub)


        WechatSogou [1]- 微信公眾號爬蟲。基于搜狗微信搜索的微信公眾號爬蟲接口,可以擴(kuò)展成基于搜狗搜索的爬蟲,返回結(jié)果是列表,每一項(xiàng)均是公眾號具體信息字典。

        鏈接:https://github.com/Chyroc/WechatSogou

        DouBanSpider [2]- 豆瓣讀書爬蟲。可以爬下豆瓣讀書標(biāo)簽下的所有圖書,按評分排名依次存儲,存儲到Excel中,可方便大家篩選搜羅,比如篩選評價(jià)人數(shù)>1000的高分書籍;可依據(jù)不同的主題存儲到Excel不同的Sheet ,采用User Agent偽裝為瀏覽器進(jìn)行爬取,并加入隨機(jī)延時(shí)來更好的模仿瀏覽器行為,避免爬蟲被封。

        鏈接:https://github.com/lanbing510/DouBanSpider

        zhihu_spider [3]- 知乎爬蟲。此項(xiàng)目的功能是爬取知乎用戶信息以及人際拓?fù)潢P(guān)系,爬蟲框架使用scrapy,數(shù)據(jù)存儲使用mongo 

        鏈接:https://github.com/LiuRoy/zhihu_spider

        bilibili-user [4]- Bilibili用戶爬蟲。總數(shù)據(jù)數(shù):20119918,抓取字段:用戶id,昵稱,性別,頭像,等級,經(jīng)驗(yàn)值,粉絲數(shù),生日,地址,注冊時(shí)間,簽名,等級與經(jīng)驗(yàn)值等。抓取之后生成B站用戶數(shù)據(jù)報(bào)告。

        鏈接:https://github.com/airingursb/bilibili-user

        SinaSpider [5]- 新浪微博爬蟲。主要爬取新浪微博用戶的個(gè)人信息、微博信息、粉絲和關(guān)注。代碼獲取新浪微博Cookie進(jìn)行登錄,可通過多賬號登錄來防止新浪的反扒。主要使用 scrapy 爬蟲框架。

        鏈接:https://github.com/LiuXingMing/SinaSpider

        distribute_crawler [6]- 小說下載分布式爬蟲。使用scrapy,Redis, MongoDB,graphite實(shí)現(xiàn)的一個(gè)分布式網(wǎng)絡(luò)爬蟲,底層存儲MongoDB集群,分布式使用Redis實(shí)現(xiàn),爬蟲狀態(tài)顯示使用graphite實(shí)現(xiàn),主要針對一個(gè)小說站點(diǎn)。

        鏈接:https://github.com/gnemoug/distribute_crawler

        CnkiSpider [7]- 中國知網(wǎng)爬蟲。設(shè)置檢索條件后,執(zhí)行src/CnkiSpider.py抓取數(shù)據(jù),抓取數(shù)據(jù)存儲在/data目錄下,每個(gè)數(shù)據(jù)文件的第一行為字段名稱。

        鏈接:https://github.com/yanzhou/CnkiSpider

        LianJiaSpider [8]- 鏈家網(wǎng)爬蟲。爬取北京地區(qū)鏈家歷年二手房成交記錄。涵蓋鏈家爬蟲一文的全部代碼,包括鏈家模擬登錄代碼。

        鏈接:https://github.com/yanzhou/CnkiSpider

        scrapy_jingdong [9]- 京東爬蟲。基于scrapy的京東網(wǎng)站爬蟲,保存格式為csv。

        鏈接:https://github.com/taizilongxu/scrapy_jingdong

        QQ-Groups-Spider [10]- QQ 群爬蟲。批量抓取 QQ 群信息,包括群名稱、群號、群人數(shù)、群主、群簡介等內(nèi)容,最終生成 XLS(X) / CSV 結(jié)果文件。

        鏈接:https://github.com/caspartse/QQ-Groups-Spider

        wooyun_public[11]-烏云爬蟲。烏云公開漏洞、知識庫爬蟲和搜索。全部公開漏洞的列表和每個(gè)漏洞的文本內(nèi)容存在MongoDB中,大概約2G內(nèi)容;如果整站爬全部文本和圖片作為離線查詢,大概需要10G空間、2小時(shí)(10M電信帶寬);爬取全部知識庫,總共約500M空間。漏洞搜索使用了Flask作為web server,bootstrap作為前端。

        鏈接:https://github.com/hanc00l/wooyun_public

        spider[12]- hao123網(wǎng)站爬蟲。以hao123為入口頁面,滾動爬取外鏈,收集****,并記錄****上的內(nèi)鏈和外鏈數(shù)目,記錄title等信息,windows7 32位上測試,目前每24個(gè)小時(shí),可收集數(shù)據(jù)為10萬左右。

        鏈接:https://github.com/hanc00l/wooyun_public

        findtrip [13]- 機(jī)****爬蟲(去哪兒和攜程網(wǎng))。Findtrip是一個(gè)基于Scrapy的機(jī)****爬蟲,目前整合了國內(nèi)兩大機(jī)****網(wǎng)站(去哪兒 + 攜程)。

        鏈接:https://github.com/hanc00l/wooyun_public

        163spider [14] - 基于requests、MySQLdb、torndb的網(wǎng)易客戶端內(nèi)容爬蟲。

        鏈接:https://github.com/leyle/163spider

        doubanspiders[15]- 豆瓣電影、書籍、小組、相冊、東西等爬蟲集 writen by Python  

        鏈接:https://github.com/sdfzy/doubanspiders

        QQSpider [16]- QQ空間爬蟲,包括日志、說說、個(gè)人信息等,一天可抓取 400 萬條數(shù)據(jù)。

        鏈接:https://github.com/LiuXingMing/QQSpider

        baidu-music-spider [17]- 百度mp3全站爬蟲,使用redis支持?jǐn)帱c(diǎn)續(xù)傳。

        鏈接:https://github.com/Shu-Ji/baidu-music-spider

        tbcrawler[18]- 淘寶和天貓的爬蟲,可以根據(jù)搜索關(guān)鍵詞,物品id來抓去頁面的信息,數(shù)據(jù)存儲在mongodb。

        鏈接:https://github.com/pakoo/tbcrawler

        stockholm [19]- 一個(gè)股****數(shù)據(jù)(滬深)爬蟲和選股策略測試框架。根據(jù)選定的日期范圍抓取所有滬深兩市股****的行情數(shù)據(jù)。支持使用表達(dá)式定義選股策略。支持多線程處理。保存數(shù)據(jù)到JSON文件、CSV文件。

        鏈接:https://github.com/benitoro/stockholm

        BaiduyunSpider[20]-百度云盤爬蟲。

        鏈接:https://github.com/k1995/BaiduyunSpider

        Spider[21]-社交數(shù)據(jù)爬蟲。支持微博,知乎,豆瓣。

        鏈接:https://github.com/Qutan/Spider

        proxy pool[22]-Python爬蟲代理IP池(proxy pool)。

        鏈接:https://github.com/Qutan/Spider

        music-163[23]-爬取網(wǎng)易云音樂所有歌曲的評論。

        鏈接:https://github.com/RitterHou/music-163

        CnblogsSpider[24]-cnblogs列表頁爬蟲。

        鏈接:https://github.com/jackgitgz/CnblogsSpider

        spider_smooc[25]-爬取慕課網(wǎng)視頻。

        鏈接:https://github.com/jackgitgz/CnblogsSpider

        knowsecSpider2[26]-知道創(chuàng)宇爬蟲題目。

        鏈接:https://github.com/littlethunder/knowsecSpider2

        SinaSpider[27]-動態(tài)IP解決新浪的反爬蟲機(jī)制,快速抓取內(nèi)容。

        鏈接:https://github.com/szcf-weiya/SinaSpider

        csdn-spider[28]-爬取CSDN上的博客文章。

        鏈接:https://github.com/Kevinsss/csdn-spider

        ProxySpider[29]-爬取西刺上的代理IP,并驗(yàn)證代理可用性。

        鏈接:https://github.com/changetjut/ProxySpider

        來源:玩轉(zhuǎn)單片機(jī)



        *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



        關(guān)鍵詞: 爬蟲

        技術(shù)專區(qū)

        關(guān)閉