国产睡熟迷奷白丝护士系列精品,中文色字幕网站,免费h网站在线观看的,亚洲开心激情在线

      <sup id="hb9fh"></sup>
          1. 千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機(jī)構(gòu)

            手機(jī)站
            千鋒教育

            千鋒學(xué)習(xí)站 | 隨時隨地免費(fèi)學(xué)

            千鋒教育

            掃一掃進(jìn)入千鋒手機(jī)站

            領(lǐng)取全套視頻
            千鋒教育

            關(guān)注千鋒學(xué)習(xí)站小程序
            隨時隨地免費(fèi)學(xué)習(xí)課程

            當(dāng)前位置:首頁  >  技術(shù)干貨  > 談?wù)剬crapy的了解?

            談?wù)剬crapy的了解?

            來源:千鋒教育
            發(fā)布人:wjy
            時間: 2022-09-13 17:42:50 1663062170

              一:對scrapy的認(rèn)識:

              1.scrapy只是一個爬蟲的框架

              他把爬蟲的需要的共性的東西都默認(rèn)寫下來了,只需要我們具體細(xì)化,具體分析補(bǔ)充里面的細(xì)節(jié)的東西。就像造房子一樣,scrapy就充當(dāng)了一個房屋架構(gòu),至于房屋里面的東西 需要我們自己去補(bǔ)充設(shè)計。

              2.scrapy的幾個部分

              引擎(engine) 爬蟲(spider)調(diào)度器(scheduler) 下載器(downloader) items文件pipeline(管道文件) settings.py(進(jìn)行對爬蟲修改的東西,比如UserAgent可以注釋掉,pipline管道文件可以將其關(guān)閉,從而不使用管道文件,robots協(xié)議可以改為False)

              3.各個部分的作用

              引擎的作用:處理scrapy這幾個部分之間的聯(lián)系,像人類的大腦,由引擎控制其他各個部分,扮演一個事情通知員的角色,是其他部分之間聯(lián)系的橋梁。

              調(diào)度器:使我們需要爬取的Url做一個個有序排列

              下載器:從云端internet上下載東西

              spider:爬蟲 對爬蟲的編寫,實(shí)現(xiàn)爬取數(shù)據(jù),是整個爬蟲的主干

              items文件:需要爬取的字段寫在里面 如:name=scrapy.Field()

              pipeline:管道文件,用來寫存儲代碼的,將爬取的數(shù)據(jù)存儲到本地或者數(shù)據(jù)庫

              ps:以上大概了解下各個部分的職能就好了。

              二.scrpay框架實(shí)現(xiàn)爬蟲的模擬的簡要過程:

              1.首先引擎告訴spider我們需要爬取的數(shù)據(jù)的網(wǎng)域domain,然后spider給引擎作出回應(yīng)表示知道了

              2.引擎告訴調(diào)度器(scheduler)‘需要你排序啦’,然后spider將域告訴調(diào)度器,調(diào)度器將域里面每個需要爬取的url做一個排序,然后對引擎說‘’ 我排好序了’’

              3.引擎就對下載器說‘調(diào)度器排好序了,你待會需要從云端下載東西了’ 。。。下載器就準(zhǔn)備開始以一個個的url里面下載我們寫的item文件,下載好后,對引擎說‘’我下載好了“

              4.引擎就開始對spider說“下載器把items文件下好了”,下載器將下載的item文件(響應(yīng)文件)給spider,spider將得到的items文件(響應(yīng)文件)給pipline管道進(jìn)行存儲,同時將繼續(xù)要爬取的URl給調(diào)度器,然后調(diào)度器,然后周而復(fù)始 直到需要爬取的url爬完。

              寫spider(爬蟲)中需要注意的

              1. name是必要參數(shù),是scrapy爬蟲的名字。domain域可選參數(shù),可以沒有,start_urls必要的參數(shù),是指開始要爬取的url。

              2. def parse(self,response) 這個函數(shù)是就這個名字,scrapy中定了的,是對響應(yīng)文件做出處理的函數(shù)。

              3. yield 生成器函數(shù),生成一個新的函數(shù),再對數(shù)據(jù)做出進(jìn)一步處理 如:

            對scrapy的了解

             

              ps:yield自己理解的也不是很清楚,見諒。

              4. xpath中的.extract()方法:從一個列表中(脫殼)得到一個新的列表。一心得到標(biāo)簽里面的元素,以列表形式返回

              (1)第一種

              position = response.xpath(’./td[1]/a/text()’)[] 技術(shù)類 2 深圳 2018ps:沒有extract()的時候,整個標(biāo)簽的東西都拿下來了。返回的是一個selector對象(2)第二種

              position = response.xpath(’./td[1]/a/text()’).extract()[‘22989-騰訊云虛擬化高級研發(fā)工程師(深圳) 技術(shù)類 2 深圳 2018’]

              (3)第三種

              position=response.xpath‘./td[1]/a/text()’).extract[0]22989-騰訊云虛擬化高級研發(fā)工程師(深圳) 技術(shù)類 2 深圳 2018

              scrapy寫爬蟲的步驟:

              1. 新建項(xiàng)目:scrapy startproject <項(xiàng)目名>,創(chuàng)建爬蟲 scrpay genspider <爬蟲名> “爬取數(shù)據(jù)的域 如:www.cqggzy.com”

              2. 明確自己需要爬取的數(shù)據(jù),寫items字段

              3. 編寫spider爬蟲

              4. 存儲:編寫管道文件

              注意事項(xiàng):

              scrapy默認(rèn)setting.py中管道文件是關(guān)閉的,需要打開,請求頭在settings中最好將headers也打開,UserAgent最好修改全面一點(diǎn)。robots協(xié)議也可以改為False。

            tags:
            聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
            10年以上業(yè)內(nèi)強(qiáng)師集結(jié),手把手帶你蛻變精英
            請您保持通訊暢通,專屬學(xué)習(xí)老師24小時內(nèi)將與您1V1溝通
            免費(fèi)領(lǐng)取
            今日已有369人領(lǐng)取成功
            劉同學(xué) 138****2860 剛剛成功領(lǐng)取
            王同學(xué) 131****2015 剛剛成功領(lǐng)取
            張同學(xué) 133****4652 剛剛成功領(lǐng)取
            李同學(xué) 135****8607 剛剛成功領(lǐng)取
            楊同學(xué) 132****5667 剛剛成功領(lǐng)取
            岳同學(xué) 134****6652 剛剛成功領(lǐng)取
            梁同學(xué) 157****2950 剛剛成功領(lǐng)取
            劉同學(xué) 189****1015 剛剛成功領(lǐng)取
            張同學(xué) 155****4678 剛剛成功領(lǐng)取
            鄒同學(xué) 139****2907 剛剛成功領(lǐng)取
            董同學(xué) 138****2867 剛剛成功領(lǐng)取
            周同學(xué) 136****3602 剛剛成功領(lǐng)取
            相關(guān)推薦HOT
            軟件定制開發(fā)中的敏捷開發(fā)是什么?

            軟件定制開發(fā)中的敏捷開發(fā)是什么軟件定制開發(fā)中的敏捷開發(fā),從宏觀上看,是一個高度關(guān)注人員交互,持續(xù)開發(fā)與交付,接受需求變更并適應(yīng)環(huán)境變化...詳情>>

            2023-10-14 13:24:57
            什么是PlatformIo?

            PlatformIO是什么PlatformIO是一個全面的物聯(lián)網(wǎng)開發(fā)平臺,它為眾多硬件平臺和開發(fā)環(huán)境提供了統(tǒng)一的工作流程,有效簡化了開發(fā)過程,并能兼容各種...詳情>>

            2023-10-14 12:55:06
            云快照與自動備份有什么區(qū)別?

            1、定義和目標(biāo)不同云快照的主要目標(biāo)是提供一種快速恢復(fù)數(shù)據(jù)的方法,它只記錄在快照時間點(diǎn)后的數(shù)據(jù)變化,而不是所有的數(shù)據(jù)。自動備份的主要目標(biāo)...詳情>>

            2023-10-14 12:48:59
            服務(wù)器為什么要用Linux?

            服務(wù)器為什么要用Linux作為服務(wù)器操作系統(tǒng)的優(yōu)選,Linux在眾多選擇中脫穎而出。Linux作為服務(wù)器操作系統(tǒng)的優(yōu)選,有其獨(dú)特的優(yōu)勢和特點(diǎn)。包括其...詳情>>

            2023-10-14 12:34:11
            ORM解決的主要問題是什么?

            ORM(對象關(guān)系映射)解決的主要問題是將關(guān)系數(shù)據(jù)庫與面向?qū)ο缶幊讨g的映射困境。在傳統(tǒng)的關(guān)系數(shù)據(jù)庫中,數(shù)據(jù)以表格的形式存儲,而在面向?qū)ο?..詳情>>

            2023-10-14 12:26:19
            快速通道