最新文章專題視頻專題問(wèn)答1問(wèn)答10問(wèn)答100問(wèn)答1000問(wèn)答2000關(guān)鍵字專題1關(guān)鍵字專題50關(guān)鍵字專題500關(guān)鍵字專題1500TAG最新視頻文章視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關(guān)鍵字專題關(guān)鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
當(dāng)前位置: 首頁(yè) - 科技 - 知識(shí)百科 - 正文

pythoy超級(jí)超級(jí)超級(jí)簡(jiǎn)單的一個(gè)爬蟲小程序_html/css

來(lái)源:懂視網(wǎng) 責(zé)編:小采 時(shí)間:2020-11-27 16:37:21
文檔

pythoy超級(jí)超級(jí)超級(jí)簡(jiǎn)單的一個(gè)爬蟲小程序_html/css

pythoy超級(jí)超級(jí)超級(jí)簡(jiǎn)單的一個(gè)爬蟲小程序_html/css_WEB-ITnose:首次接觸爬蟲,這個(gè)程序可以讓初學(xué)者明白爬蟲是啥,爬蟲的基本邏輯。(參照網(wǎng)易云課堂heibanke老師的程序編寫的。hebanke老師的課程講得很清楚,感興趣的選手可以去看看) 被爬蟲的網(wǎng)址是http://www.heibanke.com/lesson/crawler_ex00/需
推薦度:
導(dǎo)讀pythoy超級(jí)超級(jí)超級(jí)簡(jiǎn)單的一個(gè)爬蟲小程序_html/css_WEB-ITnose:首次接觸爬蟲,這個(gè)程序可以讓初學(xué)者明白爬蟲是啥,爬蟲的基本邏輯。(參照網(wǎng)易云課堂heibanke老師的程序編寫的。hebanke老師的課程講得很清楚,感興趣的選手可以去看看) 被爬蟲的網(wǎng)址是http://www.heibanke.com/lesson/crawler_ex00/需

首次接觸爬蟲,這個(gè)程序可以讓初學(xué)者明白爬蟲是啥,爬蟲的基本邏輯。(參照網(wǎng)易云課堂heibanke老師的程序編寫的。hebanke老師的課程講得很清楚,感興趣的選手可以去看看)

被爬蟲的網(wǎng)址是http://www.heibanke.com/lesson/crawler_ex00/需要完成的任務(wù)是在網(wǎng)址后面輸入顯示的數(shù)字轉(zhuǎn)入下一個(gè)網(wǎng)址,再次讀取顯示的數(shù)字,轉(zhuǎn)入下一個(gè)網(wǎng)址,以此循環(huán)

爬蟲要求

在爬蟲的時(shí)候需要需要用到兩個(gè)庫(kù),一個(gè)urllib,一個(gè)BeautifulSoup,urllib為python自帶的庫(kù),beautifulsoup需要自己安裝

pip install beautifulsoup4

安裝成功后導(dǎo)入

import urllibfrom bs4 import BeautifulSoup

urllib提供了一系列用于操作URL的功能打開(kāi)要爬取得網(wǎng)站:

urllib.urlopen(url)

beautifulsoup主要用于解析HTML,將 HTML轉(zhuǎn)化成數(shù)型結(jié)構(gòu),每個(gè)節(jié)點(diǎn)都是Python對(duì)象。所有對(duì)象可以歸納為4種:1.Tag2.NavigableString3.BeautifulSoup4.Comment如果一個(gè)HTML為

 <[head])>  The Dormouse's story 
print soup.title>>>The Dormouse's story
print soup.title.string>>>The Dormouse's story

程序邏輯:讀出頁(yè)面上的數(shù)字,將數(shù)字加在url后面,繼續(xù)讀取新頁(yè)面的數(shù)字,直到進(jìn)入最后一個(gè)沒(méi)有數(shù)字的頁(yè)面,break程序如下:

import urllibfrom bs4 import BeautifulSoupimport re#這個(gè)庫(kù)導(dǎo)入是為了使用正則表達(dá)式讀取讀取找到的內(nèi)容中的數(shù)字url='http://www.heibanke.com/lesson/crawler_ex00/'number=['']#用于儲(chǔ)存讀到的數(shù)字while True: content = urllib.urlopen(url+number[0])#number為字符串,number[0]為數(shù)字 bs_obj = BeautifulSoup(content,"html.parser")#html.parser表示解析網(wǎng)站,不返回任何值 number = bs_obj.h3.string#網(wǎng)頁(yè)顯示出的“你需要在網(wǎng)址后輸入數(shù)字44513”在html的h3 tag中,number在這里讀出了h3里面的內(nèi)容 number= re.findall(r'\d+',number)#讀出了number里面的數(shù)字 if not number:#必須判斷頁(yè)面中還有是否還有number,沒(méi)有說(shuō)明已經(jīng)到了最后一個(gè)頁(yè)面,這時(shí)應(yīng)該跳出循環(huán),打印 bs_obj.h3.string break else: print number[0]print bs_obj.h3.string

聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文檔

pythoy超級(jí)超級(jí)超級(jí)簡(jiǎn)單的一個(gè)爬蟲小程序_html/css

pythoy超級(jí)超級(jí)超級(jí)簡(jiǎn)單的一個(gè)爬蟲小程序_html/css_WEB-ITnose:首次接觸爬蟲,這個(gè)程序可以讓初學(xué)者明白爬蟲是啥,爬蟲的基本邏輯。(參照網(wǎng)易云課堂heibanke老師的程序編寫的。hebanke老師的課程講得很清楚,感興趣的選手可以去看看) 被爬蟲的網(wǎng)址是http://www.heibanke.com/lesson/crawler_ex00/需
推薦度:
  • 熱門焦點(diǎn)

最新推薦

猜你喜歡

熱門推薦

專題
Top