av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

用sleep間隔進(jìn)行python反爬蟲的實(shí)例講解

瀏覽:2日期:2022-07-03 16:14:27

在找尋材料的時(shí)候,會(huì)看到一些暫時(shí)用不到但是內(nèi)容不錯(cuò)的網(wǎng)頁(yè),就這樣關(guān)閉未免浪費(fèi)掉了,下次也不一定能再次搜索到。有些小伙伴會(huì)提出可以保存網(wǎng)頁(yè)鏈接,但這種基本的做法并不能在網(wǎng)頁(yè)打不開后還能看到內(nèi)容。我們完全可以用爬蟲獲取這方面的數(shù)據(jù),不過(guò)操作過(guò)程中會(huì)遇到一些阻攔,今天小編就教大家用sleep間隔進(jìn)行python反爬蟲,這樣就可以得到我們想到的數(shù)據(jù)啦。

步驟

要利用headers拉動(dòng)請(qǐng)求,模擬成瀏覽器去訪問(wèn)網(wǎng)站,跳過(guò)最簡(jiǎn)單的反爬蟲機(jī)制。

獲取網(wǎng)頁(yè)內(nèi)容,保存在一個(gè)字符串content中。

構(gòu)造正則表達(dá)式,從content中匹配關(guān)鍵詞pattern獲取下載鏈接。需要注意的是,網(wǎng)頁(yè)中的關(guān)鍵詞出現(xiàn)了兩遍(如下圖),所以我們要利用set()函數(shù)清除重復(fù)元素。

第三步是遍歷set之后的結(jié)果,下載鏈接。

設(shè)置time.sleep(t),無(wú)sleep間隔的話,網(wǎng)站認(rèn)定這種行為是攻擊,所以我們隔一段時(shí)間下載一個(gè),反反爬蟲。

具體代碼

import urllib.request# url requestimport re # regular expressionimport os # dirsimport time’’’url 下載網(wǎng)址pattern 正則化的匹配關(guān)鍵詞Directory 下載目錄def BatchDownload(url,pattern,Directory): # 拉動(dòng)請(qǐng)求,模擬成瀏覽器去訪問(wèn)網(wǎng)站->跳過(guò)反爬蟲機(jī)制 headers = {’User-Agent’, ’Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36’} opener = urllib.request.build_opener() opener.addheaders = [headers] # 獲取網(wǎng)頁(yè)內(nèi)容 content = opener.open(url).read().decode(’utf8’) # 構(gòu)造正則表達(dá)式,從content中匹配關(guān)鍵詞pattern raw_hrefs = re.findall(pattern, content, 0) # set函數(shù)消除重復(fù)元素 hset = set(raw_hrefs) # 下載鏈接 for href in hset: # 之所以if else 是為了區(qū)別只有一個(gè)鏈接的特別情況 if(len(hset)>1): link = url + href[0] filename = os.path.join(Directory, href[0]) print('正在下載',filename) urllib.request.urlretrieve(link, filename) print('成功下載!') else: link = url +href filename = os.path.join(Directory, href) # 無(wú)sleep間隔,網(wǎng)站認(rèn)定這種行為是攻擊,反反爬蟲 time.sleep(1) #BatchDownload(’https://www1.ncdc.noaa.gov/pub/data/swdi/stormevents/csvfiles/’,# ’(Storm-Data-Export-Format.docx)’,# ’E:stormeventscsvfiles’) # ’(Storm-Data-Export-Format.pdf)’,# ’(StormEvents_details-ftp_v1.0_d(d*)_c(d*).csv.gz)’,# ’(StormEvents_fatalities-ftp_v1.0_d(d*)_c(d*).csv.gz)’,# ’(StormEvents_locations-ftp_v1.0_d(d*)_c(d*).csv.gz)’,#BatchDownload(’https://www1.ncdc.noaa.gov/pub/data/swdi/stormevents/csvfiles/legacy/’,# ’(ugc_areas.csv)’,# ’E:stormeventscsvfileslegacy’)結(jié)果展示

為了讓大家能夠清楚的知道整個(gè)反爬過(guò)程,這里小編把思路和代碼都羅列了出來(lái)。其中可以time.sleep(t)解除網(wǎng)站對(duì)于爬蟲的阻攔問(wèn)題,著重標(biāo)記了出來(lái)

用sleep間隔進(jìn)行python反爬蟲的實(shí)例講解

到此這篇關(guān)于用sleep間隔進(jìn)行python反爬蟲的實(shí)例講解的文章就介紹到這了,更多相關(guān)如何使用sleep間隔進(jìn)行python反爬蟲內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 天堂资源 | 成人影院在线观看 | 中文字幕一区二区三区精彩视频 | 日韩欧美第一页 | 欧美日韩亚洲系列 | 又黑又粗又长的欧美一区 | 亚洲精品亚洲人成人网 | 国产一区二区三区四区三区四 | 久久国产精品视频 | 91福利在线观看视频 | 国产999精品久久久影片官网 | 欧美日本高清 | 国产毛片av | 99国产精品99久久久久久 | 91九色在线观看 | 狠狠操av| 黄色一级电影在线观看 | 亚洲人精品 | 福利一区二区 | 亚洲高清视频在线观看 | 国产精品亚洲综合 | 精产国产伦理一二三区 | 欧美男人天堂 | 亚洲精品久久久久久国产精华液 | 人人看人人搞 | 国产欧美精品一区二区色综合 | 天天草天天干天天 | 国产日韩一区二区三免费 | 亚洲综合无码一区二区 | 99久久国产免费 | 亚洲综合无码一区二区 | 久久久综合 | 毛片一区二区三区 | 91精品国产综合久久久动漫日韩 | 国产天天操 | 亚洲人在线播放 | 免费同性女女aaa免费网站 | 超碰人人艹 | 91欧美精品成人综合在线观看 | a级片在线 | 欧美精品一区二区三区在线 |