av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

基于Python爬取愛奇藝資源過程解析

瀏覽:3日期:2022-08-04 18:13:20

像iqiyi這種視頻網站,現在下載視頻都需要下載相應的客戶端。那么如何不用下載客戶端,直接下載非vip視頻?

選擇你想要爬取的內容

該安裝的程序以及運行環境都配置好

下面這段代碼就是我在愛奇藝里搜素“英文名”,然后出來的視頻,共有20頁,那么我們便從第一頁開始,解析網頁,然后分析

分析每一頁網址,找出規律就可以直接得到所有頁面

然后根據每一個視頻的URL的標簽,如’class’ ’div’ ’href’......通過bs4庫進行爬取

而其他的信息則是直接循環所爬取到的URL,在每一個里再通過標簽去找

import requestsimport pandas as pdfrom bs4 import BeautifulSoup#爬取URL headers={’user-agent’:’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.79 Safari/537.36’}b=[]for i in range(1,2): url='https://so.iqiyi.com/so/q_英文名_ctg_t_0_page_'+str(i)+'_p_1_qc_0_rd__site__m_1_bitrate_' #共20頁,根據每頁的網址變換規律進行拼接 r=requests.get(url,headers=headers) soup=BeautifulSoup(r.text,'html.parser') a=soup.findAll(’a’,{’class’:’main-tit’}) for i in a: if ’http://www.’in i.get(’href’)and ’html’in i.get(’href’): b.append(i.get(’href’))print(b)#爬取標題e=[]for k in b: res=requests.get(k,headers=headers) Soup=BeautifulSoup(res.text,’html.parser’) c=Soup.findAll(’div’,{’class’:’feed-title-box’}) for d in c: e.append(d.find(’h1’).text) print(e)#爬取標題下方描述f=[]for j in b: res=requests.get(j,headers=headers) Soup=BeautifulSoup(res.text,’html.parser’) c=Soup.findAll(’div’,{’class’:’qy-play-intro-feed’}) for d in c: f.append(d.find(’p’,{’class’:'intro-iterm__block'}).text)print(f)#爬取發布時間h=[]for j in b: res=requests.get(j,headers=headers) Soup=BeautifulSoup(res.text,’html.parser’) c=Soup.findAll(’div’,{’class’:’intro-iterm’}) for d in c: ff=(d.find(’span’,{’class’:'intro-iterm__txt'})) if ff==None: continue h.append(ff.text)print(h)# 爬取上傳作者m=[]for k in b: res=requests.get(k,headers=headers) Soup=BeautifulSoup(res.text,’html.parser’) c=Soup.find(’div’,{’id’:’block-P’}) d=Soup.find(’div’,{’class’:’qy-player-maker’}) try: name=c.get(’:uploader’).split(’,’)[1].split(’:’)[1].replace(’'’,’’)#輸出是字符串的格式,所以用split切割。replace替換 except: try: name=d.get(’:uploader’).split(’,’)[1].split(’:’)[1].replace(’'’,’’) except: m.append('匿名用戶') m.append(name)print(m)

上面的代碼輸出結果便是英文名的所有網址及其視頻中的一些信息

這里我需要講一下的是,為什么在爬取作者信息的模塊里我采取了try的方法,因為在我爬取的過程中我發現,有的視頻的上傳作者在視頻左下方,有的在視頻的右下方,有的視頻干脆沒有上傳作者。

同樣的,你想要爬取其他內容也可以用這種方法獲取URL和他的其他信息

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: 愛奇藝 Python
相關文章:
主站蜘蛛池模板: 日本黄色免费视频 | 欧美成人免费在线 | 中文字幕电影在线观看 | 日韩在线视频一区二区三区 | 九九热在线视频观看这里只有精品 | 国产专区在线 | 久久精品亚洲 | 亚洲一区二区在线 | 午夜小电影 | 国产精品亚洲一区二区三区在线观看 | 夜夜草 | 久久精品99国产精品 | 国产一区二区三区精品久久久 | 中文字幕一区二区视频 | 一区二区免费 | 亚洲精品久久久 | 春色av| 久久爱综合 | 国产不卡视频在线 | 午夜播放器在线观看 | 国产精品99久久久久久宅男 | 亚洲日本一区二区三区四区 | 狠狠草视频 | 日本精品免费 | 国产在线精品一区二区 | 国产一区二区三区在线视频 | 操久久| 天天综合久久 | 亚洲欧美一区二区三区视频 | 久久国产福利 | 亚洲高清一区二区三区 | 国产日韩欧美一区二区 | 中文字幕成人在线 | 亚洲精品久久久久久国产精华液 | 国产美女视频 | 欧美成人激情 | 视频一区二区三区在线观看 | 午夜精品久久久久久久久久久久 | 一级免费黄色 | 黄色在线免费观看 | 午夜小视频在线播放 |