av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術(shù)文章
文章詳情頁

html - Python爬蟲,翻頁數(shù)據(jù)怎么爬,URL不變

瀏覽:100日期:2022-08-09 14:14:12

問題描述

網(wǎng)址:http://quote.eastmoney.com/ce...我想爬所有頁的名稱數(shù)據(jù),(這里只有兩頁),判斷有沒有下一頁的條件該怎么寫呢?代碼:

from selenium import webdriverdriver=webdriver.PhantomJS()url=’http://quote.eastmoney.com/center/list.html#28003684_0_2’driver.get(url)usoup = BeautifulSoup(driver.page_source, ’xml’)n=[]while True: t=usoup.find(’table’,{’id’:’fixed’}) utable=t.find_all(’a’,{’target’:’_blank’}) for i in range(len(utable)): if i % 6 ==1: n.append(utable[i].text) if #停止條件怎么寫: break driver.find_element_by_xpath(r’//*@id='pagenav']/a[2]’).click() usoup = BeautifulSoup(driver.page_source, ’xml’)

后面這里就不會寫了。。。

問題解答

回答1:

可以判斷每一頁的條目,每一頁共20條,如果當前頁不足20條的時候,說明此頁是最后一頁了,爬完當前頁就該停止了

回答2:

話說 這個表格不是都有個jsonp的返回接口嗎?為什么還要爬?

回答3:

走的就是jsonp接口,直接拿就好了。

非要抓取的話,只能用selenium + phantomjs 之類的模擬頁面去獲取了。

回答4:

http://nufm.dfcfw.com/EM_Fina...{rank:[(x)],pages:(pc)}&token=7bc05d0d4c3c22ef9fca8c2a912d779c&jsName=quote_123&_g=0.5385195357178545

標簽: Python 編程
主站蜘蛛池模板: 国产成人91视频 | 99精品一区二区 | 91久久精品国产免费一区 | 国产婷婷精品av在线 | 一级视频在线免费观看 | 99久久精品免费看国产高清 | 97偷拍视频| 国产成人精品一区二区三区网站观看 | 一区精品国产欧美在线 | 在线播放日韩 | 欧美激情一区二区三级高清视频 | 91久久久精品国产一区二区蜜臀 | 国产91精品久久久久久久网曝门 | 成人免费视频久久 | 在线免费观看日本 | 98久久 | 91视频国产一区 | 亚洲人成人一区二区在线观看 | 日本精品久久 | 国产精品欧美一区二区 | 国产 日韩 欧美 制服 另类 | 91精品在线播放 | 亚洲精品久久久久久久久久久久久 | 精品视频国产 | 天天综合永久入口 | 天天躁人人躁人人躁狂躁 | 在线观看亚洲精品视频 | 中文字幕在线精品 | 久久亚洲国产 | 欧美1区2区 | 国产福利在线小视频 | 欧美精品久久 | av免费看片| 国产精品一区一区三区 | 99影视| 国产亚洲精品精品国产亚洲综合 | 国产免费一区二区三区免费视频 | 亚洲一区二区三区四区五区中文 | 精品久久久久久久久久 | 日韩中文字幕一区二区 | 求毛片 |