av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

瀏覽:91日期:2022-07-25 15:24:15

問題描述

背景: Python3 下使用 bs4 的 select 去獲取 ZOZO首頁上方的 coupon 信息中店鋪名字。 (國內ip貌似看不到優惠券信息,需要翻一下才能看到,最好是島國ip)

問題: 發現自己找不到他的店鋪名字在寫在什么地方,不知道怎么取,前端 js 不懂,請教諸位解答。謝謝。

自己的代碼如下:

import requests, bs4shopName = ’BEAUTY&YOUTH’url = ’http://zozo.jp/’def getZozoCoupon(): res = requests.get(url, headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.110 Safari/537.36'}) res.raise_for_status() soup = bs4.BeautifulSoup(res.text, ’html.parser’) elems = soup.select(’.bnrName’) return elems[0].text.strip()

如下截圖中是想要獲取的文字,python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

發現查看源碼中卻沒有文字。

<p class='couponInfo'> <p class='bnrName'>說好的文字呢。。。</p> <p class='bnrText'></p></p>

請教他的文字是在哪實現的啊,要怎么用bs4 select才出來,謝謝。

問題解答

回答1:

有可能用ajax從服務器獲取之后操作dom動態添加的吧,在瀏覽器里執行了js就文字也被添加進來。而你用爬蟲爬的時候沒有執行有關js所以也沒有添加文字。

要是真的這樣的話,你可以在瀏覽器的f12那里查看network,把獲取文字的那個http請求的url找出來,直接請求這個url獲取你需要的信息。

回答2:

我在瀏覽器中打開http://zozo.jp/查看源代碼并沒有找到你所要找的bnrNamepython - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

回答3:

你在瀏覽器上右鍵“查看網頁源碼”看看能不能找得你那段文字,如果找不到,那網頁應該是用js或者ajax動態加載的,想要爬取這種動態頁面,兩種方法,要么是自己手動模擬請求,要么就用selenium去抓吧

回答4:

確實是js生成的,已經采用headless瀏覽器模擬抓取了,謝謝大家!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国精产品一区二区 | 天堂资源 | 麻豆一区二区三区 | 国产超级av | 黄色综合网 | 久久99视频 | 久久九九免费视频 | 91黄视频 | 一级免费毛片 | 中文字幕婷婷 | 黄色片中文字幕 | 看一级黄色片 | 精品在线免费视频 | www.44| 日韩中文字幕在线视频 | 一级特黄色片 | 黄色片免费网站 | 国产精品福利一区 | h片免费看 | 久久黄色大片 | 日韩伦理一区二区 | 在线免费观看日韩av | 综合一区二区三区 | 一级黄片毛片 | 国产福利视频在线观看 | 亚洲va视频 | 中文字幕网址在线 | 毛茸茸free性熟hd | 日本久久久久 | 亚洲高清中文字幕 | 成年人午夜视频 | 精品视频在线免费观看 | 欧美国产一区二区三区 | 高hnp失禁3p小公主 | 亚洲综合在线视频 | 国产一级在线 | 一区二区视频网站 | 黄色一级免费视频 | 亚洲国产免费 | av观看免费| 88av视频|