av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

瀏覽:118日期:2022-09-17 10:49:15

問題描述

用scrapy爬了圖書館書籍的書名和評論,用Chrome的檢查拔下來的Xpath,但是運行爬蟲返回的是空元素,請問各位哪里出了問題,謝謝大家。截圖:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

附上我的Scrapy源碼,請大家多指教,謝謝!

from scrapy import Spiderfrom scrapy.selector import Selectorfrom CommentCrawl.items import CommentcrawlItemclass commentcrawl(Spider): name = 'commentcrawl' allowed_domains = ['http://opac.lib.bnu.edu.cn:8080'] start_urls = ['http://opac.lib.bnu.edu.cn:8080/F/S9Q2QIQV5D9R9HBHPI2KNN8JH11TRIRSIEPKYQLTAQQ17LA6B6-16834?func=full-set-set&set_number=010408&set_entry=000001&format=999', ] def parse(self,response):item = CommentcrawlItem()item[’name’] = Selector(response).xpath(’//*[@id='details2']/table/tbody/tr[1]/td[2]/a/text()’).extract()item[’comment’] = Selector(response).xpath(’//*[@id='localreview']/text()’).extract()yield item

問題解答

回答1:

頁面需要登錄才能訪問,缺少登錄操作。

回答2:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

頁面被登錄攔截了。

回答3:

你把你實際獲得的內容打印或者保存完了,看看是什么內容。估計是返回的內容跟你的 Xpath 匹配不上,該登錄的登錄啊。

標簽: Python 編程
主站蜘蛛池模板: 天堂一区二区三区 | 精品国产免费一区二区三区演员表 | 水蜜桃久久夜色精品一区 | av一级久久 | 国产成人精品一区二区三区在线 | 国产精品一区久久久 | 欧美三区视频 | 国产精品资源在线 | 日本在线免费 | 欧美乱大交xxxxx另类电影 | 天天干夜夜 | 婷婷五月色综合 | 日本网站免费在线观看 | 国产成人精品一区二区三区视频 | 亚洲欧美国产精品久久 | 黄色成人av | 日本精品一区二区三区四区 | 天天综合永久 | 可以免费看的毛片 | 久草青青 | 毛片免费观看 | 日本不卡免费新一二三区 | 欧美一区二区免费视频 | 亚洲一区毛片 | 欧美高清hd | 青青久草 | 一级全黄少妇性色生活免费看 | 一区二区不卡高清 | 九九国产 | 水蜜桃久久夜色精品一区 | 日本一区二区高清视频 | 午夜视频大全 | 亚洲午夜视频 | 国产精品夜色一区二区三区 | 亚洲成av人片在线观看无码 | 国产真实精品久久二三区 | 国产99免费 | 国产精品综合一区二区 | 日韩在线免费 | 91在线观看 | 国产午夜精品久久 |