av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

瀏覽:146日期:2022-09-17 10:49:15

問題描述

用scrapy爬了圖書館書籍的書名和評論,用Chrome的檢查拔下來的Xpath,但是運行爬蟲返回的是空元素,請問各位哪里出了問題,謝謝大家。截圖:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

附上我的Scrapy源碼,請大家多指教,謝謝!

from scrapy import Spiderfrom scrapy.selector import Selectorfrom CommentCrawl.items import CommentcrawlItemclass commentcrawl(Spider): name = 'commentcrawl' allowed_domains = ['http://opac.lib.bnu.edu.cn:8080'] start_urls = ['http://opac.lib.bnu.edu.cn:8080/F/S9Q2QIQV5D9R9HBHPI2KNN8JH11TRIRSIEPKYQLTAQQ17LA6B6-16834?func=full-set-set&set_number=010408&set_entry=000001&format=999', ] def parse(self,response):item = CommentcrawlItem()item[’name’] = Selector(response).xpath(’//*[@id='details2']/table/tbody/tr[1]/td[2]/a/text()’).extract()item[’comment’] = Selector(response).xpath(’//*[@id='localreview']/text()’).extract()yield item

問題解答

回答1:

頁面需要登錄才能訪問,缺少登錄操作。

回答2:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

頁面被登錄攔截了。

回答3:

你把你實際獲得的內容打印或者保存完了,看看是什么內容。估計是返回的內容跟你的 Xpath 匹配不上,該登錄的登錄啊。

標簽: Python 編程
主站蜘蛛池模板: 免费观看一区二区三区 | 天堂资源av | 久久精品欧美一区 | 欧美在线免费 | 日韩精品一区在线 | 久久精品一区二区 | www.男人的天堂 | 日韩一级av毛片 | 日韩欧美三区 | 香蕉视频免费看 | 亚洲性视频 | 91在线看片| 亚洲精品美女 | 久久久夜色精品亚洲 | 日韩av在线看 | 日日夜夜天天干 | 亚洲色网址 | 51av视频| 免费看黄色录像 | 日韩黄色免费视频 | 伊人av网 | 欧美激情三区 | 亚洲va韩国va欧美va精品 | 国产美女视频网站 | 欧美专区在线 | av在线精品| 日韩网站在线观看 | 成人9ⅰ免费影视网站 | 成人a视频 | 欧美在线免费观看视频 | 四虎影院网站 | 青娱乐99 | 久久久久久艹 | 国产一级在线播放 | 久久香蕉精品 | 中文字幕永久 | 日本欧美久久久久免费播放网 | 欧美777| 欧美性猛交xxxx黑人交 | 天堂在线中文资源 | 久久精品视频一区 |