av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

python - Scrapy如何得到原始的start_url

瀏覽:120日期:2022-06-27 15:45:21

問題描述

Scrapy爬蟲時,由于重定向或是其他原因,會導致原始的start_url發生改變,怎樣才能得到原始的start_url?

def start_requests(self): start_url = ’your_scrapy_start_url’ yield Request(start_url, self.parse) def parse(self, response): item = YourItem() item[’start_url’] = 原始請求的start_url yield item

問題解答

回答1:

參考文章:Scrapy爬蟲常見問題總結

利用Request中的meta參數傳遞信息

def start_requests(self): start_url = ’your_scrapy_start_url’ yield Request(start_url, self.parse, meta={’start_url’:start_url}) def parse(self, response): item = YourItem() item[’start_url’] = response.meta[’start_url’] yield item

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 人人干人人玩 | 日韩一及片 | 亚洲福利| 成人免费一区二区三区牛牛 | 国产精品久久久久久久久久 | 国产在线不卡 | 国产精品久久久久久吹潮 | 国产精品久久毛片av大全日韩 | 免费看一级毛片 | 777毛片| 黄网站涩免费蜜桃网站 | 欧美成人一级 | 欧美视频网 | 国产精品美女久久久久久久网站 | 日本公妇乱淫xxxⅹ 国产在线不卡 | 天天看逼 | 日日骚网| 国产精品亚洲视频 | 亚洲欧美日韩精品 | 性一交一乱一透一a级 | 色婷婷综合久久久中字幕精品久久 | 久久精品亚洲欧美日韩精品中文字幕 | 久久国产日韩 | 久久国产区 | 久久精品成人一区 | 成人亚洲视频 | 国产精品精品 | 欧美日韩亚洲国产 | 亚洲中国字幕 | 午夜视频免费在线 | 国产日韩视频 | 午夜欧美 | 中文字幕一区二区三区在线乱码 | 久久精品女人天堂av | 成人不卡视频 | 久久91精品国产一区二区三区 | 久久最新 | 欧美一区二区在线观看 | 欧美一区免费 | 久草免费在线视频 | 免费在线看黄视频 |