av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

python - Scrapy的使用,如何請求新的URL,并回調指定的函數?

瀏覽:114日期:2022-06-27 13:56:42

問題描述

關于Python3下Scrapy的使用問題

import reimport scrapyfrom bs4 import BeautifulSoupfrom scrapy.http import Requestfrom ..items import ZhibobaItemimport jsonimport lxml.htmlimport requestsimport jsonclass Myspider(scrapy.Spider): name = ’zhiboba’ allowed_domains = [’zhibo8.cc’] json_url = ’https://bifen4pc.qiumibao.com/json/list.htm?85591’ bash_url = ’https://www.zhibo8.cc/’ def start_requests(self):yield Request(self.bash_url, self.parse_index) def parse_index(self, response):print('enter the parse_index')print(self.bash_url)ps = BeautifulSoup(response.text, ’lxml’).find_all(label=re.compile('足球'))item = ZhibobaItem()for single_p in ps: item[’label’] = single_p.get(’label’) item[’sdate’] = single_p.get(’data-time’) item[’linkurl’] = self.bash_url + single_p.find(’a’)[’href’] home_team = single_p.get_text().split()[2] item[’home_team’] = home_team visit_team = single_p.get_text().split()[4] item[’visit_team’] = visit_team print('quit the parse_index') print(self.json_url) yield Request(self.json_url, callback=self.get_score, meta={’home_team’: home_team, ’visit_team’: visit_team }) def get_score(self, response):print('enter the get_score')json_url = self.json_urlwbdata = response.get(json_url).textdata = json.loads(wbdata)news = data[’list’]print(wbdata)print('quit the get_score')

當我執行上述代碼時,無法成功的調用json_url以及相應的響應函數get_score,哪里不對?

問題解答

回答1:

試著修改allow_domains = []。

標簽: Python 編程
主站蜘蛛池模板: 久久乐国产精品 | 在线一区二区三区 | 亚洲精品国产电影 | 欧美性生交大片免费 | 黄a大片 | 国产一区二区免费电影 | 日韩av一二三区 | 欧美一区中文字幕 | 日韩精品1区2区 | 免费午夜电影 | 日本不卡一区二区三区在线观看 | 久久久不卡网国产精品一区 | 91成人免费电影 | 免费看黄色小视频 | 亚洲欧美精品国产一级在线 | 欧美一级片在线看 | 久久久久久国产精品免费免费狐狸 | 国产美女一区二区 | 日韩一区二区三区视频在线观看 | 蜜桃一区二区三区在线 | 狠狠涩 | 夜操 | 色毛片 | 亚洲国产高清在线观看 | 国产成人在线一区 | 国产在线观看一区二区三区 | 国产一区二区三区亚洲 | 久久激情av| 亚洲精品欧美 | 久久99精品久久久久 | 91免费在线 | 日韩一区二区三区四区五区 | 国产福利91精品一区二区三区 | 国产精品久久久亚洲 | 日韩一二三区 | 久草在线 | 91精品一区 | 精品欧美一区二区在线观看 | 国产黄色小视频在线观看 | 亚洲精品视频一区 | 免费一区二区三区在线视频 |