av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術(shù)文章
文章詳情頁

python - 如何爬取豆瓣電影的詳細信息

瀏覽:122日期:2022-09-22 08:53:05

問題描述

我想爬取每個電影的制片國家地區(qū),但是它上面并不在一個標(biāo)簽里面應(yīng)該怎么辦python - 如何爬取豆瓣電影的詳細信息我用的是request和BeautifulSoup

res2=requests.get(h2)res2.encoding=’utf-8’soup2=BeautifulSoup(res2.text)

這部分是已經(jīng)獲取該網(wǎng)頁

問題解答

回答1:

參考以下代碼:

#!/usr/bin/env python# -*- coding:utf-8 -*-import reimport requestsfrom bs4 import BeautifulSoupresult = requests.get(’https://movie.douban.com/subject/3541415/’)result.encoding = ’utf-8’soup = BeautifulSoup(result.text, ’html.parser’)try: info = soup.select(’#info’)[0] print re.findall(ur’(?<=制片國家/地區(qū): ).+?(?=n)’, info.text)[0]except Exception, e: print e回答2:

正則匹配</span>和<br>之間的內(nèi)容。

回答3:

1、可以用正則

2、建議用soup.find_all看文檔

https://www.crummy.com/softwa...

soup.find_all('title')# [<title>The Dormouse’s story</title>]soup.find_all('p', 'title')# [<p class='title'><b>The Dormouse’s story</b></p>]soup.find_all('a')# [<a id='link1'>Elsie</a>,# <a id='link2'>Lacie</a>,# <a id='link3'>Tillie</a>]soup.find_all(id='link2')# [<a id='link2'>Lacie</a>]

黃哥Python 回答

標(biāo)簽: 豆瓣 Python
相關(guān)文章:
主站蜘蛛池模板: 亚洲第1页| 欧美日韩在线观看一区二区三区 | 中文字幕不卡在线观看 | 欧美日韩国产免费 | 亚洲人成人一区二区在线观看 | 午夜精品久久久久久久久久久久久 | 一区二区视频 | 高清久久 | 欧美国产日韩在线观看 | 91大神在线看 | 911精品国产 | 亚洲欧美精品 | 色视频在线免费观看 | 日本成人综合 | 国内自拍偷拍视频 | 羞羞视频免费观看入口 | 久久久久国产一区二区三区 | 久久免费电影 | 日韩在线精品 | 国产精品久久久久久一区二区三区 | 免费激情网站 | 国产精品久久久久久妇女6080 | 伊人精品久久久久77777 | 中文字幕 在线观看 | 国产高清在线精品 | 欧美国产日韩一区二区三区 | 亚洲欧洲小视频 | 国产精品1 | 亚洲在线中文字幕 | 成人av播放 | 午夜免费在线观看 | 日韩电影免费在线观看中文字幕 | 久久天天躁狠狠躁夜夜躁2014 | 美女操网站 | 天天欧美| 亚洲视频中文字幕 | 久久久久免费精品国产 | 一区在线观看 | 日韩欧美国产一区二区 | 久草成人网 | 亚洲精品一区二区网址 |