av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術(shù)文章
文章詳情頁

python - 如何爬取豆瓣電影的詳細信息

瀏覽:122日期:2022-09-22 08:53:05

問題描述

我想爬取每個電影的制片國家地區(qū),但是它上面并不在一個標(biāo)簽里面應(yīng)該怎么辦python - 如何爬取豆瓣電影的詳細信息我用的是request和BeautifulSoup

res2=requests.get(h2)res2.encoding=’utf-8’soup2=BeautifulSoup(res2.text)

這部分是已經(jīng)獲取該網(wǎng)頁

問題解答

回答1:

參考以下代碼:

#!/usr/bin/env python# -*- coding:utf-8 -*-import reimport requestsfrom bs4 import BeautifulSoupresult = requests.get(’https://movie.douban.com/subject/3541415/’)result.encoding = ’utf-8’soup = BeautifulSoup(result.text, ’html.parser’)try: info = soup.select(’#info’)[0] print re.findall(ur’(?<=制片國家/地區(qū): ).+?(?=n)’, info.text)[0]except Exception, e: print e回答2:

正則匹配</span>和<br>之間的內(nèi)容。

回答3:

1、可以用正則

2、建議用soup.find_all看文檔

https://www.crummy.com/softwa...

soup.find_all('title')# [<title>The Dormouse’s story</title>]soup.find_all('p', 'title')# [<p class='title'><b>The Dormouse’s story</b></p>]soup.find_all('a')# [<a id='link1'>Elsie</a>,# <a id='link2'>Lacie</a>,# <a id='link3'>Tillie</a>]soup.find_all(id='link2')# [<a id='link2'>Lacie</a>]

黃哥Python 回答

標(biāo)簽: 豆瓣 Python
相關(guān)文章:
主站蜘蛛池模板: 国产一区二区 | 在线观看黄色 | 亚洲午夜在线 | 国内精品一区二区三区 | 久久久亚洲| 欧美一区二区免费 | 日日摸天天添天天添破 | 国产一级视频免费播放 | 中国91av| 91精品国产一区二区三区蜜臀 | 日本不卡免费新一二三区 | 97在线播放 | 亚洲视频一区在线观看 | 久久久综合色 | 欧美日本韩国一区二区 | 欧美2区| 一区二区在线观看免费视频 | 国产成人精品一区二区三区四区 | 91精品国产91久久久久久最新 | 欧美一级在线观看 | 一a一片一级一片啪啪 | 成年无码av片在线 | 亚洲国产一区二区在线 | 国产伦精品一区二区三区四区视频 | 欧美日韩精品一区二区三区视频 | 久久久久久黄 | 日韩免费一二三区 | 国产在线一区二区三区 | 中文在线一区二区 | 欧美成人h版在线观看 | 9191在线播放 | 高清视频一区二区三区 | 视频第一区 | 精品国产一级 | 亚洲伊人久久综合 | 99国产在线| 亚洲天堂男人的天堂 | 久久久国产精品 | 精品欧美激情精品一区 | 91免费电影 | 黄色毛片网站在线观看 |