av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

csv - python多列存取爬蟲網頁?

瀏覽:102日期:2022-08-30 10:07:16

問題描述

爬蟲抓取的資料想分列存取在tsv上,試過很多方式都沒有辦法成功存存取成兩列資訊。想存取為數字爬取的資料一列,底下類型在第二列csv - python多列存取爬蟲網頁?

from urllib.request import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)def GPname(): GPnameList = bs0bj.find_all('dd',{'class':re.compile('ddappname')}) str = ’’ for name in GPnameList:str += name.get_text()str += ’n’print(name.get_text()) return strdef GPcompany(): GPcompanyname = bs0bj.find_all('dd',{'style':re.compile('color')}) str = ’’ for cpa in GPcompanyname:str += cpa.get_text()str += ’n’print(cpa.get_text()) return strwith open(’0217.tsv’,’w’,newline=’’,encoding=’utf-8’) as f: f.write(GPname()) f.write(GPcompany())f.close()

可能對zip不熟悉,存取下來之后變成一個字一格也找到這篇參考,但怎么嘗試都沒有辦法成功https://segmentfault.com/q/10...

問題解答

回答1:

寫csv文件簡單點 你的結構數據要成這樣 [['1. 東森新聞雲','新聞'],['2. 創世黎明(Dawn of world)','遊戲']]

from urllib import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)GPnameList = [name.get_text() for name in bs0bj.find_all('dd',{'class':re.compile('ddappname')})]GPcompanyname = [cpa.get_text() for cpa in bs0bj.find_all('dd',{'style':re.compile('color')})]data = ’n’.join([’,’.join(d) for d in zip(GPnameList, GPcompanyname)])with open(’C:/Users/sa/Desktop/0217.csv’,’wb’) as f: f.write(data.encode(’utf-8’))

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲一区二区免费看 | 亚洲在线电影 | 欧美九九 | 日韩av在线一区 | 日韩精品在线看 | 91性高湖久久久久久久久_久久99 | 草久久久| 国产免费一区二区三区 | 亚洲视屏 | 天堂色网 | 国产精品99久久久久久动医院 | 欧美色999 | 成人午夜在线观看 | 婷婷在线网站 | 日韩一区在线播放 | 久久久99国产精品免费 | 久草福利| 国产精品国产精品国产专区不片 | 欧美日韩福利视频 | 欧美日韩亚洲国产 | 精品国产精品国产偷麻豆 | 久久1区| 国产精品久久久久婷婷二区次 | 日韩成人免费视频 | 视频第一区 | 三级视频久久 | 国产精品永久 | 亚洲在线一区 | 国产一区二区三区在线视频 | 国外成人在线视频网站 | 日韩一区精品 | 欧美日韩电影免费观看 | 日韩视频1 | 黄色毛片在线看 | 91视频一区 | 亚洲精品欧美一区二区三区 | 日韩不卡三区 | 免费午夜视频在线观看 | 欧美一区二区三区免费电影 | 亚洲一区 中文字幕 | 韩日视频在线观看 |