av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

關于python list 寫進txt中的問題

瀏覽:113日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標題加入到一個列表當中,在用file.write()寫進 新聞.txt的時候,為啥老是寫入列表的最后一個呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關于python list 寫進txt中的問題這個是我爬取出來的東西(print(b)的結果)

關于python list 寫進txt中的問題這個是寫入txt中的內容

問題解答

回答1:

文件操作放循環里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動作放錯地方了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产精品毛片 | 久草免费在线视频 | 日日干夜夜操 | 亚洲精品一区二区三区在线观看 | 仙人掌旅馆在线观看 | 狠狠爱综合网 | 一级做a爰片性色毛片视频停止 | 99久久久久 | 亚洲性人人天天夜夜摸 | 一级毛片视频在线观看 | 日韩成人免费av | 国产美女视频黄a视频免费 国产精品福利视频 | 国产视频一区二区 | 亚洲一区二区三区视频免费观看 | 亚洲精选一区 | 国产精品美女久久久久久久久久久 | 日本精品一区 | 日本一区二区在线视频 | 久久久久国产精品一区二区 | 一区二区高清在线观看 | 欧美精品一区在线发布 | 欧美精品一区二区在线观看 | 亚洲一卡二卡 | 超碰在线播 | 日韩一区二区在线视频 | 欧美一区在线看 | 日本精品一区二区 | 国产一级在线观看 | 亚洲一区二区三区四区在线观看 | 欧美精品一区二区三区在线播放 | 亚洲男女激情 | 一区二区三区免费 | 色网站视频 | 久久久久亚洲精品国产 | 99视频在线看 | 婷婷综合色 | 免费 视频 1级 | 久久成人免费视频 | 夜夜精品视频 | 中文字幕免费中文 | 亚洲精品一区二区三区蜜桃久 |