第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何將提取的信息保存到單獨的txt文件中?

如何將提取的信息保存到單獨的txt文件中?

侃侃無極 2024-01-24 20:50:48
我已經(jīng)構建了一個代碼,可以從我網(wǎng)站的博客中提取信息(這些 URL 位于 Excel 文件中,因此我從那里提取這些信息)。我希望將我提取的每個 URL 信息放在單獨的 .txt 文件中(到目前為止,我只設法將這些信息放在 1 中)。我怎樣才能做到這一點?我不知道從哪里開始,我在這里很迷失:(任何幫助將不勝感激。import urllibfrom bs4 import BeautifulSoupimport pandas as pdimport timei = []crawl = pd.read_excel('C:/Users/Acer/Desktop/internal_all2.xlsx') addresses = crawl['Address'].tolist() for row in addresses:    url = row    time.sleep(5)    response = urllib.request.urlopen(url)    soup = BeautifulSoup(response, 'html.parser')    content = soup.find_all('p')        for content2 in content:        print(url, content2)        i.append([url,content2])            df = pd.DataFrame(i)    df.to_csv('C:/Users/Acer/Desktop/scripts/content/test.txt', index=False)
查看完整描述

1 回答

?
翻翻過去那場雪

TA貢獻2065條經(jīng)驗 獲得超14個贊

只需在文件名后附加一個字符串:


import urllib

from bs4 import BeautifulSoup

import pandas as pd

import time


i = []


crawl = pd.read_excel('C:/Users/Acer/Desktop/internal_all2.xlsx') 

addresses = crawl['Address'].tolist() 


for row in addresses:

    url = row

    time.sleep(5)

    response = urllib.request.urlopen(url)

    soup = BeautifulSoup(response, 'html.parser')

    content = soup.find_all('p')

    

    for content2 in content:

        print(url, content2)

        i.append([url,content2])

        

    df = pd.DataFrame(i)

    df.to_csv(f'C:/Users/Acer/Desktop/scripts/content/test_{url}.txt', index=False)


查看完整回答
反對 回復 2024-01-24
  • 1 回答
  • 0 關注
  • 189 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網(wǎng)微信公眾號