一、Python讀取本地文本文件
Python中,讀取本地的文本文件比較簡單,只需要使用open()函數打開文件,然後使用read()或readlines()方法就可以完成文件讀取。具體代碼如下:
with open('test.txt', 'r') as f: content = f.read() print(content)
上述代碼中,我們使用了Python’s with語句來打開文件,以確保在使用完文件之後將文件關閉,這樣可以避免文件可能出現的內存泄漏問題。
二、Python通過正則表達式解析文本
在處理文本時,正則表達式是一種非常有用的工具,Python自帶了re模塊來支持正則表達式的相關操作。下面我們來看一個示例代碼:
import re pattern = r'\d+\.\d+' # 正則表達式表達需要匹配的模式 content = 'price is 3.22, cost is 5.87' match = re.findall(pattern, content) print(match)
上述代碼中,我們定義了一個正則表達式模式,然後使用findall()方法來查找內容中符合該模式的字符串。輸出結果是[‘3.22’, ‘5.87’]。
三、用Python處理Excel文件
在Python中,處理Excel文件需要使用第三方庫。可以使用openpyxl、xlwt等庫來完成Excel文件的讀取和寫入。下面是讀取Excel文件的一個示例:
import openpyxl wb = openpyxl.load_workbook('example.xlsx') sheet = wb.active for row in sheet.iter_rows(values_only=True): print(row)
上述代碼中,我們使用openpyxl庫的load_workbook()方法來打開工作簿,然後使用active屬性選擇當前的活動工作表,然後使用iter_rows()方法迭代每一行數據,輸出結果可以是每一行的數據。
四、使用Python爬蟲實現網頁數據抓取
Python對於網頁數據的抓取支持非常強大,可以使用urllib、requests、beautifulsoup等庫來完成。下面是一個使用requests庫實現網頁數據抓取的示例代碼:
import requests url = 'http://example.com' response = requests.get(url, timeout=5) print(response.text)
上述代碼使用requests庫得到了一個網頁的響應內容,可以通過response.text屬性來獲取響應的文本內容。
五、Python處理JSON數據
在Python中,處理JSON數據的方法也非常簡單,我們可以使用內置的json庫來完成JSON數據的讀寫操作。下面是一個讀取JSON數據文件並輸出的示例:
import json with open('data.json') as f: data = json.load(f) print(data)
上述代碼中,我們使用了json庫的load()方法來讀取json文件的數據並存儲在data變量中,然後輸出data變量的內容。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/151425.html