字符亂碼的解決技巧「notepad中文亂碼怎麼改編碼」

今天扼要總結一個處理csv文件亂碼問題,可能你有類似經歷,用excel打開一個csv文件,中文全部顯示亂碼。然後,手動用notepad++打開,修改編碼為utf-8並保存後,再用excel打開顯示正常。

今天使用Python,很少代碼就能將上面過程自動化。首先,導入3個模塊:

# coding: utf-8
# @author: zhenguo
# @date: 2020-12-16
# @describe: functions about automatic file processing

import pandas as pd  
import os 
import chardet

chardet 模塊用於得到文件的編碼格式,pandas 按照這個格式讀取,然後保存為xlsx格式。

獲取filename文件的編碼格式:

def get_encoding(filename):
    """
    返迴文件編碼格式
    """
    with open(filename,'rb') as f:
        return chardet.detect(f.read())['encoding']

保存為utf-8編碼xlsx格式文件,支持csv, xls, xlsx 格式的文件亂碼處理。需要注意,如果讀入文件為csv格式,保存時要使用xlsx格式:

def to_utf8(filename):
    """
    保存為 to_utf-8
    """
    encoding = get_encoding(filename)
    ext = os.path.splitext(filename)
    if ext[1] =='.csv':
        if 'gb' in encoding or 'GB' in encoding:
            df = pd.read_csv(filename,engine='python',encoding='GBK')
        else:
            df = pd.read_csv(filename,engine='python',encoding='utf-8')
        df.to_excel(ext[0]+'.xlsx')
    elif ext[1]=='.xls' or ext[1] == '.xlsx':
        if 'gb' in encoding or 'GB' in encoding:
            df = pd.read_excel(filename,encoding='GBK')
        else:
            df = pd.read_excel(filename,encoding='utf-8')
        df.to_excel(filename)
    else:
        print('only support csv, xls, xlsx format')

上面函數實現單個文件轉化,下面batch_to_utf8 實現目錄 path 下所有後綴為ext_name文件的批量亂碼轉化:

def batch_to_utf8(path,ext_name='csv'):
    """
    path下,後綴為 ext_name的亂碼文件,批量轉化為可讀文件
    """
    for file in os.listdir(path):
        if os.path.splitext(file)[1]=='.'+ext_name:
            to_utf8(os.path.join(path,file))

調用:

if __name__ == '__main__':
  batch_to_utf8('.') # 對當前目錄下的所有csv文件保存為xlsx格式,utf-8編碼的文件

文件讀寫時亂碼問題,經常會遇到,相信今天這篇文章里的to_utf8,batch_to_utf8函數會解決這個問題,你如果後面遇到,不妨直接引用這兩個函數嘗試下。

原創文章,作者:投稿專員,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/281782.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
投稿專員的頭像投稿專員
上一篇 2024-12-21 13:20
下一篇 2024-12-21 13:20

相關推薦

發表回復

登錄後才能評論