本文目錄一覽:
- 1、開啟數據分析的大門-數據收集:Python對文件的操作
- 2、數據分析員用python做數據分析是怎麼回事,需要用到python中的那些內容,具體是怎麼操作的?
- 3、Python csv庫整理(部分)
- 4、python中怎麼處理csv文件
- 5、python分析csv文件
- 6、python對csv文件進行數據處理與統計
開啟數據分析的大門-數據收集:Python對文件的操作
簡介
我是一名應屆經濟學畢業生,在學習Python語言的過程中,接觸到了數據分析,機器學習和人工智慧,並對此特別感興趣,現在我把整個學習過程記錄下來,希望和我有相同興趣和愛好的朋友們一同成長,期盼著各位專家的指導。
環境介紹
在整個過程當中,將採用Python和Excel,採用Python,是因為Python提供了豐富的開發框架和工具庫,使用Excel是因為Excel是使用非常廣泛的辦公軟體,我在Excel里將複雜的演算法簡單化,使大家快速理解各種難以理解的演算法。
在開始之前,我們已經準備好了Anaconda和Excel環境。在這裡省略了這個過程。
數據獲取將通過tushare開放平台,後面我會介紹和演示如何應用tushare平台。
數據分析流程簡介
數據分析是由數據收集開始,收集的數據經過標準化處理和整理後,通過各種演算法,進行數據分析,目的是為了總結過去的 歷史 數據,在數據趨勢上預測未來的走勢,同時對現存的環境進行優化。
我們今天先從數據收集開始。
數據收集需要應用到Python對文件的讀寫操作。
下面這段代碼以只讀方式採用』UTF-8』編碼方式打開當前目錄下的text1.txt文件,並輸出到屏幕上。操作完畢後,關閉文件。
小貼士:在從tushare平台獲取數據時,每個用戶會分配到一個key,我們可以把這個key封裝到這個文件里。為的是數據安全和便利性。
Python對數據的處理主要是csv文件格式,Excel和資料庫。今天我們主要針對csv文件進行操作。為的是儘快開始我們的數據分析之旅。後面在適當的時候,我來完成對Excel和資料庫的操作。
Python 讀取csv文件有很多種方法,我們這裡採用PANDAS庫,下面是讀取csv文件代碼:
下面這段代碼先生成數據列表,然後寫入csv文件。
好了,到現在為止,Python對數據收集的基礎工作就算完成了,Python對文件操作有很多技巧,不是我們這一系列的重點,就不一一介紹了,有興趣的夥伴可以查閱相關文檔。
數據分析員用python做數據分析是怎麼回事,需要用到python中的那些內容,具體是怎麼操作的?
最近,Analysis with Programming加入了Planet Python。我這裡來分享一下如何通過Python來開始數據分析。具體內容如下:
數據導入
導入本地的或者web端的CSV文件;
數據變換;
數據統計描述;
假設檢驗
單樣本t檢驗;
可視化;
創建自定義函數。
數據導入
1
這是很關鍵的一步,為了後續的分析我們首先需要導入數據。通常來說,數據是CSV格式,就算不是,至少也可以轉換成CSV格式。在Python中,我們的操作如下:
import pandas as pd
# Reading data locally
df = pd.read_csv(‘/Users/al-ahmadgaidasaad/Documents/d.csv’)
# Reading data from web
data_url = “”
df = pd.read_csv(data_url)
為了讀取本地CSV文件,我們需要pandas這個數據分析庫中的相應模塊。其中的read_csv函數能夠讀取本地和web數據。
END
數據變換
1
既然在工作空間有了數據,接下來就是數據變換。統計學家和科學家們通常會在這一步移除分析中的非必要數據。我們先看看數據(下圖)
對R語言程序員來說,上述操作等價於通過print(head(df))來列印數據的前6行,以及通過print(tail(df))來列印數據的後6行。當然Python中,默認列印是5行,而R則是6行。因此R的代碼head(df, n = 10),在Python中就是df.head(n = 10),列印數據尾部也是同樣道理
請點擊輸入圖片描述
2
在R語言中,數據列和行的名字通過colnames和rownames來分別進行提取。在Python中,我們則使用columns和index屬性來提取,如下:
# Extracting column names
print df.columns
# OUTPUT
Index([u’Abra’, u’Apayao’, u’Benguet’, u’Ifugao’, u’Kalinga’], dtype=’object’)
# Extracting row names or the index
print df.index
# OUTPUT
Int64Index([0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77, 78], dtype=’int64′)
3
數據轉置使用T方法,
# Transpose data
print df.T
# OUTPUT
0 1 2 3 4 5 6 7 8 9
Abra 1243 4158 1787 17152 1266 5576 927 21540 1039 5424
Apayao 2934 9235 1922 14501 2385 7452 1099 17038 1382 10588
Benguet 148 4287 1955 3536 2530 771 2796 2463 2592 1064
Ifugao 3300 8063 1074 19607 3315 13134 5134 14226 6842 13828
Kalinga 10553 35257 4544 31687 8520 28252 3106 36238 4973 40140
… 69 70 71 72 73 74 75 76 77
Abra … 12763 2470 59094 6209 13316 2505 60303 6311 13345
Apayao … 37625 19532 35126 6335 38613 20878 40065 6756 38902
Benguet … 2354 4045 5987 3530 2585 3519 7062 3561 2583
Ifugao … 9838 17125 18940 15560 7746 19737 19422 15910 11096
Kalinga … 65782 15279 52437 24385 66148 16513 61808 23349 68663
78
Abra 2623
Apayao 18264
Benguet 3745
Ifugao 16787
Kalinga 16900
Other transformations such as sort can be done using codesort/code attribute. Now let’s extract a specific column. In Python, we do it using either codeiloc/code or codeix/code attributes, but codeix/code is more robust and thus I prefer it. Assuming we want the head of the first column of the data, we have
4
其他變換,例如排序就是用sort屬性。現在我們提取特定的某列數據。Python中,可以使用iloc或者ix屬性。但是我更喜歡用ix,因為它更穩定一些。假設我們需數據第一列的前5行,我們有:
print df.ix[:, 0].head()
# OUTPUT 0 1243 1 4158 2 1787 3 17152 4 1266 Name: Abra, dtype: int64
5
順便提一下,Python的索引是從0開始而非1。為了取出從11到20行的前3列數據,我們有
print df.ix[10:20, 0:3]
# OUTPUT
Abra Apayao Benguet
10 981 1311 2560
11 27366 15093 3039
12 1100 1701 2382
13 7212 11001 1088
14 1048 1427 2847
15 25679 15661 2942
16 1055 2191 2119
17 5437 6461 734
18 1029 1183 2302
19 23710 12222 2598
20 1091 2343 2654
上述命令相當於df.ix[10:20, [‘Abra’, ‘Apayao’, ‘Benguet’]]。
6
為了捨棄數據中的列,這裡是列1(Apayao)和列2(Benguet),我們使用drop屬性,如下:
print df.drop(df.columns[[1, 2]], axis = 1).head()
# OUTPUT
Abra Ifugao Kalinga
0 1243 3300 10553
1 4158 8063 35257
2 1787 1074 4544
3 17152 19607 31687
4 1266 3315 8520
axis 參數告訴函數到底捨棄列還是行。如果axis等於0,那麼就捨棄行。
END
統計描述
1
下一步就是通過describe屬性,對數據的統計特性進行描述:
print df.describe()
# OUTPUT
Abra Apayao Benguet Ifugao Kalinga
count 79.000000 79.000000 79.000000 79.000000 79.000000
mean 12874.379747 16860.645570 3237.392405 12414.620253 30446.417722
std 16746.466945 15448.153794 1588.536429 5034.282019 22245.707692
min 927.000000 401.000000 148.000000 1074.000000 2346.000000
25% 1524.000000 3435.500000 2328.000000 8205.000000 8601.500000
50% 5790.000000 10588.000000 3202.000000 13044.000000 24494.000000
75% 13330.500000 33289.000000 3918.500000 16099.500000 52510.500000
max 60303.000000 54625.000000 8813.000000 21031.000000 68663.000000
END
假設檢驗
1
Python有一個很好的統計推斷包。那就是scipy裡面的stats。ttest_1samp實現了單樣本t檢驗。因此,如果我們想檢驗數據Abra列的稻穀產量均值,通過零假設,這裡我們假定總體稻穀產量均值為15000,我們有:
from scipy import stats as ss
# Perform one sample t-test using 1500 as the true mean
print ss.ttest_1samp(a = df.ix[:, ‘Abra’], popmean = 15000)
# OUTPUT
(-1.1281738488299586, 0.26270472069109496)
返回下述值組成的元祖:
t : 浮點或數組類型t統計量
prob : 浮點或數組類型two-tailed p-value 雙側概率值
2
通過上面的輸出,看到p值是0.267遠大於α等於0.05,因此沒有充分的證據說平均稻穀產量不是150000。將這個檢驗應用到所有的變數,同樣假設均值為15000,我們有:
print ss.ttest_1samp(a = df, popmean = 15000)
# OUTPUT
(array([ -1.12817385, 1.07053437, -65.81425599, -4.564575 , 6.17156198]),
array([ 2.62704721e-01, 2.87680340e-01, 4.15643528e-70,
1.83764399e-05, 2.82461897e-08]))
第一個數組是t統計量,第二個數組則是相應的p值
END
可視化
1
Python中有許多可視化模塊,最流行的當屬matpalotlib庫。稍加提及,我們也可選擇bokeh和seaborn模塊。之前的博文中,我已經說明了matplotlib庫中的盒須圖模塊功能。
請點擊輸入圖片描述
2
# Import the module for plotting
import matplotlib.pyplot as plt
plt.show(df.plot(kind = ‘box’))
現在,我們可以用pandas模塊中集成R的ggplot主題來美化圖表。要使用ggplot,我們只需要在上述代碼中多加一行,
import matplotlib.pyplot as plt
pd.options.display.mpl_style = ‘default’ # Sets the plotting display theme to ggplot2
df.plot(kind = ‘box’)
3
這樣我們就得到如下圖表:
請點擊輸入圖片描述
4
比matplotlib.pyplot主題簡潔太多。但是在本文中,我更願意引入seaborn模塊,該模塊是一個統計數據可視化庫。因此我們有:
# Import the seaborn library
import seaborn as sns
# Do the boxplot
plt.show(sns.boxplot(df, widths = 0.5, color = “pastel”))
請點擊輸入圖片描述
5
多性感的盒式圖,繼續往下看。
請點擊輸入圖片描述
6
plt.show(sns.violinplot(df, widths = 0.5, color = “pastel”))
請點擊輸入圖片描述
7
plt.show(sns.distplot(df.ix[:,2], rug = True, bins = 15))
請點擊輸入圖片描述
8
with sns.axes_style(“white”):
plt.show(sns.jointplot(df.ix[:,1], df.ix[:,2], kind = “kde”))
請點擊輸入圖片描述
9
plt.show(sns.lmplot(“Benguet”, “Ifugao”, df))
END
創建自定義函數
在Python中,我們使用def函數來實現一個自定義函數。例如,如果我們要定義一個兩數相加的函數,如下即可:
def add_2int(x, y):
return x + y
print add_2int(2, 2)
# OUTPUT
4
順便說一下,Python中的縮進是很重要的。通過縮進來定義函數作用域,就像在R語言中使用大括弧{…}一樣。這有一個我們之前博文的例子:
產生10個正態分布樣本,其中和
基於95%的置信度,計算和 ;
重複100次; 然後
計算出置信區間包含真實均值的百分比
Python中,程序如下:
import numpy as np
import scipy.stats as ss
def case(n = 10, mu = 3, sigma = np.sqrt(5), p = 0.025, rep = 100):
m = np.zeros((rep, 4))
for i in range(rep):
norm = np.random.normal(loc = mu, scale = sigma, size = n)
xbar = np.mean(norm)
low = xbar – ss.norm.ppf(q = 1 – p) * (sigma / np.sqrt(n))
up = xbar + ss.norm.ppf(q = 1 – p) * (sigma / np.sqrt(n))
if (mu low) (mu up):
rem = 1
else:
rem = 0
m[i, :] = [xbar, low, up, rem]
inside = np.sum(m[:, 3])
per = inside / rep
desc = “There are ” + str(inside) + ” confidence intervals that contain “
“the true mean (” + str(mu) + “), that is ” + str(per) + ” percent of the total CIs”
return {“Matrix”: m, “Decision”: desc}
上述代碼讀起來很簡單,但是循環的時候就很慢了。下面針對上述代碼進行了改進,這多虧了 Python專家
import numpy as np
import scipy.stats as ss
def case2(n = 10, mu = 3, sigma = np.sqrt(5), p = 0.025, rep = 100):
scaled_crit = ss.norm.ppf(q = 1 – p) * (sigma / np.sqrt(n))
norm = np.random.normal(loc = mu, scale = sigma, size = (rep, n))
xbar = norm.mean(1)
low = xbar – scaled_crit
up = xbar + scaled_crit
rem = (mu low) (mu up)
m = np.c_[xbar, low, up, rem]
inside = np.sum(m[:, 3])
per = inside / rep
desc = “There are ” + str(inside) + ” confidence intervals that contain “
“the true mean (” + str(mu) + “), that is ” + str(per) + ” percent of the total CIs”
return {“Matrix”: m, “Decision”: desc}
Python csv庫整理(部分)
近期,筆者到一些數據競賽網站進行觀察學習,發現很多數據是以csv文件處理的(廢話).因而,磨刀不誤砍柴工,筆者先對Python的csv庫進行學習.
csv模塊實現了CSV格式表單數據的讀寫.這可以以一個兼容Excel的方式讀寫其數據文件,csv模塊中的reader和writer類被用來讀寫序列化的數據.也可以使用DictReader類和DictWriter類以字典的方式讀取數據.
返回一個reader對象,該對象逐行遍歷csvfile(文件和列表均適用,但是文件的話應該newline=”.
默認每一行讀取一個字元串組成的列表(而非數值,除非修改QUOTE_NONUMERIC).
返回一個writer對象,負責將數據在給定的文件類對象上轉換成帶分隔符的字元串.csvfile(只要該對象有write()方法,文件的話應該newline=”.)
這兩個方法可以把name字元串和dialect關聯/脫鉤.dialect可以是Dialect的子類,或者fmtparams的關鍵字參數.
返回一個Dialect對象為name的變種,若其未註冊,拋出Error.
返回已經註冊的所有變種的 名稱
返回當前解析器允許的最大欄位大小,如果制定了參數,參數將成為新的最大欄位大小.
該對象操作上類似reader,但是把每行中的信息映射到一個字典,字典的鍵由fieldnames給出
fieldname的參數是一個序列sequence [1] ,如果參數預設,默認第一行的值作為欄位名.
如果某一行中的欄位多於欄位名(比如說約定有5項屬性,但是這一行卻出現了6個數據),則其餘欄位將放入列表中,欄位名由 restkey 指定(默認為 None)。如果非空白行的欄位少於欄位名,則缺少的值將用 None 填充。
#其實這玩意應該就跟各種填表裡面的備註用法差不多.
3.8中返回的行是dict類型.
該對象操作上類似reader,但是把每行中的信息映射到一個字典,字典的鍵由fieldnames給出,fieldname參數是不可預設的.restval用來指定字典缺少鍵的時候要寫入的值.extrasaction用於指定關鍵鍵在fieldname中找不到的情況的處理機制.’raise’引發ValueError,而’ignore’則會被忽略.
這個類被用來瑞段csv文件的格式
以下諸類均在括弧中標註了在其變種註冊表中的名稱
定義了Excel生成的csv文件的常規屬性.(‘excel’)
定義了Excel生成的,tab分割的csv文件的常規屬
性.(‘excel-tab’)
定義了UNIX系統上生成的csv文件的常規屬性(‘unix’):
任意可能發生的csv庫函數錯誤.
參考鏈接
Python3.8.2文檔中關於csv庫的相關文檔
python中怎麼處理csv文件
什麼是CSV
就是內容用逗號隔開,後綴是『.csv』的文件。它可以被任何一個文本編輯器打開。如果用excel打開,它又可以是這樣的:
END
讀CSV
典型的可處理的csv文件,通常含有表頭,也就是每列的列名。這樣一來,每一行的內容就可以被當作是以表頭為key的字典。於是可以使用csv定義的類:
class csv.DictReader(csvfile, fieldnames=None, restkey=None, restval=None, dialect=’excel’, *args, **kwds)
下面是官方的例子(Python 3)。我們看到,對於csv文件的內容,我們可以通過相應的tag,也就是字典的key來讀取。
在實際使用過程中,為了分離代碼和方便閱讀,可以先把讀取的內容轉存到列表,隨後再根據各個key進行分開處理(針對多列的情況)。
END
寫CSV
同樣的,寫入的也是列表。使用的類:
class csv.DictWriter(csvfile, fieldnames, restval=”, extrasaction=’raise’, dialect=’excel’, *args, **kwds)
官方例子:我們看到,有專門的函數來寫入表頭,沒有表頭數據是無法對應的。需要注意的是,對於下列語句,『w』需要修改為『wb』,否則每次寫入會有多餘空行
with open(‘names.csv’, ‘wb’) as csvfile
python分析csv文件
import csv
suburbs_average = {}
suburbs_count = {}
group_suburb = {}
csvfile = open(“ps1_3_data.csv”)
csv_reader = csv.reader(csvfile, delimiter=’,’)
for row in csv_reader:
suburbs=row[0]
travel_time=row[1]
if suburbs in group_suburb.keys():
suburbs_count[suburbs] += 1
group_suburb[suburbs] += int(travel_time)
else:
suburbs_count[suburbs] = 1
group_suburb[suburbs] = int(travel_time)
for key in group_suburb.keys():
suburbs_average[key]=group_suburb[key]/suburbs_count[key]
print (suburbs_average)
python對csv文件進行數據處理與統計
如果是這樣,把數據表弄到word中,看看數據左右是否有空格,如果有,就用「居中」罰礌竄啡訶獨撮掃鄲激處理,把空格去掉,再粘貼回Excel即可進行計算了。
在Excel中處理文本類型的數據,還真的有些無奈呢。
原創文章,作者:PJOMT,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/330469.html