本文目錄一覽:
- 1、python怎麼做大數據分析
- 2、Python數據分析師主要做什麼?Python基礎
- 3、數據分析員用python做數據分析是怎麼回事,需要用到python中的那些內容,具體是怎麼操作的?
- 4、python 數據預處理問題
- 5、python可以做哪些數據分析
- 6、python如何做數據分析
python怎麼做大數據分析
數據獲取:公開數據、Python爬蟲外部數據的獲取方式主要有以下兩種。(推薦學習:Python視頻教程)
第一種是獲取外部的公開數據集,一些科研機構、企業、政府會開放一些數據,你需要到特定的網站去下載這些數據。這些數據集通常比較完善、質量相對較高。
另一種獲取外部數據的方式就是爬蟲。
比如你可以通過爬蟲獲取招聘網站某一職位的招聘信息,爬取租房網站上某城市的租房信息,爬取豆瓣評分評分最高的電影列表,獲取知乎點贊排行、網易雲音樂評論排行列表。基於互聯網爬取的數據,你可以對某個行業、某種人群進行分析。
在爬蟲之前你需要先了解一些 Python 的基礎知識:元素(列表、字典、元組等)、變數、循環、函數………
以及,如何用 Python 庫(urlpb、BeautifulSoup、requests、scrapy)實現網頁爬蟲。
掌握基礎的爬蟲之後,你還需要一些高級技巧,比如正則表達式、使用cookie信息、模擬用戶登錄、抓包分析、搭建代理池等等,來應對不同網站的反爬蟲限制。
數據存取:SQL語言
在應對萬以內的數據的時候,Excel對於一般的分析沒有問題,一旦數據量大,就會力不從心,資料庫就能夠很好地解決這個問題。而且大多數的企業,都會以SQL的形式來存儲數據。
SQL作為最經典的資料庫工具,為海量數據的存儲與管理提供可能,並且使數據的提取的效率大大提升。你需要掌握以下技能:
提取特定情況下的數據
資料庫的增、刪、查、改
數據的分組聚合、如何建立多個表之間的聯繫
數據預處理:Python(pandas)
很多時候我們拿到的數據是不幹凈的,數據的重複、缺失、異常值等等,這時候就需要進行數據的清洗,把這些影響分析的數據處理好,才能獲得更加精確地分析結果。
對於數據預處理,學會 pandas (Python包)的用法,應對一般的數據清洗就完全沒問題了。需要掌握的知識點如下:
選擇:數據訪問
缺失值處理:對缺失數據行進行刪除或填充
重複值處理:重複值的判斷與刪除
異常值處理:清除不必要的空格和極端、異常數據
相關操作:描述性統計、Apply、直方圖等
合併:符合各種邏輯關係的合併操作
分組:數據劃分、分別執行函數、數據重組
Reshaping:快速生成數據透視表
概率論及統計學知識
需要掌握的知識點如下:
基本統計量:均值、中位數、眾數、百分位數、極值等
其他描述性統計量:偏度、方差、標準差、顯著性等
其他統計知識:總體和樣本、參數和統計量、ErrorBar
概率分布與假設檢驗:各種分布、假設檢驗流程
其他概率論知識:條件概率、貝葉斯等
有了統計學的基本知識,你就可以用這些統計量做基本的分析了。你可以使用 Seaborn、matplotpb 等(python包)做一些可視化的分析,通過各種可視化統計圖,並得出具有指導意義的結果。
Python 數據分析
掌握回歸分析的方法,通過線性回歸和邏輯回歸,其實你就可以對大多數的數據進行回歸分析,並得出相對精確地結論。這部分需要掌握的知識點如下:
回歸分析:線性回歸、邏輯回歸
基本的分類演算法:決策樹、隨機森林……
基本的聚類演算法:k-means……
特徵工程基礎:如何用特徵選擇優化模型
調參方法:如何調節參數優化模型
Python 數據分析包:scipy、numpy、scikit-learn等
在數據分析的這個階段,重點了解回歸分析的方法,大多數的問題可以得以解決,利用描述性的統計分析和回歸分析,你完全可以得到一個不錯的分析結論。
當然,隨著你實踐量的增多,可能會遇到一些複雜的問題,你就可能需要去了解一些更高級的演算法:分類、聚類。
然後你會知道面對不同類型的問題的時候更適合用哪種演算法模型,對於模型的優化,你需要去了解如何通過特徵提取、參數調節來提升預測的精度。
你可以通過 Python 中的 scikit-learn 庫來實現數據分析、數據挖掘建模和分析的全過程。
更多Python相關技術文章,請訪問Python教程欄目進行學習!以上就是小編分享的關於python怎麼做大數據分析的詳細內容希望對大家有所幫助,更多有關python教程請關注環球青藤其它相關文章!
Python數據分析師主要做什麼?Python基礎
伴隨著大數據時代的到來,Python的熱度居高不下,已成為職場人士必備的技能,它不僅可以從事網路爬蟲、人工智慧、Web開發、遊戲開發等工作,還是數據分析的首選語言。那麼問題來了,利用Python數據分析可以做什麼呢?簡單來講,可以做的事情有很多,具體如下。
第一、檢查數據表
Python中使用shape函數來查看數據表的維度,也就是行數和列數。你可以使用info函數查看數據表的整體信息,使用dtypes函數來返回數據格式。Lsnull是Python中檢查空置的函數,你可以對整個數據進行檢查,也可以單獨對某一列進行空置檢查,返回的結果是邏輯值,包括空置返回True,不包含則返回False。使用unique函數查看唯一值,使用Values函數用來查看數據表中的數值。
第二,數據表清洗
Python中處理空值的方法比較靈活,可以使用Dropna函數用來刪除數據表中包括空值的數據,也可以使用fillna函數對空值進行填充。Python中dtype是查看數據格式的函數,與之對應的是asstype函數,用來更改數據格式,Rename是更改名稱的函數,drop_duplicate函數函數重複值,replace函數實現數據轉換。
第三,數據預處理
數據預處理是對清洗完的數據進行整理以便後期統計和分析工作,主要包括數據表的合併、排序、數值分列、數據分組以及標記等工作。在Python中可以使用merge函數對兩個數據表進行合併,合併的方式為inner,此外還有left、right和outer方式。使用ort_values函數和sort_index函數完成排序,使用where函數完成數據分組,使用split函數實現分列。
第四,數據提取
主要是使用三個函數:loc、iloc和ix,其中loc函數按標準值進行提取,iloc按位置進行提取,ix可以同時按標籤和位置進行提取。除了按標籤和位置提取數據意外,還可以按照具體的條件進行提取。
第五,數據篩選匯總
Python中使用loc函數配合篩選條件來完成篩選功能,配合sum和count函數還能實現Excel中sumif和countif函數的功能。Python中使用的主要函數是groupby和pivot_table。
數據分析員用python做數據分析是怎麼回事,需要用到python中的那些內容,具體是怎麼操作的?
最近,Analysis with Programming加入了Planet Python。我這裡來分享一下如何通過Python來開始數據分析。具體內容如下:
數據導入
導入本地的或者web端的CSV文件;
數據變換;
數據統計描述;
假設檢驗
單樣本t檢驗;
可視化;
創建自定義函數。
數據導入
1
這是很關鍵的一步,為了後續的分析我們首先需要導入數據。通常來說,數據是CSV格式,就算不是,至少也可以轉換成CSV格式。在Python中,我們的操作如下:
import pandas as pd
# Reading data locally
df = pd.read_csv(‘/Users/al-ahmadgaidasaad/Documents/d.csv’)
# Reading data from web
data_url = “”
df = pd.read_csv(data_url)
為了讀取本地CSV文件,我們需要pandas這個數據分析庫中的相應模塊。其中的read_csv函數能夠讀取本地和web數據。
END
數據變換
1
既然在工作空間有了數據,接下來就是數據變換。統計學家和科學家們通常會在這一步移除分析中的非必要數據。我們先看看數據(下圖)
對R語言程序員來說,上述操作等價於通過print(head(df))來列印數據的前6行,以及通過print(tail(df))來列印數據的後6行。當然Python中,默認列印是5行,而R則是6行。因此R的代碼head(df, n = 10),在Python中就是df.head(n = 10),列印數據尾部也是同樣道理
請點擊輸入圖片描述
2
在R語言中,數據列和行的名字通過colnames和rownames來分別進行提取。在Python中,我們則使用columns和index屬性來提取,如下:
# Extracting column names
print df.columns
# OUTPUT
Index([u’Abra’, u’Apayao’, u’Benguet’, u’Ifugao’, u’Kalinga’], dtype=’object’)
# Extracting row names or the index
print df.index
# OUTPUT
Int64Index([0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77, 78], dtype=’int64′)
3
數據轉置使用T方法,
# Transpose data
print df.T
# OUTPUT
0 1 2 3 4 5 6 7 8 9
Abra 1243 4158 1787 17152 1266 5576 927 21540 1039 5424
Apayao 2934 9235 1922 14501 2385 7452 1099 17038 1382 10588
Benguet 148 4287 1955 3536 2530 771 2796 2463 2592 1064
Ifugao 3300 8063 1074 19607 3315 13134 5134 14226 6842 13828
Kalinga 10553 35257 4544 31687 8520 28252 3106 36238 4973 40140
… 69 70 71 72 73 74 75 76 77
Abra … 12763 2470 59094 6209 13316 2505 60303 6311 13345
Apayao … 37625 19532 35126 6335 38613 20878 40065 6756 38902
Benguet … 2354 4045 5987 3530 2585 3519 7062 3561 2583
Ifugao … 9838 17125 18940 15560 7746 19737 19422 15910 11096
Kalinga … 65782 15279 52437 24385 66148 16513 61808 23349 68663
78
Abra 2623
Apayao 18264
Benguet 3745
Ifugao 16787
Kalinga 16900
Other transformations such as sort can be done using codesort/code attribute. Now let’s extract a specific column. In Python, we do it using either codeiloc/code or codeix/code attributes, but codeix/code is more robust and thus I prefer it. Assuming we want the head of the first column of the data, we have
4
其他變換,例如排序就是用sort屬性。現在我們提取特定的某列數據。Python中,可以使用iloc或者ix屬性。但是我更喜歡用ix,因為它更穩定一些。假設我們需數據第一列的前5行,我們有:
print df.ix[:, 0].head()
# OUTPUT 0 1243 1 4158 2 1787 3 17152 4 1266 Name: Abra, dtype: int64
5
順便提一下,Python的索引是從0開始而非1。為了取出從11到20行的前3列數據,我們有
print df.ix[10:20, 0:3]
# OUTPUT
Abra Apayao Benguet
10 981 1311 2560
11 27366 15093 3039
12 1100 1701 2382
13 7212 11001 1088
14 1048 1427 2847
15 25679 15661 2942
16 1055 2191 2119
17 5437 6461 734
18 1029 1183 2302
19 23710 12222 2598
20 1091 2343 2654
上述命令相當於df.ix[10:20, [‘Abra’, ‘Apayao’, ‘Benguet’]]。
6
為了捨棄數據中的列,這裡是列1(Apayao)和列2(Benguet),我們使用drop屬性,如下:
print df.drop(df.columns[[1, 2]], axis = 1).head()
# OUTPUT
Abra Ifugao Kalinga
0 1243 3300 10553
1 4158 8063 35257
2 1787 1074 4544
3 17152 19607 31687
4 1266 3315 8520
axis 參數告訴函數到底捨棄列還是行。如果axis等於0,那麼就捨棄行。
END
統計描述
1
下一步就是通過describe屬性,對數據的統計特性進行描述:
print df.describe()
# OUTPUT
Abra Apayao Benguet Ifugao Kalinga
count 79.000000 79.000000 79.000000 79.000000 79.000000
mean 12874.379747 16860.645570 3237.392405 12414.620253 30446.417722
std 16746.466945 15448.153794 1588.536429 5034.282019 22245.707692
min 927.000000 401.000000 148.000000 1074.000000 2346.000000
25% 1524.000000 3435.500000 2328.000000 8205.000000 8601.500000
50% 5790.000000 10588.000000 3202.000000 13044.000000 24494.000000
75% 13330.500000 33289.000000 3918.500000 16099.500000 52510.500000
max 60303.000000 54625.000000 8813.000000 21031.000000 68663.000000
END
假設檢驗
1
Python有一個很好的統計推斷包。那就是scipy裡面的stats。ttest_1samp實現了單樣本t檢驗。因此,如果我們想檢驗數據Abra列的稻穀產量均值,通過零假設,這裡我們假定總體稻穀產量均值為15000,我們有:
from scipy import stats as ss
# Perform one sample t-test using 1500 as the true mean
print ss.ttest_1samp(a = df.ix[:, ‘Abra’], popmean = 15000)
# OUTPUT
(-1.1281738488299586, 0.26270472069109496)
返回下述值組成的元祖:
t : 浮點或數組類型t統計量
prob : 浮點或數組類型two-tailed p-value 雙側概率值
2
通過上面的輸出,看到p值是0.267遠大於α等於0.05,因此沒有充分的證據說平均稻穀產量不是150000。將這個檢驗應用到所有的變數,同樣假設均值為15000,我們有:
print ss.ttest_1samp(a = df, popmean = 15000)
# OUTPUT
(array([ -1.12817385, 1.07053437, -65.81425599, -4.564575 , 6.17156198]),
array([ 2.62704721e-01, 2.87680340e-01, 4.15643528e-70,
1.83764399e-05, 2.82461897e-08]))
第一個數組是t統計量,第二個數組則是相應的p值
END
可視化
1
Python中有許多可視化模塊,最流行的當屬matpalotlib庫。稍加提及,我們也可選擇bokeh和seaborn模塊。之前的博文中,我已經說明了matplotlib庫中的盒須圖模塊功能。
請點擊輸入圖片描述
2
# Import the module for plotting
import matplotlib.pyplot as plt
plt.show(df.plot(kind = ‘box’))
現在,我們可以用pandas模塊中集成R的ggplot主題來美化圖表。要使用ggplot,我們只需要在上述代碼中多加一行,
import matplotlib.pyplot as plt
pd.options.display.mpl_style = ‘default’ # Sets the plotting display theme to ggplot2
df.plot(kind = ‘box’)
3
這樣我們就得到如下圖表:
請點擊輸入圖片描述
4
比matplotlib.pyplot主題簡潔太多。但是在本文中,我更願意引入seaborn模塊,該模塊是一個統計數據可視化庫。因此我們有:
# Import the seaborn library
import seaborn as sns
# Do the boxplot
plt.show(sns.boxplot(df, widths = 0.5, color = “pastel”))
請點擊輸入圖片描述
5
多性感的盒式圖,繼續往下看。
請點擊輸入圖片描述
6
plt.show(sns.violinplot(df, widths = 0.5, color = “pastel”))
請點擊輸入圖片描述
7
plt.show(sns.distplot(df.ix[:,2], rug = True, bins = 15))
請點擊輸入圖片描述
8
with sns.axes_style(“white”):
plt.show(sns.jointplot(df.ix[:,1], df.ix[:,2], kind = “kde”))
請點擊輸入圖片描述
9
plt.show(sns.lmplot(“Benguet”, “Ifugao”, df))
END
創建自定義函數
在Python中,我們使用def函數來實現一個自定義函數。例如,如果我們要定義一個兩數相加的函數,如下即可:
def add_2int(x, y):
return x + y
print add_2int(2, 2)
# OUTPUT
4
順便說一下,Python中的縮進是很重要的。通過縮進來定義函數作用域,就像在R語言中使用大括弧{…}一樣。這有一個我們之前博文的例子:
產生10個正態分布樣本,其中和
基於95%的置信度,計算和 ;
重複100次; 然後
計算出置信區間包含真實均值的百分比
Python中,程序如下:
import numpy as np
import scipy.stats as ss
def case(n = 10, mu = 3, sigma = np.sqrt(5), p = 0.025, rep = 100):
m = np.zeros((rep, 4))
for i in range(rep):
norm = np.random.normal(loc = mu, scale = sigma, size = n)
xbar = np.mean(norm)
low = xbar – ss.norm.ppf(q = 1 – p) * (sigma / np.sqrt(n))
up = xbar + ss.norm.ppf(q = 1 – p) * (sigma / np.sqrt(n))
if (mu low) (mu up):
rem = 1
else:
rem = 0
m[i, :] = [xbar, low, up, rem]
inside = np.sum(m[:, 3])
per = inside / rep
desc = “There are ” + str(inside) + ” confidence intervals that contain “
“the true mean (” + str(mu) + “), that is ” + str(per) + ” percent of the total CIs”
return {“Matrix”: m, “Decision”: desc}
上述代碼讀起來很簡單,但是循環的時候就很慢了。下面針對上述代碼進行了改進,這多虧了 Python專家
import numpy as np
import scipy.stats as ss
def case2(n = 10, mu = 3, sigma = np.sqrt(5), p = 0.025, rep = 100):
scaled_crit = ss.norm.ppf(q = 1 – p) * (sigma / np.sqrt(n))
norm = np.random.normal(loc = mu, scale = sigma, size = (rep, n))
xbar = norm.mean(1)
low = xbar – scaled_crit
up = xbar + scaled_crit
rem = (mu low) (mu up)
m = np.c_[xbar, low, up, rem]
inside = np.sum(m[:, 3])
per = inside / rep
desc = “There are ” + str(inside) + ” confidence intervals that contain “
“the true mean (” + str(mu) + “), that is ” + str(per) + ” percent of the total CIs”
return {“Matrix”: m, “Decision”: desc}
python 數據預處理問題
file1.txt是原銷售單,file2.txt新銷售單
file1=open(“file1.txt”)
fdata1=file1.readlines()
file1.close()
dic1={}
for i in fdata1:
line=i.split()
if dic1.has_key(line[0]):
dic1[line[0]].append(line[1])
else:
dic1[line[0]]=[line[1]]
file2=open(“file2.txt”,”w”)
for i in dic1:
file2.write(i+’ ‘+’ ‘.join(dic1[i])+’\n’)
file2.close()
python可以做哪些數據分析
1、檢查數據表
Python中使用shape函數來查看數據表的維度,也就是行數和列數。你可以使用info函數查看數據表的整體信息,使用dtypes函數來返回數據格式。Isnull是Python中檢驗空值的函數,你可以對整個數據表進行檢查,也可以單獨對某一列進行空值檢查,返回的結果是邏輯值,包含空值返回True,不包含則返回False。使用unique函數查看唯一值,使用Values函數用來查看數據表中的數值。
2、數據表清洗
Python中處理空值的方法比較靈活,可以使用Dropna函數用來刪除數據表中包含空值的數據,也可以使用fillna函數對空值進行填充。Python中dtype是查看數據格式的函數,與之對應的是astype函數,用來更改數據格式,Rename是更改列名稱的函數,drop_duplicates函數刪除重複值,replace函數實現數據替換。
3、數據預處理
數據預處理是對清洗完的數據進行整理以便後期的統計和分析工作,主要包括數據表的合併、排序、數值分列、數據分組及標記等工作。在Python中可以使用merge函數對兩個數據表進行合併,合併的方式為inner,此外還有left、right和outer方式。使用ort_values函數和sort_index函數完成排序,使用where函數完成數據分組,使用split函數實現分列。
4、數據提取
主要是使用三個函數:loc、iloc和ix,其中loc函數按標籤值進行提取,iloc按位置進行提取,ix可以同時按標籤和位置進行提取。除了按標籤和位置提起數據以外,還可以按具體的條件進行數據,比如使用loc和isin兩個函數配合使用,按指定條件對數據進行提取。
5、數據篩選匯總
Python中使用loc函數配合篩選條件來完成篩選功能,配合sum和 count函數還能實現excel中sumif和countif函數的功能。Python中使用的主要函數是groupby和pivot_table。groupby是進行分類匯總的函數,使用方法很簡單,制定要分組的列名稱就可以,也可以同時制定多個列名稱,groupby 按列名稱出現的順序進行分組。
python如何做數據分析
用Python做數據分析,大致流程如下:
1、數據獲取
可以通過SQL查詢語句來獲取資料庫中想要數據。Python已經具有連接sql server、mysql、orcale等主流資料庫的介麵包,比如pymssql、pymysql、cx_Oracle等。
2、數據存儲
企業當中的數據存儲,通過通過資料庫如Mysql來存儲與管理,對於非結構化數據的存儲可以使用MongoDB等。對於使用Python進行網路抓取的數據,我們也可以使用pymysql包快速地將其存儲到Mysql中去。
3、數據預處理/數據清洗
大多數情況下,原始數據是存在格式不一致,存在異常值、缺失值等問題的,而不同項目數據預處理步驟的方法也不一樣。Python做數據清洗,可以使用Numpy和Pandas這兩個工具庫。
4、數據建模與分析
常見的數據挖掘模型有:分類、聚類、回歸等,這些常見的演算法模型,Python也有Scikit-learn和Tensorflow工具庫來支持。
5、數據可視化分析
在數據可視化方面,Python有Matplotlib、Seaborn、Pyecharts等工具庫可用。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/300285.html