Spark Python:從入門到精通

一、Spark Python簡介

Spark是一個開源分散式計算框架,由加州大學伯克利分校的AMPLab實驗室於2009年開發,是一種基於內存的計算模式,適合於大規模數據處理,並能實現實時處理。Python作為一種易學易用的編程語言,與Spark的高效計算方式相結合,可以方便地進行數據處理、機器學習、圖形處理等任務,受到越來越多的開發者和數據分析師的青睞。

二、Spark Python環境配置

在開始使用Spark Python之前,要先安裝並配置好相應的環境。具體步驟如下:

1、下載Spark二進位包,並解壓到指定目錄。


wget http://apache.claz.org/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
tar -xzvf spark-3.1.2-bin-hadoop3.2.tgz

2、安裝Java。


sudo apt-get update
sudo apt-get install default-jre
sudo apt-get install default-jdk

3、設置環境變數。


export PATH=$PATH:/path/to/spark/bin
export SPARK_HOME=/path/to/spark

三、RDD的操作

RDD(Resilient Distributed Datasets)是Spark的核心數據結構之一,表示一個不可變、可分區、可並行計算的數據集合。對於RDD,可以進行如下操作:

1、創建RDD。


# 創建sc對象
from pyspark import SparkContext
sc = SparkContext("local", "Simple App")

# 從本地文件系統創建RDD
rdd = sc.textFile("file:///path/to/file")

# 從HDFS創建RDD
rdd = sc.textFile("hdfs://path/to/file")

2、轉換操作。


# 映射操作
rdd.map(lambda x: x.split(','))

# 過濾操作
rdd.filter(lambda x: len(x) > 2)

# 聚合操作
rdd.reduceByKey(lambda a, b: a + b)

# 排序操作
rdd.sortBy(lambda x: x[1])

3、行動操作。


# 統計RDD中元素個數
rdd.count()

# 返回RDD元素的第一個元素
rdd.first()

# 對RDD元素進行採樣
rdd.sample()

四、DataFrame的操作

DataFrame是一種類似於關係型資料庫的數據結構,可以理解為是一張表格;與RDD相比,DataFrame支持SQL查詢等更方便的操作。

1、創建DataFrame。


# 從本地CSV文件創建DataFrame
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('example').getOrCreate()
df = spark.read.csv('path/to/file.csv', header=True, inferSchema=True)

2、DataFrame常用操作。


# 查看DataFrame中的所有列名
df.columns

# 查看DataFrame的前幾行
df.show(5)

# 對DataFrame進行聚合操作
df.groupBy('column1').agg({'column2': 'sum'})

# 支持SQL查詢
df.createOrReplaceTempView('table1')
spark.sql('SELECT * FROM table1 WHERE condition')

五、機器學習

Spark Python對機器學習的支持越來越完善,並提供了一些常用的機器學習演算法。

1、使用ML庫。


from pyspark.ml.classification import LogisticRegression
from pyspark.ml.evaluation import BinaryClassificationEvaluator
from pyspark.ml.feature import VectorAssembler

# 劃分數據集為訓練集和測試集
(trainingData, testData) = df.randomSplit([0.7, 0.3])

# 轉化為向量特徵
assembler = VectorAssembler(inputCols=['feature1', 'feature2', 'feature3'], outputCol='features')
trainingData = assembler.transform(trainingData)
testData = assembler.transform(testData)

# 定義模型
lr = LogisticRegression(featuresCol='features', labelCol='label', maxIter=10)

# 訓練模型
model = lr.fit(trainingData)

# 預測
predictions = model.transform(testData)

# 評估
evaluator = BinaryClassificationEvaluator()
auroc = evaluator.evaluate(predictions)

2、使用MLlib庫。


from pyspark.mllib.tree import RandomForest

# 劃分數據集為訓練集和測試集
(trainingData, testData) = rdd.randomSplit([0.7, 0.3])

# 定義模型
model = RandomForest.trainClassifier(trainingData, numClasses=2, categoricalFeaturesInfo={},
    numTrees=3, featureSubsetStrategy="auto", impurity='gini', maxDepth=4, maxBins=32)

# 預測
predictions = model.predict(testData.map(lambda x: x.features))

# 評估
labelsAndPredictions = testData.map(lambda lp: lp.label).zip(predictions)
testErr = labelsAndPredictions.filter(lambda lp: lp[0] != lp[1]).count() / float(testData.count())

六、結語

本文介紹了Spark Python的基本概念、環境配置、RDD和DataFrame的操作、機器學習等方面的內容。Spark Python作為一種高性能、易學易用的大數據處理工具,在數據分析、機器學習等領域有著廣泛的應用。希望這篇文章能夠幫助初學者更快地掌握Spark Python的基礎知識。

原創文章,作者:CDDEJ,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/369616.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
CDDEJ的頭像CDDEJ
上一篇 2025-04-13 11:45
下一篇 2025-04-13 11:45

相關推薦

  • Python中引入上一級目錄中函數

    Python中經常需要調用其他文件夾中的模塊或函數,其中一個常見的操作是引入上一級目錄中的函數。在此,我們將從多個角度詳細解釋如何在Python中引入上一級目錄的函數。 一、加入環…

    編程 2025-04-29
  • 如何查看Anaconda中Python路徑

    對Anaconda中Python路徑即conda環境的查看進行詳細的闡述。 一、使用命令行查看 1、在Windows系統中,可以使用命令提示符(cmd)或者Anaconda Pro…

    編程 2025-04-29
  • Python周杰倫代碼用法介紹

    本文將從多個方面對Python周杰倫代碼進行詳細的闡述。 一、代碼介紹 from urllib.request import urlopen from bs4 import Bea…

    編程 2025-04-29
  • Python列表中負數的個數

    Python列表是一個有序的集合,可以存儲多個不同類型的元素。而負數是指小於0的整數。在Python列表中,我們想要找到負數的個數,可以通過以下幾個方面進行實現。 一、使用循環遍歷…

    編程 2025-04-29
  • Python計算陽曆日期對應周幾

    本文介紹如何通過Python計算任意陽曆日期對應周幾。 一、獲取日期 獲取日期可以通過Python內置的模塊datetime實現,示例代碼如下: from datetime imp…

    編程 2025-04-29
  • Python字典去重複工具

    使用Python語言編寫字典去重複工具,可幫助用戶快速去重複。 一、字典去重複工具的需求 在使用Python編寫程序時,我們經常需要處理數據文件,其中包含了大量的重複數據。為了方便…

    編程 2025-04-29
  • 蝴蝶優化演算法Python版

    蝴蝶優化演算法是一種基於仿生學的優化演算法,模仿自然界中的蝴蝶進行搜索。它可以應用於多個領域的優化問題,包括數學優化、工程問題、機器學習等。本文將從多個方面對蝴蝶優化演算法Python版…

    編程 2025-04-29
  • Python程序需要編譯才能執行

    Python 被廣泛應用於數據分析、人工智慧、科學計算等領域,它的靈活性和簡單易學的性質使得越來越多的人喜歡使用 Python 進行編程。然而,在 Python 中程序執行的方式不…

    編程 2025-04-29
  • python強行終止程序快捷鍵

    本文將從多個方面對python強行終止程序快捷鍵進行詳細闡述,並提供相應代碼示例。 一、Ctrl+C快捷鍵 Ctrl+C快捷鍵是在終端中經常用來強行終止運行的程序。當你在終端中運行…

    編程 2025-04-29
  • Python清華鏡像下載

    Python清華鏡像是一個高質量的Python開發資源鏡像站,提供了Python及其相關的開發工具、框架和文檔的下載服務。本文將從以下幾個方面對Python清華鏡像下載進行詳細的闡…

    編程 2025-04-29

發表回復

登錄後才能評論