- 1、高大上的YOLOV3對象檢測演算法,使用python也可輕鬆實現
- 2、python 神經網路預測 持續性預測
- 3、BP神經網路——Python簡單實現三層神經網路(Numpy)
- 4、如何用神經網路實現連續型變數的回歸預測?
- 5、如何用神經網路做線性回歸預測python
- 6、python做BP神經網路,進行數據預測,訓練的輸入和輸出值都存在負數,為什麼預測值永遠為正數?
繼續我們的目標檢測演算法的分享,前期我們介紹了SSD目標檢測演算法的python實現以及Faster-RCNN目標檢測演算法的python實現以及yolo目標檢測演算法的darknet的window環境安裝,本期我們簡單介紹一下如何使用python來進行YOLOV3的對象檢測演算法
YOLOV3的基礎知識大家可以參考往期文章,本期重點介紹如何使用python來實現
1、初始化模型
14-16 行:
模型的初始化依然使用cv下的DNN模型來載入模型,需要注意的是CV的版本需要大於3.4.2
5-8行:
初始化模型在coco上的label以便後期圖片識別使用
10-12行:
初始化圖片顯示方框的顏色
2、載入圖片,進行圖片識別
輸入識別的圖片進行圖片識別,這部分代碼跟往期的SSD 以及RCNN目標檢測演算法類似
19-20行:輸入圖片,獲取圖片的長度與寬度
25-29行:計算圖片的blob值,輸入神經網路,進行前向反饋預測圖片
只不過net.forward裡面是ln, 神經網路的所有out層
3、遍歷所有的out層,獲取檢測圖片的label與置信度
遍歷out層,獲取檢測到的label值以及置信度,檢測到這裡YOLOV3以及把所有的檢測計算完成,但是由於yolov3對重疊圖片或者靠的比較近的圖片檢測存在一定的問題,使用YOLOV3使用非最大值抑制來抑制弱的重疊邊界
竟然把墨鏡識別了手機,體現了YOLOV3在重疊圖片識別的缺點
4、應用非最大值抑制來抑制弱的重疊邊界,顯示圖片
56: 使用 非最大值抑制來抑制弱的重疊邊界
58-59行:遍歷所有圖片
61-62行:提取檢測圖片的BOX
64-68行:顯示圖片信息
70-71行:顯示圖片
利用python來實現YOLOV3,與SSD 以及RCNN代碼有很多類似的地方,大家可以參考往期的文章進行對比學習,把代碼執行一遍
進行視頻識別的思路:從視頻中提取圖片,進行圖片識別,識別完成後,再把識別的結果實時體現在視頻中,這部分代碼結合前期的視頻識別,大家可以參考多進程視頻實時識別篇,因為沒有多進程,檢測速度很慢,視頻看著比較卡
1、初始化模型以及視頻流
2、從視頻中提取圖片,進行圖片的blob值計算,進行神經網路的預測
3、提取檢測到圖片的置信度以及ID值
4、 應用非最大值抑制來抑制弱的重疊邊界,顯示圖片
5、關閉資源,顯示圖片處理信息
每個目標檢測演算法都有自己的優缺點,個人感覺,在精度要求不是太高的情況下SSD檢測演算法可以實現較快的速度實現,畢竟精度差不多的情況下,我們希望速度越快越好
學習人工智慧時,我給自己定了一個目標--用Python寫一個簡單的神經網路。為了確保真得理解它,我要求自己不使用任何神經網路庫,從頭寫起。多虧了Andrew Trask寫得一篇精彩的博客,我做到了!下面貼出那九行代碼:在這篇文章中,我將解釋我是如何做得,以便你可以寫出你自己的。我將會提供一個長點的但是更完美的源代碼。
我們將在Python中創建一個NeuralNetwork類,以訓練神經元以給出準確的預測。該課程還將具有其他幫助程序功能。
1. 應用Sigmoid函數
我們將使用 Sigmoid函數 (它繪製一條「 S」形曲線)作為神經網路的激活函數。
2. 訓練模型
這是我們將教神經網路做出準確預測的階段。每個輸入將具有權重(正或負)。
這意味著具有大量正權重或大量負權重的輸入將對結果輸出產生更大的影響。
我們最初是將每個權重分配給一個隨機數。
本文參考翻譯於此網站 —— 原文
神經網路最開始是機器學習的一種模型,但其訓練的時間和其他幾種模型相比不佔優勢,且結果也不盡人意,所以一直沒有被廣泛使用。但隨著數學的深入研究以及計算機硬體質量的提高,尤其是GPU的出現,給深度學習的廣泛應用提供了基礎。GPU最初是為了給遊戲玩家帶來高質量的視覺體驗,由於其處理矩陣運算的能力特別優秀,也被用於深度學習中模型的訓練,以往數十天才能訓練好的模型在GPU上訓練幾天就可以訓練好,大大減少了深度學習的訓練時間,因而深度學習的應用越來越多。
神經網路作為深度學習最主要的模型,人工神經網路ANN是最基礎的神經網路結構,其工作原理很像人類大腦中的神經。神經元是ANN的工作單元,每個神經元含有權重和偏置,神經元將上一層神經元傳遞過來的值通過權重和偏置的運算,得到新的結果,將該結果傳遞給下一層神經元,通過不斷的傳遞,最終獲得輸出結果。
要想用神經網路實現連續型變數的回歸預測,需要將該N維變數的數據作為輸入,中間再設置隱藏層和每一層的神經元個數,至於隱藏層的層數則需要多次訓練才能得出較準確的層數。而最後輸出層的值和實際變數的值會有誤差,神經網路會通過不斷地訓練,更改權重和偏置的值來使誤差儘可能的小,當誤差小到一定程度,該神經網路的回歸預測就算成功了。
通常使用Python來搭建神經網路,Python自帶深度學習的一些庫,在進行回歸預測時,我們只需用調用函數,設定幾個參數,如隱藏層層數和神經元個數等,剩下的就是等模型自行訓練,最終便能完成回歸預測,非常的方便。
1:神經網路演算法簡介
2:Backpropagation演算法詳細介紹
3:非線性轉化方程舉例
4:自己實現神經網路演算法NeuralNetwork
5:基於NeuralNetwork的XOR實例
6:基於NeuralNetwork的手寫數字識別實例
7:scikit-learn中BernoulliRBM使用實例
8:scikit-learn中的手寫數字識別實例
因為sigmoid就是預測0到1之間的連續值。通常當二分類預測使用,你的問題是否複合二分類如果可以就把類別換成0和1就可以了,如果是做回歸那就不行了,要換其他損失函數
原創文章,作者:A3JF4,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/126475.html