樹莓派最大的用處,樹莓派能做什麼項目

首先,請大家回想一下,自己抖音里點贊最多的視頻是什麼?

相信不少人一旦滑到可愛的狗子視頻,都會忍不住多看幾秒,然後狠狠地點個贊。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

都說「吸狗一時爽,一直吸狗一直爽」,不過儘管「雲吸狗」十分流行,小編在這裡要說,「雲吸狗」還是沒有真·吸狗來得香。

和小編所見略同的,還有這個加拿大小哥Ryder。

不同的是,Ryder真的親手做了一個狗子探測器,這個探測器還和擴音喇叭聯結在了一起,但凡有人遛狗經過了他們家,探測器首先會進行識別,然後這個喇叭就會提醒他,「快來吸狗啦!」

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

這還不止,Ryder還突發奇想,這些狗子都這麼可愛,它們的主人也應該得到讚賞。

於是,他對整個系統進行了改進。現在這個擴音喇叭不僅能提醒他趕緊吸狗,還能對着路邊的狗主人大聲說到,「我喜歡你家的狗子(I like your dog)」。

當然,不明所以的路人可能會一臉懵逼:

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

甚至還有熱心的讀者留言到,「其實你還可以裝一個零食發射器,給路過的狗子派發零食」。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

那文摘菌就在這裡坐等這個裝配了零食發射器的狗子探測器了。

超簡單的狗子探測器,只需樹莓派,項目已開源

根據Ryder自己介紹,這個項目是為了自己的一個朋友,他曾經做出翻越6英尺圍欄就為了擼一隻狗的創舉。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

所以,其實整個項目的思路也很簡單,只需要去識別經過的狗子,然後通知他就行了。

那麼就動手吧。

首先,準備一個樹莓派相機,對準窗外的大街,實時記錄動態,然後將這些數據餵給一個機器學習模型,模型便會根據輸入數據識別對象。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

Ryder使用的這個模型叫做YOLOv3,這個模型中的數據都是人工進行標記的,當數據達到一定的量級後,他們便把這些數據餵給機器學習系統,隨後進行訓練。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

據了解,這個模型能識別80多種物體,包括狗子、人和汽車等。

Ryder用自定義碼將這些系統組合在一起,然後就可以上街進行測試了。

可以看到,系統不僅正確識別出了人和狗子,路邊的汽車也被標記了出來。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

接下來,Ryder拿出了一個擴音喇叭,錄入了語音消息,這下子有狗子經過,就能得到實時通報了。

不過也不是每次都能保證有很好的視野就是了。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

目前,Ryder也把這個「狗子識別」項目開源在了GitHub上,有需求的朋友自取~

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

GitHub鏈接:
https://github.com/rydercalmdown/dog_detector

YOLO背後的那些事兒

說到目標檢測網絡YOLO,這應該是目前最為常用的目標檢測算法了,在自動駕駛、人臉識別等領域都有一展身手之地。

YOLO最早是由Joseph Redmon等人在2015年提出,並在隨後的幾篇論文中進行了修訂。單是憑藉YOLO,Redmon就先後獲得2016年CVPR群眾選擇獎、2017年CVPR最佳論文榮譽獎。在學術界,YOLO也是廣受歡迎,三篇一作論文總引用量已經超過16000次。

在性能上,由於YOLO只使用單個網絡,其便可以直接在檢測性能上進行端到端優化,使得基礎YOLO模型能以每秒45幀的速度實時處理圖像。

就以YOLOv3為例,在Pascal Titan X上處理608×608圖像速度達到20FPS,在COCO test-dev上 mAP@0.5達到57.9%,與RetinaNet的結果相近,並且速度快4倍。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

同時,YOLOv3在發揚了YOLO系列速度優點的同時,還提升了模型精度,尤其加強了對小目標和重疊遮擋目標的識別,補齊了此前的短板,是當時速度和精度均衡的目標檢測網絡。

不過,就在去年初,YOLO之父Joseph Redmon卻突然宣布,退出計算機視覺領域。

Redmon在推特上表示,由於軍用和隱私方面的問題和擔憂,自己選擇不再進行CV方面的研究。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

Fast.ai創始人Jeremy Howard轉推評論到,「我之前從來沒見過這種事」。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

更讓大家關心的是,YOLO的更新也暫時被擱淺。

不過好在兩個月後,另一位曾經參與YOLO項目維護的Alexey Bochkovskiy,在arXiv上提交了YOLOv4,這篇論文也被拉入原來YOLO之父建立的項目主線。

根據論文介紹,在COCO數據集上,YOLOv4達到了43.5%AP,65FPS,分別提高了10%和12%,運行速度是EfficientNet的2倍。

我用樹莓派做了一個實時狗子探測器,還能向狗主人「表白」

YOLOv4的速度(FPS)、精度(MS COCO AP50…95和AP50)均超過了其他目標檢測器。

論文總結道,YOLOv4主要有以下3點貢獻:

  • 提出了一種高效而強大的目標檢測模型,使用1080Ti或2080Ti就能訓練出超快、準確的目標檢測器;
  • 在檢測器訓練過程中,驗證了最先進的Bag-of-Freebies和Bag-of-Specials方法對目標檢測器的影響;
  • 改進了SOTA方法,使其更有效、更適合單GPU訓練。

據介紹,YOLOv4也用到相當多的技巧:

  • 用於backbone的BoF:CutMix和Mosaic數據增強,DropBlock正則化,Class label smoothing
  • 用於backbone的BoS:Mish激活函數,CSP,MiWRC
  • 用於檢測器的BoF:CIoU-loss,CmBN,DropBlock正則化,Mosaic數據增強,Self-Adversarial 訓練,消除網格敏感性,對單個ground-truth使用多個anchor,Cosine annealing scheduler,最佳超參數,Random training shapes
  • 用於檢測器的Bos:Mish激活函數,SPP,SAM,PAN,DIoU-NMS

不過,小編還是要說,技術是中立的,區別在於使用技術的人。

比如這個狗子探測器,既能夠發揮YOLO的價值,也能治癒人心,何樂而不為呢?

原創文章,作者:投稿專員,如若轉載,請註明出處:https://www.506064.com/zh-hk/n/234140.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
投稿專員的頭像投稿專員
上一篇 2024-12-11 17:54
下一篇 2024-12-11 17:54

相關推薦

發表回復

登錄後才能評論