MAGAZINE
刊物內容

回列表

智慧自動化專輯前言

摘要"

在工業4.0中,近年來有關高度自動化的智慧感知器及智慧控制系統在無人搬運車(AGV及AMR)以及機器人用在智慧工廠有關智慧物流的工作分派系統的應用技術已相當程度的提升。因此本專輯針對其相關智慧感知器及智慧控制系統提升的技術進一步加以介紹。這些技術包括3D光學雷達(LiDAR),同步定位與地圖建構(Simultaneous Localization and Mapping, SLAM),影像處理之機器視覺、YOLO演算法(You only look once algorithm)、深度學習、路徑規劃、遠端機器手臂的穿戴設備和控制單元的軟體模型預測控制,以及可用於機器人抓取的圖像和深度學習的物件之X ,Y ,Z和Rx,Ry,Rz的坐標軸和旋轉軸的六維姿態估測等。而本專輯的五篇文章,依序介紹上面所包括的近年來各項智慧自動化技術,其可應用於智慧工廠和智慧機器人的領域。
如上所述,因此本專輯介紹的這五篇文章,依序為:第一篇論文為「AGV-SLAM於自動化工廠智慧物流上之應用」;第二篇論文為「無人車之分派系統應用」;第三篇論文為「YOLO辨識與機器人採摘之整合系統」;第四篇論文為「基於Hololens與IMU穿戴裝置之UR5機器手臂的同步控制」;第五篇論文為「整合RGB圖像與點雲圖之YOLO深度學習模型與六維姿態估測應用」。

就本專輯所邀請的五篇論文,其各自的技術介紹、實驗結果和成果,簡略分述如下。
一、AGV-SLAM於自動化工廠智慧物流上之應用
本文之內容包括:(一)傳統工廠物流與智慧工廠物流比較。其介紹傳統工廠物流方式,AGV和AMR帶來了工廠物流方式的改變,包括(1)自主搬運,(2)靈活性,(3)安全性,(4)生產優化,(5)人力資源節省。(二)說明AGV和AMR的技術發展回顧,這些技術發展包括使用慣性感測器、攝像頭、光達和先進的導航算法來感知和理解環境,以做出決策並執行任務。這些技術也應用到深度學習的技術。(三)現今智慧移動載具核心技術SLAM。SLAM(Simultaneous Localization and Mapping)演算法包括機器人狀態估計和環境地圖建構。(四)智慧移動載具核心技術SLAM的發展。其介紹2D-LiDAR(Light Detection and Ranging)(2D-光達),3D-LiDAR,視覺感測器。並說明(1)「LiDAR-SLAM」主要優勢,(2)「LiDAR-SLAM」主要劣勢,(3)「Vision-SLAM」主要優勢,(4)「Vision-SLAM」主要劣勢,(五)結論。
二、無人車之分派系統應用
本文之內容包括:(一)前言。其介紹無人搬運車的應用可用於工廠貨物的移動、購買物品的運送、醫院內自動配送手術器材及醫療廢棄物清理等。(二)無人車之分派系統相關技術。其介紹(1)定位系統的同時定位與地圖建構,(SLAM)。SLAM技術可用於機器人、無人機、AR/VR、車用、智慧工廠等領域。其可用雷射感測器或攝影機來協助SLAM,通常使用LiDAR-SLAM為主。(2)AIoT(人工智慧物聯網),(3)深度學習。(三)實施流程。其介紹無人車之分派系統的實施流程。(四)實驗結果。本文之無人車分派系統之無人車以兩個系統進行實驗,一個是Amazon AWS DeepRacer,另一個是Play Robot ROS2 x AMR自主移動機器人。(五)結論
三、YOLO辨識與機器人採摘之整合系統
本文之內容包括:(一)前言。其介紹農產品的辨識應用影像原理技術和機器人抓取位置就定位的困難。並說明可用人工智慧技術的YOLO演算法正確辨識農產品,及用機械人視覺與採摘路徑之系統整合去解決上述的困難。(二)視覺辨識與YOLO模型分析。其介紹採摘番茄用不同的YOLO演算法辨識3D視覺摘取番茄的相關文獻,以及本文的演算法YOLOv3+DarkNet-53-FPN+SA。且說明各篇文獻的計算準確率。(三)番茄採摘系統架構與YOLO視覺辨識方法。其介紹本文之番茄採摘系統架構,以及以深度相機拍攝產生深度影像及辨識結果。(四)採摘目標之路徑規劃及其演算法。其介紹以旅行商問題(Travelling Salesman Problem ,TSP)探討路徑規劃縮短採摘時間,並用模擬退火法的最佳化方法,算出最佳採摘路徑。(五)結果與討論。其介紹用本文之YOLOv3+DarkNet-53-FPN+SA演算法的番茄採摘的結果與討論。
四、基於Hololens與IMU穿戴裝置之UR5機器手臂的同步控制
本文之內容包括:(一)機械手臂的遠端探討和手臂路徑規劃。其介紹機械手臂的遠端探討的研究方向和手臂路徑規劃的研究方向。(二)系統架構。其介紹本文之系統架構由4大架構所組成,分別為(1)負責擷取人體姿態的實驗室自製穿戴式設備,(2)用以投影畫面的虛實整合平台,(3)遙控端的機械臂同步控制系統,(4)負責傳輸及運算的終端程式。(三)硬體架構。其介紹穿戴式機械手臂控制之硬體設備,以及自製數據手套和整體硬體設備的穿著情形。(四)軟體架構。其介紹本文研究所使用的軟體和相關應用。(五)系統傳輸。其介紹本研究之系統傳輸架構。(六)IMU之手臂位置與方位量測。其介紹四元數估測姿態、人體手臂姿態、視覺定位、機械手臂路徑規劃、穿戴裝備的方位修正及位能場。(七)模型預測控制。其介紹(1)模型建立,(2)預測模型,(3)滾動優化,(4)反饋校正和誤差補償。(八)系統整合手臂控制平台。其介紹系統整合的三種模式,(1)物件更新模式,(2)Offline模式控制,(3)Online模式控制。
五、整合RGB圖像與點雲圖之YOLO深度學習模型與六維姿態估測應用
本文之內容包括:(一)前言。其介紹智慧機器手臂夾取物件的傳統之物件六維姿態計算方法。在此六維指X ,Y ,Z軸及有關旋轉之Rx ,Ry ,Rz。針對不規則物件,且有物件被遮蔽或紋理不明顯時,傳統方法較不適用,因此本研究提出透過3D視覺取得RGB-D圖像,整合深度學習方法用於物件六維姿態估測。其也介紹有關六維姿態估測的相關文獻。(二)研究方法。其介紹(1)有關深度學習的物件偵測,如Faster R-CNN,FPN ,YOLO等方法。(2)影像分割,包括影像分割的目的,點雲分割方法之PointNet方法。(3)六維姿態估測。其介紹六維姿態估測模型的相關方法之文獻,以及六維姿態估測之深度學習架構,也介紹Gen6D的六維姿態估測之工作模型。(四)系統架構與六維姿態估測流程。其介紹本研究之六維估測系統架構圖和六維姿態估測工作流程圖。其也說明本研究選用水五金零件為六維姿態估測標的。本研究選用YOLOv7作為物件偵測模型,另外也介紹本研究之物件影像的順序篩選方法。本研究選用PointNet模型作為點雲特徵提取器。有關視覺座標校正,本研究提出邊界框中心點產生方法的三步驟。(五)實驗結果。其說明本研究之物件偵測結果,局點點雲與點雲分割結果、六維姿態估測結果與方位表示、尺度校正資料提取、三個堆疊物件的六維姿態估測結果及多類別物件堆疊估測結果。(六)結論
最後在此感謝本專輯精選之上述文章作者,其中有彭兆仲、邱柏晨、陳昱傑、余其睿、張俊隆、蔡旻龍、彭成瑜,張宇勝、林志哲、賴仁斌、蔡明忠。由上述文章的技術分享,可進一步了解工業4.0系統相關的高度自動化的智慧感知器及智慧控制系統用在智慧工廠的智慧物流工作分派、機器人抓取相關的圖像和深度學習技術,進而可提升台灣相關產業的國際競爭力。

READ MORE BACK TO LIST