近日,機械與電子工程學院田富洋副教授團隊在期刊《Computers and Electronics in Agriculture》在線發表了題為“An efficient multi-task convolutional neural network for dairy farm object detection and segmentation”的研究論文。田富洋副教授為該論文的第一作者,王中華教授和于鎮偉副教授為該論文的通訊作者。
自走式牛場推料機器人具有推料及時、勞動強度低、節約飼料等優點,是實現智能化、數字化養殖的關鍵裝備。自走式推料機器人將廣泛的應用于奶牛養殖中。作業時,自走式推料機器人需要在復雜多變的牛場環境中檢測出不同類型和尺寸的目標,如奶牛、人員、車輛、柵欄等。根據檢測的不同目標采取相應行動,如避讓、停止、警告等。這些作業任務對檢測算法的精度和速度都有較高的要求,而現有的目標檢測算法難以同時滿足這些要求。
圖1. 多任務牛舍目標識別與分割模型結構圖
因此,本研究提出了一種基于多任務學習的牛場多類型目標識別與分割模型Ghost CBAM Segmentation-Multi-task (GCS-MUL)。首先,根據奶牛精準養殖需求,研制了奶牛飼料制備、布料、推料一體化機器人;第二,根據牛場目標的特點及機器人的工作特性,設計了牛場多目標識別模型,該模型融合CBAM模塊,并采用自主設計的輕量化目標特征提取網絡GCNet作為整個模型的骨干網絡;第三,為提高模型多尺度特征融合水平,頸部網絡利用了GhostConv和CSPGhost模塊構建特征金字塔網絡和路徑聚合網絡;最后,為實現牛場多目標實時語義分割目的,由特征融合、新型感受野和金字塔池化等模塊共同融合構成分割頭。試驗結果表明,牛場目標的mAP@0.5達到94.86%;相較于YOLOv5模型,準確率和召回率分別提升7.47%和6.85%,相較于YOLOv7目標檢測模型,準確率提升了5.1%;相較于SSD模型,模型大小減少了92.43%,平均檢測時間提升了84.37 ms,滿足了實時目標識別的要求;平均檢測時間為66.43 ms,更適合配置于嵌入式設備;相較于不引入分割頭的網絡,準確率、召回率和mAP@0.5分別提升了4.49%、4.92%和6.58%。該研究成果能夠為推料機器人牛場目標實時高效識別提供精確的算法,為自主行走提供更加有效的道路和環境場景分割方法。
(a) 牛舍內檢測結果
(b) 牛舍出口檢測結果
(c) 牛舍外檢測結果
利用該模型輕量級的特點,將其配置在嵌入式人工智能計算機中,可實現的牛場白天和夜間的目標識別與分割。該研究為推料機器人牛場目標實時高效識別提供精確的算法,為農業機器人避障和自主路徑提取的進一步研究提供了技術支持。
該研究得到了國家自然科學基金的資助。
論文鏈接:https://doi.org/10.1016/j.compag.2023.108000
編 輯:萬 千
審 核:賈 波