当先锋百科网

首页 1 2 3 4 5 6 7

点击蓝色字ab726a0e46f1ffdd7fc57f29957e505a.png免费订阅,每天收到这样的好资讯

本文的目的是评估在深度神经网络(DNN)框架下,利用RGB、多光谱和热传感器基于无人机的多模态数据融合来估算大豆产量的能力,植物表型资讯介绍如下:

04778e03c50396463393f23b4da5173b.gif

作物收获前产量预测是作物政策制定和作物安全的关键。在田间或小区尺度上对产量的早期估计有助于高通量植物表型分析和精准农业。无人机(UAV)平台和传感器技术的最新发展可以通过在高空间和高光谱分辨率下同时进行多传感器/多模态数据收集,促进具有成本效益的数据收集。本文的目的是评估在深度神经网络(DNN)框架下,利用RGB、多光谱和热传感器基于无人机的多模态数据融合来估算大豆产量的能力

f70a6ad9d4ce4f84539526552f5c03fb.png

无人机系统和集成传感器

在美国密苏里州哥伦比亚的一个试验田,研究人员首先利用低成本多传感器无人机收集RGB图像、多光谱图像以及热图像。然后采用偏最小二乘回归(PLSR)、随机森林回归(RFR)、支持向量回归(SVR)、基于输入级特征融合的DNN(DNN-F1)和基于中间级特征融合的DNN(DNN-F2)方法,提取并结合冠层光谱、结构、热、纹理特征等多模态信息来预测大豆产量。最后结果得出:(1)多模态数据融合提高了产量预测的准确性,并且更适应于空间变化;(2)基于DNN模型提高了产量预测的准确性:DNN-F2获得了最高准确性,R2为0.720,相对均方根误差(RMSE%)为15.9%;(3)基于DNN模型不太容易出现饱和效应,并且在预测Dwight,Pana和AG3432大豆基因型产量表现出更强适应性。此外,基于DNN模型在空间上具有一致的性能,并且具有较少的空间依赖性和差异性。

ee9a614050efc27e371d0d0c9b5dec75.png

用于预测的多模式深度网络架构的示意图;输入级特征融合DNN:DNN-F1(a); 中级特征融合DNN:DNN-F2(b)

e1a183c046a4960ace5843d76ff0efd8.png

数据处理,特征提取和建模的工作流程图

综上所述:在DNN框架下使用低成本无人机进行多模态数据融合可以提供相对准确和可靠的农作物产量估算,并为高通量表型和高空间精度的作物田间管理提供有价值的见解。

cffadc70f269db079eadb7217d782794.png

具有不同输入要素类型和数量的不同模型的谷物产量预测性能

来源:

Maimaitijiang M, Sagan V, Sidike P, et al. Soybean yield prediction from UAV using multimodal data fusion and deep learning. Remote Sensing of Environment

Volume 237, February 2020, 111599. https://doi.org/10.1016/j.rse.2019.111599.

84c2b56979aac7b7502ab299a46780ec.png

扩展阅读:

植物表型资讯两周年目录汇总

植物表型资讯2019年1-11月目录汇总16e1056cbe2e9ac6ffe145fdc1afe3fc.png