P3410﹥《工业物联网智能感知-传输-控制融合:关键技术与未来展望》
概述:大规模工业物联网设备的高效互联互通与智能管控是我国制造业数字化、网络化、智能化转型升级和高质量发展的关键。由于通信、计算和网络资源受限,传输环境复杂,感知、传输和控制系统分离设计,传统工业网络面临感知传输效率低、异构系统互操作性差和难以高效协同的严峻挑战。首先,该文调研并总结了工业物联网发展的核心需求与瓶颈问题,其次,重点聚焦智能感传控融合的工业网络架构、工业物联网智能感知方法、认知智能驱动的工业语义通信以及边缘智能感知-高效传输-最优控制联合设计等关键技术问题,讨论了工业物联网智能感知-传输-控制融合的研究进展,最后总结了工业大模型与工业智能体、工业5.0、工业跨模态协同交互和工业数字孪生等具有重要意义和发展潜力的未来研究方向。
作者简介:张明强,曲阜师范大学网络空间安全学院;E-mail:mqzhang@qfnu.edu.cn。
马晓聪,曲阜师范大学网络空间安全学院。
引用:张明强, 马晓聪, 杨雅娟, 等. 工业物联网智能感知-传输-控制融合:关键技术与未来展望[J]. 电子与信息学报,2025,10: 3410-3425.
全文:点击下载
P3439﹥《人机融合智能决策:概念、框架与应用》
概述:人机融合智能是人工智能发展到一定阶段的产物,构成了由弱人工智能向强人工智能过渡的关键中间智能形态。该领域的研究不仅涵盖人工智能基础理论与技术的探索,还涉及人类、机器与环境之间复杂关系的系统性分析。在军事、医疗和驾驶等应用场景中,探索人机融合智能在复杂决策中的应用具有重要的研究意义和实用价值。该文阐述了人机融合智能的概念,分析实现人机融合智能决策的意义;归纳了人机融合智能决策系统的一般框架,并依据决策任务的特性及其中体现的人机关系,总结了人机融合智能决策的3种具体方式,即人类主导型决策、机器主导型决策和人机协同型决策;介绍了人机融合智能决策的典型应用;讨论了人机融合智能决策存在的问题和未来的研究方向。
作者简介:李哲,郑州大学计算机与人工智能学院,。
徐明亮,郑州大学计算机与人工智能学院 / 国家超级计算郑州中心 / 智能集群系统教育部工程研究中心;E-mail:iexumingliang@zzu.edu.cn。
引用:李哲, 王可, 王彪, 等. 人机融合智能决策:概念、框架与应用[J]. 电子与信息学报,2025,10: 3439-3464.
全文:点击下载
P3745﹥《海上目标多源数据特征提取与特征相关性分析》
概述:随着对海上目标检测识别需求的不断提高,多源信息联合处理快速发展。针对多源特征融合的目标检测问题:该文提取了3类9种物理可解释特征,包括雷达特征(径向尺寸、峰值个数、位置分布熵、横向尺寸、相对平均幅度)、可见光图像特征(边缘点数、水平投影宽度)和红外图像特征(高温连通区域数、热纹理能量)。采用斯皮尔曼相关系数衡量非同源数据特征之间的相关性,并结合假设检验方法判别相关显著性,以揭示多源特征的内在联系。实验结果表明,在多源特征间,尺寸特征稳定性较强,相关性较高;结构特征受观测条件影响显著,相关性较低。雷达极化方式、舰船运动状态及船只类型均对雷达回波特征提取有重要影响。可见光图像在结构信息提取上具有优势,红外图像尺寸特征在复杂环境中更稳定。研究结果揭示了多源特征的互补性,为后续多源特征融合目标检测算法提供了理论支撑。
作者简介:刘宁波,海军航空大学。
张子豪,哈尔滨工程大学烟台研究院;E-mail:zhangzh0611@foxmail.com。
引用:刘宁波, 张子豪, 陈宝欣, 等. 海上目标多源数据特征提取与特征相关性分析[J]. 电子与信息学报,2025,10: 3745-3758.
全文:点击下载
P3929﹥《图像增强与特征自适应联合学习的低光图像目标检测方法》
概述:针对低光照图像目标特征弱、检测精度不足等问题,该文提出了一种基于图像增强与特征自适应联合学习的目标检测模型,该模型采用串联结构,将有监督的图像增强模块与YOLOv5目标检测模块相结合,以端到端的方式实现低光照图像目标检测。首先,利用正常光数据集生成匹配的正常光与低光图像对,实现数据集增强,并据此指导图像增强模块的学习;其次,联合图像增强损失、特征匹配损失和目标检测损失,从像素级和特征级两个层面优化目标检测结果;最后,基于真实低光照数据集进行模型参数的优化和微调。实验结果表明,该方法在仅使用真实正常光数据集训练的情况下,在LLVIP和Polar3000低光照数据集上的检测精度分别达到79.5%和85.7%,进一步在真实低光照数据集上微调后,检测精度分别提升至91.7%和92.3%,显著优于主流的低光照图像目标检测方法,并在ExDark和DarkFace的泛化实验中取得最佳检测效果。此外,该方法在提升检测精度的同时,仅带来2.5%的参数增加,具有良好的实时检测性能。
作者简介:乔成平,中南大学自动化学院 / 光电智能测控湖南省重点实验室。
张俊超,中南大学自动化学院 / 光电智能测控湖南省重点实验室;E-mail:junchaozhang@csu.edu.cn。
引用:乔成平, 金佳堃, 张俊超, 等. 图像增强与特征自适应联合学习的低光图像目标检测方法[J]. 电子与信息学报,2025,10: 3929-3940.
全文:点击下载
P3979﹥《面向动态环境的巡检机器人轻量级语义视觉SLAM框架》
概述:为提升巡检机器人在城市动态环境中的定位精度与鲁棒性,该文提出一种基于第3代定向快速与旋转简要同步定位与建图系统(ORB-SLAM3)的轻量级语义视觉同步定位与建图(SLAM)框架。该框架通过紧耦合所提出的轻量级语义分割模型(DHSR-YOLOSeg)输出的语义信息,实现动态特征点的精准剔除与稳健跟踪,从而有效缓解动态目标干扰带来的特征漂移与建图误差累积问题。DHSR-YOLOSeg基于YOLO第11代轻量级分割模型(YOLOv11n-seg)架构,融合动态卷积模块(C3k2_DynamicConv)、轻量特征融合模块(DyCANet)与复用共享卷积分割(RSCS)头,在分割精度小幅提升的同时,有效降低了计算资源开销,整体展现出良好的轻量化与高效性。在COCO数据集上,相较于基础模型,DHSR-YOLOSeg实现参数量减少13.8%、109次浮点运算(GFLOPs)降低23.1%、平均精度指标(m AP50)提升约2%;在KITTI数据集上,DHSR-YOLOSeg相比其他主流分割模型及YOLO系列不同版本,在保持较高分割精度的同时,进一步压缩了模型参数量与计算开销,系统整体帧率得到有效提升。同时,所提语义SLAM系统通过动态特征点剔除有效提升了定位精度,平均轨迹误差相比ORB-SLAM3降低8.78%;在此基础上,系统平均每帧处理时间较主流方法如DS-SLAM和DynaSLAM分别降低约18.55%与41.83%。研究结果表明,该语义视觉SLAM框架兼具实时性与部署效率,显著提升了动态环境下的定位稳定性与感知能力。
作者简介:余浩扬,重庆邮电大学集成电路学院(重庆国际半导体学院)。
李艳生,重庆邮电大学人工智能学院(重邮科大讯飞人工智能学院);E-mail:liyansheng@cqupt.edu.cn。
引用:王,姚, 刘,等. 面向动态环境的巡检机器人轻量级语义视觉SLAM框架[J]. 电子与信息学报,2025,10: 3979-3992.
全文:点击下载