CSIG科技进步奖授予在我国图像图形学领域应用推广先进科学技术成果,完成重大科学技术工程、计划、项目等方面,做出突出贡献的个人和团队。为宣传科技工作者积极进取的工作精神,聚焦获奖团队背后的故事,学会近日对荣获2024年度CSIG科技进步奖二等奖“开放退化场景感知与自主探索关键技术及应用”的项目团队进行了专访,以对话的形式,为读者们提供一次了解他们的机会。
下面就跟着我们的脚步,走近今天的受访团队吧。
问题一:首先非常感谢各位老师接受我们的采访,请先介绍一下团队成员:
感谢CSIG的邀请!项目团队由10位来自国内高校、科研院所及企业的研究人员、技术人员组成,他们分别是来自清华大学的李一鹏副研究员、芦维宁助理研究员和石永亮助理研究员,来自中国科学院大学的王艳副教授,来自江淮前沿技术协同创新中心的兰斌副研究员和韦邦国助理工程师,来自国家电网的王淼高级工程师和周韫捷高级工程师,来自安徽合力股份有限公司的王勇高级工程师以及来自华东光电集成器件研究所的孙贝贝工程师。团队成员在开放退化场景感知与自主探索关键技术及应用领域各有所长,分工明确,协力攻关,共同推动了这一领域技术创新与应用实践的突破。
团队负责人李一鹏副研究员来自清华大学,他长期致力于开放退化场景高精度感知与建模等方向的研究,在项目中负责整体统筹与科学研究工作,是核心推动者之一。
芦维宁助理研究员和石永亮助理研究员同样来自清华大学,他们在无人系统对开放退化场景自主探索方面做出了重要的技术贡献,为解决实际应用场景中,无人系统的智能化应用提供了创新思路。
王艳副教授来自中国科学院大学,她在智能无人系统的工业自动化应用方面做出了开创性贡献。
兰斌副研究员和韦邦国助理工程师来自江淮前沿技术协同创新中心,他们在高精度感知和自主探索算法在无人系统上的轻量化部署方面做出了重要的贡献。
王淼高级工程师和周韫捷高级工程师来自国家电网,他们为智能无人系统在架空输电线路巡检和地下管廊全自主巡检应用方面,提供了宝贵的工程实践经验。
王勇高级工程师来自安徽合力股份有限公司,他在高精度感知和自主探索技术在工业车辆智能化应用方面,提供了宝贵的工程实践经验。
孙贝贝工程师华东光电集成器件研究所,她在多传感器时空同步理论研究和技术落地方面做出了重要的贡献。
团队成员长期合作,彼此之间优势互补,围绕“开放退化场景感知与自主探索关键技术及应用”这一核心方向,形成了系统性的技术创新成果。团队将继续深化合作,进一步拓展应用场景,为无人系统的智能化应用做出应有的贡献。
问题二:了解完了团队内的各位老师,请为大家简单的介绍一下项目的情况:
恶劣环境、动态目标和非结构化特性是开放退化场景感知面临的核心难题,制约了无人系统、VR/AR和自动驾驶等智能系统的大规模产业应用。现有技术面临着场景理想化、难以扩展;系统视角单一、感知空间受限;缺乏实用场景打磨、应用部署困难等问题。项目组从产业应用出发,建立了松紧耦合互补的自适应最优位姿估计框架,提出了动态目标感知与剔除方法,攻克了双光谱融合网络技术,实现了目标定位和位姿跟踪精度的大幅提升;提出了事件流超分辨率方法及双分支高速视频插帧方法,攻克了基于时空融合的高速特征识别与跟踪技术,大幅降低了事件流生成误差和高速特征的跟踪误差;提出了云、端融合的隐式地图高精度定位技术,建立了大场景隐式地图增量在线学习与高效存储框架,大幅提升了稠密地图表示的压缩比和全局建图的一致性。项目成果形成了系列产品和装置,在国家基础设施建设、高新技术产业发展及国防装备建设等领域实现了规模化推广应用。
问题三:请问各位老师在科研过程中,有没有什么好的方法可以推荐给大家?
在项目研究中,明确研究方向、理论与实践结合以及团队高效协作是取得突破的关键。
首先,研究选题要合理。选题不仅要具备科学价值,更要面向产业需求,以实现真正的技术落地。项目围绕开放退化场景感知展开,目标是解决无人系统在极端环境下的感知不稳定性问题,同时推动技术在工业自动化、智慧安防和国防装备等领域的应用。
其次,理论与实践相结合。项目构建了自适应最优位姿估计框架,解决了恶劣环境下的鲁棒感知问题,还通过自监督异常检测和高时空分辨率目标跟踪技术,将理论成果落地到具体应用场景中,如无人机巡检和智能仓储系统等。
最后,团队高效协作。团队汇聚了计算机视觉、机器学习、自动控制等多个学科的研究人员,在算法优化、硬件实现和系统集成等方面协同攻关。在攻克多模态数据融合问题时,通过跨团队协作,成功优化了双光谱融合网络,传感器时间同步精度达到了毫秒级,大幅提升了复杂环境下的感知稳定性。
综上所述,选择高价值研究方向、坚持理论与实践并重并依靠团队协作,是我们在科研过程中积累的经验。希望这些方法能为大家提供有益的参考,也祝愿各位科研同仁在自己的研究道路上取得更大突破!
问题四:在项目的研究过程中有遇到什么困难吗?大家是如何解决的?
项目研究过程中面临的主要挑战之一是如何在极端环境下提升感知系统的稳定性和实时性。常规的视觉感知系统在低光照、烟雾、沙尘等极端条件下,数据严重退化,进而影响系统的鲁棒性和可靠性。
为了克服这一难题,团队提出了两套解决方案:
(1)构建自适应最优位姿估计框架,通过松紧耦合互补的方法,结合IMU数据和多模态里程计信息,优化了极端环境下的位姿估计精度,使系统在暗光照和恶劣天气条件下的感知误差降低了70%;
(2)优化多模态数据融合策略,设计了基于FPGA时间同步的双光谱融合网络,通过融合可见光与红外数据,使得系统能够在视觉信息退化的情况下依然保持高精度感知,实现了毫秒级的同步精度,大幅提升了感知系统的稳定性。
此外,在动态物体检测和自主探索方面,团队也遇到了计算复杂度高、实时性受限的问题。针对这一挑战,我们通过自监督异常检测技术优化动态目标剔除流程,并采用高时空分辨率目标跟踪方法,实现了在密集场景中的高效感知和决策。最终,这些改进使得我们的技术能够在无人机集群侦察、自动驾驶和智能仓储等场景中稳定运行。
科学研究往往充满挑战,但通过不断的优化、实验和团队协作,我们最终克服了这些难题,推动了核心技术的突破与工程化应用。
问题五:最后,大家有什么获奖感言想说呢?
非常荣幸能够获得中国图象图形学学会科技进步奖!这一荣誉不仅是对我们团队多年努力的认可,也进一步激励我们在开放退化场景感知技术领域继续深耕。感谢学会及评审专家对我们工作的肯定,同时也要特别感谢团队的每一位成员,是大家的坚持与不懈努力,让我们得以克服一个又一个技术难题,实现了今天的突破。
在研究过程中,我们面对了诸多挑战,比如如何在极端环境下保证系统的感知稳定性,如何优化多模态数据融合的效率,以及如何提升无人系统的自主探索能力。这些难题并不容易解决,但正是团队的紧密协作和不懈努力,让我们不断优化算法、提升模型性能,并最终实现了关键技术的落地应用。
未来,我们将继续围绕高鲁棒性环境感知、动态场景高效探索等前沿课题展开深入研究,推动核心技术的创新与产业化落地。特别是在智能无人系统、自动驾驶和低空经济等国家重点发展领域,我们希望能够为产业发展贡献更多高价值的研究成果。
科学研究的道路充满未知与挑战,但我们始终相信,只要保持初心,勇于探索,就一定能够不断前行。再次感谢学会、评审专家以及所有支持我们的同行,我们将继续努力,向更高的目标迈进!
Copyright © 2025 中国图象图形学学会 京公网安备 11010802035643号 京ICP备12009057号-1
地址:北京市海淀区中关村东路95号 邮编:100190