近日,西南财经大学计算机与人工智能学院2名研究生的2项工作被第34届国际人工智能联合会议(International Joint Conference on Artificial Intelligence,简称IJCAI)录用。本届会议录用率为19.3%,会议将于2025年8月16日至22日在加拿大蒙特利尔举行。国际人工智能联合会议是人工智能领域中最重要的学术会议之一,被中国计算机学会(CCF)列为A类国际会议。
工作一:《Multi-granularity Knowledge Transfer for Continual Reinforcement Learning》来自认知计算与群智协同创新实验室,第一作者是学院2023级人工智能理论与应用专业博士研究生潘超凡,通讯作者是杨新教授,一作/通讯第一单位均为西南财经大学。

图1 MT-Core框架图
本文提出了一种名为MT-Core(Multi-granularity knowledge Transfer for Continual reinforcement learning)的新型持续强化学习框架,旨在解决现有方法在多样化任务间知识迁移不足的问题。该框架通过模仿人类认知控制的多层次结构,结合大语言模型(LLM)的强大推理能力,实现了粗粒度和细粒度策略学习的有机结合。具体而言,MT-Core利用LLM制定粗粒度策略,将其转化为一系列目标,并通过强化学习进行细粒度策略学习,以实现这些目标。此外,该框架还构建了一个策略库,用于存储和检索成功解决任务的策略,以促进知识迁移并减少灾难性遗忘。
实验结果表明,MT-Core在MiniGrid环境中的表现显著优于现有的多种基线方法,尤其是在处理多样化任务时展现出更强的适应性和知识迁移能力。此外,该框架还具备处理异构任务(即具有不同状态空间的任务)的能力,并在相关实验中验证了其有效性。通过消融研究,本文进一步揭示了策略库和反馈机制在提升MT-Core性能中的关键作用。总体而言,MT-Core为持续强化学习领域提供了一种新的视角,通过多层次知识迁移显著提升了代理在复杂动态环境中的学习效率和泛化能力。
工作二:《DUQ: Dual Uncertainty Quantification for Text-Video Retrieval》来自新财经综合实验室,第一作者是学院2023级计算机科学与技术专业硕士研究生刘鑫,第二及通讯作者是尹诗白教授,一作/通讯第一单位均为西南财经大学。

图2 DUQ模型架构
文本视频检索是多模态表征学习中最具影响力的应用之一,它基于文本查询,从海量视频数据中精准查找最相关的视频片段,极大推动了视频内容的传播。然而,单纯依赖文本与视频特征间的相似度来实现检索,往往难以满足实际需求,特别是当查询语句描述不够充分时,检索方法难以精准的检索到相应视频。为解决上述问题,该研究创新性提出了一种双重不确定性量化(DUQ,Dual Uncertainty Quantification)的检索方法,通过对内相似性不确定性模块(ISUM)增强对内多模态特征交互,对间距离不确定性模块(IDUM)增强对间多模态特征排斥,共同改进多模态特征间相似性计算的准确度,极大地提高了检索的精度,在6个文本视频检索基准数据集上测试表明,方法达到了SOTA的性能。