科研项目
团队近年来承担多项国家级、省部级科研项目,在认知计算、联邦学习、金融科技等领域开展前沿探索与应用研究。
研究方向
联邦学习与持续学习
聚焦隐私保护下的分布式智能,研究联邦学习中的异构数据协同、模型聚合与通信效率优化;探索持续学习中的灾难性遗忘抑制、知识迁移与终身自适应机制;进一步结合联邦学习与持续学习,构建**联邦持续学习**框架,解决动态环境中多客户端的增量式知识融合与隐私保护难题。
- 联邦学习:非独立同分布数据、个性化联邦、隐私保护聚合
- 持续学习:增量学习、弹性权重巩固、记忆回放与知识蒸馏
- 联邦持续学习:跨域知识融合、灾难性遗忘联合抑制、终身联邦智能
多模态大模型与具身智能
面向真实世界中的多源异构数据,研究**多模态大模型**的预训练、微调与跨模态对齐技术,提升模型在图像、文本、语音等模态间的理解与生成能力。针对视觉感知任务,探索**多模态图像分割/融合**方法,实现像素级语义解析与特征互补。进一步将多模态感知与智能体决策相结合,研究**具身智能**在物理环境中的感知-推理-行动闭环,构建具有环境交互能力的智能系统。
- 多模态大模型:跨模态对比学习、视觉-语言预训练、高效微调
- 多模态图像分割/融合:多模态特征对齐、互补信息融合、弱监督分割
- 具身智能:视觉-语言-动作联合学习、环境交互与任务规划
强化学习与多智能体Agent
围绕序贯决策与自主优化,研究深度**强化学习**在复杂环境中的样本效率、探索-利用平衡及策略泛化能力。进一步拓展至多智能体场景,探索**多智能体agent**间的协作、竞争与通信机制,构建分布式智能决策系统。重点解决大规模智能体交互中的信用分配、非平稳环境适应及协同策略学习等挑战。
- 深度强化学习:离线强化学习、分层强化学习、模型驱动与无模型方法
- 多智能体系统:合作与竞争博弈、通信协议学习、多智能体信用分配
- 应用场景:自动驾驶、机器人协同、金融博弈仿真
因果推断与可解释性
致力于超越关联分析,构建**因果推断**框架以揭示数据背后的因果结构,提升模型的稳健性与泛化能力。结合**可解释性**研究,发展自解释模型与事后解释方法,使人工智能系统的决策过程透明、可信。重点探索因果图学习、反事实推理、以及面向复杂模型的局部与全局解释技术。
- 因果推断:因果结构学习、工具变量、潜在结果框架、反事实推理
- 可解释性:特征归因、概念激活、注意力可视化、规则提取
- 可信AI应用:金融风控、医疗诊断、公平性评估
特征工程与大小模型协同
聚焦数据驱动的智能建模核心环节,研究**特征工程**中的自动特征构造、选择与降维技术,提升模型对高维、稀疏、异构数据的适应性。同时,探索**大小模型**协同机制,利用大模型的通用知识与小模型的轻量高效互补,构建资源约束下的高效推理与知识蒸馏框架,实现模型性能与部署效率的平衡。
- 特征工程:自动特征生成、基于粒计算的特征选择、高维特征表示学习
- 大小模型协同:知识蒸馏、模型压缩、大模型引导的小模型训练
- 应用场景:边缘智能、金融文本分析、时序预测
图像识别与机器视觉
聚焦视觉感知与图像理解的前沿技术,研究面向复杂场景的高精度图像识别、目标检测与分割方法。结合深度学习与表示学习,探索小样本学习、域自适应、对抗鲁棒性等关键问题,构建适应开放环境的视觉感知系统。同时,关注多模态视觉融合与轻量化模型设计,推动机器视觉在金融安防、智能监控、医疗影像等领域的应用落地。
- 图像分类与目标检测:弱监督学习、少样本识别、域泛化检测
- 语义分割与实例分割:精细化分割、边缘感知、交互式分割
- 视觉表示学习:自监督预训练、对比学习、特征解耦
- 轻量化与边缘视觉:模型压缩、知识蒸馏、端侧推理优化