新闻网讯 6月17日,“模式识别与机器智能”前沿技术论坛在我校八号楼三楼报告厅举办。论坛由中国自动化学会和中国人工智能学会主办,中国自动化学会模式识别与机器智能(CAA-PRMI)专委会、中国人工智能学会模式识别(CAAI-PR)专委会、18luck新利电竞
人工智能与自动化学院和多谱信息智能处理技术全国重点实验室联合承办。本次论坛采用线上线下相结合的模式,吸引了众多教师和学生参与,覆盖了更广泛的观众群体。
本次论坛由我校人工智能与自动化学院桑农教授作为执行主席,特邀了北京大学彭宇新教授、国防科技大学谢剑斌教授、南京大学王利民教授、武汉大学涂志刚教授四位模式识别与机器智能领域的专家学者分享相关的科学基础理论和关键技术方法。本次论坛由我校桑农教授和高常鑫教授主持。
我校人工智能与自动化学院副院长张海涛教授、CAA-PRMI专委会主任刘成林教授和CAAI-PR专委会主任周杰教授依次进行开幕致辞,介绍了专委会的发展历史、本次论坛的主题和目的,强调了模式识别与机器智能在当今社会的重要作用和广阔前景,并对各位参会专家学者表示热烈欢迎和衷心感谢。
北京大学彭宇新教授作“细粒度多模态协同感知、认知与生成”报告。他从细粒度辨识增强、多模态关联、多模态协同、跨模态生成四个方面,详细介绍了他团队在细粒度多模态协同感知、认知与生成方面的最新研究成果,包括细粒度图像分类、行人再识别、细粒度视频检索、细粒度跨模态检索、跨模态推理、文本到视觉生成等。报告深入浅出,既有理论深度,又有实践应用,引起了现场听众的强烈共鸣和热烈讨论。
国防科技大学谢剑斌教授作“异常行为快速检测与鲁棒识别”报告。报告简要介绍了异常行为的科学定义、前期特征、发展过程和检测框架;深入阐述异常行为快速检测和鲁棒识别的典型方法;详细解译可疑行为检测、暴力行为检测和危险行为检测等典型实例。报告具有很强的实际应用背景,对开展应用落地的研究具有很大启发。
南京大学王利民教授作“视频理解基础模型及下游应用”报告。他详细介绍了其课题组在视频基础模型及其下游任务适配方面的系列工作,具体包括:视频基础模型轻量级网络架构(TAM, TDN);视频基础模型掩码预训练范式(VideoMAE V1 & V2);基于VideoMAE预训练模型的视频时空动作检测框架(STMixer);基于VideoMAE预训练模型的视频时序动作检测框架(ViTTAD)。此外,王利民教授也介绍了利用视频基础模型(InternVideo)和语言基础模型构建的视频多模态对话系统(VideoChat)。他还给出了视频基础模型的未来发展趋势和挑战。
武汉大学涂志刚教授作“视频人体行为识别与动作捕捉”报告。他从人机交互的角度,介绍武汉大学行为分析与视觉感知研究组(HAVPRLab)在视频人体行为识别与捕捉方面的系列工作,主要包括人手姿态估计与重建、人体姿态估计与动作识别、人体动作捕捉与迁移,形成了从局部(人手)→整体(个体)→下游应用(动捕)的研究范式。涂志刚教授表示视频人体行为识别与动作捕捉还有很多待深入探索的问题,并与参会同学进行了积极的交流和讨论。
桑农教授对本次学术研讨会进行闭幕致辞,并对各位参会的专家学者表示感谢。
论坛期间,参会者积极参与讨论,纷纷表示四位专家学者呈现了一场高质量的学术盛宴,报告以细粒度多模态、视频异常行为分析为主题,从理论到实际应用,为模式识别和计算机视觉研究人员带来了更高维度的思考和新的思路。