近日,ACM 国际多媒体会议(ACM International Conference on Multimedia,ACM MM 2024)上组织的多模态与可靠性情感计算研讨会 MRAC 24(Multimodal, Generative and Responsible Affective Computing 2024)公布论文接收结果,社交平台 Soul App 研究成果《Multimodal Emotion Recognition with Vision-language Prompting and Modality Dropout》(基于视觉语言提示与模态暂退的多模态情感识别)成功入选。
作为较早思考将 AI 应用于社交领域的平台,Soul 积极推动 AI 情感互动能力的研究,目前相关技术已应用于异世界回响、AI 苟蛋、群聊派对等 AI 陪伴、AI 辅助的创新场景。此次入选也意味着,继其推出的 AI 应用 / 功能得到的用户认可之后,Soul 的底层技术能力建设和布局方向也得到了行业和学界的认可。
近年来,情感计算一直都是人工智能方向研究活跃的领域。在多媒体处理、分析与计算领域最具影响力的国际顶级会议,同时也是中国计算机学会推荐的多媒体领域 A 类国际学术会议 —— ACM(国际多媒体会议)上专门举办多模态与可靠性情感计算研讨会(MRAC24),正是源于学术领域对情感计算在人机交互领域发展、实际应用的关注,因此吸引了众多知名高校、学者、科技企业的目光。
不久前,人工智能领域顶级的国际学术会议之一国际人工智能联合会议(International Joint Conference on Artificial Intelligence,IJCAI)上组织的多模态情感识别挑战赛 MER24 同样也是情感计算在当下备受关注的一个缩影。由来自清华大学、中国科学院自动化研究所、帝国理工学院、奥卢大学、南洋理工大学等高校的多位专家学者发起的 MER24 上,设置了 SEMI(半监督学习)、NOISE(噪声鲁棒性)、OV(开放式词汇情绪识别)三个赛道,共有来自知名高校、科技企业等近百支队伍参赛。其中,Soul 语音技术团队凭借平台扎实的技术能力积累和创新技术方案,在难度最高、竞争最激烈的 SEMI 赛道中获得第一名。
《Multimodal Emotion Recognition with Vision-language Prompting and Modality Dropout》一文中核心介绍了 Soul 团队为提高情绪识别的准确性和泛化性能,提出的多模态情绪识别方法。
首先,Soul 提出了基于视觉语言提示学习的微调模型 EmoVCLIP,用于基于视频的情绪识别任务。为了提高文本模态情感识别能力,团队针对文本模态使用 GPT-4 打情感伪标签,充分利用 GPT-4 的情感关注能力,提高文本模态在情感识别的准确率,为后续进一步模态融合打下基础。
此外,为了解决多模态融合中的模态依赖性问题,团队采用 Modality Dropout 策略来进行鲁棒信息融合。最后,Soul 使用自我训练策略来利用未标记的信息。实验结果表明,Soul 的模型在测试中上达到了 90.15% 的准确率,在 MER2024-SEMI 赛道中排名第一。
MER2024-SEMI 赛道比赛结果
Soul App CTO 陶明表示," 在整个 AI 赛道上我们有两条主线,一条主线是辅助社交,辅助人和人的双边关系,用 AI 去加强人的表达,提升关系网络建立的效率和质量;第二条主线,是探索人机互动,我们认为未来所有的社交形式都会发生变化,要在人机互动这个方向探索 AI 情感式陪伴。"
为让 AI 更好 " 理解 " 人,实现有情感、有温度的人机交互,Soul 持续推进相关研究和技术积累工作,此次论文也是平台阶段性研究成果和能力的总结之一。现阶段,Soul 已积极将相关技术能力应用于异世界回响、AI 苟蛋、狼人魅影等多个社交场景,为用户带来更好的交互体验和陪伴感。
例如,在 AI 互动场景 " 异世界回响 ",拥有多模态情感互动能力的自研大模型支持下,个性化的智能体能够根据用户的语音、文字等信息实时识别情绪,并快速给予相应的情感反馈。据了解,团队目前还在探索在群聊派对、兴趣群组等社交场景中引入情感化 AI 能力,辅助关系网络建立,提升社交体验。
如今,AIGC 技术已广泛应用于各行各业,并在提效方面展现出了惊人的效果。但在强调情绪价值的社交领域,除了提效,AI 情感互动能力带来的差异化体验,或将成为 AI 社交方向下一阶段竞争的焦点。对 Soul 来说,接下来,将继续加大技术投入,持续探索 AI 情感互动能力在社交场景的深度融合应用,致力于构建人机交互新场景的同时,真正实现人与 AI 的双向情感智能交互。
登录后才可以发布评论哦
打开小程序可以发布评论哦