阿里开源全模态模型R1-Omni 情感识别更优
阿里通义实验室开源 R1-Omni 模型,首个将具有可验证奖励的强化学习(RLVR)应用于全能多模态大语言模型。研究员利用RLVR对开源Omni模型HumanOmni-0.5B进行优化,在推理能力、情感识别准确性和泛化能力三个关键方面显著提高了其性能。R1-Omni能够更清楚地理解视觉和听觉信息如何促进情绪识别,能够明确展示哪些模态信息对特定情绪的判断起到了关键作用。在两场演示视频中,R1-Omni能推测视频中人物的情绪状态,并描述其服饰和周围环境。OpenAI于今年早些时候推出GPT-4.5模型,据称能更好地识别和响应用户书面提问中的微妙线索。但最初仅向月费200美元的付费用户开放。
—— 科创板日报、彭博社
发表回复