微闻

标签: Qwen

  • 阿里Qwen团队发布全新视觉推理模型QVQ-Max

    阿里Qwen团队发布全新视觉推理模型QVQ-Max

    阿里Qwen团队近日在社交平台X上正式发布全新视觉推理模型QVQ-Max,标志着其在多模态人工智能领域取得重要进展。作为QVQ系列的最新版本,该模型专为提升传统人工智能在视觉信息处理方面的局限性而设计,着重优化了从视觉感知到认知推理的核心能力。

    据官方介绍,QVQ-Max具备三大核心优势:首先,在细致观察方面,它能够精准识别图像中的细节和文字标识;其次,在深度推理层面,模型能够结合背景知识进行分析和综合判断;最后,在灵活应用方面,该模型支持创意生成和内容创作等多样化任务。特别是在MathVision benchmark测试中,QVQ-Max展现出”思考长度”与准确率正相关的显著特性,充分验证了其在复杂多模态任务中的潜力。

    值得注意的是,这一发布紧随阿里Qwen团队此前推出的qwen-max-0125模型,该模型曾被视为通义千问系列中效果最为出色的版本。此外,QVQ系列的开发初衷在于探索提升视觉推理能力的创新路径,尤其是在数学推理等专业领域表现突出。

    此次发布的还包括Qwen-VL-Plus和Qwen-VL-Max两款视觉语言模型,进一步巩固了阿里在国产视觉语言模型领域的领先地位。这些新模型基于通义千问语言系列打造,在视觉理解能力上实现了显著突破。特别是QVQ模型的引入,为图像解答问题提供了强大的推理支持。

    这些创新成果不仅展现了中国科技企业在人工智能领域的技术实力,也为多模态AI技术的发展和应用开辟了新的方向。

  • 阿里Qwen 2.5-Max超大规模MoE模型发布

    阿里Qwen 2.5-Max超大规模MoE模型发布

    1月29日凌晨,阿里云公布了其全新的通义千问 Qwen 2.5-Max 超大规模 MoE 模型,该模型预训练数据超过20万亿 tokens。目前开发者可在 Qwen Chat 平台免费体验模型,企业和机构也可通过阿里云百炼平台直接调用新模型 API 服务。在 Arena-Hard、LiveBench、LiveCodeBench 和 GPQA-Diamond 等基准测试中,Qwen2.5-Max 表现超越了 DeepSeek V3,同时在 MMLU-Pro 等其他评估中也展现出了极具竞争力的成绩。阿里云的基座模型在大多数基准测试中都展现出了显著的优势。阿里云称随着后训练技术的进步,下一个版本 Qwen2.5-Max 将会达到更高水平。

    —— 通义千问

  • 阿里云Qwen页面显示404

    阿里云通义千问 Github 页面显示 404

    9月5日,有开发者在社交平台上称在GitHub上打开阿里云Qwen页面后显示404。GitHub是全球最大的代码托管平台,也是一个开源软件开发社区。就在前几日,通义千问宣布开源第二代视觉语言模型Qwen2-VL,并推出2B、7B两个尺寸及其量化版本模型,根据官方公布也上线了GitHub,也处于是404状态。阿里高级算法专家林俊旸在 X 上表示:“GitHub 因未知原因标记了我们的组织,我们正在尝试与他们联系以寻求解决方案。”

    —— 财经网、林俊旸