标签: 模型

  • 腾讯开源新型的文生图模型

    腾讯混元文生图模型开源 采用Sora同架构

    5月14日,腾讯宣布旗下混元文生图模型升级并开源,参数量15亿,目前已在 Hugging Face 平台及 Github 上发布,包含模型权重、推理代码、模型算法等完整模型,企业与个人开发者可免费商用。该模型支持文生图功能且可作为视频等多模态视觉生成的基础。随着腾讯混元文生图大模型入局,采用 DiT 架构的大模型玩家再增一名。OpenAI 的视频生成模型 Sora 也采用 DiT 架构。腾讯方面介绍,混元文生图大模型是业内首个中文原生的 DiT 架构文生图模型,综合指标在文生图算法中排名第三。

    —— 第一财经

  • OpenAI 推出更快更便宜的人工智能模型

    OPENAI 推出面向所有用户的更快更便宜人工智能模型

    OpenAI 推出了一个更快、更便宜的人工智能模型来支持其聊天机器人 ChatGPT。在周一的直播活动中,OpenAI 推出了新的大语言模型 GPT-4o。这是其已经问世一年多的 GPT-4 模型的更新版本。该模型基于来自互联网的大量数据进行训练,更擅长处理文本和音频,并且支持50种语言。新模式将面向所有用户,而不仅仅是付费用户。GPT-4o 的发布势将撼动快速发展的人工智能领域,目前 GPT-4 仍然是黄金标准。OpenAI 发布新模型也正值谷歌I/O开发者大会的前一天。谷歌是人工智能领域的早期领导者,预计将利用这次活动发布更多人工智能更新,以追赶有微软公司支持的 OpenAI。

    —— 财联社、OpenAI、彭博社

  • 微软推出小型的人工智能模型 Phi-3 Mini

    微软推出其规模最小的人工智能模型 Phi-3

    微软推出了其轻量级人工智能模型 Phi-3 Mini 的下一个版本,这是该公司计划发布的三款小型模型中的第一款。Phi-3 Mini 可测量 38 亿个参数,其训练数据集比 GPT-4 等大型语言模型要小。现在可在 Azure、Hugging Face 和 Ollama 上使用。微软计划发布 Phi-3 Small (7B 参数) 和 Phi-3 Medium (14B 参数)。参数指的是模型能理解多少复杂指令。与大型人工智能模型相比,小型人工智能模型通常运行成本更低,并且在手机和笔记本电脑等个人设备上表现更好。

    —— The Verge

  • Meta发布Llama3系列开源模型

    Meta 发布 Llama 3 开源模型

    Meta 发布了其 Llama 系列开源生成式 AI 模型的最新成员:Llama 3。该公司已经开源了其新 Llama 3 系列中的两种模型,其余模型将在未指定的未来日期推出。

    Meta 称,新模型 Llama 3 8B 和 Llama 3 70B 与上一代 Llama 模型 Llama 2 8B 和 Llama 2 70B 相比,在性能方面实现了“重大飞跃”,是目前性能最好的生成式 AI 模型之一。

    —— Meta

  • Opera 将内置本地 AI 模型

    Opera 成为首个内置本地 AI 模型的浏览器

    当地时间4月3日,Opera 宣布将在开发者流中为其 Opera One 浏览器中添加对来自大约50个模型系列的150个本地 LLM (大型语言模型) 变体的实验性支持。此举标志着首次可以通过内置功能从浏览器轻松访问和管理本地 LLM。本地 AI 模型是 Opera 在线 Aria AI 服务的免费补充。支持的本地 LLM 包括:Meta 的 Llama、Vicuna、谷歌的 Gemma、Mistral AI 的 Mixtral 等。使用本地大型语言模型意味着用户的数据保存在本地设备上,使他们能够使用生成式人工智能,而无需将信息发送到服务器。

    —— Opera 新闻稿

  • OpenAI 的语音克隆人工智能模型可以根据15秒的样本即可工作

    OpenAI 的语音克隆人工智能模型只需要15秒的样本即可工作

    人工智能公司 OpenAI 正在提供对其开发的文本转语音生成平台 Voice Engine 的有限访问权限,该平台可以根据某人15秒的声音片段创建合成声音。人工智能生成的语音可以根据命令以与说话者相同的语言或其他多种语言读出文本提示。OpenAI 在其博客文章中表示:“这些小规模部署有助于我们了解方法、保障措施,并思考如何在各个行业中很好地利用 Voice Engine。”拥有访问权限的公司包括教育科技公司 Age of Learning、视觉叙事平台 HeyGen、一线健康软件制造商 Dimagi、人工智能通信应用创建者 Livox 和健康系统 Lifespan。

    —— Theverge、OpenAI

  • xai 出售新语言模型

    xAI 推出 Grok-1.5 大语言模型

    马斯克旗下的人工智能公司 xAI 今天在官方博客中宣布,正式推出 Grok-1.5 大语言模型。Grok-1.5 具有改进的推理能力和 128k 的上下文长度。Grok-1.5 最显著的改进之一是其在编码和数学相关任务中的表现。Grok-1.5 将在未来几天内在 𝕏 平台上向早期测试人员和现有的 Grok 用户推出。

    —— xAI

  • OpenAI Sora 文本转视频模型需求

    机构:部署 Sora 需要72万片英伟达加速卡 价值216亿美元

    3月27日消息,市场调查机构 Factorial Funds 近日发布报告,认为 OpenAI 部署文本转视频模型 Sora,在峰值期需要72万片英伟达 H100 AI 加速卡。 如果按照每片英伟达 H100 AI 加速卡3万美元成本计算,72万片需要216亿美元。而这仅仅只是 H100 加速卡的成本。 Factorial Funds 预估训练 Sora 1个月,需要使用4200到10500片英伟达 H100 AI 加速卡,如果使用单片 H100 加速卡,生成1分钟视频需要渲染12分钟。

    —— 科创板日报、Factorial Funds

  • 谷歌人工智能模型胜过全球洪水预警系统

    谷歌使用人工智能在全球范围内进行可靠的洪水预报

    来自 Google Research 洪水预测团队的 Grey Nearing 及其同事开发的人工智能模型,通过利用现有的 5680 个测量仪进行训练,可预测未测量流域在 7 天预测期内的日径流。随后,他们将该人工智能模型与全球领先的短期和长期洪水预测软件—全球洪水预警系统 (GloFAS) 进行了对比测试。结果显示,该模型同日预测准确率与当前系统相当甚至更高。此外,该模型在预测重现窗口 (return window) 期为五年的极端天气事件时,其准确性与 GloFAS 预测重现窗口期为一年的事件时的准确性相当或更高。相关研究论文已发表在权威科学期刊《自然》杂志上。

    —— 谷歌博客、《自然》、36kr (学术头条)

  • openai 将发布 gpt-5 模型

    消息人士称,人工智能公司 OpenAI 预计将在今年年中发布 GPT-5

    人工智能公司 OpenAI 准备在未来几个月内发布其 ChatGPT 模型的下一个版本。据两位熟悉该公司的人士透露,这家由山姆·阿特曼领导的生成式人工智能公司有望在今年年中某个时候推出 GPT-5 模型,可能是在夏季。一位知情人士称,一些企业客户最近收到了该公司最新模型及其对 ChatGPT 工具相关改进的演示。一位体验过相关内容的首席执行官表示,“它真的很棒,相比之前的版本有了实质性的改进。”另一位知情人士透露,OpenAI 仍在训练 GPT-5 模型,训练完成后将进行内部安全测试并进一步接受检验,然后再向公众发布。

    —— 商业内幕