微闻

标签: GPU

  • 谷歌推出Gemma 3:可在单块 GPU/TPU 上运行的最强模型

    谷歌推出Gemma 3:可在单块 GPU/TPU 上运行的最强模型

    今天,谷歌推出了Gemma 3,这是一组轻量级、最先进的开源模型。旨在直接在端侧设备上快速运行,帮助开发者在人们需要的任何地方创建人工智能应用。Gemma 3提供多种尺寸 (1B、4B、12B 和 27B),可根据特定的硬件和性能需求选择。Gemma 3模型在配备单个 GPU/TPU 的主机上的性能表现超越了 Llama-405B、DeepSeek-V3 和 o3-mini。谷歌 Gemma 3 模型支持128k上下文窗口、超过35种语言、文本和视觉理解及推理、函数调用和结构化输出。Gemma 在推出1年后下载量超过1亿次,活跃的 Gemmaverse 社区已经创建了超过六万个 Gemma 变体。

    —— 谷歌博客

  • OpenAI 因 GPU 缺乏而推出 GPT-4.5

    OpenAI 首席执行官表示公司“没有GPU了”

    人工智能公司 OpenAI 首席执行官萨姆·奥尔特曼表示,由于 OpenAI “没有 GPU 了”,公司被迫分阶段推出其最新模型 GPT-4.5。奥尔特曼在 X 上的帖子中表示,“庞大”且“昂贵”的 GPT-4.5 还需要 “数万” 个额外的 GPU 才能让更多 ChatGPT 用户获得访问权限。该模型将于周四首先向 ChatGPT Pro 订阅者推出,随后于下周向 ChatGPT Plus 用户推出。奥尔特曼说:“我们增长很快,已经没有 GPU 了。我们将于下周增加数万个 GPU,并将其推广到 Plus 层级,这不是我们希望的运营方式,但很难完美预测导致GPU短缺的增长激增。”

    —— TechCrunch

  • 中国人工智能实验室 DeepSeek 的GPU数量高达50,000

    中国人工智能实验室 DeepSeek 拥有 50,000 个 H100 GPU

    Scale AI 创始人兼首席执行官 Alexandr Wang 分享了该公司名为“人类的最后考试”的最新 AI 测试的细节,该测试使用“数学、物理、生物、化学教授”提供的与最新研究相关的“最难的问题”。中国人工智能实验室 DeepSeek 的模型 R1 在 Scale AI 公司最具挑战性的人工智能测试中达到或击败了所有表现最佳的模型,或大致与美国最好的模型是 o1 相当。

    Alexandr 表示,对于中国是否能获得先进 GPU 这个问题,“现实情况是既可以又不能。中国实验室拥有的 H100 数量比人们想象的要多。”他补充说,据他了解,“DeepSeek 拥有大约 50,000 个 H100。”他补充道,“他们显然不能谈论这个问题,因为这违反了美国实施的出口管制。”然而,该公司可能会发现很难采购更多芯片,“从长远来看,他们将受到芯片管制和出口管制的限制。”

    —— wccftech

  • 扎克伯格:Meta 年底将有130万个 AI GPU

    扎克伯格称 Meta 年底将有130万个 AI GPU

    Meta 首席执行官马克·扎克伯格表示,公司计划今年大幅增加资本支出,以在竞争激烈的人工智能领域与对手保持同步。扎克伯格在周五的 Facebook 帖子中表示,Meta 预计 2025 年将在资本支出上花费 600 亿至 800 亿美元,主要用于数据中心和扩大公司的人工智能开发团队。这一预计范围约为 Meta 去年资本支出 350 亿至 400 亿美元的两倍。扎克伯格还写道,Meta 公司计划今年上线约 1 千兆瓦的在线计算能力,大约相当于 75 万户普通家庭的用电量,并预计该公司的数据中心到年底将配备超过 130 万个 GPU。

    —— Techcrunch

  • 小米搭建GPU万卡集群

    小米正搭建GPU万卡集群 将对AI大模型大力投入

    12月26日,独家获悉,小米正在着手搭建自己的GPU万卡集群,将对AI大模型大力投入。小米大模型团队在成立时已有6500张GPU资源。一名知情人士对记者表示,该计划已经施行数月之久,雷军在其中扮演了重要的领导角色。“在AI硬件这件事情上,最核心的是手机而不是眼镜,小米在这个领域不‘all in’是不可能的。”小米对AI大模型的重视度提升此前已有信号。12月20日,据第一财经报道,DeepSeek开源大模型DeepSeek-V2的关键开发者之一罗福莉将加入小米,或供职于小米AI实验室,领导小米大模型团队。

    —— 界面新闻

  • 小米打算搭建自己的GPU万卡集群

    小米正搭建GPU万卡集群 将对AI大模型大力投入

    12月26日,独家获悉,小米正在着手搭建自己的GPU万卡集群,将对AI大模型大力投入。小米大模型团队在成立时已有6500张GPU资源。一名知情人士对记者表示,该计划已经施行数月之久,雷军在其中扮演了重要的领导角色。“在AI硬件这件事情上,最核心的是手机而不是眼镜,小米在这个领域不‘all in’是不可能的。”小米对AI大模型的重视度提升此前已有信号。12月20日,据第一财经报道,DeepSeek开源大模型DeepSeek-V2的关键开发者之一罗福莉将加入小米,或供职于小米AI实验室,领导小米大模型团队。

    —— 界面新闻

  • 小米开始构建自己的GPU万卡集群

    小米正搭建GPU万卡集群 将对AI大模型大力投入

    12月26日,独家获悉,小米正在着手搭建自己的GPU万卡集群,将对AI大模型大力投入。小米大模型团队在成立时已有6500张GPU资源。一名知情人士对记者表示,该计划已经施行数月之久,雷军在其中扮演了重要的领导角色。“在AI硬件这件事情上,最核心的是手机而不是眼镜,小米在这个领域不‘all in’是不可能的。”小米对AI大模型的重视度提升此前已有信号。12月20日,据第一财经报道,DeepSeek开源大模型DeepSeek-V2的关键开发者之一罗福莉将加入小米,或供职于小米AI实验室,领导小米大模型团队。

    —— 界面新闻

  • Nvidia Blackwell GPU供应量已售罄

    Nvidia 的 Blackwell GPU 在未来 12 个月的供应量已售罄

    摩根士丹利分析师分享了最近与 Nvidia 领导层(包括 CEO 黄仁勋)会面后得到的结果。会议期间该公司透露,未来 12 个月的 Blackwell GPU 订单已经售罄。这意味着今天下订单的新客户必须等到明年年底才能收到货。Nvidia 的传统客户(AWS、CoreWeave、Google、Meta、Microsoft 和 Oracle 等)已经购买了 Nvidia 及其合作伙伴台积电未来几个季度能够生产的所有 Blackwell GPU。

    如此巨大的需求可能表明,尽管来自 AMD、英特尔、云服务提供商(提供专有产品)以及各种小公司的竞争日趋激烈,但 Nvidia 明年仍可能获得市场份额的增长。

    —— Tom’s Hardware

  • NVIDIA 将全面转向开源 GPU 内核模块

    NVIDIA 全面转向开源 GPU 内核模块

    NVIDIA 于 2022 年 5 月发布了一组 Linux GPU 内核模块,作为具有双重 GPL 和 MIT 许可的开源模块。当时该公司宣布,NVIDIA 开放内核模块最终将取代闭源驱动程序。现在,由于开源 GPU 内核模块实现了同等甚至更好的应用程序性能,NVIDIA 将在即将发布的 R560 驱动程序版本中完全过渡到开源 GPU 内核模块。

    对于 Grace Hopper 或 Blackwell 等最新平台,用户必须使用开源 GPU 内核模块,这些平台不支持专有驱动程序。对于 Turing、Ampere、Ada Lovelace 或 Hopper 架构的较新 GPU,NVIDIA 建议切换到开源 GPU 内核模块。对于 Maxwell、Pascal 或 Volta 架构的较旧 GPU,开源 GPU 内核模块与平台不兼容,将继续使用 NVIDIA 专有驱动程序。

    —— NVIDIA

  • 美光推出新一代GDDR7GPU内存

    美光推出用于游戏和人工智能的新一代GPU内存GDDR7

    6月5日消息,台北国际电脑展上,美国存储芯片厂商美光宣布推出新一代 GDDR7显存(GPU显卡内存)。美光 GDDR7采用其1βDRAM 架构,内存性能速率高达32Gb/s ,上一代GDDR6显存速率为18Gb/s,带宽超过1.5TB/s,较GDDR6提升60%。 同时与GDDR6相比,GDDR7能效提升超过50%,可实现更好的散热和续航。 GDDR7可适用于人工智能、游戏和高性能计算等领域。
    自 2024 年下半年起,美光 GDDR7 内存将可从美光直接购买,或通过全球部分渠道分销商和经销商对外供应。

    —— 界面新闻