标签: 开源

  • 瑞士推出开源要求

    瑞士现在要求所有政府软件必须是开源的

    欧洲一些国家正在押注开源软件。近期,瑞士通过了《关于使用电子手段完成政府任务的联邦法律》(EMBAG),迈出了重要一步。这项开创性的立法规定公共部门必须使用开源软件 (OSS)。这项新法律要求所有公共机构披露由其或为其开发的软件源代码,除非第三方权利或安全问题阻止这样做。这种“公共资金、公共代码”方法旨在提高政府运作的透明度、安全性和效率。除了要求使用开源软件,新立法还要求将非个人和非安全敏感的政府数据作为开放政府数据 (OGD) 发布。这种双重“默认开放”的方法标志着软件和数据向更大开放性和实际再利用的重大范式转变。

    —— ZDNet

  • NVIDIA 将全面转向开源 GPU 内核模块

    NVIDIA 全面转向开源 GPU 内核模块

    NVIDIA 于 2022 年 5 月发布了一组 Linux GPU 内核模块,作为具有双重 GPL 和 MIT 许可的开源模块。当时该公司宣布,NVIDIA 开放内核模块最终将取代闭源驱动程序。现在,由于开源 GPU 内核模块实现了同等甚至更好的应用程序性能,NVIDIA 将在即将发布的 R560 驱动程序版本中完全过渡到开源 GPU 内核模块。

    对于 Grace Hopper 或 Blackwell 等最新平台,用户必须使用开源 GPU 内核模块,这些平台不支持专有驱动程序。对于 Turing、Ampere、Ada Lovelace 或 Hopper 架构的较新 GPU,NVIDIA 建议切换到开源 GPU 内核模块。对于 Maxwell、Pascal 或 Volta 架构的较旧 GPU,开源 GPU 内核模块与平台不兼容,将继续使用 NVIDIA 专有驱动程序。

    —— NVIDIA

  • 百度李彦宏再谈开源与闭源之争

    李彦宏:没有应用,光有基础模型,不管是开源还是闭源都一文不值

    百度李彦宏在世界人工智能大会上再谈开源与闭源之争:商业化的闭源模型是最能打的。他进一步强调,没有应用,光有基础模型,不管是开源还是闭源都一文不值,“大家不要卷模型了,要去卷应用。”

    他透露,两个多月前,文心大模型的日调用量超过2亿,而近期文心大模型的日均调用量已经超过了5亿。调用量发生的变化体现了真实的需求,有人从大模型发展中获益。代码生成领域,百度公司30%左右代码由AI生成,代码采用率超过44%。

    —— 界面新闻

  • winamp向全球开发者开放源代码

    媒体播放器 Winamp 宣布9月24日开放源代码

    媒体播放器 Winamp 宣布将在2024年9月24日向全球开发者开放其应用程序的源代码。将开放其在 Windows 上使用的播放器代码,使整个社区能够参与其开发。这是对全球合作的邀请,世界各地的开发人员可以贡献他们的专业知识、想法和热情来帮助这个标志性软件的发展。Winamp 已经不仅仅是一个音乐播放器。它体现了独特的数字文化、审美和用户体验。通过这项开放源代码的举措,在其历史上迈出了下一步,允许其用户直接为改进产品做出贡献。

    —— Winamp 新闻稿

  • 腾讯开源新型的文生图模型

    腾讯混元文生图模型开源 采用Sora同架构

    5月14日,腾讯宣布旗下混元文生图模型升级并开源,参数量15亿,目前已在 Hugging Face 平台及 Github 上发布,包含模型权重、推理代码、模型算法等完整模型,企业与个人开发者可免费商用。该模型支持文生图功能且可作为视频等多模态视觉生成的基础。随着腾讯混元文生图大模型入局,采用 DiT 架构的大模型玩家再增一名。OpenAI 的视频生成模型 Sora 也采用 DiT 架构。腾讯方面介绍,混元文生图大模型是业内首个中文原生的 DiT 架构文生图模型,综合指标在文生图算法中排名第三。

    —— 第一财经

  • GNOME 基金会加大力度筹款

    GNOME 基金会在多年赤字后将加大力度筹款

    在 GNOME 基金会连续几年处于赤字(亏损)状态之后,GNOME 基金会将推动筹集更多资金。GNOME 基金会主席 Robert McQueen 今天发表了一篇博客文章,介绍了 GNOME 基金会董事会的最新情况。其中一个关键问题是 GNOME 基金会多年来一直处于赤字状态,耗尽了储备金。“您可能知道,GNOME 基金会三年多来一直处于赤字情况,基本上是利用4-5年前收到的一些大量捐款的储备金来管理基金会。”“我们目前的资金已经接近红线,这意味着董事会不能再批准任何赤字预算,为了将支出保持再同一水平,我们必须增加收入。”“因此,去年聘请 Holly 担任执行董事的首要考虑因素之一是她在沟通和筹款方面的经验。”“基金会今年对支出更加谨慎,因为 Holly 准备了一份收支平衡的预算,供董事会在10月批准,这样我们就可以在准备和启动新的筹款方案时保证核心业务。”

    —— Phoronix

  • Meta发布Llama3系列开源模型

    Meta 发布 Llama 3 开源模型

    Meta 发布了其 Llama 系列开源生成式 AI 模型的最新成员:Llama 3。该公司已经开源了其新 Llama 3 系列中的两种模型,其余模型将在未指定的未来日期推出。

    Meta 称,新模型 Llama 3 8B 和 Llama 3 70B 与上一代 Llama 模型 Llama 2 8B 和 Llama 2 70B 相比,在性能方面实现了“重大飞跃”,是目前性能最好的生成式 AI 模型之一。

    —— Meta

  • Mistral 8x22B 大模型开源

    Mistral AI 开源 Mistral 8x22B Moe 大模型

    Mistral AI 公司刚刚再次用磁力链接开源了一款大模型 Mistral 8x22B,模型文件大小为 281.24 GB。从模型的名字来看,Mistral 8x22B 是去年开源的「mixtral-8x7b」的超级大杯版本,参数规模增长三倍不止,由 8 个 220 亿参数规模 (8×22B) 的专家网络组成。
    磁力链接地址:magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%2Fopen.demonii.com%3A1337%2Fannounce&tr=http%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce

    —— Mistral AI、oschina

  • Databricks发布大型开源语言模型DBRX

    Databricks 发布最大开源大语言模型 DBRX

    美国AI初创公司Databricks周三公布,该公司开发的通用大语言模型 DBRX将开源。DBRX在语言理解、编程、数学和逻辑方面轻松击败了Meta的Llama 2-70B、法国MixtralAI公司的Mixtral 和 马斯克旗下xAI开发的Grok-1这类当前流行的开源模型。DBRX 在 30多种不同的最先进模型(SOTA) 基准指标测试中,均优于前述三种大模型。

    DBRX 使用混合专家架构(MoE) ,拥有16个专家模型,共1320亿参数。该模型使用 3072 英伟达 H100 GPU在12万亿个token的数据集上进行训练,最大支持32k 的上下文窗口。同时,Databrick 也开源了该模型经过指令微调(instruct finetune)的版本。

    —— Databricks, HuggingFace

  • xAI开源Grok-1模型

    人工智能公司 xAI 开源 Grok-1 模型

    3月11日,埃隆·马斯克表示 xAI 将开源其 AI 聊天机器人 Grok ,目前已在 GitHub 上提供开放源代码版本,这将使研究人员和开发人员能够在该模型的基础上进行构建。该公司的一篇博客文章解释说,这个开放版本包括“3140亿参数专家混合模型 Grok-1”的“基本模型权重和网络架构”。博文还称,该模型来自去年10月的检查点,并且没有“针对任何特定应用 (例如对话) ”进行微调。该模型以 Apache 2.0 许可证发布,允许商业用途。

    —— TheVerge、xAI 博客、Github