微闻

标签: 人工智能

  • 谷歌推进量子霸权

    谷歌的新量子计算机能在几秒内执行其竞争对手 47 年才能完成的任务

    谷歌近日宣布在量子计算机研发方面取得重大突破,声称已实现“量子霸权”。他们声称,他们的量子计算机可以在几秒钟内执行超级复杂的计算,而竞争对手最快的超级计算机需要大约 47 年才能完成。

    这不是谷歌第一次提出这样的说法。2019年,他们宣称量子霸权,但怀疑论者质疑他们主张的有效性。他们的竞争对手 IBM 认为,谷歌 Sycamore 量子计算机完成的任务并不是特别具有挑战性,并且在技术上可以由经典机器执行,尽管速度要慢得多。

    这一成就背后的谷歌研究人员在他们发表在 arXiv 预印本服务器上(尚未经过同行评审)的论文中解释说,量子计算机有潜力执行超出经典计算机能力的任务。他们进一步强调,在根据改进的经典方法评估计算成本时,他们的实验超越了现有的经典超级计算机。

    谷歌宣布推出的 Sycamore 量子处理器的升级版本,其现在运行在 70 个量子位上,而之前的量子位为 53 个。量子处理器拥有 70 个量子位,可以存储和处理 70 个量子信息单位,这对于任何经典计算机来说都是不可能完成的任务,无论其速度如何。为了说明功率的增加,该团队表示,经典超级计算机 Frontier 需要 6.18 秒才能匹配 Google 53 量子位计算机的计算,但需要 47.2 年才能匹配最新计算机的计算。

    ——firstpost

  • 大型语言模型的自托管经验和注意事项

    私人自托管大型语言模型:运行经验分享与注意事项

    最近半年大型语言模型非常火爆,笔者本人循着开源精神,试着搭建过自托管(self-host)大模型,也踩过不少坑,现在来分享一下经验。

    1. 最容易/成熟的选择:
    llama的Vicuna,之前还需要申请llama的模型访问权限后才能加载他们的增量(类似于需要有stable diffusion 模型才能加载LoRa),但是是由于llama模型漏的到处都是了, 所以现在他们直接放出了所有权重可以直接部署。(而且脚本都给你写好了。

    2.如何部署:
    7B的模型需要14GVRAM,13B需要28-30VRAM(28G可以加载模型,一推理就会oom),而最新的33B模型需要至少80G VRAM进行部署。同时,多GPU不能分担显存需求,除非是裸机级别的NVlink(VPS因为不保证你租到的是相邻两个有NVlink的GPU,可能部署没问题,但是一进行推理就会炸显存,因为pcl express带宽不够)。

    那么最好的选择是Vultr,他们是少数几家有80G 级别的A100商家,而且能按小时付费,价格是Azure之类的1/2一下。

    但是要注意的是,他们家默认credit limit是$1,000/mo 但是A100价格是$1,750/mo,尽管按小时计费,但是因为月度credit limit不够,会直接开不出来,需要正常使用他们家其他服务几个月后,才能申请增加额度。(本人是几年的老用户,来回发了4-5份工单才同意增额的)。

    但是如果只是体验一下13B的model的话,可以租用半个GPU(40G VRAM,够用).

    3.进一步省钱的办法:
    看好需要VRAM额度,租用1/2个或1/3个GPU足以。
    同时善用他们家的快照功能,如果你不熟悉linux命令的话,可以先租用一个50-100G SSD的CPU VPS (取决于模型大小)(每个小时只要 $0.04-0.06,比GPU服务器便宜一个数量级),部署好后不启动,拍摄快照,再从快照还原到GPU服务器。(但是要注意拍摄快照与还原均需大约一个小时,如果你熟悉linux命令,你大约可以在30分钟内部署完成,快照反而会多花钱)。(注意记录下一开始的root密码,快照会还原原来的root密码,但不显示)。

    5.模型感觉怎么样?
    尽管宣传比肩ChartGPT,但是其实比ChartGPT差多了(大约有微软小冰的水平?)比如我蓄意给予错误的指令(“请告诉我有关阿里巴巴森林公园的情况”,他开始回答“阿里巴巴森林公园是一个风景秀丽,环境优美。。。。。。” 换成英文也得到类似的结果 “Please tell me something about Tencent National park” 也回答了类似的结果,而ChartGPT会质疑阿里巴巴是公司而非森林公园的名字)。(毕竟ChartGPT宣传是175B,和13B差差不多10倍)

    6.最后:
    美国有传闻要禁止中国公司或公民在外国租用高端计算卡以绕过显卡禁令,尚不知是否会波及类似用例(因为只是单显卡,未进行互联,而A800砍的是互联能力)。希望不会吧。

  • 谷歌将使用你的数据训练人工智能

    谷歌更新隐私政策将加大力度使用你的数据来训练人工智能

    自 2023 年 7 月 1 日起,Google 为用户制定了新的隐私政策。其中有一个关键的更新。

    谷歌有一项政策已经实施了一段时间,允许该公司从其用户那里收集数据并将这些数据用于 “商业目的”。这包括用于 “研究和开发”,其中长期以来包括用于建立和改进谷歌翻译。

    现在,在其政策的最新更新中,谷歌将其人工智能模型纳入了它可以使用你的数据的范围。这也包括使用这些数据来训练 Bard 和云端人工智能 “产品”。

    谷歌使用信息来改善我们的服务,并开发新的产品、功能和技术,使我们的用户和公众受益。例如,我们使用公开的信息来帮助训练谷歌的人工智能模型,并建立产品和功能,如谷歌翻译、Bard 和云端人工智能。如果您的企业信息出现在一个网站上,我们可能会在谷歌服务上索引和显示它。

    这一切都不意味着谷歌打算使用与你的账户有关的私人数据进行培训,而只是使用公共信息。这种情况无论如何都会发生,随着ChatGPT和其他人工智能模型的兴起,这种情况已经很清楚了,但谷歌的新政策清楚地表明,该公司打算对其用户的数据做同样的事情。

    —— 9to5Google

  • OpenAI 使用盗版网站训练ChatGPT

    作者指责 OpenAI 使用盗版网站训练 ChatGPT

    本周,作者 Paul Tremblay 和 Mona Awad 对 OpenAI 提起集体诉讼,指控 ChatGPT 的母公司侵犯版权并违反 DMCA 等。据作者称,ChatGPT 未经许可就对其受版权保护的作品进行了部分培训。

    诉讼中提供的证据看似简单。作者从未授权 OpenAI 使用他们的作品,但 ChatGPT 可以提供他们作品的准确摘要。这些信息一定来自某个地方。

    虽然这些类型的指控并不新鲜,但本周的诉讼指控 OpenAI 使用盗版网站作为训练输入。这可能包括Z-Library ,这是一个拥有数百万册盗版图书的影子图书馆。

    OpenAI 尚未透露 ChatGPT 训练的数据集,但在一篇较旧的论文中引用了两个数据库;“书籍1”和“书籍2”。第一个包含大约 63,000 个标题,后者包含大约 294,000 个标题。

    这些数字孤立起来毫无意义。然而,作者指出,OpenAI 一定使用了盗版资源,因为包含这么多书籍的合法数据库并不存在。唯一提供如此多材料的“基于互联网的图书语料库”只有是盗版图书网站,例如 Library Genesis 、Z-Library、Sci-Hub 和 Bibliotik。

    目前的诉讼将受到人工智能爱好者和权利人的密切关注。这可能会导致 OpenAI 不得不披露一些训练数据。

    —— Torrentfreak

  • 甲骨文在扩展人工智能云计算服务方面花费数十亿美元

    埃里森表示,甲骨文今年在英伟达芯片上花费了“数十亿美元”

    6 月 28 日(路透社)—甲骨文公司正在花费“数十亿美元”购买英伟达公司的芯片,以扩展针对新一波人工智能浪潮的云计算服务。

    甲骨文创始人兼董事长拉里·埃里森周三表示,甲骨文的云部门正在努力与亚马逊网络服务公司和微软公司等规模更大的竞争对手抗衡。为了获得优势,Oracle 专注于构建快速网络,该网络可以处理创建类似于 ChatGPT 的 AI 系统所需的大量数据。甲骨文还购买了大量图形处理单元(GPU),旨在处理人工智能工作的数据。

    埃里森在 Ampere会议上表示,甲骨文还在 Nvidia 芯片上花费了“数十亿”美元,但在其投资的芯片初创公司 AmpereComputing 和 Advanced MicroDevice Inc 的中央处理器单元 (CPU) 上投入更多。

    —— 路透社

  • OpenAI 在伦敦开设首家海外办事处

    OpenAI 将在英国开设首个海外办事处

    OpenAI 表示,其第一个国际办事处将设在伦敦。这一个引人注目的选择,自 2015 年成立以来,OpenAI 一直没有扩展到旧金山总部以外的地方。

    伦敦这座城市还是 Google 最大的人工智能研究部门 DeepMind 的长期总部基地,也是数据科学人才的源泉,因为其丰富的学术历史和著名的大学。

    OpenAI 首席执行官 Sam Altman 表示,此举是“吸引世界级人才的机会”。

    此前,他批评了欧盟拟议的人工智能监管立法,该立法要求公司披露用于训练其系统的内容。与此同时,英国正在计划所谓的“支持创新”法规。

    —— BBC 、彭博社

  • 美国考虑对中国人工智能芯片出口施加新限制

    美国考虑对中国人工智能芯片出口施加新限制

    《华尔街日报》周二援引知情人士的话报道称,美国正在考虑对向中国出口人工智能芯片实施新的限制。

    受此消息影响,Nvidia 股价在盘后交易中下跌超过 2%,而 AMD 股价下跌约 1.5%。

    报道称,美国商务部最早将于 7 月停止向中国客户运送英伟达和其他芯片公司生产的芯片。

    英伟达(Nvidia)、美光(Micron)和AMD等美国芯片制造商都陷入了中国与拜登政府之间的交火。

    9月,英伟达曾表示,美国官员要求该公司停止向中国出口两款用于人工智能工作的顶级计算芯片。

    几个月后,黄仁勋领导的英伟达表示,将在中国提供一款名为 A800 的新型先进芯片,以满足出口管制规定。该公司还在今年年初调整了其旗舰 H100 芯片以符合法规。

    但报告补充说,该部门正在考虑的新限制措施将禁止在没有美国特殊出口许可证的情况下销售 A800 芯片。

    —— 路透社

  • Google 与 YouTube合作开发人工智能配音工具

    YouTube 集成AI配音工具

    YouTube 在周四的 VidCon 上宣布,目前正在测试一款新工具,该工具将帮助创作者免费使用AI自动将视频配音成其他语言。YouTube 与人工智能配音服务Aloud合作,该服务是 Google 内部孵化器 Area 120 的一部分。

    YouTube 创作者产品副总裁 Amjad Hanif 昨天对观众表示,YouTube 正在与数百名创作者一起测试该工具。很快该公司将向所有创作者开放该工具。Aloud 目前提供英语、西班牙语和葡萄牙语版本。不过,未来将会提供更多语言,例如印地语和印尼语等。

    Hanif 补充说,YouTube 正在“努力使翻译后的音轨听起来像创作者的声音,并具有更多的表情和口型同步。”

    —— Techcrunch

  • GPT-4参数暴露

    硅谷圈黑客爆料 GPT-4 参数

    在AI博客节目 Latent Space 上,George Hotz (iPhone 和 PS3 破解第一人) 爆料 GPT-4 其实只比1750亿参数的 GPT-3 大一些,任何人都能用8倍资金得到它。

    GPT-4 是一个8路混合模型,由8个2200亿参数的专家模型组合而成,OpenAI 使用了不同数据训练了同一个模型8次,然后用了一些技巧使它实际做了 16-iter 推理,混合模型是在没有新想法时所会做的。

    —— Latent Space

  • 蚂蚁金服加速开发大语言模型技术

    马云支持蚂蚁金服开发AI模型

    马云支持的蚂蚁集团正在开发大语言模型技术,为 ChatGPT 类服务提供支持,加入寻求在下一代人工智能领域赢得优势的中国公司行列。

    名为“Zhen Yi”的项目正在由一个专门的部门创建,并将部署内部研究。蚂蚁金服发言人证实了这一消息,该消息由星空网率先报道

    蚂蚁金服正在与其关联公司阿里巴巴集团控股有限公司、百度公司和商汤科技集团公司等公司展开竞争。他们的努力反映了美国的发展,Alphabet Inc. 的谷歌和微软公司正在探索生成人工智能,它可以从中创建原创内容只需简单的用户提示,即可将诗歌转化为艺术。

    人工智能已经成为中美科技竞争的下一个大舞台,引发了人们对中国企业能否长期获得开发大规模人工智能模型所需的高端芯片的担忧。

    —— 彭博社