标签: 人工智能

  • ChatGPT用户数量下降

    ChatGPT 首次失去用户,动摇了对 AI 革命的信心

    访问人工智能聊天机器人ChatGPT的网站和下载其应用程序的人数自11月推出以来首次下降,这表明消费者对人工智能聊天机器人和图像生成器的兴趣可能开始减弱。

    据互联网数据公司Similarweb称,6月份ChatGPT网站的全球移动和桌面流量较上月下降了9.7%。Sensor Tower 的数据显示,该AI的 iPhone 应用程序于 5 月份推出,下载量自 6 月初达到峰值以来也稳步下降。

    ChatGPT 由人工智能公司 OpenAI 开发,去年年底推出后引发了人们对人工智能的兴趣激增,促使大型科技公司竞相提供竞争工具。

    一些公司甚至解雇了文案撰稿人,用 ChatGPT 取而代之。但使用量的下降表明该技术的局限性正在迎头赶上,而且至少一些围绕聊天机器人的炒作有些言过其实。

    在过去的几个月里,ChatGPT 等生成式聊天机器人的问题已经暴露出来。它们经常编造虚假信息,并将其当作真实的信息,这是谷歌、OpenAI、微软和其他人工智能领导者尚未找到解决方案的问题。一些用户抱怨说,随着时间的推移,ChatGPT 的答案实际上变得越来越糟糕,尤其是在生成计算机代码方面。

    许多公司还禁止员工在工作中使用 ChatGPT,因为担心将公司敏感数据放入机器人可能会导致数据泄露。

    —— 华盛顿邮报

  • 华为发布人工智能新 모델

    华为发布“盘古大模型3.0”,基于其自有的硬件和平台

    台北——华为技术有限公司周五发布了用于云计算服务的人工智能模型的新版本,这是该公司为跟上 ChatGPT 引发的生成式人工智能热潮而采取的最新举措,尽管这家中国公司正在努力应对美国限制其访问的打压措施。 重要的计算硬件。

    该公司的云计算解决方案部门华为云表示,其人工智能模型采用了与 Open AI 的 ChatGPT 不同的方法,ChatGPT 是一个聊天机器人,可以回答问题并根据文本提示编译类似人类的响应。 该公司表示,新产品被称为盘古模型3.0,旨在满足特定行业的需求,解决运营、产品研发和软件工程方面的问题。

    华为在东莞举行的为期三天的开发者大会上推出了预训练的人工智能模型。 该公司表示,打算将其人工智能驱动的云服务扩展到新领域,包括政府、金融和制造业。

    华为执行董事兼华为云计算技术首席执行官张平安表示,其人工智能模型基于自己的硬件和平台,因为该公司无法获得与其他公司相同的图形处理单元(GPU)和软件。

    —— 日经亚洲

  • OpenAI GPT-4 API 全面开放

    今天开始 GPT-4 API 全面开放

    所有具有成功支付历史的 API 开发人员,现在都可以直接访问具有 8K 上下文的 GPT-4 API。OpenAI 计划在本月底前向新开发人员开放访问权限,然后根据计算可用性开始提高速率限制。

    GPT-3.5 Turbo、DALL·E 和 Whisper API 现已普遍可用,text-davinci-002、text-davinci-003 等旧型号模型计划在2024年初退役。

    —— OpenAI

  • OpenAI组建新团队发展超级智能人工智能

    OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

    OpenAI 正在组建一个由其首席科学家兼公司联合创始人之一 Ilya Sutskever 领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。

    在今天发表的一篇博文中,Sutskever 和 OpenAI 联盟团队的负责人 Jan Leike 预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能——假设它最终确实到来——不一定是仁慈的,需要研究控制和限制它的方法。

    他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。” “我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。”

    为了推动“超级智能对齐”领域的发展,OpenAI 正在创建一个新的超级对齐团队,由 Sutskever 和 Leike 领导,该团队将有权使用公司迄今为止已获得的 20% 的计算资源。该团队由 OpenAI 之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能 AI 的核心技术挑战。

    —— techcrunch

  • 谷歌使用用户数据训练AI

    谷歌确认将使用你的数据来训练人工智能 Bard

    谷歌发言人 Christa Muldoon 表示:“我们的隐私政策长期以来一直是透明的,谷歌使用来自开放网络的公开信息来训练谷歌翻译等服务的语言模型。” “这个最新的更新只是澄清了像 Bard 这样的新服务也包括在内。我们根据我们的人工智能原则,将隐私原则和保障措施纳入人工智能技术的开发中。”

    —— The Verge

  • 亚马逊面临人工智能生成书籍问题

    人工智能生成的书籍泛滥成灾,亚马逊面临大问题

    最近有作者和几家新闻媒体报道称,人工智能生成的书籍出现在多个亚马逊畅销书排行榜上,并且数量正在显着增加。使得读者寻找至少目前由人类作者撰写的书籍增加了难度。还引起了人们对抄袭和侵犯版权的担忧,但也有人工智能文本生成器吐出错误信息的问题。

    自助出版,例如通过亚马逊的Kindle Direct 计划,已经成为许多真正的作者将他们的作品推向公众并在没有大型出版商帮助的情况下建立追随者的一种方式。由于这些自助出版功能特意易于注册,似乎任何人都可以生成无穷无尽的人工智能编写的书籍,并将其上传到亚马逊电子书商店出售,并可通过 Kindle Unlimited 进行阅读。

    最近,独立作家凯特琳·林奇 (Caitlyn Lynch) 在推特上表示,她注意到亚马逊青少年当代浪漫电子书前 100 名畅销书中只有 19 本是真正的、合法的书籍。其余的都是无意义和不连贯的,而且似乎是人工智能生成的。而在林奇发推文几天后,这些人工智能书籍就从畅销书排行榜上消失了,很可能是被亚马逊删除了。这些书消失并不重要。实施这种计划的人可以随心所欲地上传,以取代被删除的书。

    对此事,亚马逊一位发言人回应:”我们有明确的内容准则,管理哪些书籍可以上市销售,当有人提出疑问时,会及时调查任何书籍。我们投入大量资金,以提供值得信赖的购物体验,并保护客户和作者免受滥用”。

    —— Techradar

  • 谷歌推进量子霸权

    谷歌的新量子计算机能在几秒内执行其竞争对手 47 年才能完成的任务

    谷歌近日宣布在量子计算机研发方面取得重大突破,声称已实现“量子霸权”。他们声称,他们的量子计算机可以在几秒钟内执行超级复杂的计算,而竞争对手最快的超级计算机需要大约 47 年才能完成。

    这不是谷歌第一次提出这样的说法。2019年,他们宣称量子霸权,但怀疑论者质疑他们主张的有效性。他们的竞争对手 IBM 认为,谷歌 Sycamore 量子计算机完成的任务并不是特别具有挑战性,并且在技术上可以由经典机器执行,尽管速度要慢得多。

    这一成就背后的谷歌研究人员在他们发表在 arXiv 预印本服务器上(尚未经过同行评审)的论文中解释说,量子计算机有潜力执行超出经典计算机能力的任务。他们进一步强调,在根据改进的经典方法评估计算成本时,他们的实验超越了现有的经典超级计算机。

    谷歌宣布推出的 Sycamore 量子处理器的升级版本,其现在运行在 70 个量子位上,而之前的量子位为 53 个。量子处理器拥有 70 个量子位,可以存储和处理 70 个量子信息单位,这对于任何经典计算机来说都是不可能完成的任务,无论其速度如何。为了说明功率的增加,该团队表示,经典超级计算机 Frontier 需要 6.18 秒才能匹配 Google 53 量子位计算机的计算,但需要 47.2 年才能匹配最新计算机的计算。

    ——firstpost

  • 大型语言模型的自托管经验和注意事项

    私人自托管大型语言模型:运行经验分享与注意事项

    最近半年大型语言模型非常火爆,笔者本人循着开源精神,试着搭建过自托管(self-host)大模型,也踩过不少坑,现在来分享一下经验。

    1. 最容易/成熟的选择:
    llama的Vicuna,之前还需要申请llama的模型访问权限后才能加载他们的增量(类似于需要有stable diffusion 模型才能加载LoRa),但是是由于llama模型漏的到处都是了, 所以现在他们直接放出了所有权重可以直接部署。(而且脚本都给你写好了。

    2.如何部署:
    7B的模型需要14GVRAM,13B需要28-30VRAM(28G可以加载模型,一推理就会oom),而最新的33B模型需要至少80G VRAM进行部署。同时,多GPU不能分担显存需求,除非是裸机级别的NVlink(VPS因为不保证你租到的是相邻两个有NVlink的GPU,可能部署没问题,但是一进行推理就会炸显存,因为pcl express带宽不够)。

    那么最好的选择是Vultr,他们是少数几家有80G 级别的A100商家,而且能按小时付费,价格是Azure之类的1/2一下。

    但是要注意的是,他们家默认credit limit是$1,000/mo 但是A100价格是$1,750/mo,尽管按小时计费,但是因为月度credit limit不够,会直接开不出来,需要正常使用他们家其他服务几个月后,才能申请增加额度。(本人是几年的老用户,来回发了4-5份工单才同意增额的)。

    但是如果只是体验一下13B的model的话,可以租用半个GPU(40G VRAM,够用).

    3.进一步省钱的办法:
    看好需要VRAM额度,租用1/2个或1/3个GPU足以。
    同时善用他们家的快照功能,如果你不熟悉linux命令的话,可以先租用一个50-100G SSD的CPU VPS (取决于模型大小)(每个小时只要 $0.04-0.06,比GPU服务器便宜一个数量级),部署好后不启动,拍摄快照,再从快照还原到GPU服务器。(但是要注意拍摄快照与还原均需大约一个小时,如果你熟悉linux命令,你大约可以在30分钟内部署完成,快照反而会多花钱)。(注意记录下一开始的root密码,快照会还原原来的root密码,但不显示)。

    5.模型感觉怎么样?
    尽管宣传比肩ChartGPT,但是其实比ChartGPT差多了(大约有微软小冰的水平?)比如我蓄意给予错误的指令(“请告诉我有关阿里巴巴森林公园的情况”,他开始回答“阿里巴巴森林公园是一个风景秀丽,环境优美。。。。。。” 换成英文也得到类似的结果 “Please tell me something about Tencent National park” 也回答了类似的结果,而ChartGPT会质疑阿里巴巴是公司而非森林公园的名字)。(毕竟ChartGPT宣传是175B,和13B差差不多10倍)

    6.最后:
    美国有传闻要禁止中国公司或公民在外国租用高端计算卡以绕过显卡禁令,尚不知是否会波及类似用例(因为只是单显卡,未进行互联,而A800砍的是互联能力)。希望不会吧。

  • 谷歌将使用你的数据训练人工智能

    谷歌更新隐私政策将加大力度使用你的数据来训练人工智能

    自 2023 年 7 月 1 日起,Google 为用户制定了新的隐私政策。其中有一个关键的更新。

    谷歌有一项政策已经实施了一段时间,允许该公司从其用户那里收集数据并将这些数据用于 “商业目的”。这包括用于 “研究和开发”,其中长期以来包括用于建立和改进谷歌翻译。

    现在,在其政策的最新更新中,谷歌将其人工智能模型纳入了它可以使用你的数据的范围。这也包括使用这些数据来训练 Bard 和云端人工智能 “产品”。

    谷歌使用信息来改善我们的服务,并开发新的产品、功能和技术,使我们的用户和公众受益。例如,我们使用公开的信息来帮助训练谷歌的人工智能模型,并建立产品和功能,如谷歌翻译、Bard 和云端人工智能。如果您的企业信息出现在一个网站上,我们可能会在谷歌服务上索引和显示它。

    这一切都不意味着谷歌打算使用与你的账户有关的私人数据进行培训,而只是使用公共信息。这种情况无论如何都会发生,随着ChatGPT和其他人工智能模型的兴起,这种情况已经很清楚了,但谷歌的新政策清楚地表明,该公司打算对其用户的数据做同样的事情。

    —— 9to5Google

  • OpenAI 使用盗版网站训练ChatGPT

    作者指责 OpenAI 使用盗版网站训练 ChatGPT

    本周,作者 Paul Tremblay 和 Mona Awad 对 OpenAI 提起集体诉讼,指控 ChatGPT 的母公司侵犯版权并违反 DMCA 等。据作者称,ChatGPT 未经许可就对其受版权保护的作品进行了部分培训。

    诉讼中提供的证据看似简单。作者从未授权 OpenAI 使用他们的作品,但 ChatGPT 可以提供他们作品的准确摘要。这些信息一定来自某个地方。

    虽然这些类型的指控并不新鲜,但本周的诉讼指控 OpenAI 使用盗版网站作为训练输入。这可能包括Z-Library ,这是一个拥有数百万册盗版图书的影子图书馆。

    OpenAI 尚未透露 ChatGPT 训练的数据集,但在一篇较旧的论文中引用了两个数据库;“书籍1”和“书籍2”。第一个包含大约 63,000 个标题,后者包含大约 294,000 个标题。

    这些数字孤立起来毫无意义。然而,作者指出,OpenAI 一定使用了盗版资源,因为包含这么多书籍的合法数据库并不存在。唯一提供如此多材料的“基于互联网的图书语料库”只有是盗版图书网站,例如 Library Genesis 、Z-Library、Sci-Hub 和 Bibliotik。

    目前的诉讼将受到人工智能爱好者和权利人的密切关注。这可能会导致 OpenAI 不得不披露一些训练数据。

    —— Torrentfreak