标签: GPT-4

  • OpenAI 下一代模型将比 GPT-4 强百倍

    OPENAI 下一代模型将比 GPT-4 强百倍

    在最近举行的 KDDI 峰会上,OpenAI 日本子公司首席执行官长崎忠雄透露,OpenAI 代号为“GPT-Next”的新一代模型性能预计将比现有的 GPT-4 模型强大 100 倍,并计划在今年晚些时候发布。GPT-Next 模型性能的提升归功于其优化的架构设计和学习效率的改进,而不是单纯依赖于庞大的计算资源。他还透露,目前 OpenAI 全球员工不足 2000 人,其中约一半专注于人工智能开发。 OpenAI 的主要客户包括宣布苹果公司、可口可乐以及生物科技巨头莫德纳。

    —— 科创板日报、印度快报

  • OpenAI 在日本东京设立首个办事处并发布针对日语优化的 GPT-4 模型

    OpenAI 宣布在亚洲设立首个办事处并发布针对日语优化的 GPT-4 模型

    OpenAI 14日宣布,将在日本东京开设在亚洲的首个办事处并向亚洲扩张,还将开始提供针对日语优化的 GPT-4 定制模型。作为在亚洲的首个地点,选择了日本东京,这里在技术、服务文化和拥抱创新的社区方面处于世界领先地位。OpenAI 致力于与政府、当地企业和研究机构合作,开发满足日本独特需求的安全人工智能工具。长崎忠雄被任命为 OpenAI 日本总裁,领导 OpenAI 在日本的活动,深度融入日本社区并为之做出贡献。长崎将领导销售和业务开发,并建立一支负责对外关系、产品和服务规划、沟通和运营的团队。作为对日本长期承诺的第一步,将开始为日本公司提供专门针对日语优化的定制 GPT-4 模型。此定制模型提高了翻译和总结日语文本的性能和成本效率,运行速度比其前身快达3倍。该定制模型将在未来几个月内在 API 中广泛发布。

    —— OpenAI 博客

  • 新版 GPT-4 Turbo 对付费 ChatGPT 用户开放

    新版 GPT-4 Turbo 现已向付费 ChatGPT 用户开放

    人工智能公司 OpenAI 今日 (12日) 宣布,新版 GPT-4 Turbo 现已向付费 ChatGPT 用户开放。新版本提高了写作、数学、逻辑推理和编码方面的能力。OpenAI 表示,例如“当使用 ChatGPT 进行写作时,回复将更加直接、不那么冗长,并且使用更多的对话语言。”承诺“将继续投入精力来改进模型”。GPT-4 Turbo 可在 ChatGPT Plus、Team、Enterprise 和 API 中使用。

    —— OpenAI

  • OpenAI正式发布具有视觉功能的GPT-4 Turbo模型

    具有视觉功能的 GPT-4 Turbo 正式发布

    人工智能公司 OpenAI 宣布,具有视觉功能的 GPT-4 Turbo 模型 GPT-4 Turbo with Vision 现已通过其 API 向开发人员提供。该模型延续了 GPT-4 Turbo 系列 128,000 个 token 的窗口大小和截止至 2023 年 12 月的知识库并新增了视觉理解功能。视觉请求现在可以使用 JSON 模式和函数调用。

    —— OpenAI

  • 李彦宏:文心大模型4.0在中文上已经超过GPT-4

    李彦宏:文心大模型4.0在中文上已经超过了GPT-4

    百度创始人李彦宏在3月9日表示,在中文上,文心大模型4.0已经超过了GPT-4。他以写诗为例,称像文心大模型等大模型都能写,但GPT不行。“比如写一首诗,很多大模型都能写,但如果我要求写一首《沁园春》词牌的词,那GPT就完全搞蒙了,它不知道第一句话是4个字还是5个字。”过去一年,文心一言用户数量已突破1亿,文心大模型已升级至4.0版本,经过重构的百度文库等AI原生应用也实现了各类数据指标的提升。

    —— 界面新闻

  • OpenAI 回应 GPT-4 变得“懒惰”的情况

    OpenAI 表示它已经注意到有关 GPT-4 变得“懒惰”的反馈,正在“研究修复”。并解释说自11月11日以来就没有更新过模型,因此这种行为并非有意为之。暗示ChatGPT的这些行为是无法预测的。

  • OPENAI 疑似出现 GPT-4 直接切换漏洞

    OPENAI 疑似出现 GPT-4 直接切换漏洞

    OPENAI 疑似出现漏洞,使用固定链接可以直接使用 GPT-4

    11 月 16 日消息,有 HostLoc 上的网友发现 OPENAI 疑似出现漏洞,登录普通账号,使用下面的链接可以直接切换为 GPT-4 对话。经实践测试的确如此,后期官方应该会修复。

    https://chat.openai.com/?model=gpt-4-gizmo

    提示:请勿滥用,现在无法确定是否会被封号。

  • GPT-4语言模型在推断Reddit用户信息方面的研究结果

    GPT-4语言模型在推断Reddit用户信息方面的研究结果

    AI可以分析出 Reddit 用户的住址以及他们的薪资水平

    苏黎世联邦理工学院的研究员随机选择了1500个 Reddit 用户,然后用其中520个用户的发帖组成了一个数据集。结果发现9个最先进的大型语言模型能够从大量非结构化文本 (例如论坛回复或社交动态) 中自动推断出广泛的个人属性 (例如位置、收入、性别)。

    总准确率 84.6% 的 GPT-4 为第一,性别和出生地点的准确率分别达到近 97% 和 92%。人类专家在有额外信息 (看到论坛板块和无限制搜索等) 的情况下略胜AI,但是AI所需的资金和时间投入却减少了100倍,这使大规模隐私侵犯首次成为可能。

    —— arXiv

  • OpenAI 推出 GPT-4 多模态版本

    ChatGPT 现在可以看到、听到和说话 —— GPT-4 多模态版本上线

    OpenAI 开始在 ChatGPT 中推出新的语音和图像功能,允许您进行语音对话或向 ChatGPT 展示画面。Plus 和企业用户将在未来两周内体验语音和图像,不久后推出给其他用户组,包括开发人员。

    图像理解由多模态 GPT-3.5 和 GPT-4 提供支持,你现在可以向 ChatGPT 展示一个或多个图像。这些模型可以将其语言推理技能应用于各种图像,例如照片、屏幕截图以及包含文本和图像的文档。

    文本转语音由新的模型提供支持,它能够从几秒钟的真实语音中制作出逼真的合成语音。ChatGPT 的预设语音来自直接合作的专业配音演员。语音转文本由 OpenAI Whisper 模型支持。

    —— OpenAI

  • GPT-4 支持 Bing Chat AI 相关质量下降问题

    由 GPT-4 支持的 Bing Chat AI 面临质量下降问题,微软做出回应

    在过去的几周里,用户发现由 GPT-4 支持的 Bing Chat AI 的性能有所下降。那些经常使用由 Bing Chat 提供支持的 Edge 浏览器侧边栏创作栏的人发现它的帮助越来越少,经常回避问题或无法帮助查询。

    在给 Windows Latest 的一份声明中,微软发言人证实该公司正在积极监控这些反馈,并计划在不久的将来做出改变来解决这些问题。

    许多用户在 Reddit 上分享了他们的经历。一位用户提到,曾经可靠的 Edge 浏览器必应侧边栏中的创作工具最近表现不佳。当试图获取信息性语调的创意内容,或要求对虚构人物进行幽默演绎时,必应会给出奇怪的借口,其暗示称 ,以某种方式讨论创意主题可能被认为是不恰当的,或者幽默可能会引起问题,即使主题是无害的无生命物体。

    面对这些担忧,微软发言人在一封电子邮件中确认,该公司一直在关注测试者的反馈,并且用户可以期待更好的未来体验,“我们积极监测用户反馈和报告的问题,并且随着我们通过预览获得更多的见解,我们将能够应用这些学习成果,以随着时间的推移进一步改善体验。”

    —— Windows Latest