微闻

标签: GPT-4o

  • OpenAI GPT-4o成ChatGPT默认图像生成模型

    OpenAI GPT-4o成ChatGPT默认图像生成模型

    OpenAI在图像生成领域取得重大突破:其人工智能系统GPT-4o现已升级为ChatGPT的默认图像生成模型,取代了之前的DALL-E 3。这一成果是经过与人类培训师一年的合作开发实现的。

    新的GPT-4o版本能够生成更逼真的图像,并且支持文本、视频、音频和图像等多种模态内容的处理。它不仅适用于个人用户,还包括团队版和Pro版等企业级服务,用户可以免费体验这一功能。值得注意的是,该模型尤其擅长创建清晰段落化的文本内容。

    GPT-4o去年首次亮相时就被视为当时最先进的人工智能模型之一,并因其多模态能力而备受关注。如今经过升级优化后,它使得消费者和企业能够更便捷地生成高质量图像,甚至可以用于制作公司徽标和幻灯片等专业需求。

    这一技术突破是生成式人工智能快速发展的缩影。自2020年以来,以ChatGPT和生成扩散模型为代表的人工智能技术取得了显著进展,不仅推动了技术进步,也为经济和社会发展带来了深远影响。

    可以预见,在OpenAI的持续探索下,生成式人工智能将在更多领域展现其潜力,为人类社会创造更大价值。

  • OpenAI将推出企业可定制GPT-4o

    OpenAI 将允许企业定制其最强大的 AI 模型

    OpenAI 将发布一项新功能,允许企业客户用自己公司的数据对 OpenAI 最强大的模型 GPT-4o 进行定制化处理。OpenAI 计划周二推出定制功能,在人工智能行业,这通常被称为“微调”。微调允许现有的人工智能模型接受关于特定类型任务或主题领域的额外信息训练。这个功能是 OpenAI 旗舰大语言模型的新功能,之前企业客户对 GPT-4o 或其前身 GPT-4 无法进行微调。要微调模型,客户必须将数据上传到 OpenAI 的服务器。负责定制的 OpenAI 软件工程师约翰·阿拉德表示,培训平均需要一两个小时。最初用户将只能使用基于文本的数据来微调模型,不能用图像或其他内容。

    —— 彭博社

  • OpenAI推出GPT-4o语音模式

    OpenAI向部分用户开放GPT-4o语音模式

    当地时间7月30日,人工智能公司 OpenAI 宣布,即日起开始向部分 ChatGPT Plus 用户推出 GPT-4o 的语音模式。据介绍,高级语音模式能提供更自然的实时对话,允许用户随时打断,并能感知和响应用户的情绪。实时响应和可打断对话是目前语音助手公认的技术难点。OpenAI 在今年5月推出了新版本大模型 GPT-4o,同时还展示出了语音模式。该公司原定于6月底开始逐步向用户开放语音模式,但最终决定推迟至7月发布。语音模式将于今年秋季向所有 ChatGPT Plus 用户开放。目前 GPT-4o 语音模式可使用四种预设声音,Juniper、Breeze、Cove 和 Ember,这些声音是与付费配音演员合作制作的。

    —— 财联社、TheVerge、Techcrunch

  • OpenAI 推出 GPT-4o Mini 模型

    OpenAI 推出 GPT-4o Mini 模型

    OpenAI 将于周四晚些时候推出一款新的 AI 模型“GPT-4o mini”,该公司称新发布的模型是“当今最强大、最具成本效益的小型模型”,这款迷你 AI 模型是 GPT-4o 的一个分支,并计划稍后将图像、视频和音频集成到其中。

    GPT-4o mini 将于周四晚些时候向 ChatGPT 免费用户以及 ChatGPT Plus 和 Team 订阅者开放,并将于下周向 ChatGPT Enterprise 用户开放。

    —— CNBC

  • GPT-4o中文语料训练数据被赌博诈骗和色情内容污染

    GPT-4o的中文语料训练数据被赌博诈骗和色情内容污染

    OpenAI 发布 GPT-4o 后不久,一些中文用户开始注意到这个最新版本的聊天机器人似乎有些不对劲,它用来解析文本的词块充满了垃圾内容和色情短语。人类以单词为单位进行阅读,而 LLM 则以词块(Token)为单位进行阅读,词块是句子中的不同单位,具有一致且重要的含义。模型编码的词块越多,“读取 ”句子的速度就越快,消耗的计算能力就越少,从而降低了响应的成本。

    多名研究过 GPT-4o 使用的新词块库的研究人员表示,中文里最长的词块几乎都是用于色情、赌博和诈骗的垃圾词。甚至更短的词块,例如三个字长的中文单词,也在很大程度上反映了这些主题。

    “问题很明显,用于训练[分词器]的语料库不干净。英文词块看起来不错,但中文词块就不行了,”普林斯顿大学的蔡天乐说。语言模型在收集训练数据时抓取垃圾信息的情况并不罕见,但通常会在使用数据之前花费大量精力来清理数据。 “他们可能没有对中文进行适当的数据清理,”他说。

    —— 麻省理工科技评论 (节选)