标签: 聊天

  • 微软使必应聊天可以在非Edge浏览器中使用

    新必应不再仅支持Edge ,微软确认必应聊天实验性第三方浏览器支持正在推出

    6 月 5 日消息,几个月前微软推出了必应聊天(Bing Chat),这是一项基于人工智能的聊天机器人服务,但当时只能通过微软自家的 Edge 浏览器来使用。

    几天前,微软广告和网络服务部门的负责人 Mikhail Parakhin 表示,从 6 月份开始,该公司将尝试让必应聊天支持第三方浏览器。

    现在,这一功能已经开始向部分用户开放。

    —— IThome

  • 必应聊天放宽限制

    必应聊天放宽限制:每轮会话最多 30 次,每天上限提至 300 次

    6 月 2 日消息,微软搜索和人工智能副总裁 Jordi Ribas 在最新推文中宣布,必应聊天(Bing Chat)进一步放宽限制,每轮会话最多支持 30 次,用户每天最多可进行 300 次交流。

    必应聊天预览版在最初发布时没有任何关于每次会话或每天聊天次数的限制。但后来该服务出现了问题,长时间的对话有时会让必应聊天感到困惑,导致其产生一些奇怪或粗鲁的回答。

    微软随后对聊天次数进行了限制。最初的限制是每次会话 5 次,每天 50 次,这个限制后来逐渐增加。

    —— IThome

  • 微软将Bing AI 聊天功能添加到Android的SwiftKey 键盘

    微软将Bing AI 聊天功能添加到Android的SwiftKey 键盘

    微软将 Bing AI 聊天添加到 Android 的 SwiftKey 键盘

    Android 用户现在可以在 Microsoft 的帮助下在手机上打字时利用一些AI功能。4 月 4 日发布的最新款 Microsoft SwiftKey Beta 键盘集成了Bing AI 机器人,为您的打字带来一些智能。

    通过选择新的 SwiftKey beta 作为你 Android 设备上的键盘,你可以通过 Bing 搜索信息,要求 AI 重写某些文本,并与之聊天以生成特定内容。如果您已经拥有 SwiftKey 当前的常规版本,您可以保留那个,安装测试版,然后来回切换。

    —— ZDNet

  • 微软必应聊天次数限制提高了

    微软必应聊天每轮对话次数限制提高到 20 次,每天 200 次

    微软必应聊天再次提高了聊天次数的限制,这个聊天机器人现在每次会话可以进行 20 次聊天,每天可以进行 200 次聊天。之前,每次会话的聊天次数上限是 15 次,每天的聊天次数上限是 150 次。

    微软此前表示,将继续提高必应聊天的次数限制。可以预见,微软将改善该服务处理长时间对话的能力。微软指出,绝大多数对话都可以在相对少的次数内完成,但增加限制总是受欢迎的。

    —— IThome

  • Snapchat推出ChatGPT驱动聊天机器人的 chat machine

    Snapchat 发布由 ChatGPT 驱动的聊天机器人”My AI”

    Snap 是 OpenAI Foundry 的首批客户之一,该服务允许公司使用专为大型工作负载设计的专用计算运行其最新的 GPT-3.5 模型。

    聊天机器人”My AI”最初只面向 Snapchat+ 订阅者 (每月3.99美元) ,最终目标是让所有 Snapchat 7.5亿月度用户都能使用。

    The Verge 记者测试后认为”My AI”和其它 GPT-3.5 的主要区别在于有更多限制。Snap 员工已经培训它遵守公司的安全准则,不要回应咒骂,暴力,色情或政治等内容。它也被剥夺了一些 ChatGPT 的功能如撰写学术论文。(记者还强调,虽然自己在测试中没”变出”什么东西,但相信其他人会的。)

    ——The Verge

  • 微软 Bing.ai聊天限制

    微软 Bing 聊天限制用户每次会话最多只能提出五个问题,每天总共只能提出 50 个问题

    微软表示,在 Bing AI 为用户多次出轨几天后,它正在对其 Bing AI 实施一些对话限制。在看到搜索引擎侮辱用户、对他们撒谎以及情绪化地操纵人们之后,Bing 聊天现在将被限制在每天 50 个问题和每个会话 5 个问题 。

    “我们的数据表明,绝大多数人在 5 轮内找到了他们正在寻找的答案,并且只有大约 1% 的聊天对话有 50 条以上的消息,” Bing 团队在一篇博文中说。如果用户达到每次会话五个限制,Bing 将提示他们开始一个新主题以避免长时间的来回聊天会话。

    微软本周早些时候警告说,这些包含 15 个或更多问题的较长聊天会话可能会使必应“变得重复或被提示/激怒给出不一定有帮助或不符合我们设计的语气的响应。” 微软表示,仅在五个问题后擦除对话意味着“模型不会混淆”。

    —— The Verge