标签: 人工智能

  • 纽约时报禁止使用其内容来训练人工智能模型

    纽约时报禁止使用其内容来训练人工智能模型

    《纽约时报》已采取先发制人的措施,阻止其内容被用于训练人工智能模型。据 Adweek 报道,《纽约时报》于 8 月 3 日更新了服务条款,禁止将其内容(包括文字、照片、图像、音频/视频剪辑、“外观和感觉”、元数据或汇编)用于开发“任何软件程序,包括但不限于训练机器学习或人工智能(AI)系统。”

    更新后的条款还规定,未经出版物的书面许可,不得使用旨在使用、访问或收集此类内容的网站爬虫等自动化工具。《纽约时报》表示,拒绝遵守这些新限制可能会导致未具体说明的罚款或处罚。尽管在其政策中引入了新规则,但该出版物似乎并未对其 robots.txt 进行任何修改,该文件用于告知搜索引擎爬虫哪些 URL 可以访问。

    —— The Verge

  • ChatGPT 的编程问题回答正确率较低

    ChatGPT 的编程问题正确率比抛硬币还低

    普渡大学的一项研究显示,OpenAI 的聊天机器人 ChatGPT 在回答软件编程问题时,有一半以上的时间会回答错误。尽管如此,该机器人的说服力足以骗过三分之一的参与者。

    普渡大学团队分析了 ChatGPT 对 517 个 Stack Overflow 问题的回答,以评估 ChatGPT 回答的正确性、一致性、全面性和简洁性。美国学者还对答案进行了语言和情感分析,并就模型生成的结果询问了十几名志愿参与者。

    “我们的分析表明,52% 的 ChatGPT 答案是错误的,77% 是冗长的,”该团队的论文总结道。“尽管如此,ChatGPT 答案仍有 39.34% 的时间因其全面性和清晰的语言风格而受到青睐。”

    “在研究过程中,我们观察到,只有当 ChatGPT 答案中的错误很明显时,用户才能识别出错误,”论文中说到。“然而,当错误不容易验证或需要外部 IDE 或文档时,用户往往无法识别错误或低估答案的错误程度。”

    论文称,即使答案存在明显错误,12 名参与者中仍有两人将答案标记为首选。

    —— Theregister 、 论文

  • 人工智能模型缺乏新鲜真实数据可能会产生糟糕的结果

    研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

    斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。

    这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。

    研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。

    如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

    —— petapixel

  • 人工智能行业应对版权保护问题

    多家新闻机构签署并发布了一封公开信,呼吁提高人工智能的透明度并加强版权保护。

    多家媒体组织呼吁制定规则,保护用于训练生成人工智能模型的数据的版权。

    这封公开信敦促全球立法者考虑制定法规,要求训练数据集透明,并在使用数据进行训练前征得权利人的同意。他们还要求允许媒体公司与人工智能模型运营商进行谈判,识别人工智能生成的内容,并要求人工智能公司消除其服务中的偏见和错误信息。

    这些签署者表示,使用媒体内容训练的基础模型在传播信息时“完全没有考虑原始创作者的报酬或归属”。

    信中写道:“这种做法破坏了媒体行业的核心商业模式,这些模式是建立在读者和观众(如订阅)、许可和广告基础上的。”“除了违反版权法之外,由此产生的影响还减少媒体的多样性,并削弱公司投资媒体报道的财务可行性,进一步降低公众获取高质量和可信任信息的途径。”

    —— theverge

  • ChatGPT 自定义指令免费服务限期

    ChatGPT 自定义指令免费服务限期

    简讯:OpenAI 发布推文称,自定义指令现在适用于免费计划的 ChatGPT 用户,但欧盟和英国除外。

    ——OpenAI

  • OpenAI 关于自定义指令的更新

    OpenAI 关于自定义指令的更新

    简讯:OpenAI 发布推文称,自定义指令现在适用于免费计划的 ChatGPT 用户,但欧盟和英国除外。

    ——OpenAI

  • tiktok对人工智能生成的内容加强了标签要求

    tiktok对人工智能生成的内容加强了标签要求

    TikTok向创作者明确表示,任何人工智能生成的内容都必须带有标签,否则就会被删除。

    TikTok向创作者明确表示,任何人工智能生成的内容都必须带有标签。

    新的标签功能使创作者可以更轻松地披露他们的帖子是否包含 AI 制作的内容。上传视频时,现在可以在“更多选项”下找到标有“AI 生成内容”的切换开关。

    在切换开关下,TikTok 写道,该标签将有助于防止“内容删除”,并表示该平台可能会删除未标记的内容。目前该切换开关正在测试中,只有部分用户收到更新。

    —— mashable

  • OpenAI允许阻止其网络爬虫

    OpenAI 现允许网站阻止其网络爬虫抓取数据,避免数据被用于训练 AI 模型

    OpenAI 在其博客文章中表示,网站运营者可以通过在其网站的 Robots.txt 文件中禁止 GPTBot 的访问,或者通过屏蔽其 IP 地址,来阻止 GPTBot 从其网站上抓取数据。

    GPTBot是OpenAI的网络爬虫,可以通过以下用户代理和字符串来识别。
    User agent token: GPTBot
    Full user-agent string:
    Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; GPTBot/1.0; +https://openai.com/gptbot)

    禁止 GPTBot
    User-agent: GPTBot
    Disallow: /

    自定义 GPTBot 访问
    User-agent: GPTBot
    Allow: /directory-1/
    Disallow: /directory-2/

    IP 出口范围
    40.83.2.64/28

    —— OpenAI

  • OpenAI vs Open Artificial Intelligence

    OpenAI 起诉“open.ai”域名所有者侵犯商标权

    OpenAI Inc.对一家使用 “Open Artificial Intelligence “名称的公司提起诉讼,该公司拥有域名 www.open.ai,称该名称侵犯了 OpenAI 的商标权并造成消费者混淆。

    诉状称,Open Artificial Intelligence 及其总裁 Guy Ravine 正在欺骗消费者,让他们误以为该公司与 OpenAI 及其 ChatGPT 等热门产品有关。

    根据投诉内容,Open Artificial Intelligence在OpenAI Inc.于2015年确立自己的品牌后,采用了“Open AI”这个名称。这一行为对OpenAI Inc.试图在美国专利商标局注册自己的商标产生了负面影响。Open Artificial Intelligence提出自己的申请,阻碍了OpenAI在这方面的进展。

    通过这起诉讼,OpenAI Inc.寻求保护其商标,并反对Open Artificial Intelligence制造的误导性联系。目的是避免导致消费者困惑,及对OpenAI作为人工智能领域领导者的声誉造成潜在损害。

    通过法律行动,OpenAI希望保护其名称和多年来建立的知名品牌。

    —— 彭博社

  • 微软人工智能Bing Chat即将进入第三方浏览器

    微软人工智能 Bing Chat 即将登陆移动设备上的第三方浏览器

    微软即将将其人工智能驱动的 Bing Chat 引入移动设备上的第三方浏览器。虽然自 2 月底以来Bing Chat 已在单独的 Android 和 iOS 移动应用程序中提供,但没有开放给第三方浏览器。

    Bing Chat 于 2 月份首次推出,但仅限于微软自己的 Edge 浏览器。作为测试完整第三方浏览器支持的一部分,微软于 7 月底开始向 Chrome 和 Safari 桌面浏览器开放。

    Bing 团队在博客文章中表示:“Bing 现已拥有如此多新的、有用的功能,我们很高兴地宣布,你很快就可以开始在网页和移动设备上的第三方浏览器中体验新的人工智能驱动的 Bing。”

    由 Bing Chat 提供支持的Windows Copilot也即将登陆 Windows 11。微软目前正在让 Windows 11 测试通道中的用户测试这个侧边栏,看起来它可能会在今年晚些时候向所有 Windows 11 用户推出。

    —— The Verge 、bing博客