人工智能公司正在转向“小型”语言模型以获利
投入数十亿美元构建所谓的大型语言模型以推动生成式人工智能产品的人工智能公司,现在正寄望于一种新的收入增长方式:小型语言模型。苹果、微软、Meta 和谷歌最近都发布了新的人工智能模型,这些模型的“参数”较少,但功能仍然强大。
通常来说,参数的数量越多,人工智能软件的性能就越好,能处理的任务也就越复杂和微妙。本周公布的 OpenAI 的最新模型 GPT-4o 和谷歌的 Gemini 1.5 Pro,据估计都拥有超过1万亿个参数。而 Meta 正在训练其开源 Llama 模型的4000亿参数版本。
除了努力说服一些企业客户支付运行生成式人工智能产品所需的大额费用外,对数据和版权责任的担忧也阻碍了其广泛应用。这促使像 Meta 和谷歌这样的科技集团推出只有几十亿参数的小型语言模型,作为更经济、更节能、可定制的替代方案,这些模型在训练和运行时所需的电力更少,同时还能保护敏感数据。
—— 金融时报(全文截图)
发表回复