Opera 成为首个内置本地 AI 模型的浏览器
当地时间4月3日,Opera 宣布将在开发者流中为其 Opera One 浏览器中添加对来自大约50个模型系列的150个本地 LLM (大型语言模型) 变体的实验性支持。此举标志着首次可以通过内置功能从浏览器轻松访问和管理本地 LLM。本地 AI 模型是 Opera 在线 Aria AI 服务的免费补充。支持的本地 LLM 包括:Meta 的 Llama、Vicuna、谷歌的 Gemma、Mistral AI 的 Mixtral 等。使用本地大型语言模型意味着用户的数据保存在本地设备上,使他们能够使用生成式人工智能,而无需将信息发送到服务器。
—— Opera 新闻稿