就在刚刚,Google 正式发布了全新开源多模态 AI 大模型——Gemma 3!作为 Gemma 系列的最新版本,它不仅带来了性能上的全面升级,还加入了许多令人惊艳的新特性。话不多说,咱们一起来看看这款 AI “新星”到底有多强,以及如何轻松把它部署到你的本地设备上!
Gemma 3 性能有多强?吊打 Llama 3 和 Deepseek V3!
先来看看硬核数据。在最新的“大语言竞技场”榜单上,Gemma 3 的 27B 参数中等模型表现尤为抢眼。在初步评估中,它以 1338 分的评分,直接击败了参数高达 405B 的 Llama 3 和 671B 的 Deepseek V3。甚至连目前热门的 o3 mini也被它甩在身后。更夸张的是,27B 的 Gemma 3 在性能上几乎能媲美 671B 的 Deepseek R1 满血版,两者评分仅相差 25 分左右。
这意味着什么?Deepseek R1 满血版是个庞然大物,671B 参数需要 8 张 H100 GPU 才能跑得动,普通用户基本无缘本地部署。而 Gemma 3 27B 来说,对于单显卡有着更好的适配和运行,简直是性价比和实用性的完美结合!
Gemma 3 家族:多模态 + 超长上下文,开发者福音
Gemma 3 这次一共推出了四个模型:1B、4B、12B 和 27B,分别提供预训练的基础模型和指令调整版,开发者可以根据需求灵活选择。关键是,除了 1B 版本外,其他版本都支持多模态能力,不仅能处理文本,还能分析图像甚至短视频!
Gemma 3 的上下文理解能力也得到了大幅提升。1B 版本的上下文窗口从 8K 扩展到了 32K,其他版本更是直接飙升到 128K!
而且,它还支持 140 多种语言,彻底打破语言壁垒,让全球用户都能自然交互。
本地部署教程:两步搞定 Gemma 3
想要体验 Gemma 3 的强大功能?本地部署其实很简单。
下面是具体步骤:
第一步:下载并安装 Ollama 客户端,前往 Ollama 官网【点击前往】,点击下载客户端。Ollama 支持 Llama 3、Deepseek R1、Mistral 等模型,当然也包括最新的 Gemma 3。
根据系统选择对应版本(macOS、Linux、Windows 都支持),我用的是 Windows,直接下载 Windows 版,大小约 0.9G。
下载完成后,双击安装包,点击“Install”完成安装。如果之前装过 Ollama,这一步可以跳过。
第二步:安装 Gemma 3 模型
以下是对应模型的安装命令:
ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b
普通用户建议选 4B 或 12B(显存 12G 左右选 12B,显卡好的可以直接上 27B)。
在 Windows 搜索栏输入“CMD”打开命令提示符,右键粘贴刚才复制的命令(比如安装 12B 版本)。
按回车开始下载,12B 模型约 8G,27B 约 17G。注意:这里需要魔法,否则下载会失败。
下载完成后,模型就绪!比如我输入“你好,请自我介绍一下”,它立刻回应:“你好,我是 Gemma 3,由 Google DeepMind 训练的开源 AI 助手……”
进阶玩法:浏览器插件调用多模态能力
终端用着不方便的话,咱们还能通过浏览器插件调用 Gemma 3,体验它的多模态功能。下载一个支持本地 AI 模型的 WebUI 插件【点击前往】,安装到 Chrome 或 Edge 浏览器。
打开插件,左侧选择刚安装的 Gemma 3 模型(比如 12B),下方开启联网搜索功能。
设置界面语言为中文(默认英文)。
接下来设置搜索引擎,点击“一般设置”,然后往下滑。
找到管理网络搜索,将搜索引擎设置为自己喜欢的引擎,我这里设置为Google。
接下来可以设置总搜索结果和是否默认开启网络搜索,最后别忘记点击保存。
体验
接下来我们简单体验一下,比如根据图片生成鬼故事,我们用下面的图片生成一个鬼故事,看看效果。
上传图片并让他编写一个恐怖鬼故事。
不得不说,这个生产的速度还是蛮快的!
修图 + 视频分析(基于27B)
Gemma 3 还能修图,当然这需要我们安装更强大的27B,Gemma 3 的27B能指出光线、构图的优点,建议调整头发和背景锐度。
当然,他这个OCR识别也相当厉害。
如果想分析短视频,可以去 Google AI Studio【点击前往】,上传视频,它就能给出详细解析。目前能处理视频的 AI,Google 是独一份!
Gemma 3 的发布绝对是 AI 领域的一大里程碑。27B 模型性能媲美 671B 的巨无霸,部署却简单到单 GPU 就能搞定,多模态和超长上下文能力更是锦上添花。
暂无评论内容