Gemma 3 新手指南:谷歌开源人工智能模型介绍

社区文章 发布于 2025 年 4 月 1 日

各位 AI 爱好者,欢迎回来!今天,我们将探索 Google 的新 Gemma 3 AI——一个强大的开源模型,旨在单个 GPU 上运行。如果你听说过 Gemma 3 是“可以在单个 GPU 上使用的最强大的模型”,那么你来对地方了。

Chatbot Arena Elo scores

关于 Gemma 3

什么是 Google Gemma 3?

你可以将 Gemma 3 视为 Google 对 GPT 风格模型的答案,但它是**开源**的,并且经过优化,可以在任何地方运行——你的笔记本电脑、单个服务器甚至高端手机!它是 Google Gemma 系列 AI 模型中的最新成员。Google 将其庞大 Gemini 模型的核心技术提炼到 Gemma 3 中。结果:一套你可以实际下载和运行的模型。Gemma 3 旨在实现可访问性,同时不牺牲性能。事实上,参数量最大的 Gemma 3 模型(270 亿参数)在质量上跻身顶级开源 AI 模型之列。

Chatbot Arena Elo scores

了解 Gemma 3 模型

Gemma 3 有四种尺寸——1B、4B、12B 和 27B(B 代表十亿参数)。一般来说,参数越大,模型越智能。但即使是 4B 或 12B 的模型也能处理很多事情。它是多语言的(开箱即支持 140 多种语言),甚至是多模态的,这意味着它可以理解图像和文本的结合。我们只在 GPT-4 等非常高级的模型中见过这种能力。此外,Gemma 3 拥有扩展的内存——128,000 个 token 的上下文窗口——基本上,它可以一次性阅读和记忆非常长的文档或对话。举例来说,这相当于一次处理 100 多页的文本!

Google **向开发者开放了 Gemma 3**。你可以免费下载模型权重,并在本地运行或通过 API 调用 Gemma 3。如果你自己托管,则无需按提示付费。它拥有商业使用许可证,并附带一些负责任的 AI 指南,因此你有可能将其构建到产品中。这种开放模型的方法类似于 Meta 的 LLaMA 2,但 Google 在多模态和高效率方面做得更进一步。

你可以使用你喜欢的工具,例如 **Hugging Face Transformers、Ollama、PyTorch、Google AI Edge、UnSloth、vLLM 等**。在本教程中,我将向你展示如何通过 Hugging Face 使用它。在本教程结束时,我们将拥有一个类似 ChatGPT 的本地运行的 Web 应用程序。

Gemma 3 的主要特点

Gemma 3’s Key Features

  • 小巧而强大。 Gemma 3 功能强大;即使是大型的 27B 模型也可以在单个 GPU 上运行。它比许多其他 AI 更快、更小。
  • 能阅读长文本。 它可以一次性阅读和理解非常长的文档,例如书籍或合同。
  • 理解图片和文本。 你可以向它展示一张图片并提问。它知道如何查看图片并给出专业的答案。
  • 支持 140 多种语言。 Gemma 支持多种语言——例如西班牙语、法语、日语等。
  • 提供清晰的数据。 它可以以 JSON 等格式回复,因此开发人员可以轻松地在应用程序中使用这些答案。
  • 可在较小设备上运行。 提供较小版本,因此你可以在内存较小的笔记本电脑上运行它。
  • 内置安全。 Google 添加了 ShieldGemma 2 工具,以帮助确保其安全并阻止有害内容。

在本地运行 Gemma 3 的最低要求

如果你想在本地计算机上运行 Gemma 3,请确保你的设备符合最低要求。

Minimum Requirements to Run Gemma 3 Locally

如何访问 Gemma 3

有多种方法可以使用此模型。在本教程中,我将向你展示三种方法:

  • Google AI Studio
  • Hugging Face
  • Google API

如何在 Google AI Studio 中使用 Gemma 3

  • 在浏览器中打开此链接:https://aistudio.google.com/
  • 你需要一个 Google 帐户才能使用 AI Studio。
  • 点击**“创建提示”**。
  • 在**模型设置**中,选择 **Gemma 3**(你可能会看到“Gemma 27B”、“Gemma 4B”等选项)。
  • 输入任何你想让 Gemma 协助的内容——例如写作、编码或提问。
  • 点击**“运行”**按钮以获取 Gemma 3 的响应。

How to Use Gemma 3 in Google AI Studio

如何通过 Hugging Face Transformers (Python) 使用 Gemma 3

如果你熟悉 Python,这将非常简单。Hugging Face 的中心有 Gemma 3 模型。你所要做的就是安装 transformers 库,然后下载模型。我不会详细解释所有步骤,但你可以阅读我的 Hugging Face 完整教程

在我们开始之前,你需要:

  • 安装 IDE,如 VSCode
  • 安装 Python 语言

然后按照以下步骤操作:

  • 打开:https://huggingface.co 并在那里创建一个帐户。
  • 点击顶部导航栏中的“Models”链接,然后输入“Gemma”过滤结果,之后从列表中选择一个 Google 模型。

How to Use Gemma 3 with Hugging Face Transformers (Python)

Select the desired model and accept the license agreement

然后打开你的终端,逐个粘贴这些命令:

python3 -m venv venv  
source venv/bin/activate  
pip install transformers datasets evaluate accelerate  
pip install torch

然后打开你的 IDE,创建一个新文件,例如 `main.py`,并粘贴以下代码:

from transformers import pipeline  
import torch  
  
pipe = pipeline(  
    "image-text-to-text",  
    model="google/gemma-3-4b-it",  
    device="cpu",  
    torch_dtype=torch.bfloat16  
)  
  
messages = [  
    {  
        "role": "system",  
        "content": [{"type": "text", "text": "You are a helpful assistant."}]  
    },  
    {  
        "role": "user",  
        "content": [  
            {"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/p-blog/candy.JPG"},  
            {"type": "text", "text": "What animal is on the candy?"}  
        ]  
    }  
]  
  
output = pipe(text=messages, max_new_tokens=200)  
print(output[0]["generated_text"][-1]["content"])

使用此命令运行 Python 代码:

python3 main.py

在此示例中,我们要求 Gemma 查看 URL 中的图像并识别糖果上的动物。我们使用了 Gemma 3-4B 模型和 CPU 设备。

你可以在我的 Git 仓库中找到包含其他示例的完整代码——Gemma 3

如何通过 Google 的 API 使用 Gemma 3

与 Hugging Face 的示例一样,在开始之前你需要:

  • 安装 IDE,如 VSCode
  • 安装 Python 语言

然后按照以下步骤操作:

  • 打开 https://aistudio.google.com/,如果你没有 Google 账户,请创建一个。
  • 然后点击“获取 API 密钥”按钮。在此页面上,你需要生成一个 API 密钥。我们将需要它来连接到 Google Cloud API。

How to Use Gemma 3 via Google’s API

然后打开你的终端,逐个粘贴这些命令:

pip install google-generativeai  
pip install google-genai

然后打开你的 IDE,创建一个新文件,例如 `google-cloud-api-terminal.py`,并粘贴以下代码:

import google.generativeai as genai  
  
# Configure the API key  
genai.configure(api_key="[REPLACE-THIS-TEXT-WITH-YOUR-API-KEY]")  
  
# Initialize the GenerativeModel with the model name as a positional argument  
model = genai.GenerativeModel("gemma-3-27b-it")  
  
# Generate content  
response = model.generate_content("What is the latest version of iphone?")  
  
# Print the generated text  
print(response.text)

此示例使用了 270 亿参数模型和简单的文本提示。

你可以在我的 Git 仓库中找到包含其他示例的完整代码——Gemma 3

一个类似 ChatGPT 的简单 Gemma 3 Web 应用程序

那么,让我们把所有东西都整合起来,创建一个可以在你的电脑上本地运行的简单 Web 应用程序。在这个例子中,我将使用 Google Cloud API,但你也可以使用 Hugging Face 并将模型下载到你的电脑上。

我们将使用 **chainlit 库**。Chainlit 是一个开源的 Python 包,用于构建可用于生产的对话式 AI。

在我们开始之前,你需要:

  • 安装 IDE,如 VSCode
  • 安装 Python 语言
  • Google AI Studio 的 Google API 密钥(请参见上一节)。

然后打开你的终端,逐个粘贴这些命令:

pip install google-generativeai  
pip install google-genai  
pip install chainlit

然后打开你的 IDE,创建一个新文件,例如 `google-cloud-web-interface.py`,并粘贴以下代码:

import chainlit as cl  
import google.generativeai as genai  
  
# Configure the Generative AI client  
genai.configure(api_key="[REPLACE-THIS-TEXT-WITH-YOUR-API-KEY]")  
  
# Initialize the GenerativeModel  
model = genai.GenerativeModel("gemma-3-27b-it")  
  
@cl.on_message  
async def handle_message(message: cl.Message):  
    # Generate content based on the user's input  
    response = model.generate_content(contents=[message.content])  
    reply = response.text  
    # Send the generated response back to the user  
    await cl.Message(content=reply).send()

使用此命令运行 Python 代码:

chainlit run google-cloud-web-interface.py

如果一切正常,你将在 https://:8000/ 看到你的 Web 应用程序。

A Simple Web Application Similar To ChatGPT that Using Gemma 3

视频教程

我有一个详细解释所有内容的视频教程。你可以在 YouTube 上找到它。

在 YouTube 上观看: Gemma 3 完整指南

结论

总之,Google Gemma 3 是一个功能强大的人工智能,你可以在本地运行并自行定制。无论你是为自定义应用程序优化它的开发人员,还是在 PC 上探索人工智能的爱好者,Gemma 3 都提供了无限的可能性。

如果你觉得本教程有帮助,请**点赞**并**订阅**以获取更多前沿 AI 内容。如果你有任何问题,或者用 Gemma 3 做出了很酷的东西,我很乐意听你分享。

感谢你的阅读,下次再见,编程愉快!👋

祝好!;)

来源:Gemma 3 教程

社区

注册登录发表评论