本地快速部署谷歌开放模型Gemma教程(基于Ollama)

本地快速部署谷歌开放模型Gemma教程(基于Ollama)

  • 一、介绍 Gemma
    • 1.1 关键细节
    • 1.2 尺寸性能
  • 二、部署 Gemma
    • 2.1 部署工具
    • 2.1 部署步骤
  • 三、体验 Gemma
  • 四、总结

一、介绍 Gemma

Gemma是一系列轻量级、最先进的开放式模型,采用与创建Gemini模型相同的研究和技术而构建。Gemma 由 Google DeepMind 和 Google 的其他团队开发,其灵感来自 Gemini,其名称反映了拉丁语gemma,意思是“宝石”。除了模型权重之外,还发布了工具来支持开发人员创新、促进协作并指导负责任地使用 Gemma 模型。

本地快速部署谷歌开放模型Gemma教程(基于Ollama)_第1张图片

1.1 关键细节

  • Gemma发布了两种尺寸的模型配重:Gemma 2B 和 Gemma 7B。每个尺寸都发布了经过预训练和指令调整的变体。
  • 预先训练和指令调整的 Gemma 模型可以在您的笔记本电脑、工作站或 Google Cloud 上运行,并可轻松部署在Vertex AI和Google Kubernetes Engine (GKE) 上。

1.2 尺寸性能

Gemma 模型与Gemini共享技术和基础设施组件,Gemini 是我们当今广泛使用的最大、功能最强大的 AI 模型。与其他开源大模型相比,这使得 G

你可能感兴趣的:(AI和实践教程合集,google,gemma,gemini,LLM,AIGC)