小众AI

ollama
ollama - 本地运行各种 LLM
用 Go 语言写的工具,用于在本地一条命令安装、启动和管理大型语言模型,支持 Llama 3、Gemma、Mistral 等大模型,适用于 Windows、macOS、Linux 操作系统。
  官网   代码仓

ollama 是用 Go 语言写的工具,用于在本地一条命令安装、启动和管理大型语言模型,支持 Llama 3、Gemma、Mistral 等大模型,适用于 Windows、macOS、Linux 操作系统。

ollama.png

主要特性

  • 多模型支持:
Model Parameters Size Download
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Phi 3 Mini 3.8B 2.3GB ollama run phi3
Phi 3 Medium 14B 7.9GB ollama run phi3:medium
Gemma 2 9B 5.5GB ollama run gemma2
Gemma 2 27B 16GB ollama run gemma2:27b
Mistral 7B 4.1GB ollama run mistral
Moondream 2 1.4B 829MB ollama run moondream
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Solar 10.7B 6.1GB ollama run solar

Note: You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.

  • 操作系统兼容:适用于 Windows、macOS、Linux 操作系统。

开始使用 🚀

macOS

下载地址:https://ollama.com/download/Ollama-darwin.zip

Windows preview

下载地址:https://ollama.com/download/OllamaSetup.exe

Linux

curl -fsSL https://ollama.com/install.sh | sh

手动安装指南:https://github.com/ollama/ollama/blob/main/docs/linux.md

Docker

官方镜像:https://hub.docker.com/r/ollama/ollama

Libraries

Python: https://github.com/ollama/ollama-python Javascript:https://github.com/ollama/ollama-js

运行

llama3 为例:

ollama run llama3

更多...


mcp-agent
一个基于 Model Context Protocol (MCP) 的简单、可组合的框架,用于构建智能代理。它旨在通过 MCP 服务器来管理代理的生命周期,并提供构建生产就绪的 AI 代理的简单模式。
nndeploy
nndeploy是一个简单易用、高性能、支持多端的AI推理部署框架。主要解决以下模型部署中的痛点。
one-api
通过标准的 OpenAI API 格式访问所有的大模型,统一 API 适配,可用于 key 管理与二次分发。