From bf821458eea6c168e07d31c59ddbff1bbe1b5b76 Mon Sep 17 00:00:00 2001 From: poneding Date: Wed, 19 Jun 2024 10:14:36 +0800 Subject: [PATCH] Update archives. --- content/_index.md | 4 ++ content/ai/_index.md | 5 ++ content/ai/llama.md | 52 +++++++++++++++++++ ...345\257\274\345\205\245 Kubernetes API.md" | 2 +- 4 files changed, 62 insertions(+), 1 deletion(-) create mode 100644 content/ai/_index.md create mode 100644 content/ai/llama.md diff --git a/content/_index.md b/content/_index.md index 44523d50..71e2ae44 100644 --- a/content/_index.md +++ b/content/_index.md @@ -1,5 +1,9 @@ # 秋河落叶 +## ai + +- [llama](ai/llama.md) + ## 数据结构与算法 - [堆排序](algo/堆排序.md) diff --git a/content/ai/_index.md b/content/ai/_index.md new file mode 100644 index 00000000..9d2a1f96 --- /dev/null +++ b/content/ai/_index.md @@ -0,0 +1,5 @@ +[🏠 首页](../_index.md) / ai + +# ai + +[llama](llama.md) diff --git a/content/ai/llama.md b/content/ai/llama.md new file mode 100644 index 00000000..85192277 --- /dev/null +++ b/content/ai/llama.md @@ -0,0 +1,52 @@ +[🏠 首页](../_index.md) / [ai](_index.md) / llama + +# llama + +## 安装 + +MacOS: + +```bash +brew install ollama +``` + +Linux: + +```bash +curl -sSL https://ollama.com/install.sh | sh +``` + +安装完成之后,查看安装版本: + +```bash +ollama -v +``` + +## 启动 + +```bash +ollama start + +# 通过注入 OLLAMA_HOST 环境变量设置监听地址 +# OLLAMA_HOST=0.0.0.0 ollama start +``` + +## 下载并运行大模型 + +Llama3 目前可供下载的大模型有两个版本:8B 和 70B,本地运行容量有限,选择 8B 版本即可,大小大概 5G 左右。 + +```bash +ollama run llama3 +``` + +执行完成后,会直接进入一个交互界面,可以直接进行对话了。 + +## 执行生成命令 + +```bash +curl http://localhost:11434/api/generate -d '{ + "model": "llama3", + "prompt": "Why is the sky blue?", + "stream": false +}' +``` diff --git "a/content/dev/Apifox \345\257\274\345\205\245 Kubernetes API.md" "b/content/dev/Apifox \345\257\274\345\205\245 Kubernetes API.md" index df5a3646..5db8d523 100644 --- "a/content/dev/Apifox \345\257\274\345\205\245 Kubernetes API.md" +++ "b/content/dev/Apifox \345\257\274\345\205\245 Kubernetes API.md" @@ -11,7 +11,7 @@ Apifox 直接以 Url 方式导入,导入地址如下: 第一步,本地代理: ```bash -kubectl proxy --address 0.0.0.0 --accept-hosts '^*$ +kubectl proxy --address 0.0.0.0 --accept-hosts '^*$' ``` 第二步,提取 API json 文件至本地: