Ollama 安装使用
有多种安装部署方式 Windows / Linux / Docker 这里出于便捷,直接使用 Windows 的安装方式 官网下载安装 Ollama 官网:https://ollama.com/ Windows 下载安装 设置模型存储路径 系统变量里新建 OLLAMA_MODELS, 赋值为你设定的模型存储路径,这里我放在 Y:\LLM\Ollama ...
有多种安装部署方式 Windows / Linux / Docker 这里出于便捷,直接使用 Windows 的安装方式 官网下载安装 Ollama 官网:https://ollama.com/ Windows 下载安装 设置模型存储路径 系统变量里新建 OLLAMA_MODELS, 赋值为你设定的模型存储路径,这里我放在 Y:\LLM\Ollama ...
初始化仓库 准备条件 本地创建文件夹,git bash 进入文件夹目录 Github 仓库创建完成,获取 <URL> // 初始化 git init git remote add origin <URL> git branch -m master main git pull origin main //更新链接 git remote set-u...
本文以实验室服务器(Linux Ubantu)为例,实现实验室服务器的代理服务配置 环境要求:vscode 连接服务器,在图形化界面进行操作 背景 实验室服务器分发的账号,通常没有 sudo 权限( 非root ) 且可能不允许直接科学上网( 直接访问 HugginFace、Llama) 但日常开发需求涉及: 安装配置软件环境 (conda、python、unzip)与可能涉及的科...