Ollama关闭思考Qwen3.5和GLM4.7Flash提速 2026年04月14日 14 阅读 Ollama关闭思考Qwen3.5和GLM4.7Flash提速 ollama run qwen3.5 --think=false ...
JSONL 格式中的字段说明 2025年10月14日 190 阅读 JSONL 格式中的字段说明 字段名 说明 示例 input 模型的输入内容 "你叫什么名字?" output 模型期望生成的内容 "我的名字是 Ollama。" syste...
Python编写的Ollama大模型测试程序示例 2025年10月11日 197 阅读 import ollama import requests def test_direct_connection(): """测试直接连接""" try: # 直接测试端口连通性 response = requests.get('http://localhost:11434/api/tags', timeout=5) print("✅ 端口连接成功:", response.status_code) return Tr...
Ollama 常用环境变量参数的含义及优化设置建议 2025年10月07日 307 阅读 以下是 Ollama 常用环境变量参数的含义及优化设置建议,帮助你更好地配置 Ollama 以提升模型性能: 核心参数说明与性能优化建议 调试与基础配置 OLLAMA_DEBUG:启用调试模式,输出详细日志(用于排查问题,正常使用建议关闭,值为1启用)。 OLLAMA_HOST:指定服务监听地址(默认127.0.0.1:11434,如需局域网访问可设为0.0.0.0:1143...
Ollama+Nginx配置Api Key 2025年08月31日 weisoft.com.cn 231 阅读 Ollama+Nginx配置Api Key进行授权访问 set $auth_header $http_authorization; if ($auth_header != "Bearer API_KEY") { # 替换为你的认证令牌 return 401; # 如果认证失败,返回 401 Unauthorized } ...
Ollama终端指令 2025年02月21日 weisoft.com.cn 447 阅读 Ollama 终端指令 查看支持的指令:使用命令 /? 退出对话模型:使用命令 /bye 显示模型信息:使用命令 /show 设置对话参数:使用命令 /set 参数名 参数值,例如设置温度(temperature)或top_k值 清理上下文:使用命令 /clear 动态切换模型:使用命令 /load 模型名称 存储模型:使用命令 /save 模型名称 查看快捷键:使用命令 /?shortcuts ...
Ollama常用指令 2025年02月21日 weisoft.com.cn 453 阅读 Ollama 常用命令 启动Ollama服务: ollama serve 从模型文件创建模型: ollama create 显示模型信息: ollama show 运行模型: ollama run 模型名称 从注册表中拉去模型: ollama pull 模型名称 将模型推送到注册表: ollama push 列出模型: ollama list 复制模型: ollama cp 删除模型: ollama rm 模型名称 获取有关Ollama任何命令的帮助信息:...
Ollama环境变量说明 2025年02月21日 weisoft.com.cn 473 阅读 Ollama 提供了多种环境变量以供配置: OLLAMA_DEBUG:是否开启调试模式,默认为 false。 OLLAMA_FLASH_ATTENTION:是否闪烁注意力,默认为 true。 OLLAMA_HOST:Ollama 服务器的主机地址,默认为空。 OLLAMA_KEEP_ALIVE:保持连接的时间,默认为 5m。 OLLAMA_LLM_LIBRARY:LLM 库,默认为空。 OLLAMA_MAX_LOADED_MODELS:最大加载模型数,默认...
Ollama常用操作,查看模型、运行模型、移除模型等 2025年02月06日 weisoft.com.cn 641 阅读 1、Ollama查看已安装的模型 ollama list 2、Ollama运行模型 ollama run model-name 3、移除Ollama模型 ollama rm model-name...
Ollama 环境变量详解 2024年12月24日 管理员 897 阅读 Ollama 环境变量详解Environment="OLLAMA_HOST=0.0.0.0:11434" 解释:监听地址和端口0.0.0.0是对IP没有限制 Environment="PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games" 解释:定义可执行文件的搜索路径 Environment="OLLAMA_SCHED_SPREAD=t...
Ollama可配置环境变量 2024年10月24日 管理员 476 阅读 Ollama可配置环境变量OLLAMA_DEBUG:显示额外的调试信息(例如:OLLAMA_DEBUG=1) OLLAMA_HOST:Ollama服务器的IP地址(默认值:127.0.0.1:11434) OLLAMA_KEEP_ALIVE:模型在内存中保持加载的时长(默认值:“5m”) OLLAMA_MAX_LOADED_MODELS:每个GPU上最大加载模型数量 OLLAMA_MAX_QUEUE:请求队列的最大长度 OLLAMA_MODELS...
Linux平台上部署和运行Ollama 2024年10月16日 管理员 711 阅读 Ollama的安装与配置Ollama提供了一种简单的安装方法,只需一行命令即可完成安装,但是对于想要更深入了解和自定义安装的用户,我们也提供了手动安装的步骤。快速安装Ollama的安装极为简单,只需在终端中执行以下命令:curl -fsSL https://ollama.com/install.sh | sh此命令将自动下载最新版本的Ollama并完成安装。手动安装步骤对于那些希望更细致地控制安装过程的高级用户,Ollama也支持手动安装。 下载Ollam...