VSCode如何安装CodeGeeX_离线AI编程助手部署指南

16次阅读

vscode 离线使用 CodeGeeX 需手动安装 ≥2.6 版本插件、Ollama 运行 codegeex4 模型并监听 11434 端口,配置 localMode、apiBase 为 http://localhost:11434/v1/chat/completions、model 为 codegeex4,且 apiKey 必须为空。

VSCode如何安装CodeGeeX_离线AI编程助手部署指南

VSCode 安装 CodeGeeX 离线编程助手,核心在于「不联网也能用」——必须绕过智谱云 API,改用本地 Ollama 托管的 codegeex4 模型,并让插件走 http://localhost:11434/v1/chat/completions 这条本地通道。直接装官方插件、填 API Key 的方式在离线环境完全失效。

离线安装插件:先拿到 .vsix 文件再手动装

官网 Marketplace 无法访问,必须提前在有网机器上下载插件包。注意不是所有“CodeGeeX”插件都支持本地模式——要认准插件名含 “CodeGeeX: ai Code autoComplete, Chat, Auto Comment”,发布者是 Zhipu AI,且版本号 ≥ 2.6(旧版无本地模式开关)。

  • 打开 VS Code Marketplace 页面,搜索 CodeGeeX,点击“Download Extension”获取 .vsix 文件(如 zhipuai.codegeex-2.6.0.vsix
  • 把文件拷到离线机,VSCode 中按 Ctrl+Shift+X → 右上角 Install from VSIX → 选中该文件
  • 若提示“已禁用其他 AI 插件”,请先卸载 Tabbycontinue 或旧版 CodeGeeX,避免 Ctrl+Enter 等快捷键冲突

Ollama 部署 codegeex4:选对模型和端口是关键

CodeGeeX4 的原生 GGUF 模型(如 codegeex4-all-q4_0.gguf)比 9B 全量版更适配普通笔记本;但无论选哪个,必须确保 Ollama 启动后监听的是插件能连上的地址,默认 11434 端口常被 docker 或旧版 Ollama 占用。

  • windows 下检查端口:打开资源监视器 → “网络”选项卡 → 查找 PID 对应的进程,结束占用 11434 的程序
  • 启动带自定义端口的 Ollama:
    set OLLAMA_HOST=127.0.0.1:11436 && ollama serve

    ,然后运行模型:

    ollama run codegeex4
  • linux/macOS 用户需额外设跨域:
    export OLLAMA_ORIGINS="*"

    ,否则插件发请求会因 CORS 被浏览器内核拦截(VSCode 内部 Chromium 引擎也受此限)

VSCode 插件配置:三处设置缺一不可

插件界面里“登录”按钮在离线时点不动,这是正常现象——不要试图填账号密码或点“Allow”,所有验证逻辑此时应被跳过。真正起作用的是以下三项手动配置:

  • 开启 codegeex.localMode:在 VSCode 设置中搜该关键词,勾选启用(这是切换为本地模式的总开关)
  • 填写 API 地址:codegeex.apiBase 设为 http://localhost:11434/v1/chat/completions(注意末尾路径必须是 /v1/chat/completions,填错成 /api/chat 或漏掉 v1 会导致 404)
  • 指定模型名:codegeex.modelcodegeex4(必须与 ollama list 输出的第一列名称完全一致,大小写敏感)

验证是否真离线:看请求发往哪、有没有密钥依赖

最可靠的验证方式不是看补全弹出来没,而是抓包确认流量没出本机。打开 VSCode 开发者工具Ctrl+Shift+I → Network 标签),输入代码触发补全,观察请求目标域名是否为 localhost;同时确认设置里 codegeex.apiKey 是空的——只要这里填了任何字符串,插件就会优先走云端,本地配置自动失效。

容易被忽略的一点:Ollama 默认只允许 localhost 访问,如果你在 WSL2 或远程桌面中使用 VSCode,需把 OLLAMA_HOST 改成 0.0.0.0:11434 并开放防火墙端口,否则连接会超时。

text=ZqhQzanResources