在终端里使用AI:llm工具入门指南

更新日期: 2025-10-30 阅读: 31 标签: AI

我第一次知道llm这个工具,是在西蒙·威利森的一场演讲上。从那以后,它就成了我工作中离不开的好帮手。今天我想和你分享怎么上手使用它。


llm是什么?

简单来说,llm是一个命令行工具。通过它,你可以在终端里直接使用各种AI模型,不用打开网页。无论是GPT-4、Claude、Gemini,还是本地运行的模型,都能用同一个命令来调用。


主要特点

  • 统一接口:一个命令支持所有模型

  • 自动记录:所有对话都保存在SQLite数据库里

  • 插件丰富:有70多个插件可以扩展功能

  • 支持管道:可以和Unix管道命令配合使用


安装方法

推荐用uv来安装,这样不会影响系统环境:

uv tool install llm

如果想先试试看,可以临时运行:

OPENAI_api_KEY=你的密钥 uvx llm "关于臭鼬的有趣事实"

也可以用传统方式安装:

pipx install llm
# 或者
brew install llm


基本设置

安装好后,需要设置至少一个AI服务商。从OpenAI开始最简单:

llm keys set openai    # 输入你的API密钥
llm "给宠物鹈鹕起十个名字"

随时可以添加其他服务商:

llm install llm-anthropic
llm keys set anthropic


基本用法

几种常用的使用方式:

直接提问:

llm -m gpt-4o "用一条推文解释量子计算"
llm -s "你是个系统工程师" -f server.log "找出日志中的错误"

处理文件内容:

llm -f myscript.py "总结这段代码"
cat diff.patch | llm -s "生成标准的提交信息"

交互式对话:

llm chat              # 开始新对话
llm chat -c           # 继续上次对话
llm chat -m claude-4-opus


管理对话记录

所有对话都会自动保存,方便查看:

llm logs -n 10                # 查看最近10条
llm logs -q "向量搜索"        # 搜索相关内容
llm -c "跟进问题"            # 基于上下文继续提问
llm logs -u                   # 查看使用量和费用
llm logs --json > backup.json # 导出记录


常用插件

插件让llm变得更强大:

# 安装主要AI服务商插件
llm install llm-anthropic    # Claude模型
llm install llm-gemini       # Google Gemini
llm install llm-ollama       # 本地模型

# 设置对应的API密钥
llm keys set anthropic
llm keys set gemini

# 使用不同模型
llm -m claude-4-opus "写技术说明文档"
llm -m gemini-2.0-flash "快速计算"


在苹果电脑上运行本地模型

如果需要保护隐私或者离线使用,可以在苹果芯片的Mac上运行本地模型:

uv tool install llm --python 3.12
llm install llm-mlx          # 需要macOS 14.4以上

# 下载一个3B参数模型(约1.8GB)
llm mlx download-model mlx-community/Llama-3.2-3B-Instruct-4bit

根据内存大小选择模型:

  • 8GB内存:Llama 3.2 3B

  • 16GB内存:Mistral 7B

  • 32GB内存:Mistral Small 24B

设置别名更方便使用:

llm aliases set local3b mlx-community/Llama-3.2-3B-Instruct-4bit


处理长文本

使用fragments插件处理大段内容:

# 安装GitHub fragments插件
llm install llm-fragments-github

# 总结整个GitHub仓库
llm -f github:simonw/files-to-prompt "关键设计决策是什么?"


工具和代理功能

让模型能够运行代码:

llm --functions 'def sq(x:int)->int: return x*x' \
    "431的平方是多少?" --td

# 使用插件工具
llm install llm-tools-quickjs
llm --tool quickjs "JSON.parse('[1,2,3]').reduce((a,b)=>a+b,0)"


模板和别名

创建快捷方式提高效率:

llm aliases set fast gpt-4o-mini
llm aliases set smart gpt-4o

llm -s "用五岁小孩能懂的话解释" --save eLI5   # 保存为模板
llm -t eLI5 "为什么天空是蓝色的?"

设置默认模型:

llm models default gpt-4o-mini


嵌入和语义搜索

构建可搜索的知识库:

# 将文本嵌入到SQLite数据库
llm embed -m clip "hello world" -d embeds.db

# 查找相似内容
llm similar "向量数据库" -d embeds.db -n 5


集成到开发工作流

代码分析:

# 安装配套工具
pip install symbex files-to-prompt

# 分析特定函数
symbex my_function | llm -s "解释这段代码"

# 生成测试
symbex my_function | llm -s "写pytest测试用例"

# 生成文档
files-to-prompt . -e py | llm -s "生成API文档"

Git集成:

# 生成提交信息
git diff --cached | llm -s "生成标准的提交信息"

# 代码审查
git diff HEAD~1 | llm -s "检查这些改动是否有问题"


控制成本

合理使用模型来控制花费:

llm -u "分析这个文件" -f big.txt   # 显示使用量和费用
llm logs -u | ttok -s             # 查看使用统计

# 简单任务用便宜模型
llm -m gpt-4o-mini "快速起草推文"

# 继续对话复用上下文
llm "分析这个架构" -f project/
llm -c "现在重点关注安全问题"


自动化脚本

批量总结网页:

#!/usr/bin/env bash
for url in "$@"; do
  curl -s "$url" | strip-tags article | \
  llm -s "3点总结" > "summary_$(basename $url).md"
done

文档生成:

files-to-prompt src/ -e py | \
llm -s "生成API文档" > docs/api.md


高级功能

结构化输出:

llm "分析情感" --schema '{
  "type": "object",
  "properties": {
    "sentiment": {"type": "string"},
    "confidence": {"type": "number"}
  }
}'

多模态功能:

# 图片分析
llm "描述这张图片" -a screenshot.png -m gpt-4o

# 从图片提取文字
llm "提取所有文字" -a document.jpg -m gpt-4o


使用建议

  • 为常用模型设置别名

  • 保存可复用的提示模板

  • 用fragments处理大段内容,不要复制粘贴

  • 根据任务难度选择合适的模型

  • 结合Unix管道实现自动化

  • 处理敏感数据时记得关闭日志


总结

把AI直接集成到命令行工作流中,确实改变了我的工作方式。现在分析代码、生成文档、解答问题,都不需要离开终端。统一的模型接口、自动的记录功能、友好的管道支持,让llm成为每个开发者都应该试试的工具。

想了解更多详细信息,可以查看官方文档:https://llm.datasette.io/

本文内容仅供个人学习/研究/参考使用,不构成任何决策建议或专业指导。分享/转载时请标明原文来源,同时请勿将内容用于商业售卖、虚假宣传等非学习用途哦~感谢您的理解与支持!

链接: https://fly63.com/article/detial/13088

当前常用的AI平台,含ChatGPT,GPT-4,Claude等

当今时代,人工智能已经成为了各行各业中无可替代的角色。从智能客服到自动驾驶汽车,从语音识别到图像处理,人工智能的应用正在不断扩展。而在这个人工智能的时代,许多AI平台已经涌现出来

AI 浪潮下的程序员生存法则:当工具进化,人类如何守住创造力高地

作为一名在代码世界摸爬滚打八年的程序员,我的工位曾堆满了各类技术书籍,如今屏幕上最常亮的却是 Copilot、ChatGPT 这些 AI 工具的界面。从 2023 年底被朋友 拽入 AI 大门

程序员会被AI取代?Claude团队95%AI写代码的真相

当Claude产品负责人宣布团队95%的代码由AI生成时,技术圈瞬间掀起巨浪。许多开发者开始焦虑,担心自己的职业生涯即将终结。但真实情况究竟如何?让我们揭开表象。

Cursor 编辑代码功能的核心原理:Agent 如何高效工作?

像 Cursor、Copilot 这类 AI 编程助手正快速成为程序员的好帮手。很多人可能觉得它们内部非常复杂,其实核心思路很直接。为了实现高效运行,开发团队的重点往往在:保证流程稳定可控和优化性能以节省宝贵的上下文空间。

TypeScript开发AI应用,正成为越来越多人的选择

AI技术正在快速发展,越来越多的开发者开始构建基于大语言模型(LLM)、多智能体协作、浏览器端直接推理的新应用。在这个趋势下,TypeScript 凭借其优秀的类型检查、完善的工具支持和活跃的社区

Claude Code 实战指南:15个核心技巧,开发效率飙升10倍

很多开发者用过Claude Code,但感觉效果平平,没有传说中那么神奇。问题往往出在使用方法上。别再只用它写写简单的函数或修修小Bug了!掌握下面这15个高手技巧,Claude Code 能真正成为你的开发加速器

TraeIDE功能介绍:从安装到项目开发全指南

Trae IDE 是字节跳动在2025年推出的一款面向开发者的智能编程工具。它主打自然语言写代码,深度融合了多种主流大模型,支持完全中文的操作环境,非常适合国内开发者尤其是新手使用。最重要的是,它免费向用户开放。

Trae IDE 新手使用教程:从下载安装到第一个项目

Trae 是字节跳动推出的一款智能编程软件,内置 AI 辅助功能,支持用中文写代码。它类似 Cursor 或 VS Code,但更贴合中文用户的使用习惯,接入了多个常见的 AI 大模型。Trae 可以帮助开发者自动补全代码、解释错误、甚至根据一句话生成整个项目

Trae:字节跳动推出的免费AI编程助手,用中文写代码

Trae 是字节跳动公司推出的一款智能编程软件,它内置了多种 AI 大模型,能帮助开发者更轻松地写代码。这款工具完全免费,界面支持中文,对国内用户非常友好。不管你是刚学编程,还是已经工作,都可以用它来提升效率。

热门 AI 编程工具有哪些?哪款更适合你?

在科技飞速发展的当下,AI 编程工具已成为广大程序员的得力助手。这些工具不仅能大幅提升编程效率,还能降低编程的难度。如果你还没用过这些工具,可能会在开发效率上落后于别人。

点击更多...

内容以共享、参考、研究为目的,不存在任何商业目的。其版权属原作者所有,如有侵权或违规,请与小编联系!情况属实本人将予以删除!