@easynet/agent-llm
v1.0.52
Published
Agent LLM: multi-provider, multi-model, simple chat/image API. Consumes agent.yaml llm section.
Readme
@easynet/agent-model
统一的 Model Hub:从 models.yaml 创建 LangChain ChatModel、Embedding 等模型。
最小接口
import { createAgentLlM } from "@easynet/agent-model";
const llm = await createAgentLlM();
const result = await llm.invoke("hello");
console.log(result.content);最小 YAML(推荐先用这个)
models.yaml
llm:
# 默认使用 small 这个实例
default: small
# 可按需保留 strong;不需要就删掉
strong:
provider: openai
base_url: ${LLM_BASE_URL}
model: ${LLM_MODEL}
# 本地 Ollama 最常见配置
small:
provider: openai
base_url: http://localhost:11434/v1
model: qwen3:0.6b
embed:
default: gemma
gemma:
provider: openai
base_url: https://ollama-nvidia-8g-2.easynet.world/v1
model: embeddinggemma:latest
apiKey: ollama
runtime:
check_connectivity: false最简单示例(带注释)
import { createAgentLlM } from "@easynet/agent-model";
async function main() {
// 1) 从当前目录 models.yaml 读取配置并创建模型
const llm = await createAgentLlM();
// 2) 直接调用模型
const response = await llm.invoke("请用一句话介绍你自己。");
// 3) 输出文本
console.log(response.content);
}
main().catch(console.error);可选扩展
- 自定义 provider:
registerChatModelProvider(...) - 只取默认模型配置:
getDefaultLlmConfig(...) - 直接从对象构建模型:
createChatModelFromLlmConfig(...) - 从 models.yaml 创建 EmbedFn:
createEmbedFnFromModelsConfig(...)
