与DeepSeek集成
https://tmc.github.io/langchaingo/docs/how-to/configure-llm-providers
package main
import (
"context"
"fmt"
"log"
"os"
"github.com/tmc/langchaingo/llms"
"github.com/tmc/langchaingo/llms/openai"
)
func main() {
// 设置 DeepSeek API 的配置
// 确保设置了环境变量 DEEPSEEK_API_KEY
apiKey := os.Getenv("DEEPSEEK_API_KEY")
if apiKey == "" {
log.Fatal("请设置环境变量 DEEPSEEK_API_KEY")
}
// https://api.deepseek.com
// 创建 OpenAI 兼容的客户端,指向 DeepSeek API
llm, err := openai.New(
openai.WithToken(apiKey),
openai.WithBaseURL("https://api.deepseek.com/v1"), // DeepSeek API 基础 URL
openai.WithModel("deepseek-chat"), // 使用 DeepSeek 模型
)
if err != nil {
log.Fatal("创建 LLM 客户端失败:", err)
}
// 创建上下文
ctx := context.Background()
// 示例1: 简单的文本生成
fmt.Println("=== 简单文本生成 ===")
simplePrompt := "请简单介绍一下人工智能的发展历史"
result, err := llms.GenerateFromSinglePrompt(ctx, llm, simplePrompt)
if err != nil {
log.Fatal("生成内容失败:", err)
}
fmt.Printf("提问: %s\n", simplePrompt)
fmt.Printf("回答: %s\n\n", result)
fmt.Println("\n\n程序运行完成!")
}