Skip to main content

与DeepSeek集成

https://tmc.github.io/langchaingo/docs/how-to/configure-llm-providers

package main

import (
"context"
"fmt"
"log"
"os"

"github.com/tmc/langchaingo/llms"
"github.com/tmc/langchaingo/llms/openai"
)

func main() {
// 设置 DeepSeek API 的配置
// 确保设置了环境变量 DEEPSEEK_API_KEY
apiKey := os.Getenv("DEEPSEEK_API_KEY")

if apiKey == "" {
log.Fatal("请设置环境变量 DEEPSEEK_API_KEY")
}

// https://api.deepseek.com

// 创建 OpenAI 兼容的客户端,指向 DeepSeek API
llm, err := openai.New(
openai.WithToken(apiKey),
openai.WithBaseURL("https://api.deepseek.com/v1"), // DeepSeek API 基础 URL
openai.WithModel("deepseek-chat"), // 使用 DeepSeek 模型
)
if err != nil {
log.Fatal("创建 LLM 客户端失败:", err)
}

// 创建上下文
ctx := context.Background()

// 示例1: 简单的文本生成
fmt.Println("=== 简单文本生成 ===")
simplePrompt := "请简单介绍一下人工智能的发展历史"

result, err := llms.GenerateFromSinglePrompt(ctx, llm, simplePrompt)
if err != nil {
log.Fatal("生成内容失败:", err)
}

fmt.Printf("提问: %s\n", simplePrompt)
fmt.Printf("回答: %s\n\n", result)

fmt.Println("\n\n程序运行完成!")
}