mirror of
				https://github.com/songquanpeng/one-api.git
				synced 2025-11-01 14:23:42 +08:00 
			
		
		
		
	
		
			
				
	
	
		
			76 lines
		
	
	
		
			3.9 KiB
		
	
	
	
		
			Go
		
	
	
	
	
	
			
		
		
	
	
			76 lines
		
	
	
		
			3.9 KiB
		
	
	
	
		
			Go
		
	
	
	
	
	
| package tencent
 | ||
| 
 | ||
| type Message struct {
 | ||
| 	Role    string `json:"Role"`
 | ||
| 	Content string `json:"Content"`
 | ||
| }
 | ||
| 
 | ||
| type ChatRequest struct {
 | ||
| 	// 模型名称,可选值包括 hunyuan-lite、hunyuan-standard、hunyuan-standard-256K、hunyuan-pro。
 | ||
| 	// 各模型介绍请阅读 [产品概述](https://cloud.tencent.com/document/product/1729/104753) 中的说明。
 | ||
| 	//
 | ||
| 	// 注意:
 | ||
| 	// 不同的模型计费不同,请根据 [购买指南](https://cloud.tencent.com/document/product/1729/97731) 按需调用。
 | ||
| 	Model *string `json:"Model"`
 | ||
| 	// 聊天上下文信息。
 | ||
| 	// 说明:
 | ||
| 	// 1. 长度最多为 40,按对话时间从旧到新在数组中排列。
 | ||
| 	// 2. Message.Role 可选值:system、user、assistant。
 | ||
| 	// 其中,system 角色可选,如存在则必须位于列表的最开始。user 和 assistant 需交替出现(一问一答),以 user 提问开始和结束,且 Content 不能为空。Role 的顺序示例:[system(可选) user assistant user assistant user ...]。
 | ||
| 	// 3. Messages 中 Content 总长度不能超过模型输入长度上限(可参考 [产品概述](https://cloud.tencent.com/document/product/1729/104753) 文档),超过则会截断最前面的内容,只保留尾部内容。
 | ||
| 	Messages []*Message `json:"Messages"`
 | ||
| 	// 流式调用开关。
 | ||
| 	// 说明:
 | ||
| 	// 1. 未传值时默认为非流式调用(false)。
 | ||
| 	// 2. 流式调用时以 SSE 协议增量返回结果(返回值取 Choices[n].Delta 中的值,需要拼接增量数据才能获得完整结果)。
 | ||
| 	// 3. 非流式调用时:
 | ||
| 	// 调用方式与普通 HTTP 请求无异。
 | ||
| 	// 接口响应耗时较长,**如需更低时延建议设置为 true**。
 | ||
| 	// 只返回一次最终结果(返回值取 Choices[n].Message 中的值)。
 | ||
| 	//
 | ||
| 	// 注意:
 | ||
| 	// 通过 SDK 调用时,流式和非流式调用需用**不同的方式**获取返回值,具体参考 SDK 中的注释或示例(在各语言 SDK 代码仓库的 examples/hunyuan/v20230901/ 目录中)。
 | ||
| 	Stream *bool `json:"Stream"`
 | ||
| 	// 说明:
 | ||
| 	// 1. 影响输出文本的多样性,取值越大,生成文本的多样性越强。
 | ||
| 	// 2. 取值区间为 [0.0, 1.0],未传值时使用各模型推荐值。
 | ||
| 	// 3. 非必要不建议使用,不合理的取值会影响效果。
 | ||
| 	TopP *float64 `json:"TopP"`
 | ||
| 	// 说明:
 | ||
| 	// 1. 较高的数值会使输出更加随机,而较低的数值会使其更加集中和确定。
 | ||
| 	// 2. 取值区间为 [0.0, 2.0],未传值时使用各模型推荐值。
 | ||
| 	// 3. 非必要不建议使用,不合理的取值会影响效果。
 | ||
| 	Temperature *float64 `json:"Temperature"`
 | ||
| }
 | ||
| 
 | ||
| type Error struct {
 | ||
| 	Code    int    `json:"Code"`
 | ||
| 	Message string `json:"Message"`
 | ||
| }
 | ||
| 
 | ||
| type Usage struct {
 | ||
| 	PromptTokens     int `json:"PromptTokens"`
 | ||
| 	CompletionTokens int `json:"CompletionTokens"`
 | ||
| 	TotalTokens      int `json:"TotalTokens"`
 | ||
| }
 | ||
| 
 | ||
| type ResponseChoices struct {
 | ||
| 	FinishReason string  `json:"FinishReason,omitempty"` // 流式结束标志位,为 stop 则表示尾包
 | ||
| 	Messages     Message `json:"Message,omitempty"`      // 内容,同步模式返回内容,流模式为 null 输出 content 内容总数最多支持 1024token。
 | ||
| 	Delta        Message `json:"Delta,omitempty"`        // 内容,流模式返回内容,同步模式为 null 输出 content 内容总数最多支持 1024token。
 | ||
| }
 | ||
| 
 | ||
| type ChatResponse struct {
 | ||
| 	Choices []ResponseChoices `json:"Choices,omitempty"` // 结果
 | ||
| 	Created int64             `json:"Created,omitempty"` // unix 时间戳的字符串
 | ||
| 	Id      string            `json:"Id,omitempty"`      // 会话 id
 | ||
| 	Usage   Usage             `json:"Usage,omitempty"`   // token 数量
 | ||
| 	Error   Error             `json:"Error,omitempty"`   // 错误信息 注意:此字段可能返回 null,表示取不到有效值
 | ||
| 	Note    string            `json:"Note,omitempty"`    // 注释
 | ||
| 	ReqID   string            `json:"Req_id,omitempty"`  // 唯一请求 Id,每次请求都会返回。用于反馈接口入参
 | ||
| }
 | ||
| 
 | ||
| type ChatResponseP struct {
 | ||
| 	Response ChatResponse `json:"Response,omitempty"`
 | ||
| }
 |