mirror of
https://github.com/yangjian102621/geekai.git
synced 2026-04-28 22:14:28 +08:00
修改模型选择功能,提升用户体验
This commit is contained in:
@@ -70,6 +70,8 @@ type ChatModel struct {
|
|||||||
Power int `json:"power"`
|
Power int `json:"power"`
|
||||||
MaxTokens int `json:"max_tokens"` // 最大响应长度
|
MaxTokens int `json:"max_tokens"` // 最大响应长度
|
||||||
MaxContext int `json:"max_context"` // 最大上下文长度
|
MaxContext int `json:"max_context"` // 最大上下文长度
|
||||||
|
Description string `json:"description"` //模型描述
|
||||||
|
Category string `json:"category"` //模型类别
|
||||||
Temperature float32 `json:"temperature"` // 模型温度
|
Temperature float32 `json:"temperature"` // 模型温度
|
||||||
KeyId int `json:"key_id"` // 绑定 API KEY
|
KeyId int `json:"key_id"` // 绑定 API KEY
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -40,6 +40,8 @@ func (h *ChatModelHandler) Save(c *gin.Context) {
|
|||||||
Power int `json:"power"`
|
Power int `json:"power"`
|
||||||
MaxTokens int `json:"max_tokens"` // 最大响应长度
|
MaxTokens int `json:"max_tokens"` // 最大响应长度
|
||||||
MaxContext int `json:"max_context"` // 最大上下文长度
|
MaxContext int `json:"max_context"` // 最大上下文长度
|
||||||
|
Description string `json:"description"` //模型描述
|
||||||
|
Category string `json:"category"` //模型类别
|
||||||
Temperature float32 `json:"temperature"` // 模型温度
|
Temperature float32 `json:"temperature"` // 模型温度
|
||||||
KeyId int `json:"key_id,omitempty"`
|
KeyId int `json:"key_id,omitempty"`
|
||||||
CreatedAt int64 `json:"created_at"`
|
CreatedAt int64 `json:"created_at"`
|
||||||
@@ -64,6 +66,8 @@ func (h *ChatModelHandler) Save(c *gin.Context) {
|
|||||||
item.Power = data.Power
|
item.Power = data.Power
|
||||||
item.MaxTokens = data.MaxTokens
|
item.MaxTokens = data.MaxTokens
|
||||||
item.MaxContext = data.MaxContext
|
item.MaxContext = data.MaxContext
|
||||||
|
item.Description = data.Description
|
||||||
|
item.Category = data.Category
|
||||||
item.Temperature = data.Temperature
|
item.Temperature = data.Temperature
|
||||||
item.KeyId = data.KeyId
|
item.KeyId = data.KeyId
|
||||||
item.Type = data.Type
|
item.Type = data.Type
|
||||||
|
|||||||
@@ -10,6 +10,8 @@ type ChatModel struct {
|
|||||||
Open bool // 是否开放模型给所有人使用
|
Open bool // 是否开放模型给所有人使用
|
||||||
MaxTokens int // 最大响应长度
|
MaxTokens int // 最大响应长度
|
||||||
MaxContext int // 最大上下文长度
|
MaxContext int // 最大上下文长度
|
||||||
|
Description string //模型描述
|
||||||
|
Category string //模型类别
|
||||||
Temperature float32 // 模型温度
|
Temperature float32 // 模型温度
|
||||||
KeyId int // 绑定 API KEY ID
|
KeyId int // 绑定 API KEY ID
|
||||||
Type string // 模型类型
|
Type string // 模型类型
|
||||||
|
|||||||
@@ -10,6 +10,8 @@ type ChatModel struct {
|
|||||||
Open bool `json:"open"`
|
Open bool `json:"open"`
|
||||||
MaxTokens int `json:"max_tokens"` // 最大响应长度
|
MaxTokens int `json:"max_tokens"` // 最大响应长度
|
||||||
MaxContext int `json:"max_context"` // 最大上下文长度
|
MaxContext int `json:"max_context"` // 最大上下文长度
|
||||||
|
Description string `json:"description"` // 模型描述
|
||||||
|
Category string `json:"category"` //模型类别
|
||||||
Temperature float32 `json:"temperature"` // 模型温度
|
Temperature float32 `json:"temperature"` // 模型温度
|
||||||
KeyId int `json:"key_id,omitempty"`
|
KeyId int `json:"key_id,omitempty"`
|
||||||
KeyName string `json:"key_name"`
|
KeyName string `json:"key_name"`
|
||||||
|
|||||||
2
database/update-v4.2.3.sql
Normal file
2
database/update-v4.2.3.sql
Normal file
@@ -0,0 +1,2 @@
|
|||||||
|
ALTER TABLE `chatgpt_chat_models` ADD `category` VARCHAR(1024) NOT NULL DEFAULT '' COMMENT '模型类别' AFTER `id`;
|
||||||
|
ALTER TABLE `chatgpt_chat_models` ADD `description` VARCHAR(1024) NOT NULL DEFAULT '' COMMENT '模型类型描述' AFTER `id`;
|
||||||
Reference in New Issue
Block a user