aecc-llm-chat
v1.0.3
Published
LLM模型对话组件
Readme
基于LLM的对话组件
使用说明
安装插件
npm install aecc-llm-chat页面内使用示例
<template>
<div class="row chat-page">
<LLMChat :fesUrl="uri" :kbName="kbName" :model="model">
</LLMChat>
</div>
</template>
<script>
import {LLMChat} from "aecc-llm-chat"
export default {
name: "ai",
components: {
LLMChat
},
data () {
return {
uri: process.env.VUE_APP_SERVER_API + "/hello/chat",
kbName: "emergencyPlan",
model: "qwen2-instruct"
}
},
methods: {
}
}
</script>
<style scoped>
.chat-page {
height: calc(100vh - 20px);
background-color: darkgrey;
display: flex;
justify-content: center;
}
</style>参数说明
|参数|类型|描述|是否必填| |---|---|---|---| |fesUrl|String|后端接口地址|必填| |kbName|String|RAG对话时的知识库名称,作为接口的请求参数传递给后端|否| |model|String|使用的模型名称,作为接口的请求参数传递给后端|否| |mode|String|对话类型,作为接口的请求参数传递给后端,默认值:local_kb|否| |topK|Number|历史对话轮数,作为接口的请求参数传递给后端,默认值:3|否| |scoreThreshold|Number|作为接口的请求参数传递给后端,默认值:2|否| |stream|Boolean|作为接口的请求参数传递给后端,默认值:true|否| |temperature|Number|作为接口的请求参数传递给后端,默认值:0.7|否| |maxTokens|Number|作为接口的请求参数传递给后端,默认值:0|否| |promptName|String|作为接口的请求参数传递给后端,默认值:default|否| |returnDirect|Boolean|作为接口的请求参数传递给后端,默认值:false|否|
