跟ChatGPT聊天需求润色优化,禅道OpenAI 插件发布!
Posted 项目管理知识
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了跟ChatGPT聊天需求润色优化,禅道OpenAI 插件发布!相关的知识,希望对你有一定的参考价值。
神奇海螺
“章鱼哥,你为什么不问问神奇海螺呢?”——海绵宝宝
那么,就让我们问一问神奇海螺吧!禅道上线神奇海螺功能,打通ChatGPT的API,解决在国内个人用户使用ChatGPT比较困难的问题,您可以通过禅道的神奇海螺向ChatGPT聊天提问了!在禅道右下角增加了神奇海螺功能,是一个 ChatGPT 聊天框,可以在这里与 ChatGPT 聊天。
具体如何更好地使用神奇海螺,可以参考下列原则:
- 提问最好聚焦在某个具体问题,太开放性的问题可能只能用来“调戏”它,得不到具有参考意义的回答;
- 提问时可以尽可能详细地描述问题背景、上下文信息,或者根据它的回答继续补充明确信息;
- 神奇海螺具有上下文功能,支持多次迭代,重新调整问题描述或给到更清楚的信息,在原有基础上进行迭代。
总而言之,神奇海螺适合用来写诗、写文章、写小说、写代码、归纳总结,不适合开放性广义问题、寻求情感建议。
需求润色
作为一个产品经理,我偶尔写不出好需求……别怕,需求润色来帮你!在产品-需求功能下,神奇海螺可以帮助产品经理进行需求的润色、完善和优化。它可以:
- 把一句话需求转化为准确、清晰、具体,具有完整描述的需求;
- 把需求标题、需求描述、验收标准补充为条理清晰的内容;
- 转换后不合适的需求可以进行重新转换,直到满意为止;
- 可以根据转换后的内容再度调整原有需求描述,重新转换;
- 保存转换结果后,进入需求编辑或需求变更流程。
有了需求润色,妈妈再也不用担心我的需求写的太烂!不过,可不要过度依赖它,它依然有不够了解、不够智能的领域,所以加强自身的能力,把需求润色作为辅助工具,不断提高自身的产品经理技能才是王道。
插件安装和配置
下载地址:https://www.zentao.net/extension-viewExt-218.html
前提
为了使用这个插件,禅道管理员需要拥有:1.一个可用的 OpenAI 账户和 API Key;
2.一个可以访问 OpenAI 服务的 SOCKS5 代理服务器(如果你的禅道服务器不能直接访问 OpenAI 服务)。
安装方式
1.在禅道插件管理中安装;2.下载插件包后,解压并覆盖对应的 extension 目录到禅道的 extension 目录。
配置步骤
1.在后台 – 系统设置中,定位到 OpenAI 设置;2.填写自 OpenAI 获取到的 API Key,并按照情况填写代理设置;
3.在后台 – 用户 – 权限中,为相应的用户组赋予 OpenAI 功能权限。
安装配置完成,就可以去使用这两个功能啦,不过最后还是强调一下,ChatGPT会“骗人”,会一本正经地讲它并不了解的信息,所以跟它的交互最好还是具备一定的知识储备,合理使用工具,让它为自己所用!
目前的禅道OpenAI 插件是1.0版本,后续还将继续优化,集成更多智能功能,敬请期待!
openAi ChatGPT调用性能优化的一些小妙招
参考的demo:GitHub - ddiu8081/chatgpt-demo: A demo repo based on OpenAI API.
扭曲调教:
openai提供的chat接口(https://api.openai.com/v1/chat/completions)由于其模型很大(什么1750亿个参数啥的),单次http请求很难完成处理,一些常用的做法是采取流返回的方式,一个字一个字往外蹦,然后一点一点渲染,例如demo里的代码:
export const parseOpenAIStream = (rawResponse: Response) =>
const encoder = new TextEncoder()
const decoder = new TextDecoder()
if (!rawResponse.ok)
return new Response(rawResponse.body,
status: rawResponse.status,
statusText: rawResponse.statusText,
)
const stream = new ReadableStream(
async start(controller)
const streamParser = (event: ParsedEvent | ReconnectInterval) =>
if (event.type === 'event')
const data = event.data
if (data === '[DONE]')
controller.close()
return
try
// response =
// id: 'chatcmpl-6pULPSegWhFgi0XQ1DtgA3zTa1WR6',
// object: 'chat.completion.chunk',
// created: 1677729391,
// model: 'gpt-3.5-turbo-0301',
// choices: [
// delta: content: '你' , index: 0, finish_reason: null
// ],
//
const json = JSON.parse(data)
const text = json.choices[0].delta?.content || ''
const queue = encoder.encode(text)
controller.enqueue(queue)
catch (e)
controller.error(e)
const parser = createParser(streamParser)
for await (const chunk of rawResponse.body as any)
parser.feed(decoder.decode(chunk))
,
)
return new Response(stream)
类似于这样的处理方式。
但流传输不一定适用于所有的业务,若将stream改成false,那么接口响应多半会超时。
因此需要一些优化的策略:
一、降智
选用低能一些的模型,不过我尝试了gpt3的模型,一概不说人话
而/v1/completions的接口里只有 text-davinci-003还可以接受
说明一下/v1/completions和v1/chat/completions的区别,/v1/chat/completions是传一个数组messages来完成上下文关联,而/v1/completions传的是一个字符串prompt参数,不过依然可以通过追加的方式,使其回答具有上下文关联性。
不过!! text-davinci-003费用是turbo的10倍!!!!!!!
这是决对不能接受的!!!
二、降低temperature参数
这个会有轻量的影响,如果你并不需要每次相同的问题都要回答不同的答案,那么可以降低此值,甚至可以降为0
三、优化返回长度
这个会影响最大,亲测最有效,在问题前面追加回答设置,例如,回答不要超过100字,请简洁的回答下列问题等。会最大程度的降低返回时间,因为接口是按调用词数和返回词数计费的(ChatGPT(GPT3.5)官方API模型名称为“gpt-3.5-turbo”和“gpt-3.5-turbo-0301”。API调用价格比GPT text-davinci-003模型便宜10倍。调用费用为0.002美元/1000tokens,折合下来差不多0.1元4000~5000字。这个字数包括问题和返回结果字数。),所以chatgpt保持着能多bb尽量多bb的原则,少让他多bb点还可以省钱。
注意,参数里的max_tokens没必要设置,因为他只会无脑切割, 如果设置低了超过原本的输出答案,回答会不完整。
以上是关于跟ChatGPT聊天需求润色优化,禅道OpenAI 插件发布!的主要内容,如果未能解决你的问题,请参考以下文章
我替 OpenAI 实现了 ChatGPT 聊天记录复制功能
想尝试与ChatGPT聊天对话,但是注册OpenAI时却提示“OpenAI‘s services are not available in your country”,怎么破?
想尝试与ChatGPT聊天对话,但是注册OpenAI时却提示“OpenAI‘s services are not available in your country”,怎么破?