tongchenkeji 发表于:2023-8-13 11:22:100次点击 已关注取消关注 关注 私信 咱们这个OpenSearch LLM智能问答,有流式输出的接口吗? 暂停朗读为您朗读 咱们这个OpenSearch LLM智能问答,有流式输出的接口吗? 「点点赞赏,手留余香」 赞赏 还没有人赞赏,快来当第一个赞赏的人吧! 海报 阿里云# 智能开放搜索 OpenSearch189# 自然语言处理193
算精通AM 2023-11-27 15:37:35 1 OpenAI的ChatGPT模型(也称为OpenSearch LLM)目前不支持直接的流式输出接口。ChatGPT模型是基于请求-响应的模式工作的,即您发送一个完整的请求,然后模型返回一个完整的响应。 虽然模型不支持流式输出接口,但您可以通过多次交互来实现类似流式处理的效果。您可以在一个会话中连续发送多个问题或请求,并依次处理每个问题的响应。这种方式可以模拟出逐步获取和处理输出的流式体验。 请注意,每次与模型的交互都需要在一定时间内完成,以避免连接超时或请求超时。此外,请注意模型的响应长度有限,超过模型限制的输入或输出长度可能会导致截断或被拒绝。
xin在这AM 2023-11-27 15:37:35 2 https://www.www.tongchenyun.com/wp-content/uploads/aliyun/2023/1127/search-knowledge](https://www.www.tongchenyun.com/wp-content/uploads/aliyun/2023/1127/wyvq5mjsckydw_e7e84d508f6042438f5a94f66c9219fc.png),此回答整理自钉群“OpenSearch LLM智能问答版用户交流群”
OpenAI的ChatGPT模型(也称为OpenSearch LLM)目前不支持直接的流式输出接口。ChatGPT模型是基于请求-响应的模式工作的,即您发送一个完整的请求,然后模型返回一个完整的响应。
虽然模型不支持流式输出接口,但您可以通过多次交互来实现类似流式处理的效果。您可以在一个会话中连续发送多个问题或请求,并依次处理每个问题的响应。这种方式可以模拟出逐步获取和处理输出的流式体验。
请注意,每次与模型的交互都需要在一定时间内完成,以避免连接超时或请求超时。此外,请注意模型的响应长度有限,超过模型限制的输入或输出长度可能会导致截断或被拒绝。
https://www.www.tongchenyun.com/wp-content/uploads/aliyun/2023/1127/search-knowledge](https://www.www.tongchenyun.com/wp-content/uploads/aliyun/2023/1127/wyvq5mjsckydw_e7e84d508f6042438f5a94f66c9219fc.png)
,此回答整理自钉群“OpenSearch LLM智能问答版用户交流群”