关于新DeepSeek api模型的上下文测试

DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。 但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。 超时报错:{“error”:{“message”:“We were unable to start proce...
关于新DeepSeek api模型的上下文测试
关于新DeepSeek api模型的上下文测试

DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗

2 个帖子 - 2 位参与者

阅读完整话题

来源: linux.do查看原文