老黄的开发平台上线deepseek-v4了
flash版本已经可用 pro不知道是太挤还是怎么回事,暂时还用不了 build.nvidia.com Try NVIDIA NIM APIs Experience the leading models to build enterprise generative AI apps
SE - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2357 篇相关文章 · 第 61 / 118 页
flash版本已经可用 pro不知道是太挤还是怎么回事,暂时还用不了 build.nvidia.com Try NVIDIA NIM APIs Experience the leading models to build enterprise generative AI apps
帮组里招人,北京,纯外企。做 billing 业务,招 senior backend engineer ,Java 后端。 要求 8 年以上经验,有相关业务系统经历,英文办公。 公司不打卡,时间上比较自由,氛围也还可以,总部美国,业务在全世界都有。各种五险一金,免费零食饮料,餐补
用户上传、拖拽图片: 用户上传图片/拖拽图片到指定位置(通过 或JavaScript 事件(如 ondrop)捕获文件),然后生成唯一的一个upload_id。前端将图片封装为multipart/form-data 格式,并且附加 upload_id 作为查询参数 Request
要做 QoS, DPI, IPSec/wireguard ,所以只能装个软路由,hardware offload 似乎不太支持 DPI 不知道自已买个小主机组装?还是买个成品多网口? 需求: 2 个 10G SFP+ 4-6 个 2.5G RJ45 在淘宝看到有倍控,畅网,飞速讯
求助:deepseekv4接入axonhub后似乎无法在Claudecode中调用 1 个帖子 - 1 位参与者 阅读完整话题
要做 QoS, DPI, IPSec/wireguard ,所以只能装个软路由,hardware offload 似乎不太支持 DPI 不知道自已买个小主机组装?还是买个成品多网口? 需求: 2 个 10G SFP+ 4-6 个 2.5G RJ45 在淘宝看到有倍控,畅网,飞速讯
这把幽默了DeepSeek V4 Pro解决了一个GPT-5.5循环无法解决的问题 - 搞七捻三 / 搞七捻三, Lv1 - LINUX DO 刚刚看到这个贴子 回个评论越打越长,最后决定还是发个帖子 感觉这次dsv4 很多人只看到了1m 注意力惊人这一个亮点 他很明显的展现出了
要做 QoS, DPI, IPSec/wireguard ,所以只能装个软路由,hardware offload 似乎不太支持 DPI 不知道自已买个小主机组装?还是买个成品多网口? 需求: 2 个 10G SFP+ 4-6 个 2.5G RJ45 在淘宝看到有倍控,畅网,飞速讯
思维链没官网那么长 捞针不循环 起码开玩笑还会标明 13 个帖子 - 9 位参与者 阅读完整话题
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
要做 QoS, DPI, IPSec/wireguard ,所以只能装个软路由,hardware offload 似乎不太支持 DPI 不知道自已买个小主机组装?还是买个成品多网口? 需求: 2 个 10G SFP+ 4-6 个 2.5G RJ45 在淘宝看到有倍控,畅网,飞速讯
opus给了6.5分 gpt给了7分 1 个帖子 - 1 位参与者 阅读完整话题
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
v4的中文表达能力个人觉得确实强了很多。之前我一直用kimi辅助完成中文写作和润色,现在我觉得v4的写作比k2.6要强。 v4的1M上下文是真1M啊,太舒服了。我没测试那么多但是两三百K上下文的时候也很强很舒服。 我一开始是接在claude code里用的(官方最新版),但是后来
我直接nanobot使用newapi遇到这样的问题了,问了几个AI没解决: Error: {‘message’: ‘The reasoning_content in the thinking mode must be passed back to the API.’, ‘type
Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50
【长期贴】开个帖子,分享一下我自己是如何做harness【已更新完成,等待交作业,后续再有新想法再补充】 开发调优 据网上传,目前Anthropic的所有产品均为harness模式,不过最近他们推了一个harness产品,原本把我吓了一跳,但实质一看,并不是干货,多少有点恶心人了
应该是目前最便宜的deepseek v4渠道了吧 3 个帖子 - 3 位参与者 阅读完整话题
不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。 15 个帖子 - 7 位参与者 阅读完整话题