sh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第29页 - 钛刻科技 | TCTI.cn

sh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第29页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 987 篇相关文章 · 第 29 / 50 页

一个简单的任务实测,简单测试deepseekv4flash的能力

太牛了好吧,牛逼 Windows PowerShell 版权所有(C) Microsoft Corporation。保留所有权利。 安装最新的 PowerShell,了解新功能和改进!https://aka.ms/PSWindows PS C:\Users\25608\Deskt

tech linux.do 2026-04-25 12:13:15+08:00

[宽带症候群] 求个 OpenClash 详细设置教程

软路由 ImmortalWrt 固件,按照油管几位博主设置 OpenClash ,Chrome 打开 𝕏 等网页总是慢一点,有时候 𝕏 还加载失败,需要刷新才能进入。 不使用软路由,硬路由 + Clash Verge 客户端,网页也秒开了,一切正常。 所以,想找个最新设置 Ope

tech v2ex.com 2026-04-25 11:57:00+08:00

Dflash如何?

我看网上好多吹的,有没有老友测试过?论文里也说性能损失很小 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:31:03+08:00

hugo mod 代理设置

在谈论标题前先说说hugo主题的安装,以 blowfish 为例 使用git submodule git submodule add -b main https://github.com/nunocoracao/blowfish.git themes/blowfish 优点: 可

tech linux.do 2026-04-25 11:27:13+08:00

DeepSeekv4神了

deepseek在长上下文和工具调用上不管是pro和flash差距都非常小,都能准确记住长上下文内容,对于pro有这个表现是正常的,但是flash表现居然也不错!要知道flash的参数量才284B! 而经济上deepseek不管是pro还是flash都非常便宜(对比国外),但是能

tech linux.do 2026-04-25 10:51:41+08:00

[Codex] win11 + powershell 7, codex 给我 py 项目目录跑测试生成几百个 4 字节临时文件

这种如何避免啊,已经出现好多次,不知道如何约束。。。

tech v2ex.com 2026-04-25 10:16:47+08:00

还有啥免费的翻译通道没

佬们 还有啥免费的沉浸式翻译的提供商 智普最近把glm4flash 200并发掉20去了( 最新前沿快讯话题 - LINUX DO ) cerebras也要把两个模型下线了 longcat速度感觉又太慢了 以及这个并发在沉浸式翻译上什么数值才算合适 我给longcat现在设置的是

tech linux.do 2026-04-25 10:12:00+08:00

七牛的 deepseek-v4-flash 快的吓人

七牛的 deepseek-v4-flash 快的吓人,有 200 的吐字速度了 刚才测了下 ds 官方的大概在 80 左右 8 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:48:05+08:00

DeepSeek V4 Flash是最强小模型吗??

主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:35:59+08:00

[Codex] win11 + powershell 7, codex 给我 py 项目目录跑测试生成几百个 4 字节临时文件

这种如何避免啊,已经出现好多次,不知道如何约束。。。

tech v2ex.com 2026-04-25 08:27:09+08:00

[Codex] win11 + powershell 7, codex 给我 py 项目目录跑测试生成几百个 4 字节临时文件

这种如何避免啊,已经出现好多次,不知道如何约束。。。

tech v2ex.com 2026-04-25 08:27:09+08:00

老黄的开发平台上线deepseek-v4了

flash版本已经可用 pro不知道是太挤还是怎么回事,暂时还用不了 build.nvidia.com Try NVIDIA NIM APIs Experience the leading models to build enterprise generative AI apps

tech linux.do 2026-04-25 07:16:19+08:00

怎么感觉v4flash还是很贵

接入了claude code写代码 怎么一会儿就花一块 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 04:34:31+08:00

解决Codex创建ssh权限受阻问题 "Permission denied"

更新完新版Codex之后突然发现无法连接上我的ssh了 会出现Permission denied的字样 看起来是安全策略有了一些变更 那么直接给出解决方案: 在config.toml加上 approval_policy = “on-request” sandbox_mode =

tech linux.do 2026-04-25 02:33:12+08:00

Glm4flash免费用户并发调整成20

如题 之前是200来着 现在改成20了 沉浸式翻译现在我已经转longcat flash了 并发20好像也没问题 不过我也不确定这是不是快讯 我是今天才发现的 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 01:50:50+08:00

deepseek-V4-flash现在怎么在nanobot/hermes/龙虾上使用?

我直接nanobot使用newapi遇到这样的问题了,问了几个AI没解决: Error: {‘message’: ‘The reasoning_content in the thinking mode must be passed back to the API.’, ‘type

tech linux.do 2026-04-25 00:55:24+08:00

ModelScope魔搭现已支持调用DeepSeek V4

Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50

tech linux.do 2026-04-25 00:55:10+08:00

deepseek-v4-flash + Harness 实践

【长期贴】开个帖子,分享一下我自己是如何做harness【已更新完成,等待交作业,后续再有新想法再补充】 开发调优 据网上传,目前Anthropic的所有产品均为harness模式,不过最近他们推了一个harness产品,原本把我吓了一跳,但实质一看,并不是干货,多少有点恶心人了

tech linux.do 2026-04-25 00:48:23+08:00

opencode go上deepseek V4 pro和flash了

不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。 15 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:39:40+08:00

「听劝的富可敌国」OneToken.sh GPT-5.5,人民币2元100万Token,23-24充值的用户百分百补偿,抽10名500万平台Token

从 「OneToken.sh」本站正式支持GPT-5.5,人民币2元100万Token,抽10位送500万Token【已听劝】 继续讨论: 官网: OneToken.sh 1M=100万Token 输入价格: 3元/M Token 输出价格: 12元/M Token 缓存输入:

tech linux.do 2026-04-25 00:34:09+08:00