模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第69页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第69页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2651 篇相关文章 · 第 69 / 133 页

[程序员] [ 模型对比 ] 用手里有的几个模型做了一个小对比

实现一个比较常规机械时钟,实现的效果如下 链接直达

tech v2ex.com 2026-04-24 18:31:17+08:00

[Codex] codex 中转,留邮箱就送。

5 刀( 24h )额度,仅限 codex 模型,有国内 cdn 线路 帖子下留邮箱就送! 官网: https://www.krill-ai.com ps:仅限个人合理使用,分发会封号 ------------活动日期截至 4 月 26 日 只要留了的,都送 后续看情况继续---

tech v2ex.com 2026-04-24 18:28:33+08:00

any的codex能在hermes用吗

之前拿any的Claude模型在hermes里面调用被封号了,我就又看了遍公告,只说了无法转发非Claude code的api流量,但是没有提到codex,想问问大家有没有知道的 4 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 18:23:23+08:00

Deepseek v4系列模型的推理能力排行

同样来自Nao佬的网站 接上一篇编程测试: Deepseek v4 Pro的编程评测 - 前沿快讯 - LINUX DO (排行方式:中位分数) 网站: LLM Benchmark Dashboard 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 18:08:25+08:00

Deepseek今天之前的快速和专家模式对应的是什么模型

今天Deepseek正式发布了v4版本。然后看官方的这个介绍来说,快速模式就是对应Flash,专家模式就是对应Pro。 但是在这v4正式发布之前的时候,deepseek已经有了快速模式和专家模式选择。那么之前灰度的模型到底是什么?各位有没有什么测试? 究竟是一直用Flash,还是

tech linux.do 2026-04-24 18:08:12+08:00

[Codex] codex 中转,留邮箱就送。

5 刀( 24h )额度,仅限 codex 模型,有国内 cdn 线路 帖子下留邮箱就送! 官网: https://www.krill-ai.com ps:仅限个人合理使用,分发会封号 ------------活动日期截至 4 月 26 日 只要留了的,都送 后续看情况继续---

tech v2ex.com 2026-04-24 18:03:49+08:00

大伙有想过二次训练吗?

比如我下载了一个模型。 然后再把我所有文档交给它,二次训练。 那么,是不是就没必要 RAG 了。 通过这个模型,我就能提问了嘛,毕竟,我的基因已经嵌入进去了。

tech www.v2ex.com 2026-04-24 17:58:36+08:00

[Codex] codex 中转,留邮箱就送。

5 刀( 24h )额度,仅限 codex 模型,有国内 cdn 线路 帖子下留邮箱就送! 官网: https://www.krill-ai.com ps:仅限个人合理使用,分发会封号 ------------活动日期截至 4 月 26 日 只要留了的,都送 后续看情况继续---

tech v2ex.com 2026-04-24 17:58:08+08:00

火山引擎发布新一代汽车 AI 解决方案,豆包大模型搭载超 700 万辆车

火山引擎发布新一代汽车 AI 解决方案,豆包大模型搭载超 700 万辆车 - IT之家 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:56:26+08:00

折腾通了多agent多大模型协作的问题,coding plan套壳NewAPI踩坑分享

最近手头订阅了智谱 GLM 和 MiniMax 的 Coding Plan。但在实际使用中,遇到一个极其蛋疼的资源错配问题: GLM 不够用,MiniMax用不完 1. 遇到的问题 之前我使用的是 Claude Code,为了充分利用两个coding plan 计划是用 NewA

tech linux.do 2026-04-24 17:54:11+08:00

ollama cloud 上刚刚上了 deepseek-v4-flash 模型,可以用啦

大家快去看看 deepseek-v4-flash 模型 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:51:03+08:00

GPT 5.5 还是 Opus 4.7

想着是开claude 的max x5 还是 gpt的pro x5.有深度体验过这两款模型的大佬能给出些建议么 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:45:23+08:00

求助论文修改格式

因为论文格式跑出来很烂 不知道是不是模型问题用了codex还是普通的opus效果都很差。有无佬可以用其他AI或者方式修改一下格式 可有偿 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:38:08+08:00

[Codex] codex 中转,留邮箱就送。

5 刀( 24h )额度,仅限 codex 模型,有国内 cdn 线路 帖子下留邮箱就送! 官网: https://www.krill-ai.com ps:仅限个人合理使用,分发会封号 ------------活动日期截至 4 月 26 日 只要留了的,都送 后续看情况继续---

tech v2ex.com 2026-04-24 17:37:28+08:00

佬友有没有遇到用cpa的api调gpt模型时出现长时间的失败连接?

如图所示,superpowers写执行计划时就会出现这种长时间的失败,而且是不同账号,这是什么原因?是否有解决办法呢 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:37:02+08:00

【中文生成】关于国内外 AI 模型中文输出能力的一点使用体感

想跟大家聊聊不同 AI 模型在中文输出上的现状,纯主观使用体验,不算严谨测评。 我先抛砖引玉,说一下最近用下来比较明显的感受。 OpenAI 1. GPT-5.4 作为代码执行者确实挺强,写代码、跑任务、改工程问题都还可以。 但是一到中文文档、任务总结、说明文字,它就开始有点抽风

tech linux.do 2026-04-24 17:36:02+08:00

多模型协作有无解决方法

现在使用codex完成的任务,有时会让其他模型再审核一遍,复制粘贴、写prompt比较麻烦。有何自动方案吗?看了论坛里之前的一些帖子,多集中在去年10月以前的讨论,使用mcp、prompt来进行控制。现在是否有更成熟的方案? 调研过autogen和CrewAI,有无佬使用过,可以

tech linux.do 2026-04-24 17:28:41+08:00

omc 显示idle,无论什么指令都跑不下去,怎么办

2个子代理因为模型错误停住了 主agent发指令就显示 什么 stophook 然后显示idle 没反应 咋整,有佬知道不 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:26:57+08:00

摩尔线程携手智源 FlagOS,为 MTT S5000 GPU 完成 DeepSeek-V4 模型 Day-0 适配

IT之家 4 月 24 日消息,摩尔线程今天携手智源 FlagOS, 为旗舰级 AI 训推一体全功能 GPU MTT S5000 完成 DeepSeek-V4-Flash 模型 Day-0 适配 。 据介绍,DeepSeek-V4-Flash 模型采用混合专家(MoE)架构,总参

tech www.ithome.com 2026-04-24 17:24:48+08:00

[分享创造] 有了这个解析插件,大模型能读取 3000 多项 PDF 文档,并根据提问回答问题。

现在的大模型虽然上下文窗口大,但理解的范围不大,如果全部丢给它,估计会被塞爆。 如果 PDF 里面还包含了图片、表格等等的话,那就更不用说了。 https://imgur.com/a/Guu8GR2 所以,我做了一个专治非结构化数据的文件解析插件 Knowhere ,它能够识别复

tech v2ex.com 2026-04-24 17:23:35+08:00