求各位佬友推荐一个可以使用 Gemini-Flash-Lite 系列的中转站
有一堆书籍翻译的任务需要跑,量非常大,价格尽可能低一些,谢谢各位佬友推荐! 2 个帖子 - 2 位参与者 阅读完整话题
GEM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第26页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 582 篇相关文章 · 第 26 / 30 页
有一堆书籍翻译的任务需要跑,量非常大,价格尽可能低一些,谢谢各位佬友推荐! 2 个帖子 - 2 位参与者 阅读完整话题
Agent 会话 多 Agent 支持 :Claude Code · OpenAI Codex · Gemini CLI · Cursor · GitHub Copilot · Cline · Augment · Kimi · Kiro · Qwen · Qoder · Pi ·
chatgpt/gemini/claude 访问网速如何?
chatgpt/gemini/claude 访问网速如何?
chatgpt/gemini/claude 访问网速如何?
chatgpt/gemini/claude 访问网速如何?
chatgpt/gemini/claude 访问网速如何?
chatgpt/gemini/claude 访问网速如何?
gemini business注册需要验卡了么?怎么解决? 2 个帖子 - 2 位参与者 阅读完整话题
今天用codex、claude 写 改了一天bug,然后没额度了,想到还有Gemini可以凑合用用,gui使用的是站内大佬的 CC GUI ,用着挺舒服的,点赞了,然后gemini 写错了代码,跟它说撤销这次写到代码,结果给我运行了git checkout,但是我的代码还没com
最近在调研国内外研究进展,写一个课题的立项依据。gemini 和 chatgpt 都有 deep research 。你们用下来哪个更好?
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
最近在调研国内外研究进展,写一个课题的立项依据。gemini 和 chatgpt 都有 deep research 。你们用下来哪个更好?
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
最近在调研国内外研究进展,写一个课题的立项依据。gemini 和 chatgpt 都有 deep research 。你们用下来哪个更好?
最近在调研国内外研究进展,写一个课题的立项依据。gemini 和 chatgpt 都有 deep research 。你们用下来哪个更好?
有谁知道之前买的grok账号,和gemini pro,怎么反代出来吗,想用里面的生图。 1 个帖子 - 1 位参与者 阅读完整话题
还是我的代理挂了?选pro模式疯狂"出了点问题(13)",但flash思考就没问题。。手机app的pro模式也没有问题。。aistudio也没有任何问题。。 6 个帖子 - 3 位参与者 阅读完整话题
是否我哪里配置错误了? E4B 的 gemma 会用 websearch 或者 curl 去查,但26B 的几竟然不会! 部署方式:OLLMA + gemma 26B Q5-K-M (量化版本),显存12GB,4070TI + 64G 内存。 2 个帖子 - 2 位参与者 阅读完
跟着大家买了 goole one,除了上 gemini 的网页还能干什么? 3 个帖子 - 3 位参与者 阅读完整话题