[程序员] 为了买到便宜靠谱的 Token,少被割韭菜,我做了个比价的网站
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
一个 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第307页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 8935 篇相关文章 · 第 307 / 447 页
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
完整提示词如下: Reasoning Effort: Absolute maximum with no shortcuts permitted. You MUST be very thorough in your thinking and comprehensively deco
公司每天早上站会,围成一个圈给领导汇报…每天晚上还要写日报给领导发过去,本来在暑期实习,已经犹豫要不要跑路了… 13 个帖子 - 11 位参与者 阅读完整话题
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
潜水好久,第 2 次在 V2 发创造帖,有点紧张。 事情起因是去年底开始做跨境电商,作为新手踩了太多工具的坑: 看了一堆“必备工具”推荐文章,收藏夹塞爆,真要用的时候不知道先点哪个 更崩溃的是,很多工具在国内打不开,或者打开慢到怀疑人生,找平替又得重新搜 有些工具年费大几百刀,买
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
2000 左右的
2000 左右的
2000 左右的
我在 aistudio 发现了一个很奇怪的事情,就是 gemini-flash-latest 是 gemini-3-flash-preview 的 alias ,但两者定价不同,前者输入、输出分别是 0.3 、2.5 ,后者是 0.5 、3.0 ,不知各位是否留意到这个,应该放心
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
前阵子有大佬分享了一批网站,都是20块钱30块钱,甚至7块钱的账号一个月的。 但是我去看了一圈,现在都基本上没了,库存都为0了。 现在还有哪些大佬有这些资源渠道呀,跪求 9 个帖子 - 8 位参与者 阅读完整话题
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
我在 aistudio 发现了一个很奇怪的事情,就是 gemini-flash-latest 是 gemini-3-flash-preview 的 alias ,但两者定价不同,前者输入、输出分别是 0.3 、2.5 ,后者是 0.5 、3.0 ,不知各位是否留意到这个,应该放心
2000 左右的
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
有2个账号,我想同时运行多个任务,单个app运行3个任务左右就开始卡app了,所以想多开一个,能行吗。 3 个帖子 - 2 位参与者 阅读完整话题
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
我只想用一个20刀的pro 现在新开的话,怎么才能不被封号 提交美国身份证还会被封吗 24 个帖子 - 12 位参与者 阅读完整话题