[Visual Studio Code] 有没有办法在 vscode 中的 ai 插件对话中做标注?
比如高亮,能够让我快速定位到标注过的地方就行,比搜索会方便很多
Al - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第30页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1039 篇相关文章 · 第 30 / 52 页
比如高亮,能够让我快速定位到标注过的地方就行,比搜索会方便很多
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
大家好,最近我做了一个 GPT Image 2 prompt gallery: https://gptimagelab.com 同时把一部分内容整理成了 GitHub 仓库: https://github.com/peterRooo/awesome-gpt-image-2-pro
IT之家 4 月 24 日消息,据 realme 真我商城官网公告,真我商城将于 4 月 25 日(明天)停止提供购物、商品内容浏览、用户反馈、活动参与、商品评价、帖子评论、观看视频与直播、积分服务,保留历史订单信息查询服务等。“真我商城”小程序也将同步下架。 对于有查看历史订单
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
大家好,最近我做了一个 GPT Image 2 prompt gallery: https://gptimagelab.com 同时把一部分内容整理成了 GitHub 仓库: https://github.com/peterRooo/awesome-gpt-image-2-pro
大家好,最近我做了一个 GPT Image 2 prompt gallery: https://gptimagelab.com 同时把一部分内容整理成了 GitHub 仓库: https://github.com/peterRooo/awesome-gpt-image-2-pro
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 否 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
大家好,最近我做了一个 GPT Image 2 prompt gallery: https://gptimagelab.com 同时把一部分内容整理成了 GitHub 仓库: https://github.com/peterRooo/awesome-gpt-image-2-pro
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
大家好,最近我做了一个 GPT Image 2 prompt gallery: https://gptimagelab.com 同时把一部分内容整理成了 GitHub 仓库: https://github.com/peterRooo/awesome-gpt-image-2-pro
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
IT之家 4 月 24 日消息, 博主 @i冰宇宙 在 X 平台发文,透露三星 Galaxy Z Fold8 折叠屏手机将大幅缩小外屏摄像头打孔,从 Fold7 的 3.7mm 直径缩至 2.5mm。 ▲ Fold7 ▲ Fold8 对此,外媒 sammyguru 认为三星 Ga
npm install -g @openai /codex@0.125.0-alpha.2 安装 alpha版本 可以在模型列表切换,之后可以正常更新 7 个帖子 - 7 位参与者 阅读完整话题