[DeepSeek] DeepSeek V4 刚发布,我把它接入了我的本地 AI 科普视频生成框架
DeepSeek V4 发布后,我就用它搭了一套「 AI 自动生成短视频」的流程,简单分享下。 核心就是:输入一个主题(支持文本 / PDF / URL ) → 自动生成脚本 → 一键生成视频(配音 + 图片 + 字幕 + BGM + 封面)→ 直接发布。 大概流程: 输入主题(
视频 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第12页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 460 篇相关文章 · 第 12 / 23 页
DeepSeek V4 发布后,我就用它搭了一套「 AI 自动生成短视频」的流程,简单分享下。 核心就是:输入一个主题(支持文本 / PDF / URL ) → 自动生成脚本 → 一键生成视频(配音 + 图片 + 字幕 + BGM + 封面)→ 直接发布。 大概流程: 输入主题(
背景是大学思政课需要拍视频,我是负责剪辑的,现在我有原始素材和对应的PPT和演讲稿,怎么利用Ai帮我剪辑呢 3 个帖子 - 3 位参与者 阅读完整话题
房东发来了4个视频,一室一厅一卫500~700元/月,一室一卫的便宜一些。民水民电,价格便宜也主要是因为地理位置偏僻。 佬友们有没有一些经验之谈可以分享一下? 视频1 视频2 视频3 视频4 有没有什么比较方便的在L站分享视频的方法?挂到cloudflare R2似乎不能直接预览
视频生成或者efficient的视频生成感觉没办法做太长时间,可能2-3年后这个方向就不火了,但是世界模型如果能加上physical的信息感觉还挺有搞头的,佬们能给推荐一些方向吗?十分感谢 9 个帖子 - 9 位参与者 阅读完整话题
有相机拍出来的视频,占用硬盘空间很大,移动硬盘的空间不够用,而且现在的m4+24G+512G的mac book air用剪映软件剪辑不流畅,很卡顿,现在的视频质量30s大概是10G大小,如果需要长久保存原视频和成片的情况下,建议应该使用什么样的方案来保存和剪辑创作呢? 2 个帖子
拥有超过 10 年的前端/全栈开发经验, 热爱开源、工程设计、性能优化和从零到一的产品交付。 上份工作在三年前也发过贴还上了热门 https://www.v2ex.com/t/893707 , 不过项目最终还是没有成功,然后前端团队也解散了。 经典开源项目 https://art
周末两天做了chrome插件 , 下载网站视频 , 欢迎试用 100apps.dev 5 分钟装好嗅嗅 VidGet (含 YouTube) - 100Apps 嗅嗅 VidGet 是一款 Chrome 视频下载扩展, 在视频画面下方加一个绿色按钮, 一键下载 YouTube /
拥有超过 10 年的前端/全栈开发经验, 热爱开源、工程设计、性能优化和从零到一的产品交付。 上份工作在三年前也发过贴还上了热门 https://www.v2ex.com/t/893707 , 不过项目最终还是没有成功,然后前端团队也解散了。 经典开源项目 https://art
非推广,纯分享,和下方参考视频、Github项目均无利益关系! 众所周知, Qwen3.5-27B 在多方面的能力表现惊艳,甚至能打一两年前的超大模型,然而在本地部署中,其较低的速度往往让体验大打折扣,即使是 90 级别显卡也只有二三十 Token/s,远不如 Qwen3.5-3
佬们,请问能不能给两个linuxdo的邀请码啊, 我有两个同学想要加入进来,他们是做视频编解码的,也想进来学习交流一下 因为我一直在潜水,所以没有升三级,不能邀请他们进来 感谢分享的佬,已经收到邀请码了 祝佬们心想事成,万事如意 10 个帖子 - 8 位参与者 阅读完整话题
奖品详情: SVIP月卡,支持冲到qq号、手机号,带电视上看的权益 活动时间: 开始时间:帖子发出后 截止时间:4.28 23:00 参与方式: 在本帖下回复任意内容 抽奖规则: 每位用户仅允许参与一次。 使用 官方抽奖工具 随机抽取中奖者。 注意事项: 本活动将在活动截止时间后
最新想把家里的小主机停了,但是偶尔需要在电视上看网盘的视频。如果在甲骨文上安装openlist,挂载123网盘或者夸克网盘,可行吗? 4 个帖子 - 4 位参与者 阅读完整话题
日前,有网友发布视频显示, 2026北京车展梅赛德斯-奔驰展台迎来一位特殊嘉宾——世界上第一台汽车“奔驰一号”(奔驰授权复刻版)。 这台诞生于140年前的三轮汽车不仅静态展示,还在现场完成了启动和行驶演示。 视频中,工作人员在车尾用手转动飞轮,随后车辆发动机启动,驾驶员挂上挡位后
如题,不是很会写这些prompt,佬们能指导一下吗 2 个帖子 - 2 位参与者 阅读完整话题
最近站内全是GPT-image-2的效果图,都画好牛,甚至看到一句话有京剧拆解图的,说明模型自身的数据喂养很足。 结合年前字节爆火的seeddance2.0的动画制作,是不是可以有这个思路: 静态/场景图:GPT-image-2;视频:seeddance2.0;就可以生成很逼真的