|
|
35488beef2
|
feat(skills): 集成 GPT Image 图片生成和编辑能力
- 新增 gpt-image-generator.js 脚本,支持文生图、图生图/重绘、批量生成
- 更新 pipeline 和 phase-images 支持 GPT Image 模型
- 更新技能文档,添加 GPT Image 使用说明和 API 特点
- 新增配置文件中的 GPT Image API 参数
|
2026-05-05 23:49:30 +08:00 |
|
|
|
45e0169010
|
fix(video-pipeline): 降低 Midjourney 风格参考权重至 100
|
2026-05-04 02:47:15 +08:00 |
|
|
|
0e3f0f7d0f
|
feat(video-pipeline): 增强参考图自动上传与视频生成重试机制
- 在 `init-manifest` 阶段添加输入文件清理日志和 WARNING 提示
- `getReferences` 改为异步并自动将本地参考图上传至 OSS,减少手动操作
- `phase-videos` 支持 `pending`/`failed` 状态 item 的自动重试,自动清理旧视频引用
- 优化 `phase-assemble` 中字幕与配音开关的逻辑,根据实际内容动态判断
|
2026-05-03 02:03:17 +08:00 |
|
|
|
6e8d2b8baa
|
refactor(video-pipeline): 将 MJ 生图拆分为提交和收割两阶段策略
将 `phaseImages` 中的图片生成逻辑重构为模块化的调度策略:
- Gemini/Kling 使用滑动窗口并发策略,完成一个立即补一个
- MJ 使用两阶段策略:先串行提交所有任务拿 taskId,再滑动窗口收割
- 提取 `submitMJ`、`harvestMJ`、`processItem` 等可复用函数
- 减少 Promise.allSettled 的冗余日志和状态维护
|
2026-05-02 22:54:05 +08:00 |
|
|
|
0998fd6ae1
|
feat(video-pipeline): 重构视频流水线,优化成片时间线规则和状态管理
- 引入 manifest.json 作为唯一状态源,所有子 Agent 操作回写 manifest
- 重构 timebuilder 逻辑,支持四种视频适配策略(加速/裁剪/放缓/画面停顿)
- 统一 TTS 阶段输出结构,单句和多句均写入 segments[]
- 重写字幕和配音生成,基于 segments 精确时长实现音画同步
- 新增 confirm 命令支持按 id 范围确认,上传阶段分离图片和视频
- 添加中间产物写入 output/ 目录的约束,清理废弃配置参数
|
2026-05-02 00:14:40 +08:00 |
|
lc
|
c7a6d69331
|
fix(phase-images): 修正 generateMJ 参数顺序与函数体一致
上游新增 manifest 参数时签名与 saveManifest 调用顺序不一致,
导致运行时 manifestPath/manifest 位置颠倒。统一为 manifestPath, manifest。
Co-Authored-By: Claude Sonnet 4.6 <noreply@anthropic.com>
|
2026-05-01 22:53:35 +08:00 |
|
|
|
b6ec208bcc
|
docs(video-from-script): 重构技能文档并优化图片生成脚本
- 简化并重组 SKILL.md 文档,清晰划分两类成片流程(幻灯片视频/AI视频)
- 移除冗余的 ASCII 图表和重复内容,使文档更具可读性
- 更新路由规则和示例,与新的分类标准保持一致
- 重构质量卡点部分,使其更简洁并明确检查标准
- 优化 phase-images.js 中的 MJ 图片生成函数,传递完整的 manifest 对象以供参考
|
2026-05-01 22:38:43 +08:00 |
|
|
|
96f00ce7fd
|
feat(video-pipeline): 将 narration 字段统一重命名为 script
字段重命名涉及所有文档、示例代码、提示词模板以及 slug 生成逻辑,确保管线各阶段(分镜、图生提示词、TTS、成片)一致使用 script 字段承载口播文案。
同时增强 `capcut_assemble.js` 的配音与字幕模块:
- 配音支持本地路径模式(不上传 OSS),新增 `--split-captions` 参数启用分句字幕
- 分句字幕按标点切分长文本为短句,基于字数权重动态分配显示时长
- 新增 `update-captions-standalone.js` 独立工具,可在草稿已生成后单独更新字幕
|
2026-05-01 02:48:37 +08:00 |
|
|
|
c878abc39b
|
feat(video-pipeline): 用 ffprobe 实际测量音视频时长并统一字段名为 script
将项目中的 `narration` 字段统一重命名为 `script`,并新增 `getAudioDurationSec` 函数通过 `ffprobe` 实际测量音频和视频文件的时长,替代 Manifest 中的估计值,提高时间线组装的准确性。同时优化字幕逻辑,仅在有 TTS 音频时调整视频速度。
|
2026-05-01 01:52:02 +08:00 |
|
|
|
7d526d2b60
|
feat(video-pipeline): 重构多阶段生成管线并集成 CosyVoice TTS
- 重写 `phase-images`:改为并发 3 张并行生成,每个 item 完成立即写入 manifest,支持 MJ task ID 恢复
- 重写 `phase-videos`:先恢复已有 task ID 再提交新任务(并发 3),支持中断恢复
- 迁移 TTS 引擎:从 Qwen-TTS HTTP 接口切换为 CosyVoice WebSocket 接口,支持音色/语气参数透传
- 精简账号系统:移除 `styles/` 目录、`taskId` 过滤和 `--id` 正则校验,`references` 改为顶层字段
- 调整 `slugify`:限制中文字符 5 个、其他 10 个,避免文件名过长
- 更新文档:`manifest-schema.md` 中 `narration` 改为完整原文案,`account-creation.md` 新增 TTS 配置项
- 配置更新:默认 TTS 模型切换为 `cosyvoice-v3.5-plus`,新增 `localAudio` 参数
|
2026-05-01 00:44:18 +08:00 |
|
|
|
86b9b7948d
|
feat(video-from-script): 重构工作流为子Agent分步执行并新增提示词模板系统
将视频制作工作流拆分为独立子步骤:分镜 → 图片提示词 → 生图 → 视频提示词 → 生视频 → 成片,每步由子Agent独立执行。引入prompts/目录统一管理提示词模板(分镜.md、图片提示词.md、视频提示词.md),通过account.json的storyboardPrompt/imageStylePrompt/videoStylePrompt字段引用。
变更内容:
- 新增confirmed机制和pipeline.js confirm命令,生图后必须人工确认才能继续
- manifest schema改用shotDesc/narration/duration/directorRef替代旧字段
- 文件命名规则从keyword改为slug(从shotDesc/narration派生)
- 删除旧的storyboard-rules.md和prompt-rules.md
- pipeline.js脚本拆分为lib/目录下的独立模块(cmd-init/cmd-confirm/cmd-validate/phase-*)
- 新增cmd-create-account支持一键创建带prompts目录的账号
- capcut_assemble支持narration字段替代text作为字幕源
- 新增.gitclaude/settings.json权限配置
|
2026-04-30 21:18:31 +08:00 |
|