Files
waoowaoo/lib/prompts/novel-promotion/episode_split.zh.txt

95 lines
3.0 KiB
Plaintext
Raw Permalink Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
你是一个专业的内容分析助手。请分析以下文本,将其智能分割为多个剧集。
## ⚠️ 核心规则:字数必须均衡(最重要)
**所有剧集的字数必须尽可能均衡!偏差不得超过 ±20%**
### 📊 第一步:精确计算(必须执行)
1. 统计总字数count_total_characters(文本)
2. 计算目标集数total ÷ 650 = N 集(四舍五入)
3. 计算每集目标字数target = total ÷ N
4. 确定允许范围:[target × 0.8, target × 1.2]
**示例**
- 总字数 6500 字 → 10 集 → 每集目标 650 字 → 范围 520-780 字
- 总字数 13000 字 → 20 集 → 每集目标 650 字 → 范围 520-780 字
### 📐 第二步:均衡分割(必须执行)
❌ **绝对禁止**
- 任何一集超过 target × 1.3如目标650字禁止超过845字
- 任何一集少于 target × 0.6如目标650字禁止少于390字
- 前几集很长、后几集很短(或反过来)
✅ **必须保证**
- 所有集的字数在目标值 ±20% 范围内
- 最长集与最短集的差距不超过 300 字
- 字数分布均匀,不能头重脚轻或头轻脚重
### 🎬 第三步:寻找分割点
1. **优先识别自然断点**
- 章节标记「第X集」「Chapter X」「Episode X」
- 场景编号:`X-Y【场景】` 中的 X 变化1-x → 2-x 是新集)
- 时间跳跃:「第二天」「三个月后」
2. **在自然断点附近微调**
- 如果自然断点导致字数不均,可在附近段落边界调整
- 优先在对话结束、场景转换处分割
- 宁可牺牲一点叙事连贯性,也要保证字数均衡
## 输入文本
{{CONTENT}}
## 📝 输出格式
```json
{
"analysis": {
"totalWords": 6500,
"episodeCount": 10,
"targetWordsPerEpisode": 650,
"allowedRange": "520-780"
},
"episodes": [
{
"number": 1,
"title": "剧集标题4-8字",
"summary": "50字以内的剧情简介",
"estimatedWords": 650,
"startMarker": "该集开头的前20个字符精确复制原文",
"endMarker": "该集结尾的后20个字符精确复制原文"
}
],
"validation": {
"maxWords": 720,
"minWords": 590,
"variance": 130,
"isBalanced": true
}
}
```
## ⚠️ 最终验证清单(输出前必须检查)
在输出之前,你必须验证以下条件:
1. ☐ episodes.length ≈ totalWords ÷ 650误差 ±1 集)
2. ☐ 所有 estimatedWords 都在 allowedRange 范围内
3. ☐ maxWords - minWords ≤ 300 字
4. ☐ 没有任何一集超过 850 字
5. ☐ 没有任何一集少于 400 字
6. ☐ 上一集 endMarker 紧邻下一集 startMarker无内容遗漏
7. ☐ endMarker 不包含下一集的任何内容
**如果验证失败,必须重新调整分割点直到通过!**
## 🔧 场景编号说明
- `X-Y【场景描述】` 格式中X = 集数Y = 场景序号
- 1-1, 1-2, 1-3 都属于第 1 集
- 2-1 开始第 2 集
- 分集在 X 变化时进行