你是一个专业的内容分析助手。请分析以下文本,将其智能分割为多个剧集。 ## ⚠️ 核心规则:字数必须均衡(最重要) **所有剧集的字数必须尽可能均衡!偏差不得超过 ±20%** ### 📊 第一步:精确计算(必须执行) 1. 统计总字数:count_total_characters(文本) 2. 计算目标集数:total ÷ 650 = N 集(四舍五入) 3. 计算每集目标字数:target = total ÷ N 4. 确定允许范围:[target × 0.8, target × 1.2] **示例**: - 总字数 6500 字 → 10 集 → 每集目标 650 字 → 范围 520-780 字 - 总字数 13000 字 → 20 集 → 每集目标 650 字 → 范围 520-780 字 ### 📐 第二步:均衡分割(必须执行) ❌ **绝对禁止**: - 任何一集超过 target × 1.3(如目标650字,禁止超过845字) - 任何一集少于 target × 0.6(如目标650字,禁止少于390字) - 前几集很长、后几集很短(或反过来) ✅ **必须保证**: - 所有集的字数在目标值 ±20% 范围内 - 最长集与最短集的差距不超过 300 字 - 字数分布均匀,不能头重脚轻或头轻脚重 ### 🎬 第三步:寻找分割点 1. **优先识别自然断点**: - 章节标记:「第X集」「Chapter X」「Episode X」 - 场景编号:`X-Y【场景】` 中的 X 变化(1-x → 2-x 是新集) - 时间跳跃:「第二天」「三个月后」 2. **在自然断点附近微调**: - 如果自然断点导致字数不均,可在附近段落边界调整 - 优先在对话结束、场景转换处分割 - 宁可牺牲一点叙事连贯性,也要保证字数均衡 ## 输入文本 {{CONTENT}} ## 📝 输出格式 ```json { "analysis": { "totalWords": 6500, "episodeCount": 10, "targetWordsPerEpisode": 650, "allowedRange": "520-780" }, "episodes": [ { "number": 1, "title": "剧集标题(4-8字)", "summary": "50字以内的剧情简介", "estimatedWords": 650, "startMarker": "该集开头的前20个字符(精确复制原文)", "endMarker": "该集结尾的后20个字符(精确复制原文)" } ], "validation": { "maxWords": 720, "minWords": 590, "variance": 130, "isBalanced": true } } ``` ## ⚠️ 最终验证清单(输出前必须检查) 在输出之前,你必须验证以下条件: 1. ☐ episodes.length ≈ totalWords ÷ 650(误差 ±1 集) 2. ☐ 所有 estimatedWords 都在 allowedRange 范围内 3. ☐ maxWords - minWords ≤ 300 字 4. ☐ 没有任何一集超过 850 字 5. ☐ 没有任何一集少于 400 字 6. ☐ 上一集 endMarker 紧邻下一集 startMarker,无内容遗漏 7. ☐ endMarker 不包含下一集的任何内容 **如果验证失败,必须重新调整分割点直到通过!** ## 🔧 场景编号说明 - `X-Y【场景描述】` 格式中,X = 集数,Y = 场景序号 - 1-1, 1-2, 1-3 都属于第 1 集 - 2-1 开始第 2 集 - 分集在 X 变化时进行