📋 Model Description
language:
- ja
- zh
- translation
- light-novel
- galgame
- cot
- system-2
- gguf
- quantization
- text-generation-inference
base_model: Murasaki-Project/Murasaki-8B-v0.1
pipeline_tag: text-generation
library_name: gguf
![]()
Murasaki-8B-v0.1 (GGUF)
System 2 Reasoning Model for ACGN Translation
原生 CoT 思维链 · 长上下文 · ACGN 领域特化翻译模型
Github | Benchmark | BF16 Version | License: CC BY-NC-SA 4.0
⚠️ 提示:该模型已有更新的版本,推荐使用新版本以获取更好的体验。点击前往主页
简介
Murasaki-8B 是专为 ACGN 领域(轻小说、Galgame、漫画等)优化的 System 2 推理型翻译模型。
不同于传统的直觉式(System 1)模型,Murasaki-8B 引入了原生 Chain-of-Thought (CoT) 思维链技术。在生成译文前,模型会先在 标签内完成风格定调、动作流解析、人设推导及人称确认。这种机制显著提升了长难句的解析精度与叙事连贯性,特别是精准解决了 ACGN 翻译中常见的施动者/受动者判定模糊、人称混淆及语境风格漂移等难点,大幅提升了译文的准确度与可读性。
⚠️ 注意: 本仓库包含适用于本地部署的 GGUF 量化模型。
如需全精度 BF16 权重 (15.3 GB),请前往:Murasaki-8B-v0.1
文件列表与显存需求
| 文件名 | 量化方法 | 文件大小 | 推荐显存 | 适用场景 |
|---|---|---|---|---|
Murasaki-8B-v0.1-Q6K.gguf | Q6K | 6.27 GB | 8GB+ | 推荐:高精度/最佳质量 |
Murasaki-8B-v0.1-Q5KM.gguf | Q5KM | 5.45 GB | 8GB+ | 性能均衡 |
Murasaki-8B-v0.1-Q4KM.gguf | Q4KM | 4.68 GB | 6GB+ | 经典量化 |
Murasaki-8B-v0.1-IQ4XS.gguf | IQ4XS | 4.25 GB | 6GB+ | 推荐:性价比最优 |
Murasaki-8B-v0.1-IQ3M.gguf | IQ3M | 3.63 GB | 6GB+ | 极限压缩 |
快速开始 (GGUF)
方法 1: 使用官方 GUI (推荐)
为了获得最佳的翻译体验和底层优化,请使用我们配套开发的开源前端翻译GUI: 👉 Murasaki Translator (GitHub)方法 2: 使用 llama.cpp
./llama-cli -m Murasaki-8B-v0.1-IQ4_XS.gguf \
-p "你是一位精通二次元文化的资深轻小说翻译家。..." \
-n 2048 \
-t 8 \
--temp 0.7 \
-c 8192
评测表现
我们使用 wmt22-comet-da 指标,在 Murasaki-ACGN Benchmark 的两个段落级数据集(Long/Short)上评估了模型与专业人类译文的语义相似度。
💡 以下分数基于 IQ4_XS (4-bit) 量化版本测得。
综合排行榜 (截止模型发布时)
| Rank | Model | Avg COMET | Long | Short |
|---|---|---|---|---|
| 🥇 | murasaki-8b-v0.1 | 0.8523 | 0.8778 | 0.8269 |
| 2 | gemini-3-flash-preview | 0.8512 | 0.8765 | 0.8262 |
| 3 | Sakura-qwen-2.5-14B | 0.8509 | 0.8735 | 0.8282 |
| 4 | gpt-5-chat-latest | 0.8503 | 0.8765 | 0.8250 |
| 5 | gemini-2.5-flash | 0.8502 | 0.8767 | 0.8243 |
| 6 | gemini-3-pro-preview | 0.8491 | 0.8744 | 0.8238 |
| 7 | gpt-4.1 | 0.8490 | 0.8724 | 0.8259 |
| 8 | claude-opus-4-5 | 0.8484 | 0.8732 | 0.8236 |
推理参数建议
- Temperature:
0.6-0.8(推荐0.7以平衡创造力与稳定性) - Repetition Penalty: 从
1.0开始。 - Context Size: 建议上下文窗口设置在
4096或更高,以支持长篇翻译。
协议与致谢
- Base Model: 特别感谢 SakuraLLM 提供的优秀 Base 模型。
- License: 软件代码遵循 Apache-2.0 协议,模型权重遵循 CC BY-NC-SA 4.0 协议,严禁用于任何商业用途。
Copyright © 2026 Murasaki Project
📂 GGUF File List
| 📁 Filename | 📦 Size | ⚡ Download |
|---|---|---|
|
Murasaki-8B-v0.1-IQ3_M.gguf
LFS
Q3
|
3.63 GB | Download |
|
Murasaki-8B-v0.1-IQ4_XS.gguf
LFS
Q4
|
4.25 GB | Download |
|
Murasaki-8B-v0.1-Q4_K_M.gguf
Recommended
LFS
Q4
|
4.68 GB | Download |
|
Murasaki-8B-v0.1-Q5_K_M.gguf
LFS
Q5
|
5.45 GB | Download |
|
Murasaki-8B-v0.1-Q6_K.gguf
LFS
Q6
|
6.26 GB | Download |