📋 Model Description


language:
  • ja
  • zh
license: cc-by-nc-sa-4.0 tags:
  • translation
  • light-novel
  • galgame
  • cot
  • system-2
  • gguf
  • quantization
  • text-generation-inference

base_model: Murasaki-Project/Murasaki-8B-v0.1
pipeline_tag: text-generation
library_name: gguf



Murasaki Logo

Murasaki-8B-v0.1 (GGUF)

System 2 Reasoning Model for ACGN Translation

原生 CoT 思维链 · 长上下文 · ACGN 领域特化翻译模型

Github | Benchmark | BF16 Version | License: CC BY-NC-SA 4.0


⚠️ 提示:该模型已有更新的版本,推荐使用新版本以获取更好的体验。点击前往主页

简介

Murasaki-8B 是专为 ACGN 领域(轻小说、Galgame、漫画等)优化的 System 2 推理型翻译模型。

不同于传统的直觉式(System 1)模型,Murasaki-8B 引入了原生 Chain-of-Thought (CoT) 思维链技术。在生成译文前,模型会先在 标签内完成风格定调、动作流解析、人设推导及人称确认。这种机制显著提升了长难句的解析精度与叙事连贯性,特别是精准解决了 ACGN 翻译中常见的施动者/受动者判定模糊、人称混淆及语境风格漂移等难点,大幅提升了译文的准确度与可读性。

⚠️ 注意: 本仓库包含适用于本地部署的 GGUF 量化模型。

如需全精度 BF16 权重 (15.3 GB),请前往:Murasaki-8B-v0.1

文件列表与显存需求

文件名量化方法文件大小推荐显存适用场景
Murasaki-8B-v0.1-Q6K.ggufQ6K6.27 GB8GB+推荐:高精度/最佳质量
Murasaki-8B-v0.1-Q5KM.ggufQ5KM5.45 GB8GB+性能均衡
Murasaki-8B-v0.1-Q4KM.ggufQ4KM4.68 GB6GB+经典量化
Murasaki-8B-v0.1-IQ4XS.ggufIQ4XS4.25 GB6GB+推荐:性价比最优
Murasaki-8B-v0.1-IQ3M.ggufIQ3M3.63 GB6GB+极限压缩

快速开始 (GGUF)

方法 1: 使用官方 GUI (推荐)

为了获得最佳的翻译体验和底层优化,请使用我们配套开发的开源前端翻译GUI: 👉 Murasaki Translator (GitHub)

方法 2: 使用 llama.cpp

./llama-cli -m Murasaki-8B-v0.1-IQ4_XS.gguf \
  -p "你是一位精通二次元文化的资深轻小说翻译家。..." \
  -n 2048 \
  -t 8 \
  --temp 0.7 \
  -c 8192

评测表现

我们使用 wmt22-comet-da 指标,在 Murasaki-ACGN Benchmark 的两个段落级数据集(Long/Short)上评估了模型与专业人类译文的语义相似度。

💡 以下分数基于 IQ4_XS (4-bit) 量化版本测得。

综合排行榜 (截止模型发布时)

RankModelAvg COMETLongShort
🥇murasaki-8b-v0.10.85230.87780.8269
2gemini-3-flash-preview0.85120.87650.8262
3Sakura-qwen-2.5-14B0.85090.87350.8282
4gpt-5-chat-latest0.85030.87650.8250
5gemini-2.5-flash0.85020.87670.8243
6gemini-3-pro-preview0.84910.87440.8238
7gpt-4.10.84900.87240.8259
8claude-opus-4-50.84840.87320.8236

推理参数建议

  • Temperature: 0.6 - 0.8 (推荐 0.7 以平衡创造力与稳定性)
  • Repetition Penalty: 从 1.0 开始。
  • Context Size: 建议上下文窗口设置在 4096 或更高,以支持长篇翻译。

协议与致谢

  • Base Model: 特别感谢 SakuraLLM 提供的优秀 Base 模型。
  • License: 软件代码遵循 Apache-2.0 协议,模型权重遵循 CC BY-NC-SA 4.0 协议,严禁用于任何商业用途。

Copyright © 2026 Murasaki Project

📂 GGUF File List

📁 Filename 📦 Size ⚡ Download
Murasaki-8B-v0.1-IQ3_M.gguf
LFS Q3
3.63 GB Download
Murasaki-8B-v0.1-IQ4_XS.gguf
LFS Q4
4.25 GB Download
Murasaki-8B-v0.1-Q4_K_M.gguf
Recommended LFS Q4
4.68 GB Download
Murasaki-8B-v0.1-Q5_K_M.gguf
LFS Q5
5.45 GB Download
Murasaki-8B-v0.1-Q6_K.gguf
LFS Q6
6.26 GB Download