侧边栏壁纸
博主头像
羊刀仙的部落格 博主等级

闲不下来!

  • 累计撰写 223 篇文章
  • 累计创建 52 个标签
  • 累计收到 2 条评论

目 录CONTENT

文章目录

一键部署漫画翻译工具,生肉自动变熟!追漫人福音,Manga Translator

羊刀仙
2025-12-25 / 0 评论 / 0 点赞 / 4 阅读 / 0 字 / 正在检测是否收录...
温馨提示:
部分素材来自网络,若不小心影响到您的利益,请联系我们删除。
GW树洞

高速稳定 · 海外专线

  • 自用推荐
  • 90天使用时长
  • 70+ 节点分布
  • IEPL专线 油管4K无压力
  • 全平台客户端
  • 不限制在线设备
立即注册

本期来介绍一个AI翻译漫画的项目:Manga-Translator

笔者从毕业后就较少看漫,不过偶尔得空还是会看看~

国漫自然没问题,已完结的海外漫画也都有制作组出本地化翻译版本(熟肉)供大家阅读。

但连载中的海外漫画就比较难受了。因为制作组都很忙,一般有固定的发布计划,追的连载最新话他们肯定不会紧赶着翻译出来,所以咱们想看只能抱着硬啃(生肉)。对笔者来说英文还算好,日韩简直地狱~

本篇要介绍的项目,就可以轻松Docker一键部署,帮我们解决这个问题!图片截取取自项目页。

QQ20251223-141641.png

项目介绍

完整项目名:hgmzhn/manga-translator-ui,可于GHUB搜索。如果大家需要了解更多内容,请搜索到项目主页查看,内含各种平台部署流程以及配置使用方式。

本项目可一键翻译漫画图片中的文字,支持日漫、韩漫、美漫,黑白漫和彩漫均可识别。自动检测、翻译、嵌字,支持日语、中文、英语等多种语言。基于 manga-image-translator 核心引擎开发,提供 5 种翻译引擎(包括 OPAI、Gemini、Sakura等及兼容的 AI 翻译),内置可视化编辑器可自由调整文本框和样式。一键安装脚本支持自动配置环境和更新,打包版本开箱即用。

核心功能

  • 🔍 智能文本检测:自动识别漫画中的文字区域
  • 📝 多语言 OCR:支持日语、中文、英语等多种语言识别
  • 🌐 5 种翻译引擎:OPAI、Gemini(普通+高质量)、Sakura
  • 🎯 高质量翻译:使用多模态 AI 模型(GPT-4o、Gemini),结合图片上下文进行翻译,准确率更高
  • 📚 自动提取术语:AI 自动识别并积累专有名词(人名、地名、组织等),保持长篇翻译的一致性
  • 🎨 图像修复:自动擦除原文并智能填充背景
  • ✍️ 智能嵌字:自动排版译文,支持多种字体和样式
  • 🤖 AI 断句:支持 OPAI、Gemini 翻译器的智能断句功能
  • 📦 批量处理:一次处理整个文件夹的图片

准备工作

涉及到AI,因此我们需要任意平台的API Key。模型选择上,建议支持多模态,AI 能「看的到」图片,效果自然会更好。

OPAI以及其兼容接口皆支持,也就是说DS、硅基流动这些都能用。不过我之前写的文章,咱们都用硅基流动白嫖,这次也是OK的。

QQ20251223-140328.png

高质量翻译器的优势:

📸 多模态理解:AI 可以"看到"图片内容,理解上下文
🎯 更准确:结合图片信息,翻译更符合场景
📝 批量处理:一次发送多张图片,AI 理解整体剧情
🔧 自定义提示词:支持自定义翻译风格和术语表

部署流程

翻译效果好坏取决于你用的模型!!!!!!!
为保证最终效果,建议整章节导入,方便AI理解~

部署以威联通为平台进行演示,通过Docker Compose的方式进行。

作者虽然表明Docker部署是试验性,但我用起来感觉还好。原本的部署代码:

# Windows CMD / PowerShell
docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu

# Linux / macOS
docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu

# CPU 版本:hgmzhn/manga-translator:latest-cpu
# GPU 版本:hgmzhn/manga-translator:latest-gpu
# 性能越强,体验越好

我个人整理的代码:

services:
  manga-translator:
    image: hgmzhn/manga-translator:latest-cpu
    container_name: manga-translator
    ports:
      - "8008:8000"
    environment:
      - MT_WEB_HOST=0.0.0.0 # 默认监听地址,允许外部访问
      - MT_WEB_PORT=8000    # 服务端口
      - MT_USE_GPU=false    # 是否使用 GPU(仅 GPU 版本镜像需要设置)
      - MT_VERBOSE=true     # 是否显示详细日志
      - MT_MODELS_TTL=300   # 模型在内存中的存活时间(秒),0 表示永久保留
      - MT_RETRY_ATTEMPTS=None # 翻译失败重试次数,-1 表示无限重试
      - MANGA_TRANSLATOR_ADMIN_PASSWORD=your_admin_password # 管理员密码
    volumes:
      - /share/Container/manga-translator/models:/app/models
      - /share/Container/manga-translator/result:/app/result
      - /share/Container/manga-translator/logs:/app/logs
      - /share/Container/manga-translator/work:/app/manga_translator_work
    restart: always

有些是可删除的,不删也没啥影响。文件映射,涉及到了日志、模型等的关键目录持久化,建议做。

没问题后,打开威联通的Container Station创建新的应用程序。

截屏2025-12-23 14.24.06.png

使用演示

功能实在是多,就展示下如何基础的配置并启用,再就是成果(放最后统一)展示。

部署完毕后,浏览器输入NAS_IP:8008即可访问服务。初次使用,注册个管理员账户。

截屏2025-12-23 10.42.49.png

登录进来,如下图所示。比较重要的就是红框的这个API接口选择。

首页.png

截屏2025-12-23 14.37.40.png

高级设置和选项。能调整的地方也是很多,比如OCR模型,超分模型,排版,渲染,字体等等。我看作者说MangaJaNai这个超分模型很惊艳,现在默认的配置也是用的这个。

排版之类.png

字体文件.png

接着开始配置API。点击上图右上角的「管理」进入控制台,左侧栏点击「API密钥管理」。填写相关内容。

我这里先尝试了DeepSeek。注意URL填写。完事了别忘记保存,再点击右上角「返回首页」回到「基础设置」。

截屏2025-12-23 14.39.13.png

DeepSeek模型不支持多模态,因此我们翻译器要选择普通的第一项。

QQ20251223-144922.png

上传漫画,点击开始翻译等待结束即可。这里我挑了佐仓老师的新作《問題だらけの魔法使い》其中一页测试,年初就有网友觉得这本漫的翻译难度可能会有点高。

截屏2025-12-23 14.53.13.png

截屏2025-12-23 14.52.50.png

跑完了,左侧可以预览、下载成品。

截屏2025-12-23 15.10.24.png

两张漫画的大概消耗。

截屏2025-12-23 15.43.04.png

接着我再用硅基流动的免费余额跑跑看,免费余额虽然有用量级别限制,但是可用高阶支持多模态的模型。因此这里我也替换成了高质量翻译。

截屏2025-12-23 16.24.13.png

成品展示

从左至右,分别为,生肉——硅基流动——DeepSeek。文本位置这个可以调整,重要的是翻译结果。有付费高阶API的朋友部署测试后,也欢迎留言分享体验。

未标题-1-PqbC.jpg

原文生肉,以及硅基流动的高质量翻译。

22222-tryX.jpg

11111.jpg

最后

我觉得效果还蛮不错,正如作者所说,条漫的支持已经非常好了。

不过部署到一般性能NAS上,跑起来还是挺慢的,建议尽量部署在今年的新品或者自己DIY配置较高的设备上。当然具备NV独显是最好的!

感谢观看,本文完。

0

评论区