首页LLMhydropix/TranslateBooksWithLLMs
// archived 2026-04-27
hydropix

TranslateBooksWithLLMs

AI#LLM#Translation#Ollama#Python#Docker
前往 GitHub →
81

// 项目简介

TranslateBooksWithLLMs 是一款多功能工具,旨在利用各种本地或云端 AI 模型翻译书籍、字幕和任意长度的文档。它具备智能分块系统,可在保留原始格式、样式和结构的同时,通过自动检查点功能允许用户恢复中断的任务。该软件支持 EPUB、SRT、DOCX 和 TXT 等多种文件格式,并同时提供用户友好的 Web 界面和强大的命令行工具。

// 技术分析

Translate Books with LLMs 是一款专门设计的工具,旨在利用各种 AI 模型来辅助长篇文档、书籍和字幕的翻译。其架构核心是一个智能分块系统,能够在管理大文件的同时保持上下文,确保格式、样式以及 EPUB 标签或 SRT 时间码等结构元素保持完整。通过支持使用 Ollama 进行本地运行以及各种基于云的 API 提供商,该项目在隐私、硬件要求和模型性能之间提供了灵活的平衡。

// 核心亮点

01
支持处理任意长度的文档,从单页到千页小说,并使用智能分块系统。
02
确保完美保留文件格式,包括 EPUB 样式、文档结构和同步的 SRT 时间码。
03
内置检查点系统,允许用户随时暂停和恢复翻译进度。
04
与多个 AI 提供商具有广泛的兼容性,包括 Ollama 等本地选项以及 OpenRouter、OpenAI 和 Gemini 等云服务。
05
提供用户友好的 Web 界面,以及用于高级配置和自动化的强大命令行界面。
06
包含可选功能,如文学润色和使用 Edge-TTS 进行文本转语音生成。

// 典型使用场景

01
翻译长篇书籍和文档,同时保持原始格式和结构。
02
同步并翻译 SRT 等字幕文件,同时保留时间码。
03
使用 Ollama 运行私有的本地翻译,或连接到各种基于云的 LLM 提供商。

// 快速开始

首先,下载适用于您操作系统的预构建可执行文件,或克隆存储库以使用 Python 从源代码运行。如果您打算使用本地模型,请确保已安装 Ollama,然后启动应用程序以访问 http://localhost:5000 的 Web 界面。对于高级用户,该项目还支持通过 Docker 部署或通过命令行直接执行。