ホームLLMhydropix/TranslateBooksWithLLMs
// archived 2026-04-27
hydropix

TranslateBooksWithLLMs

AI#LLM#Translation#Ollama#Python#Docker
GitHub で見る →
81

// 概要

TranslateBooksWithLLMs は、ローカルまたはクラウドベースの多様な AI モデルを活用し、書籍や字幕、あらゆる長さのドキュメントを翻訳するために設計された多機能ツールです。インテリジェントなチャンク分割システムにより、元のフォーマットやスタイル、構造を維持しつつ、自動チェックポイント機能で中断したタスクを再開できます。EPUB、SRT、DOCX、TXT など複数のファイル形式をサポートしており、使いやすい Web インターフェースと強力なコマンドラインツールの両方を提供します。

// 技術解説

Translate Books with LLMs は、さまざまな AI モデルを活用して長文ドキュメント、書籍、字幕の翻訳を容易にするために設計された専門ツールです。そのアーキテクチャは、大きなファイルを管理しながらコンテキストを維持するインテリジェントなチャンキングシステムを中心に構築されており、EPUB タグや SRT タイムコードなどのフォーマット、スタイル、構造要素を確実に保持します。Ollama を介したローカル実行とさまざまなクラウドベースの API プロバイダーの両方をサポートすることで、プライバシー、ハードウェア要件、モデルパフォーマンスの間の柔軟なトレードオフを提供します。

// 主要ハイライト

01
インテリジェントなチャンキングシステムを使用して、1 ページから 1000 ページの小説まで、あらゆる長さのドキュメントの処理をサポートします。
02
EPUB スタイル、ドキュメント構造、同期された SRT タイムコードを含むファイルフォーマットの完全な保持を保証します。
03
ユーザーがいつでも翻訳の進行状況を一時停止および再開できる組み込みのチェックポイントシステムを備えています。
04
Ollama のようなローカルオプションや OpenRouter、OpenAI、Gemini といったクラウドサービスを含む、複数の AI プロバイダーとの幅広い互換性を提供します。
05
高度な構成と自動化のための堅牢なコマンドラインインターフェースに加え、ユーザーフレンドリーな Web インターフェースを提供します。
06
文学的な推敲パスや Edge-TTS を使用したテキスト読み上げ生成などのオプション機能が含まれています。

// ユースケース

01
元のフォーマットや構造を維持したまま、長編の書籍やドキュメントを翻訳すること。
02
タイムコードを保持しながら、SRT などの字幕ファイルを同期および翻訳すること。
03
Ollama を使用したプライベートなローカル翻訳や、様々なクラウドベースの LLM プロバイダーへの接続を行うこと。

// クイックスタート

開始するには、オペレーティングシステム用のビルド済み実行ファイルをダウンロードするか、リポジトリをクローンして Python からソースを実行してください。ローカルモデルを使用する場合は Ollama がインストールされていることを確認し、アプリケーションを起動して http://localhost:5000 で Web インターフェースにアクセスします。上級ユーザー向けに、Docker を介したデプロイやコマンドラインからの直接実行もサポートしています。