diff --git a/chapters/ja/_toctree.yml b/chapters/ja/_toctree.yml
index fb3be77b8..cdd31e8f1 100644
--- a/chapters/ja/_toctree.yml
+++ b/chapters/ja/_toctree.yml
@@ -26,6 +26,13 @@
- local: chapter1/10
title: 章末クイズ
+- title: 2. 🤗 Transformersの使用
+ sections:
+ - local: chapter2/4
+ title: トークナイザ
+ - local: chapter2/5
+ title: 複数系列の処理
+
- title: 4. モデルとトークナイザーの共有
sections:
- local: chapter4/1
diff --git a/chapters/ja/chapter2/4.mdx b/chapters/ja/chapter2/4.mdx
index 0c2fa5c53..630e58989 100644
--- a/chapters/ja/chapter2/4.mdx
+++ b/chapters/ja/chapter2/4.mdx
@@ -32,7 +32,7 @@ NLPのタスクにおいて、一般的に処理されるデータは生文で
Jim Henson was a puppeteer (Jim Hensonは人形師でした)
```
-しかしながらモデルが処理できるのは数値のみなので、生文を数値に変換する方法を考える必要があります。トークナイザはまさにこの役割を担っているものであり、変換にはさまざまな方法があります。目的はモデルにとって最も意味のある表現を見つけることです。そして可能な限り、最小な表現を見つけることも目的としています。
+しかしながらモデルが処理できるのは数値のみなので、生文を数値に変換する方法を考える必要があります。トークナイザはまさにこの役割を担っているものであり、変換にはさまざまな方法があります。目的はモデルにとって最も意味のある表現を見つけることです。そして可能な限り、コンパクトな表現を見つけることも目的としています。
ここではトークン化アルゴリズムの例をいくつか見ながら、トークン化に関する疑問を解消していきます。
@@ -40,7 +40,7 @@ Jim Henson was a puppeteer (Jim Hensonは人形師でした)