Skip to content
Kosuke Yamada edited this page Jan 18, 2025 · 31 revisions

「大規模言語モデル入門」正誤表

下記の誤りについて、お詫びして訂正いたします。

誤植を見つけられた方は、Issuesに新しいissueを作っていただくか、書籍の問い合わせフォームからお知らせください。

該当箇所 対応 媒体
4.1節 FLOPS(FLoating-point Operations Per Second) FLOPs(FLoating-point Operations) 全て
5.4.1節 末尾のコード # JSTSでファインチューニングしたモデルのpipelineを読み込む # JNLIでファインチューニングしたモデルのpipelineを読み込む 全て
5.5.2節 「5.2節では TrainingArguments に gradient_accumulation_steps の値を指定して勾配累積を有効にしています。」 「5.2節では TrainingArguments に gradient_accumulation_steps の値を指定することで勾配累積を有効にできます。」 全て
5.5.3節 図5.16キャプション 「灰色部わか保持されている」 「灰色部分が保持されている」 3刷 全て
5.5.4節 コードのセルに番号がない コードのセルに番号が付く 3刷 全て
6.1節 「テキストうえで」 「テキスト上で」 3刷 全て
6.2.3節: from seqeval.metrics import classification_reportの前の行
7.4.1節: from transformers import BatchEncoding, PreTrainedTokenizerの前の行
from typing import Any 3刷 全て
6.2.3節: convert_results_to_labels関数
6.3.1節: preprocess_data関数
6.3.2節: run_prediction関数、extract_entities関数
6.3.5節: find_error_results関数、output_text_with_label関数
6.3.6節: run_prediction_viterbi関数
6.3.7節: run_prediction_crf関数
7.4.1節: preprocess_data関数
7.4.2節: run_generation関数、postprocess_title関数
関数の型ヒントのany Any 3刷 全て
6.3.3節: if best_score < scores["f1-score"]:の次の行
6.3.7節: if best_score < scores["f1-score"]:の次の行
best_score = scores["f1-score"]を追加 全て
6.3.7節: BertWithCrfForTokenClassificationクラスのforwardメソッド attention_mask: torch.Tensor = None, token_type_ids: torch.Tensor = None, labels: torch.Tensor = None, attention_mask: torch.Tensor | None = None, token_type_ids: torch.Tensor | None = None, labels: torch.Tensor | None = None, 3刷 全て
7.3節 n-gramに関する説明が繰り返されて表記されている 繰り返された表記を削除 2刷 ePubのみ
7.3.1節: compute_rouge関数
7.3.2節: compute_blue関数
7.3.3節 compute_bertscore関数
datasetsload_metrics関数の廃止 ツールを直で利用 (詳細はchapter07/7-summarization-generation.ipynbのコードを参照)
7.3.1節: datasetsライブラリのload_metric関数を用いて、」
7.3.2節: 「ROUGEと同様にload_metric関数を用いて、」
7.3.2節: compute_bleu関数 references: list[str] references: list[list[str]] 3刷 全て
7.4.2節: run_generation関数 batch = {k: v.to(model.device) for k, v in batch.items()} batch = {k: v.to(model.device) for k, v in batch.items() if k != "labels"}
7.4.2節 ref_titles = [[tagger.parse(r["title"]).strip()] for r in results] ref_titles = [[tagger.parse(r["title"]).strip() for r in results]]
7.5.2節 「トークンからはじまり、まず5%の確率で「私達」が選ばれ、次に90%の確率で「の」が選ばれています。」 「トークンからはじまり、まず10%の確率で「私達」が選ばれ、次に70%の確率で「の」が選ばれています。」 3刷 全て
8.3.1節: SimCSEModelクラスのencode_textsメソッド # かつ訓練時である場合、... # かつ訓練時でない場合、... 3刷 全て
9.3.2節: _async_batch_run_chatgpt関数、batch_run_chatgpt関数 max_tokens: int, stop: str | list[str] max_tokens: int | None, stop: str | list[str] | None 3刷 全て
参考文献 日本語表記の名前の苗字と名前が逆に表記されている 苗字と名前を正しい順序で表記する 3刷 全て
Clone this wiki locally