From 1c944ac1e1c1878074a657e7eb09cdd6553d45f7 Mon Sep 17 00:00:00 2001 From: doomdagadiggiedahdah <77366355+doomdagadiggiedahdah@users.noreply.github.com> Date: Thu, 8 Aug 2024 02:54:02 -0700 Subject: [PATCH] Fix issue #32518: Update llm_tutorial.md (#32523) Update llm_tutorial.md remove comma re: issue 32518 https://github.com/huggingface/transformers/issues/32518 --- docs/source/zh/llm_tutorial.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/source/zh/llm_tutorial.md b/docs/source/zh/llm_tutorial.md index 47a6742c8974..35e62aac3dc0 100644 --- a/docs/source/zh/llm_tutorial.md +++ b/docs/source/zh/llm_tutorial.md @@ -21,7 +21,7 @@ rendered properly in your Markdown viewer. LLMs,即大语言模型,是文本生成背后的关键组成部分。简单来说,它们包含经过大规模预训练的transformer模型,用于根据给定的输入文本预测下一个词(或更准确地说,下一个`token`)。由于它们一次只预测一个`token`,因此除了调用模型之外,您需要执行更复杂的操作来生成新的句子——您需要进行自回归生成。 -自回归生成是在给定一些初始输入,通过迭代调用模型及其自身的生成输出来生成文本的推理过程,。在🤗 Transformers中,这由[`~generation.GenerationMixin.generate`]方法处理,所有具有生成能力的模型都可以使用该方法。 +自回归生成是在给定一些初始输入,通过迭代调用模型及其自身的生成输出来生成文本的推理过程。在🤗 Transformers中,这由[`~generation.GenerationMixin.generate`]方法处理,所有具有生成能力的模型都可以使用该方法。 本教程将向您展示如何: