Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Completed the translation of the first part of Chapter 7 into Russian. #653

Merged
merged 24 commits into from
Jan 11, 2024
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
Show all changes
24 commits
Select commit Hold shift + click to select a range
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
13 changes: 13 additions & 0 deletions chapters/ru/_toctree.yml
Original file line number Diff line number Diff line change
Expand Up @@ -113,6 +113,19 @@
title: Тест в конце главы
quiz: 6

- title: 7. Основные задачи NLP
sections:
- local: chapter7/1
title: Введение
- local: chapter7/2
title: Классификация токенов
- local: chapter7/3
title: Дообучение модели маскированного языкового моделирования
- local: chapter7/4
title: Перевод
- local: chapter7/5
title: Суммаризация

- title: Глоссарий
sections:
- local: glossary/1
Expand Down
38 changes: 38 additions & 0 deletions chapters/ru/chapter7/1.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,38 @@
<FrameworkSwitchCourse {fw} />

# Введение[[introduction]]

<CourseFloatingBanner
chapter={7}
classNames="absolute z-10 right-0 top-0"
/>

В [Главе 3](/course/chapter3) вы узнали, как дообучить модель для классификации текстов. В этой главе мы рассмотрим следующие общие задачи NLP:

- Классификация токенов (Token classification)
- Маскированное языковое моделирование (Masked language modeling, например, BERT)
- Резюмирование текста (Summarization)
- Перевод (Translation)
- Предварительное обучение каузального языкового моделирования (Causal language modeling, например, GPT-2)
- Ответы на вопросы (Question answering)

{#if fw === 'pt'}

Для этого вам понадобится использовать все, что вы узнали об API `Trainer` и библиотеке 🤗 Accelerate в [Главе 3](/course/chapter3), библиотеке 🤗 Datasets в [Главе 5](/course/chapter5) и библиотеке 🤗 Tokenizers в [Главе 6](/course/chapter6). Мы также загрузим наши результаты в хаб моделей, как мы делали это в [Главе 4](/course/chapter4), так что это действительно глава,в которой все собирается воедино!

Каждый раздел можно читать независимо друг от друга, и в нем вы узнаете, как обучить модель с помощью API `Trainer` или с помощью собственного цикла обучения, используя 🤗 Accelerate. Вы можете пропустить любую часть и сосредоточиться на той, которая вас больше всего интересует: API `Trainer` отлично подходит для того, чтобы дообучить или обучить вашу модель, не беспокоясь о том, что происходит за кулисами, а цикл обучения с `Accelerate` позволит вам легче настроить любую часть, которую вы хотите.

{:else}

Для этого вам понадобится использовать все, что вы узнали об обучении моделей с помощью Keras API в [Главе 3](/course/chapter3), библиотеке 🤗 Datasets в [Главе 5](/course/chapter5) и библиотеке 🤗 Tokenizers в [Главе 6](/course/chapter6). Мы также загрузим наши результаты в хаб моделей, как мы делали это в [Главе 4](/course/chapter4), так что это действительно глава, в которой все собирается воедино!

Каждый раздел можно читать самостоятельно.

{/if}


<Tip>

Если вы будете читать разделы по порядку, то заметите, что в них довольно много общего в коде и тексте. Повторение сделано намеренно, чтобы вы могли погрузиться (или вернуться позже) в любую интересующую вас задачу и найти полный рабочий пример.

</Tip>
Loading
Loading