From 18d7912c7ba921644f63dd2257fa50af5d87dba4 Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 24 Apr 2022 01:06:57 +0200 Subject: [PATCH 01/10] chapter1 - part1-2 --- chapters/fa/chapter1/1.mdx | 50 +++++++++++++++++++++++++++++++++++++- chapters/fa/chapter1/2.mdx | 21 ++++++++++++++++ 2 files changed, 70 insertions(+), 1 deletion(-) create mode 100644 chapters/fa/chapter1/2.mdx diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 03e429b99..22e431194 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -1,7 +1,55 @@
# مقدمه +## به دوره‌ی آموزشی هاگینگ‌فِیس خوش آمدید -به دوره‌ی آموزشی هاگینگ‌فیس خوش آمدید! + +در این دوره‌ی آموزشی، پردازش زبان طبیعی را با استفاده از کتابخانه‌های اکوسیستم [هاگینگ‌فِیس](https://huggingface.co/) یعنی [Transformers](https://github.com/huggingface/transformers), [Dataset](https://github.com/huggingface/datasets), [Tokenizer](https://github.com/huggingface/tokenizers), [Accelerate](https://github.com/huggingface/accelerate) و همچنین [هاب هاگینگ‌فِیس](https://huggingface.co/models) می‌آموزید. این دوره کاملا رایگان و بدون تبلیغات است. + +## در این دوره چه چیزهایی را می‌آموزیم؟ + +دید کلی کوتاه از مباحث این دوره‌ی آموزشی: + +
+دید کلی کوتاه از مباحث این دوره‌ی آموزشی + +
+ + +- از فصل ۱ تا ۴ مقدمه‌ای از مباحث‌ پایه‌‌ای کتابخانه‌ی ترنسفورمرز هاگینگ‌فِیس ارائه می‌شود. در پایان این فصل، شما با شیوه‌ی عملکرد مدل‌های ترنسفومر آشنا می‌شوید و می‌آموزید که چگونه از یک مدل در [هاب هاگینگ‌فِیس](https://huggingface.co/models) استفاده کنید، آن را برای مجموعه داده خود fine-tune کنید و نتایج خود را در هاب به اشتراک بگذارید. +- در فصل‌های ۵ تا ۸، اصول پایه‌‌ی کتابخانه‌های Dataset و Tokenizer، پیش از آن که وارد مسائل کلاسیک پردازش زبان طبیعی شویم،‌ آموزش داده می‌شوند. در پایان این فصول، قادر خواهید بود مسائل متداول پردازش زبان طبیعی را به تنهایی حل کنید. +- فصل‌های ۹ تا ۱۲ به مباحث فراتر از پردازش زبان طبیعی و استفاده از مدل‌های ترنسفورمر برای حل مسائل پردازش گفتار و بینایی ماشین می‌پردازند. در طی این مسیر، فرا می‌گیرید که چگونه مدلی جدید ساخته، دمویی از آن را عرضه کرده و برای محیط استقرار نرم‌افزار بهینه‌اش کنید. در پایان این فصل، آماده‌ی استفاده از ترنسفورمرهای هاگینگ‌فِیس برای (تقریبا) همه مسائل یادگیری ماشین خواهید بود. + +این دوره‌ی آموزشی: + +* به سطح خوبی از دانش پایتون نیاز دارد. +* بهتر است پس از یک دوره‌ی آموزشی آشنایی با یادگیری عمیق، مانند دوره‌ی آموزشی یادگیری عمیق عملی برای برنامه‌نویس‌ها از [fast.ai](https://www.fast.ai/) و یا یکی از برنامه‌های توسعه داده شده توسط [DeepLearning.AI](https://www.deeplearning.ai/)، دنبال شود. +* نیازمند دانش پیشین [پایتورچ](https://pytorch.org/) یا [تنسورفلو](https://www.tensorflow.org/) نیست، با این حال آشنایی با هر کدام از آنها می‌تواند کمک‌کننده باشد. + +پس از اینکه این دوره‌ی آموزشی را به پایان رساندید، توصیه می‌کنیم نگاهی به [دوره‌ی آموزشی تخصصی پردازش زبان طبیعی](https://www.coursera.org/specializations/natural-language-processing) که توسط [DeepLearning.AI](https://www.deeplearning.ai/) ارائه شده است، بیاندازید. این دوره، بخش اعظمی از مدل‌های سنتی‌ پردازش زبان طبیعی مانند دسته‌بندی‌کننده بیز ساده و LSTMها را شامل می‌شود که شناخت آن‌ها ارزشمند است. + +## ما چه کسانی هستیم؟ + +درباره نویسندگان: + +**متیو کاریگن** (Matthew Carrigan) مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پست دکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی (AGI) با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی روبات‌ها دارد. + +**لیسندره دبوت** (Lysandre Debut) مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرها کار کرده است. هدف او دسترس‌پذیر کردن پردازش زبان طبیعی برای همگان با توسعه ابزارهایی با یک API بسیار ساده است. + +**سیلوین گوجر** (Sylvain Gugger) مهندس محقق در هاگینگ‌فِیس است و از هسته‌ی تیم مدیریت‌کنندگان کتابخانه‌ی ترنسفورمرها محسوب می‌شود. او قبل‌تر مهندس محقق در fast.ai بود و [کتاب یادگیری عمیق عملی برای برنامه‌نویس‌ها](https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/) با استفاده از [fast.ai](https://www.fast.ai/) و پایتورچ را با همکاری جرمی هاوارد نگاشته است. تمرکز اصلی تحقیقات وی بر دسترس‌پذیرتر کردن یادگیری عمیق است. او برای این کار از طراحی و پیش‌برد شیوه‌هایی استفاده می‌کند که امکان یادگیری سریع با منابع محدود را برای مدل‌ها پدید می‌آورد. + +**مروه نویان** (Merve Noyan) توسعه‌ی دهنده در هاگینگ‌فِیس است و بر روی توسعه‌ی ابزارها و تولید محتوا برای آن‌ها کار می‌کند. هدف او دسترس‌پذیر کردن یادگیری ماشین برای همگان است. + +**لوسیله ساولنیر** (Lucile Saulnier) مهندس یادگیری ماشین در هاگینگ‌فِیس است و بر روی توسعه و پشتیبانی از ابزارهای متن‌باز تمرکز دارد. وی همچنین بصورت فعالانه‌ای در بسیاری از پروژهای تحقیقاتی در حوزه پردازش زبان طبیعی، مانند یادگیری مشارکتی و بیگ‌ساینس مشارکت دارد. + +**لویس تونستال** (Lewis Tunstall) مهندس یادگیری ماشین در هاگینگ‌فِیس است. تمرکز اصلی او توسعه‌ی ابزارهای متن باز و دسترس‌پذیر کردن آنها برای جامعه‌ی گسترده‌تری از کاربران است. او همچنین نویسنده‌ی همکار [کتاب انتشارات O’Reilly درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. + +**لئاندرو ون ورا** (Leandro von Werra) مهندس یادگیری ماشین در تیم متن‌باز هاگینگ‌فِیس و هم-نویسنده‌ی [کتاب انتشارات O’Reilly درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. وی تجربه‌ی چندین سال کار در صنعت را دارد. او با کار در تمام جنبه‌های یادگیری ماشین، پروژه‌های متن‌باز را از مرحله‌ی تحقیق به استقرار در صنایع می‌رساند. + +آماده‌ی ورود به این دوره هستید؟ در این فصل شما می‌آموزید که: + +* چگونه می‌توان از تابع `()pipeline` برای حل مسائل پردازش زبان طبیعی مانند تولید متن و دسته‌بندی استفاده کرد. +* معماری ترنسفورمرها چگونه است. +* چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست.
diff --git a/chapters/fa/chapter1/2.mdx b/chapters/fa/chapter1/2.mdx new file mode 100644 index 000000000..f78c91447 --- /dev/null +++ b/chapters/fa/chapter1/2.mdx @@ -0,0 +1,21 @@ +# پردازش زبان طبیعی + +قبل از اینکه به سراغ مدل‌های ترنسفومر برویم، بیایید نگاهی سریع بیاندازیم به اینکه پردازش زبان طبیعی چیست و چرا برای ما حائز اهمیت است. + +## پردازش زبان طبیعی چیست؟ + +پردازش زبان طبیعی زیرشاخه‌ای از زبان‌شناسی و یادگیری ماشین است که تمرکز آن بر درک همه‌ی جوانب زبان انسان‌ها است. هدف مسائل صرفا درک کلمات بصورت مجزا نیست، بلکه جمله، متن و در مجموع‌ زمینه‌ای است که آن کلمه در آن به کار رفته است. + +مسائل متداول پردازش زبان طبیعی بهمراه برخی مثال‌های آن را در این لیست می‌بینید: + +- **دسته‌بندی جملات**: دریافت احساس یک نظر، تشخیص هرزنامه بودن یک ایمیل، تشخیص اینکه آیا یک جمله از لحاظ دستور زبانی صحیح است یا نه و اینکه آیا دو جمله منطقا به یکدیگر مرتبط هستند یا نه. +- **دسته‌بندی هر کلمه داخل یک جمله**:‌ تشخیص اجزای مختلف دستور زبان در یک جمله (اسم، فعل، صفت) و یا موجودیت‌های نامدار (شخص، موقعیت، سازمان). +- **تولید محتوای متنی**:‌ تکمیل یک متن اولیه‌ی ارائه شده متن اولیه‌ی پرامپت با متن تولید شده به صورت خودکار و یا تکمیل متنی که تعدادی از کلمات آن پوشانده‌ شده‌اند. +- **استخراج پاسخ از یک متن**: پاسخ به سوالات با استفاده از اطلاعاتی که در متن زمینه ارائه شده است. +- **تولید متن جدید از یک متن ارائه شده**: ترجمه‌ی متون به دیگر زبان‌ها، خلاصه‌سازی متون. + +با این حال پردازش زبان طبیعی صرفا به متون نوشتاری محدود نمی‌شود و برای چالش‌های پیچیده‌ی بسیاری در مسائل تشخیص گفتار و بینایی ماشین راه‌حل ارائه می‌کند. برای نمونه می‌توان از تولید متن از یک فایل صوتی و یا تشریح یک تصویر، نام برد. + +## چرا چالش‌برانگیز است؟ + +کامپیوترها اطلاعات را مانند انسان پردازش نمی‌کنند. برای مثال زمانی که ما جمله‌ای مانند من گرسنه هستم را می‌خوانیم، به سادگی معنای آن را متوجه می‌شویم. همچنین زمانی که دو جمله‌ مانند من گرسنه هستم و من ناراحت هستم را می‌خوانیم، بسادگی می‌توانیم تشخیص دهیم که به چه میزان این دو جمله با یکدیگر تشابه دارند. برای مدل‌های یادگیری ماشین، چنین مسائلی به مراتب سخت‌تر است. متن باید به ‌شیوه‌ای پردازش شود که به مدل امکان یادگیری از آن را بدهد. و با توجه به اینکه زبان پیچیده است، باید در پیاده‌سازی این مدل‌ها بسیار دقت کنیم. تحقیقات بسیاری انجام شده است تا نشان دهند چگونه می‌توان متن را توسط کامپیوتر بیان کرد. در فصل بعدی به برخی از این شیوه‌ها نگاهی میاندازیم. \ No newline at end of file From 8065a40f5a2ce41870a2535ecbd7be3da21d26b1 Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 1 May 2022 12:05:18 +0200 Subject: [PATCH 02/10] Fixes proposed by jowharshamshir --- chapters/fa/_toctree.yml | 2 + chapters/fa/chapter1/1.mdx | 60 ++++---- chapters/fa/chapter1/2.mdx | 22 +-- chapters/fa/glossary/1.mdx | 272 +++++++++++++++++++------------------ 4 files changed, 188 insertions(+), 168 deletions(-) diff --git a/chapters/fa/_toctree.yml b/chapters/fa/_toctree.yml index 887380b16..bc81ed7ff 100644 --- a/chapters/fa/_toctree.yml +++ b/chapters/fa/_toctree.yml @@ -7,6 +7,8 @@ sections: - local: chapter1/1 title: مقدمه + - local: chapter1/2 + title: پردازش زبان طبیعی - title: ۲- بکارگیری ترنسفورمرهای هاگینگ‌فِیس sections: diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 22e431194..7c3b0dcfe 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -1,55 +1,67 @@
# مقدمه -## به دوره‌ی آموزشی هاگینگ‌فِیس خوش آمدید +## به دوره‌ آموزشی هاگینگ‌فِیس خوش آمدید -در این دوره‌ی آموزشی، پردازش زبان طبیعی را با استفاده از کتابخانه‌های اکوسیستم [هاگینگ‌فِیس](https://huggingface.co/) یعنی [Transformers](https://github.com/huggingface/transformers), [Dataset](https://github.com/huggingface/datasets), [Tokenizer](https://github.com/huggingface/tokenizers), [Accelerate](https://github.com/huggingface/accelerate) و همچنین [هاب هاگینگ‌فِیس](https://huggingface.co/models) می‌آموزید. این دوره کاملا رایگان و بدون تبلیغات است. +در این دوره آموزشی، پردازش زبان طبیعی[^1] را با استفاده از کتابخانه‌های اکوسیستم [هاگینگ‌فِیس](https://huggingface.co/) یعنی [Transformers](https://github.com/huggingface/transformers), [Datasets](https://github.com/huggingface/datasets), [Tokenizers](https://github.com/huggingface/tokenizers), [Accelerate](https://github.com/huggingface/accelerate) و همچنین [هاب هاگینگ‌فِیس](https://huggingface.co/models) می‌آموزید. این دوره کاملا رایگان و بدون تبلیغات است. ## در این دوره چه چیزهایی را می‌آموزیم؟ -دید کلی کوتاه از مباحث این دوره‌ی آموزشی: +دید کلی کوتاه از مباحث این دوره آموزشی:
-دید کلی کوتاه از مباحث این دوره‌ی آموزشی - +دید کلی کوتاه از مباحث این دوره آموزشی +
+- از فصل ۱ تا ۴ مقدمه‌ای از مباحث‌ پایه‌‌ای کتابخانه‌ی ترنسفورمرز هاگینگ‌فِیس ارائه می‌شود. در پایان این فصل، شما با شیوه‌ی عملکرد مدل‌های ترنسفومر آشنا می‌شوید و می‌آموزید که چگونه از یک مدل در [هاب هاگینگ‌فِیس](https://huggingface.co/models) استفاده کنید، آن را برای مجموعه داده خود کوک کنید و نتایج خود را در هاب به اشتراک بگذارید. +- در فصل‌های ۵ تا ۸، اصول پایه‌‌ی کتابخانه‌های Datasets و Tokenizers، پیش از آن که وارد مسائل کلاسیک NLP شویم،‌ آموزش داده می‌شوند. در پایان این فصول، قادر خواهید بود مسائل متداول NLP را به تنهایی حل کنید. +- فصل‌های ۹ تا ۱۲ به مباحث فراتر از NLP و استفاده از مدل‌های ترنسفورمر برای حل مسائل پردازش گفتار و بینایی ماشین می‌پردازند. در طی این مسیر، فرا می‌گیرید که چگونه مدلی جدید ساخته، نمونه اولیه از آن را عرضه کرده و برای محیط استقرار نرم‌افزار بهینه‌اش کنید. در پایان این فصل، آماده‌ی استفاده از ترنسفورمرهای هاگینگ‌فِیس برای (تقریبا) همه مسائل یادگیری ماشین خواهید بود. -- از فصل ۱ تا ۴ مقدمه‌ای از مباحث‌ پایه‌‌ای کتابخانه‌ی ترنسفورمرز هاگینگ‌فِیس ارائه می‌شود. در پایان این فصل، شما با شیوه‌ی عملکرد مدل‌های ترنسفومر آشنا می‌شوید و می‌آموزید که چگونه از یک مدل در [هاب هاگینگ‌فِیس](https://huggingface.co/models) استفاده کنید، آن را برای مجموعه داده خود fine-tune کنید و نتایج خود را در هاب به اشتراک بگذارید. -- در فصل‌های ۵ تا ۸، اصول پایه‌‌ی کتابخانه‌های Dataset و Tokenizer، پیش از آن که وارد مسائل کلاسیک پردازش زبان طبیعی شویم،‌ آموزش داده می‌شوند. در پایان این فصول، قادر خواهید بود مسائل متداول پردازش زبان طبیعی را به تنهایی حل کنید. -- فصل‌های ۹ تا ۱۲ به مباحث فراتر از پردازش زبان طبیعی و استفاده از مدل‌های ترنسفورمر برای حل مسائل پردازش گفتار و بینایی ماشین می‌پردازند. در طی این مسیر، فرا می‌گیرید که چگونه مدلی جدید ساخته، دمویی از آن را عرضه کرده و برای محیط استقرار نرم‌افزار بهینه‌اش کنید. در پایان این فصل، آماده‌ی استفاده از ترنسفورمرهای هاگینگ‌فِیس برای (تقریبا) همه مسائل یادگیری ماشین خواهید بود. +این دوره آموزشی: -این دوره‌ی آموزشی: +- به سطح خوبی از دانش پایتون نیاز دارد. +- بهتر است پس از یک دوره آموزشی آشنایی با یادگیری عمیق، مانند دوره آموزشی یادگیری عمیق عملی برای برنامه‌نویس‌ها از [fast.ai](https://www.fast.ai/) و یا یکی از دوره‌های ارائه شده توسط [DeepLearning.AI](https://www.deeplearning.ai/)، دنبال شود. +- نیازمند دانش پیشین [پایتورچ](https://pytorch.org/) یا [تِنسورفِلو](https://www.tensorflow.org/) نیست، با این حال آشنایی با هر کدام از آنها می‌تواند کمک‌کننده باشد. -* به سطح خوبی از دانش پایتون نیاز دارد. -* بهتر است پس از یک دوره‌ی آموزشی آشنایی با یادگیری عمیق، مانند دوره‌ی آموزشی یادگیری عمیق عملی برای برنامه‌نویس‌ها از [fast.ai](https://www.fast.ai/) و یا یکی از برنامه‌های توسعه داده شده توسط [DeepLearning.AI](https://www.deeplearning.ai/)، دنبال شود. -* نیازمند دانش پیشین [پایتورچ](https://pytorch.org/) یا [تنسورفلو](https://www.tensorflow.org/) نیست، با این حال آشنایی با هر کدام از آنها می‌تواند کمک‌کننده باشد. - -پس از اینکه این دوره‌ی آموزشی را به پایان رساندید، توصیه می‌کنیم نگاهی به [دوره‌ی آموزشی تخصصی پردازش زبان طبیعی](https://www.coursera.org/specializations/natural-language-processing) که توسط [DeepLearning.AI](https://www.deeplearning.ai/) ارائه شده است، بیاندازید. این دوره، بخش اعظمی از مدل‌های سنتی‌ پردازش زبان طبیعی مانند دسته‌بندی‌کننده بیز ساده و LSTMها را شامل می‌شود که شناخت آن‌ها ارزشمند است. +پس از اینکه این دوره آموزشی را به پایان رساندید، توصیه می‌کنیم نگاهی به [دوره آموزشی تخصصی پردازش زبان طبیعی](https://www.coursera.org/specializations/natural-language-processing) که توسط [DeepLearning.AI](https://www.deeplearning.ai/) ارائه شده است، بیاندازید. این دوره، بخش اعظمی از مدل‌های سنتی‌ NLP مانند دسته‌بندی‌کننده بیز ساده و LSTMها را شامل می‌شود که شناخت آن‌ها ارزشمند است. ## ما چه کسانی هستیم؟ درباره نویسندگان: -**متیو کاریگن** (Matthew Carrigan) مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پست دکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی (AGI) با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی روبات‌ها دارد. +**[^2]متیو کاریگن** مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. -**لیسندره دبوت** (Lysandre Debut) مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرها کار کرده است. هدف او دسترس‌پذیر کردن پردازش زبان طبیعی برای همگان با توسعه ابزارهایی با یک API بسیار ساده است. +**[^4]لیسندره دبوت** مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس کار کرده است. هدف او دسترس‌پذیر کردن NLP برای همگان با توسعه ابزارهایی با API بسیار ساده است. -**سیلوین گوجر** (Sylvain Gugger) مهندس محقق در هاگینگ‌فِیس است و از هسته‌ی تیم مدیریت‌کنندگان کتابخانه‌ی ترنسفورمرها محسوب می‌شود. او قبل‌تر مهندس محقق در fast.ai بود و [کتاب یادگیری عمیق عملی برای برنامه‌نویس‌ها](https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/) با استفاده از [fast.ai](https://www.fast.ai/) و پایتورچ را با همکاری جرمی هاوارد نگاشته است. تمرکز اصلی تحقیقات وی بر دسترس‌پذیرتر کردن یادگیری عمیق است. او برای این کار از طراحی و پیش‌برد شیوه‌هایی استفاده می‌کند که امکان یادگیری سریع با منابع محدود را برای مدل‌ها پدید می‌آورد. +**[^5]سیلوین گوجر** مهندس محقق در هاگینگ‌فِیس است و از هسته‌ی تیم مدیریت‌کنندگان کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس محسوب می‌شود. او قبل‌تر مهندس محقق در fast.ai بود و [کتاب یادگیری عمیق عملی برای برنامه‌نویس‌ها](https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/) با استفاده از [fast.ai](https://www.fast.ai/) و پایتورچ را با همکاری جرمی هاوارد[^6] نگاشته است. تمرکز اصلی تحقیقات وی بر دسترس‌پذیرتر کردن یادگیری عمیق است. او برای این کار از طراحی و پیش‌برد شیوه‌هایی استفاده می‌کند که امکان یادگیری سریع با منابع محدود را برای مدل‌ها پدید می‌آورد. -**مروه نویان** (Merve Noyan) توسعه‌ی دهنده در هاگینگ‌فِیس است و بر روی توسعه‌ی ابزارها و تولید محتوا برای آن‌ها کار می‌کند. هدف او دسترس‌پذیر کردن یادگیری ماشین برای همگان است. +**[^7]مروه نویان** توسعه‌ی دهنده در هاگینگ‌فِیس است و بر روی توسعه‌ی ابزارها و تولید محتوا برای آن‌ها کار می‌کند. هدف او دسترس‌پذیر کردن یادگیری ماشین برای همگان است. -**لوسیله ساولنیر** (Lucile Saulnier) مهندس یادگیری ماشین در هاگینگ‌فِیس است و بر روی توسعه و پشتیبانی از ابزارهای متن‌باز تمرکز دارد. وی همچنین بصورت فعالانه‌ای در بسیاری از پروژهای تحقیقاتی در حوزه پردازش زبان طبیعی، مانند یادگیری مشارکتی و بیگ‌ساینس مشارکت دارد. +**[^8]لوسیله ساولنیر** مهندس یادگیری ماشین در هاگینگ‌فِیس است و بر روی توسعه و پشتیبانی از ابزارهای متن‌باز تمرکز دارد. وی همچنین بصورت فعالانه‌ای در بسیاری از پروژهای تحقیقاتی در حوزه پردازش زبان طبیعی، مانند یادگیری مشارکتی و بیگ‌ساینس مشارکت دارد. -**لویس تونستال** (Lewis Tunstall) مهندس یادگیری ماشین در هاگینگ‌فِیس است. تمرکز اصلی او توسعه‌ی ابزارهای متن باز و دسترس‌پذیر کردن آنها برای جامعه‌ی گسترده‌تری از کاربران است. او همچنین نویسنده‌ی همکار [کتاب انتشارات O’Reilly درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. +**[^9]لویس تونستال** مهندس یادگیری ماشین در هاگینگ‌فِیس است. تمرکز اصلی او توسعه‌ی ابزارهای متن باز و دسترس‌پذیر کردن آنها برای جامعه‌ی گسترده‌تری از کاربران است. او همچنین از نویسندگان [کتاب انتشارات اُریلی[^10] درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. -**لئاندرو ون ورا** (Leandro von Werra) مهندس یادگیری ماشین در تیم متن‌باز هاگینگ‌فِیس و هم-نویسنده‌ی [کتاب انتشارات O’Reilly درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. وی تجربه‌ی چندین سال کار در صنعت را دارد. او با کار در تمام جنبه‌های یادگیری ماشین، پروژه‌های متن‌باز را از مرحله‌ی تحقیق به استقرار در صنایع می‌رساند. +**[^11]لئاندرو ون ورا** مهندس یادگیری ماشین در تیم متن‌باز هاگینگ‌فِیس و از نویسندگان [کتاب انتشارات اُریلی درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. وی تجربه‌ی چندین سال کار در صنعت را دارد. او با کار در تمام جنبه‌های یادگیری ماشین، پروژه‌های متن‌باز را از مرحله‌ی تحقیق به استقرار در صنایع می‌رساند. آماده‌ی ورود به این دوره هستید؟ در این فصل شما می‌آموزید که: -* چگونه می‌توان از تابع `()pipeline` برای حل مسائل پردازش زبان طبیعی مانند تولید متن و دسته‌بندی استفاده کرد. -* معماری ترنسفورمرها چگونه است. -* چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست. +- چگونه می‌توان از تابع pipeline() برای حل مسائل NLP مانند تولید متن و دسته‌بندی استفاده کرد. +- معماری ترنسفورمرها چگونه است. +- چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست. + +[^1] Natural Language Processing (NLP) +[^2] Artificial General Intelligence (AGI) +[^3] Matthew Carrigan +[^4] Lysandre Debut +[^5] Sylvain Gugger +[^6] Jeremy Howard +[^7] Merve Noyan +[^8] Lucile Saulnier +[^9] Lewis Tunstall +[^10] O'Reilly +[^11] Leandro von Werra +
diff --git a/chapters/fa/chapter1/2.mdx b/chapters/fa/chapter1/2.mdx index f78c91447..b9f15b13d 100644 --- a/chapters/fa/chapter1/2.mdx +++ b/chapters/fa/chapter1/2.mdx @@ -1,21 +1,25 @@ +
# پردازش زبان طبیعی -قبل از اینکه به سراغ مدل‌های ترنسفومر برویم، بیایید نگاهی سریع بیاندازیم به اینکه پردازش زبان طبیعی چیست و چرا برای ما حائز اهمیت است. +قبل از اینکه به سراغ مدل‌های ترنسفومر برویم، بیایید نگاهی سریع بیاندازیم به اینکه پردازش زبان طبیعی[^1] چیست و چرا برای ما حائز اهمیت است. -## پردازش زبان طبیعی چیست؟ +## NLP چیست؟ -پردازش زبان طبیعی زیرشاخه‌ای از زبان‌شناسی و یادگیری ماشین است که تمرکز آن بر درک همه‌ی جوانب زبان انسان‌ها است. هدف مسائل صرفا درک کلمات بصورت مجزا نیست، بلکه جمله، متن و در مجموع‌ زمینه‌ای است که آن کلمه در آن به کار رفته است. +NLP زیرشاخه‌ای از زبان‌شناسی و یادگیری ماشین است که تمرکز آن بر درک همه‌ی جوانب زبان انسان‌ها است. هدف مسائل صرفا درک کلمات بصورت مجزا نیست، بلکه جمله، متن و در مجموع‌ زمینه‌ای است که آن کلمه در آن به کار رفته است. -مسائل متداول پردازش زبان طبیعی بهمراه برخی مثال‌های آن را در این لیست می‌بینید: +مسائل متداول NLP بهمراه برخی مثال‌های آن را در این لیست می‌بینید: -- **دسته‌بندی جملات**: دریافت احساس یک نظر، تشخیص هرزنامه بودن یک ایمیل، تشخیص اینکه آیا یک جمله از لحاظ دستور زبانی صحیح است یا نه و اینکه آیا دو جمله منطقا به یکدیگر مرتبط هستند یا نه. +- **دسته‌بندی جملات**: دریافت احساس نظر، تشخیص هرزنامه بودن یک ایمیل، تشخیص اینکه آیا یک جمله از لحاظ دستور زبانی صحیح است یا نه و اینکه آیا دو جمله منطقا به یکدیگر مرتبط هستند یا نه. - **دسته‌بندی هر کلمه داخل یک جمله**:‌ تشخیص اجزای مختلف دستور زبان در یک جمله (اسم، فعل، صفت) و یا موجودیت‌های نامدار (شخص، موقعیت، سازمان). -- **تولید محتوای متنی**:‌ تکمیل یک متن اولیه‌ی ارائه شده متن اولیه‌ی پرامپت با متن تولید شده به صورت خودکار و یا تکمیل متنی که تعدادی از کلمات آن پوشانده‌ شده‌اند. +- **تولید محتوای متنی**:‌ تکمیل یک پیام با متن تولید شده به صورت خودکار و یا تکمیل متنی که جاهای خالی دارد. - **استخراج پاسخ از یک متن**: پاسخ به سوالات با استفاده از اطلاعاتی که در متن زمینه ارائه شده است. - **تولید متن جدید از یک متن ارائه شده**: ترجمه‌ی متون به دیگر زبان‌ها، خلاصه‌سازی متون. -با این حال پردازش زبان طبیعی صرفا به متون نوشتاری محدود نمی‌شود و برای چالش‌های پیچیده‌ی بسیاری در مسائل تشخیص گفتار و بینایی ماشین راه‌حل ارائه می‌کند. برای نمونه می‌توان از تولید متن از یک فایل صوتی و یا تشریح یک تصویر، نام برد. +با این حال NLP صرفا به متون نوشتاری محدود نمی‌شود و برای چالش‌های پیچیده‌ی بسیاری در مسائل تشخیص گفتار و بینایی ماشین راه‌حل ارائه می‌کند. برای نمونه می‌توان از تولید متن از یک فایل صوتی و یا تشریح یک تصویر، نام برد. -## چرا چالش‌برانگیز است؟ +## چرا این مبحث چالش‌برانگیز است؟ -کامپیوترها اطلاعات را مانند انسان پردازش نمی‌کنند. برای مثال زمانی که ما جمله‌ای مانند من گرسنه هستم را می‌خوانیم، به سادگی معنای آن را متوجه می‌شویم. همچنین زمانی که دو جمله‌ مانند من گرسنه هستم و من ناراحت هستم را می‌خوانیم، بسادگی می‌توانیم تشخیص دهیم که به چه میزان این دو جمله با یکدیگر تشابه دارند. برای مدل‌های یادگیری ماشین، چنین مسائلی به مراتب سخت‌تر است. متن باید به ‌شیوه‌ای پردازش شود که به مدل امکان یادگیری از آن را بدهد. و با توجه به اینکه زبان پیچیده است، باید در پیاده‌سازی این مدل‌ها بسیار دقت کنیم. تحقیقات بسیاری انجام شده است تا نشان دهند چگونه می‌توان متن را توسط کامپیوتر بیان کرد. در فصل بعدی به برخی از این شیوه‌ها نگاهی میاندازیم. \ No newline at end of file +کامپیوترها اطلاعات را مانند انسان پردازش نمی‌کنند. برای مثال زمانی که ما جمله‌ای مانند من گرسنه هستم را می‌خوانیم، به سادگی معنای آن را متوجه می‌شویم. همچنین زمانی که دو جمله‌ مانند من گرسنه هستم و من ناراحت هستم را می‌خوانیم، بسادگی می‌توانیم تشخیص دهیم که به چه میزان این دو جمله با یکدیگر تشابه دارند. برای مدل‌های یادگیری ماشین، چنین مسائلی به مراتب سخت‌تر است. متن باید به ‌شیوه‌ای پردازش شود که به مدل امکان یادگیری از آن را بدهد. و با توجه به اینکه زبان پیچیده است، باید در پیاده‌سازی این مدل‌ها بسیار دقت کنیم. تحقیقات بسیاری انجام شده است تا نشان دهند چگونه می‌توان متن را در کامپیوترها مدل کرد. در فصل بعدی به برخی از این شیوه‌ها نگاهی میاندازیم. + +[^1] Natural Language Processing (NLP) +
\ No newline at end of file diff --git a/chapters/fa/glossary/1.mdx b/chapters/fa/glossary/1.mdx index 1a9ea4f63..e93b8290f 100644 --- a/chapters/fa/glossary/1.mdx +++ b/chapters/fa/glossary/1.mdx @@ -1,151 +1,153 @@
# واژه‌نامه -| معادل در منبع | معادل در ترجمه | -|-----------------------|------------------| -| Transformer | ترنسفورمر | -| PyTorch | پایتورچ | -| TensorFlow | تِنسورفِلو | -| Keras | کِراس | -| Chapter | فصل | -| Section | بخش | -| Model | مدل | -| Dataset | دیتاسِت | -| Parameter | پارامتر | -| Train | تعلیم | -| Deploy | مستقر کردن | -| Deployment | استقرار | -| 🤗 | هاگینگ‌فِیس | -| Hugging Face | هاگینگ‌فِیس | -| Hugging Face Hub | هاب هاگینگ‌فِیس | -| Load | بارگذاری | -| Save | ذخیره‌سازی | -| Share | به اشتراک‌گذاری / همرسانی | -| Library | کتابخانه | -| Download | دانلود | -| Inference | اجرا؟* | -| Class | کلاس | -| Module | ماژول | -| Abstraction | انتزاع انتزاعات | -| Forward Pass | اجرای روی به جلو | -| Tokenizer | توکِنایزر | -| Function | تابع | -| Configuration | تنظیمات | -| Batch | بتچ | -| Model Hub | هاب مدل‌ها | -| Platform | پلتفرم | -| Course | دوره آموزشی | -| Community | جامعه کاربران | -| Account | حساب کاربری | -| Working Environment | محیط کار | -| Workspace | فضای کار | -| Setup | راه‌اندازی | -| Create | ایجاد یا ساختن | -| Code | کد | -| Package | پکیج‌ | -| Python | پایتون | -| Colab Notebook | نوت‌بوک کولَب | -| Google | گوگل | -| Windows | ویندوز | -| macOS | سیستم‌عامل مک | -| Distribution | توزیع | -| Linux | لینوکس | -| Workload | محاسبه، محاسبات | -| Package Manager | پکیج‌منیجر | -| Command | دستور یا فرمان | -| Feature, as for an app | قابلیت‌ | -| Development | توسعه | -| Versioning | نسخه‌بندی | -| Reproducibility | قابلیت تکرارپذیری | -| Git | گیت | -| GitHub | گیت‌هاب | -| Repository | مخزن | -| Dependency | وابسته، وابستگی | -| Website | وب‌سایت | -| Virtual Environment | محیط مجازی | -| Terminal | ترمینال | -| Incompatibility | ناسازگاری | -| Self-Contained | خودکفا | -| Script | اسکریپت‌ | -| Folder | پوشه | -| Neural Network | شبکه عصبی | -| Text | نوشته | -| Pipeline | خط تولید | -| Word | کلمه | -| Subword | زیرکلمه | -| Punctuation | علائم نگارشی | -| Symbol | علامت‌‌، علامت‌ها | -| Token | توکِن | -| Preprocess | پیش‌پردازش | -| Postprocess | پس‌پردازش | -| Method, as in code | تابع | -| Checkpoint | نقطه تعلیم؟ | -| Model Card | صفحه توضیحات مدل | -| Sentiment Analysis | تحلیل احساسات | -| Dictionary, as in Python | دیکشنری | -| List, as in code | لیست | -| Tensor | تِنسور | -| Framework | فریمورک | -| Flax | فلَکس | -| NumPy | NumPy | -| Scalar | عددی | -| Vector, as in math | برداری | -| Matrix | ماتریس | -| Instantiate | ساختن | -| Argument, as in code | آرگومان | -| Key, as in Python dictionary | کلید | -| Row | ردیف | -| Integer | عدد صحیح | -| ID | شناسه | -| Unique ID | شناسه منحصر به فرد | -| Code Snippet | قطعه کد | -| Widget | ویجت | -| Hidden State | وضعیت پنهان | -| Feature, as in model | فیچر | -| High-Dimensional | بُعد بالا | -| Multi-Dimensional | چند بُعدی | -| Vector, as in Python | وِکتور | -| Sequence | رشته | -| Index, as in an array or list | اندیس | -| Project, as in math | پروجکت؟ | -| Embedding | embedding? | -| Tokenized | توکِنیزه؟ قطعه قطعه شده؟ | -| Attention Mechanism | مکانیزم توجه | -| Classification | دسته‌بندی | -| Attribute, as for a class in code | ویژگی؟ | -| Label, as in classification | عنوان دسته | -| Prediction, as in nn model | پیش‌بینی | -| Logit, as in math and also in Pytorch | لوجیت؟ | -| SoftMax | سافت‌مکس | -| Loss Function | تابع هزینه | -| Activation Layer | لایه فعال‌سازی | -| Cross Entropy | آنتروپی متقابل | - +| معادل در منبع | معادل در ترجمه | +| ------------------------------------- | ------------------------- | +| Transformer | ترنسفورمر | +| PyTorch | پایتورچ | +| TensorFlow | تِنسورفِلو | +| Keras | کِراس | +| Chapter | فصل | +| Section | بخش | +| Model | مدل | +| Dataset | دیتاسِت | +| Parameter | پارامتر | +| Train | تعلیم | +| Deploy | مستقر کردن | +| Deployment | استقرار | +| 🤗 | هاگینگ‌فِیس | +| Hugging Face | هاگینگ‌فِیس | +| Hugging Face Hub | هاب هاگینگ‌فِیس | +| Load | بارگذاری | +| Save | ذخیره‌سازی | +| Share | به اشتراک‌گذاری / همرسانی | +| Library | کتابخانه | +| Download | دانلود | +| Inference | اجرا؟\* | +| Class | کلاس | +| Module | ماژول | +| Abstraction | انتزاع انتزاعات | +| Forward Pass | اجرای روی به جلو | +| Tokenizer | توکِنایزر | +| Function | تابع | +| Configuration | تنظیمات | +| Batch | بتچ | +| Model Hub | هاب مدل‌ها | +| Platform | پلتفرم | +| Course | دوره آموزشی | +| Community | جامعه کاربران | +| Account | حساب کاربری | +| Working Environment | محیط کار | +| Workspace | فضای کار | +| Setup | راه‌اندازی | +| Create | ایجاد یا ساختن | +| Code | کد | +| Package | پکیج‌ | +| Python | پایتون | +| Colab Notebook | نوت‌بوک کولَب | +| Google | گوگل | +| Windows | ویندوز | +| macOS | سیستم‌عامل مک | +| Distribution | توزیع | +| Linux | لینوکس | +| Workload | محاسبه، محاسبات | +| Package Manager | پکیج‌منیجر | +| Command | دستور یا فرمان | +| Feature, as for an app | قابلیت‌ | +| Development | توسعه | +| Versioning | نسخه‌بندی | +| Reproducibility | قابلیت تکرارپذیری | +| Git | گیت | +| GitHub | گیت‌هاب | +| Repository | مخزن | +| Dependency | وابسته، وابستگی | +| Website | وب‌سایت | +| Virtual Environment | محیط مجازی | +| Terminal | ترمینال | +| Incompatibility | ناسازگاری | +| Self-Contained | خودکفا | +| Script | اسکریپت‌ | +| production environment | محیط استقرار | +| Folder | پوشه | +| Neural Network | شبکه عصبی | +| Text | نوشته | +| Pipeline | خط تولید | +| Word | کلمه | +| Subword | زیرکلمه | +| Punctuation | علائم نگارشی | +| Symbol | علامت‌‌، علامت‌ها | +| Token | توکِن | +| Preprocess | پیش‌پردازش | +| Postprocess | پس‌پردازش | +| Method, as in code | تابع | +| Checkpoint | نقطه تعلیم؟ | +| Model Card | صفحه توضیحات مدل | +| Sentiment Analysis | تحلیل احساسات | +| Dictionary, as in Python | دیکشنری | +| List, as in code | لیست | +| Tensor | تِنسور | +| Framework | فریمورک | +| Flax | فلَکس | +| NumPy | NumPy | +| Scalar | عددی | +| Vector, as in math | برداری | +| Matrix | ماتریس | +| Instantiate | ساختن | +| Argument, as in code | آرگومان | +| Key, as in Python dictionary | کلید | +| Row | ردیف | +| Integer | عدد صحیح | +| ID | شناسه | +| Unique ID | شناسه منحصر به فرد | +| Code Snippet | قطعه کد | +| Widget | ویجت | +| Hidden State | وضعیت پنهان | +| Feature, as in model | فیچر | +| High-Dimensional | بُعد بالا | +| Multi-Dimensional | چند بُعدی | +| Vector, as in Python | وِکتور | +| Sequence | رشته | +| Index, as in an array or list | اندیس | +| Project, as in math | پروجکت؟ | +| Embedding | embedding? | +| Tokenized | توکِنیزه؟ قطعه قطعه شده؟ | +| Attention Mechanism | مکانیزم توجه | +| Classification | دسته‌بندی | +| Attribute, as for a class in code | ویژگی؟ | +| Label, as in classification | عنوان دسته | +| Prediction, as in nn model | پیش‌بینی | +| Logit, as in math and also in Pytorch | لوجیت؟ | +| SoftMax | سافت‌مکس | +| Loss Function | تابع هزینه | +| Activation Layer | لایه فعال‌سازی | +| Cross Entropy | آنتروپی متقابل | +| Classifier | دسته‌بندی‌کننده | +| Naive Bayes | بیز ساده | +| collaborative learning | یادگیری مشارکتی | معادل‌هایی که استفاده نمی‌کنیم: -| معادل در منبع | معادل اشتباه در ترجمه | -|-----------------------|------------------| -| Application, as in an app and not as in apply | کاربرد | - +| معادل در منبع | معادل اشتباه در ترجمه | +| --------------------------------------------- | --------------------- | +| Application, as in an app and not as in apply | کاربرد | | املای مورد استفاده کلمات فارسی | -|-------------------------------| -| ارائه | - +| ------------------------------ | +| ارائه | کلمات مخفف: -| معادل در منبع | معادل در ترجمه | -|-----------------------|------------------| -| NLP | NLP | -| API | API | -| GPU | GPU | -| TPU | TPU | -| ML | یادگیری ماشین | +| معادل در منبع | معادل در ترجمه | +| ------------- | -------------- | +| NLP | NLP | +| API | API | +| GPU | GPU | +| TPU | TPU | +| LSTM | LSTM | +| ML | یادگیری ماشین |
-- * Used in chapter1/page2 to loosely mean 'running' the model. +- - Used in chapter1/page2 to loosely mean 'running' the model. If used anywhere else to exact technical meaning we could go with 'استنتاج' probably? But that sounds archaic to me. From 78e31ed4755a73779df619a363b02f6f35f2dd53 Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 1 May 2022 12:08:17 +0200 Subject: [PATCH 03/10] testing footnote correctness --- chapters/fa/chapter1/1.mdx | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 7c3b0dcfe..3837d3872 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -5,7 +5,7 @@ -در این دوره آموزشی، پردازش زبان طبیعی[^1] را با استفاده از کتابخانه‌های اکوسیستم [هاگینگ‌فِیس](https://huggingface.co/) یعنی [Transformers](https://github.com/huggingface/transformers), [Datasets](https://github.com/huggingface/datasets), [Tokenizers](https://github.com/huggingface/tokenizers), [Accelerate](https://github.com/huggingface/accelerate) و همچنین [هاب هاگینگ‌فِیس](https://huggingface.co/models) می‌آموزید. این دوره کاملا رایگان و بدون تبلیغات است. +در این دوره آموزشی، پردازش زبان طبیعی[1^] را با استفاده از کتابخانه‌های اکوسیستم [هاگینگ‌فِیس](https://huggingface.co/) یعنی [Transformers](https://github.com/huggingface/transformers), [Datasets](https://github.com/huggingface/datasets), [Tokenizers](https://github.com/huggingface/tokenizers), [Accelerate](https://github.com/huggingface/accelerate) و همچنین [هاب هاگینگ‌فِیس](https://huggingface.co/models) می‌آموزید. این دوره کاملا رایگان و بدون تبلیغات است. ## در این دوره چه چیزهایی را می‌آموزیم؟ @@ -32,7 +32,7 @@ درباره نویسندگان: -**[^2]متیو کاریگن** مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. +**[2^]متیو کاریگن** مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. **[^4]لیسندره دبوت** مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس کار کرده است. هدف او دسترس‌پذیر کردن NLP برای همگان با توسعه ابزارهایی با API بسیار ساده است. From 02e9a3a73e5c7ca4908b66eaa2208adfa5d59ed7 Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 1 May 2022 12:10:30 +0200 Subject: [PATCH 04/10] testing footnote correctness --- chapters/fa/chapter1/1.mdx | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 3837d3872..b7fc37731 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -5,7 +5,7 @@ -در این دوره آموزشی، پردازش زبان طبیعی[1^] را با استفاده از کتابخانه‌های اکوسیستم [هاگینگ‌فِیس](https://huggingface.co/) یعنی [Transformers](https://github.com/huggingface/transformers), [Datasets](https://github.com/huggingface/datasets), [Tokenizers](https://github.com/huggingface/tokenizers), [Accelerate](https://github.com/huggingface/accelerate) و همچنین [هاب هاگینگ‌فِیس](https://huggingface.co/models) می‌آموزید. این دوره کاملا رایگان و بدون تبلیغات است. +در این دوره آموزشی، پردازش زبان طبیعی[^1] را با استفاده از کتابخانه‌های اکوسیستم [هاگینگ‌فِیس](https://huggingface.co/) یعنی [Transformers](https://github.com/huggingface/transformers), [Datasets](https://github.com/huggingface/datasets), [Tokenizers](https://github.com/huggingface/tokenizers), [Accelerate](https://github.com/huggingface/accelerate) و همچنین [هاب هاگینگ‌فِیس](https://huggingface.co/models) می‌آموزید. این دوره کاملا رایگان و بدون تبلیغات است. ## در این دوره چه چیزهایی را می‌آموزیم؟ @@ -52,7 +52,7 @@ - معماری ترنسفورمرها چگونه است. - چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست. -[^1] Natural Language Processing (NLP) +[^1]: Natural Language Processing (NLP) [^2] Artificial General Intelligence (AGI) [^3] Matthew Carrigan [^4] Lysandre Debut From f513fa9536d5c286e503b64800766afd01e63b86 Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 1 May 2022 12:12:40 +0200 Subject: [PATCH 05/10] footnotes --- chapters/fa/chapter1/1.mdx | 22 +++++++++++----------- chapters/fa/chapter1/2.mdx | 2 +- 2 files changed, 12 insertions(+), 12 deletions(-) diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index b7fc37731..30b9af739 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -32,7 +32,7 @@ درباره نویسندگان: -**[2^]متیو کاریگن** مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. +**[^2]متیو کاریگن** مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. **[^4]لیسندره دبوت** مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس کار کرده است. هدف او دسترس‌پذیر کردن NLP برای همگان با توسعه ابزارهایی با API بسیار ساده است. @@ -53,15 +53,15 @@ - چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست. [^1]: Natural Language Processing (NLP) -[^2] Artificial General Intelligence (AGI) -[^3] Matthew Carrigan -[^4] Lysandre Debut -[^5] Sylvain Gugger -[^6] Jeremy Howard -[^7] Merve Noyan -[^8] Lucile Saulnier -[^9] Lewis Tunstall -[^10] O'Reilly -[^11] Leandro von Werra +[^2]: Artificial General Intelligence (AGI) +[^3]: Matthew Carrigan +[^4]: Lysandre Debut +[^5]: Sylvain Gugger +[^6]: Jeremy Howard +[^7]: Merve Noyan +[^8]: Lucile Saulnier +[^9]: Lewis Tunstall +[^10]: O'Reilly +[^11]: Leandro von Werra diff --git a/chapters/fa/chapter1/2.mdx b/chapters/fa/chapter1/2.mdx index b9f15b13d..3342d6e47 100644 --- a/chapters/fa/chapter1/2.mdx +++ b/chapters/fa/chapter1/2.mdx @@ -21,5 +21,5 @@ NLP زیرشاخه‌ای از زبان‌شناسی و یادگیری ماشی کامپیوترها اطلاعات را مانند انسان پردازش نمی‌کنند. برای مثال زمانی که ما جمله‌ای مانند من گرسنه هستم را می‌خوانیم، به سادگی معنای آن را متوجه می‌شویم. همچنین زمانی که دو جمله‌ مانند من گرسنه هستم و من ناراحت هستم را می‌خوانیم، بسادگی می‌توانیم تشخیص دهیم که به چه میزان این دو جمله با یکدیگر تشابه دارند. برای مدل‌های یادگیری ماشین، چنین مسائلی به مراتب سخت‌تر است. متن باید به ‌شیوه‌ای پردازش شود که به مدل امکان یادگیری از آن را بدهد. و با توجه به اینکه زبان پیچیده است، باید در پیاده‌سازی این مدل‌ها بسیار دقت کنیم. تحقیقات بسیاری انجام شده است تا نشان دهند چگونه می‌توان متن را در کامپیوترها مدل کرد. در فصل بعدی به برخی از این شیوه‌ها نگاهی میاندازیم. -[^1] Natural Language Processing (NLP) +[^1]: Natural Language Processing (NLP) \ No newline at end of file From e67310ff53d99975df4457fb9efb34686ddad3f3 Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 1 May 2022 12:13:22 +0200 Subject: [PATCH 06/10] footnotes --- chapters/fa/chapter1/1.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 30b9af739..8459e8a74 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -32,7 +32,7 @@ درباره نویسندگان: -**[^2]متیو کاریگن** مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. +**متیو کاریگن**[^2] مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. **[^4]لیسندره دبوت** مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس کار کرده است. هدف او دسترس‌پذیر کردن NLP برای همگان با توسعه ابزارهایی با API بسیار ساده است. From 457c25b6bd88d21c731d5b6639c94cd141177d79 Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 1 May 2022 12:14:15 +0200 Subject: [PATCH 07/10] footnotes --- chapters/fa/chapter1/1.mdx | 14 +++++++------- 1 file changed, 7 insertions(+), 7 deletions(-) diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 8459e8a74..5f1ac99bd 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -34,21 +34,21 @@ **متیو کاریگن**[^2] مهندس یادگیری ماشین در هاگینگ‌فِیس است. او در دوبلین ایرلند زندگی می‌کند و پیش‌تر بعنوان مهندس یادگیری ماشین در [Parse.ly](https://www.parse.ly/) مشغول به کار بوده است. او دوره‌ی تحقیقات پسادکترای خود را در کالج ترینیتی دوبلین به پایان رسانده است. به عقیده‌ی وی هوش جامع مصنوعی[^3] با افزایش مقیاس معماری‌های فعلی حاصل نخواهد شد، با این حال او امید بسیاری به جاودانگی انسان در قالب رباتی دارد. -**[^4]لیسندره دبوت** مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس کار کرده است. هدف او دسترس‌پذیر کردن NLP برای همگان با توسعه ابزارهایی با API بسیار ساده است. +**لیسندره دبوت**[^4] مهندس یادگیری ماشین در هاگینگ‌فِیس است و از ابتدا، بر روی کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس کار کرده است. هدف او دسترس‌پذیر کردن NLP برای همگان با توسعه ابزارهایی با API بسیار ساده است. -**[^5]سیلوین گوجر** مهندس محقق در هاگینگ‌فِیس است و از هسته‌ی تیم مدیریت‌کنندگان کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس محسوب می‌شود. او قبل‌تر مهندس محقق در fast.ai بود و [کتاب یادگیری عمیق عملی برای برنامه‌نویس‌ها](https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/) با استفاده از [fast.ai](https://www.fast.ai/) و پایتورچ را با همکاری جرمی هاوارد[^6] نگاشته است. تمرکز اصلی تحقیقات وی بر دسترس‌پذیرتر کردن یادگیری عمیق است. او برای این کار از طراحی و پیش‌برد شیوه‌هایی استفاده می‌کند که امکان یادگیری سریع با منابع محدود را برای مدل‌ها پدید می‌آورد. +**سیلوین گوجر**[^5] مهندس محقق در هاگینگ‌فِیس است و از هسته‌ی تیم مدیریت‌کنندگان کتابخانه‌ی ترنفسورمرهای هاگینگ‌فِیس محسوب می‌شود. او قبل‌تر مهندس محقق در fast.ai بود و [کتاب یادگیری عمیق عملی برای برنامه‌نویس‌ها](https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/) با استفاده از [fast.ai](https://www.fast.ai/) و پایتورچ را با همکاری جرمی هاوارد[^6] نگاشته است. تمرکز اصلی تحقیقات وی بر دسترس‌پذیرتر کردن یادگیری عمیق است. او برای این کار از طراحی و پیش‌برد شیوه‌هایی استفاده می‌کند که امکان یادگیری سریع با منابع محدود را برای مدل‌ها پدید می‌آورد. -**[^7]مروه نویان** توسعه‌ی دهنده در هاگینگ‌فِیس است و بر روی توسعه‌ی ابزارها و تولید محتوا برای آن‌ها کار می‌کند. هدف او دسترس‌پذیر کردن یادگیری ماشین برای همگان است. +**مروه نویان**[^7] توسعه‌ی دهنده در هاگینگ‌فِیس است و بر روی توسعه‌ی ابزارها و تولید محتوا برای آن‌ها کار می‌کند. هدف او دسترس‌پذیر کردن یادگیری ماشین برای همگان است. -**[^8]لوسیله ساولنیر** مهندس یادگیری ماشین در هاگینگ‌فِیس است و بر روی توسعه و پشتیبانی از ابزارهای متن‌باز تمرکز دارد. وی همچنین بصورت فعالانه‌ای در بسیاری از پروژهای تحقیقاتی در حوزه پردازش زبان طبیعی، مانند یادگیری مشارکتی و بیگ‌ساینس مشارکت دارد. +**لوسیله ساولنیر**[^8] مهندس یادگیری ماشین در هاگینگ‌فِیس است و بر روی توسعه و پشتیبانی از ابزارهای متن‌باز تمرکز دارد. وی همچنین بصورت فعالانه‌ای در بسیاری از پروژهای تحقیقاتی در حوزه پردازش زبان طبیعی، مانند یادگیری مشارکتی و بیگ‌ساینس مشارکت دارد. -**[^9]لویس تونستال** مهندس یادگیری ماشین در هاگینگ‌فِیس است. تمرکز اصلی او توسعه‌ی ابزارهای متن باز و دسترس‌پذیر کردن آنها برای جامعه‌ی گسترده‌تری از کاربران است. او همچنین از نویسندگان [کتاب انتشارات اُریلی[^10] درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. +**لویس تونستال**[^9] مهندس یادگیری ماشین در هاگینگ‌فِیس است. تمرکز اصلی او توسعه‌ی ابزارهای متن باز و دسترس‌پذیر کردن آنها برای جامعه‌ی گسترده‌تری از کاربران است. او همچنین از نویسندگان [کتاب انتشارات اُریلی[^10] درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. -**[^11]لئاندرو ون ورا** مهندس یادگیری ماشین در تیم متن‌باز هاگینگ‌فِیس و از نویسندگان [کتاب انتشارات اُریلی درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. وی تجربه‌ی چندین سال کار در صنعت را دارد. او با کار در تمام جنبه‌های یادگیری ماشین، پروژه‌های متن‌باز را از مرحله‌ی تحقیق به استقرار در صنایع می‌رساند. +**لئاندرو ون ورا**[^11] مهندس یادگیری ماشین در تیم متن‌باز هاگینگ‌فِیس و از نویسندگان [کتاب انتشارات اُریلی درباره‌ی ترنسفورمرها](https://www.oreilly.com/library/view/natural-language-processing/9781098103231/) است. وی تجربه‌ی چندین سال کار در صنعت را دارد. او با کار در تمام جنبه‌های یادگیری ماشین، پروژه‌های متن‌باز را از مرحله‌ی تحقیق به استقرار در صنایع می‌رساند. آماده‌ی ورود به این دوره هستید؟ در این فصل شما می‌آموزید که: -- چگونه می‌توان از تابع pipeline() برای حل مسائل NLP مانند تولید متن و دسته‌بندی استفاده کرد. +- چگونه می‌توان از تابع `pipeline()` برای حل مسائل NLP مانند تولید متن و دسته‌بندی استفاده کرد. - معماری ترنسفورمرها چگونه است. - چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست. From 5a3e72587589d607ae4cd1c1682e878e9d9870ec Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 1 May 2022 12:15:05 +0200 Subject: [PATCH 08/10] footnotes --- chapters/fa/chapter1/1.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 5f1ac99bd..3e7904310 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -48,7 +48,7 @@ آماده‌ی ورود به این دوره هستید؟ در این فصل شما می‌آموزید که: -- چگونه می‌توان از تابع `pipeline()` برای حل مسائل NLP مانند تولید متن و دسته‌بندی استفاده کرد. +- چگونه می‌توان از تابع pipeline() برای حل مسائل NLP مانند تولید متن و دسته‌بندی استفاده کرد. - معماری ترنسفورمرها چگونه است. - چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست. From 77bb88ea20801fa29ad87c7b791f645b551c6bed Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 15 May 2022 11:15:36 +0200 Subject: [PATCH 09/10] resolved footenotes / resolved conflicts in glossary --- chapters/fa/chapter1/1.mdx | 4 +- chapters/fa/glossary/1.mdx | 296 +++++++++++++++++++------------------ 2 files changed, 157 insertions(+), 143 deletions(-) diff --git a/chapters/fa/chapter1/1.mdx b/chapters/fa/chapter1/1.mdx index 3e7904310..5b826a280 100644 --- a/chapters/fa/chapter1/1.mdx +++ b/chapters/fa/chapter1/1.mdx @@ -53,8 +53,8 @@ - چگونه معماری‌های مختلف انکودر، دیکودر و انکودر-دیکودر را از یکدیگر تشخصی داد و کاربردهای آن‌ها در چیست. [^1]: Natural Language Processing (NLP) -[^2]: Artificial General Intelligence (AGI) -[^3]: Matthew Carrigan +[^2]: Matthew Carrigan +[^3]: Artificial General Intelligence (AGI) [^4]: Lysandre Debut [^5]: Sylvain Gugger [^6]: Jeremy Howard diff --git a/chapters/fa/glossary/1.mdx b/chapters/fa/glossary/1.mdx index e93b8290f..34c0d15c9 100644 --- a/chapters/fa/glossary/1.mdx +++ b/chapters/fa/glossary/1.mdx @@ -1,153 +1,167 @@
# واژه‌نامه -| معادل در منبع | معادل در ترجمه | -| ------------------------------------- | ------------------------- | -| Transformer | ترنسفورمر | -| PyTorch | پایتورچ | -| TensorFlow | تِنسورفِلو | -| Keras | کِراس | -| Chapter | فصل | -| Section | بخش | -| Model | مدل | -| Dataset | دیتاسِت | -| Parameter | پارامتر | -| Train | تعلیم | -| Deploy | مستقر کردن | -| Deployment | استقرار | -| 🤗 | هاگینگ‌فِیس | -| Hugging Face | هاگینگ‌فِیس | -| Hugging Face Hub | هاب هاگینگ‌فِیس | -| Load | بارگذاری | -| Save | ذخیره‌سازی | -| Share | به اشتراک‌گذاری / همرسانی | -| Library | کتابخانه | -| Download | دانلود | -| Inference | اجرا؟\* | -| Class | کلاس | -| Module | ماژول | -| Abstraction | انتزاع انتزاعات | -| Forward Pass | اجرای روی به جلو | -| Tokenizer | توکِنایزر | -| Function | تابع | -| Configuration | تنظیمات | -| Batch | بتچ | -| Model Hub | هاب مدل‌ها | -| Platform | پلتفرم | -| Course | دوره آموزشی | -| Community | جامعه کاربران | -| Account | حساب کاربری | -| Working Environment | محیط کار | -| Workspace | فضای کار | -| Setup | راه‌اندازی | -| Create | ایجاد یا ساختن | -| Code | کد | -| Package | پکیج‌ | -| Python | پایتون | -| Colab Notebook | نوت‌بوک کولَب | -| Google | گوگل | -| Windows | ویندوز | -| macOS | سیستم‌عامل مک | -| Distribution | توزیع | -| Linux | لینوکس | -| Workload | محاسبه، محاسبات | -| Package Manager | پکیج‌منیجر | -| Command | دستور یا فرمان | -| Feature, as for an app | قابلیت‌ | -| Development | توسعه | -| Versioning | نسخه‌بندی | -| Reproducibility | قابلیت تکرارپذیری | -| Git | گیت | -| GitHub | گیت‌هاب | -| Repository | مخزن | -| Dependency | وابسته، وابستگی | -| Website | وب‌سایت | -| Virtual Environment | محیط مجازی | -| Terminal | ترمینال | -| Incompatibility | ناسازگاری | -| Self-Contained | خودکفا | -| Script | اسکریپت‌ | -| production environment | محیط استقرار | -| Folder | پوشه | -| Neural Network | شبکه عصبی | -| Text | نوشته | -| Pipeline | خط تولید | -| Word | کلمه | -| Subword | زیرکلمه | -| Punctuation | علائم نگارشی | -| Symbol | علامت‌‌، علامت‌ها | -| Token | توکِن | -| Preprocess | پیش‌پردازش | -| Postprocess | پس‌پردازش | -| Method, as in code | تابع | -| Checkpoint | نقطه تعلیم؟ | -| Model Card | صفحه توضیحات مدل | -| Sentiment Analysis | تحلیل احساسات | -| Dictionary, as in Python | دیکشنری | -| List, as in code | لیست | -| Tensor | تِنسور | -| Framework | فریمورک | -| Flax | فلَکس | -| NumPy | NumPy | -| Scalar | عددی | -| Vector, as in math | برداری | -| Matrix | ماتریس | -| Instantiate | ساختن | -| Argument, as in code | آرگومان | -| Key, as in Python dictionary | کلید | -| Row | ردیف | -| Integer | عدد صحیح | -| ID | شناسه | -| Unique ID | شناسه منحصر به فرد | -| Code Snippet | قطعه کد | -| Widget | ویجت | -| Hidden State | وضعیت پنهان | -| Feature, as in model | فیچر | -| High-Dimensional | بُعد بالا | -| Multi-Dimensional | چند بُعدی | -| Vector, as in Python | وِکتور | -| Sequence | رشته | -| Index, as in an array or list | اندیس | -| Project, as in math | پروجکت؟ | -| Embedding | embedding? | -| Tokenized | توکِنیزه؟ قطعه قطعه شده؟ | -| Attention Mechanism | مکانیزم توجه | -| Classification | دسته‌بندی | -| Attribute, as for a class in code | ویژگی؟ | -| Label, as in classification | عنوان دسته | -| Prediction, as in nn model | پیش‌بینی | -| Logit, as in math and also in Pytorch | لوجیت؟ | -| SoftMax | سافت‌مکس | -| Loss Function | تابع هزینه | -| Activation Layer | لایه فعال‌سازی | -| Cross Entropy | آنتروپی متقابل | -| Classifier | دسته‌بندی‌کننده | -| Naive Bayes | بیز ساده | -| collaborative learning | یادگیری مشارکتی | +| معادل در منبع | معادل در ترجمه | +|-----------------------|------------------| +| Transformer | ترنسفورمر | +| PyTorch | پایتورچ | +| TensorFlow | تِنسورفِلو | +| Keras | کِراس | +| Chapter | فصل | +| Section | بخش | +| Model | مدل | +| Pretrained Model(s) | مدل(های) از پیش تعلیم دیده | +| Dataset | دیتاسِت | +| Parameter | پارامتر | +| Train | تعلیم | +| Deploy | مستقر کردن | +| Deployment | استقرار | +| 🤗 | هاگینگ‌فِیس | +| Hugging Face | هاگینگ‌فِیس | +| Hugging Face Hub | هاب هاگینگ‌فِیس | +| Load | بارگذاری | +| Save | ذخیره‌سازی | +| Share | به اشتراک‌گذاری / همرسانی | +| Library | کتابخانه | +| Downstream Library | کتابخانه پایین‌دستی وابسته | +| Download | دانلود | +| Inference | اجرا؟ | +| Interface | رابط، واسط | +| Class | کلاس | +| Module | ماژول | +| Abstraction | انتزاع انتزاعات | +| Forward Pass | اجرای روی به جلو | +| Tokenizer | توکِنایزر | +| Function | تابع | +| Configuration | تنظیمات | +| Batch | بتچ | +| Model Hub | هاب مدل‌ها | +| Platform | پلتفرم | +| Task | مسئله | +| User Interface | رابط (یا واسط) کاربری | +| Course | دوره آموزشی | +| Community | جامعه کاربران | +| Account | حساب کاربری | +| Working Environment | محیط کار | +| Workspace | فضای کار | +| Setup | راه‌اندازی | +| Create | ایجاد یا ساختن | +| Code | کد | +| Package | پکیج‌ | +| Python | پایتون | +| Colab Notebook | نوت‌بوک کولَب | +| Google | گوگل | +| Windows | ویندوز | +| macOS | سیستم‌عامل مک | +| Distribution | توزیع | +| Linux | لینوکس | +| Workload | محاسبه، محاسبات | +| Package Manager | پکیج‌منیجر | +| Command | دستور یا فرمان | +| Feature, as for an app | قابلیت‌ | +| Development | توسعه | +| Versioning | نسخه‌بندی | +| Reproducibility | قابلیت تکرارپذیری | +| Git | گیت | +| GitHub | گیت‌هاب | +| Repository | مخزن | +| Dependency | وابسته، وابستگی | +| Website | وب‌سایت | +| Virtual Environment | محیط مجازی | +| Terminal | ترمینال | +| Incompatibility | ناسازگاری | +| Self-Contained | خودکفا | +| Script | اسکریپت‌ | +| Folder | پوشه | +| Neural Network | شبکه عصبی | +| Text | نوشته | +| Pipeline | خط تولید | +| Word | کلمه | +| Subword | زیرکلمه | +| Punctuation | علائم نگارشی | +| Symbol | علامت‌‌، علامت‌ها | +| Token | توکِن | +| Preprocess | پیش‌پردازش | +| Postprocess | پس‌پردازش | +| Method, as in code | تابع | +| Checkpoint | نقطه تعلیم؟ | +| Model Card | صفحه توضیحات مدل | +| Sentiment Analysis | تحلیل احساسات | +| Dictionary, as in Python | دیکشنری | +| List, as in code | لیست | +| Tensor | تِنسور | +| Framework | فریمورک | +| Flax | فلَکس | +| NumPy | NumPy | +| Scalar | عددی | +| Vector, as in math | برداری | +| Matrix | ماتریس | +| Instantiate | ساختن (یا ایجاد) نمونه | +| Argument, as in code | آرگومان | +| Key, as in Python dictionary | کلید | +| Row | ردیف | +| Integer | عدد صحیح | +| ID | شناسه | +| Unique ID | شناسه منحصر به فرد | +| Code Snippet | قطعه کد | +| Widget | ویجت | +| Hidden State | وضعیت پنهان | +| Feature, as in model | فیچر | +| High-Dimensional | بُعد بالا | +| Multi-Dimensional | چند بُعدی | +| Vector, as in Python | وِکتور | +| Sequence | رشته | +| Index, as in an array or list | اندیس | +| Project, as in math | پروجکت؟ | +| Embedding | embedding? | +| Tokenized | توکِن‌شده | +| Mask Filling | پر کردن جاهای خالی متن | +| Attention Mechanism | مکانیزم توجه | +| Classification | دسته‌بندی | +| Attribute, as for a class in code | ویژگی؟ | +| Label, as in classification | عنوان دسته | +| Prediction, as in nn model | پیش‌بینی | +| Bias | سوگیری | +| Logit, as in math and also in Pytorch | لوجیت؟ | +| SoftMax | سافت‌مکس | +| Loss Function | تابع هزینه | +| Activation Layer | لایه فعال‌سازی | +| Cross Entropy | آنتروپی متقابل | +| Head, as in model | سَر | +| Weight, as in model | وزن | +| Weights, as in model | وزن‌ها | +| Set, as for variable | تخصیص مقدار | +| Environment Variable | متغیر محیطی | +| Metadata | متادیتا | +| Encode, not as in cypher | کد شده؟، کد گذاری؟ | +| Cache | انبار کردن | +| Production Environment | محیط استقرار | +| Classifier | دسته‌بندی‌کننده | +| Naive Bayes | بیز ساده | +| Collaborative learning | یادگیری مشارکتی | +| Demo | نمونه اولیه | معادل‌هایی که استفاده نمی‌کنیم: -| معادل در منبع | معادل اشتباه در ترجمه | -| --------------------------------------------- | --------------------- | -| Application, as in an app and not as in apply | کاربرد | +| معادل در منبع | معادل اشتباه در ترجمه | +|-----------------------|------------------| +| Application, as in an app and not as in apply | کاربرد | | املای مورد استفاده کلمات فارسی | -| ------------------------------ | -| ارائه | +|-------------------------------| +| ارائه | -کلمات مخفف: -| معادل در منبع | معادل در ترجمه | -| ------------- | -------------- | -| NLP | NLP | -| API | API | -| GPU | GPU | -| TPU | TPU | -| LSTM | LSTM | -| ML | یادگیری ماشین | +کلمات مخفف: -
+| معادل در منبع | معادل در ترجمه | +|-----------------------|------------------| +| NLP | NLP | +| API | API | +| GPU | GPU | +| TPU | TPU | +| BERT | BERT | +| ML | یادگیری ماشین | +| AGI | هوش جامع مصنوعی | -- - Used in chapter1/page2 to loosely mean 'running' the model. - If used anywhere else to exact technical meaning we could go - with 'استنتاج' probably? But that sounds archaic to me. + \ No newline at end of file From 1a07f04017c599dbd132b9c2f15edf782fbe7d3c Mon Sep 17 00:00:00 2001 From: choobani Date: Sun, 15 May 2022 23:49:49 +0200 Subject: [PATCH 10/10] pulled G from upstream and added new words. --- chapters/fa/glossary/1.mdx | 8 +------- 1 file changed, 1 insertion(+), 7 deletions(-) diff --git a/chapters/fa/glossary/1.mdx b/chapters/fa/glossary/1.mdx index 34c0d15c9..fe42e4885 100644 --- a/chapters/fa/glossary/1.mdx +++ b/chapters/fa/glossary/1.mdx @@ -135,11 +135,6 @@ | Metadata | متادیتا | | Encode, not as in cypher | کد شده؟، کد گذاری؟ | | Cache | انبار کردن | -| Production Environment | محیط استقرار | -| Classifier | دسته‌بندی‌کننده | -| Naive Bayes | بیز ساده | -| Collaborative learning | یادگیری مشارکتی | -| Demo | نمونه اولیه | معادل‌هایی که استفاده نمی‌کنیم: @@ -162,6 +157,5 @@ | TPU | TPU | | BERT | BERT | | ML | یادگیری ماشین | -| AGI | هوش جامع مصنوعی | - \ No newline at end of file +