diff --git a/README_de.md b/README_de.md index 57e4716cd2c1..22fe8b13fe9b 100644 --- a/README_de.md +++ b/README_de.md @@ -70,21 +70,21 @@ limitations under the License. 🤗 Transformers bietet Tausende von vortrainierten Modellen, um Aufgaben in verschiedenen Modalitäten wie Text, Bild und Audio durchzuführen. -Diese Modelle können angewendet werden auf: +Diese Modelle können angewendet werden, auf: -* 📝 Text, für Aufgaben wie Textklassifizierung, Informationsextraktion, Question Answering, automatische Textzusammenfassung, maschinelle Übersetzung und Textgenerierung, in über 100 Sprachen. -* 🖼️ Bilder, für Aufgaben wie Bildklassifizierung, Objekterkennung und Segmentierung. -* 🗣️ Audio, für Aufgaben wie Spracherkennung und Audioklassifizierung. +* 📝 Text - für Aufgaben wie Textklassifizierung, Informationsextraktion, Question Answering, automatische Textzusammenfassung, maschinelle Übersetzung und Textgenerierung in über 100 Sprachen. +* 🖼️ Bilder - für Aufgaben wie Bildklassifizierung, Objekterkennung und Segmentierung. +* 🗣️ Audio - für Aufgaben wie Spracherkennung und Audioklassifizierung. Transformer-Modelle können auch Aufgaben für **mehrere Modalitäten in Kombination** durchführen, z. B. tabellenbasiertes Question Answering, optische Zeichenerkennung, Informationsextraktion aus gescannten Dokumenten, Videoklassifizierung und visuelles Question Answering. -🤗 Transformers bietet APIs, um diese vortrainierten Modelle schnell herunterzuladen und für einen gegebenen Text zu verwenden, sie auf deinen eigenen Datensätzen zu feintunen und dann mit der Community in unserem [Model Hub](https://huggingface.co/models) zu teilen. Gleichzeitig ist jedes Python-Modul, das eine Architektur definiert, komplett eigenständig und kann modifiziert werden, um schnelle Forschungsexperimente zu ermöglichen. +🤗 Transformers bietet APIs, um diese vortrainierten Modelle schnell herunterzuladen und für einen gegebenen Text zu verwenden, sie auf Ihren eigenen Datensätzen zu feintunen und dann mit der Community in unserem [Model Hub](https://huggingface.co/models) zu teilen. Gleichzeitig ist jedes Python-Modul, das eine Architektur definiert, komplett eigenständig und kann modifiziert werden, um schnelle Forschungsexperimente zu ermöglichen. -🤗 Transformers wird von den drei beliebtesten Bibliotheken für tiefes Lernen unterstützt — [Jax](https://jax.readthedocs.io/en/latest/), [PyTorch](https://pytorch.org/) und [TensorFlow](https://www.tensorflow.org/) — mit einer nahtlosen Integration zwischen ihnen. Es ist unkompliziert, deine Modelle mit einer zu trainieren, bevor du sie für die Inferenz mit einer anderen lädst. +🤗 Transformers unterstützt die nahtlose Integration von drei der beliebtesten Deep-Learning-Bibliotheken: [Jax](https://jax.readthedocs.io/en/latest/), [PyTorch](https://pytorch.org/) und [TensorFlow](https://www.tensorflow.org/). Trainieren Sie Ihr Modell in einem Framework und laden Sie es zur Inferenz unkompliziert mit einem anderen. ## Online-Demos -Du kannst die meisten unserer Modelle direkt auf ihren Seiten im [Model Hub](https://huggingface.co/models) testen. Wir bieten auch [privates Modell-Hosting, Versionierung & eine Inferenz-API](https://huggingface.co/pricing) für öffentliche und private Modelle an. +Sie können die meisten unserer Modelle direkt auf ihren Seiten im [Model Hub](https://huggingface.co/models) testen. Wir bieten auch [privates Modell-Hosting, Versionierung, & eine Inferenz-API](https://huggingface.co/pricing) für öffentliche und private Modelle an. Hier sind einige Beispiele: @@ -128,9 +128,9 @@ In multimodalen Aufgaben: Um die 100.000 Sterne von 🤗 Transformers zu feiern, haben wir beschlossen, die Gemeinschaft in den Mittelpunkt zu stellen und die Seite [awesome-transformers](./awesome-transformers.md) erstellt, die 100 unglaubliche Projekte auflistet, die zusammen mit 🤗 Transformers realisiert wurden. -Wenn du ein Projekt besitzt oder nutzt, von dem du glaubst, dass es Teil der Liste sein sollte, öffne bitte einen PR, um es hinzuzufügen! +Wenn Sie ein Projekt besitzen oder nutzen, von dem Sie glauben, dass es Teil der Liste sein sollte, öffnen Sie bitte einen PR, um es hinzuzufügen! -## Wenn du individuelle Unterstützung vom Hugging Face-Team möchtest +## Wenn Sie individuelle Unterstützung vom Hugging Face-Team möchten HuggingFace Expert Acceleration Program @@ -138,7 +138,7 @@ Wenn du ein Projekt besitzt oder nutzt, von dem du glaubst, dass es Teil der Lis ## Schnelleinstieg -Um sofort ein Modell mit einer bestimmten Eingabe (Text, Bild, Audio, ...) zu verwenden, bieten wir die `pipeline`-API an. Pipelines kombinieren ein vortrainiertes Modell mit der jeweiligen Vorverarbeitung, die während dessen Trainings verwendet wurde. Hier siehst du, wie man schnell eine Pipeline verwenden kann, um positive und negative Texte zu klassifizieren: +Um sofort ein Modell mit einer bestimmten Eingabe (Text, Bild, Audio ...) zu verwenden, bieten wir die `pipeline`-API an. Pipelines kombinieren ein vortrainiertes Modell mit der jeweiligen Vorverarbeitung, die während dessen Trainings verwendet wurde. Hier sehen Sie, wie man schnell eine Pipeline verwenden kann, um positive und negative Texte zu klassifizieren: ```python >>> from transformers import pipeline @@ -149,9 +149,9 @@ Um sofort ein Modell mit einer bestimmten Eingabe (Text, Bild, Audio, ...) zu ve [{'label': 'POSITIVE', 'score': 0.9996980428695679}] ``` -Die zweite Codezeile lädt und zwischenspeichert das vortrainierte Modell, das von der Pipeline verwendet wird, während die dritte es an dem gegebenen Text evaluiert. Hier ist die Antwort "positiv" mit einer Konfidenz von 99,97 %. +Die zweite Codezeile lädt und cacht das vortrainierte Modell, das von der Pipeline verwendet wird, während die dritte es an dem gegebenen Text evaluiert. Hier ist die Antwort "positiv" mit einer Konfidenz von 99,97 %. -Viele Aufgaben haben eine vortrainierte `pipeline`, die sofort einsatzbereit ist, sowohl in der Computerlinguistik als auch in der Computer Vision und Sprachverarbeitung. Zum Beispiel können wir leicht erkannte Objekte in einem Bild extrahieren: +Viele Aufgaben, sowohl in der Computerlinguistik als auch in der Computer Vision und Sprachverarbeitung, haben eine vortrainierte `pipeline`, die sofort einsatzbereit ist. Z. B. können wir leicht erkannte Objekte in einem Bild extrahieren: ``` python >>> import requests @@ -183,16 +183,16 @@ Viele Aufgaben haben eine vortrainierte `pipeline`, die sofort einsatzbereit ist 'box': {'xmin': 345, 'ymin': 23, 'xmax': 640, 'ymax': 368}}] ``` -Hier erhalten wir eine Liste von Objekten, die im Bild erkannt wurden, mit einer Markierung, die das Objekt eingrenzt, und einem zugehörigen Konfidenzwert. Hier ist das Originalbild links und die Vorhersagen rechts dargestellt: +Hier erhalten wir eine Liste von Objekten, die im Bild erkannt wurden, mit einer Markierung, die das Objekt eingrenzt, und einem zugehörigen Konfidenzwert. Folgend ist das Originalbild links und die Vorhersagen rechts dargestellt:

-Du kannst mehr über die von der `pipeline`-API unterstützten Aufgaben in [diesem Tutorial](https://huggingface.co/docs/transformers/task_summary) erfahren. +Sie können mehr über die von der `pipeline`-API unterstützten Aufgaben in [diesem Tutorial](https://huggingface.co/docs/transformers/task_summary) erfahren. -Zusätzlich zur `pipeline` benötigt es nur drei Zeilen Code, um eines der vortrainierten Modelle für deine Aufgabe herunterzuladen und zu verwenden. Hier ist die PyTorch-Version: +Zusätzlich zur `pipeline` benötigt es nur drei Zeilen Code, um eines der vortrainierten Modelle für Ihre Aufgabe herunterzuladen und zu verwenden. Hier ist der Code für die PyTorch-Version: ```python >>> from transformers import AutoTokenizer, AutoModel @@ -216,11 +216,11 @@ Und hier ist der entsprechende Code für TensorFlow: >>> outputs = model(**inputs) ``` -Der Tokenizer ist für die gesamte Vorverarbeitung, die das vortrainierte Modell benötigt, verantwortlich und kann direkt auf einem einzelnen String (wie in den obigen Beispielen) oder einer Liste ausgeführt werden. Er gibt ein Dictionary aus, das du im darauffolgenden Code verwenden oder einfach direkt deinem Modell übergeben kannst, indem du den ** Operator zum Entpacken von Argumenten einsetzt. +Der Tokenizer ist für die gesamte Vorverarbeitung, die das vortrainierte Modell benötigt, verantwortlich und kann direkt auf einem einzelnen String (wie in den obigen Beispielen) oder einer Liste ausgeführt werden. Er gibt ein Dictionary aus, das Sie im darauffolgenden Code verwenden oder einfach direkt Ihrem Modell übergeben können, indem Sie den ** Operator zum Entpacken von Argumenten einsetzen. -Das Modell selbst ist ein reguläres [PyTorch `nn.Module`](https://pytorch.org/docs/stable/nn.html#torch.nn.Module) oder ein [TensorFlow `tf.keras.Model`](https://www.tensorflow.org/api_docs/python/tf/keras/Model) (abhängig von deinem Backend), das du wie gewohnt verwenden kannst. [Dieses Tutorial](https://huggingface.co/docs/transformers/training) erklärt, wie man ein solches Modell in eine klassische PyTorch- oder TensorFlow-Trainingsschleife integrieren kann, oder wie man unsere `Trainer`-API verwendet, um es schnell auf einem neuen Datensatz zu feintunen. +Das Modell selbst ist ein reguläres [PyTorch `nn.Module`](https://pytorch.org/docs/stable/nn.html#torch.nn.Module) oder ein [TensorFlow `tf.keras.Model`](https://www.tensorflow.org/api_docs/python/tf/keras/Model) (abhängig von Ihrem Backend), das Sie wie gewohnt verwenden können. [Dieses Tutorial](https://huggingface.co/docs/transformers/training) erklärt, wie man ein solches Modell in eine klassische PyTorch- oder TensorFlow-Trainingsschleife integrieren kann oder wie man unsere `Trainer`-API verwendet, um es schnell auf einem neuen Datensatz zu feintunen. -## Warum sollte ich 🤗 Transformers verwenden? +## Warum sollten Sie 🤗 Transformers verwenden? 1. Benutzerfreundliche Modelle auf dem neuesten Stand der Technik: - Hohe Leistung bei Aufgaben zu Natural Language Understanding & Generation, Computer Vision und Audio. @@ -231,23 +231,23 @@ Das Modell selbst ist ein reguläres [PyTorch `nn.Module`](https://pytorch.org/d 1. Geringere Rechenkosten, kleinerer CO2-Fußabdruck: - Forscher können trainierte Modelle teilen, anstatt sie immer wieder neu zu trainieren. - Praktiker können die Rechenzeit und Produktionskosten reduzieren. - - Dutzende von Architekturen mit über 400.000 vortrainierten Modellen über alle Modalitäten hinweg. + - Dutzende Architekturen mit über 400.000 vortrainierten Modellen über alle Modalitäten hinweg. -1. Wähle das richtige Framework für jeden Lebensabschnitt eines Modells: - - Trainiere Modelle auf neustem Stand der Technik in 3 Codezeilen. - - Verwende ein einzelnes Modell nach Belieben mit TF2.0/PyTorch/JAX-Frameworks. - - Wähle nahtlos das richtige Framework für Training, Evaluation und Produktiveinsatz. +1. Wählen Sie das richtige Framework für jeden Lebensabschnitt eines Modells: + - Trainieren Sie Modelle auf neustem Stand der Technik in nur drei Codezeilen. + - Verwenden Sie ein einzelnes Modell nach Belieben mit TF2.0-/PyTorch-/JAX-Frameworks. + - Wählen Sie nahtlos das richtige Framework für Training, Evaluation und Produktiveinsatz. -1. Passe ein Modell oder Beispiel leicht an deine Bedürfnisse an: +1. Passen Sie ein Modell oder Beispiel leicht an Ihre Bedürfnisse an: - Wir bieten Beispiele für jede Architektur an, um die von ihren ursprünglichen Autoren veröffentlichten Ergebnisse zu reproduzieren. - Modellinterna sind so einheitlich wie möglich verfügbar gemacht. - Modelldateien können unabhängig von der Bibliothek für schnelle Experimente verwendet werden. -## Warum sollte ich 🤗 Transformers nicht verwenden? +## Warum sollten Sie 🤗 Transformers nicht verwenden? - Diese Bibliothek ist kein modularer Werkzeugkasten mit Bausteinen für neuronale Netze. Der Code in den Modelldateien ist absichtlich nicht mit zusätzlichen Abstraktionen refaktorisiert, sodass Forscher schnell mit jedem der Modelle iterieren können, ohne sich in zusätzliche Abstraktionen/Dateien vertiefen zu müssen. -- Die Trainings-API ist nicht dafür gedacht, mit beliebigen Modellen zu funktionieren, sondern ist für die Verwendung mit den von der Bibliothek bereitgestellten Modellen optimiert. Für generische Trainingsschleifen von maschinellem Lernen solltest du eine andere Bibliothek verwenden (möglicherweise [Accelerate](https://huggingface.co/docs/accelerate)). -- Auch wenn wir bestrebt sind, so viele Anwendungsfälle wie möglich zu veranschaulichen, sind die Beispielskripte in unserem [examples-Ordner](https://github.com/huggingface/transformers/tree/main/examples) genau das: Beispiele. Es ist davon auszugehen, dass sie nicht sofort auf dein spezielles Problem anwendbar sind und einige Codezeilen geändert werden müssen, um sie für deine Bedürfnisse anzupassen. +- Die Trainings-API ist nicht dafür gedacht, mit beliebigen Modellen zu funktionieren, sondern ist für die Verwendung mit den von der Bibliothek bereitgestellten Modellen optimiert. Für generische Trainingsschleifen von maschinellem Lernen sollten Sie eine andere Bibliothek verwenden (möglicherweise [Accelerate](https://huggingface.co/docs/accelerate)). +- Auch wenn wir bestrebt sind, so viele Anwendungsfälle wie möglich zu veranschaulichen, sind die Beispielskripte in unserem [`examples`](./examples) Ordner genau das: Beispiele. Es ist davon auszugehen, dass sie nicht sofort auf Ihr spezielles Problem anwendbar sind und einige Codezeilen geändert werden müssen, um sie für Ihre Bedürfnisse anzupassen. ## Installation @@ -255,12 +255,11 @@ Das Modell selbst ist ein reguläres [PyTorch `nn.Module`](https://pytorch.org/d Dieses Repository wurde mit Python 3.8+, Flax 0.4.1+, PyTorch 1.11+ und TensorFlow 2.6+ getestet. -Du solltest 🤗 Transformers in einer [virtuellen Umgebung](https://docs.python.org/3/library/venv.html) installieren. Wenn du mit virtuellen Python-Umgebungen nicht vertraut bist, schaue dir den [Benutzerleitfaden](https://packaging.python.org/guides/installing-using-pip-and-virtual-environments/) an. +Sie sollten 🤗 Transformers in einer [virtuellen Umgebung](https://docs.python.org/3/library/venv.html) installieren. Wenn Sie mit virtuellen Python-Umgebungen nicht vertraut sind, schauen Sie sich den [Benutzerleitfaden](https://packaging.python.org/guides/installing-using-pip-and-virtual-environments/) an. -Erstelle zuerst eine virtuelle Umgebung mit der Python-Version, die du verwenden möchtest, und aktiviere sie. +Erstellen und aktivieren Sie zuerst eine virtuelle Umgebung mit der Python-Version, die Sie verwenden möchten. -Dann musst du entweder Flax, PyTorch oder TensorFlow installieren. -Bitte beziehe dich entsprechend auf die jeweiligen Installationsanleitungen für [TensorFlow](https://www.tensorflow.org/install/), [PyTorch](https://pytorch.org/get-started/locally/#start-locally) und/oder [Flax](https://github.com/google/flax#quick-install) und [Jax](https://github.com/google/jax#installation) für den spezifischen Installationsbefehl für deine Plattform. +Dann müssen Sie entweder Flax, PyTorch oder TensorFlow installieren. Bitte beziehe dich entsprechend auf die jeweiligen Installationsanleitungen für [TensorFlow](https://www.tensorflow.org/install/), [PyTorch](https://pytorch.org/get-started/locally/#start-locally), und/oder [Flax](https://github.com/google/flax#quick-install) und [Jax](https://github.com/google/jax#installation) für den spezifischen Installationsbefehl für Ihre Plattform. Wenn eines dieser Backends installiert ist, kann 🤗 Transformers wie folgt mit pip installiert werden: @@ -268,7 +267,7 @@ Wenn eines dieser Backends installiert ist, kann 🤗 Transformers wie folgt mit pip install transformers ``` -Wenn du mit den Beispielen herumspielen möchtest oder die neueste Version des Codes benötigst und nicht auf eine neue Veröffentlichung warten kannst, musst du [die Bibliothek von der Quelle installieren](https://huggingface.co/docs/transformers/installation#installing-from-source). +Wenn Sie mit den Beispielen experimentieren möchten oder die neueste Version des Codes benötigen und nicht auf eine neue Veröffentlichung warten können, müssen Sie [die Bibliothek von der Quelle installieren](https://huggingface.co/docs/transformers/installation#installing-from-source). ### Mit conda @@ -280,9 +279,9 @@ conda install conda-forge::transformers > **_HINWEIS:_** Die Installation von `transformers` aus dem `huggingface`-Kanal ist veraltet. -Folge den Installationsanleitungen von Flax, PyTorch oder TensorFlow, um zu sehen, wie sie mit conda installiert werden können. +Folgen Sie den Installationsanleitungen von Flax, PyTorch oder TensorFlow, um zu sehen, wie sie mit conda installiert werden können. -> **_HINWEIS:_** Auf Windows wirst du möglicherweise aufgefordert, den Entwicklermodus zu aktivieren, um von Caching zu profitieren. Wenn das für dich keine Option ist, lass es uns bitte in [diesem Issue](https://github.com/huggingface/huggingface_hub/issues/1062) wissen. +> **_HINWEIS:_** Auf Windows werden Sie möglicherweise aufgefordert, den Entwicklermodus zu aktivieren, um von Caching zu profitieren. Wenn das für Sie keine Option ist, lassen Sie es uns bitte in [diesem Issue](https://github.com/huggingface/huggingface_hub/issues/1062) wissen. ## Modellarchitekturen @@ -541,11 +540,11 @@ Aktuelle Anzahl der Checkpoints: ![](https://img.shields.io/endpoint?url=https:/ 1. **[XLSR-Wav2Vec2](https://huggingface.co/docs/transformers/model_doc/xlsr_wav2vec2)** (from Facebook AI) released with the paper [Unsupervised Cross-Lingual Representation Learning For Speech Recognition](https://arxiv.org/abs/2006.13979) by Alexis Conneau, Alexei Baevski, Ronan Collobert, Abdelrahman Mohamed, Michael Auli. 1. **[YOLOS](https://huggingface.co/docs/transformers/model_doc/yolos)** (from Huazhong University of Science & Technology) released with the paper [You Only Look at One Sequence: Rethinking Transformer in Vision through Object Detection](https://arxiv.org/abs/2106.00666) by Yuxin Fang, Bencheng Liao, Xinggang Wang, Jiemin Fang, Jiyang Qi, Rui Wu, Jianwei Niu, Wenyu Liu. 1. **[YOSO](https://huggingface.co/docs/transformers/model_doc/yoso)** (from the University of Wisconsin - Madison) released with the paper [You Only Sample (Almost) Once: Linear Cost Self-Attention Via Bernoulli Sampling](https://arxiv.org/abs/2111.09714) by Zhanpeng Zeng, Yunyang Xiong, Sathya N. Ravi, Shailesh Acharya, Glenn Fung, Vikas Singh. -1. Möchtest du ein neues Modell beitragen? Wir haben einen **detaillierten Leitfaden und Vorlagen** hinzugefügt, um dich beim Hinzufügen eines neuen Modells zu unterstützen. Du kannst diese im [`templates`](./templates) Ordner des Repositorys finden. Lese unbedingt die [Beitragshinweise](./CONTRIBUTING.md) und kontaktiere die Maintainer oder erstelle ein Issue, um vorab Feedback zu sammeln, bevor du mit der PR startest. +1. Möchten Sie ein neues Modell beitragen? Wir haben einen **detaillierten Leitfaden und Vorlagen** hinzugefügt, um Sie beim Hinzufügen eines neuen Modells zu unterstützen. Sie können diese im [`templates`](./templates) Ordner des Repositorys finden. Lesen Sie unbedingt die [Beitragshinweise](./CONTRIBUTING.md) und kontaktieren Sie die Maintainer oder erstellen Sie ein Issue, um Feedback zu sammeln, bevor Sie mit der PR starten. -Um zu überprüfen, ob jedes Modell eine Implementierung in Flax, PyTorch oder TensorFlow hat oder über einen zugehörigen Tokenizer verfügt, der von der 🤗 Tokenizers-Bibliothek unterstützt wird, schau auf [diese Tabelle](https://huggingface.co/docs/transformers/index#supported-frameworks). +Um zu überprüfen, ob jedes Modell eine Implementierung in Flax, PyTorch oder TensorFlow hat oder über einen zugehörigen Tokenizer verfügt, der von der 🤗 Tokenizers-Bibliothek unterstützt wird, schauen Sie auf [diese Tabelle](https://huggingface.co/docs/transformers/index#supported-frameworks). -Diese Implementierungen wurden mit mehreren Datensätzen getestet (siehe Beispielskripte) und sollten den Leistungen der ursprünglichen Implementierungen entsprechen. Weitere Details zur Leistung findest du im Abschnitt für Beispiele in der [Dokumentation](https://github.com/huggingface/transformers/tree/main/examples). +Diese Implementierungen wurden mit mehreren Datensätzen getestet (siehe Beispielskripte) und sollten den Leistungen der ursprünglichen Implementierungen entsprechen. Weitere Details zur Leistung finden Sie im Abschnitt der Beispiele in der [Dokumentation](https://github.com/huggingface/transformers/tree/main/examples). ## Mehr erfahren @@ -554,13 +553,13 @@ Diese Implementierungen wurden mit mehreren Datensätzen getestet (siehe Beispie | [Dokumentation](https://huggingface.co/docs/transformers/) | Vollständige API-Dokumentation und Tutorials | | [Zusammenfassung der Aufgaben](https://huggingface.co/docs/transformers/task_summary) | Von 🤗 Transformers unterstützte Aufgaben | | [Vorverarbeitungs-Tutorial](https://huggingface.co/docs/transformers/preprocessing) | Verwendung der `Tokenizer`-Klasse zur Vorverarbeitung der Daten für die Modelle | -| [Training und Feintuning](https://huggingface.co/docs/transformers/training) | Verwendung der von 🤗 Transformers bereitgestellten Modelle in einer PyTorch/TensorFlow-Trainingsschleife und der `Trainer`-API | -| [Schnelleinstieg: Finetuning/Anwendungsskripte](https://github.com/huggingface/transformers/tree/main/examples) | Beispielskripte für das Finetuning von Modellen für eine breite Palette von Aufgaben | -| [Modellfreigabe und -upload](https://huggingface.co/docs/transformers/model_sharing) | Lade deine feingetunten Modelle hoch und teile sie mit der Community | +| [Training und Feintuning](https://huggingface.co/docs/transformers/training) | Verwendung der von 🤗 Transformers bereitgestellten Modelle in einer PyTorch-/TensorFlow-Trainingsschleife und der `Trainer`-API | +| [Schnelleinstieg: Feintuning/Anwendungsskripte](https://github.com/huggingface/transformers/tree/main/examples) | Beispielskripte für das Feintuning von Modellen für eine breite Palette von Aufgaben | +| [Modellfreigabe und -upload](https://huggingface.co/docs/transformers/model_sharing) | Laden Sie Ihre feingetunten Modelle hoch und teilen Sie sie mit der Community | ## Zitation -Wir haben jetzt ein [Paper](https://www.aclweb.org/anthology/2020.emnlp-demos.6/), das du für die 🤗 Transformers-Bibliothek zitieren kannst: +Wir haben jetzt ein [Paper](https://www.aclweb.org/anthology/2020.emnlp-demos.6/), das Sie für die 🤗 Transformers-Bibliothek zitieren können: ```bibtex @inproceedings{wolf-etal-2020-transformers,