Skip to content
@lemoneresearch

Lemone

La recherche ouverte sur le traitement automatique du langage, dédiée à la matière fiscale 🔬

Lemone Research

Projet de recherche réalisé avec le soutien des programmes @Microsoft for Startups et @Google Cloud Plateform for Startups, ainsi que leurs partenaires (MongoDB, Azure OpenAI Service LinkedIn) 🖥️

Pour les cabinets d'avocats, directions fiscales ou PME, les modèles de langage auront la capacité, dans un futur proche, de simplifier la rédaction de documents juridiques, la création de modèles de simulation fiscale et la recherche documentaire, permettant ainsi de se concentrer sur des aspects plus stratégiques de leur travail.

Le recalibrage basé sur les instructions tel que développé par Lemone améliore de manière significative les performances des modèles de langage en apprentissage profond (LLMs) de plusieurs manières :

  • Réduction de l'ambiguïté : Les LLMs traditionnels peuvent générer des réponses ambiguës ou inappropriées contextuellement, principalement dans des domaines techniques possédant un vocable propre. Le recalibrage basé sur les instructions permet une génération plus claire et consciente du contexte, réduisant ainsi la probabilité de sorties dénuées de sens.
  • Transfert efficace des connaissances : Les instructions servant de base d'entraînement peuvent encapsuler des connaissances spécifiques à un domaine, permettant aux LLMs de bénéficier de conseils d'experts. Ce transfert de connaissances est particulièrement précieux dans des domaines tels que la pratique fiscale, le droit, la médecine, et plus encore.
  • Interprétabilité : Le recalibrage basé sur les instructions rend également le comportement des LLMs plus interprétable. Étant donné que les instructions sont lisibles par les humains, il devient plus facile de comprendre et de contrôler les résultats du modèle.

Vos contributions sont les bienvenues, que vous soyez avocat, cabinet ou société spécialisée dans le machine learning, pour la mise en place de partenariat ou le test de fonctionnalités.

Site internet : https://lemone.io contact : [email protected]

Popular repositories Loading

  1. tsdae tsdae Public

    Forked from louisbrulenaudet/tsdae

    Tranformer-based Denoising AutoEncoder for Sentence Transformers Unsupervised pre-training.

    Python 1

  2. balena balena Public

    Forked from louisbrulenaudet/balena

    BALanced Execution through Natural Activation : a human-computer interaction methodology for code running.

    Python

  3. transformers transformers Public

    Forked from louisbrulenaudet/transformers

    🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.

    Python

  4. .github .github Public

    La recherche ouverte sur le traitement automatique du langage, dédiée à la matière fiscale 🔬

  5. tax-retrieval-benchmark tax-retrieval-benchmark Public

    Forked from louisbrulenaudet/tax-retrieval-benchmark

    An implementation of the TaxRetrievalBenchmark task for the 🤗 Massive Text Embedding Benchmark (MTEB) framework.

    Jupyter Notebook

  6. ragoon ragoon Public

    Forked from louisbrulenaudet/ragoon

    Improve large language models (LLM) retrieval using dynamic web-search based on blazingly fast query generation from Groq chips ⚡

    Jupyter Notebook

Repositories

Showing 6 of 6 repositories
  • ragoon Public Forked from louisbrulenaudet/ragoon

    Improve large language models (LLM) retrieval using dynamic web-search based on blazingly fast query generation from Groq chips ⚡

    lemoneresearch/ragoon’s past year of commit activity
    Jupyter Notebook 0 Apache-2.0 6 0 0 Updated May 26, 2024
  • tax-retrieval-benchmark Public Forked from louisbrulenaudet/tax-retrieval-benchmark

    An implementation of the TaxRetrievalBenchmark task for the 🤗 Massive Text Embedding Benchmark (MTEB) framework.

    lemoneresearch/tax-retrieval-benchmark’s past year of commit activity
    Jupyter Notebook 0 Apache-2.0 1 0 0 Updated May 23, 2024
  • tsdae Public Forked from louisbrulenaudet/tsdae

    Tranformer-based Denoising AutoEncoder for Sentence Transformers Unsupervised pre-training.

    lemoneresearch/tsdae’s past year of commit activity
    Python 1 Apache-2.0 3 0 0 Updated Feb 4, 2024
  • .github Public

    La recherche ouverte sur le traitement automatique du langage, dédiée à la matière fiscale 🔬

    lemoneresearch/.github’s past year of commit activity
    0 0 0 0 Updated Jan 16, 2024
  • balena Public Forked from louisbrulenaudet/balena

    BALanced Execution through Natural Activation : a human-computer interaction methodology for code running.

    lemoneresearch/balena’s past year of commit activity
    Python 0 Apache-2.0 1 0 0 Updated Dec 31, 2023
  • transformers Public Forked from louisbrulenaudet/transformers

    🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.

    lemoneresearch/transformers’s past year of commit activity
    Python 0 Apache-2.0 27,550 0 0 Updated Oct 23, 2023

People

This organization has no public members. You must be a member to see who’s a part of this organization.

Top languages

Loading…

Most used topics

Loading…