Outils et Bibliothèques NLP
Actuellement, des recherches approfondies sont en cours pour identifier les dernières mises à jour sur des bibliothèques populaires telles que spaCy, NLTK, TensorFlow et PyTorch. Ces informations seront mises à jour régulièrement.
Au niveau chat-bot vaut expérimentation peuvent être réalisés grâce à Mixtral très simple d'utilisation et peut se lancer avec le simple code ci-dessous
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
text = "Hello my name is"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=20)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Articles Récents :
Intelligence artificielle : le champion français Mistral se hisse au niveau d'OpenAI
Auteur : François Manens
Date de publication : 26/02/2024, 18:52
Phrase d'accroche : Ce lundi, l'entreprise française Mistral a présenté un nouveau modèle d'intelligence artificielle, Mistral Large, aux performances proches des meilleures IA du monde, développées par OpenAI et Google. En parallèle, la startup s'écarte pour la première fois de l'open source en signant un accord de distribution exclusif avec Microsoft, qui entre par ailleurs au capital, pour privilégier l'efficacité de son modèle de langage et mieux en tirer un profit économique.
Source : Lien vers l'article
Recherche en TAL à l'ère des LLM
Auteur : SEBASTIAN RUDER
Date de publication : 19/12/2023
Mise à jour le 30 décembre : Ajout de mentions de BabyLM et de Languini Kitchen.
La recherche en TAL a subi un changement de paradigme au cours de la dernière année. Une gamme de grands modèles de langage (LLM) a validé l'efficacité déraisonnable de l'échelle. Actuellement, l'état de l'art sur la plupart des benchmarks est détenu par des LLM qui sont coûteux à affiner et prohibitifs à pré-entraîner en dehors de quelques laboratoires industriels.
Dans le passé, une barrière à la réalisation de recherches impactantes a souvent été un manque de sensibilisation aux domaines de recherche fructueux et d'hypothèses convaincantes à explorer. En revanche, les chercheurs en TAL d'aujourd'hui sont confrontés à une contrainte beaucoup plus difficile à surmonter : le calcul.
Source : Lien vers l'article
Grands modèles de langage : Comprendre l’avenir du NLP
Date de publication : 27/11/2023
Auteur : Luz Perez
Source : Neuroflash
Résumé : Cet article explore le monde passionnant du Traitement du Langage Naturel (NLP), en mettant en lumière les grands modèles de langage tels que GPT 3 et 4. Il examine les cas d'utilisation du NLP, son rôle futur et son fonctionnement, notamment son utilisation avec les chatbots.
CamemBERT-bio : Un modèle de langue français savoureux et meilleur pour la santé
Date de publication : 03/11/2023
Source : Quant Blog (Le blog des Experts Data & IA)
Auteurs : Badreddine LEBBAT, Thibault Cordier, Hussein JAWAD, Benjamin Callonnec, Ornella Fettaya
Sujet : La conférence TALN 2023 et le NLP
Lien vers la documentation : CamemBERT-bio Documentation
Word Embedding & NLP : définition, exemples
Date de publication : 31/01/2022
Auteur : Équipe Blent, Data Scientist
Résumé : Pour qu'une machine soit autonome, un principe clé est de pouvoir communiquer via l'un des langages naturels des humains. Le NLP (Natural Language Processing) ou TALN en français (Traitement Automatique du Langage Naturel) est un domaine ancien de l'intelligence artificielle qui existe depuis plus de 50 ans.
Source : Blent Blog
Le nouvel essor du Natural Language Processing – NLP
Date de publication : 07/03/2018
Auteur : Hélène Samain
Source : MBAMCI
Résumé : Le Natural Language Processing, ou NLP (traitement automatique du langage en français, ou TAL) connaît depuis récemment un fort regain d’intérêt dans la communauté scientifique. Cet engouement est directement lié aux progrès réalisés depuis quelques années dans le domaine de l’intelligence artificielle (machine learning et deep learning plus particulièrement). L’avènement des assistants vocaux nous laisse penser que le problème de la reconnaissance du langage humain par des machines est désormais quasiment résolu, mais où en est-on exactement ?