Modèle de langage pré-entraîné

« Back to Glossary Index

Les modèles de langage pré-entraîné, tels que GPT ou BERT, sont des modèles de NLP qui sont pré-entraînés sur de vastes corpus de texte avant d’être ajustés pour des tâches spécifiques. Ces modèles capturent une grande quantité de connaissances linguistiques et peuvent être utilisés pour une variété de tâches de NLP avec un minimum de réglage supplémentaire.

« Retour à la liste