Transformers BERT

« Back to Glossary Index

Transformers BERT (Bidirectional Encoder Representations from Transformers) – BERT est un modèle de langage bidirectionnel pré-entraîné qui utilise l’architecture Transformer pour capturer le contexte des mots dans un texte en considérant simultanément les deux côtés d’une phrase. Cela lui permet de comprendre plus profondément les relations entre les mots et d’améliorer les performances sur des tâches de NLP comme la classification de texte, la traduction automatique, et la recherche d’information. Par exemple, BERT est utilisé par Google pour améliorer la pertinence des résultats de recherche.

« Retour à la liste