Résultats de la recherche

De Didaquest
Aller à la navigationAller à la recherche

Correspondances dans les titres des pages

  • …le fine-tuning dans un modèle de Transformer Pré-entraîné Génératif''': Le pré-entraînement et le fine-tuning sont deux étapes cruciales dans le développement et l'a …ité du modèle à saisir la diversité et la complexité du langage humain. Le pré-entraînement se fait généralement en utilisant des tâches d'auto-supervision, telles
    14 Kio (1 929 mots) - 23 février 2024 à 13:28
  • …ises à partir d'un corpus de données textuelles volumineux. Cette phase de pré-entraînement est cruciale car elle permet au GPT d'internaliser les structures syntaxiqu …[[Difficulté à saisir le processus de pré-entraînement]]''': Le concept de pré-entraînement peut sembler abstrait pour les apprenants, en particulier s'ils ne sont pas
    44 Kio (6 186 mots) - 23 février 2024 à 16:53
  • 20 octet (2 mots) - 23 février 2024 à 12:48
  • …Language Understanding" par [[Devlin et al.]], qui propose une méthode de pré-entraînement de modèle de langage concurrente à celle de GPT.
    7 Kio (1 020 mots) - 23 février 2024 à 10:30
  • …age automatique. Le modèle pré-entraîné génératif combine les avantages du pré-entraînement et de la génération de texte. Il est généralement pré-entraîné sur d == [[Pré-entraînement et fine-tuning]] ==
    11 Kio (1 789 mots) - 23 février 2024 à 12:47

Correspondances dans le texte des pages

Voir (20 précédentes  | 20 suivantes) (20 | 50 | 100 | 250 | 500)