Résultats de la recherche
De Didaquest
Aller à la navigationAller à la recherche
Correspondances dans les titres des pages
- …le fine-tuning dans un modèle de Transformer Pré-entraîné Génératif''': Le pré-entraînement et le fine-tuning sont deux étapes cruciales dans le développement et l'a …ité du modèle à saisir la diversité et la complexité du langage humain. Le pré-entraînement se fait généralement en utilisant des tâches d'auto-supervision, telles14 Kio (1 929 mots) - 23 février 2024 à 13:28
- …ises à partir d'un corpus de données textuelles volumineux. Cette phase de pré-entraînement est cruciale car elle permet au GPT d'internaliser les structures syntaxiqu …[[Difficulté à saisir le processus de pré-entraînement]]''': Le concept de pré-entraînement peut sembler abstrait pour les apprenants, en particulier s'ils ne sont pas44 Kio (6 186 mots) - 23 février 2024 à 16:53
- 20 octet (2 mots) - 23 février 2024 à 12:48
- …Language Understanding" par [[Devlin et al.]], qui propose une méthode de pré-entraînement de modèle de langage concurrente à celle de GPT.7 Kio (1 020 mots) - 23 février 2024 à 10:30
- …age automatique. Le modèle pré-entraîné génératif combine les avantages du pré-entraînement et de la génération de texte. Il est généralement pré-entraîné sur d == [[Pré-entraînement et fine-tuning]] ==11 Kio (1 789 mots) - 23 février 2024 à 12:47
Correspondances dans le texte des pages
- …le fine-tuning dans un modèle de Transformer Pré-entraîné Génératif''': Le pré-entraînement et le fine-tuning sont deux étapes cruciales dans le développement et l'a …ité du modèle à saisir la diversité et la complexité du langage humain. Le pré-entraînement se fait généralement en utilisant des tâches d'auto-supervision, telles14 Kio (1 929 mots) - 23 février 2024 à 13:28
- 62 octet (9 mots) - 23 février 2024 à 09:50
- …age automatique. Le modèle pré-entraîné génératif combine les avantages du pré-entraînement et de la génération de texte. Il est généralement pré-entraîné sur d == [[Pré-entraînement et fine-tuning]] ==11 Kio (1 789 mots) - 23 février 2024 à 12:47
- 4 Kio (583 mots) - 18 janvier 2021 à 02:00
- …Language Understanding" par [[Devlin et al.]], qui propose une méthode de pré-entraînement de modèle de langage concurrente à celle de GPT.7 Kio (1 020 mots) - 23 février 2024 à 10:30
- 3 Kio (302 mots) - 8 mai 2020 à 16:27
- 2 Kio (252 mots) - 24 mars 2015 à 13:29
- 606 octet (88 mots) - 26 novembre 2016 à 18:09
- 6 Kio (595 mots) - 15 février 2023 à 15:35
- …ises à partir d'un corpus de données textuelles volumineux. Cette phase de pré-entraînement est cruciale car elle permet au GPT d'internaliser les structures syntaxiqu …[[Difficulté à saisir le processus de pré-entraînement]]''': Le concept de pré-entraînement peut sembler abstrait pour les apprenants, en particulier s'ils ne sont pas44 Kio (6 186 mots) - 23 février 2024 à 16:53
- 3 Kio (384 mots) - 28 août 2019 à 09:03
- 6 Kio (543 mots) - 31 décembre 2018 à 10:53
- 4 Kio (603 mots) - 27 janvier 2024 à 12:43
- 2 Kio (306 mots) - 3 mars 2009 à 19:21
- 12 Kio (1 195 mots) - 26 juin 2018 à 13:58
- 3 Kio (559 mots) - 8 mars 2015 à 21:31
- 2 Kio (342 mots) - 21 février 2024 à 18:51
- 4 Kio (353 mots) - 15 février 2023 à 16:52
- 6 Kio (542 mots) - 6 mai 2018 à 12:27
- 3 Kio (472 mots) - 11 février 2018 à 20:25
Voir (20 précédentes | 20 suivantes) (20 | 50 | 100 | 250 | 500)