|
Eduquer les modèles de langage
In Sciences et avenir (1949), 933 (Novembre 2024) Le point sur les méthodes permettant d'éviter les contenus choquants ou illégaux issus des agents conversationnels : la technique RLHF (reinforcement learning from human feedback ou apprentissage par renforcement fondé sur les préférences humaines) et ses limites ; des approches en cours de développement comme la DPO (direct preference optimization) et le "red teaming" (équipe rouge). |
« Eduquer les modèles de langage »
in Sciences et avenir (1949), 933 (Novembre 2024).
Titre : | Eduquer les modèles de langage (2024) |
Type de document : | Article : texte imprimé |
Dans : | Sciences et avenir (1949) (933, Novembre 2024) |
Langues: | Français |
Résumé : | Le point sur les méthodes permettant d'éviter les contenus choquants ou illégaux issus des agents conversationnels : la technique RLHF (reinforcement learning from human feedback ou apprentissage par renforcement fondé sur les préférences humaines) et ses limites ; des approches en cours de développement comme la DPO (direct preference optimization) et le "red teaming" (équipe rouge). |