Les grands modèles de langage sont puissants mais manquent de flexibilité pour adapter leurs poids.
Le cadre SEAL permet aux modèles de langage de s'auto-adapter en générant leurs propres données de finetuning.
Grâce au finetuning supervisé, les auto-modifications du modèle entraînent des mises à jour permanentes des poids.
SEAL utilise une boucle d'apprentissage par renforcement pour entraîner le modèle à créer des auto-modifications efficaces.
Les expériences montrent que SEAL est une avancée prometteuse vers des modèles de langage capables d'auto-adaptation.
Get notified when new stories are published for "🇫🇷 Hacker News Français"