En afledt (derivat) beskriver, hvor meget en funktion ændrer sig i et punkt.
Gradient er en vektor af partielle afledede, der viser den stejleste op- og nedstigning.
Gradient descent bruger den negative gradient til iterativt at finde funktionsminima.
Jacobimatrisen kombinerer gradienter for flere outputs og beskriver, hvordan rummet deformeres.
Determinanten af Jacobien angiver, om transformationen skalerer op, ned eller spejler rummet.
Hessianmatrixen består af alle andenderiverede og angiver en funktions kurvatur.
Quasi-Newton-metoder estimerer Hessian for at muliggøre effektiv optimering ved mange parametre.
Get notified when new stories are published for "Hacker News 🇩🇰 Dansk"