Nesterov, Yuri Evgenievich

Yuri Evgenievich Nesterov
Fødselsdato 25. januar 1956( 25-01-1956 ) [1] (66 år)
Fødselssted
Land
Videnskabelig sfære matematik
Arbejdsplads
Alma Mater Moscow State University (1977)
Akademisk grad Doktor i fysiske og matematiske videnskaber ( 2013 )
Priser og præmier von Neumann teoretiske pris ( 2009 ) Danzig-prisen [d] ( 2000 )
Internet side uclouvain.be/fr/repertoi…

Yuri Evgenievich Nesterov (født 1956) er en sovjetisk og belgisk matematiker , specialist i ikke-lineær programmering , konveks optimering og numeriske optimeringsmetoder. Inden for kunstig intelligens er Nesterov-metoden meget brugt  - en accelereret version af gradient-descent-metoden [2] [3] [4] . Udenlandsk medlem af US NAS (2022) [5] .

Biografi

I 1977 dimitterede han fra Moscow State University med en grad i anvendt matematik.[ angiv ] . Fra 1977 til 1992 var han forsker ved Videnskabsakademiets Central Økonomi og Matematik Institut . I 1984 forsvarede han sin ph.d.-afhandling ved CEMI.

Siden 1993 arbejdede han på University College London i Institut for Matematisk Ingeniør, derefter ved Center for Operations Research and Econometrics ved det katolske universitet i Louvain .

I 2000 modtog han SIAM Danzig-prisen [6] .

I 2009 vandt han von Neumann Theoretical Prize (2009) [7] .

I 2013 forsvarede han sin afhandling for doktorgraden i fysiske og matematiske videnskaber.

I 2016 blev han tildelt guldmedaljen fra European Society for Operations Research [8] .

Fra 2018 er han fastansat professor ved det katolske universitet i Louvain, seniorforsker ved CEMI RAS og forskningsprofessor ved afdelingen for Big Data og informationssøgning ved Det Datalogis fakultet på Higher School of Economics .

Valgt bibliografi

Noter

  1. Bibliothèque nationale de France identifikator BNF  (fr.) : Open Data Platform - 2011.
  2. Bubeck, Sebastien ORF523: Nesterov's Accelerated Gradient Descent (1. april 2013). Hentet 4. juni 2014. Arkiveret fra originalen 14. juli 2014.
  3. Bubeck, Sebastien Nesterov's Accelerated Gradient Descent for Glat og Strongly Convex Optimization (6. marts 2014). Hentet 4. juni 2014. Arkiveret fra originalen 15. juli 2014.
  4. Zen of Gradient Descent . Hentet 7. februar 2018. Arkiveret fra originalen 17. oktober 2017.
  5. NAS-valg i 2022 . Hentet 9. maj 2022. Arkiveret fra originalen 10. maj 2022.
  6. George B. Dantzig-prisen (2000). Dato for adgang: 12. december 2014. Arkiveret fra originalen 20. november 2017.
  7. John Von Neumann Theory Prize (utilgængeligt link) (2009). Dato for adgang: 4. juni 2014. Arkiveret fra originalen 22. februar 2014. 
  8. EURO guldmedalje (2016). Hentet 20. august 2016. Arkiveret fra originalen 16. september 2016.
  9. Boyd, Stephen P.; Vandenberghe, Lieven. Konveks optimering  (ubestemt) . - Cambridge University Press , 2004. - ISBN 978-0-521-83378-3 .

Links