Nesterov, Yuri Evgenievich
Yuri Evgenievich Nesterov (født 1956) er en sovjetisk og belgisk matematiker , specialist i ikke-lineær programmering , konveks optimering og numeriske optimeringsmetoder. Inden for kunstig intelligens er Nesterov-metoden meget brugt - en accelereret version af gradient-descent-metoden [2] [3] [4] . Udenlandsk medlem af US NAS (2022) [5] .
Biografi
I 1977 dimitterede han fra Moscow State University med en grad i anvendt matematik.[ angiv ] . Fra 1977 til 1992 var han forsker ved Videnskabsakademiets Central Økonomi og Matematik Institut . I 1984 forsvarede han sin ph.d.-afhandling ved CEMI.
Siden 1993 arbejdede han på University College London i Institut for Matematisk Ingeniør, derefter ved Center for Operations Research and Econometrics ved det katolske universitet i Louvain .
I 2000 modtog han SIAM Danzig-prisen [6] .
I 2009 vandt han von Neumann Theoretical Prize (2009) [7] .
I 2013 forsvarede han sin afhandling for doktorgraden i fysiske og matematiske videnskaber.
I 2016 blev han tildelt guldmedaljen fra European Society for Operations Research [8] .
Fra 2018 er han fastansat professor ved det katolske universitet i Louvain, seniorforsker ved CEMI RAS og forskningsprofessor ved afdelingen for Big Data og informationssøgning ved Det Datalogis fakultet på Higher School of Economics .
Valgt bibliografi
- Nesterov Yu.E. En metode til at minimere konvekse funktioner med en konvergenshastighed // Dokl. USSR's Videnskabsakademi. - 1983. - T. 269 , no. 3 . - S. 543-547 .

- Yuri Nesterov. Effektive metoder til ikke-lineær programmering. - M . : Radio og kommunikation, 1989.
- Yuri Nesterov, Arkadii Nemirovskii . Interior-Point Polynomial Algoritmer i konveks programmering. - Selskab for Industriel og Anvendt Matematik, 1995. - ISBN 0898715156 . — en monografi, der viser den grundlæggende rolle af interior point-metoden i konveks optimering og for første gang startede en systematisk undersøgelse af semi-definite programmering [9]
- Yu. Nesterov. Indledende forelæsninger om konveks optimering: Et grundkursus. - Kluwer Academic Publishers, 2004. - ISBN 978-1402075537 . - lærebogen, der blev standardkurset i konveks optimering
Noter
- ↑ Bibliothèque nationale de France identifikator BNF (fr.) : Open Data Platform - 2011.
- ↑ Bubeck, Sebastien ORF523: Nesterov's Accelerated Gradient Descent (1. april 2013). Hentet 4. juni 2014. Arkiveret fra originalen 14. juli 2014. (ubestemt)
- ↑ Bubeck, Sebastien Nesterov's Accelerated Gradient Descent for Glat og Strongly Convex Optimization (6. marts 2014). Hentet 4. juni 2014. Arkiveret fra originalen 15. juli 2014. (ubestemt)
- ↑ Zen of Gradient Descent . Hentet 7. februar 2018. Arkiveret fra originalen 17. oktober 2017. (ubestemt)
- ↑ NAS-valg i 2022 . Hentet 9. maj 2022. Arkiveret fra originalen 10. maj 2022. (ubestemt)
- ↑ George B. Dantzig-prisen (2000). Dato for adgang: 12. december 2014. Arkiveret fra originalen 20. november 2017. (ubestemt)
- ↑ John Von Neumann Theory Prize (utilgængeligt link) (2009). Dato for adgang: 4. juni 2014. Arkiveret fra originalen 22. februar 2014. (ubestemt)
- ↑ EURO guldmedalje (2016). Hentet 20. august 2016. Arkiveret fra originalen 16. september 2016. (ubestemt)
- ↑ Boyd, Stephen P.; Vandenberghe, Lieven. Konveks optimering (ubestemt) . - Cambridge University Press , 2004. - ISBN 978-0-521-83378-3 .
Links
Tematiske steder |
|
---|
I bibliografiske kataloger |
---|
|
|