Multi-spectral gradient method via variational technique under log-determinant norm for large-scale optimization
The spectral gradient method is popular due to the fact that only the gradient of the objective function is required at each iterate. Besides that, it is more efficient than the quasi-Newton method as the storage of second derivatives (Hessian) approximation are not required especially when the dime...
সংরক্ষণ করুন:
প্রধান লেখক: | Hong, Seng Sim, Leong, Wah June, Chen, Chuei Yee, Ibrahim, Siti Nur Iqmal |
---|---|
বিন্যাস: | প্রবন্ধ |
ভাষা: | English |
প্রকাশিত: |
Malaysian Mathematical Science Society
2017
|
অনলাইন ব্যবহার করুন: | http://psasir.upm.edu.my/id/eprint/62502/1/SPECTRAL.pdf |
ট্যাগগুলো: |
ট্যাগ যুক্ত করুন
কোনো ট্যাগ নেই, প্রথমজন হিসাবে ট্যাগ করুন!
|
অনুরূপ উপাদানগুলি
-
Spectral gradient methods via variational technique for large scale unconstrained optimization
অনুযায়ী: Sim, Hong Seng
প্রকাশিত: (2017) -
Spectral gradient methods via variational technique for large scale unconstrained optimization /
অনুযায়ী: Sim, Hong Seng.
প্রকাশিত: (2017) -
Multi-step spectral gradient methods with modified weak secant relation for large scale unconstrained optimization
অনুযায়ী: Hong, Seng Sim, অন্যান্য
প্রকাশিত: (2018) -
Gradient method with multiple damping for large-scale unconstrained optimization
অনুযায়ী: Sim, Hong Seng, অন্যান্য
প্রকাশিত: (2019) -
Nonmonotone spectral gradient method based on memoryless symmetric rank-one update for large-scale unconstrained optimization
অনুযায়ী: Hong, Seng Sim, অন্যান্য
প্রকাশিত: (2021)