Improved stochastic gradient descent algorithm with mean-gradient adaptive stepsize for solving large-scale optimization problems

Stochastic gradient descent (SGD) is one of the most common algorithms used in solving large unconstrained optimization problems. It utilizes the concept of classical gradient descent method with modification on the gradient selection. SGD uses random or batch data sets to compute gradient in solvin...

Mô tả đầy đủ

Đã lưu trong:
Chi tiết về thư mục
Những tác giả chính: Zulkifli, Munierah, Abd Rahmin, Nor Aliza, Wah, June Leong
Định dạng: Bài viết
Ngôn ngữ:English
Được phát hành: Persatuan Sains Matematik Malaysia 2023
Truy cập trực tuyến:http://psasir.upm.edu.my/id/eprint/110372/1/document%20%284%29.pdf
Các nhãn: Thêm thẻ
Không có thẻ, Là người đầu tiên thẻ bản ghi này!