Multiple Alternate Steps Gradient Methods For Unconstrained Optimization
The focus of this thesis is on finding the unconstrained minimizer of a function by using the alternate steps gradient methods. Specifically, we will focus on the well-known classes of gradient methods called the steepest descent (SD) method and Barzilai-Borwein (BB) method. First we briefly give...
محفوظ في:
المؤلف الرئيسي: | |
---|---|
التنسيق: | أطروحة |
اللغة: | English English |
منشور في: |
2009
|
الموضوعات: | |
الوصول للمادة أونلاين: | http://psasir.upm.edu.my/id/eprint/12367/1/IPM_2009_11A.pdf |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|