Aitken Delta Sureci yakinsak dizilerin yakinsama hizini arttiriyor.
Kisaca $X = (x_n)_n$ seklinde bir seri olsun,
$AX = (\frac{x_n x_{n+2} - x_{n+1}^2}{x_n + x_{n+2} - 2x_{n+1}} )_n$ seklinde tanimlaniyor ayni sayiya daha hizli yakinsiyor. Merak ettigim nokta bu islemi reel/komplex olmayan dizilerle de yapip yapamayacagim. Mesela elimde bir vektor serisi olsa $(0,0)$ a yakinsayan, bu islemi nasil kullanicam sonucta vektorleri ne carpabilirim ne de bolebilirim, acaba componentwise bolmem cikarmam ve carpmam gerekiyor?
internette biraz daha arastirma yaparken soyle bir yazi kesfettim.
Tam olarak anladigimi iddia edemesem de anladigim kadarini yazayim duzeltirseniz sevinirim genel olarak yakinsamayi hizlandirma isine fonksyonun $n$ arka arka gelen degerinden $n+1$ i degeri nasil tahmin ederim sorusuna getiriyor. Bunun icin ise aldigimiz $n$ degerden regresyon dogrusunu ciziyor. Isleme bu isik altinda bakinca komponentwisedan da iyi calisan bir algoritma geciyor eline Umarim dogru anlamisimdir Merak ettigim noktalardan bir tanesi mesela ben bu hizlandirma islemini gradient descent islemini hizlandirmak icin kullanacagim ve biliyorum ki gradient descent yaparken katsayilari cizdirirsem elime exponensiyel grafige benzeyen grafikler geciyor. Bu bilgiyi kullanarak $n$ tane "vektorel noktadan" sonra gelen noktayi nasil bulurum? exponensiyel regresyon gibi bir sey var mi
Veri biliminde aktivasyon fonksiyonu türlerini biraz ucundan öğreniyorum. Tek değişkende, sigmoid fonksiyonunu kullanırken, çok bileşenli (vektörel) işlemler yapılırken softmax fonksiyonu kullanılıyor. Yazdıklarınız bana softmax fonksiyonu gibi bir fonksiyon aradığınızı düşündürdü. Fonksiyonun kuralında da $e^{z_i}$ biçiminde expotential ifadeler vardır. Derin bilgi sahibi olmadığım için iddialı değilim, belki softmax işinizi görür.