This site uses cookies.
Some of these cookies are essential to the operation of the site,
while others help to improve your experience by providing insights into how the site is being used.
For more information, please see the ProZ.com privacy policy.
This person has a SecurePRO™ card. Because this person is not a ProZ.com Plus subscriber, to view his or her SecurePRO™ card you must be a ProZ.com Business member or Plus subscriber.
Affiliations
This person is not affiliated with any business or Blue Board record at ProZ.com.
Services
Translation, Editing/proofreading
Expertise
Specializes in:
Mathematics & Statistics
Rates
Portfolio
Sample translations submitted: 1
Turkish to English: AR-ARCH-ANN model General field: Science Detailed field: Mathematics & Statistics
Source text - Turkish Önerilen Metod
Önerilen AR-ARCH-ANN modeli iki algoritmanın kullanımı ile uygulanabilir. İlk algoritma ağın bir girdi seti için çıktıların nasıl hesaplandığını göstermektedir. Bu bölümde verilen ikinci algoritma ise AR-ARCH-ANN modelinin PSO ile eğtiminin nasıl yapılacağını göstermektedir.
Algoritma 2: AR-ARCH-ANN modelin çıktılarının hesaplanması için algoritma
Öğrenme örneklerinin sayısı n olsun. AR-ARCH-ANN girdilerinin sayısı p ve m olarak belirlendiğinde önerilen AR-ARCH-ANN modelin çıktıları Adım 1 – Adım 5 uygulanarak hesaplanır.
Adım1. İterasyon sayacını sıfırla k (k = 0).
Adım 2. k , (k = k + 1) olacak şekilde 1 arttırılır. k. öğrenme örneği için hesaplamalar çalıştırılır.
AR-ARCH-ANN modelin girdileri X_(t-1),X_(t-2),…,X_(t-p),e_(t-1)^2,e_(t-2)^2,…,e_(t-m)^2 olsun. Şekil 3.2’ de görüldüğü gibi gizli tabakada sadece bir tane nöron vardır. net, AR-ARCH-ANN’ de her bir girdinin ağırlığıyla çarpımının aktivasyon fonksiyonundan çıkmış halini temsil etmektedir. k=1 olduğunda e_(t-1)^2,e_(t-2)^2,…,e_(t-m)^2 girdileri “0” olarak alınmaktadır. Çünkü AR-ARCH-ANN çıktıları henüz hesaplanamamaktadır. k = 2 olduğunda, e_(t-1)^2 hesaplanabilir. e_(t-2)^2,…,e_(t-m)^2 girdileri “0” olarak alınmasına rağmen 1. öğrenme örneği için AR-ARCH-ANN çıktısı elde edilebilir ve e_(t-1)^2, 1. öğrenme örneği için elde edildiğinde 〖(istenen〖çıktı〗_(t-1)-〖gerçekleşençıktı〗_(t-1))〗^2 eşittir.
Benzer şekilde, eğer k ≤ m ise, e_(t-2m+k+1)^2 e_(t-2)^2,…,e_(t-m)^2’ nin son m-k terimi 0 olarak alınacaktır. k > m ise, her bir e_(t-j)^2 (j= 1, 2, … , m) hesaplanabilir. WXi ve bXi (i = 1, 2, … , p), Xt–l, Xt–2, … , Xt–p girdilerinin ağırlıkları ve yan değerleri olsun. WEi ve bEi (j = 1, 2, … , m) e_(t-1)^2,e_(t-2)^2,…,e_(t-m)^2 girdilerinin ağırlıkları ve yan değerleri olsun. Buna göre , k. öğrenme örneği için nöronun aktivasyon fonksiyonu için değeri 〖net〗_k denklem (3.13) gibi hesaplanır.
Adım 3. Adım 2’ de elde edilen 〖net〗_k kullanılarak ARCH-ANN çıktısının elde edilmesi. Aktivasyon fonksiyonu f denklem (3.14)’deki gibi hesaplanır:
〖çıktı〗_t=f(〖net〗_k )=1/(1+exp(-〖net〗_k)) (1.14)
Adım 4. Bir sonraki öğrenme örneği için AR-ARCH-ANN girdisi olarak kullanılması için e_t^2 elde edilmesi.
〖e_t^2=(〖hedef〗_t-〖çıktı〗_t)〗^2 ……………………. (1.15)
Adım 5. Eğer k ≤ n ise, Adım 2’ ye dönülür. Aksi durumda, algoritma sonlandırılır. Önerilen AR-ARCH-ANN modelin eğitimi için, yapay zeka optimizasyon algoritmalarından PSO kullanılmıştır. Diğer metodlar türev alma gereksinimine ihtiyaç duyduğundan, birçok uygulamada PSO metodu diğer metodlara göre daha iyi sonuç vermektedir. PSO’ nun başlıca avantajları parametrelerin kontrolündeki sağlamlık ve yüksek hesaplama verimliliğidir (Kennedy and Eberthart, 1995).
Önerilen AR-ARCH-ANN modeli için maliyet ya da hata fonksiyonunun türevlerinin elde etmesi oldukça zor olduğundan, PSO bu modelin eğitiminde he kolay hem de yerel minimum tuzağından kurtulma olasılığı yüksek olduğundan kullanışlıdır. PSO algoritmasında, parçacıkların pozisyonları, önerilen AR-ARCH-ANN modelin ağırlıklarıdır. Buna göre, bir parçacık, 2(p+q) pozisyona sahiptir. Parçacıkların yapısı Şekil 1.3’ de gösterilmiştir.
Şekil 1.3. Parçacıkların yapısı
Algoritma 3 AR-ARCH-ANN modelinin eğitiminde PSO algoritmasının kullanılması:
Adım 1. Her bir i. i=(1,2,…,p_n) parçacığın pozisyonlarının ve hızlarının rasgele belirlenmesi ve Xi and Vi vektörlerinde saklanması:
burada x_i^j(i=1,2,…,d) i. parçacığın j. pozisyonunu gösterir. p_n ve d sırasıyla sürüdeki parçacık sayısı ve pozisyon sayısını gösterir. Herbir parçacık için başlangıç pozisyonları ve hızları, sırasıyla (0,1) ve 〖(-v〗_m,v_m) aralığında düzgün dağılımdan rassal olarak elde edilir.
Adım 2. PSO parametrelerinin elde edilmesi.
p_n,v_m,c_1i,c_1f,c_2i,c_2f,w_1 ve w_2 PSO parametreleridir. c_1 ve c_2, sırasıyla bilişsel ve sosyal katsayıları göstermektedir ve w eylemsizlik parametresidir.
Bu parametreler için mümkün aralıklar sırasıyla 〖(c〗_1i,c_1f),(c_2i,c_2f ) ve 〖(w〗_1,w_2) olsun. Herbir iterasyonda bu parametreler (1.18), (1.19) ve (1.20) formüllerindeki gibi hesaplanır.
Adım 3.Uygunluk fonksiyonu değerlerinin hesaplanması.
Herbir parçacık için uygunluk fonksiyonu değerleri hesaplanır. Hata kareler ortalaması (HKO), kullanılan uygunluk fonksiyonudur.
burada n öğrenme örneği sayısını göstermektedir. Önerilen metodun çıktı değeri Algoritma 2’ den elde edilmiştir.
Adım 4. Pbesti (i = 1,2, …, pn) ve Gbest belirlenmesi.
Bir önceki adımda hesaplanan uygunluk fonksiyonu değerlerine göre Pbesti (i = 1,2, …, pn) ve Gbest belirlenir. Pbesti; i. parçacığın bireysel en iyi pozisyonuna ait herbir parçacığın pozisyonlarının saklandığı vektör ve Gbest ise en iyi uygunluk değerine sahip en iyi parçacıktır.
Adım 5.Parametreler güncellenir.
(1.18), (1.19) ve (1.20) de verilen formüller kullanılarak parametreler hesaplanır.
Adım 6.Pozisyon ve hızların yeni değerleri hesaplanır.
(1.24) ve (1.25)’ deki formülleri kullanarak, her bir parçacığın pozisyonlarının ve hızlarının yeni değerleri hesaplanır. Maksimum iterasyon sayısına ulaşıldığında Adım 3 e gidilir ve durdurulur, diğer durumda adım 7’ ye gidilir.
Adım 7.Optimal çözümün belirlenmesi. Gbest’ in elemanları yeni ANN modelin optimal ağırlık değerleri olarak alınır.
UYGULAMA
AR-ARCH-ANN modelinin öngörü performansının değerlendirilmesinde ilk olarak 2011-2013 BIST 100 indeksi değerlerinden oluşan 3 zaman serisi kullanılmıştır. BIST 100 zaman serilerine ait özellikler Çizelge 2.1’de verilmiştir ve her bir zaman serisine ait grafikler Şekil 2.1, 2.2 ve 2.3 de verilmiştir.
BIST zaman serilerinin analizinde her bir serinin son 7 ve son 15 gözlemi test serisi olarak alınmış ve 6 farklı analiz yapılmıştır. Analizde kullanılan alternatif öngörü metodları ve uygulama detayları kısaca aşağıda listelenmiştir:
ARIMA: Otoregresif bileşik hareketli ortalama modeli. Box-Jenkins prosedürü kullanılarak en iyi model belirlenmiştir.
ES: Üssel Düzleştirme Modeli. Basit, Holt ve Winters üssel düzleştirme metodları uygulanıp en iyi model seçilmiştir.
MLP-ANN: Çok katmanlı algılayıcı yapay sinir ağı. Girdi ve gizli tabaka nöron sayıları 1’ den 5’ e kadar değişmektedir ve en iyi mimari deneme yanılma yöntemi ile seçilmektedir. Öğrenme algoritması olarak Levenberg Marquardt algoritması kullanılmıştır.
SC: Song-Chissom (1993) zamanla değişmez zaman serisi. Küme sayısı 5-10 arasında değişmektedir ve en iyi küme sayısı seçilir.
FF: Bulanık fonksiyon yaklaşımı (Türkşen, 2008). Model derecesi ve bulanık küme sayısı sırasıyla 1-5, 5-10 arasında değişmektedir. Her seri için en iyi durum belirlenir.
Yöntemlerin karşılaştırılmasında, test verilerinin performans ölçütleri hata kareler ortalaması karakökü (HKOK) ve ortalama mutlak yüzdelik hata (OMYH) hesaplanmıştır. HKOK ve OMYH kriterleri denklem (2.1) ve denklem (2.2) deki gibi hesaplanmıştır.
RMSE=√(1/n ∑_(t=1)^n▒〖(〖X_t-X ̂_t)〗^2 〗) (2.1)
MAPE=1/n ∑_(t=1)^n▒|(X_t-X ̂_t)/X_t | (2.2)
Önerilen model için en iyi sonuçlar elde edilmiştir. PSO uygulaması için w=0.9,〖 c〗_1=c_2=2,pn=30,vm=0.1 ve maksimum iterasyon sayısı 200 olarak alınmıştır. Çizelge 2.2 ve 2.3 BIST-Seri 1 için elde edilen sonuçları göstermektedir.
Test serisinin uzunluğu sırasıyla 7 ve 15 olarak alınmıştır. OMYH ve HKOK kriterlerine göre öngörü performanlarına bakıldığında önerilen metod AR-ARCH-ANN’ nin diğer metodlara göre daha iyi sonuç verdiği görülmektedir.
Benzer şekilde BIST-Seri 2 ve BIST-Seri 3 için sonuçlar Çizelge 2.4, 2.5, 2.6 ve 2.7’ de verilmiştir.
İkinci olarak “Uluslararası Zaman Serisi Öngörü Yarışması CIF2016” için web sayfasında verilen 72 adet mevsmsel zaman serisinin 108 gözleme sahip ilk 48 tanesi önerilen yöntemin performansının değerlendirilmesi için kullanılmıştır. Zaman serilerinin son 12 gözlemi test verisi olarak kullanılmıştır. Her bir zaman serisi çarpımsal nöron model yapay sinir ağı (MNM-ANN), çok katmanlı algılayıcı yapay sinir ağı (MLP-ANN) ve önerilen yöntem ile çözümlenmiştir. Her üç yöntem içinde girdi sayısı 2, 4 ve 12 olarak alınmıştır. Ayrıca MLP-ANN ve önerilen yöntem gizli taba birim sayıları 1 ve 2 olarak alınmıştır. Her bir durumda rastgele başlangıç ağırlıkları ile 50 kez çözümleme yapılmış ve elde edilen istatistikler için hazırlanan tablolar EK-A da verilmiştir. Uygulamada kullanılan 48 zaman serisinin grafikleri Şekil 2.4. ve 2.6 da verilmiştir.
Grafiklerde de görüldüğü gibi 48 adet zaman serisi, azalan trend, artan trend, doğrusal ve doğrusal olmayan trende sahip, durağanlık gibi farklı özelliklere sahiptir. 48 adet zaman serisinin bu farklılıkları önerilen yöntemin farklı türde zaman serileri için perfromansını inceleme şansı sağlamaktadır.
EK-A da verilen sonuçlar incelendiğinde 48 zaman serisinin, 32 tanesinde önerilen yöntemin en düşük ortalama RMSE değerine sahip olduğu yani MNM-ANN ve MLP-ANN ile karşılaştırıldığında % 66 lık bir başarı oranına sahip olduğu görülmektedir. Ayrıca 48 zaman serisinin 39 tanesinde daha düşük standart sapma değerlerine sahip sonuçlar verdiği anlaşılmaktadır.
Translation - English Suggested Method
Suggested AR-ARCH-ANN model can be applied through the usage of two algorithms. The first algorithm shows how the output are calculated for one input set of the network. And the second algorithm given in this section shows how the education of AR-ARCH-ANN model needs to be provided with PSO.
Algorithm 2: Algorithm to calculate the output of AR-ARCH-ANN model
Let the number of learning samples be n. When the numbers of the input of AR-ARCH-ANN is determined as p and m, the output of AR-ARCH-ANN model is calculated using Step 1- Step 5.
Step1. Set iteration counter to zero (k = 0).
Step2. Increase k by 1 as it will be (k = k + 1). Calculations for kth learning sample are applied.
Let the input of AR-ARCH-ANN model be X_(t-1),X_(t-2),…,X_(t-p),e_(t-1)^2,e_(t-2)^2,…,e_(t-m)^2. As it is seen in Figure 3.2, there is only one neuron in the hidden layer. net represents the state of multiplications of each input by their weights in AR-ARCH-ANN after they went through the activation function. When k=1, input, e_(t-1)^2,e_(t-2)^2,…,e_(t-m)^2, is taken as “0”. Because the output of AR-ARCH-ANN can not be calculated yet. When k = 2, e_(t-1)^2 can be calculated. Even though input, e_(t-2)^2,…,e_(t-m)^2, are taken as “0”, for the 1. learning sample, output of AR-ARCH-ANN can be obtained and when e_(t-1)^2 is obtained for 1. learning sample, 〖(desired〖output〗_(t-1)-〖actualoutput〗_(t-1))〗^2 is equal.
Similarly, if k ≤ m, then the last m-k terms of e_(t-2m+k+1)^2 e_(t-2)^2,…,e_(t-m)^2 are going to be taken as 0. If k > m, each e_(t-j)^2 (j= 1, 2, … , m) can be calculated. Let WXi and bXi (i = 1, 2, … , p) be weights and side values of input Xt–l, Xt–2, … , Xt–p, and WEi and bEi (j = 1, 2, … , m) be weights and side values of input e_(t-1)^2,e_(t-2)^2,…,e_(t-m)^2. Thus, the value of neuron activation function for kth learning sample, 〖net〗_k, is calculated as (3.13).
Step4. Obtaining e_t^2 to use as an input of AR-ARCH-ANN for the next learning sample.
〖e_t^2=(〖goal〗_t-output_t)〗^2 ……………………. (1.15)
Step5. If k ≤ n, go back to Step 2. Otherwise, algorithm is ended. For the education of the suggested AR-ARCH-ANN model, one of the artificial intelligence optimization algorithms, PSO, is used. Since other methods need to take derivatives, in most applications, PSO method gives better results than other methods. Main advantages of PSO is parameter controlled robustness and high calculation productivity (Kennedy and Eberthart, 1995).
Since it is hard to obtain the derivatives of cost and error functions for the suggested AR-ARCH-ANN model, this model is practical because in the model education, it is easy and its possibility to avoid the local minimum trap is high. In PSO algorithm, positions of the particles are the weights of suggested AR-ARCH-ANN model. Thus, a particle has 2(p+q) position. The structure of the particles is shown in Figure 1.3.
Figure 1.3. Structure of particles
Algorithm 3 Usage of PSO algorithm in the education of AR-ARCH-ANN model:
Step 1. i=(1,2,…,p_n) Determining the positions and velocities of each i-th particle and hiding in vectors Xi and Vi:
Here, x_i^j(i=1,2,…,d) shows jth position of ith particle. p_n and d shows the number of particles and positions respectively. For each particle, initial positions and velocities are obtained randomly from the normal distribution in the range of (0,1) and 〖(-v〗_m,v_m) respectively.
Step 2. Obtaining PSO parameters.
p_n,v_m,c_1i,c_1f,c_2i,c_2f,w_1 and w_2 are PSO parameters. c_1 and c_2 shows cognitive and social coefficients respectively and w is the inertia parameter.
Let possible intervals for these parameters be 〖(c〗_1i,c_1f),(c_2i,c_2f ) and 〖(w〗_1,w_2) respectively. In each iteration, these parameters are calculated as in (1.18), (1.19) and (1.20).
Here, n shows the number of learning samples. The output value of suggested method is obtained through Algorithm 2.
Step 4. Determining Pbesti (i = 1,2, …, pn) and Gbest.
Pbesti (i = 1,2, …, pn) and Gbest are determined according to the conformity function value which is calculated in previous step. Pbesti is the vector where positions of each particle belonging to the best position, individually, of i-th particle are hided and Gbest is the best particle which has the best conformity value.
Step 5. Updating the parameters..
Calculate the parameters using the formulas given in (1.18), (1.19) and (1.20).
Step 6. Calculating the new values for positions and velocities.
Calculate the new values of positions and velocities for each particle using the formulas in (1.24) and (1.25). When the maximum iteration number is achieved, go to Step 3 and end it, otherwise go to Step 7.
Step 7. Determining the optimal solution. Take components of Gbest as optimal weight values of the new ANN model.
APPLICATION
In the evaluation of forecasting performance of AR-ARCH-ANN model, firstly, 3 time series, which are composed of index values of 2011-2013 BIST 100, are used. Features belonging to the time series, BIST 100, are given in Chart 2.1. and graphs of each time series are given in Figure 2.1, 2.2 and 2.3.
In BIST time series analysis, the last 7 and 15 observation for each series are taken as test series and 6 different analyses are made. Alternative methods in forecasting, which are used in the analysis, and application details are listed below:
ARIMA: Autoregressive integrated moving average model. The best model is determined using Box-Jenkins procedure.
ES: Exponential Smoothing Model. Simple, Holt and Winters exponential smoothing methods are applied and the best model is chosen.
MLP-ANN: Multilayer perceptron artificial neural network. Number of input and hidden layer neurons vary from 1 to 5 and the best is chosen architectural trial and error method. As learning algorithm, Levenberg Marquardt algorithm is used.
SC: Song-Chissom (1993) time invariant time series. Number of sets varies between 5-10 and the best set is chosen.
FF: Fuzzy function approach (Türkşen, 2008). Model degree and the number of sets varies between 1-5 and 5-10 respectively. The best situation is determined for each series.
When comparing the methods, root mean square error (RMSE) of performance criterions of test values and mean absolute percentage error (MAPE) are calculated. RMSE and MAPE criterions are calculated like the equations in (2.1) and (2.2).
RMSE=√(1/n ∑_(t=1)^n▒〖(〖X_t-X ̂_t)〗^2 〗) (2.1)
MAPE=1/n ∑_(t=1)^n▒|(X_t-X ̂_t)/X_t | (2.2)
The best results for the suggested method are obtained. For PSO application, w=0.9,〖 c〗_1=c_2=2,pn=30,vm=0.1 and maximum iteration number is taken as 200. Chart 2.2 and 2.3 shows the results obtained for BIST-Series 1.
The length of the test series is taken as 7 and 15 respectively. According to MAPE and RMSE criterions, when we look at forecasting performances, it is seen that suggested method, AR-ARCH-ANN, gives better results than other methods.
Similarly, results for BIST-Series 2 and BIST-Series 3 are given in Chart 2.4, 2.5, 2.6 and 2.7.
Secondly, the first 48, which has 108 observations, of given 72 seasonal time series in the web page for "International Time Series Contest in Forecasting CIF2016" are used to evaluate the performance of suggested method. The last 12 observations of time series are used as the test value. Each time series are solved using a multiplicative neuron model artificial neural network (MNM-ANN), multilayer perceptron artificial neural network (MLP-ANN) and suggested method. Input number is taken as 2, 4 and 12 for all three methods. Also, hidden unit number of MLP-ANN and suggested method are taken as 1 and 2. For each situation with random initial weights, analysis is made 50 times and tables for obtained statistics are given in ATTACHMENT-A. Graphs, which are used in the application, of 48 time series are given in Figure 2.4 and 2.6.
Just as seen in graphs, 48 time series has different characteristics such as decreasing trend, linear and non-linear trend, stationarity. These differences of 48 time series allow performance of suggested method to be explored for different types of time series.
When the results given in ATTACHMENT-A are examined, it is seen that the method, which is suggested in 32 of 48 time series, has the minimum mean value, in other words when MNM-ANN and MLP-ANN are compared, it has a 66% success rate. Also, in 39 of 48 time series, it gives results which have lower standard deviation values.
More
Less
Experience
Years of experience: 12. Registered at ProZ.com: May 2017.
Hi, I'm Fatih.
I am doing my MA on statistics at the Ondokuz Mayıs University. I have been doing technical translation for 4 years in Turkish and English language pairs as a freelancer. Details are in my CV.