Zeitreihen
Posted: Sun 7. Dec 2008, 03:38
Servus mit' anander,
Ich schreib einfach mal was ich mit MemBrain mache.
Ich versuche "Zeitreihen" vorherzusagen.
(Und JA es sind Aktien, genauer der Dax).
INPUT=:
V-Dax=Schwankungsbreite der DAX-Aktien.
Bull
Baer
Neutral=Sind Händler eher positiv oder negativ für die Zukunft gestimmt.
http://www.boerse-frankfurt.de/DE/index ... NewsID=752
€/$ Kurs
Goldpreis in $
Ölpreis/WTI in $
Umlaufrendite (Zins, N-TV-Videotext S.203)
Dax
M-Dax
S_Dax
OUTPUT=:
V-Dax
Dax
M-Dax
S-Dax
Die Outputwerte (Lernwerte) sind um 1 Woche nach vorne versetzt.
IN= 1. Woche OUT= 2.Woche
IN= 2. Woche OUT= 3.Woche
IN= 3. Woche OUT= 4.Woche
Aus diesen Eingabewerten errechne ich noch den "Gleitenden Durchschnitt".
Von den "Original-Daten" und dem "Gleitenden Durchschnitt" errechne ich nun die prozentuale Veränderung von einer zur nächsten Woche.
Diese Proz-Veränderung (z.B. -0,7%) "normalisiere" ich in den Bereich von (0-1)
Diese Daten übergebe ich MemBrain ca 20x. (MemBrain resetet und randomized das Netz rechnet, speichert Output und das Netz)
Jetzt bekomme ich 20 Ausgabewerte im Bereich (0-1); Diese werden mit "OpenOffice" (UND NEIN, NICHT mit Excel, ich STEHE AUF OPEN SOURCE) wieder in den ursprünglichen Bereich zurückgerechnet.
Und ich hab meine PROGNOSE!!!!!
Allerdings habe ich noch min. 100000 Fragen/Probleme
Erstmal meine besten Erfahrungen:
Alle Netze:
Teatcher = BP
Lernrate= 0.5
Teatcher (RPROP) bleibt immer hängen ???
Hiddenschicht = Tan Hyp
Contextneuron = Identical
Rückkopplung und Round-Robbins = Wert 1 und Lock for Teatcher.
1. Das "Elmannetz" = sehr schlecht.
2. Das "Multilayer Perzepton, MLP) = O.K.
3. Das "Jordannetz" = am besten, aber nicht GUT GENUG.
Anzahl der Neuronen in der Hiddenschicht ???
Ich hatte SUPER Ergebnisse mit 1 Neuron aber auch mit 25 Neuronen,
Ich vermute, dass ein Netz mit mehr Neuronen einfach länger lernen muss.
ALSO, bestes Ergebnis:
Jordannetz
Hidden = Tan Hyp
Context = Identical
Rückkopplung und Round-Robbins = Wert 1 und Lock for Teatcher.
Und jetzt meine Fragen:
1. Macht es überhaupt Sinn ein rückgekoppeltes Netz (Jordan, Elman) zu Benutzen, wenn die ZIELDATEN sowieso schon um einen Schritt (1 Woche) nach vorn versetzt sind, oder reicht ein MLP.
2. Wäre es evtl. sinnvoll die Eingabedaten REVERSE (Die NEUESTEN Werte zuerst) einzugeben, UND DANN MLP oder doch Jordan/Elman ?????
Ich wer'd weiter TESTEN, und wenn's 1000 Jahre dauert,
Bin gespannt auf Eure Erfahrungen...
Gruss,
Lucky Seppy
Ich schreib einfach mal was ich mit MemBrain mache.
Ich versuche "Zeitreihen" vorherzusagen.
(Und JA es sind Aktien, genauer der Dax).
INPUT=:
V-Dax=Schwankungsbreite der DAX-Aktien.
Bull
Baer
Neutral=Sind Händler eher positiv oder negativ für die Zukunft gestimmt.
http://www.boerse-frankfurt.de/DE/index ... NewsID=752
€/$ Kurs
Goldpreis in $
Ölpreis/WTI in $
Umlaufrendite (Zins, N-TV-Videotext S.203)
Dax
M-Dax
S_Dax
OUTPUT=:
V-Dax
Dax
M-Dax
S-Dax
Die Outputwerte (Lernwerte) sind um 1 Woche nach vorne versetzt.
IN= 1. Woche OUT= 2.Woche
IN= 2. Woche OUT= 3.Woche
IN= 3. Woche OUT= 4.Woche
Aus diesen Eingabewerten errechne ich noch den "Gleitenden Durchschnitt".
Von den "Original-Daten" und dem "Gleitenden Durchschnitt" errechne ich nun die prozentuale Veränderung von einer zur nächsten Woche.
Diese Proz-Veränderung (z.B. -0,7%) "normalisiere" ich in den Bereich von (0-1)
Diese Daten übergebe ich MemBrain ca 20x. (MemBrain resetet und randomized das Netz rechnet, speichert Output und das Netz)
Jetzt bekomme ich 20 Ausgabewerte im Bereich (0-1); Diese werden mit "OpenOffice" (UND NEIN, NICHT mit Excel, ich STEHE AUF OPEN SOURCE) wieder in den ursprünglichen Bereich zurückgerechnet.
Und ich hab meine PROGNOSE!!!!!
Allerdings habe ich noch min. 100000 Fragen/Probleme
Erstmal meine besten Erfahrungen:
Alle Netze:
Teatcher = BP
Lernrate= 0.5
Teatcher (RPROP) bleibt immer hängen ???
Hiddenschicht = Tan Hyp
Contextneuron = Identical
Rückkopplung und Round-Robbins = Wert 1 und Lock for Teatcher.
1. Das "Elmannetz" = sehr schlecht.
2. Das "Multilayer Perzepton, MLP) = O.K.
3. Das "Jordannetz" = am besten, aber nicht GUT GENUG.
Anzahl der Neuronen in der Hiddenschicht ???
Ich hatte SUPER Ergebnisse mit 1 Neuron aber auch mit 25 Neuronen,
Ich vermute, dass ein Netz mit mehr Neuronen einfach länger lernen muss.
ALSO, bestes Ergebnis:
Jordannetz
Hidden = Tan Hyp
Context = Identical
Rückkopplung und Round-Robbins = Wert 1 und Lock for Teatcher.
Und jetzt meine Fragen:
1. Macht es überhaupt Sinn ein rückgekoppeltes Netz (Jordan, Elman) zu Benutzen, wenn die ZIELDATEN sowieso schon um einen Schritt (1 Woche) nach vorn versetzt sind, oder reicht ein MLP.
2. Wäre es evtl. sinnvoll die Eingabedaten REVERSE (Die NEUESTEN Werte zuerst) einzugeben, UND DANN MLP oder doch Jordan/Elman ?????
Ich wer'd weiter TESTEN, und wenn's 1000 Jahre dauert,
Bin gespannt auf Eure Erfahrungen...
Gruss,
Lucky Seppy