Zeitreihen

Sie sind sich nicht sicher, in welches Forum Ihre Frage oder Ihr Anliegen passt?
Möchten Sie ein neues Forum vorschlagen? Möchten Sie Kritik am Forum selbst üben?

Dann posten Sie bitte hier.
User avatar
Seppy
Posts: 47
Joined: Fri 5. Dec 2008, 04:48
Location: 90537 Feucht

Zeitreihen

Post by Seppy »

Servus mit' anander,

Ich schreib einfach mal was ich mit MemBrain mache.

Ich versuche "Zeitreihen" vorherzusagen.
(Und JA es sind Aktien, genauer der Dax).

INPUT=:

V-Dax=Schwankungsbreite der DAX-Aktien.

Bull
Baer
Neutral=Sind Händler eher positiv oder negativ für die Zukunft gestimmt.
http://www.boerse-frankfurt.de/DE/index ... NewsID=752

€/$ Kurs
Goldpreis in $
Ölpreis/WTI in $
Umlaufrendite (Zins, N-TV-Videotext S.203)
Dax
M-Dax
S_Dax


OUTPUT=:

V-Dax
Dax
M-Dax
S-Dax

Die Outputwerte (Lernwerte) sind um 1 Woche nach vorne versetzt.
IN= 1. Woche OUT= 2.Woche
IN= 2. Woche OUT= 3.Woche
IN= 3. Woche OUT= 4.Woche

Aus diesen Eingabewerten errechne ich noch den "Gleitenden Durchschnitt".
Von den "Original-Daten" und dem "Gleitenden Durchschnitt" errechne ich nun die prozentuale Veränderung von einer zur nächsten Woche.
Diese Proz-Veränderung (z.B. -0,7%) "normalisiere" ich in den Bereich von (0-1)
Diese Daten übergebe ich MemBrain ca 20x. (MemBrain resetet und randomized das Netz rechnet, speichert Output und das Netz)
Jetzt bekomme ich 20 Ausgabewerte im Bereich (0-1); Diese werden mit "OpenOffice" (UND NEIN, NICHT mit Excel, ich STEHE AUF OPEN SOURCE) wieder in den ursprünglichen Bereich zurückgerechnet.
Und ich hab meine PROGNOSE!!!!!

Allerdings habe ich noch min. 100000 Fragen/Probleme

Erstmal meine besten Erfahrungen:

Alle Netze:
Teatcher = BP
Lernrate= 0.5
Teatcher (RPROP) bleibt immer hängen ???
Hiddenschicht = Tan Hyp
Contextneuron = Identical
Rückkopplung und Round-Robbins = Wert 1 und Lock for Teatcher.

1. Das "Elmannetz" = sehr schlecht.
2. Das "Multilayer Perzepton, MLP) = O.K.
3. Das "Jordannetz" = am besten, aber nicht GUT GENUG.

Anzahl der Neuronen in der Hiddenschicht ???
Ich hatte SUPER Ergebnisse mit 1 Neuron aber auch mit 25 Neuronen,
Ich vermute, dass ein Netz mit mehr Neuronen einfach länger lernen muss.

ALSO, bestes Ergebnis:
Jordannetz
Hidden = Tan Hyp
Context = Identical
Rückkopplung und Round-Robbins = Wert 1 und Lock for Teatcher.

Und jetzt meine Fragen:
1. Macht es überhaupt Sinn ein rückgekoppeltes Netz (Jordan, Elman) zu Benutzen, wenn die ZIELDATEN sowieso schon um einen Schritt (1 Woche) nach vorn versetzt sind, oder reicht ein MLP.

2. Wäre es evtl. sinnvoll die Eingabedaten REVERSE (Die NEUESTEN Werte zuerst) einzugeben, UND DANN MLP oder doch Jordan/Elman ?????

Ich wer'd weiter TESTEN, und wenn's 1000 Jahre dauert,
Bin gespannt auf Eure Erfahrungen...

Gruss,
Lucky Seppy
Wer arbeitet macht Fehler, wer wenig arbeitet macht wenig Fehler, wer nicht arbeitet macht keine Fehler, wer keine Fehler macht wird befördert.
User avatar
Admin
Site Admin
Posts: 438
Joined: Sun 16. Nov 2008, 18:21

Re: Zeitreihen

Post by Admin »

Hallo Seppy,

ich weiß nicht, ob DU den Newsletter bekommst, deshalb die Nachfrage:

Seit heute Nacht ist eine neue Version von MemBrain verfügbar. Dazu gibt es ebenfalls seit heute Nacht in den Beispielen aus dem Downloadbereich der homepage http://www.membrain-nn.de nun auch ein erweitertes Tutorial, dass sich um Zeitreihenvorhersage dreht. Da könntest Du gute Tipps finden...

Aber evtl. hast Du das ja schon durchgespielt?

Viele Grüße
Thomas Jetter
User avatar
Admin
Site Admin
Posts: 438
Joined: Sun 16. Nov 2008, 18:21

Re: Zeitreihen

Post by Admin »

Hallo Seppy,

eine kurze Anmerkung noch: Ich halte von rückgekoppelten Netzen zur Zeitreihenvorhersage mittlerweile nicht mehr viel. Sie sind so schwer zu trainieren und neigen immer zur Instabilität. Wesentlich bessere Ergebnisse erhält man im Allgemeinen mit Decay- und Delay-Neuronen wie im neuen Tutorial beschrieben.

Viele Grüße
Thomas Jetter
User avatar
Seppy
Posts: 47
Joined: Fri 5. Dec 2008, 04:48
Location: 90537 Feucht

Re: Zeitreihen

Post by Seppy »

danke Thomas,
hab's gerade gelesen, wird sofort "gedownloaded" und ausprobiert.
Ergebnisse folgen...
Seppy
Wer arbeitet macht Fehler, wer wenig arbeitet macht wenig Fehler, wer nicht arbeitet macht keine Fehler, wer keine Fehler macht wird befördert.
User avatar
Seppy
Posts: 47
Joined: Fri 5. Dec 2008, 04:48
Location: 90537 Feucht

Re: Zeitreihen

Post by Seppy »

Hallo zusammen,
das Tutorial über Zeitreihen war SEHR interresant, hab einen Vergleich zwischen "Jordan" und "Time-Delay" (Struktur wie im Tutorial) gemacht.
Das Jordannetz hat auf JEDEN FALL noch die Nase vorne (evt. muss das TD auch wesentlich länger trainiert werden)???
Vieleicht funktioniert das "Time-Delay" erst mit mehr Trainingsdaten, wie oben erwähnt habe ich z.Zt. nur sehr wenig davon.
Das TD brachte nicht mal annähernd gute Ergebnisse...

Werd's am Wochenende mit anderem Input probieren (Kurse seit ca. 1990):
http://de.finance.yahoo.com/q/hp?s=^GDAXI

Zur Anmerkung oben:
Alle Links die zurück gehen, haben einen FESTEN Wert von 1, auch die Round-Robbins (Direkte Rückkoplung der Contextneuronen).
Damit sollte der Teacher das Netz wie ein normales Feed Forward Netz lernen können; oder lieg ich da falsch???

Seppy
Wer arbeitet macht Fehler, wer wenig arbeitet macht wenig Fehler, wer nicht arbeitet macht keine Fehler, wer keine Fehler macht wird befördert.
User avatar
Admin
Site Admin
Posts: 438
Joined: Sun 16. Nov 2008, 18:21

Re: Zeitreihen

Post by Admin »

Sehr interessant!

Hast Du auch einmal ein Jordan-Netz auf die Mackey-Glass Datenreihe des Tutorials losgelassen? Würde mich sehr interessieren, vielleicht hast Du ja Lust?

Grüße
Thomas Jetter
User avatar
Seppy
Posts: 47
Joined: Fri 5. Dec 2008, 04:48
Location: 90537 Feucht

Re: Zeitreihen

Post by Seppy »

Hallo Thomas,
gute Idee, mach ich sobald ich Zeit habe.
Aber mit den Daten von Yahoo (mehrere Jahre) bringt das Time-Delay doch bessere Ergebnisse als das Jordan.
Hab jetzt vor mit diesen Daten mehrere Prognosen zu erstellen, muß aber erst noch ein PASSENDES Netz erstellen und die Größe der HIDDEN herausfinden.
(Tage, Wochen und Monate mit den letzten 10 Wochen).
Dieses Jahr war ja Himmel und HÖLLE an der Börse :?
Erste Ergebnisse evtl. am Wochenende, häng ich dann als PDF dran.
Warum nicht ein TD und Jordan kombinieren ? teste ich gerade.
Einige Vorschläge für künftige Versionen habe ich auch noch (kommen am Wochenende).
working, working, working...
Seppy
Wer arbeitet macht Fehler, wer wenig arbeitet macht wenig Fehler, wer nicht arbeitet macht keine Fehler, wer keine Fehler macht wird befördert.
User avatar
Admin
Site Admin
Posts: 438
Joined: Sun 16. Nov 2008, 18:21

Re: Zeitreihen

Post by Admin »

Mischen von Jordan und Time Delay geht natürlich auch, ja. Ich denke die meiste Tüftelei wirst Du in die Frage stecken müssen, wie viele Delay/Decay Neuronen sinnvoll sind und mit welchen Delay- bzw. Decay-Parametern. Es macht bestimmt Sinn, mit vielen anzufangen und dann abzuspecken, um die Trainingszeiten runterzukriegen.

Beim letzten Börsenjahr wirst Du allerdings massive Generalisierungsprobleme bekommen, könnte ich mir vorstellen ;)

Grüße und viel Erfolg! Bin gespannt auf Deine Ergebnisse!
Thomas Jetter
User avatar
Admin
Site Admin
Posts: 438
Joined: Sun 16. Nov 2008, 18:21

Re: Zeitreihen

Post by Admin »

Nur so aus Neugier: Bist Du eigentlich der absolute Nachtarbeiter oder hockst Du irgendwo auf einem anderen Kontinent ? ;)

Wenn ich mir die Uhrzeiten Deiner Beiträge so anschaue...

Viele Grüße
Thomas Jetter
User avatar
Seppy
Posts: 47
Joined: Fri 5. Dec 2008, 04:48
Location: 90537 Feucht

Re: Zeitreihen

Post by Seppy »

Nö, Nö,
ich bin Nachtarbeiter, mach ich nach Feierabend und ja, ich bin NOCH auf diesem Planeten (Feucht bei Nürnberg).
Die Delays/Decay lass ich z.Z. alles auf Standart.
Was bewirken überhaupt die DECAYS ?
Und ja, dieses Jahr war sehr schwankungsfreudig.
Seppy
Wer arbeitet macht Fehler, wer wenig arbeitet macht wenig Fehler, wer nicht arbeitet macht keine Fehler, wer keine Fehler macht wird befördert.
Post Reply