BIAS-Neuron einfügen
Posted: Wed 29. Jul 2009, 11:18
Hi,
gibts eigtl. eine Möglichkeit BIAS-Neurone in MemBrain einzufügen?
Ein Neuron das andauernd "+1" ausgibt geht ja, das hab ich geschafft. Außerdem müssen alle Schwellenwerte, also "Activation Thresholds" auf "0" gesetzt werden. Nun muss aber jede Verbindung/Link von Bias-Neuron zu den jeweiligen Neuronen auf jedenfall ein negatives Gewicht (also immer Weight <= 0) haben, um damit einen variablen Schwellenwert zu verwirklichen. Seh ich das richtig?
Wie kann ich nun aungeben, dass die Gewichte kleiner oder höchstens gleich null sind?
Oder werden die Aktivierungsfunktionen sowieso beim Lernen verändert? Hab nämlich grad das Häkchen "Lock Act. Thres. for Teacher" gesehen, was also bedeutet der Schwellenwert IST schon variabel. Wenn das dann aber das Fall ist, wollte ich fragen wie das in MemBrain implementiert ist. Soweit ich mich erinnern berücksichtigt ja das Backpropagation-Lernverfahren NICHT eine Änderung der Schwellenwerte sondern nur der Gewichte. Richtig? Wie siehts da mit RPROP aus? Da dieses schneller konvergiert verwende ich momentan meistens RPROP, hab aber leider keine Literatur zur Hand in der der Algorithmus genauer beschrieben wird.
Danke für jede Hilfe!
Gruß.
Jonathan
gibts eigtl. eine Möglichkeit BIAS-Neurone in MemBrain einzufügen?
Ein Neuron das andauernd "+1" ausgibt geht ja, das hab ich geschafft. Außerdem müssen alle Schwellenwerte, also "Activation Thresholds" auf "0" gesetzt werden. Nun muss aber jede Verbindung/Link von Bias-Neuron zu den jeweiligen Neuronen auf jedenfall ein negatives Gewicht (also immer Weight <= 0) haben, um damit einen variablen Schwellenwert zu verwirklichen. Seh ich das richtig?
Wie kann ich nun aungeben, dass die Gewichte kleiner oder höchstens gleich null sind?
Oder werden die Aktivierungsfunktionen sowieso beim Lernen verändert? Hab nämlich grad das Häkchen "Lock Act. Thres. for Teacher" gesehen, was also bedeutet der Schwellenwert IST schon variabel. Wenn das dann aber das Fall ist, wollte ich fragen wie das in MemBrain implementiert ist. Soweit ich mich erinnern berücksichtigt ja das Backpropagation-Lernverfahren NICHT eine Änderung der Schwellenwerte sondern nur der Gewichte. Richtig? Wie siehts da mit RPROP aus? Da dieses schneller konvergiert verwende ich momentan meistens RPROP, hab aber leider keine Literatur zur Hand in der der Algorithmus genauer beschrieben wird.
Danke für jede Hilfe!
Gruß.
Jonathan