Activation Functions im XOR Sample

Heute mal ein bisschen mit den Aktivierungsfunktionen vom XOR Netz rumgespielt. Dabei herausgefunden, dass das Teil wesentlich besser funktioniert, wenn man in der letzten Matrix die Aktivierungsfunktion auf linear schaltet. Funktioniert allerdings wirklich nur bei XOR, sonst sollte man die Aktivierungsfunktionen wirklich alle(außer BIAS natürlich) auf sigmoid belassen(s. Slideshow zum XOR Sample). Allerdings habe ich jetzt ein nahezu perfekt trainiertes XOR Netz, man sollte mal darüber nachdenken das zu patentieren, oder so ;-)