Ok, het wordt aannemelijk dat mijn gekozen algoritme wel aardig lijkt te werken voor de mnist dataset maar het dramatisch doet voor de Data Science Bowl. (Het opzoeken van celkernen). Het lijkt maar weinig variatie te vinden. Na het verrijken (roteren / zoomen etc) van de onderliggende dataset (Ik meende dat die wellicht niet goed genoeg was) , het echt opsplitsen van train en validatie data, het uitbreiden van het aantal epochs per test naar 10 en nog wat 'mogelijke verbeteringen' komt die met onderstaand model. Het lijkt nauwelijks te verschillen. In eerste instantie neemt de loss beter af maar na 5 epochs doet het oorspronkelijke model het toch weer beter. De grafiek van de accuracy is helemaal bizar. Snap ik (nog?) weinig van.
32.0 3.0 3.0 32.0 3.0 3.0 2.0 2.0 0.25 32.0 3.0 3.0 32.0 3.0 3.0 2.0 2.0 0.25 64.0 0.25
32.0 3.0 3.0 33.0 3.0 3.0 2.0 2.0 0.19 25.0 3.0 3.0 32.0 3.0 3.0 2.0 2.0 0.25 75.0 0.13
![]() |
Loss |
![]() |
Accuracy |
Misschien moet ik het anders aan gaan pakken. Ik selecteer nu zowel op loss en accuracy. Hier vindt ik echter een ander uitgangspunt:
Loss is often used in the training process to find the "best" parameter values for your model (e.g. weights in neural network). It is what you try to optimize in the training by updating weights.
Accuracy is more from an applied perspective. Once you find the optimized parameters above, you use this metrics to evaluate how accurate your model's prediction is compared to the true data. Bij een aanpassing van de optimizer naar standaard Gradient descent krijg ik het volgende verloop
32.0 3.0 3.0 32.0 3.0 3.0 2.0 2.0 0.25 32.0 3.0 3.0 32.0 3.0 3.0 2.0 2.0 0.25 64.0 0.25
32.0 3.0 4.0 32.0 4.0 3.0 2.0 2.0 0.25 35.0 3.0 2.0 22.0 3.0 3.0 2.0 2.0 0.25 48.0 0.25
Het lijkt er niet beter op te worden. De accuracy is helemaal 'gone with the wind'. Maar weer eens een nachtje over slapen ...
Geen opmerkingen:
Een reactie posten