In het zicht van de finish helaas moeten opgeven ... andere prioriteiten (zbbhh in Italie). Nu ja, het was toch nooit echt de bedoeling om #1 te worden. De komende week moeten formeel de gebruikte modellen worden bijgeladen wil je met de prijzen meedoen. Dat lijkt ook nog wel een klusje. Goed om te weten voor een volgende ronde. Het is heel leuk en interessant geweest om mee te doen. Veel geleerd, zowel over deep-learning, Kaggle competities en healthcare media (Dicom ECG) . En leuk dat ik vrijwel aan het einde van de competitie nog even op plaats 51 (top 8%) heb gestaan. (Nu helaas alweer terug naar positie 61).
Belangrijkste lessen:
- Doe beter aan versie beheer. De originele programma versie van mijn 'top-score' heb ik niet meer.
- Er is veel ervaring nodig om te bepalen wat werkt of niet werkt. De leer-iteraties nemen veel te lang om volledig met trial and error te werken. Misschien ook eerst meer werken met minder iteraties/epochs en dan die vergelijken.
- Om meer data te krijgen zonder overfitting worden de afbeeldingen een beetje geschoven en gedraaid. Door dat per iteratie te doen krijg je steeds variatie. (In plaats van 1x vooraf)
- Gelijk een opslag en heropenmechanisme van de weights inbouwen. hierdoor kan je makkelijker kijken of meer leertijd tot betere resultaten leidt.
- Metadata meevoeren in een Convnet gaat wel maar ook deze mag niet tot 'overfitting' leiden.
- Zet vroeg een eenvoudige 'productielijn' uit met een eerste submission. Structuur data voorbereiding, training en submission helpen hierbij.
Goed en vast nog veel meer. Maar daar heb ik tenslotte dit blog voor geschreven. Een handig werkverslag dat mij later hopelijk een keer helpt om echt in de prijzen te vallen. Oh nee ... foutje ... ik doe het niet voor het geld. :-)
Geen opmerkingen:
Een reactie posten