@ -1,5 +1,5 @@
# Training params
epoch : 10
epoch : 5
batch_size : 4
num_workers: 8
limit : 5
@ -16,5 +16,5 @@ loss_function :
# Scheduler
scheduler :
name : torch.optim.lr_scheduler.StepLR
gamma : 0.01
gamma : 0.15
step_size : 10
step_size : 3