Update.
[pytorch.git] / attentiontoy1d.py
index ad0c0b1..ef20340 100755 (executable)
@@ -12,7 +12,7 @@ from torch.nn import functional as F
 
 ######################################################################
 
-parser = argparse.ArgumentParser(description='Toy RNN.')
+parser = argparse.ArgumentParser(description='Toy attention model.')
 
 parser.add_argument('--nb_epochs',
                     type = int, default = 250)