Update.
[profiler-torch.git] / README.md
index 1934345..24cf063 100644 (file)
--- a/README.md
+++ b/README.md
@@ -1,18 +1,16 @@
 
 This is a simple profiler to estimate processing time per module per function.
 
+It seems to work okay, but there was no heavy testing so far. See test-profiler.lua for a short example.
+
 ### profiler.decorate(model, [functionsToDecorate]) ###
 
 This function should be called before starting the computation.
 
-t replaces functions specified in functionsToDecorate by instrumented versions which keep track of computation times. If functionsToDecorate is not provided, it decorates by default updateOutput and backward.
+It replaces functions specified in functionsToDecorate by instrumented versions which keep track of computation times. If functionsToDecorate is not provided, it decorates by default updateOutput and backward.
+
+It also resets the accumulated timings to zero.
 
 ### profiler.print(model, [nbSamples]) ###
 
 Prints the measured processing times. If nbSamples is provided, the time per samples will also be printed.
-
-It seems to work okay, but there was no heavy testing so far.
-
---
-Francois Fleuret
-Dec 5th, 2016