Update.
[profiler-torch.git] / README.md
index 45ca396..2adb72c 100644 (file)
--- a/README.md
+++ b/README.md
@@ -1,18 +1,16 @@
 
-This is a simple profiler to estimate processing time per module per function. One should call
+This is a simple profiler to estimate processing time per module per function.
 
-  profiler.decorate(model[, functionsToDecorate])
+It seems to work okay, but there was no heavy testing so far. See test-profiler.lua for a short example.
 
-before starting the computation. It will replace functions specified in functionsToDecorate by instrumented versions which keep track of computation times. If functionsToDecorate is not provided, it will decorate by default updateOutput and backward.
+### profiler.decorate(model, [functionsToDecorate]) ###
 
-When the computation is over.
+This function should be called before starting the computation.
 
-  profiler.print(model[, nbSamples])
+It replaces functions specified in functionsToDecorate by instrumented versions which keep track of computation times. If functionsToDecorate is not provided, it decorates by default updateOutput and backward.
 
-will print the measured processing times. If nbSamples is provided, the time per samples will also be printed.
+It also resets the accumulated timings to zero.
 
-It seems to work okay, but there was no heavy testing so far.
+### profiler.print(model, [nbSamples], [totalTime]) ###
 
---
-Francois Fleuret
-Dec 5th, 2016
+Prints the measured processing times. If nbSamples is provided, the time per samples will also be printed. If totalTime is provided, the percentages will also be printed.