Fixed the error message, which was causing an error.
[profiler-torch.git] / README.md
index 24cf063..0e851f4 100644 (file)
--- a/README.md
+++ b/README.md
@@ -3,6 +3,10 @@ This is a simple profiler to estimate processing time per module per function.
 
 It seems to work okay, but there was no heavy testing so far. See test-profiler.lua for a short example.
 
+### profiler.color ###
+
+This is a Boolean flag to state if the printing should be done in color. It is true by default.
+
 ### profiler.decorate(model, [functionsToDecorate]) ###
 
 This function should be called before starting the computation.
@@ -11,6 +15,8 @@ It replaces functions specified in functionsToDecorate by instrumented versions
 
 It also resets the accumulated timings to zero.
 
-### profiler.print(model, [nbSamples]) ###
+### profiler.print(model, [nbSamples], [totalTime]) ###
+
+Prints the measured processing times. If nbSamples is provided, the time per samples will also be printed. If totalTime is provided, the percentages will also be printed.
 
-Prints the measured processing times. If nbSamples is provided, the time per samples will also be printed.
+Non-Containers are hilighted with a '*' or in red.