Update.
[tex.git] / inftheory.tex
index e64fe5b..1933ff4 100644 (file)
@@ -42,6 +42,8 @@
 
 \begin{document}
 
+\today
+
 Information Theory is awesome so here is a TL;DR about Shannon's entropy.
 
 The field is originally about quantifying the amount of
@@ -49,7 +51,7 @@ The field is originally about quantifying the amount of
 under certain conditions.
 
 What makes it awesome IMO is that it is very intuitive, and like
-thermodynamics in Physics it give exact bounds about what is possible
+thermodynamics in Physics, it gives exact bounds about what is possible
 or not.
 
 \section{Shannon's Entropy}
@@ -80,7 +82,7 @@ It has a simple analytical form:
  H(p) = - \sum_k p(k) \log_2 p(k)
 \]
 %
-where by convention $o \log_2 0 = 0$.
+where by convention $0 \log_2 0 = 0$.
 
 It is often seen as a measure of randomness since the more
 deterministic the distribution is, the less you have to emit.