Práctica 6: Teoría de la Información (Teoría de las Comunicaciones)
De Cuba-Wiki
Ejercicio 01
Ejercicio 02
Ejercicio 03
Ejercicio 04
Ejercicio 05
Ejercicio 06
Ejercicio 07
Ejercicio 08
Ejercicio 09
Ejercicio 10
Ejercicio 11
Ejercicio 12
Ejercicio 13
Ejercicio 14
Ejercicio 15
Ejercicio 16
Ejercicio 17
Ejercicio 18
Ejercicio 19
Ejercicio 20
Ejercicio 21
Ejercicio 22
Ejercicio 23
Ejercicio 24
Decidir si la siguiente frase es verdadera o falsa: “Dado un código unívocamente decodificable, se pueden obtener infinitos códigos unívocamente decodificables a partir de él”
Rta:
Verdadero. Si se tiene un codigo instantaneo cualquiera se sabe que va a estar libre de prefijos. Por lo tanto, si yo le agrego un mismo bit (ej 1) a todos los codigos tengo otro codigo instantaneo, por lo tanto univocamente decodificable.
Ejercicio 25
Ejercicio 26
Ejercicio 27
Ejercicio 28
Se tiene una Fuente de información “S“ de memoria nula que produce n símbolos cada uno con probabilidad asociada Pi, la entropía de dicha fuente es:
- ¿ Qué define la entropía ?
- ¿ Cuándo la entropía es máxima ?
- Dé un ejemplo de una fuente de H máxima = 1 bits/símbolo.
Rta:
- La entropia define el desorden, la "confusion" que se obtiene a partir de una fuente de informacion. Tambien se puede ver como lo "impredecible" que es.
- La entropia es maxima cuando manejamos una fuente de informacion equiprobable. Esto se debe a que no podemos saber ni asumir nada de antemano sobre lo que vamos a obtener de la fuente.
- Un ejemplo claro de equiprobabilidad y entropia maxima es el resultado de lanzar una moneda al aite, ya que sabemos que las prob. para cada cara es de 1/2.