Práctica 6: Teoría de la Información (Teoría de las Comunicaciones)
Ejercicio 01
Para cada una de las siguientes cadenas de caracteres:
- i) AAAAAAAAAA ii) AAABBBCCCDDD iii) AAAAAA
- iv) AAAAAAAABB v) AAAAABBBCC vi) AAABBBCCDD
- vii) AAAAABBBBB viii) AAAAAAAABC
Calcular la frecuencia de cada símbolo, hacer su histograma y calcular su entropía.
Ordenar las secuencias de menor a mayor entropía. ¿ Qué observa ?
Entropía :
La entropía indica la cantidad de información en promedio que una fuente emite medida en bits por símbolo: ¿ Está de acuerdo a la luz de los resultados obtenidos ? ¿ Qué es más compresible: una secuencia con baja o con alta entropía ? ¿ Por qué ? Sacar conclusiones.
Ejercicio 02
Sea una secuencia de números enteros gra
Ejercicio 01
Para cada una de las siguientes cadenas de caracteres:
- i) AAAAAAAAAA ii) AAABBBCCCDDD iii) AAAAAA
- iv) AAAAAAAABB v) AAAAABBBCC vi) AAABBBCCDD
- vii) AAAAABBBBB viii) AAAAAAAABC
Calcular la frecuencia de cada símbolo, hacer su histograma y calcular su entropía.
Ordenar las secuencias de menor a mayor entropía. ¿ Qué observa ?
Entropía :
La entropía indica la cantidad de información en promedio que una fuente emite medida en bits por símbolo: ¿ Está de acuerdo a la luz de los resultados obtenidos ? ¿ Qué es más compresible: una secuencia con baja o con alta entropía ? ¿ Por qué ? Sacar conclusiones.
Ejercicio 02
Sea una secuencia de números enteros grandes que cumplen la propiedad que dos números consecutivos están a lo sumo una distancia d uno del otro (d pequeño). Piense una forma de disminuir la cantidad de bits necesaria para representar la secuencia. Implemente para la secuencia: 81324, 81326, 81325, 81323, 81323, 81324 y saque conclusiones.
- ¿ Cómo reconstruiría la secuencia original ?
- ¿ Como es la entropía de la secuencia representada con respecto a la entropía de la secuencia original ? ¿ Por qué ?
Ejercicio 03
En una transmisión de fax se necesitan 2.25*10^6 elementos cuadrados de imagen para obtener la resolución adecuada (1500 * 1500 puntos). ¿ Cuál es el máximo contenido de información que puede llegar a trasmitirse si se necesitan 12 niveles de luminosidad para una buena reproducción ?
Ejercicio 04
Ejercicio 05
Ejercicio 06
Ejercicio 07
Ejercicio 08
Ejercicio 09
Ejercicio 10
Ejercicio 11
Ejercicio 12
Ejercicio 13
Ejercicio 14
Ejercicio 15
Ejercicio 16
Ejercicio 17
Ejercicio 18
Ejercicio 19
Ejercicio 20
Ejercicio 21
Ejercicio 22
Ejercicio 23
Ejercicio 24
Decidir si la siguiente frase es verdadera o falsa: “Dado un código unívocamente decodificable, se pueden obtener infinitos códigos unívocamente decodificables a partir de él”
'Rta:'
Verdadero. Si se tiene un codigo instantaneo cualquiera se sabe que va a estar libre de prefijos. Por lo tanto, si yo le agrego un mismo bit (ej 1) a todos los codigos tengo otro codigo instantaneo, por lo tanto univocamente decodificable.
Ejercicio 25
Ejercicio 26
Ejercicio 27
Ejercicio 28
Se tiene una Fuente de información “S“ de memoria nula que produce n símbolos cada uno con probabilidad asociada Pi, la entropía de dicha fuente es:
- ¿ Qué define la entropía ?
- ¿ Cuándo la entropía es máxima ?
- Dé un ejemplo de una fuente de H máxima = 1 bits/símbolo.
'Rta:'
- La entropia define el desorden, la "confusion" que se obtiene a partir de una fuente de informacion. Tambien se puede ver como lo "impredecible" que es.
- La entropia es maxima cuando manejamos una fuente de informacion equiprobable. Esto se debe a que no podemos saber ni asumir nada de antemano sobre lo que vamos a obtener de la fuente.
- Un ejemplo claro de equiprobabilidad y entropia maxima es el resultado de lanzar una moneda al aire, ya que sabemos que las prob. para cada cara es de 1/2.