3.2.1	Redundancia y compresión

3.2.1 Redundancia y compresión

[...]

Consideremos un ejemplo concreto para ilustrar cómo el algoritmo LZ77 opera sobre una cadena binaria que encapsula un concepto semántico. Supongamos que la secuencia binaria  representa un patrón en un sistema de codificación para transmitir una señal periódica. Esta señal podría tener un significado semántico específico, como la identificación de un canal de comunicación o la sincronización entre un emisor y un receptor.

En esta secuencia, observamos que ciertos patrones, como 1010, se repiten varias veces. Al aplicar LZ77, el algoritmo identifica la primera aparición de cada subsecuencia repetitiva y la conserva íntegramente. Las subsecuencias siguientes se reemplazan con punteros que indican la posición y la longitud de la subsecuencia original. Así, mediante este proceso automatizado la máquina genera una representación más compacta de la información, que podría quedar de la siguiente manera:

 Original: 010101011101010110101010101010101010 (36 bits)

Comprimida: 0101 (Puntero a 1010)1101 (Puntero a 1010)

En la cadena comprimida: 

  • La primera aparición de 1010 ocupa 4 bits.
  • Cada repetición de 1010 es reemplazada por un puntero que requiere 4 bits (2 bits para la posición y 2 bits para la longitud).
  • Los bits restantes, no redundantes, se mantienen sin compresión.

 En este caso, la cadena original tiene 36 bits, y el algoritmo genera una versión comprimida de 24 bits, desglosados en: 

  • 4 bits para la primera aparición de 1010
  • 5 punteros adicionales para las siguientes apariciones de 1010, que representan 20 bits en total.
  • Los bits no redundantes permanecen sin modificaciones. 

Para estimar el porcentaje de compresión logrado, se calcula la diferencia entre el tamaño original y el comprimido, expresada como porcentaje del tamaño original: 

Formulación

Esto nos lleva a que el tamaño de la cadena se reduce en aproximadamente un 33.33%, logrando una representación más compacta sin alterar el significado semántico, con lo que evidenciamos cómo la compresión mediante LZ77 —un algoritmo antiguo cuya funcionalidad ha sido superada por variantes más avanzadas, aunque sus principios siguen siendo la base de muchos sistemas de compresión modernos—  disminuye la cantidad de información física que se almacena o se transmite, pero preserva exactamente el significado semántico de la secuencia original. La información comprimida contiene menos datos, pero su utilidad semántica permanece intacta. De hecho, al reducir las redundancias estructurales, el conocimiento encapsulado en la cadena comprimida se vuelve proporcionalmente más denso. Esta eficiencia demuestra que el valor del conocimiento no reside en la cantidad de bits almacenados, sino en cómo estos logran preservar y transmitir el significado original.

 La demostración de que el valor del conocimiento no radica en la cantidad de bits almacenados, sino en su capacidad para preservar y transmitir el significado original, remarca una distinción fundamental entre información y conocimiento. Mientras que la información puede medirse en términos cuantitativos —bits, bytes o cualquier otra unidad de almacenamiento—, el conocimiento pertenece a un plano cualitativo, definido por la estructura y la interpretación que los datos adquieren en un contexto determinado y determinante. Al reducir los datos mediante la eliminación de redundancias, no se pierde contenido semántico; por el contrario, se intensifica la densidad de conocimiento. Esto ocurre porque los bits resultantes encapsulan, con mayor eficiencia, el significado necesario para la reconstrucción o la interpretación original. En otras palabras, la economía de bits no implica una merma en el valor del mensaje, sino una reorganización que optimiza su transmisión y almacenamiento. De manera análoga, en el ámbito de la comunicación humana y la codificación de ideas para comunicarlas, no es la longitud del discurso lo que otorga profundidad, sino la capacidad de las palabras para concentrar significado y despertar entendimiento.

Además, no hemos de perder de vista que el lector —el lector inclusive de estas mismas líneas que en este momento lee— no es un receptor pasivo de información, sino un intérprete activo que colabora en la construcción del significado del texto. El contenido explícito en las palabras es solo una parte del mensaje, y el lector, al interpretar, llena los espacios vacíos, generando un conocimiento subjetivo y matizado. Tal y como Eco nos advirtió en su “Lector in fabula” [46] el autor, en su proceso creativo, actúa como un compresor de conocimiento, seleccionando palabras, frases y estructuras para encapsular ideas complejas en un formato accesible. Cada palabra constituye una codificación intencional del pensamiento, diseñada para transmitir significado al lector. Este acto implica una síntesis en la que el autor descarta elementos redundantes o superfluos, eligiendo solo aquellos que considera necesarios para que el receptor pueda descomprimir el mensaje y reconstruir el conocimiento contenido. ¿Acierta siempre el autor?

Pues bien, este proceso no es perfectamente simétrico. El lector, al recibir el texto, aplica su propio algoritmo de descompresión, compuesto por su bagaje cultural, su experiencia y su capacidad de interpretar. Aquí es donde surge una disonancia inherente: el autor, consciente o inconscientemente, presupone que el lector compartirá un entendimiento tácito del algoritmo de descompresión adecuado para su mensaje, aquel que permitirá interpretar fielmente la semántica codificada. Sin embargo, en muchos casos, el lector emplea un método interpretativo similar, pero no idéntico, al que el autor anticipaba, y el mensaje llega transformado, tal vez enriquecido, pero también alejado del propósito original. Por ejemplo, imaginemos un profesor que, tras publicar las listas de resultados de los exámenes, intenta motivar a un alumno que ha suspendido sacando una calificación por debajo de sus posibilidades porque ha trabajado poco la materia. El profesor le escribe con tono conciliador al alumno que sus resultados no son los esperados porque hay que estar "a Dios rogando, y con el mazo dando". Con ello el profesor pretende que el alumno no pierda la fe en sus capacidades, pero quiere transmitirle que esas capacidades deben de ir acompañadas de un trabajo significativo para aprobar en la recuperación. Al poco, el alumno se presenta en el despacho del profesor a la revisión del examen con un bate de béisbol a modo de mazo, para reclamar sobre la calificación, sin plantearse siquiera presentarse al examen de recuperación.

La interpretación literal desvía completamente la intención inicial del mensaje, mostrando las complejidades —y las posibles sorpresas que requieren de tratamiento traumatológico— de la comunicación humana. Tal y como reflexionaba Noam Chomsky en su Estructuras sintácticas [47], el significado de una expresión lingüística no reside únicamente en su superficie, sino que se halla en una estructura más profunda que debe ser descifrada. Según Chomsky, "la estructura superficial de una oración no refleja necesariamente las relaciones semánticas subyacentes", es decir, el lector al interpretar un texto puede descifrar o reconstruir significados que el autor no pretendía originalmente, dependiendo de cómo interprete estas estructuras profundas. Este desajuste entre la intención del autor y la interpretación del lector no es un fallo del sistema comunicativo, sino una característica intrínseca del lenguaje humano y su capacidad para generar múltiples significados. Cada texto es una máquina perezosa que requiere la colaboración activa del lector. Pero, en ese acto de colaboración, el lector introduce subjetividades que, aunque enriquecen la experiencia interpretativa, pueden distorsionar la fidelidad del mensaje original. Así, el proceso de comunicación escrita no es meramente una transferencia de conocimiento, sino una negociación constante entre las estructuras semánticas que el autor intenta codificar a través de las sintácticas y los algoritmos interpretativos que el lector emplea. Este diálogo, lejos de ser un obstáculo, refleja la riqueza del lenguaje como un sistema dinámico, en el que cada interacción entre emisor y receptor amplía el universo del significado. 

El balance entre redundancia y compresión plantea un desafío técnico, teórico y práctico a múltiples niveles, ya que un exceso de compresión puede comprometer la capacidad de recuperación ante errores, mientras que un exceso de redundancia incrementa los costos de almacenamiento y transmisión. Esto puede ser aplicado tanto a la comunicación entre máquina, como a la comunicación entre humanos, como a la comunicación entre humanos y máquinas —mediante la llamada ingeniería de prompts—. El equilibrio entre redundancia y compresión sigue siendo un tema activo de investigación, con aplicaciones en ingeniería que abarcan desde sistemas de almacenamiento distribuido en la nube hasta redes de sensores en entornos industriales, y también en sociología donde el lenguaje y sus matices comunicativos permiten calibrar la redundancia necesaria para garantizar la comprensión mutua en entornos multiculturales o interdisciplinarios. Así, la redundancia, lejos de ser un mero excedente, es un componente orgánico que ha de saberse calibrar.

[...]

Extracto de "Informática: El mundo como información y representación"

Fecha de publicación 1/1/2025 (ISBN. 9798340452597)

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas