Skip to main content

¿Qué es la codificación de fuente distribuida?

En la teoría de la comunicación y la información, la codificación de fuente distribuida (DSC) es un problema crucial que describe la compresión de las fuentes de información que están correlacionadas en múltiplos pero que no pueden comunicarse entre sí. DSC permite paradigmas de relación en la codificación de video que intercambian la complejidad de codificadores y decodificadores, lo que representa un cambio conceptual en el procesamiento de video. Se puede modelar una correlación con muchas fuentes entre los códigos de canal y los lados del decodificador, lo que permite que la codificación de fuente distribuida cambie la complejidad computacional entre el lado del codificador y el lado del decodificador. Esto proporciona un marco apropiado para aplicaciones que tienen un remitente que es complejo, como una red de sensores o compresión de video.

Dos hombres llamados Jack K. Wolf y David Slepian propusieron un límite teórico de compresión sin pérdidas con respecto a la codificación de fuente distribuida, que ahora se llama el teorema o límite de Slepian-Wolf. El límite se propuso en términos de entropía con fuentes de información correlacionadas en el año 1973. Una de las cosas que pudieron presentar fue que dos fuentes separadas y aisladas pueden comprimir datos de manera eficiente y como si ambas fuentes se comunicaran directamente entre sí. Más tarde, en 1975, un hombre llamado Thomas M. Cover extendió este teorema a una instancia de más de dos fuentes.

En la codificación de fuente distribuida, las fuentes dependientes múltiples se codifican con codificadores y decodificadores conjuntos separados. El teorema de Slepian-Wolf, que representa estas fuentes como dos variables diferentes, supone que dos señales separadas y correlacionadas provienen de fuentes diferentes y no se comunican entre sí. Estos son los codificadores y sus señales se transfieren a un receptor, que es el decodificador que puede realizar el proceso de decodificación conjunta de ambas señales de información. El teorema intenta resolver cuál es la tasa de probabilidad de que el receptor decodifique un error y se acerque a cero, que se representa como su entropía conjunta. Como lo demostraron Wolf y Slepian en 1973, incluso si las señales correlacionadas se codifican por separado, la velocidad combinada es suficiente.

Aunque este teorema postula teóricamente que esto se puede lograr en la codificación de fuente distribuida, los límites de la teoría no se han realizado ni se han abordado de cerca en aplicaciones prácticas. Otros dos científicos, Ramchandran y Pradhan, han intentado resolver cómo alcanzar este límite teórico y demostrar la plausibilidad del teorema de Slepian-Wolf. Intentaron esto proporcionando una solución particular para las dos señales codificadas que tienen una distancia de separación máxima.