jueves, 14 de marzo de 2019

Teoria de shannon

Teoría de Shannon 

Es un modelo matemático orientado a las comunicaciones  que tenia sus propósitos eran enfocados en la transmisión de información, estos eran.
- Mejorar la velocidad  en la creación y transmisión de mensajes.
- Mejorar la capacidad de canales de comunicación.
- Obtener una codificación eficaz de los mensajes, que evite el ruido e interferencias entre emisor y receptor, este lenguaje informático es uno de los más eficaces. [1]

Modelo de Shannon

Un modelo simple de comunicación con un emisor que transmite un mensaje a un receptor.<br />Esta gráfica pertenece al mode...
[1]

[1]

Breve Historia de la teoría de Shannon

En 1948, Shannon y Weaver lanzaron una teoría matemática de la comunicación. Su primera versión apareció en el Bell System Technical Journal de octubre de 1948, perteneciente a la Bell Telephone Laboratories, organización a la que Shannon se encontraba procesionalmente ligado.

Poco después el sociólogo Warren Weaver redacto un ensayo destinado a enfatizar las bondades de esta propuesta, que fue publicado junto al texto anterior en julio de 1949. El trabajo de shannon se titula The Mathematical Theory of comunication. [2]



Teorema de Shannon

Sus teoremas más conocidos en la actualidad son el primer y segundo teorema. El primer teorema mejor conocido como codificación sin ruido, el valor de la entropía H(S) de la fuente es igual al número de símbolos necesarios en promedio para codificar una letra de la fuente usando un código ideal: H(S) mide la compresión óptima de los mensajes de la fuente. La prueba del teorema se basa en el hecho de que los mensajes de longitud N que produce S pueden ser clasificados en dos clases. Una de estas clases tiene aproximadamente 2NH(S) mensajes típicos. La otra clase, contiene los mensajes atípicos. Cuando N → ∞, la probabilidad de un mensaje atípico se vuelve despreciable. Por ello, se puede concebir a la fuente como produciendo sólo 2NH(S) mensajes posibles. Esto sugiere una estrategia natural para codificar: cada mensaje típico es codificado en una secuencia binaria de longitud NH(S), que es en general más corta que la longitud N del mensaje original.
La fuente consiste en un sistema S de n estados si, que se pueden pensar como letras de un alfabeto As = {s1,...,sn}, cada una con su propia probabilidad p(si). Las secuencias de letras son llamadas mensajes. La entropía de la fuente H(S) se puede calcular exclusivamente en términos de estos elementos, y se mide en bits cuando el logaritmo tiene base 2. A su vez, el transmisor codifica el mensaje de la fuente y esto equivale a hacer una conversión entre el alfabeto de la fuente As = {s1,...,sn}, y el código del alfabeto del transmisor T, que viene dado por AC = {c1,...,cq}. Los elementos ci son llamados símbolos. La secuencia de símbolos producidos por el transmisor y que entran al canal se llama señal. El alfabeto de n símbolos AS puede variar mucho dependiendo de los distintos dispositivos empleados. Por otro lado, en muchos ejemplos de interés, conviene elegir un AC binario, es decir, con q = 2. En este caso, los símbolos son directamente dígitos binarios. Pero en el caso más general, el alfabeto del código se puede implementar físicamente por medio de sistemas que tengan una cantidad q de estados disponibles. Para el caso particular en que q = 2, los sistemas de dos niveles se pueden llamar cbits.
En el contexto de la teoría de la información de Shannon, codificar implica establecer un mapa entre las letras si del alfabeto de la fuente AS el conjunto de cadenas de longitud finita de símbolos del alfabeto del código AC. Estas suelen llamarse palabras-código. En general, las palabras-código no tienen la misma longitud. Cada palabra-código wi que corresponde a la letra si, va a tener una longitud li. Pero las longitudes li de las distintas palabras-código pueden variar. Es entonces útil definir una longitud de palabra-código promedio como:



es entonces una medida de cuán compacto es el código. En otras, palabras, un código con un valor de L más pequeño será más eficiente, dado que en promedio, economiza más recursos informacionales para codificar los mensajes. El Teorema del Canal Sin ruido afirma que existe un proceso de codificación óptimo tal que la longitud de palabra-código promedio está tan cerca como se quiera del límite inferior Lmin para L:



n la fórmula de arriba, si H(S) se mide en bits, log es el logaritmo en base 2.

Es importante enfatizar la diferencia entre el proceso de generación de la información en la fuente y la codificación de la información en el transmisor. La información generada en la fuente se mide con H(S), y sólo depende de las características de la fuente. Puede ser expresada en bits o en cualquier otra medida de la información. Además, la información así generada puede ser codificada mediante un alfabeto código de un número arbitrario de símbolos y la longitud promedio de las palabras código depende esencialmente de ese número. [3]

EL PROBLEMA DE LA CODIFICACIÓN

Shannon estableció resultados matemáticos acerca de los recursos que se necesitan para la codificación óptima y para la comunicación libre de errores. De acuerdo a Shannon ( 1948 ) ( ver también Shannon y Weaver 1949 ), un sistema de comunicación general consta de varias partes. Un transmisor, que transforma el mensaje generado en la fuente en una señal a ser transmitida. En los casos en los que la información es codificada, el proceso de codificación también es implementado por el transmisor. Un canal es cualquier medio que sirva para que la señal se transmita desde el transmisor al receptor. Este puede ser, por ejemplo, un cable, una fibra óptica o una señal inalámbrica.

http://dia.austral.edu.ar/images/9/91/Shannon_1.jpg

S es un sistema que toma diferentes estados S1,.., Sn, shannon nos dice que estos estados pueden ser tomados con probabilidades P(S1),..., P(Sn). La cantidad de información que se genera por la fuente S_i se define.
Shannon 2.jpg 

S produce sucesiones de estados que son llamadas mensajes
Shannon 3.jpg
De manera análoga, el destinatario D  es  un sistema con un rango de estados d_1,..., d_m que también se le asignan probabilidades, la cantidad de información recibida se define como d_j
Shannon 3.jpg
Y la entropia del destinatario se define como
Shannon 5.jpg


Perspectivas a futuro: Información cuántica

Plantea al mismo tiempo, nuevos interrogantes vinculados a los fundamentos de la ciencias físicas y de la computación ( ver por ejemplo : Duwell 2003 ; Duwell 2008 ; Caves y Fuchs 1996 ; Caves, Fuchs y Schack 2002b ; Deutsch y Hayden 2000 ; Holik, Bosyk y Bellomo 2015 ; Jozsa 1998 ; Jozsa 2004 ; Schumacher 1995 ; Bub 2005 ; Clifton, Bub y Halvorson 2003 ; Nielsen y Chuang 2010 ; Hayashi 2006 ). Respecto de la discusión acerca de la relación entre la Computación Cuántica y el principio de Church - Turing ( que no podemos tratar aquí por una cuestión de espacio ), ver ( Deutsch 1985 ). Es posible encontrar versiones de muchos de los resultados de la toría de Shannon en el conexto no conmutativo de la mecánica cuántica. En especial, existe una versión cuántica del teorema de codificación de Shannon ( Schumacher 1995 ), en el que la codificación se efectúa en términos de sistemas cuánticos de dos niveles, conocidos con el nombre de qubits ( abreviación de quantum bit ). Los qubits constituyen la unidad elemental de información cuántica. En este caso, la medida de información de Shannon, debe ser reemplazada por su versión no conmutativa : la entropía de ( von Neumann, Holik, Plastino y Sáenz ). En general, es posible considerar a la teoría de la información cuántica como una versión no conmutativa ( o no Kolmogoroviana ) de la teoría de la infomación Shanon : es decir, una teoría de la información en la que las medidas de probabilidad involucradas no obedecen a los axiomas de Kolmogorov ( Holik, Bosyk y Bellomo 2015 ). Esto está vinculado con el principio de complementariedad y al carácter contextual de la teoría cuántica ( Renes 2013 ). Estas características peculiares del formalismo cuántico, junto con la noción de entrelazamiento, permiten desarrollar protocolos de información que carecen de análogo clásico, tales como el superdense coding y la teleportación cuántica. El lector interesado en profundizar en estos temas puede consultar la obra clásica de ( Nielsen y Chuang 2010 ). Esta disciplina se basa en el hecho de que no es posible observar a un sistema cuántico sin perturbarlo, para desarrollar protocolos de generación de llaves secretas extremadamente seguros ( Nielsen y Chuang 2010 ). Feynman en 1982 ( ver Feynman 1982 ), pero es también importante tener en cuenta ( Manin 1980 ). Por un lado, están aquellos que se pueden computar en tiempos razonablemente cortos y que consumen recursos que crecen como una funcion polinomial del largo de la entrada del problema a resolver. Es posible demostrar que existen algortimos que permiten resolver ciertos problemas con recursos polinomiales usando computadoras cuánticas, mientras que no existe o no se conoce una version polinomial para resolverlos con computadoras clásicas.



El problema comunicacional y la noción de información

En su artículo ‘A mathematical theory of communication’ ( Shannon 1948 ), Shannon introdujo los lineamientos fundamentales sobre los que se construiría posteriormente la Teoría de la Información. En efecto, al comienzo de su artículo, Shannon señala que : Una base para esta teoría está contenida en los importantes artículos de Nyquist y Hartley en este tema. ” ( Shannon 1948 ) ” ( Shannon 1948 ) Uno de los principales aportes de Shannon fue el especificar cuál es el problema informacional, y separar los aspectos formales de los aspectos semánticos asociados con el contenido del mensaje : ” ( Shannon 1948 ) ” ( Shannon 1948 ) De este modo, Shannon define el problema en términos técnicos precisos, separando el problema de ingeniería concreto asociado al proceso de comunicación con los aspectos semánticos de la noción de información vinculados a su uso generalizado en el lenguaje cotidiano. Lo que señala Shannon es simplemente que los aspectos semánticos son irrelevantes para el problema planteado en la ingeniería del proceso comunicacional. El formalismo de Shannon ha sido desarrollado desde diversos enfoques, que poseen un mayor o menor grado de abstracción ( ver por ejemplo : Shannon 1943 ; Shannon 1948 ; Shannon y Weaver 1949 ; Cover y Thomas 1991 ; Khinchin 1957 ; Reza 1961 ; Bell 1957 ). Desde el punto de vista del abordaje Bayesiano a las probabilidades ( Cox 1948 ; Cox 1961 ), es posible encontrar la medida de Shannon desde una perspectiva alternativa ( ver por ejemplo Knuth 2004 ; Knuth 2005a ; Knuth 2005b ; Knuth 2012 ; Goyal y Knuth 2011 ). Este último enfoque se puede extender a modelos probabilísticos más generales, incluyendo la teoría cuántica y la entropía de von Neumann ( Holik, Sáenz, y Plastino 2014 ; Holik, Plastino, y Sáenz 2016 ). Antes de continuar, es importante destacar también que, aparte de la entropía de Shannon, existen otras medidas de la información, como por ejemplo la de Chaitin ( 1987 ), la de Fisher ( Fisher 1925 ), y las entropías de Tsallis y Rényi ( Rényi 1961 ; Tsallis 1988 ; Rastegin 2014 ; Holik, Bosyk, y Bellomo 2015 ) que no discutiremos aquí por razones de espacio.

REFERENCIAS

[1] https://es.slideshare.net/xxjeanxx/modelo-de-comunicacin-shannon
[2] http://algarabiacomunicacion.blogspot.com/2013/04/modelo-de-comunicacion-de-shannon-y.html
[3] http://dia.austral.edu.ar/Teor%C3%ADa_de_la_informaci%C3%B3n_de_Claude_E._Shannon#Los_teoremas_de_Shannon



https://www.youtube.com/watch?v=FSKhwm_1Xug
Video sobre la teoria de shannon.



martes, 23 de mayo de 2017

Sistemas Digitales

Un sistema digital es un conjunto de dispositivos destinados1 a la generación, transmisión, manejo, procesamiento o almacenamiento de señales digitales. También, y a diferencia de un sistema analógico, un sistema digital es una combinación de dispositivos diseñados para manipular cantidades físicas o información que estén representadas en forma digital; es decir, que solo puedan tomar valores discretos.
Para el análisis y la síntesis de sistemas digitales binarios se utiliza como herramienta el álgebra de Boole.
  • sistemas digitales combinacionales: Aquellos cuyas salidas solo dependen del estado de sus entradas en un momento dado. Por lo tanto, no necesitan módulos de memoria, ya que las salidas no dependen de los estados previos de las entradas.
  • sistemas digitales secuenciales: Aquellos cuyas salidas dependen además del estado de sus entradas en un momento dado, de estados previos. Esta clase de sistemas necesitan elementos de memoria que recojan la información de la 'historia pasada' del sistema.
Para la implementación de los circuitos digitales, se utilizan puertas lógicas (AND, OR y NOT), construidas generalmente a partir de transistores. Estas puertas siguen el comportamiento de algunas funciones booleanas.
Según el propósito de los sistemas digitales, se clasifican en: a) sistemas de propósitos especiales y b) sistemas de propósitos generales. Estos últimos permiten el cambio de su comportamiento mediante la programación de algoritmos de soluciones de problemas específicos. La mayoría de las computadoras modernas (año 2016) son sistemas digitales de propósito general.
TOMADO DE https://es.wikipedia.org/wiki/Sistema_digital
Lo que más me llamo la atencion de la materia fue convertir de lo analogo a lo digital, es interesante el proceso que se realiza para este, de como lo digital dia a dia reemplaza a lo analogo ya que nos brinda aplicaciones las cuales son mas precisas y eficientes para el uso del usuario. En mi pensamiento esta que dentro de unos 5 años ya todo sera digital.

Conversores de señales

Un conversor de señal digital a analógica o conversor digital analógicoCDA o DAC ( del inglés digital to analogue converter) es un dispositivo para convertir señales digitales con datos binarios en señales de corriente o de tensión analógica.

Las señales en la naturaleza tienen las características de ser continuas en su magnitud y en el diagrama temporal. La digitalización es necesaria para el procesamiento, almacenamiento y filtrado de señales analógicas con los beneficios que las señales digitales conllevan, como mayor inmunidad al ruido, circuitos electrónicos más simples para el procesamiento y almacenamiento. Representación unívoca de los elementos, cuya cantidad de símbolos es proporcional a , siendo n la cantidad de bits.
TOMADO DE https://es.wikipedia.org/wiki/Conversor_de_se%C3%B1al_digital_a_anal%C3%B3gica

Generadores de paridad

Detectores/generadores de paridad
Los circuitos electrónicos digitales se basan en la transmisión y el procesamiento de información, lo que hace necesario verificar que la información recibida es igual a la emitida; no suelen producirse errores, por lo que cuando ocurren en la mayoría de los casos el error en la transmisión se produce en un único bit.
El método más sencillo y eficaz de comprobación de la transmisión de datos consiste en añadir a la información transmitida un bit más, con la misión de que el número de 1 transmitidos en total sea par (paridad par), o impar (paridad impar).
Detectores/generadores de paridad
Los generadores de paridad par son aquellos circuitos que generan un 0 cuando el número de 1 en la entrada es par y un 1 cuando es impar, en el caso de dos bit, sería como se muestra en la tabla de verdad:
EntradasSalidas 
ABPI
0001
0110
1010
1101
P = paridad par, es decir un número de 1 par.
I = paridad impar, es decir un número de 1 impar.
Las funciones canónicas serán:
Cuya posible implementación se muestra en la figura:
Imagen 28. Elaboración propia
Como venimos comentando a lo largo de todo el tema estos circuitos no se suelen cablear, sino que se presentan como circuitos integrados, un ejemplo de generadores de paridad sería el CI 74180.

TOMADO DE
 http://e-ducativa.catedu.es/44700165/aula/archivos/repositorio/4750/4923/html/9_detectoresgeneradores_de_paridad.html
Tenemos el dato original 0111001. Vemos que la trama a transmitir tiene un número par de unos (4). Al añadir el bit de paridad obtendremos el siguiente carácter, que es el que se transmitirá a destino:Si usamos paridad par, ya hay un número par de unos, por tanto se añade un 0, y transmitiremos 00111001.Si usamos paridad impar, como hay un número par de unos, hemos de añadir otro 1 para conseguir un número impar, y transmitiremos 10111001.

Electronica Analoga

La Electrónica analógica. La electrónica analógica trabaja con valores continuos donde toma valores infinitos, además de tratar con señales que cambian en el tiempo de forma continua porque estudia los estados de conducción y no conducción de los diodos y los transistores que sirven para diseñar cómputos en el álgebra con las cuales se fabrican los circuitos integrados, además estudia los sistemas en los cuales sus variables son: tensión, corriente. En contraposición se encuentra la electrónica digital donde las variables solo pueden tomar valores discretos, teniendo siempre un estado perfectamente definido. La Electrónica analógica abarca muchos campos como por ejemplo, la electrónica analógica dinámica que trata de un circuito que traslada hondas o vibraciones a un sistema eléctrico, la analógica hidráulica la cual es existente entre una corriente del agua de superficie plana o un flujo bidimensional como ejemplo un reloj, el cual tiende a tener engranaje de diferentes tipos los cuales son movidos por un conductor el mueve los engranajes que son diferentes tamaños pero cada uno para una función especifica como la de los segundos, minutos y horas.
TOMADO DE https://www.ecured.cu/Archivo:Elect.JPG

Durante todo el semestre los conocimientos adquiridos para mi, ciertamente marcaron gran parte de mi estudio, ya que al ver algunos elementos como transistores, no sabia a fondo la gran importancia y la gran aplicación que estos prestan a la vida. Los amplificadores prácticamente esta en todo, desde un equipo de sonido, hasta un medio de comunicación mas avanzado. La vida eléctrica, es un ámbito complejo pero a su vez practicamente es todo en nuestro diario vivir.  

Transmisión FM

Un transmisor FM es un dispositivo móvil que convierte una salida de audio específica en una señal de radio FM. Puede ser conectada a un reproductor MP3, un sistema de radio por satélite, a unos auriculares y a otros muchos dispositivos de características similares. Uno de los usos más comunes que se le dan a estos transmisores FM es reproducir música desde un reproductor MP3 por medio de los altavoces del coche. La mayoría de los transmisores FM tienen un rango de unos diez metros. Una radio buena puede aumentar este rango hasta los 25 metros. De todos modos, debido a su bajo alcance, algunas veces un transmisor FM no vale para usar en grandes áreas urbanas, ya que las frecuencias que usa pueden quedar deterioradas con otras señales de radio.
Otras señales FM pueden interrumpir las señales de un transmisor FM, por lo que la situación puede empeorar dependiendo de dónde se esté. De todos modos, un transmisor FM tienen varias aplicaciones que son de gran ayuda. Por ejemplo, hace posible coger cualquier tipo de audio de un ordenador, incluyendo música u otras temáticas, y enviarlo a uno de estos transmisores FM. Se puede decir que básicamente trabajar como unos altavoces alternativos. Un beneficio de esto es que evita que una persona tenga que estar enganchada a un ordenador de sobremesa para escuchar la radio por Internet.

TOMADO DE http://www.electronica-basica.com/transmisor-fm.html

 sirve para transmitir por una frecuencia dada la música almacenada en USB o iPod. 
Para utilizarlo, se conecta el USB o iPod al aparato transmisor. Se sintoniza el radio de FM en la frecuencia a la que se programó el transmisor, de esa manera la música se puede oir en el radio y no con audífonos. 
Tiene la desventaja de que se puede producir un ruido de estática, y si el radio que sintonizas es un estéreo de auto, se podrían cruzar las transmisiones que porvengan de otro auto que esté estacionado al lado del tuyo.