1
Autor: Homero Ortega Boada
2
INDICE REPASO DE LOS PRINCIPALES CONCEPTOS PROBABILÍSTICOS Experimento aleatorio Punto muestra Espacio muestral Evento Probabilidad conjunta de dos eventos Variable aleatoria Función de densidad de probabilidad Función de distribución distribució n acumulativa Momentos estadísticos de orden n Momentos centrales de una variable x Función de distribución distribució n conjunta (de unión)
PROCESOS ESTOCÁSTICOS PROCESO ESTACIONARIO Función de autocorrelación autocorrelac ión de un proceso estacionario Densidad espectral de potencia o espectro de potencia de un proceso estacionario
PROCESOS ERGÓDICOS Promedios totales Promedios de tiempo
Pregunta de control 1 Pregunta de control 2 Conclusión 1 Conclusión 2 Trabajo para la casa
Función de autocorrelación autocorrelac ión promediada en el tiempo Proceso ergódico (definición) (definici ón) Relación entre densidad espectral y espectro de frecuencias en un proceso ergódico Análisis determinístico determinísti co
4 4 4 4 4 4 5 7 7 7 8 8
9 12 16 19
28
28 30 30 30 30 30 30 31 32 34
2
INDICE REPASO DE LOS PRINCIPALES CONCEPTOS PROBABILÍSTICOS Experimento aleatorio Punto muestra Espacio muestral Evento Probabilidad conjunta de dos eventos Variable aleatoria Función de densidad de probabilidad Función de distribución distribució n acumulativa Momentos estadísticos de orden n Momentos centrales de una variable x Función de distribución distribució n conjunta (de unión)
PROCESOS ESTOCÁSTICOS PROCESO ESTACIONARIO Función de autocorrelación autocorrelac ión de un proceso estacionario Densidad espectral de potencia o espectro de potencia de un proceso estacionario
PROCESOS ERGÓDICOS Promedios totales Promedios de tiempo
Pregunta de control 1 Pregunta de control 2 Conclusión 1 Conclusión 2 Trabajo para la casa
Función de autocorrelación autocorrelac ión promediada en el tiempo Proceso ergódico (definición) (definici ón) Relación entre densidad espectral y espectro de frecuencias en un proceso ergódico Análisis determinístico determinísti co
4 4 4 4 4 4 5 7 7 7 8 8
9 12 16 19
28
28 30 30 30 30 30 30 31 32 34
3
ANALISIS DE RUIDO
36
Variable aleatoria con distribución gausiana
37
Proceso gaussiano Propiedades
37 37
Ruido blanco
38 39 40
Paso de un sistema aleatorio a través de un filtro LIT Ruido blanco filtrado Tabla1
46
ANALISIS DETERMINISTICO
51
PROBLEMAS PROPUESTOS
53
4
ANÁLISIS A NÁLISIS ESTOCÁSTICOS DE LOS S SISTEMAS ISTEMAS DE A COMUNICACIÓN FUNDAMENTOS: Se estudiarán fundamentos de variable aleatoria, procesos estocásticos y ruido, teniendo en cuenta que el estudiante ya ha realizado simulaciones para comprender los procesos estocásticos.
REPASO DE LOS PRINCIPALES CONCEPTOS PROBABILÍSTICOS: Experimento aleatorio: el lanzamiento al aire repetidamente de una moneda en condiciones idénticas.
Punto muestra: posible resultado de un experimento. Espacio muestral: conjunto de todos los puntos muestra de un experimento. La fig. 1 muestra estos conceptos para el experimento “lanzamiento de una moneda”.
Evento: al enunciado “aparece un número par” del experimento “lanzamiento de un dado” le corresponde un conjunto de puntos muestra A:{2, 4,6} que es subconjunto del espacio muestral del experimento. Evento es tanto el subconjunto como el enunciado.
Todo lo anterior para explicar una propiedad sobre eventos que se usará más adelante. Probabilidad conjunta de dos eventos: Si un evento A tiene probabilidad P(A) Y un evento B tiene probabilidad P(B) La probabilidad de que al mismo tiempo ocurra A y B es P ( AB ) = P ( A ) P ( B ) B
(1.1)
5
Pero, si A y B son estadísticamente independientes
P( AB) = P( A) P ( B)
(1.2)
Variable aleatoria: Un experimento puede ser descrito mediante una variable aleatoria X . El comportamiento de una variable aleatoria X a lo largo de muchos ensayos se puede representar gráficamente así
x6
X
X = { x1 , x2 , x3 , x4 , x5 , x6 }
x5 x4 ESPACIO MUESTRAL
x3 x2 x1 n (ensayos)
Fig. 1 Visualización del experimento lanzamiento de un dado x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5, x6 = 6
Este gráfico es para una variable discreta. Si X puede tomar cualquier valor dentro de un rango, será una variable continua.
Ejemplo: Experimento: Medir la altura de las personas
Fig. 1.1
6
Función de densidad de probabilidad: f X ( x ) De una variable X continua
f X ( x ) = P ( X = x )
(1.3)
f X ( x) = P( X = x)
P ( X = 9) = 0.7
-3 -2.5
Fig. 2 La probabilidad de que la variable aleatoria tome un valor entre -3 y -2.5 es el área bajo la curva en ese intervalo: −2.5
P(−3.5 < x < −2.5) =
∫ f
X
( x) dx
−3
f ( x) =
X
1 2πσ X
− ( x − µ X )
e
2 σ X 2
x µ X
Fig. 2.1
7
Función de distribución acumulativa:
F X ( x ) = P ( X ≤ x )
(1.4)
F X ( x) = P ( X ≤ x)
x Fig. 3 f X ( x ) Y F X ( x ) están relacionadas entre sí: x
F X ( x ) =
∫
f X ( x )dx
f X ( x ) =
;
−∞
dF X ( x ) dx
(1.5)
Momentos estadísticos de orden n: Se definen así:
E [ X
∞
n
] = ∫ x f n
X
( x )dx
(1.6)
−∞
Para una variable aleatoria X
Las características de una variable aleatoria X se pueden deducir a partir de los momentos estadísticos, así:
8
µ X = E [ X ]
La media
2 E X
Valor cuadrático medio
3 E X
Valor cúbico medio
Momentos centrales de una variable X: ∞
E( X − µ )Xn =
∫
( x− µ )Xn f (X x) dx
(1.7)
−∞
σ X2 = Var[ X ] = E[( X − µ X ) 2 ]
σ X = σ X 2
(1.8)
- varianza
(1.9)
- desviación Standard
Función de distribución conjunta (de unión): Dos variables aleatorias X y Y pueden ser dependiente entre sí. Las funciones adjuntas muestran esa dependencia.
F XY ( x, y ) = P( X ≤ x, Y ≤ y )
(1.10)
O sea la probabilidad de que ocurra al mismo tiempo que X ≤ x y Y ≤ y
f XY ( x, y ) = P( X = x, Y = y ) Nota: si X ,
(1.11)
Y son estadísticamente independientes y se conoce
f X ( x )
y
f Y ( y ) ⇒ f X ,Y ( x, y ) = f X ( x ) f Y ( y )
(1.12)
9
Momentos conjuntos ente dos variables aleatorias X , Y :
∞ ∞
E X i Yk =
∫ ∫
xi yk f XY ( x, y) dxdy
(1.13)
−∞ −∞
•
La correlación entre X y Y es el primer momento conjunto
∞ ∞
R= E[ XY] =
∫ ∫ xyf
XY
( x, y) dxdy
−∞ −∞
(1.14)
Todo lo estudiado se orienta a comprender que es la correlación.
También hay momentos conjuntos centrales. El de primer orden es la covarianza:
cov[ X , Y ] = E [( X −
X
)(Y −
Y
)]
(1.15)
PROCESOS ESTOCÁSTICOS: Un proceso estocástico es comparable con la variable aleatoria, pero el resultado de cada ensayo no es un número sino una curva continua en el tiempo. Se representa como X (t ) , ver figura 4a.
Es importante resaltar que un proceso estocástico está compuesto de variables aleatorias. Por ejemplo, en el momento t 1 , en cada ensayo se observa que aparece un número. El conjunto de esos números bien se podría graficar como se hizo en la Fig. 1 para la variable aleatoria, ver figura 4b.
10
x1 (t ) t
t 1 x1 (t ) t
t 1 x1 (t ) t
t 1
x1 (t ) t
Fig. 4a
X
para t fijo t = t 1
Fig. 4b
Proceso X(t) está compuesto de las funciones muestra x1 (t ), x2 (t )...
11
Mientras X (t 1 ) es una variable aleatoria, X (t ) es un proceso aleatorio.
¿Cómo es la función de densidad de probabilidad y la de distribución de probabilidad en un proceso aleatorio? Repuesta: serian variables en el tiempo, pero esto se representa así: f X ( t ) ( x ) , F X ( t ) ( x ) para todo t. Es muy común aquí hablar de funciones conjuntas (de unión) entre las variables aleatorias que componen el proceso:
FX( t ) X ( t ),...... X ( t ) ( x1 , x2 ,....xk ) 1
2
k
;
fX ( t ) X( t ).... X ( t ) ( x1, x2 ,...... xk ) 1
2
k
(1.16) Igualmente la media resulta ser variable en el tiempo µ x (t ) . Lo mismo puede decirse de la media cuadrática, la varianza o cualquier otro momento estadístico. (Práctica con software para afianzar lo visto). Pero toma alta importancia la función de autocorrelación. En variable aleatoria (página 3) se tomaba la correlación entre las variables aleatorias X , Y ; como R = E[ XY] . Pero, la autocorrelación se refiere a la correlación entre variables aleatorias del mismo proceso:
En la fórmula 1.14 se había explicado el coeficiente de correlación entre dos variables aleatorias X , Y . Aplicando la misma definición para dos variables X 1 (t 1 ), X 2 (t 2 ) del proceso X (t ) obtenemos; ∞ ∞
R X (t 1 , t 2 ) = E [ X (t 1 ) X (t 2 )] =
∫ ∫ x x f ( ) 1 2
X t 1 X ( t 2 )
dx1 , dx 2
− ∞− ∞
(1.17) Es una función de dos tiempos t 1 y t 2 , y se conoce como función de autocorrelación para cualquier valor de t 1 y t 2 .
12
Para tener en cuenta todas las variables aleatorias de un proceso, puede usarse la siguiente definición; donde τ es la distancia entre t 2 y t 1 , τ = t 2 − t 1 :
R X (t ,τ ) = E [ X (t ), X (t + τ )]
R X (t ,τ )
t
τ Fig. 5 PROCESO ESTACIONARIO: Proceso estrictamente estacionario. La condición es:
FX( t +τ ) X( t +τ ),...... X( t +τ ) ( x1, x2 ,....xk ) = FX( t ) X( t )...... X( t ) ( x1, x2 , x3 ) 1
2
1
k
2
k
(1.18)
Cuando la condición 1.18 se cumple para k=1 y k=2 puede decirse que el proceso es débilmente estacionario o simplemente que es estacionario: Para k=1 debe cumplirse que:
F X( t) ( x) = F X( t+τ ) ( x)
(1.19a)
13
O sea, para k=1
t
F X ( t ) ( x )
x Fig. 6
F X ( t1 ) X ( t2 ) ( x1 , x2 ) = F X ( t1 +τ ) X ( t2 + τ ) ( x1 , x2 )
(1.19b)
Consecuentemente se cumple que:
fX ( t1 ) X ( t2 ) ( x1 , x2 ) = fX ( t1 ) X ( t2 ) ( x1, x2 )
fX ( t1 ) X ( t2 ) ( x1 , x2 )
x 2
x1
14
Si observamos esa campana en el tiempo como en un video, esta permanece estática, no varía, en ningún momento τ .
EJEMPLO 1 Analicemos el proceso “Onda senoidal con fase aleatoria”, para comprobar si es o no estacionario: Supóngase que se transmite una señal modulada en DSB-SC en radiodifusión y por lo tanto es captada por muchos receptores (pues hay muchos oyentes). Entre la portadora usada en el transmisor y la usada para la demodulación por cada usuario hay desfases (cada usuario muestra un desfase), luego la calidad de la demodulación es diferente para cada usuario y depende de la suerte de tener o no un desfase pequeño. Ese proceso se describe como X (t ) = Ac cos(2π f c t + θ ) , aclarando que lo aleatorio es θ y que esa aleatoriedad está dada por una densidad de probabilidad determinada. En este caso, se supone que θ está distribuida uniformemente entre
1 2π ,−π ≤ θ ≤ π [− π , π ], luego f θ (θ ) = 0, en otra parte θ es una variable aleatoria pues en cada ensayo solo ocurre un valor de θ , no una función. x1 (t )
x3 (t ) t
t
θ 1 θ 3 x2 (t )
x4 (t ) t
t
τ θ 2
t k t i
Fig. 7
θ 4
t k t i
Fig. 8
15
La división en 2π surge porque el área bajo la curva de f θ (θ ) debe ser 1. Se requiere comprobar si el proceso es o no estacionario. Este es un proceso sencillo. En un momento t k aparecerán diversos valores de amplitud debido al desfase aleatorio. Son valores que están entre − Ac y Ac . Puede inferirse que la media de todos los puntos muestra para t = t k tiende a cero a medida que crecen los ensayos. Esto aplica para cualquier valor de t. con esto hemos analizado el primer momento de la variable aleatoria X (t k ) . O sea,
µ X = E [ X (t k )] Analicemos el segundo momento conjunto ente dos variables X (t k ) y X (t i ) , o sea, E [ X (t k ) X (t i )] es decir, la media de la variable aleatoria que resulta de multiplicar X (t k ) por X (t i ) . Podemos inferir y se obtendrá un mismo valor en cualesquiera otros dos instantes igualmente separados por
τ .
Estas dos condiciones son suficientes para afirmar que X (t ) al menos cumple las condiciones de un proceso débilmente estacionario.
^
Luego E [ X (t k ) X (t i )] = E [ X (t ) X (t + τ )] = E X (τ ) = R X (τ ) . ∧
X (τ ) Es la variable aleatoria que surge al multiplicar X (t k ) por X (t i )
F X ( 0) X( t − t ) ( x1 , x2 ) = F X( t ) X( t ) ( x1 , x2 ) (1.20) 2
1
1
2
EJEMPLO: Sea t 2 =8:15 a.m., t 1 = 8 a.m.
F
X(0) X(0:15)
( x1 , x2 ) = F X(8:00)
X(8:15)
( x1 , x2 )
Ahora, sea t 2 =2:15 p.m., t 1 = 2 p.m.
F
X(0) X(0:15)
( x1 , x2 ) = F X(14:00)
X(14:15)
( x1, x 2 )
16
Luego, entonces
F X(8:00)
X(8:15)
( x1, x2 ) = F X(14:00) X(14:15) ( x1 , x2 ) = F X(0)
( x1 , x2 )
X(0:15)
Tomando como ejemplo la señal que llega desde una radio base hasta un centro de control, la distribución conjunta entre las variables X (t 1 = 8a.m) y X (t 2 = 8 : 15a.m) es la misma que entre X (t 1 = 2 p.m.) y X (t 2 = 2 : 15 p.m.) porque hay la misma separación t 2 − t 1 = 15 minutos, pero no será la misma para X (t 1 = 2 p.m.) y X (t 2 = 6 p.m.) . Bueno, la fórmula anterior corresponde también a comparar X (t 1 = 8a.m.) y X (t 2 = 8 : 15a.m.) con X (t 1 = 0) y X (t 2 = 15 min utos ) .
Función de autocorrelación de un proceso estacionario:
R X (τ ) = E [ X (t ) X (t + τ )] Para cualquier valor de t, es la definición de autocorrelación para cualquier proceso estocástico.
Cuando el proceso es estacionario se cumple que R X (t ,τ ) no cambia con el tiempo R X (t ,τ ) = R X (τ )
R X (t ,τ ) = RX (τ )
t
τ Fig. a1
17
IMPORTANTE:
2 R X (0 ) = E X (t ) la autocorrelación evaluada en τ = 0 es el valor
medio cuadrático, también se asocia con la potencia promedio normalizada (es decir para impedancia = 1) del proceso.
Propiedades de R X (τ ) :
Está centrada en τ = 0 , donde está la amplitud máxima Es par Entre mas ancho sea R X (τ ) el proceso fluctúa mas lentamente.
EJEMPLO 2 Para el mismo proceso analizado en el ejemplo 1, hallar la función de autocorrelación.
R
(τ ) = E X ( t ) X ( t + τ ) = A2 c E cos ( 2π f tc+ θ ) cos ( 2π f tc+ 2π f τc + θ )
X
(1.45) Ya que cos α cos β = (cos(α + β ) + cos (α − β ))
1 2
2
R (Xτ ) =
Ac
E cos ( 4π f t+c 2π fτ c+ 2θ ) + cos ( 2π fτ c) (1.46) 2
El promedio de la suma de dos variables es igual a la suma del promedio de cada una, esto debido a que un promediador es un sistema lineal:
R (Xτ ) =
Ac2
2
( Ecos ( 4π
f t+ f τ c+ 2θ ) + Ecos ( 2π f τ )c ) (1.47) c 2π
Como el proceso es estacionario, t es cualquier valor, así que por simplicidad tomemos t=0 2
R(τ X) =
Ac
2
2
E cos ( 2π τf +c2θ ) +
Ac
2
cos ( 2π τf ) c (1.48)
18
Teniendo en cuenta que θ fluctúa entre − π y π y cualquier valor de θ es igualmente probable, puede decirse que la media de cos(2π f c + 2θ ) es igual a cero, entonces:
R X (τ ) =
Ac2
cos(2π f cτ )
2
(1.49)
Fig. 9 T c
Las variables aleatorias separadas en T c
receptor con portadora desfasada en transmitida, no recibirá nada.
4 no están correlacionadas. Por eso, un
4 , o sea,
π
2 con respecto a la portadora
En conclusión, para comprobar la condición (19ª) bien puede hacerse a partir de la comprobación de que los momentos estadísticos de primer orden no cambian con el tiempo (son constantes). La condición (19b) se cumple también si la función de autocorrelación no cambia con el tiempo. R X ( t , τ )
t
τ Fig. 9.2
19
Densidad espectral de potencia o espectro de potencia de un proceso estacionario: Es el nombre que se le ha dado a la transformada de Fourier de la función de autocorrelación de un proceso X (t ) .
∞
∫
S X ( f ) = R X (τ )e − j 2π f τ d τ
(1.21)
−∞
∞
R X (τ ) =
∫
S X ( f )e j
2π f τ
df
(1.22)
−∞
S X ( f ) Se mide en watts por hertz (W/Hz) por eso se llama densidad (pero esto
siempre sucede en TF). Estas ecuaciones se conocen como RELACIONES EINSTEIN – WIENER – KHINTCHINE y tiene las siguientes propiedades:
El valor de S X ( f ) para f=0 es el área bajo la curva de R X (τ ) , o viceversa
∞
S X (0 ) =
∫ R
X
(τ )d τ
(1.23)
−∞
Esto a partir de la relación de Parsevall.
Debido a que R X (τ ) es real y par S X ( f ) es siempre real, positivo y par S X ( f ) ≥ 0 para toda f. S X ( f ) = S X (− f ) . Esto se deriva de las propiedades de la TF que dice que toda señal es la suma de una componente par y una impar x (t ) = x par (t ) + ximpar (t ) donde,
x par ( t) =
1
x( t) + x( − t) 2
(1.24);
ximpar ( t) =
1
x( t) − x( − t) (1.25) 2
20
La TF de la componente par es par y real, la TF de la componente impar es impar e imaginaria. La función de autocorrelación siempre es par, y posee espectro par y real.
Según las propiedades de la función de autocorrelación se había dicho que R X (τ ) , evaluado en τ = 0 en un proceso estacionario coincide con el valor cuadrático medio R X (0 ) = E X 2 (t ) del proceso.
E [ X (t )] = 2
∞
∫ S
X
( f )df = R X (0)
(1.26)
−∞
Se deduce que, el área bajo la curva de la densidad espectral de potencia es el valor cuadrático medio, se conoce también como potencia promedio del proceso.
Si se normaliza S X ( f ) dividiéndola por su área bajo la curva, se obtiene una función P X ( f ) que tiene un comportamiento similar a una función de densidad de probabilidad.
P X ( f ) =
S X ( f ) ∞
∫ S
X
(1.27)
( f )df
−∞
P X ( f )
P X ( f ) ≥ 0 f
Fig. 10
21
EJEMPLO 3 Hallar la PSD par el proceso de “onda senoidal con fase aleatoria” descrito en el ejemplo 1 y 2. Hallar también la potencia promedio del proceso.
2 ∞
S X
(f )=
Ac
4
∫ R
X
(τ )e
− j 2 π f τ
dτ
(1.50)
−∞
La TF de una cosenoidal es conocida, luego
S X ( f ) =
Ac2
4
[δ ( f − f c ) + δ ( f +
f c )] (1.51)
S X ( f )
f
Fig. 11 Fíjese que a diferencia de la TF, aquí no se diferencia entre el espectro de senoidal o cosenoidal. 2
La potencia promedio de este proceso es P = R X (0 ) =
Ac
2
(1.52)
EJEMPLO 4 Se pone en consideración la señal digital que llega desde un MS hasta una radiobase. Ver Fig.12 MS: mobile station (en telefonía celular)
22
Generador de sincronismo
TR
RADIOBASE
t
T b
Fig. 12
La señal desde el MS llegará atrasada respecto a la señal de sincronismo usada por el transceiver como reloj, dependiendo de la distancia a la cual se encuentra el MS. T d es el tiempo de retraso.
23
x1 (t ) n =1
x2 (t ) n=2
Fig. 13 La señal x2 (t ) lleva bits diferentes a x1 (t ) , ya que cada MS recibe información diferente. La señal de sincronismo aparece en la gráfica como referencia para poder medir el retraso de las señales que llegan a los MS. Resultado de dos ensayos y su comparación con la señal de sincronismo. Cada función muestra se toma de un MS escogido aleatoriamente. Proceso X (t ) .
El sistema ha sido diseñado de tal manera que nunca ocurrirá un atraso mayor a T b .
T b Corresponde a un kilómetro. Luego, si el usuario está más allá de esa distancia
no puede ser atendido, se encontrará en el área de cobertura de otra radiobase (otra celda).
24
Los datos que envía el MS son unos y ceros de manera completamente aleatoria. La aparición de un uno o un cero es equivalente a que caiga cara o sello al lanzar una moneda.
Es igualmente probable que un MS esté a una u otra distancia de la radiobase.
El proceso es estacionario
a. obtener una grafica para la densidad de la probabilidad de la variable aleatoria T d .
Respuesta:
T d toma valores iguales probables entre 0 y T b porque es igualmente
probable que los usuarios estén a una u otra distancia.
fTd (t d )
t d
Fig. 14
b. tomando como referencia dos momentos t k y t i determine para que distancia entre ellos τ = t k − t i se cumple que R X (τ ) = 0 .
Respuesta: esto ocurrirá cuando las variables
X ( t k )
y
X (t i ) sean
estadísticamente independientes. En el caso de la grafica, t k y t i están cerca, luego, si ocurre que x2 (t k ) = − A es muy probable que x 2 (t i ) = − A también. En
25
cambios, si t k − t i > T b esa probabilidad tiende a cero a medida que se elevan los ensayos. Luego
R X (τ ) = 0
Para τ > T b
c. determine R X (0 ) . Recuerde que R X (τ ) = E [ X (t ) X (t + τ )]
Respuesta: como X (t ) es estacionario, sea t=0 R X (0) = E X
2
(0) O sea, la media cuadrática de la variable aleatoria x(0)
Los únicos valores que toma X(0) son A o –A, luego
R X (0 ) = A2 d. proponga una forma grafica aproximada para R X (τ ) .
Respuesta: tengamos en cuenta que: • • •
La R X (τ ) siempre es par y real El valor máximo de R X (τ ) siempre esta en τ = 0 . Para el proceso X (t ) la dependencia entre X (t k ) y X (t i ) disminuye linealmente a medida que t i se aleja de t k .
Fig. 15
26
e. compruebe la validez de la grafica obtenida en el punto anterior para R X (τ ) , resolviendo R X (τ ) = E X ( t ) X ( t + τ )
Respuesta: en el ensayo n=2, se observa que
P1 = P2 si t d < T b − τ , o sea que
los puntos 1 y 2 tiene valores iguales de amplitud. Luego podemos asegurar que:
E [ X (t k ) X (t i ) / B ] = A
2
(1.53)
Donde B es el evento t d < T b − τ
Es decir, cuando ocurra el evento B, se puede asegurar que X (t k ) X (t i ) = A 2 , luego, el promedio de esta multiplicación es A 2
R X (τ ) = E [ X (t k ) X (t i )] = E [ X (t k ) X (t i ) / B ]P( B ) (1.54) Esto por analogía con la probabilidad condicional entre dos eventos A y B
P ( AB ) = P ( A ) P ( B ) B
(1.55)
En nuestro caso, P(B)es la probabilidad que la variable aleatoria Td tome un valor entre 0 y T b − τ . Esta puede hallarse a partir de f T (t d ) de la Fig.14 d
T b − τ
P( B ) =
1
∫ T dt
d
0
b
=
1 T b
T b − τ
t d
= 0
1 T b
(T b − τ ) = 1 −
τ T b
27
2 τ A 1 − para τ < T b T b R X (τ ) = 0, otros
(1.56)
f. halle la PSD del proceso X (t )
R X 1 (τ )
R X 1 (τ )
R X (τ )
τ
Fig. 16
R X 1 (τ )
S X 1 ( f )
f
Fig. 16.1
28
S X ( f ) A2T b
f
Fig. 17
g. halle potencia promedio de X (t )
Respuesta: P = R X (0 ) = A
2
PROCESOS ERGÓDICOS: Es necesario distinguir primero entre “esperanzas o promedios totales” y “promedios de tiempo”.
Promedios totales: Se refiere al tipo de promedios que hemos sacado hasta el momento. Por ejemplo, la media de una variable X (t k ) o de un proceso X (t ) . En otras palabras hasta el momento hemos trabajado solo con promedios totales.
Promedios de tiempo: Se refiere al promedio que se busca analizando una función muestra en un intervalo T ≤ t ≤ T .
29
x (t )
M x ( t )
t Fig. 18 Así por ejemplo, se puede encontrar una media que depende de T.
µ X (T ) =
1
T
∫
x (t )dt Es igual al valor de la media promediada en el tiempo. 2T −T
Vamos a denotar el promedio de tiempo de X (t ) así:
x (t ) = lim T →∞
1
T
∫
x (t ) dt 2T −T
µ X (T ) Resulta siendo una variable aleatoria, pues varía de una función muestra a otra y además depende de T. por eso se puede hablar de las características estadísticas de esa variable aleatoria. Cuando el proceso es estacionario, se sabe que tiene una media µ X constante (promedio total). Su relación con el promedio de tiempo se puede buscar tratando de encontrar la media de la variable µ X (T ) :
1 E µ X ( T) = E 2T
T
∫
−T
1 x( t) dt = 2T
T
∫
−T
(1.28)
T
∫
µ X ( t) dt E X( t) dt = 2T − T
Un intercambio debido a la linealidad de las operaciones
Para un proceso estacionario: µ X = E[ µ X ( T)] = E[ X ( t) ]
1
30
En caso de un proceso estacionario se supone que: µ X (t ) = cte = µ X
Nota: para que esto coincida con lo estudiado del libro de Couch, debe tomarse la ventana entre –T/2 y T/2. usar w(t) en ves de X (t ) , W T ( f ) en vez de W ( f , T ) .
Pregunta de control 1: si el proceso no es estacionario, a que equivale E [ µ X (T )] ? Pregunta de control 2: conociendo el procedimiento para hallar la media en un proceso estacionario a partir del promedio de tiempo µ X (T ) , como podría hallarse la función de autocorrelación a partir de promedios de tiempo.
Conclusión 1: la media de un proceso estacionario, bien se podría hallar a partir de comportamiento de la variable aleatoria µ X (T ) , o sea a partir del promedio de tiempo µ X (T ) : es decir µ X se halla como la media de µ X (T ) para todos los ensayos.
Conclusión 2: los promedios de tiempo son útiles para hallar los promedios totales en procesos estacionarios de manera aproximada. Así como se puede hallar µ X que es el momento E [ X (t )], así se puede hallar E [ X (t ) X (t + τ )] u otros promedios.
Trabajo para la casa: a su equipo se le ha asignado la tarea de demostrar mediante simulación, si la anterior afirmación es cierta. El equipo ha decidido asignarle a usted la tarea de crear un diagrama de flujo para el simulador a desarrollar.
Función de autocorrelación promediada en el tiempo: Así como existe la media promediada en el tiempo µ X (T ) así también la autocorrelación
31
R X (τ , T ) =
1
T
x( t + τ ) x( t) dt ∫ 2T
(1.29)
−T
Es como el promedio de tiempo de x1 (t ,τ ) , donde x1 (t ,τ ) = x(t + τ ) x (t ) para todos los valores de τ .
Hipótesis: la función de autocorrelación en un proceso estacionario es la curva media de las R X (τ , T ) para cada ensayo. Como también la correlación cruzada promediada en el tiempo entre 2 procesos X (t ) , Y (t ) .
R XY (τ , t) =
1
∞
x( t + τ ) y( t) dt ∫ 2T
(1.30)
−∞
Y
RYX (τ , t) =
1
∞
y( t + τ ) x( t) dt ∫ 2T
(1.31)
−∞
OJO: R X (τ , T ) para cada valor τ resulta ser una variable aleatoria porque se obtiene una para cada función muestra, tiene su media y demás momentos estadísticos.. Proceso ergódico (Definición): Un proceso ergódico se define como aquel para el cual se cumple que: a) lim µ X (T ) = µ X T →∞
b) lim var µ X (T ) = 0 momento central de orden 2 σ 2 X= E (µ X(T ) − µ )X2 es decir T →∞ que µ X (T ) no cambia de una función muestra a otra. Otra definición relacionada con la correlación, la cual también es considerada un momento de segundo orden, es que para un proceso ergódico se cumple que: lim R X (τ , T) = RX (τ )
T →∞
32
lim var R X (τ , T ) = 0 Quiere decir que la media no varía de un función muestra a
T →∞
otra.
CONCLUSIÓN: cuando un proceso es ergódico, los promedios totales son los mismos promedios de tiempo, luego un promedio total se puede calcular a partir de una sola función muestra, por ejemplo la media:
µ X = µ X (T ) R X (τ ) = R X (τ , T )
Relación entre densidad espectral y espectro de frecuencias en un proceso ergódico: Pensemos como sería el espectro de frecuencias de una función muestra X (t ) de un proceso aleatorio: La TF de X (t ) no se pede calcular, pues en la mayoría de los casos X (t ) no es ∞
absolutamente integrable, no se cumple la condición de Diriclet
∫ x(t )dt < ∞
−∞
condición de convergencia de la TF. Pero, si tomamos un periodo de observación finito T consideramos un segmento truncado de X (t ) y a TF para ese segmento la denotamos como X(f,T). T
∫
x (t ) → X ( f , T ) = x(t )e
− j 2π ft
dt
(1.32)
−T
Ya se había dicho que la función de autocorrelación de un proceso estacionario ergódico se puede obtener como un promedio de tiempo:
R X (τ ) = lim
T →∞
T
1
x( t) x( t+ τ ) dt ∫ 2T
(1.33)
− T
También se sabe que la TF de R X (τ ) es la misma TF en magnitud al cuadrado del segmento de X (t ) dividida en 1
2T
.
33
1 2T
∞
∫
2
X ( f , T ) = R X (τ )e
− j 2π f τ
d τ
(1.34)
−∞
En la pagina 51 de Haykin dice que esto es lo que se conoce como periodograma y sus dimensiones son similares a la PSD. Más abajo dice que si observamos un periodograma de un proceso ergódico para una frecuencia fija, esto se convierte en una variable aleatoria, es decir, no es un valor fijo. En otras palabras X ( f , T )
2
varía de función muestra en función muestra.
OJO: aunque para ondas determinísticas se diga que esta es la PSD, esto no es correcto desde punto de vista de procesos estocásticos.
1
2 S X ( f ) = lim E X ( f ,T ) T →∞ 2T
(1.35)
Si hay N funciones muestra, X ( f , T ) aparece N veces. La PSD S X ( f ) es el promedio de esas X ( f , T ) al cuadrado.
Según Couch en su análisis determinístico dice que
X ( f , T ) 2 S X ( f ) = lim T →∞ 2T
(1.36)
Ver pagina 62 fórmula (2-66) de Couch. Esta última definición sólo es válida para una onda determinística como se verá en la siguiente página. Esto es debido a que la
X ( f , T )
2
varía entre función muestra
y función muestra (aunque el proceso sea ergódico), mientras que la S X ( f ) es una.
34
ANALISIS DETERMINISTICO: En la práctica común el análisis determinístico se aplica cuando la onda es determinística o cuando se sabe que el proceso es ergódico. (Ver libro Couch pag 62 – 65). Los parámetros de interés son: la potencia promedio, el valor RMS, la PSD, la ESD ( energy spectral density), la función de autocorrelación. Se supone entonces que se tiene una señal X (t ) por analizar. En el caso de un proceso ergódico X (t ) es una de las funciones muestra del proceso X (t ) . Valor RMS: X RMS =
(1.37)
2
x (t ) x (t ) 2
Potencia promedio: P =
2
= X RMS
R
(1.38)
Potencia promedio normalizada: P = x 2 (t ) , pues R se toma R=1 . La potencia promedio es útil para calcular la relación señal a ruido (SNR), pues en la relación se cancela R. También es común hallar P a partir de una versión truncada de X (t ) :
P = lim
T →∞
1 2T
T
∫
x
2
( t ) dt = limT →∞
− T
1
∞
∫
2T −∞
2
xT ( t ) dt (1.39)
O, de acuerdo a la relación de Parseval; lo anterior equivale a:
P = lim
T →∞
1
2
∞
X ( f ,τ ) ∫ 2T
df (1.40)
−∞
La definición de la PSD ha sido realizada de manera que se cumpla que el área bajo su curva sea la misma Potencia Promedio.
∞
P=
∫ S
X
−∞
( f )df
(1.41)
35
De aquí se deduce que S X ( f ) = lim
T →∞
1 2T
2
X ( f ,T )
(1.42)
La autocorrelación: R X (τ ) = x ( t ) x( t + τ ) = T lim →∞
1
T
x( t) x( t + τ ) dτ ∫ 2T −T
(1.43) Como se aclaró en la página anterior, esta relación de PSD con la TF no es válida para los Procesos Ergódicos, solo para una onda determinística. Así, la Potencia Promedio se puede hallar de varias maneras:
∞
2
2 P = x (t ) = X RMS =
∫ S
X
−∞
( f )df = R X (0 )
(1.44)
36
37
ANALISIS DE RUIDO Variable aleatoria con distribución gausiana: Una variable aleatoria X está distribuida gaussianamente sí su función de densidad de probabilidad es de la forma
f
X
( x) =
−
1
( x − µ X )
e
2 πσ X
2
2 σ X 2
(2.1)
f X ( x)
x
Fig. 1
Un caso especial ocurre cuando µ X = 0 , σ X 2 = 1 y se describe como N(0,1)
f X ( x ) = N X (0,1) =
1 2π
2
e
x − 2
(2.2)
Proceso gaussiano: Todo el conjunto de variables aleatorias que componen un proceso es conjuntamente gausiano. Quiere decir que la densidad de probabilidad conjunta es gausiana.
Propiedades:
Si X (t ) es un proceso gaussiano y se aplica a un filtro lineal estable la salida Y (t ) es también un proceso gaussiano.
Si un proceso gaussiano es estacionario, también será estrictamente estacionario. O sea que en el caso de los procesos gaussianos, los
38
momentos de primer y segundo orden son suficientes para definirlo como un proceso estrictamente estacionario. Se refiere a la media, la autocorrelación. Estas variables resultarán siendo independientes estadísticamente.
Ruido blanco: Modelo matemático idealizado para el análisis del ruido en los sistemas comunes. SW ( f ) =
N 0
2
,
N 0 = KT e
K = 3,18 *10 −23 Joules, constante de Boltzmann
T e temperatura equivalente en Kelvin.
Fig. 2
Fig. 3
La idea es que un resistor ruidoso que podría producir tanto ruido como todas las fuentes de ruido que llegan al sistema al ser sometido a la temperatura T e .De esta manera “ N 0 ” puede ser diferente para las diversas situaciones a tener en cuenta:
Cualquiera dos muestras del proceso resultarán no correlacionadas sin importar que tan cerca estén.
El ruido blanco tiene una potencia promedio infinita y como tal no puede ser físicamente realizable.
39
Paso de un sistema aleatorio a través de un filtro LIT:
X(t)
Y(t)
h(t) LIT
Fig. 4
Si un proceso X (t ) es estacionario, Y (t ) también lo será. ∞
Si se conoce µ X (t ) ⇒ µ Y (t ) = µ X (t )* h (t ) =
∫ h (τ ) µ
X
(t − τ )d τ .
Si X (t ) es
−∞
∞
estacionario
⇒ µ Y = µ X ∫ h(τ )d τ = µ X H (0 ) −∞
∞ ∞
Conociendo
∫ ∫ h(ξ )h(v) R
R X (τ ) ⇒ RY (τ ) =
X
(τ + ξ − v )d ξ dv
− ∞− ∞
La potencia promedio normalizada de Y (t ) : ∞
PY = E Y
2
( t ) =
∫
2
H ( f ) SX
−∞
O sea,
RY (τ )
τ =0
La PSD para Y (t )
2
SY ( f ) = H ( f ) S X ( f )
∞ ∞
( f ) df
=
∫ ∫ h (τ
−∞ −∞
1
) h (τ 2 ) RX (τ 1 − τ 2 )dτ 1 dτ 2
40
Ruido blanco filtrado: El ruido blanco es una idealización que permite caracterizar un sistema de comunicación de manera similar a lo que se hace con una entrada δ (t ) para obtener la respuesta al impulso. Por tener una potencia promedio infinita, no es físicamente realizable. Pero tiene expresiones sencillas como SW ( f ) =
N 0
2
, RW (t ) =
N 0
2
δ (τ ) .
La idea de usar este modelo para el estudio de los sistemas de comunicación consiste en considerar como blanco, el ruido que entra al sistema excediendo el ancho de banda del mismo, ya que se observa una similitud entre la respuesta del
SW ( f ) w(t )
BPF
n(t )
W = 2B
f o = f c
S N ( f )
Fig. 5 sistema a este ruido o ante el ruido blanco como muestra la Fig.5. Luego, la salida se puede interpretar como ruido blanco de banda angosta. Ese ruido de banda angosta resulta más fácil de simular. Como muchos análisis de los sistemas se realizan en banda base, entonces también se habla de modelos banda base de este ruido. La idea es considerar que ese n(t ) corresponde a una señal banda base que fue desplazada a la frecuencia fc. El
41
fenómeno mas general que puede concluir a este resultado es que una señal n I (t ) halla sido mezclada con cos( 2π f c t ) y una nQ (t ) con sen(2π f c t ) como sucede en QAM Primera representación canónica
cos(2π f c t )
sen(2π f c t )
Fig. 6 Para obtener n I (t ) y nQ (t ) a partir de n(t ) se usa el esquema
2cos(2π f ct )
−2 sen(2π f ct )
Fig. 7 El “2” de la portadora es porque se sabe que en DSB si en la parte modulante se usa amplitud de portadora = 1, en la demodulante se usa “2” para poder recuperar el mensaje en al misma escala en que fue transmitido.
Segunda representación canónica del ruido de banda angosta. Sabemos
que
n(t ) = n I (t ) cos(2π f c t ) + nQ (t ) sen( 2π f c t )
conociendo
la
identidad
trigonométrica: A cos α + Bsen β = D cos(α + ϕ ) , donde D = A 2 + B 2 y ϕ = tan −1
β α
42
n(t ) = r (t )cos[2π fct + ψ (t )] (2.3)
Fig. 8 Si n I (t ) viaja en una portadora y
nQ (t ) en su cuadratura, eso equivale a que la
señal r(t) viaja en la portadora cos( 2π f c t + ψ (t ))
r (t ) =
2
2
n I (t ) + nQ (t )
ψ (t ) = tan
−1
nQ (t ) n I (t )
r (t ) Envolvente del ruido pasa bandas
ψ (t ) Fase del ruido pasa bandas Es un proceso aleatorio:
n I (t ) , nQ (t ) , r (t ) , ψ (t ) son funciones muestra que
resultan de su ensayo. Estas funciones son del tipo Banda Base
Fig.9
43
Una pregunta lógica es: si n(t ) tenía S N ( f ) como será la PSD de n I (t ) , nQ (t ) ? Rta
f
f
Fig. 10 Lo cual se puede comprobar colocando estas PSD a la entrada del esquema de la Fig.6 y calculando su respuesta.
Fig. 11
2cos (2π f ct ) −2 sen (2π f c t )
Fig. 12
44
Fig. 13 R(τ ) =
22
C
2
(2π cτf ) = 2 cos (2π cτf ) cos
Sv1 ( f ) = ?
Fig. 14
Ya que N (t ) y V 1 (t ) son procesos estadísticamente independientes
Rv1 (τ ) = Rv (τ ) RC (τ ) Sv1 ( f ) = S N
( f ) ∗ SC ( f )
Fig. 15 Esto también puede probarse usando el concepto de potencia promedio Pn = 2
N 0
2
2 B = 2 N 0 B = RN ( 0 ) ,
(2π cτ f ) , RC ( 0 ) = 2 = PC R(τ ) = 2 cos
C
45
Como N (t ) , C (t ) , son estadísticamente independientes
Rv1 (τ ) = RN (τ ) RC (τ )
Pv1 RN ( 0 ) RC ( 0 ) = 4 N 0 B , luego la PSD Sv1 ( f ) tiene la forma.
Fig. 16
Luego del filtrado
Fig. 17 Quizá surge una duda en el estudiante : ¿Por qué ha tenerse en cuenta las frecuencias negativas para la potencia promedio? Rta: veamos el proceso elemental X ( t) = Ac Cos(2π fC t + θ ) La R X (τ ) =
Ac
2
2
cos(2π f cτ ) P X = RX ( 0 ) =
Ac
2
2
veamos la PSD ∞
Además, la misma definición lo dice P X =
∫ S
X
−∞
( f )df
46
TABLA 1
DSB-SC
AM-FC
FM
Transmisor
Transmisor
Potencia promedio de la señal aportada por el transmisor
s (t ) = Ac [1 + K a m(t )]cos( 2π f c t + θ ) =
s (t ) = m(t )c (t )
m(t ), c(t ) son estadísticas independientes R s (τ ) R M (τ )Rc (τ )
Donde RC ( t) = Ps
=
Rs ( 0 ) =
Ac 2
Ac
2
2
cos ( 2π fc t)
2
RM ( 0 ) =
Ac
2
2
Pm
=
Por analogía con DSB Rs (τ ) = Rc (τ ) + Ka 2 R M (τ )Rc (τ ) Ps Ps
=
=
Ac
SNRc
2 N 0W
2
2
K a Pm Ac
+
2
Ac
2
(1
2 2
Ac Pm
Ps
2
K a Pm
(
0
Ac2
=
)
)
2
Ac 1 + K a Pm
∫
, la potencia promedio no depende 2 del mensaje
2
2 +
t
s (t ) = Ac cos 2π f c t + 2π K f m(t )dt + θ
c(t ) + K a m(t )c (t )
2
SNRc
Transmisor
SNRc
2 N 0W
Ac
2
2 N 0W
Señal que entra al demodulador x(t ) = Ac m(t )cos 2π fct + n(t )
x(t ) =
Donde n(t ) = n I (t ) cos 2π fct − nQ (t )sen(2π f c t )
c (t ) + K a m(t )c(t ) + n I (t )c(t ) − nQ (t )cQ ( t )
⇒
=
t
∫
x(t ) = Ac cos 2π fct + 2π K f m(t )dt + nQ (t )cos 2π fct − n I (t )sen2π fct
=
[1 + K a m(t ) + n I (t )]c(t ) + nQ (t )cQ (t )
0
d
t
∫
Ac cos 2π fct + 2π K f m(t )dt + r (t )cos[2π fct + ψ (t )]
0
x (t ) = [ Ac m(t ) + n I (t )]cos 2π fct − nQ (t )sen 2π fct
onde
INQUIETUD: debería incluirse θ tanto en
ψ (t ) = tan 1 nQ (t ) n I (t )
2
r (t ) =
n I (t ) + nQ (t ) −
47
DSB-SC
AM-FC
la portadora de m(t ) como de n I (t ) y nQ (t )? RTA: si, es el mismo θ , pues la idea es que n(t ) sea una versión de ruido banda base modulada con c(t ) . Inquietud: n I (t ) depende de Ac ? RTA: No es que c(t ) modula n(t ) , sino que n(t ) resulta desplazada hacia f c, luego la amplitud de portadora=1 La señal: hallar una expresión para y (t ) de la forma y (t ) = y s (t ) + y n (t ) donde y s (t ) es la
FM
X ( t) = Ac 1+ Ka m( t) nI ( t) cos(2π fc t) + nQ ( t ) sen(2π fct )
=
=
y( t) =
{ A 1 c
+
Ka m( t ) + nI ( t )}
2
+
1
p yn
y s (t ) = Ac m(t ) 2 1 yn (t ) = n I (t ) 2
p ys
=
Ac 4
pm , p yn
=
=
1 4
N o 2W =
N oW 2
η =
1
∞
S 4 ∫ −∞
SNRo
2
+
ψ (t ))
=
p ys p yn
SNRo SNRc
=
N I
=
k a
( f )
=
2
2
y s (t ) = K f m(t )
Si m(t ) = 0
X n ( t ) Ac cos ( 2π fc t ) + r ( t ) cos 2π fc t +ψ ( t )
Si el ruido tiene mucho menor potencia que la señal el diagrama fasoriales
Potencia promedio de yn (t ) :
2 1
Ac cos( 2π f c t + ϕ (t )) + r (t ) cos(2π f c
ys ( t ) = Ac Ka m ( t ) yn (t ) = n I (t )
[ Ac m(t ) + n I (t )]
0
Xs ( t) = Ac cos 2π fc t + ϕ ( t)
Luego del LPF se obtiene y (t ) y (t ) =
∫
2π K f ) m(t ) dt + r (t ) cos( 2π f c t + ψ (t ))
nQ 2 ( t )
en la magnitud de la envolvente
Ac m( t) + nI ( t) cos 2 (2π fc t) − nQ ( t) cos(2π fc t) sen(2π fc t)
t
+
A c cos c cos 2π fct+ ϕ ( )t + ϕ r ( )t = A ϕ r ( )t 1 d ϕ y (t ) y (t ) = , pero ϕ r (t ) no se conoce. 2π dt Si n(t ) = 0
componente útil para obtener m(t ) , y n (t ) es En el diagrama fasorial se nota que si el ruido es pequeño comparado con la la componente de ruido. señal, entonces nQ (t ) casi no influye v ( t ) = x ( t ) cos(2π fc t ) =
X (t ) = Ac cos( 2π f c
1 4
N o BT
Ac k a p m 2WN o
=
1 4
N o 2W
47
DSB-SC
AM-FC
la portadora de m(t ) como de n I (t ) y nQ (t )? RTA: si, es el mismo θ , pues la idea es que n(t ) sea una versión de ruido banda base modulada con c(t ) . Inquietud: n I (t ) depende de Ac ? RTA: No es que c(t ) modula n(t ) , sino que n(t ) resulta desplazada hacia f c, luego la amplitud de portadora=1 La señal: hallar una expresión para y (t ) de la forma y (t ) = y s (t ) + y n (t ) donde y s (t ) es la
FM
X ( t) = Ac 1+ Ka m( t) nI ( t) cos(2π fc t) + nQ ( t ) sen(2π fct )
=
=
y( t) =
{ A 1 c
+
Ka m( t ) + nI ( t )}
2
+
p ys
=
Potencia promedio de yn (t ) :
2 1
p yn
pm , p yn
4
=
=
1 4
N o 2W =
N oW
η =
2
1
∞
S 4 ∫
N I
−∞
SNRo
2
+
ψ (t ))
=
p ys p yn
SNRo SNRc
=
y s (t ) = K f m(t )
Si m(t ) = 0
X n ( t ) Ac cos ( 2π fc t ) + r ( t ) cos 2π fc t +ψ ( t )
1
Ac
Ac cos( 2π f c t + ϕ (t )) + r (t ) cos(2π f c
ys ( t ) = Ac Ka m ( t ) yn (t ) = n I (t )
y s (t ) = Ac m(t ) 2 1 yn (t ) = n I (t ) 2
0
Xs ( t) = Ac cos 2π fc t + ϕ ( t)
Luego del LPF se obtiene y (t ) y (t ) = [ Ac m(t ) + n I (t )]
∫
2π K f ) m(t ) dt + r (t ) cos( 2π f c t + ψ (t ))
nQ 2 ( t )
en la magnitud de la envolvente
Ac m( t) + nI ( t) cos 2 (2π fc t) − nQ ( t) cos(2π fc t) sen(2π fc t)
t
+
A c cos c cos 2π fct+ ϕ ( )t + ϕ r ( )t = A ϕ r ( )t 1 d ϕ y (t ) y (t ) = , pero ϕ r (t ) no se conoce. 2π dt Si n(t ) = 0
componente útil para obtener m(t ) , y n (t ) es En el diagrama fasorial se nota que si el ruido es pequeño comparado con la la componente de ruido. señal, entonces nQ (t ) casi no influye v ( t ) = x ( t ) cos(2π fc t ) =
X (t ) = Ac cos( 2π f c
( f )
=
2
2
1 4
N o BT
=
1 4
Si el ruido tiene mucho menor potencia que la señal el diagrama fasoriales N o 2W
Ac k a p m
=
2WN o
k a
48
Potencia promedio de y n (t )
2
SNRo
=
Ac Pm 2WN o
P yn P y s
=
Ac
1
S 4 ∫
N 1
( f ) =
−∞
2
4
=
∞
Pm , P
y= n
1 4
N 2oW =
N 0W
1 4
N 0 BT
S NI ( f ) = S NQ ( f )
=
1 4
ϕ r ( t ) = tan
r ( t ) sen(ψ ( t ))
−1
Ac + r( t) cos(ψ ( t))
2
SNR0
=
y n (t ) =
2
1 d ϕ r (t ) 2π
y n (t ) =
η = 1
1 2π Ac
≈
dt
2
2WN 0
r ( t ) sen(ψ ( t ) ) Ac
≈
nQ ( t ) Ac
N 0 2W =
Donde n d (t ) = Ac Pm
≈
1
dnQ (t )
2π Ac
dt
=
1 2π Ac
n d (t ) ,
dnQ (t ) dt
n d (t )
Otra manera quizás mas sencilla es: SNR0
η =
=
P ys P yn
SNR0 SNRc
=
=
Ac 2 K a 2 Pm
Xn ( t) = Ac + nI ( t) cos ( 2π fc t) − nQ ( t ) sen( 2π fc t )
2WN 0
K a 2 Pm 1 + K a 2 Pm
ϕ r (t ) = tan
P y n
=
nQ (t )
1
−
Ac
+
n I (t )
=
nQ (t ) Ac
? se sabe que y n (t ) =
Donde n d (t ) =
dnQ (t ) dt
1 2π Ac
n d (t )
48
Potencia promedio de y n (t )
2
SNRo
=
Ac Pm 2WN o
P yn P y s
=
Ac
1
S 4 ∫
N 1
( f ) =
−∞
2
4
=
∞
Pm , P
y= n
1 4
N 2oW =
N 0W
1 4
N 0 BT
S NI ( f ) = S NQ ( f )
=
1 4
ϕ r ( t ) = tan
r ( t ) sen(ψ ( t ))
−1
Ac + r( t) cos(ψ ( t))
2
SNR0
=
y n (t ) =
2
1 d ϕ r (t ) 2π
y n (t ) =
η = 1
≈
dt
Ac
≈
nQ ( t ) Ac
1
1
dnQ (t )
2π Ac
dt
=
1 2π Ac
n d (t ) ,
dnQ (t ) dt
2
2WN 0
r ( t ) sen(ψ ( t ) )
N 0 2W =
Donde n d (t ) = Ac Pm
≈
n d (t )
2π Ac
Otra manera quizás mas sencilla es: SNR0
η =
=
P ys P yn
SNR0 SNRc
=
=
Ac 2 K a 2 Pm
Xn ( t) = Ac + nI ( t) cos ( 2π fc t) − nQ ( t ) sen( 2π fc t )
2WN 0
K a 2 Pm 1 + K a 2 Pm
ϕ r (t ) = tan
P y n
=
nQ (t )
1
−
Ac
+
n I (t )
=
nQ (t ) Ac
? se sabe que y n (t ) =
Donde n d (t ) =
1 2π Ac
n d (t )
dnQ (t ) dt
49
S yn (t ) = S Q ( f )
jf Ac
2
=
f 2 Ac
2
S NQ ( f ) para f
<
W 0, otros
Aparentemente la condición seria f
<
BT 2
pero entonces se estaría
analizando el ruido en V (t ) , ósea antes del LPF
49
S yn (t ) = S Q ( f )
jf
2
=
Ac
f 2 Ac
S NQ ( f ) para f
2
<
W 0, otros
Aparentemente la condición seria f
<
BT
pero entonces se estaría
2
analizando el ruido en V (t ) , ósea antes del LPF
50
f 2 S yn ( f ) = 2 . N 0 df , f Ac P y n
=
SNR0
N 0 Ac
=
∫
2
f df =
W
−
3K
2
f
2
PmA c 3
2 N 0W 2
η =
W
3K f Pm 2
W
<
2 N 0W 3 3 Ac
2
W
u otros
50
f 2 S yn ( f ) = 2 . N 0 df , f Ac P y n
=
SNR0
N 0 Ac
=
W
∫
2
f df =
W
−
3K
2
f
<
W
u otros
2 N 0W 3 3 Ac
2
2
PmA c 3
2 N 0W 2
η =
3K f Pm 2
W
51
ANALISIS DETERMINISTICO:
La potencia en las ondas de modulación angular Conocemos la formula de la potencia. 2
P = VI = I R =
V 2 R
(2.4)
Hallemos la potencia instantánea Pt de una señal FM S ( t ) = Vc cos ( 2π fct + θ ( t ) )
Pt =
Pt
2
S
(t )
R =
s2 ( )
watt
Vc 2cos 2 Wc t + θ ( t ) R
n
[1
(2 ) ]
=
V c 2 1
R 2
+
1 2
cos 2Wc t + 2θ ( t )
51
ANALISIS DETERMINISTICO:
La potencia en las ondas de modulación angular Conocemos la formula de la potencia. 2
P = VI = I R =
V 2
(2.4)
R
Hallemos la potencia instantánea Pt de una señal FM S ( t ) = Vc cos ( 2π fct + θ ( t ) )
Pt =
Pt
2
S
(t )
R =
watt
Vc 2cos 2 Wc t + θ ( t )
cos 2 ( ∞) =
R
n
2
=
V c 2 1
R 2
1
+
2
cos 2Wc t + 2θ ( t )
[1 + cos(2 a) ]
Potencia promedio de la onda modulada
P=
1 V c
2
=
2 R
V c
2
2 R
watt
Potencia instantánea de la portadora sin modular
PC (t ) =
C2 (t) R
=
Vc 2 cos 2 ( 2π f ct ) R
(2.5) c ( t ) = Vccos (2π f ct )
2
=
V c 1 R2
[1 + cos(4π f ct ) ]
(2.6)
Potencia promedio de la portadora sin modular PC =
V c
2
2 R
watt
(2.7)
Comparando (2) y (4) vemos que la potencia promedio de una señal FM es igual a la noticia promedio de la portadora sin modular. A diferencia de AM, en FM la potencia total es la misma que la potencia de la portadora. En consecuencia,
52
cuando surgen una serie de componentes laterales en el espectro, sus energías resultan de la distribución de la energía de la portadora c(t ) , por eso la componente central baja a medida que se eleva AF. La potencia de una señal FM es independiente de índice de modulación, AF. Forma y potencia del mensaje
DUDA: pareciera que esto no aplica a una señal FM de banda angosta donde A β A β S ( t ) ≈ Ac cos(2π f ct ) + c cos[2π ( f c + f m ) t ] − c cos[2π ( f c − f m ) t] 2 2 Veríamos aquí la energía de la portadora más la energía de 2 componentes laterales.
RTA: lo que pasa es que la formula anterior es una aproximación. Realmente la componente de la portadora baja en la medida que aumenta β . Seria más bien 2 Ac β Ac − = Ac(1 − β ) 2
53
PROBLEMAS PROPUESTOS
1. En el experimento de la moneda justa, se realizan unos ensayos en un tiempo determinado y por medio de estos se obtienen unas funciones muestras de comportamiento de la misma , este proceso aleatorio se define Cara, X (t ) = Sen(π t ) y sello X (t ) = 2t Hallar E [ X (t )] y F ( X , t ) para t=0.25, t=0.5 y t=1
2. Dado un proceso X (t ) con incrementos ortogonales y dado que X (0) = 0 , demuestre que a. R(t 1 , t 2 ) = R(t 1 , t 1 ) para t 1 ≤ t 2 ) b. Si
2
E {[ X (t 1 ) − X (t 2 )] }
=
q t 1 − t 2 ,
ahora
el
proceso
Y (t ) = [ X (t + ε ) − X (t )] / ε es estacionario y su función de auto correlación es un triangulo con área q y base 2ε
3. La entrada a un sistema LTI H ( s ) = estacionario X (t ) con
1 2
es un proceso estocástico
s + 2s + 5 2 E X (t ) = 10 . Hallar S X ( w) tal que la potencia
promedio E Y 2 (t ) de la salida resultante Y (t ) sea máxima Nota: Haga H ( jω ) máximo para ω = 3
4. En la ciudad de Bucaramanga se pretende realizar un estudio de los movimientos telúricos que se presentan diariamente debido a su ubicación en una zona de alta actividad sísmica, estos estudios son realizados en lugares donde se espera obtener mejores datos, pero estas zonas están ubicadas a gran distancia de la central de control sísmico, donde han de realizarse los reportes pertinentes, debido a esta situación la empresa de mediciones lo contrata a usted como ingeniero, con el fin de transmitir los datos precisos, hasta el centro que genera los reportes, los datos que usted recibe de geólogo que mide los fenómenos son : Periodo de cada una de las mediciones tomadas T, E X 2 (t ) = 3π A , donde A es la amplitud promedio de las funciones muestra generadas por medición, se le dice además que este proceso es estacionario debido a estudios realizados por Ingeominas.