UNIVERSIDADE FEDERAL DO CEARÁ CAMPUS DE SOBRAL ENGENHARIA ELÉTRICA ÁLGEBRA LINEAR – TURMA TURMA 01 PROFESSOR: VICENTE JÚLIO CARNEIRO
PRODUTO INTERNO
HÉLIO DANES DE ARAÚJO JÚNIOR MATRÍCULA: 369117 CLAUDIENE DE SOUSA BATISTA MATRÍCULA: 392078 GISLANE DA CONCEICAO GOMES ALCANTARA MATRÍCULA: 385516 BRUNA DOS SANTOS BEZERRA DA SILVA MATRÍCULA: 363989 RAYON LINDRAZ NUNES MATRÍCULA: 378592
Sobral / CE 2017.1
ÍNDICE 1 INTRODUÇÃO ------------------------------------------------------------------------------3 2 COEFICIENTES DE FOURIER --------------------------------------------------------- 4 3 NORMA --------------------------------------------------------------------------------------- 4 4 PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT --------------- 6 5 COMPLEMENTO ORTOGONAL ------------------------------------------------------ 6 6 ESPAÇOS VETORIAIS COMPLEXOS – PRODUTO INTERNO --------------- 6 7 PRODUTO INTERNO E ESTATÍSTICA ---------------------------------------------- 7 8 O AJUSTE DE CURVAS E O MÉTODO DOS MÍNIMOS QUADRADOS ---- 9
2
1. INTRODUÇÃO: 1.1 Definição: Seja V um espaço vetorial sobre o corpo K. Um produto interno em V é uma função 〈. , . 〉= V * V → R que satisfaz as propriedades abaixo para quaisquer vetores u, v e w de V e qualquer número real k. i. ii. iii. iv. v.
〈v, v〉≥ 0; 〈v, v〉= 0 se, e somente se, v= 0; 〈u, v〉=〈v, u〉; 〈u + v, w〉=〈u, w〉+〈v, w〉; 〈k u, v〉= k 〈u, v〉.
Um espaço vetorial com um produto interno é chamado, abreviadamente, de espaço com produto interno. O produto interno é usado para caracterizar a noção de perpendicularismo ou ortogonalidade de vetores.
1.2 Definição: Seja V um espaço vetorial com produto interno 〈. , . 〉. Diz - se que dois vetores v e w de V são ortogonais (em relação a este produto interno) se 〈v, w〉= 0. Nesse caso, escrevemos v w.
⊥
⊥⊥ ∈ ⊥ ⊥⊥ ⊥ ∈ ⊥ ⊥ ⊥
Assim: i. 0 v para todo v V; ii. v w implica que w v; iii. Se v w para todo w v, então v=0; iv. Se v1 w e v2 w, então v1+v2 w; v. Se v w e K é um escalar, K v w.
A noção de ortogonalidade tem uma aplicação interessante na verificação da “honestidade” de apostas. 1.3 Relação entre ortogonalidade e independência linear Teorema: Seja {v1, v2, ..., vn} um conjunto de vetores não nulos, dois a dois ortogonais, isto é, 〈vi, v j〉= 0 para i ≠ j. Então {v1, ..., vn} é
linearmente independente.
Provando: Seja a1v1 +a2v2 + ...+anvn = 0. Fazendo o produto interno dos dois membros da igualdade acima por vi, temos: 〈a1v1 + ... + a nvn, vi〉= 〈0, vi〉 E, portanto, a1〈v1, vi〉+ ... + ai〈vi,vi〉+ an〈vn, vi〉= 0. Como 〈v j, vi〉= 0 para j ≠i e 〈vi, vi〉≠ 0, temos ai〈vi, vi〉= 0 e assim a i= 0. Como isto vale para todo i=1, ..., n, temos a 1= 0, ..., an = 0; Logo {v1, ..., vn} é LI. Definição 3: Diz-se que uma base {v 1, ..., vn} de V é base ortogonal se 〈vi, v j〉= 0 para i ≠ j, isto é, os vetores da base são dois a dois ortogonais.
3
2. COEFICIENTES DE FOURIER Bases ortogonais são importantes porque existe um procedimento padrão para se encontrar as coordenadas de um vetor qualquer em relação a elas. Seja V um espaço vetorial com produto interno〈 , 〉, β = {v 1, ... , vn} uma base ortogonal de V e w um vetor qualquer de V. Vamos calcular as coordenadas de w em relação a β. Sabemos que w = x 1v1 + x2v2 + ... +xnvn e queremos determinar a i-ésima coordenada x i. Para isto, façamos o produto interno dos dois membros da igualdade acima por v i. Então 〈w, vi〉= xi〈vi, vi〉. Donde xi = 〈w, v i〉/〈vi, v i〉. Esta coordenada é chamada coeficiente de Fourier de w em relação a v i. Em outras palavras, coeficientes de Fourier é uma maneira mais fácil do que sistemas para encontrar os coeficientes de bases ortogonais.
3. NORMA
√ ,
3.1 Definição: Temos que V seja um espaço vetorial com produto interno < , >. Definimos a norma (ou comprimento) de um vetor v em relação a este produto interno por ||v|| = . Se ||v|| = 1, ou seja, < v, v> = 1, v será chamado de vetor unitário. Como também, o vetor v será considerado normalizado. Vemos que todo vetor não nulo v V pode ser normalizado, tornando . Portanto, para cada elemento v V associa um número real ||v||, que possui
||
∊
determinadas propriedades. (a) (b) (c) (d)
∊
∊ ∈ ∊ ≤ ⃗ 1 2√ 1 (41)1 √ 6 || ²(+²,,+−()−)² √ √ √ −
Positividade: ||u|| > 0 para u ≠ 0v, com ||u|| = 0 ↔ u = 0v. Homogeneidade: || λu || = |λ | ||u|| para todo u V, λ IF. Desigualdade Triangular: || u+v || ≤ ||u|| + ||v|| para todos u, v V. Desigualdade de Schwarz: |< u, v >| ||u|| ||v||.
Exemplo: Temos que um vetor = (1, 2, -1), a fim de o normalizar. Primeiramente, vamos calcular a norma do vetor, tendo que: ||a|| =
||a|| =
||a|| =
Assim, continuamos para realizar a normalização do vetor: =
= (
,
,
)
Exemplo: Agora vamos calcular a força de atração entre dois corpos com 2 e 5 unidades de massa, nos pontos (1,3,5) e (2,1,0), respectivamente. Sabemos que a intensidade da atração é dada por: , onde m1 é a massa do primeiro corpo, m2 é a massa do segundo corpo e d² é a distância entre eles. Primeiramente, para calcular a distância, devemos subtrair os dois vetores:
+ ²
d² = (2,1,0) – (1,3,5) = (1,-2,-5).
4
+ . |,−,∙ −| ()+(−)+(−) || ²+(−− −− − − +(−)² √ √ √ √ − ) √ √ − √ − √ 30 − √ 30 , − √ 30
Aplicando em
=
Substituímos em Em F =
=
= . Logo, F =
=
, temos que (
,
=
,
)=(
= (
,
,
,
).
).
3.2 Ângulo entre dois vetores
∈
∈
Seja V um espaço vetorial real com produto interno < · , · >. O ângulo entre dois elementos não-nulos u, v V é definido como sendo o valor θ [0, π] que satisfaz a equação: cos (θ) = .
<, > || ||
Exemplo: Sejam V = M (2, 2), as matrizes quadradas de ordem 2 reais e o produto interno dado pela expressão, comprove que realmente é um produto interno.
〈 〉 , 〈 ℎ〉 〈10 11 , 12 11〉 10 11 √ 4 21 11 1 0. √ √ 10
Temos que:
= ae + 2bf + 3cg + dh.
Assim, calculamos o ângulo entre as matrizes Apenas da primeira matriz: logo
= 2 -2 + 0 + 1 = 1.
1 + 2 + 0 + 1 = 4. Observe que está em módulo,
= 2.
Apenas da segunda matriz:
Portanto, arccos θ =
= 4 + 2 + 3 + 1 = 10. Assim,
.
3.3 Definição: Seja V um espaço vetorial com o produto interno. Dizemos que uma base {v1, ..., vn} de V é ortonormal se for ortogonal e cada vetor for unitário, ou seja,
〈,〉 {01 ≠ =
Observe também que se tivermos uma base ortonormal um vetor u são dados por: xi =
<,<,>>
{v1, ..., vn}, os coeficientes xi de
= .
5
4. PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT Bases ortonormais são úteis, mas como obtê-las? Partindo-se de uma base qualquer de um subespaço, não é difícil construir uma base ortogonal (ou ortonormal) para o mesmo subespaço. A partir de uma base = {v , v }. Logo, v’ = v . Assim, a partir de v encontramos um novo . Portanto, v’ = v e vetor v ortogonal a v’ . Tomamos que v’ = v – cv’ . Onde c =
₁ ₂ ₁ ₁ ₂ ₁ ₂ ₂ ₁ ₂ ₂ <′<₂₁,,′′₁₁>> ₁ ₁₂ ₁ ₂ ₁ ₁ ₂ ₂ ₁₂ ∙∙₁₁ ∙ ₁ ₂∙ ₁ ∙ ₁∙ ₁ ∙ ₂ ∙ (1, 0) (1, 1) (1, 0) (0, 1).
v’ = v -
v’ .
<₂<′₁,,′′₂₁₁>>
₁₁
Exemplo: ={v , v }, base de R², onde v = (1, 0) e v = (1, 1). Através do Processo de GramSchmidt iremos obter uma base ortonormal do R². 1º - Base Ortogonal: w = v = (1, 0) 2º - w = v –
Mas, v w = (1, 1) (1, 0) = 1 e w w = (1, 0) (1, 0) = 1. Então, w = (1, 1) –
Logo,
{₂₁ ((1,1,10))
.
5. COMPLEMENTO ORTOGONAL
⟨⟩
Definição: Tomemos um espaço vetorial V munido de um produto interno , e um subconjunto S (não necessariamente um subespaço) de V. Teremos que S┴ será, em todos os casos, um subespaço de V. Onde:
⟨⟩
∈
S┴= {v e V | v,w =0 para todo w S} Em relação a S, podemos afirmar que:
) S┴ é chamado de complemento ortogonal de S e sempre será subespaço de V (mesmo quando S não o for); ⅰ
ⅱ)
⊕
Se S for um subespaço de V, temos que V=S S┴ .
6. ESPAÇOS VETORIAIS COMPLEXOS – PRODUTO INTERNO Este tópico tem a função de ressaltar algumas diferenças entre o produto interno de um espaço vetorial normal e de um espaço vetorial complexo, vejamos:
⟨⟩
⟨⟩
Dado um espaço vetorial V sobre C, munido de um produto interno , . Se tivéssemos um v não nulo de V, para calcular o produto w,w onde w=iv, percebemos que não seriam atendidas as seguintes condições do tópico 1 da definição de um produto interno sobre um espaço vetorial real V
⟨⟩
i) v,v ≥0 para todo v
6
⟨ ⟩⟨ ⟩
iv) v,w = w,v para quaisquer v, w. Desta forma, é necessária uma definição específica para espaços vetoriais complexos.
Definição: Seja V um espaço vetorial complexo, um produto interno sobre V, é dado pela seguinte aplicação:
⟨⟩ ⟨ ⟩ ⟨⟨ ⟩ ⟩ ⟨ ⟩ ∈ ⟨ ∈ ⟩ ∈ ⟨⟨ ⟩ ⟩ ⟨ ⟩ ⟨⟨ ⟩ ⟩ ∈ ∈ , : VxV → C
(u,v) → u,v
satisfazendo as condições:
i) v,v ≥0 para todo v V e v,v =0 se, e somente se, v=0; ii) αu,v =α u,v , para todo a C e u,v V;
iii) u1+u2, v = u1,v + u2,v para todo u1,u2 e v V; iv) u,v = conjulgado de v,u para todo u,v V.
7. PRODUTO INTERNO E ESTATÍSTICA Seja S um fenômeno que possui n possibilidades distintas S 1, S2, ..., Sn cada evento possui uma probabilidade distinta p1, p2, ..., pn. O conjunto S = {S 1, ..., Sn}é denominado espaço amostral e p = (p1, ..., pn) é chamado vetor de probabilidades. Ex.1: Ao lançar uma moeda o espaço amostral seria o conjunto de todas as possibilidades que o evento têm de ocorrer, neste caso S = {cara, coroa} e o vetor de probabilidades seria dado por p = (1/2, 1/2). Então é possível associar uma um vetor p n a cada elemento Si (i=0; n), teremos entao um vetor X = (X1, X2, ..., Xn) que será chamado variável aleatória. Ex. 2: Se duas pessoas A e B fazem a seguinte aposta: lançam uma moeda e se der cara, A ganhará 10 fichas, se der coroa, B ganhará 10 fichas. Então S = {cara, coroa}, p = (1/2, 1/2) a variavel aleatoria A = (A1, A2) = (10, -10); Ja B = (B1, B2) = (-10, 10). Podemos definir o valor médio a partir do valor esperado de do vetor x como:
e a variância como:
¯ () ∑= ( )
7
E o desvio padrão:
∑= ( ¯) ∑= ( ¯)
A ligação destes conceitos com o produto interno é feita através da seguinte equação
[(, , . . , ), (, , . . , )] .. ¯ [ ( ) ] 1 , . . , 1 [ ¯([ 1,. .,¯1()1, ,. .,1¯)(]1,. .,1)] ¯¯ ∃¯∈(1ℝ,. .,1) ( ( ¯,¯., .. ,., ¯)¯ ) ( ¯ (1¯,,.. ..,1, ) (¯) ¯, . . , ¯) ±1 Com isso podemos definir as seguintes relações a este produto interno
Consideremos agora um fenômeno associado a um espaço amostral S e o vetor probabilidade p e duas observaçoes são feitas por duas variáveis aleatórias diferentes X e Y. Podemos expressar com um escalar λ, tal que: a relação entre Sejam:
e
se
tal que
Podemos chegar a conclusão que X e Y estão relacionados por λ, falando de vetores, um escalar .Então se as mantem os dois vetores na mesma direção, ou seja θ = 0 ou π, portanto duas retas estão na mesma direção, cos θ = 1 e a relação é diretamente proporcional, caso as retas estejam em direções opostas cos θ = -1 e a relação é inversamente proporcional, caso os dois vetores sejam L.I. λ = 0 e portanto os vetores são ortogonais e não possuem correl ação. A este coeficiente λ se dá o nome de coeficiente de correlação linear denotado por r(X,Y) aplicando a lei dos cossenos entre os dois vetores, temos:
¯ ¯ [ ( ) 1 , . . , 1 , ( , ) ‖ ¯(1,. .,1)‖ ⋅ ‖ (¯1(,1. ,..,1.,)1])‖
Portanto, quanto mais r(X,Y) se aproxima de ±1, mais X e Y estão linearmente correlacionados
Ex.3: Um grupo de 10 alunos com as seguintes notas de matemática e física:
8
Aluno Notas Mat Fis
1 2 1
2 8 9
3 5 7
4 7 2
5 7 7
6 5 4
7 3 6
8 1 3
9 9 9
10 9 7
Qual a correlação entre os resultados das matérias? S.
Seja S= {1,2, …, 10}, tomamos uma probabilidade igual de se considerar as notas de qualquer aluno então p1->10 = (1/10, …, 1/10) então podemos definir X=(2,8,5,8,7,7,5,3,1,9,9) e Y= (1,9,7,2,7,4,6,3,9,7) e
¯ 5,¯(61,.¯. ,1)5, 5 (3,6;2,4;0,6;. .;4,6;3,4;3,4) ¯([ 1,..,1¯()1 ,. (.,14,),5;3,5¯;(11,5,.;..,.1;)]2, 54,;39,5;1,5) ‖ ¯(1,. .,1)‖ 7,4; ‖ ¯(1,. .,1)‖ 7,2 ( , ) 0,67
Portanto temos o coeficiente de correlação
8. O AJUSTE DE CURVAS E O MÉTODO DOS MÍNIMOS QUADRADOS 8.1 Introdução : Consideremos uma coleção de pares ordenados obtidos em função de algum tipo de experimento, como: x
x1
x2
x3
x4
x5
...
xn-1
xn
y
y1
y2
y3
y4
y5
...
yn-1
yn
Tabela 8.1
A colocação destes pares ordenados num plano cartesiano, depende dos valores de xi e yi, (i=1...n) e pode fornecer um gráfico como:
9
Um fato que atrai pesquisadores aplicados das mais diversas áreas é a possibilidade de obter uma função real que passe nos pontos ou pelo menos passe próximo dos pontos (xi,yi) dados. Estudando uma Matemática mais aprofundada existe a Teoria de Interpolação que é a área que estuda tais processos para obter funções que passam exatamente pelos pontos dados, enquanto que a Teoria de Aproximação estuda processos para obter funções que passem o mais próximo possível dos pontos dados. É óbvio que se pudermos obter funções que passem próximas dos pontos dados e que tenham uma expressão fácil de ser manipulada, teremos obtido algo positivo e de valor científico. Dentre os processos matemáticos que resolvem tal problema, com certeza, um dos mais utilizados é o Método dos Mínimos Quadrados, que serve para gerar o que se chama em Estatística: Regressão Linear ou Ajuste Linear.
8.2 O Método dos Mínimos Quadrados As curvas mais comuns utilizadas pelos estatísticos são: Ordem 1 2 3 4
Função y = a0 + a1 x y = a0 + a1 x + a2 x² y = a0 + a1 x + a2 x² + a3 x³ y = a0 + a1 x + a2 x² + a3 x³ + a4 x4
Nome Reta Parábola Cúbica Quártica
Tabela 8.2
A ideia básica para qualquer uma das funções acima citadas é tentar descobrir quais são os valores dos coeficientes a 0, a1, a2 e a 3, de tal modo que a soma dos quadrados das distâncias (tomadas na vertical) da referida curva y = f(x) a cada um dos pontos dados (y i) seja a menor possível, daí o nome Método dos Mínimos Quadrados. Observe as funções tabeladas: x
x1
x2
x3
x4
x5
...
xn-1
xn
f(x)
f(x1)
f(x2)
f(x3)
f(x4)
f(x5)
...
f(xn-1)
f(xn)
Se os valores da variável independente x 1, x2, x3, ..., xn são sempre os mesmos, cada uma dessas funções podem ser consideradas como um vetor de um espaço vetorial. Suponhamos que conhecemos o aspecto analítico de duas funções g 1 (x) e g2 (x) e queremos “aproximar” uma dada função f(x) por uma combinação linear de g1 (x) e g2 (x), isto é, queremos achar coeficientes c 1 e c2 tais que a função g(x) = c1g1 (x) + c2g2 (x)
seja uma “boa aproximação” para f(x). Por exemplo, se g 1 (x) = 1 e g2 (x) = x, estaremos aproximando f(x) por uma função afim g(x) = c 1 + c2 x. E se g 1 (x) = sen x e g 2 (x) = cos x estaremos aproximando por g(x) = c 1 sen x + c 2 cos x.
10
8.3 Exemplo: Ajustar uma função do tipo g(x) = a + bx aos pontos da tabela: x 0 1 f(x) 1,1 0,1
2 -3,1
Tabela 8.3
Temos g(x) = a * 1 + b * x², ou seja, g 1(x) = 1 e g2 (x) = x². Então < g1 , g1 > = 1 * 1 + 1 * 1 + 1 * 1 = 3 < g1 , g2 > = < g 2 , g1 > = 1 * 0² + 1 * 1² + 1 * 2² = 5 < g2 , g2 > = 0² * 0² + 1² * 1² + 2² * 2² = 17 < g1 , f > = 1 * 1,1 + 1 * 0,1 + 1 * (-3,1) = -1,9 < g2 , f > = 0² * 1,1 + 1² * 0,1 + 2² * (-3,1) = -12,3
{5 3175 1,12,93
Daí, Resolvendo temos a ≈ 1,12 e b ≈ -1,05. Portanto, entre as funções do tipo a + bx² a que melhor se ajusta aos dados da tabela é 0,912 – 0,927x².
11