Eis um fato interessante que eu e Gabriel descobrimos quando estudávamos Álgebra Linear:
Sejam distintos dois a dois e não nulos. Então é linearmente independente sobre .
Por mais entediante que possa parecer, a demonstração deste resultado envolveu uma certa criatividade por nossa parte [*]. Vamos à ela:
Suponha que esses vetores são linearmente dependentes, isto é, existem , não todos nulos, satisfazendo
Sem perda de generalidade [**] (veja as notas depois da demonstração), podemos assumir . Assim, dividindo a equação acima por e renomeando os coeficientes, teremos
Escrevendo em forma matricial,
Dividindo cada linha i por , para , temos
Portanto, queremos saber se este sistema possui solução. O truque todo está aqui. Considere a matriz aumentada
Se esta matriz for invertível, podemos transformá-la na matriz identidade por uma sequência finita de operações elementares em suas linhas. Porém, se isto acontecer, nosso sistema será equivalente à
E isto é absurdo (basta olhar a primeira linha). Portanto, só nos resta mostrar que A é invertível. Para ver isso, basta notar que A é uma matriz de Vandermonde e seu determinante é dado por
Que é, claramente, diferente de zero. E portanto, A é invertível.
Até.
Notas:
[*] Depois, descobrimos que há uma solução bem mais fácil (utilizando raízes de polinômios) para este problema. Será que você consegue descobrir?
[**] Eu poderia ter começado a demonstração de uma forma diferente (esta, na realidade, foi a solução original, apesar de existirem outras um pouco melhores), mas já que fiz assim, vamos explicar. Note que se fosse nulo, faríamos algo análogo, só que isolaríamos um vetor com um coeficiente não nulo. Seguindo a demonstração, isso resultaria em uma matriz de Vandermonde com alguma linha permutada. O que não é problema pois isso só alteraria o seu determinante por um sinal negativo.
Sejam distintos dois a dois e não nulos. Então é linearmente independente sobre .
Por mais entediante que possa parecer, a demonstração deste resultado envolveu uma certa criatividade por nossa parte [*]. Vamos à ela:
Suponha que esses vetores são linearmente dependentes, isto é, existem , não todos nulos, satisfazendo
Sem perda de generalidade [**] (veja as notas depois da demonstração), podemos assumir . Assim, dividindo a equação acima por e renomeando os coeficientes, teremos
Escrevendo em forma matricial,
Dividindo cada linha i por , para , temos
Portanto, queremos saber se este sistema possui solução. O truque todo está aqui. Considere a matriz aumentada
Se esta matriz for invertível, podemos transformá-la na matriz identidade por uma sequência finita de operações elementares em suas linhas. Porém, se isto acontecer, nosso sistema será equivalente à
E isto é absurdo (basta olhar a primeira linha). Portanto, só nos resta mostrar que A é invertível. Para ver isso, basta notar que A é uma matriz de Vandermonde e seu determinante é dado por
Que é, claramente, diferente de zero. E portanto, A é invertível.
Até.
Notas:
[*] Depois, descobrimos que há uma solução bem mais fácil (utilizando raízes de polinômios) para este problema. Será que você consegue descobrir?
[**] Eu poderia ter começado a demonstração de uma forma diferente (esta, na realidade, foi a solução original, apesar de existirem outras um pouco melhores), mas já que fiz assim, vamos explicar. Note que se fosse nulo, faríamos algo análogo, só que isolaríamos um vetor com um coeficiente não nulo. Seguindo a demonstração, isso resultaria em uma matriz de Vandermonde com alguma linha permutada. O que não é problema pois isso só alteraria o seu determinante por um sinal negativo.
2 comentários:
Essa dupla dinâmica juntos estão rendendo vários post's =p
Entendi tudinho :D
Resultado legal.
Quem quiser pode tentar calcular a condição pra eles serem LD, não é difícil =P
Postar um comentário