next up previous contents
Seguinte: Um resultado de factorização Acima: Operações matriciais Anterior: Transposição   Conteúdo

Invertibilidade

Uma matriz $ A$ quadradada de ordem $ n$ diz-se invertível se existir uma matriz $ B$, quadrada de ordem $ n$, para a qual

$\displaystyle AB=BA=I_n.$

Teorema 2.2.2   Seja $ A \in \mathcal{M}_{n}\left( {\mathbb{K}}\right)$. Se existe uma matriz $ B \in \mathcal{M}_{n}\left( {\mathbb{K}}\right)$ tal que $ AB=BA=I_n$ então ela é única.

Se $ B$ e $ B'$ são matrizes quadradas, $ n\times n$, para as quais

$\displaystyle AB=BA=I_n=AB'=B'A$

então

$\displaystyle B'=B'I_n=B'(AB)=(B'A)B=I_nB=B.$

A matriz $ B$ do teorema, caso exista, diz-se a inversa de $ A$ e representa-se por $ A^{-1}$.

Por exemplo, a matriz $ S=\left[\begin{array}{cc}1&0 1&0\end{array}\right]$ não é invertível. Por absurdo, suponha que existe $ T$, de ordem 2, tal que $ ST=I_2=TS$. A matriz $ T$ é então da forma $ \left[\begin{array}{cc} x&y z&w\end{array}\right]$. Ora $ ST=\left[\begin{array}{cc} x &y x&y\end{array}\right]$, que por sua vez iguala $ I_2$, implicando por sua vez $ x=1$ e $ y=0$, juntamente com $ x=0$ e $ y=1$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Considere a matriz real de ordem 2 definida por $ A=\left[\begin{array}{cc}1&2 2&3 \end{array}\right]$. Esta matriz é invertível. Mais adiante, forneceremos formas de averiguação da invertibilidade de uma matriz, bem como algoritmos para calcular a inversa. Por enquanto, deixemos o Octave fazer esses cálculos, sem quaisquer justificações:

> A=[1,2;2,3];
> X=inv(A)
X =

  -3   2
   2  -1
Ou seja, $ A^{-1}=\left[\begin{array}{cc} -3 & 2\\
2 & -1\end{array}\right]$. Façamos a verificação de que $ AX=XA=I_2$:
> A*X
ans =

  1  0
  0  1

> X*A
ans =

  1  0
  0  1
Uma forma um pouco mais rebuscada é a utilização de um operador boleano para se aferir da veracidade das igualdades. Antes de nos aventurarmos nesse campo, e sem pretender deviarmo-nos do contexto, atribua a $ a$ e a $ b$ os valores $ 2$ e $ 3$, respectivamente:
> a=2;b=3;
Suponha agora que se pretende saber se os quadrados de $ a$ e de $ b$ são iguais. Em linguagem matemática, tal seria descrito por $ a^2=b^2$. Como é óbvio, no Octave tal seria sujeito de dupla significação: o símbolo = refere-se a uma atribuição à variável ou parte de uma proposição? Como vimos anteriormente, = tem sido repetidamente usado como símbolo de atribuição (como por exemplo em a=2); se se pretende considerar = enquanto símbolo de uma proposição, então usa-se ==. O resultado será 1 se a proposição é verdadeira e 0 caso contrário. Por exemplo,
> a^2==b^2
ans = 0
> a^2!=b^2
ans = 1
Usou-se2.1 != para indicar $ \ne$.

Voltemos então ao nosso exemplo com as matrizes. Recorde que se pretende averiguar sobre a igualdade $ AX=I_2$. O Octave tem uma função pré-definida que constrói a matriz identidade de ordem $ n$: eye(n). Por exemplo, a matriz $ I_3$ é obtida com

> eye(3)
ans =

  1  0  0
  0  1  0
  0  0  1

Portanto, a verificação de $ AX=I_2$ é feita com:

> A*X==eye(2)
ans =

  1  1
  1  1
A resposta veio em forma de tabela $ 2\times 2$: cada entrada indica o valor boleano da igualdade componente a componente. Suponha que as matrizes têm ordem suficientemente grande por forma a tornar a detecção de um 0 morosa e sujeita a erros. Uma alternativa será fazer
> all(all(A*X==eye(2)))
ans = 1

Teorema 2.2.3   Dadas duas matrizes $ U$ e $ V$ de ordem $ n$, então $ UV$ é invertível e

$\displaystyle \left(UV \right)^{-1} = V^{-1} U^{-1}.$

Como

$\displaystyle \left(UV \right) \left(V^{-1} U^{-1} \right)=U \left(VV^{-1} \right) U^{-1}=UI_n U^{-1}=UU^{-1}=I_n$

e

$\displaystyle \left(V^{-1} U^{-1} \right)\left(UV \right)=V^{-1} \left(U^{-1} U\right) V=V^{-1}I_n V=V^{-1}V=I_n,$

segue que $ UV$ é invertível e a sua inversa é $ V^{-1} U^{-1}$.

Ou seja, o produto de matrizes invertíveis é de novo uma matriz invertível, e iguala o produto das respectivas inversas por ordem inversa.

Duas matrizes $ A$ e $ B$, do mesmo tipo, dizem-se equivalentes, e denota-se por $ A\sim B$, se existirem matrizes $ U,V$ invertíveis para as quais $ A=UBV$. Repare que se $ A\sim B$ então $ B\sim A$, já que se $ A=UBV$, com $ U,V$ invertíveis, então também $ B=U^{-1}AV^{-1}$. Pelo teorema anterior, se $ A\sim B$ então $ A$ é invertível se e só se $ B$ é invertível.

As matrizes $ A$ e $ B$ são equivalentes por linhas se existir $ U$ invertível tal que $ A=UB$. É óbvio que se duas matrizes $ A$ e $ B$ são equivalentes por linhas, então são equivalentes, ou seja, $ A\sim B$.

Se uma matriz $ U$ for invertível, então a sua transposta $ U^T$ também é invertível e $ \left(U^T \right)^{-1} = \left(U^{-1} \right) ^T$. A prova é imediata, bastando para tal verificar que $ \left(U^{-1} \right) ^T$ satisfaz as condições de inversa, seguindo o resultado pela unicidade.

Segue também pela unicidade da inversa que

$\displaystyle \left(A^{-1}\right)^{-1}=A,$

isto é, que a inversa da inversa de uma matriz é a própria matriz.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Façamos a verificação desta propriedade com a matriz $ A=\left[\begin{array}{cc} 1&2 4&3\end{array}\right]$:

> B=A';
> inv(A')==(inv(A))'
ans =

  1  1
  1  1

Vimos, atrás, que o produto de matrizes triangulares inferiores [resp. superiores] é de novo uma matriz triangular inferior [resp. superior]. O que podemos dizer em relação à inversa, caso exista?

Teorema 2.2.4   Uma matriz quadrada triangular inferior [resp. superior] é invertível se e só se tem elementos diagonais não nulos. Neste caso, a sua inversa é de novo triangular inferior [resp. superior].

Antes de efectuarmos a demonstração, vejamos a que se reduz o resultado para matrizes (quadradas) de ordem de 2, triangulares inferiores. Seja, então, $ L=\left[\begin{array}{cc} a_{11} &0  a_{21} &a_{22}\end{array}\right]$, que assumimos invertível. Portanto, existem $ x,y,z,w\in {\mathbb{K}}$ para os quais $ I_2=L\left[\begin{array}{cc} x&y z &w\end{array}\right]$, donde segue, em particular, que $ a_{11}x=1$, e portanto $ a_{11}\ne 0$ e $ x=\frac{1}{a_{11}}$. Assim, como $ a_{11}y=0$ e $ a_{11}\ne 0$ tem-se que $ y=0$. Ou seja, a inversa é triangular inferior. Como $ y=0$, o produto da segunda linha de $ L$ com a segunda coluna da sua inversa é $ a_{22}w$, que iguala $ (I)_{22}=1$. Portanto, $ a_{22}\ne 0$ e $ w=\frac{1}{a_{11}}$. O produto da segunda linha de $ L$ com a primeira coluna da sua inversa é $ a_{21}\frac{1}{a_{11}}+a_{22}z$, que iguala $ (I)_{21}=0$. Ou seja, $ z=-\frac{a_{21}}{a_{11}a_{22}}$.

A prova é feita por indução no número de linhas das matrizes quadradas.

Para $ n=1$ o resultado é trivial. Assuma, agora, que as matrizes de ordem $ n$ triangulares inferiores invertíveis são exactamente aquelas que têm elementos diagonais não nulos. Seja $ A=[a_{ij}]$ uma matriz triangular inferior, quadrada de ordem $ n+1$. Particione-se a matriz por blocos da forma seguinte:

$\displaystyle \left[\begin{array}{c\vert c}a_{11} &O \hline b &\widetilde A\end{array}\right],$

onde $ b$ é $ n\times 1$, $ O$ é $ 1\times n$ e $ \widetilde A$ é $ n\times n$ triangular inferior.

Por um lado, se $ A$ é invertível então existe $ \left[\begin{array}{c\vert c}x &Y \hline Z & W\end{array}\right]$ inversa de $ A$, com $ x_{1\times 1}, Y_{1\times n},Z_{n\times 1}$, $ W_{n\times n}$. Logo $ a_{11}x=1$ e portanto $ a_{11}\ne 0$ e $ x=\frac{1}{a_{11}}$. Assim, como $ a_{11}Y=0$ e $ a_{11}\ne 0$ tem-se que $ Y=0$. O bloco $ (2,2)$ do produto é então $ \widetilde A W$, que iguala $ I_n$. Sabendo que $ \left[\begin{array}{c\vert c}x &Y \hline Z & W\end{array}\right]\left[\begin...
...ay}\right]=\left[\begin{array}{c\vert c} 1 &0 \hline 0 &I_n\end{array}\right]$, tem-se que também $ W\widetilde A=I_n$, e portanto $ \widetilde A$ é invertível, $ n\times n$, com $ ( \widetilde A)^{-1}=W$. Usando a hipótese de indução aplicada a $ \widetilde A$, os elementos diagonais de $ \widetilde A$, que são os elementos diagonais de $ A$ à excepção de $ a_{11}$ (que já mostrámos ser não nulo) são não nulos.

Reciprocamente, suponha que os elementos diagonais de $ A$ são não nulos, e portanto que os elementos diagonais de $ \widetilde A$ são não nulos. A hipótese de indução garante-nos a invertibilidade de $ \widetilde A$. Basta verificar que $ \left[\begin{array}{c\vert c} \frac{1}{a_{11}} &0 \hline -\frac{1}{a_{11}}\widetilde A^{-1}b &\widetilde A^{-1}\end{array}\right]$ é a inversa de $ A$.

Para finalizar esta secção, e como motivação, considere a matriz $ V=\left[\begin{array}{cc}0&1 -1&0\end{array}\right]$. Esta matriz é invertível, e $ V^{-1}=V^T$ (verifique!). Este tipo de matrizes denominam-se por ortogonais. Mais claramente, uma matriz ortogonal é uma matriz (quadrada) invertível, e cuja inversa iguala a sua transposta. De forma equivalente, uma matriz $ A$ invertível diz-se ortogonal se $ AA^T=A^TA=I$.

Teorema 2.2.5  
  1. A inversa de uma matriz ortogonal é também ela ortogonal.
  2. O produto de matrizes ortogonais é de novo uma matriz ortogonal.

$ (1)$ Seja $ A$ uma matriz ortogononal, ou seja, para a qual a igualdade $ A^T=A^{-1}$ é válida. Pretende-se mostrar que $ A^{-1}$ é ortogonal; ou seja, que $ \left(A^{-1}\right)^{-1}=\left(A^{-1}\right)^T$. Ora $ \left(A^{-1}\right)^T=\left(A^{T}\right)^{-1}=\left(A^{-1}\right)^{-1}$.

$ (2)$ Sejam $ A,B$ matrizes ortogonais. Em particular são matrizes invertíveis, e logo $ AB$ é invertível. Mais,

$\displaystyle \left( AB \right)^{-1}=B^{-1}A^{-1}=B^TA^T=\left(AB \right)^T.$

Impõe-se aqui uma breve referência aos erros de arredondamento quando se recorre a um sistema computacional numérico no cálculo matricial. Considere a matriz $ A=\left[\begin{array}{cc}\frac{\sqrt{2}}{2}&\frac{\sqrt{2}}{2}\\
-\frac{\sqrt{2}}{2} &\frac{\sqrt{2}}{2}\end{array}\right]$. A matriz é ortogonal já que $ AA^T=A^TA=I_2$. Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Definamos a matriz $ A$ no Octave:

> A=[sqrt(2)/2 sqrt(2)/2; -sqrt(2)/2 sqrt(2)]
A =

   0.70711   0.70711
  -0.70711   1.41421
Verifique-se se $ AA^T=A^TA$:
> all(all(A*A'==A'*A))
ans = 0
A proposição é falsa! Calcule-se, então, $ AA^T-A^TA$:
> A*A'-A'*A
ans =

    0.0000e+00   -8.5327e-17
   -8.5327e-17    0.0000e+00
É premente alertar para o facto de erros de arredondamento provocarem afirmações falsas. Teste algo tão simples como
> (sqrt(2))^2==2

A transconjugada de $ A$ é a matriz $ A^*=\bar{A}^T$. Ou seja, $ (A^*)_{ij}=\overline{(A)_{ji}}$. Esta diz-se hermítica (ou hermitiana) se $ A^*=A$.

Sejam $ A,B$ matrizes complexas de tipo apropriado e $ \alpha \in {\mathbb{C}}$. Então

  1. $ \left(A^* \right) ^*=A$;
  2. $ \left( A+B \right)^* =A^* + B^*$;
  3. $ \left( \alpha A \right)^*= \bar \alpha A^*$;
  4. $ \left(AB \right) ^*=B^* A^*$;
  5. $ \left(A^n\right)^*= \left(A^* \right) ^n$, para $ n \in {\mathbb{N}}$;

A prova destas afirmações é análoga à que apresentámos para a transposta, e fica ao cuidado do leitor.

Uma matriz unitária é uma matriz (quadrada) invertível, e cuja inversa iguala a sua transconjugada. De forma equivalente, uma matriz $ A$ invertível diz-se unitária se $ AA^*=A^*A=I$.

Teorema 2.2.6  
  1. A inversa de uma matriz unitária é também ela unitária.
  2. O produto de matrizes unitárias é de novo uma matriz unitária.

Remetemos o leitor ao que foi referido no que respeitou as matrizes ortogonais para poder elaborar uma prova destas afirmações.


next up previous contents
Seguinte: Um resultado de factorização Acima: Operações matriciais Anterior: Transposição   Conteúdo
Pedro Patricio 2008-01-08