next up previous contents
Seguinte: Teorema de Laplace Acima: Determinantes Anterior: Definição   Conteúdo

Propriedades

São consequência da definição os resultados que de seguida apresentamos, dos quais omitimos a demonstração.

Teorema 2.4.2   Seja $ A$ uma matriz quadrada.
  1. Se $ A$ tem uma linha ou uma coluna nula então $ \vert A\vert=0$.
  2. $ \vert A\vert=\vert A^T\vert$.
  3. Se $ A$ é triangular (inferior ou superior) então $ \vert A\vert=\displaystyle\prod_{i=1,\dots,n} (A)_{ii}$.
  4. $ \vert P_{ij}\vert=-1,\vert D_k(a)\vert=a,\vert E_{ij}(a)\vert=1,$ com $ i \ne j$.

Daqui segue que $ \vert I_n\vert=1$. Segue também que dada uma matriz tringular (inferior ou superior) que esta é invertível se e só se tiver determinante não nulo. Mais adiante, apresentaremos um resultado que generaliza esta equivalência para matrizes quadradas não necessariamente triangulares.

Teorema 2.4.3   Dada uma matriz $ A$ quadrada, $ a \in {\mathbb{K}}$,
  1. $ \vert D_i(a)A\vert=a\vert A\vert=\vert AD_i(a)\vert$;
  2. $ \vert P_{ij}A\vert=\vert AP_{ij}\vert=-\vert A\vert$;
  3. $ \vert E_{ij}(a)A\vert=\vert A\vert=\vert AE_{ij}(a)\vert$.

Como $ \vert D_i(A)\vert=a,\vert P_{ij}\vert=-1$ e $ \vert E_{ij}(a)\vert=1$, segue que $ \vert D_i(a)A\vert=\vert D_i(a)\vert\vert A\vert$, $ \vert P_{ij}A\vert=\vert P_{ij}\vert\vert A\vert$ e que $ \vert E_{ij}(a)A\vert=\vert E_{ij}(a)\vert\vert A\vert$. Repare ainda que, se $ A$ é $ n\times n$, é válida a igualdade $ \vert\alpha A\vert=\alpha^n \vert A\vert$, já que $ \alpha A=\prod_{i=1}^n D_i(\alpha)A$. De forma análoga, dada uma matriz diagonal $ D$ com elementos diagonais $ d_1,d_2,\dots,d_n$, tem-se $ \vert DA\vert=d_1d_2\cdots d_n \vert A\vert=\vert D\vert\vert A\vert$.

Corolário 2.4.4   Uma matriz com duas linhas/colunas iguais tem determinante nulo.

Se a matriz tem duas linhas iguais, digamos $ i$ e $ j$, basta subtrair uma à outra, que corresponde a multiplicar à esquerda pela matriz $ E_{ij}(-1)$. A matriz resultante tem uma linha nula, e portanto tem determinante zero. Para colunas iguais, basta aplicar o mesmo raciocínio a $ A^T$.

O corolário anterior é passível de ser generalizado considerando não linhas iguais, mas tal que uma linha se escreva como soma de múltiplos de outras linhas. O mesmo se aplica a colunas.

Corolário 2.4.5   Tem determinante nulo uma matriz que tenha uma linha que se escreve como a soma de múltiplos de outras das suas linhas.

Suponha que a linha $ i$, $ \ell_i$, de uma matriz $ A$ se escreve como a soma de múltiplos de outras das suas linhas, ou seja, que $ \ell_i=\sum_{j\in J} \alpha_j\ell_j= \alpha_j{_1}\ell_{j_1}+\alpha_{j_2}\ell_{j_2}+\dots +\alpha_{j_s}\ell_{j_s}$. A linha $ i$ de $ E_{ij_1}(-\alpha_{j_1}) A$ é a matriz obtida de $ A$ substituindo a sua linha $ i$ por $ \ell_i- \alpha_{j_1}\ell_{j_1}=\alpha_{j_2}\ell_{j_2}+\dots +\alpha_{j_s}\ell_{j_s}$. Procedemos ao mesmo tipo de operações elementares por forma a obtermos uma matriz cuja linha $ i$ é nula. Como o determinante de cada uma das matrizes obtidas por operação elementar de linhas iguala o determinante de $ A$, e como a última matriz tem uma linha nula, e logo o seu determinante é zero, segue que $ \vert A\vert=0$.

Corolário 2.4.6   Seja $ U$ a matriz obtida da matriz quadrada $ A$ por Gauss. Então $ \vert A\vert=(-1)^r \vert U\vert$, onde $ r$ indica o número de trocas de linhas no algoritmo.

Sabendo que uma matriz é invertível se e só se a matriz escada associada (por aplicação de Gauss) é invertível, e que esta sendo triangular superior é invertível se e só se os seus elementos diagonais são todos nulos, segue que, e fazendo uso de resultados enunciados e provados anteriormente,

Corolário 2.4.7   Sendo $ A$ uma matriz quadrada de ordem $ n$, as afirmações seguintes são equivalentes:
  1. $ A$ é invertível;
  2. $ \vert A\vert\ne 0$;
  3. $ \mathrm{car}(A)=n$;
  4. $ A$ é não-singular.

Portanto, uma matriz com duas linhas/colunas iguais não é invertível. Mais, uma matriz que tenha uma linha que se escreva como soma de múltiplos de outras das suas linhas não é invertível.

Teorema 2.4.8   Seja $ A$ e $ B$ matrizes $ n\times n$.

$\displaystyle \vert AB\vert=\vert A\vert\vert B\vert.$

Suponha que $ A$ é invertível.

Existem matrizes elementares $ E_1,\dots,E_s$ e uma matriz escada (de linhas) $ U$ tal que $ A=E_1E_2\dots E_s U$. Ora existem também $ E_{s+1},\dots,E_{r}$ matrizes elementares, e $ U_1$ matriz escada de linhas para as quais $ U^T=E_{s+1}\dots E_{r} U_1$. Note que neste último caso se pode assumir que não houve trocas de linhas, já que os pivots do AEG são os elementos diagonais de $ U$ já que $ U^T$ é triangular inferior, que são não nulos por $ A$ ser invertível. Ora $ U_1$ é então uma matriz triangular superior que se pode escrever como produto de matrizes triangulares inferiores, e portanto $ U_1$ é uma matriz diagonal. Seja $ D=U_1$. Resumindo, $ A=E_1E_2\dots E_s (E_{s+1}\dots E_{r} D)^T=E_1E_2\dots E_s D E_r^T E_{r-1}^T\dots E_{s+1}^T$. Recorde que, dada uma matriz elementar $ E$, é válida $ \vert EB\vert=\vert E\vert\vert B\vert$. Então,

$\displaystyle \vert AB\vert$ $\displaystyle =$ $\displaystyle \vert E_1E_2\dots E_s D E_r^T E_{r-1}^T\dots E_{s+1}^T B\vert$  
  $\displaystyle =$ $\displaystyle \vert E_1\vert\vert E_2\dots E_s D E_r^T E_{r-1}^T\dots E_{s+1}^T B\vert$  
  $\displaystyle =$ $\displaystyle \vert E_1\vert\vert E_2\vert\vert E_3 \dots E_s D E_r^T E_{r-1}^T\dots E_{s+1}^T B\vert$  
  $\displaystyle =$ $\displaystyle \cdots$  
  $\displaystyle =$ $\displaystyle \vert E_1\vert\vert E_2\vert\vert E_3 \vert\dots \vert E_s \vert\...
...\vert\vert E_r^T\vert\vert E_{r-1}^T\vert\dots\vert E_{s+1}^T \vert\vert B\vert$  
  $\displaystyle =$ $\displaystyle \vert E_1E_2E_3 \dots E_s D E_r^T E_{r-1}^T\dots E_{s+1}^T \vert\vert B\vert$  
  $\displaystyle =$ $\displaystyle \vert A\vert\vert B\vert.$  

Se $ A$ não é invertível, e portanto $ \vert A\vert=0$, então $ AB$ não pode ser invertível, e portanto $ \vert AB\vert=0$.

Como $ \vert I_n\vert=1$, segue do teorema anterior a relação entre o determinante uma matriz invertível com o da sua inversa.

Corolário 2.4.9   Se $ A$ é uma matriz invertível então

$\displaystyle \vert A^{-1}\vert=\frac{1}{\vert A\vert}.$

Recorde que para que uma matriz $ A$ seja invertível exige-se a existência de uma outra $ X$ para a qual $ AX=I_n=XA$. O resultado seguinte mostra que se pode prescindir da verificação de uma das igualdades.

Corolário 2.4.10   Seja $ A$ uma matriz $ n\times n$. São equivalentes:
  1. $ A$ é invertível
  2. existe uma matriz $ X$ para a qual $ AX=I_n$
  3. existe uma matriz $ Y$ para a qual $ YA=I_n$
Nesse caso, $ A^{-1}=X=Y$.

As equivalências são imediatas, já que se $ AX=I_n$ então $ 1=\vert I_n\vert=\vert AX\vert=\vert A\vert\vert X\vert$ e portanto $ \vert A\vert\ne 0$.

Para mostrar que $ A^{-1}=X$, repare que como $ AX=I_n$ então $ A$ é invertível, e portanto $ A^{-1}AX=A^{-1}$, donde $ X=A^{-1}$.

Faça a identificação dos vectores $ (a,b)\in {\mathbb{R}}^2$ com as matrizes coluna $ \left[\begin{array}{c}a b\end{array}\right]$. O produto interno usual $ (u_1,u_2)\cdot (v_1,v_2)$ em $ {\mathbb{R}}^2$ pode ser encarado como o produto matricial $ \left[\begin{array}{cc} u_1 &u_2\end{array}\right]\left[\begin{array}{c}v_1 v_2\end{array}\right]$. Ou seja, $ u\cdot v=u^Tv$. Esta identificação e noção pode ser generalizada de forma trivial para $ {\mathbb{R}}^n$. Dois vectores $ u$ e $ v$ de $ {\mathbb{R}}^n$ dizem-se ortogonais, $ u \perp v$, se $ u\cdot v=u^T v=0$. A norma usual em $ {\mathbb{R}}^n$ é definida por $ \Vert u\Vert=\sqrt{u\cdot u}$, com $ u\in {\mathbb{R}}^n$

Corolário 2.4.11   Seja $ A$ uma matriz real $ n\times n$ com colunas $ c_1,c_2,\dots ,c_n$. Então $ A$ é ortogonal se e só se $ c_i \perp c_j =0$ se $ i \ne j$, e $ \Vert c_i\Vert =1$, para $ i,j=1, \dots, n$.

Condição suficiente: Escrevendo $ A=\left[\begin{array}{ccc}
c_1 & \cdots & c_n \end{array}\right]$, temos que

$\displaystyle I_n= A^TA= \left[\begin{array}{c} c_1^T  c_2^T  \vdots  c_n...
...}\right]
\left[\begin{array}{cccc}
c_1 & c_2 & \cdots & c_n \end{array}\right].$

Como o elemento $ (i,j)$ de $ \left[\begin{array}{c} c_1^T  c_2^T  \vdots  c_n^T \end{array}\right]
\left[\begin{array}{cccc}
c_1 & c_2 & \cdots & c_n \end{array}\right]$ é $ c_i^T c_j$, obtemos o resultado.
Condição necessária: Ora $ c_i^T c_j =0$ se $ i \ne j$, e $ c_i^T c_i =1$ é o mesmo que $ A^TA=I_n$, e pelo corolário anterior implica que $ A$ é invertível com $ A^{-1}=A^T$, pelo que $ A$ é ortogonal.

Ou seja, as colunas das matrizes ortogonais são ortogonais duas a duas. O mesmo se pode dizer acerca das linhas, já que a transposta de uma matriz ortogonal é de novo uma matriz ortogonal.


next up previous contents
Seguinte: Teorema de Laplace Acima: Determinantes Anterior: Definição   Conteúdo
Pedro Patricio 2008-01-08