next up previous contents
Seguinte: Brincando com a característica Acima: Espaços vectoriais Anterior: Bases de espaços vectoriais   Conteúdo

$ {\mathbb{R}}^n$ e seus subespaços (vectoriais)

Nesta secção4.3, debruçamo-nos sobre $ {\mathbb{R}}^n$ enquanto espaço vectorial real. Repare que as colunas de $ I_n$ formam uma base de $ {\mathbb{R}}^n$, pelo que $ \dim {\mathbb{R}}^n =n$. Mostre-se que de facto geram $ {\mathbb{R}}^n$. Se se denotar por $ e_i$ a coluna $ i$ de $ I_n$, é imediato verificar que $ (x_1,x_2,\dots ,x_n)=\sum_{i=1}^{n} x_i e_i$. Por outro lado, $ \sum_{i=1}^n \alpha_i e_i=0$ implica $ \left(\alpha_1, \alpha_2, \dots ,\alpha_n\right)=(0,0,\dots,0)$, e portanto $ \alpha_1=\alpha_2=\dots =\alpha_n=0$. O conjunto $ \left\{e_i\right\}_{i=1,\dots,n}$ é chamado base canónica de $ {\mathbb{R}}^n$.

Teorema 4.4.1   Se $ A$ é uma matriz $ m \times n$ sobre $ {\mathbb{R}}$, o núcleo $ N(A)$ é um subespaço vectorial de $ {\mathbb{R}}^n$.

Basta mostrar que, dados elementos $ x,y$ de $ {\mathbb{R}}^n$ tais que $ Ax=Ay=0$, também se tem $ A\left( x+y \right) =0$ e $ A\left( \lambda x \right) =0$, para qualquer $ \lambda \in {\mathbb{R}}$. Note-se que $ A \left( x+y \right) = Ax + Ay =0+0=0$, e que $ A \left( \lambda x \right) = \lambda Ax= \lambda 0 =0$.

Considere, a título de exemplo, o conjunto

$\displaystyle V=\left\{(x,y,z)\in {\mathbb{R}}^3:z=2x-3y\right\}=\left\{(x,y,2x-3y): x,y\in {\mathbb{R}}\right\}.$

Este conjunto é um subespaço de $ {\mathbb{R}}^3$. De facto, escrevendo a condição $ z=2x-3y$ como $ 2x-3y-z=0$, o conjunto $ V$ iguala o núcleo da matriz $ A=\left[\begin{array}{ccc}2 & -3 & -1\end{array}\right]$, pelo que $ V$ é um subespaço de $ {\mathbb{R}}^3$

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Vamos agora usar o octave para esboçar o conjunto $ V$ definido acima. Vamos considerar $ x,y\in [-2;2]$ e tentar que o octave encontre os pontos $ (x,y,2x-3y)\in {\mathbb{R}}^3$. Como é óbvio, $ x,y$ não poderão percorrer todos os elementos do intervalo $ [-2;2]$. Vamos, em primeiro lugar, definir os vectores x,y com os racionais de $ -2$ a 2 com intervalo de $ 0.1$ entre si. Não se esqueça de colocar ; no fim da instrução, caso contrário será mostrado o conteúdo desses vectores (algo desnecessário). Com o comando meshgrid pretende-se construir uma matriz quadrada onde x,y surgem copiados. Finalmente, define-se Z=2*X-3*Y e solicita-se a representação gráfica. Para obter a representação gráfica precisa de ter o gnuplot instalado.

 
> x=[-2,0.1,2];
> y=[-2,0.1,2];
> [X,Y]=meshgrid (x,y);
> Z=2*X-3*Y;
> surf(X,Y,Z)
Verifique se a sua versão do gnuplot permite que rode a figura. Clique no botão esquerdo do rato e arraste a figura. Para sair do gnuplot, digite q.

Como é óbvio, o uso das capacidades gráficas ultrapassa em muito a representação de planos. O seguinte exemplo surge na documentação do octave:

     tx = ty = linspace (-8, 8, 41)';
     [xx, yy] = meshgrid (tx, ty);
     r = sqrt (xx .^ 2 + yy .^ 2) + eps;
     tz = sin (r) ./ r;
     mesh (tx, ty, tz);

O conjunto $ U=\left\{(x,y,z)\in {\mathbb{R}}^3: x-2y+\frac{1}{2} z=0=-x+y+2z\right\}$ é um subespaço de $ {\mathbb{R}}^3$, já que $ U=N\left(\left[\begin{array}{ccc}1 & -2 & \frac{1}{2} -1 & 1 &2\end{array}\right]\right)$. O subespaço $ U$ é dado pela intersecção do plano dado pela equação $ x-2y+\frac{1}{2} z=0$ com o plano dado pela equação $ -x+y+2z=0$. Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Para obtermos a representação gráfica dos dois planos, vamos fazer variar $ x,y$ de $ -3$ a $ 3$, com intervalos de 0.1. O comando hold on permite representar várias superfícies no mesmo gráfico.

> x=[-3:0.1:3];
> y=x;
> [X,Y]=meshgrid (x,y);
> Z1=-2*X+4*Y;
> Z2=1/2*X-1/2*Y;
> surf(X,Y,Z1)
> hold on
> surf(X,Y,Z2)
Em vez de x=[-3:0.1:3]; poderíamos ter usado o comando linspace. No caso, x=linspace(-3,3,60). A sintaxe é linspace(ponto_inicial,ponto_final,numero_de_divisoes).

Vejamos como poderemos representar a recta $ U$ que é a intersecção dos dois planos referidos atrás. Repare que os pontos $ (x,y,z)\in{\mathbb{R}}^3$ da recta são exactamente aqueles que satisfazem as duas equações, ou seja, aqueles que são solução do sistema homogéneo $ A[x  y  z]^T=0$, onde $ A=\left[\begin{array}{ccc}1 & -2 & \frac{1}{2} -1 & 1 &2\end{array}\right]$.

 > A=[1 -2 1/2; -1 1 2]
A =

   1.00000  -2.00000   0.50000
  -1.00000   1.00000   2.00000

> rref (A)
ans =

   1.00000   0.00000  -4.50000
   0.00000   1.00000  -2.50000

> solucao=[-(rref (A)(:,3));1]
solucao =

  4.5000
  2.5000
  1.0000
De facto, o comando rref (A) diz-nos que $ y-\frac{5}{2}z=0=x-\frac{9}{2}z$, ou seja, que as soluções do homogéneo são da forma $ (\frac{9}{2}z,\frac{5}{2}z,z)=z(\frac{9}{2},\frac{5}{2},1)$, com $ z\in {\mathbb{R}}$. Ou seja, as soluções de $ A[x  y  z]^T=0$ são todos os múltiplos do vector solucao. Outra alternativa seria a utilização do comando null(A).
> t=[-3:0.1:3];
> plot3 (solucao(1,1)*t, solucao(2,1)*t,solucao(3,1)*t);

O gnuplot não permite a gravação de imagens à custa do teclado ou do rato. Podemos, no entanto, imprimir a figura para um ficheiro.

> print('grafico.eps','-deps')
> print('grafico.png','-dpng')
No primeiro caso obtemos um ficheiro em formato eps (encapsulated postscript), e no segundo em formato PNG. A representação dos dois planos será algo como a figura seguinte:

Como é óbvio, não estamos condicionados a $ {\mathbb{R}}^3$. Por exemplo, o conjunto

$\displaystyle W=\left\{(x_1,x_2,x_3,x_4)\in {\mathbb{R}}^4: x_1-2x_3=0=x_1-x_2+4x_4\right\}$

é um subespaço de $ {\mathbb{R}}^4$. De facto, repare que $ W=N\left( \left[\begin{array}{cccc} 1& 0&-2 &0 1&-1&0&4\end{array}\right]\right)$.

Teorema 4.4.2   Sejam $ v_1,\cdots,v_n \in {\mathbb{R}}^m$ e $ A=\left[\begin{array}{cccc}v_1 & v_2 & \cdots&v_n \end{array}\right]_{m\times n}$ (as colunas de $ A$ são os vectores $ v_i\in {\mathbb{R}}^m$). Então $ \left\{v_1,\cdots,v_n\right\}$ é linearmente independente se e só se $ car(A)=n$.

Consideremos a equação $ Ax=0$, com $ x=[x_1   x_2   \cdots   x_n]^T$. Ou seja, consideremos a equação

$\displaystyle A\left[\begin{array}{c}x_1  x_2  \vdots  x_n\end{array}\right]=0.$

Equivalentemente,

$\displaystyle x_1v_1+x_2v_2+\cdots+x_nv_n=0.$

Ou seja, a independência linear de $ v_1 , \dots , v_n$ é equivalente a $ N(A)=\left\{0\right\}$ (isto é, 0 ser a única solução de $ Ax=0$). Recorde que $ Ax=0$ é possível determinado se e só se $ car(A)=n$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Com base no teorema anterior, vamos mostrar que

> u=[1; 2; 3; 3]; v=[2; 0; 1; -1]; w=[0; 0; -1; -3];
são linearmente independentes. Tal é equivalente a mostrar que $ \mathrm{car}\left[\begin{array}{ccc} u&v&w \end{array}\right]=3$:
> rank([u v w])
ans = 3
Para $ y=\left(1,-6,-7,-11\right)$, os vectores $ u,v,y$ não são linearmente independentes:
> rank([u v y])
ans = 2

Teorema 4.4.3   Dados $ v_1, \dots , v_m \in {\mathbb{R}}^n$, seja $ A$ a matriz $ A=\left[\begin{array}{cccc}v_1 & v_2 & \cdots&v_m\end{array}\right]\in \mathcal{M}_{n \times m} \left( {\mathbb{R}}\right)$ cujas colunas são $ v_1, \dots , v_m$. Então $ w \in \langle v_1, \dots , v_m \rangle$ se e só se $ Ax=w$ tem solução.

Escrevendo $ Ax=w$ como

$\displaystyle \left[v_1   \dots   v_m \right]\left[\begin{array}{c} x_1  x_2  \vdots  x_m \end{array}\right]= w,$

temos que $ Ax=w$ tem solução se e só se existirem $ x_1, x_2 , \dots,x_m \in {\mathbb{R}}$ tais que

$\displaystyle x_1 v_1 + x_2 v_2 + \cdots + x_m v_m =w,$

isto é, $ w \in \langle v_1, \dots , v_m \rangle$.

Definição 4.4.4   Ao subespaço $ CS(A) = \left\{Ax:x \in {\mathbb{R}}^n \right\}$ de $ {\mathbb{R}}^m$ chamamos imagem de $ A$, ou espaço das colunas de $ A$. Por vezes, $ CS(A)$ é denotado também por $ R(A)$ e por $ Im(A)$. O espaço das colunas da $ A^T$ designa-se por espaço das linhas de $ A$ e denota-se por $ RS(A)$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Considerando $ u,v,w,y$ como no exemplo anterior, vamos verificar se $ y \in \langle u,v,w \rangle $. Para $ A=\left[\begin{array}{ccc} u&v&w\end{array}\right]$, tal é equivalente a verificar se $ Ax=y$ tem solução.

> u=[1; 2; 3; 3]; v=[2; 0; 1; -1]; w=[0; 0; -1; -3];
octave:23> A=[u v w]
A =

   1   2   0
   2   0   0
   3   1  -1
   3  -1  -3
Ou seja, se $ \mathrm{car}A=\mathrm{car}\left(\left[\begin{array}{c\vert c}A&y \end{array}\right]\right)$.
> rank(A)
ans = 3
> rank([A y])
ans = 3
De uma forma mais simples,
> rank(A)==rank([A y ])
ans = 1
Já o vector $ (0,0,0,1)$ não é combinação linear de $ u,v,w$, ou seja, $ (0,0,0,1)\notin \langle u,v,w \rangle $. De facto, $ \mathrm{car}A\ne \mathrm{car}\left(\left[\begin{array}{c\vert c}A&\begin{array}{c}0 0 0 1\end{array}\end{array}\right]\right)$:
> rank([A [0;0;0;1]])
ans = 4

Vejamos qual a razão de se denominar ``espaço das colunas de $ A$'' a $ CS(A)$. Escrevendo $ A=\left[\begin{array}{cccc}v_1&v_2&\cdots&v_n\end{array}\right]$ através das colunas de $ A$, pela forma como o produto de matrizes foi definido, obtemos

$\displaystyle A\left[\begin{array}{c}\alpha_1 \alpha_2 \vdots \alpha_n\end{array}\right]=\alpha_1v_1+\alpha_2v_2+ \cdots+\alpha_nv_n.$

O teorema anterior afirma que $ b\in CS(A)$ (i.e., $ Ax=b$ é possível) se e só se $ b$ for um elemento do espaço gerado pelas colunas de $ A$.

A classificação de sistemas de equações lineares como impossível, possível determinado ou possível indeterminado, ganha agora uma nova perspectiva geométrica.

Por exemplo, consideremos a equação matricial $ A[x  y  z]^T=b$, com $ A=\left[\begin{array}{ccc}
2 & 4& -8\\
1 & 2& -4\\
2 & 3& 5\end{array}\right]$ e $ b=\left[\begin{array}{c}14\\
7\\
10\end{array}\right]$. O sistema é possível, já que $ car(A)=car([A   b])$, mas é indeterminado pois $ car(A)<3$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Depois de definirmos $ A$ e $ b$ no octave,

> rank(A)
ans =  2
> rank([A b])
ans =  2

As colunas de $ A$, que geram $ CS(A)$, não são linearmente independentes. Como $ Ax=b$ é possível temos que $ b\in CS(A)$, mas não sendo as colunas linearmente independentes, $ b$ não se escreverá de forma única como combinação linear das colunas de $ A$. O sistema de equações tem como soluções as realizações simultâneas das equações $ 2x+4y-8z=14$, $ x+2y-4z=7$ e $ 2x+3y+5z=10$. Cada uma destas equações representa um plano de $ {\mathbb{R}}^3$, e portanto as soluções de $ Ax=b$ são exactamente os pontos de $ {\mathbb{R}}^3$ que estão na intersecção destes planos.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Vamos representar graficamente cada um destes planos para obtermos uma imagem do que será a intersecção.

> x=-3:0.5:3;
> y=x;
> [X,Y]=meshgrid(x,y);
> Z1=(14-2*X-4*Y)/(-8);
> surf(X,Y,Z1)
> Z2=(7-X-2*Y)/(-4);
> Z3=(10-2*X-3*Y)/(5);
> hold on
> surf(X,Y,Z2)
> surf(X,Y,Z3)
A intersecção é uma recta de $ {\mathbb{R}}^3$, e portanto temos uma infinidade de soluções da equação $ Ax=b$.

No entanto, o sistema $ Ax=c=\left[\begin{array}{ccc} 0& 1& 0\end{array}\right]^T$ é impossível, já que $ car(A)=2\ne 3=car([A   c])$. A intersecção dos planos dados pelas equações do sistema é vazia.

Considere agora $ A=\left[\begin{array}{cc} 1 &1  1& 0 -1& 1\end{array}\right]$ e $ b= \left[\begin{array}{c} 0 1 0\end{array}\right]$. O facto de $ Ax=b$ ser impossível (compare a característica de $ A$ com a de $ [A   b]$) significa que $ b\not\in CS(A)$. Ora $ CS(A)=\langle (1,1,-1),(1,0,1)\rangle $, ou seja, $ CS(A)$ é o conjunto dos pontos de $ {\mathbb{R}}^3$ que se escrevem da forma

$\displaystyle (x,y,z)=\alpha(1,1,-1) + \beta (1,0,1)=(\alpha+\beta,\alpha,-\alpha+\beta),   \alpha, \beta \in {\mathbb{R}}.$

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}

> alfa=-3:0.5:3; beta=a;
> [ALFA,BETA]=meshgrid(alfa,beta);
> surf(ALFA+BETA,ALFA,-ALFA+BETA)

Com alguns cálculos, podemos encontrar a equação que define $ CS(A)$. Recorde que se pretende encontrar os elementos $ \left[\begin{array}{ccc}x & y&z\end{array}\right]^T$ para os quais existem $ \alpha, \beta\in {\mathbb{R}}$ tais que

$\displaystyle \left[\begin{array}{cc} 1 &1  1& 0 -1& 1\end{array}\right]\le...
...a \beta \end{array}\right]=\left[\begin{array}{c}x y z\end{array}\right].$

Usando o método que foi descrito na parte sobre resolução de sistemas lineares,

$\displaystyle \left[\begin{array}{cc\vert c}1 &1&x 1 &0& y -1&1&z\end{array...
...left[\begin{array}{cc\vert c}
1&1&x 0&-1&y-x 0&0& z-x+2y\end{array}\right].$

Como o sistema tem que ter soluções $ \alpha,\beta$, somos forçados a ter $ z=x-2y$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}

> x=-3:0.5:3; y=x;
> [X,Y]=meshgrid(x,y); 
> surf(X,Y,-2*Y+X); hold on;  plot3([0],[1],[0],'x')

Ora $ Ax=b$ é impossível, pelo que $ b\not\in CS(A)$. Ou seja, $ b$ não é um ponto do plano gerado pelas colunas de $ A$.

Se $ A$ for invertível, então $ CS(A)={\mathbb{R}}^n$ (neste caso, tem-se necessariamente $ m=n$). De facto, para $ x\in {\mathbb{R}}^n$, podemos escrever $ x=A(A^{-1}x)$, pelo que, tomando $ y=A^{-1}x\in {\mathbb{R}}^n$, temos $ x=Ay \in CS(A)$. Portanto,

$\displaystyle {\mathbb{R}}^n\subseteq CS(A)\subseteq {\mathbb{R}}^n.$

Se $ A,B$ são matrizes reais para as quais $ AB$ existe, temos a inclusão $ CS(AB)\subseteq CS(A)$. De facto, se $ b\in CS(AB)$ então $ ABx=b$, para algum $ x$. Ou seja, $ A(Bx)=b$, pelo que $ b\in CS(A)$.

Se $ B$ for invertível, então $ CS(AB)=CS(A)$. Esta igualdade fica provada se se mostrar que $ CS(A)\subseteq CS(AB)$. Para $ b\in CS(A)$, existe $ x$ tal que $ b=Ax=A (BB^{-1})x=(AB)B^ {-1}x$, e portanto $ b\in CS(AB)$.

Recordemos, ainda, que para $ A$ matriz real $ m \times n$, existem matrizes $ P,L,U$ permutação, triangular inferior com 1's na diagonal (e logo invertível) e escada, respectivamente, tais que

$\displaystyle PA=LU.$

Ou seja,

$\displaystyle A=P^{-1}LU.$

Finalmente, e a comprovação deste facto fica ao cargo do leitor, as linhas não nulas de $ U$, matriz obtida de $ A$ por aplicação do método de eliminação de Gauss, são linearmente independentes.

Para $ A,P,L,U$ definidas atrás,

$\displaystyle RS(A)=CS(A^T)=CS(U^T(P^{-1}L)^T)=CS(U^T)=RS(U).$

Ou seja, o espaço das linhas de $ A$ e o das linhas de $ U$ são o mesmo, e uma base de $ RS(A)$ são as linhas não nulas de $ U$ enquanto elementos de $ {\mathbb{R}}^n$. Temos, então,

$ RS(A)=RS(U)$ e $ \dim RS(A)=car(A)$

Seja $ QA$ a forma normal de Hermite de $ A$. Portanto, existe uma matriz permutação $ P_{\text{erm}}$ tal que $ QAP_{\text{erm}}=\left[\begin{array}{c\vert c} I_r & M \hline 0 & 0\end{array}\right]$, onde $ r=\mathrm{car}(A)$. Repare que $ CS(QA)=CS(QAP_{\text{erm}})$, já que o conjunto gerador é o mesmo (ou ainda, porque $ P_{\text{erm}}$ é invertível). As primeiras $ r$ colunas de $ I_m$ formam uma base de $ CS(QAP_{\text{erm}})=CS(QA)$, e portanto $ \dim CS(QA)=r$. Pretendemos mostrar que $ \dim CS(A)= \mathrm{car}(A)=r$. Para tal, considere o lema que se segue:

Lema 4.4.5   Seja $ Q$ uma matriz $ n\times n$ invertível e $ v_1,v_2, \dots, v_r\in {\mathbb{R}}^n$. Então $ \left\{v_1,v_2, \dots, v_r \right\}$ é linearmente independente se e só se $ \left\{Qv_1,Qv_2, \dots, Qv_r \right\}$ é linearmente independente.

Repare que $ \sum_{i=1}^r \alpha_i Qv_i=0 \Leftrightarrow Q\left(\sum_{i=1}^r \alpha_i v_i\right)=0\Leftrightarrow \sum_{i=1}^r \alpha_i v_i=0$.

Usando o lema anterior,

$\displaystyle \dim CS(A)=\dim CS(QA)=r=\mathrm{car}(A).$

Sendo $ U$ a matriz escada de linhas obtida por Gauss, $ U$ é equivalente por linhas a $ A$, e portanto $ \dim CS(U)=\dim CS(A)=\mathrm{car}(A)$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Considere os vectores de $ {\mathbb{R}}^3$

> u=[1; 0; -2]; v=[2; -2; 0]; w=[-1; 3; -1];
Estes formam uma base de $ {\mathbb{R}}^3$, já que $ CS(\left[\begin{array}{ccc} u & v & w\end{array}\right])={\mathbb{R}}^3$. Esta igualdade é válida já que $ CS(\left[\begin{array}{ccc} u & v & w\end{array}\right])\subseteq{\mathbb{R}}^3$ e $ \mathrm{car}(\left[\begin{array}{ccc} u & v & w\end{array}\right])=\dim CS(\left[\begin{array}{ccc} u & v & w\end{array}\right]) =3$:
> A=[u v w]
A =

   1   2  -1
   0  -2   3
  -2   0  -1

> rank(A)
ans = 3
Já os vectores $ u,v,q$, com $ q=(-5, 6, -2)$ não são uma base de $ {\mathbb{R}}^3$. De facto,
 A=[u v q]
A =

   1   2  -5
   0  -2   6
  -2   0  -2

> rank(A)
ans = 2
e portanto $ \dim CS(\left[\begin{array}{ccc} u & v & q\end{array}\right]) =2\ne 3=\dim {\mathbb{R}}^3$. As colunas da matriz não são linearmente independentes, e portanto não são uma base do espaço das colunas da matriz $ \left[\begin{array}{ccc} u & v & q\end{array}\right]$.

A questão que se coloca aqui é: como obter uma base para $ CS(A)$?

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Suponha que $ V$ é a matriz escada de linhas obtida da matriz $ A^T$. Recorde que $ RS(A^T)=RS(V)$, e portanto $ CS(A)=CS(V^T)$. Portanto, e considerando a matriz A=[u v q] do exemplo anterior, basta-nos calcular a matriz escada de linhas associada a $ A^T$:

> [l,V,p]=lu(A'); V'
ans =

  -5.00000   0.00000   0.00000
   6.00000   1.20000   0.00000
  -2.00000  -2.40000   0.00000
As duas primeiras colunas de V' formam uma base de $ CS(A)$.

Em primeiro lugar, verifica-se que as $ r$ colunas de $ U$ com pivot, digamos $ u_{i_1},u_{i_2},\dots, u_{i_r}$ são linearmente independentes pois $ \left[\begin{array}{cccc} u_{i_1}&u_{i_2}&\dots& u_{i_r}\end{array}\right]\left[\begin{array}{c}x_1  x_2 \vdots x_r\end{array}\right]=0$ é possível determinado.

Em segundo lugar, vamos mostrar que as colunas de $ A$ correpondentes às colunas de $ U$ com pivot são também elas linearmente independentes. Para tal, alertamos para a igualdade $ U\left[\begin{array}{ccc}e_{i_1} & \dots & e_{i_r}\end{array}\right]=\left[\begin{array}{cccc} u_{i_1}&u_{i_2}&\dots& u_{i_r}\end{array}\right]$, onde $ e_{i_j}$ indica a $ i_j$-ésima coluna de $ I_n$. Tendo $ U=L^{-1}PA$, e como $ \left[\begin{array}{cccc} u_{i_1}&u_{i_2}&\dots& u_{i_r}\end{array}\right]\left[\begin{array}{c}x_1  x_2 \vdots x_r\end{array}\right]=0$ é possível determinado, segue que, pela invertibilidade de $ L^{-1}P$, a equação $ A\left[\begin{array}{ccc}e_{i_1} & \dots & e_{i_r}\end{array}\right]\left[\begin{array}{c}x_1  x_2 \vdots x_r\end{array}\right]=0$ admite apenas a solução nula. Mas $ A\left[\begin{array}{ccc}e_{i_1} & \dots & e_{i_r}\end{array}\right]$ é a matriz constituída pelas colunas $ i_1,i_2,\dots,i_r$ de $ A$, pelo que estas são linearmente independentes, em número igual a $ r=\mathrm{car}(A)$. Visto $ \dim CS(A)=r$, essas colunas constituem de facto uma base de $ CS(A)$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Seja A a matriz do exemplo anterior:

> A
A =

   1   2  -5
   0  -2   6
  -2   0  -2
Vamos agora descrever esta segunda forma de encontrar uma base de $ CS(A)$. Como já vimos, $ \mathrm{car}A =2$, pelo que as colunas de $ A$ não formam uma base de $ CS(A)$ pois não são linearmente independentes, e $ \dim CS(A)=2$. Façamos a decomposição $ PA=LU$:
> [l,u,p]=lu(A); u
u =

  -2   0  -2
   0  -2   6
   0   0   0
Uma base possível para $ CS(A)$ são as colunas de $ A$ correspondendo às colunas de u que têm pivot. No caso, a primeira e a segunda colunas de $ A$ formam uma base de $ CS(A)$.

Finalmente, como $ car(A^T)=\dim CS(A^T)=\dim RS(A)=car(A)$, temos a igualdade

$\displaystyle car(A)=car(A^T).$

Repare que $ N(A)=N(U)$ já que $ Ax=0$ se e só se $ Ux=0$. Na resolução de $ Ux=0$, é feita a separação das incógnitas em básicas e em livres. Recorde que o número destas últimas é denotado por $ \mathrm{nul}(A)$. Na apresentação da solução de $ Ax=0$, obtemos, pelo algoritmo para a resolução da equação somas de vectores, cada um multiplicado por uma das incógnitas livres. Esses vectores são geradores de $ N(A)$, e são em número igual a $ n-r$, onde $ r=\mathrm{car}(A)$. Queremos mostrar que $ \mathrm{nul}(A)=\dim N(A)$. Seja $ QA$ a forma normal de Hermite de $ A$; existe $ P$ permutação tal que $ QAP= \left[\begin{array}{c\vert c} I_r & M \hline 0 & 0\end{array}\right]=H_A$, tendo em mente que $ r\le m,n$. Como $ Q$ é invertível, segue que $ N(QA)=N(A)$. Sendo $ H_A$ a matriz obtida de $ QA$ fazendo trocas convenientes de colunas, tem-se $ \mathrm{nul}(H_A)=\mathrm{nul}(QA)=\mathrm{nul}(A)$. Definamos a matriz quadrada, de ordem $ n$, $ G_A=\left[\begin{array}{c\vert c} I_r & M \hline 0 & 0\end{array}\right]$. Como $ H_A G_A=H_A$ segue que $ H_A(I_n-G)=0$, e portanto as colunas de $ I_n-G$ pertencem a $ N(H_A)$. Mas $ I_n-G=\left[\begin{array}{c\vert c} 0 & M \hline 0 & I_{n-r}\end{array}\right]$ e as suas últimas $ n-r$ colunas são linearmente independentes (já que $ \mathrm{car}\left(\left[\begin{array}{c}M I_{n-r}\end{array}\right]\right)=\...
...thrm{car}\left(\left[\begin{array}{c}I_{n-r} M\end{array}\right]^T\right)=n-r$). Logo, $ \dim N(A)=\dim N(H_A)\ge n-r$. Pelo que vimos atrás, $ \dim N(A)=\dim N(U)\le n-r$. Segue das duas desigualdades que

$\displaystyle \mathrm{nul}(A)=\dim N(A).$

Como $ n=\mathrm{car}(A)+\mathrm{nul}(A)$, obtemos, finalmente,

$\displaystyle n=\dim CS(A)+\dim N(A).$

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Vamos aplicar os resultados desta secção num caso concreto. Considere o subespaço $ W$ de $ {\mathbb{R}}^3$ gerado pelos vectores $ (1,2,1),(2,-3,-1),(3,1,2),(4,1,2),(5,0,4)$. Como temos 5 vectores de um espaço de dimensão 3, eles são necessariamente linearmente dependentes. Qual a dimensão de $ W$? $ W$ é o espaço das colunas da matriz $ A$, cujas colunas são os vectores dados:

> A=[1 2 3 4 5; 2 -3 1 1 0; 1 -1 2 2 4];
Ora $ \dim CS(A)=\mathrm{car}(A)$.
> [L,U,P]=lu(A); U
U =

   2.00000  -3.00000   1.00000   1.00000   0.00000
   0.00000   3.50000   2.50000   3.50000   5.00000
   0.00000   0.00000   1.14286   1.00000   3.2857
Ou seja, $ \dim W=3$. Como $ W\subseteq {\mathbb{R}}^3$ e têm a mesma dimensão, então $ W={\mathbb{R}}^3$. Ou seja, as colunas de $ A$ geram $ {\mathbb{R}}^3$. As colunas de $ A$ que formam uma base para $ W$ são aquelas correspondentes às colunas de $ U$ que têm pivot; neste caso, as três primeiras de $ U$. Uma base $ \mathcal{B}$ para $ W$ é o conjunto formado pelos vectores $ v_1=(1,2,1),v_2=(2,-3,-1),v_3=(3,1,2)$. Vamos agora calcular as coordenadas de b=[0; -2; -2] nesta base. Tal corresponde a resolver a equação $ \left[\begin{array}{ccc} v_1&v_2&v_3\end{array}\right]x=b$:
 > b=[0; -2; -2]
b =

   0
  -2
  -2

> B=A(:,[1,2,3])
B =

   1   2   3
   2  -3   1
   1  -1   2

> coord=inverse(B)*b
coord =

   1.00000
   1.00000
  -1.00000
Ou seja, $ (0,-2,-2)_\mathcal{B}=\left[\begin{array}{c}1 1 -1\end{array}\right]$.



Subsecções
next up previous contents
Seguinte: Brincando com a característica Acima: Espaços vectoriais Anterior: Bases de espaços vectoriais   Conteúdo
Pedro Patricio 2008-01-08