$ {\mathbb{R}}^n$ e seus subespaços (vectoriais)

Nesta secção3.3, debruçamo-nos sobre $ {\mathbb{R}}^n$ enquanto espaço vectorial real. Repare que as colunas de $ I_n$ formam uma base de $ {\mathbb{R}}^n$ , pelo que $ \dim {\mathbb{R}}^n =n$ . Mostre-se que de facto geram $ {\mathbb{R}}^n$ . Se se denotar por $ e_i$ a coluna $ i$ de $ I_n$ , é imediato verificar que $ (x_1,x_2,\dots ,x_n)=\sum_{i=1}^{n} x_i e_i$ . Por outro lado, $ \sum_{i=1}^n \alpha_i e_i=0$ implica $ \left(\alpha_1, \alpha_2, \dots ,\alpha_n\right)=(0,0,\dots,0)$ , e portanto $ \alpha_1=\alpha_2=\dots =\alpha_n=0$ . O conjunto $ \left\{e_i\right\}_{i=1,\dots,n}$ é chamado base canónica de $ {\mathbb{R}}^n$ .

Teorema 3.4.1   Se $ A$ é uma matriz $ m \times n$ sobre $ {\mathbb{R}}$ , o núcleo $ N(A)$ é um subespaço vectorial de $ {\mathbb{R}}^n$ .

Basta mostrar que, dados elementos $ x,y$ de $ {\mathbb{R}}^n$ tais que $ Ax=Ay=0$ , também se tem $ A\left( x+y \right) =0$ e $ A\left( \lambda x \right) =0$ , para qualquer $ \lambda \in {\mathbb{R}}$ . Note-se que $ A \left( x+y \right) = Ax + Ay =0+0=0$ , e que $ A \left( \lambda x \right) = \lambda Ax= \lambda 0 =0$ .

Por exemplo, o conjunto $ W=\left\{(x_1,x_2,x_3,x_4)\in {\mathbb{R}}^4: x_1-2x_3=0=x_1-x_2+4x_4\right\}$ é um subespaço de $ {\mathbb{R}}^4$ . De facto, repare que $ W=N\left( \left[\begin{array}{cccc} 1& 0&-2 &0\\ 1&-1&0&4\end{array}\right]\right)$ .

Teorema 3.4.2   Sejam $ v_1,\cdots,v_n \in {\mathbb{R}}^m$ e $ A=\left[\begin{array}{cccc}v_1 & v_2 & \cdots&v_n \end{array}\right]_{m\times n}$ (as colunas de $ A$ são os vectores $ v_i\in {\mathbb{R}}^m$ ). Então $ \left\{v_1,\cdots,v_n\right\}$ é linearmente independente se e só se $ car(A)=n$ .

Consideremos a equação $ Ax=0$ , com $ x=[x_1 \, x_2 \, \cdots \, x_n]^T$ . Ou seja, consideremos a equação

$\displaystyle A\left[\begin{array}{c}x_1 \\ x_2 \\ \vdots \\ x_n\end{array}\right]=0.$

Equivalentemente,

$\displaystyle x_1v_1+x_2v_2+\cdots+x_nv_n=0.$

Ou seja, a independência linear de $ v_1 , \dots , v_n$ é equivalente a $ N(A)=\left\{0\right\}$ (isto é, 0 ser a única solução de $ Ax=0$ ). Recorde que $ Ax=0$ é possível determinado se e só se $ car(A)=n$ .

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Com base no teorema anterior, vamos mostrar que

> u=[1; 2; 3; 3]; v=[2; 0; 1; -1]; w=[0; 0; -1; -3];
são linearmente independentes. Tal é equivalente a mostrar que $ \mathrm{car}\left[\begin{array}{ccc} u&v&w \end{array}\right]=3$ :
> rank([u v w])
ans = 3
Para $ y=\left(1,-6,-7,-11\right)$ , os vectores $ u,v,y$ não são linearmente independentes:
> rank([u v y])
ans = 2

Teorema 3.4.3   Dados $ v_1, \dots , v_m \in {\mathbb{R}}^n$ , seja $ A$ a matriz $ A=\left[\begin{array}{cccc}v_1 & v_2 & \cdots&v_m\end{array}\right]\in \mathcal{M}_{n \times m} \left( {\mathbb{R}}\right)$ cujas colunas são $ v_1, \dots , v_m$ . Então $ w \in \langle v_1, \dots , v_m \rangle$ se e só se $ Ax=w$ tem solução.

Escrevendo $ Ax=w$ como

$\displaystyle \left[v_1 \, \dots \, v_m \right]\left[\begin{array}{c} x_1 \\ x_2 \\ \vdots \\ x_m \end{array}\right]= w,$

temos que $ Ax=w$ tem solução se e só se existirem $ x_1, x_2 , \dots,x_m \in {\mathbb{R}}$ tais que

$\displaystyle x_1 v_1 + x_2 v_2 + \cdots + x_m v_m =w,$

isto é, $ w \in \langle v_1, \dots , v_m \rangle$ .

Definição 3.4.4   Ao subespaço $ CS(A) = \left\{Ax:x \in {\mathbb{R}}^n \right\}$ de $ {\mathbb{R}}^m$ chamamos imagem de $ A$ , ou espaço das colunas de $ A$ . Por vezes, $ CS(A)$ é denotado também por $ R(A)$ e por $ Im(A)$ . O espaço das colunas da $ A^T$ designa-se por espaço das linhas de $ A$ e denota-se por $ RS(A)$ .

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Considerando $ u,v,w,y$ como no exemplo anterior, vamos verificar se $ y \in \langle u,v,w \rangle $ . Para $ A=\left[\begin{array}{ccc} u&v&w\end{array}\right]$ , tal é equivalente a verificar se $ Ax=y$ tem solução.

> u=[1; 2; 3; 3]; v=[2; 0; 1; -1]; w=[0; 0; -1; -3];
octave:23> A=[u v w]
A =

   1   2   0
   2   0   0
   3   1  -1
   3  -1  -3
Ou seja, se $ \mathrm{car}A=\mathrm{car}\left(\left[\begin{array}{c\vert c}A&y \end{array}\right]\right)$ .
> rank(A)
ans = 3
> rank([A y])
ans = 3
De uma forma mais simples,
> rank(A)==rank([A y ])
ans = 1
Já o vector $ (0,0,0,1)$ não é combinação linear de $ u,v,w$ , ou seja, $ (0,0,0,1)\notin \langle u,v,w \rangle $ . De facto, $ \mathrm{car}A\ne \mathrm{car}\left(\left[\begin{array}{c\vert c}A&\begin{array}{c}0\\ 0\\ 0\\ 1\end{array}\end{array}\right]\right)$ :
> rank([A [0;0;0;1]])
ans = 4

Vejamos qual a razão de se denominar ``espaço das colunas de $ A$ '' a $ CS(A)$ . Escrevendo $ A=\left[\begin{array}{cccc}v_1&v_2&\cdots&v_n\end{array}\right]$ através das colunas de $ A$ , pela forma como o produto de matrizes foi definido, obtemos

$\displaystyle A\left[\begin{array}{c}\alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n\end{array}\right]=\alpha_1v_1+\alpha_2v_2+ \cdots+\alpha_nv_n.$

O teorema anterior afirma que $ b\in CS(A)$ (i.e., $ Ax=b$ é possível) se e só se $ b$ for um elemento do espaço gerado pelas colunas de $ A$ .

Se $ A$ for invertível, então $ CS(A)={\mathbb{R}}^n$ (neste caso, tem-se necessariamente $ m=n$ ). De facto, para $ x\in {\mathbb{R}}^n$ , podemos escrever $ x=A(A^{-1}x)$ , pelo que, tomando $ y=A^{-1}x\in {\mathbb{R}}^n$ , temos $ x=Ay \in CS(A)$ . Portanto,

$\displaystyle {\mathbb{R}}^n\subseteq CS(A)\subseteq {\mathbb{R}}^n.$

Se $ A,B$ são matrizes reais para as quais $ AB$ existe, temos a inclusão $ CS(AB)\subseteq CS(A)$ . De facto, se $ b\in CS(AB)$ então $ ABx=b$ , para algum $ x$ . Ou seja, $ A(Bx)=b$ , pelo que $ b\in CS(A)$ .

Se $ B$ for invertível, então $ CS(AB)=CS(A)$ . Esta igualdade fica provada se se mostrar que $ CS(A)\subseteq CS(AB)$ . Para $ b\in CS(A)$ , existe $ x$ tal que $ b=Ax=A (BB^{-1})x=(AB)B^ {-1}x$ , e portanto $ b\in CS(AB)$ .

Recordemos, ainda, que para $ A$ matriz real $ m \times n$ , existem matrizes $ P,L,U$ permutação, triangular inferior com 1's na diagonal (e logo invertível) e escada, respectivamente, tais que

$\displaystyle PA=LU.$

Ou seja,

$\displaystyle A=P^{-1}LU.$

Finalmente, e a comprovação deste facto fica ao cargo do leitor, as linhas não nulas de $ U$ , matriz obtida de $ A$ por aplicação do método de eliminação de Gauss, são linearmente independentes.

Para $ A,P,L,U$ definidas atrás,

$\displaystyle RS(A)=CS(A^T)=CS(U^T(P^{-1}L)^T)=CS(U^T)=RS(U).$

Ou seja, o espaço das linhas de $ A$ e o das linhas de $ U$ são o mesmo, e uma base de $ RS(A)$ são as linhas não nulas de $ U$ enquanto elementos de $ {\mathbb{R}}^n$ . Temos, então,

$ RS(A)=RS(U)$ e $ \dim RS(A)=car(A)$

Seja $ QA$ a forma normal de Hermite de $ A$ . Portanto, existe uma matriz permutação $ P_{\text{erm}}$ tal que $ QAP_{\text{erm}}=\left[\begin{array}{c\vert c} I_r & M\\ \hline 0 & 0\end{array}\right]$ , onde $ r=\mathrm{car}(A)$ . Repare que $ CS(QA)=CS(QAP_{\text{erm}})$ , já que o conjunto gerador é o mesmo (ou ainda, porque $ P_{\text{erm}}$ é invertível). As primeiras $ r$ colunas de $ I_m$ formam uma base de $ CS(QAP_{\text{erm}})=CS(QA)$ , e portanto $ \dim CS(QA)=r$ . Pretendemos mostrar que $ \dim CS(A)= \mathrm{car}(A)=r$ . Para tal, considere o lema que se segue:

Lema 3.4.5   Seja $ Q$ uma matriz $ n\times n$ invertível e $ v_1,v_2, \dots, v_r\in {\mathbb{R}}^n$ . Então $ \left\{v_1,v_2, \dots, v_r \right\}$ é linearmente independente se e só se $ \left\{Qv_1,Qv_2, \dots, Qv_r \right\}$ é linearmente independente.

Repare que $ \sum_{i=1}^r \alpha_i Qv_i=0 \Leftrightarrow Q\left(\sum_{i=1}^r \alpha_i v_i\right)=0\Leftrightarrow \sum_{i=1}^r \alpha_i v_i=0$ .

Usando o lema anterior,

$\displaystyle \dim CS(A)=\dim CS(QA)=r=\mathrm{car}(A).$

Sendo $ U$ a matriz escada de linhas obtida por Gauss, $ U$ é equivalente por linhas a $ A$ , e portanto $ \dim CS(U)=\dim CS(A)=\mathrm{car}(A)$ .

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Considere os vectores de $ {\mathbb{R}}^3$

> u=[1; 0; -2]; v=[2; -2; 0]; w=[-1; 3; -1];
Estes formam uma base de $ {\mathbb{R}}^3$ , já que $ CS(\left[\begin{array}{ccc} u & v & w\end{array}\right])={\mathbb{R}}^3$ . Esta igualdade é válida já que $ CS(\left[\begin{array}{ccc} u & v & w\end{array}\right])\subseteq{\mathbb{R}}^3$ e $ \mathrm{car}(\left[\begin{array}{ccc} u & v & w\end{array}\right])=\dim CS(\left[\begin{array}{ccc} u & v & w\end{array}\right]) =3$ :
> A=[u v w]
A =

   1   2  -1
   0  -2   3
  -2   0  -1

> rank(A)
ans = 3
Já os vectores $ u,v,q$ , com $ q=(-5, 6, -2)$ não são uma base de $ {\mathbb{R}}^3$ . De facto,
 A=[u v q]
A =

   1   2  -5
   0  -2   6
  -2   0  -2

> rank(A)
ans = 2
e portanto $ \dim CS(\left[\begin{array}{ccc} u & v & q\end{array}\right]) =2\ne 3=\dim {\mathbb{R}}^3$ . As colunas da matriz não são linearmente independentes, e portanto não são uma base do espaço das colunas da matriz $ \left[\begin{array}{ccc} u & v & q\end{array}\right]$ .

A questão que se coloca aqui é: como obter uma base para $ CS(A)$ ?

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Suponha que $ V$ é a matriz escada de linhas obtida da matriz $ A^T$ . Recorde que $ RS(A^T)=RS(V)$ , e portanto $ CS(A)=CS(V^T)$ . Portanto, e considerando a matriz A=[u v q] do exemplo anterior, basta-nos calcular a matriz escada de linhas associada a $ A^T$ :

> [l,V,p]=lu(A'); V'
ans =

  -5.00000   0.00000   0.00000
   6.00000   1.20000   0.00000
  -2.00000  -2.40000   0.00000
As duas primeiras colunas de V' formam uma base de $ CS(A)$ .

Em primeiro lugar, verifica-se que as $ r$ colunas de $ U$ com pivot, digamos $ u_{i_1},u_{i_2},\dots, u_{i_r}$ são linearmente independentes pois $ \left[\begin{array}{cccc} u_{i_1}&u_{i_2}&\dots& u_{i_r}\end{array}\right]\left[\begin{array}{c}x_1 \\ x_2\\ \vdots\\ x_r\end{array}\right]=0$ é possível determinado.

Em segundo lugar, vamos mostrar que as colunas de $ A$ correpondentes às colunas de $ U$ com pivot são também elas linearmente independentes. Para tal, alertamos para a igualdade $ U\left[\begin{array}{ccc}e_{i_1} & \dots & e_{i_r}\end{array}\right]=\left[\begin{array}{cccc} u_{i_1}&u_{i_2}&\dots& u_{i_r}\end{array}\right]$ , onde $ e_{i_j}$ indica a $ i_j$ -ésima coluna de $ I_n$ . Tendo $ U=L^{-1}PA$ , e como $ \left[\begin{array}{cccc} u_{i_1}&u_{i_2}&\dots& u_{i_r}\end{array}\right]\left[\begin{array}{c}x_1 \\ x_2\\ \vdots\\ x_r\end{array}\right]=0$ é possível determinado, segue que, pela invertibilidade de $ L^{-1}P$ , a equação $ A\left[\begin{array}{ccc}e_{i_1} & \dots & e_{i_r}\end{array}\right]\left[\begin{array}{c}x_1 \\ x_2\\ \vdots\\ x_r\end{array}\right]=0$ admite apenas a solução nula. Mas $ A\left[\begin{array}{ccc}e_{i_1} & \dots & e_{i_r}\end{array}\right]$ é a matriz constituída pelas colunas $ i_1,i_2,\dots,i_r$ de $ A$ , pelo que estas são linearmente independentes, em número igual a $ r=\mathrm{car}(A)$ . Visto $ \dim CS(A)=r$ , essas colunas constituem de facto uma base de $ CS(A)$ .

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Seja A a matriz do exemplo anterior:

> A
A =

   1   2  -5
   0  -2   6
  -2   0  -2
Vamos agora descrever esta segunda forma de encontrar uma base de $ CS(A)$ . Como já vimos, $ \mathrm{car}A =2$ , pelo que as colunas de $ A$ não formam uma base de $ CS(A)$ pois não são linearmente independentes, e $ \dim CS(A)=2$ . Façamos a decomposição $ PA=LU$ :
> [l,u,p]=lu(A); u
u =

  -2   0  -2
   0  -2   6
   0   0   0
Uma base possível para $ CS(A)$ são as colunas de $ A$ correspondendo às colunas de u que têm pivot. No caso, a primeira e a segunda colunas de $ A$ formam uma base de $ CS(A)$ .

Finalmente, como $ car(A^T)=\dim CS(A^T)=\dim RS(A)=car(A)$ , temos a igualdade

$\displaystyle car(A)=car(A^T).$

Repare que $ N(A)=N(U)$ já que $ Ax=0$ se e só se $ Ux=0$ . Na resolução de $ Ux=0$ , é feita a separação das incógnitas em básicas e em livres. Recorde que o número destas últimas é denotado por $ \mathrm{nul}(A)$ . Na apresentação da solução de $ Ax=0$ , obtemos, pelo algoritmo para a resolução da equação somas de vectores, cada um multiplicado por uma das incógnitas livres. Esses vectores são geradores de $ N(A)$ , e são em número igual a $ n-r$ , onde $ r=\mathrm{car}(A)$ . Queremos mostrar que $ \mathrm{nul}(A)=\dim N(A)$ . Seja $ QA$ a forma normal de Hermite de $ A$ ; existe $ P$ permutação tal que $ QAP= \left[\begin{array}{c\vert c} I_r & M\\ \hline 0 & 0\end{array}\right]=H_A$ , tendo em mente que $ r\le m,n$ . Como $ Q$ é invertível, segue que $ N(QA)=N(A)$ . Sendo $ H_A$ a matriz obtida de $ QA$ fazendo trocas convenientes de colunas, tem-se $ \mathrm{nul}(H_A)=\mathrm{nul}(QA)=\mathrm{nul}(A)$ . Definamos a matriz quadrada, de ordem $ n$ , $ G_A=\left[\begin{array}{c\vert c} I_r & M\\ \hline 0 & 0\end{array}\right]$ . Como $ H_A G_A=H_A$ segue que $ H_A(I_n-G)=0$ , e portanto as colunas de $ I_n-G$ pertencem a $ N(H_A)$ . Mas $ I_n-G=\left[\begin{array}{c\vert c} 0 & M\\ \hline 0 & I_{n-r}\end{array}\right]$ e as suas últimas $ n-r$ colunas são linearmente independentes (já que $ \mathrm{car}\left(\left[\begin{array}{c}M\\ I_{n-r}\end{array}\right]\right)=\...
...thrm{car}\left(\left[\begin{array}{c}I_{n-r}\\ M\end{array}\right]^T\right)=n-r$ ). Logo, $ \dim N(A)=\dim N(H_A)\ge n-r$ . Pelo que vimos atrás, $ \dim N(A)=\dim N(U)\le n-r$ . Segue das duas desigualdades que

$\displaystyle \mathrm{nul}(A)=\dim N(A).$

Como $ n=\mathrm{car}(A)+\mathrm{nul}(A)$ , obtemos, finalmente,

$\displaystyle n=\dim CS(A)+\dim N(A).$

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}
Vamos aplicar os resultados desta secção num caso concreto. Considere o subespaço $ W$ de $ {\mathbb{R}}^3$ gerado pelos vectores $ (1,2,1),(2,-3,-1),(3,1,2),(4,1,2),(5,0,4)$ . Como temos 5 vectores de um espaço de dimensão 3, eles são necessariamente linearmente dependentes. Qual a dimensão de $ W$ ? $ W$ é o espaço das colunas da matriz $ A$ , cujas colunas são os vectores dados:

> A=[1 2 3 4 5; 2 -3 1 1 0; 1 -1 2 2 4];
Ora $ \dim CS(A)=\mathrm{car}(A)$ .
> [L,U,P]=lu(A); U
U =

   2.00000  -3.00000   1.00000   1.00000   0.00000
   0.00000   3.50000   2.50000   3.50000   5.00000
   0.00000   0.00000   1.14286   1.00000   3.2857
Ou seja, $ \dim W=3$ . Como $ W\subseteq {\mathbb{R}}^3$ e têm a mesma dimensão, então $ W={\mathbb{R}}^3$ . Ou seja, as colunas de $ A$ geram $ {\mathbb{R}}^3$ . As colunas de $ A$ que formam uma base para $ W$ são aquelas correspondentes às colunas de $ U$ que têm pivot; neste caso, as três primeiras de $ U$ . Uma base $ \mathcal{B}$ para $ W$ é o conjunto formado pelos vectores $ v_1=(1,2,1),v_2=(2,-3,-1),v_3=(3,1,2)$ . Vamos agora calcular as coordenadas de b=[0; -2; -2] nesta base. Tal corresponde a resolver a equação $ \left[\begin{array}{ccc} v_1&v_2&v_3\end{array}\right]x=b$ :
 > b=[0; -2; -2]
b =

   0
  -2
  -2

> B=A(:,[1,2,3])
B =

   1   2   3
   2  -3   1
   1  -1   2

> coord=inverse(B)*b
coord =

   1.00000
   1.00000
  -1.00000
Ou seja, $ (0,-2,-2)_\mathcal{B}=\left[\begin{array}{c}1\\ 1\\ -1\end{array}\right]$ .

pedro 2007-05-29