next up previous contents
Seguinte: Bibliografia Acima: Transformações lineares Anterior: Propriedades das transformações lineares   Conteúdo

Matriz associada a uma transformação linear

Iremos concluir que todas as transformações lineares de $ {\mathbb{K}}^n
\rightarrow {\mathbb{K}}^m$ podem ser representadas por matrizes do tipo $ m \times n$. Como motivação, consideramos alguns exemplos.


Sejam $ e_1, e_2, e_3$ elementos da base canónica $ B_1$ de $ {\mathbb{R}}^3$ e $ e_1^*, e_2^*$ os elementos da base canónica $ B_1^*$ de $ {\mathbb{R}}^2$. Seja ainda $ T:{\mathbb{R}}^3\rightarrow {\mathbb{R}}^2$ definida por

$\displaystyle T(e_1)$ $\displaystyle =$ $\displaystyle a_{11}e_1^*+a_{21}e_2^*$  
$\displaystyle T(e_2)$ $\displaystyle =$ $\displaystyle a_{12}e_1^*+a_{22}e_2^*$  
$\displaystyle T(e_3)$ $\displaystyle =$ $\displaystyle a_{13}e_1^*+a_{23}e_2^*.$  

Recorde que a transformação linear está bem definida à custa das imagens dos vectores de uma base.

Se $ x=(x_1, x_2, x_3)\in {\mathbb{R}}^3$, então

\begin{displaymath}\begin{array}{ccl}
T(x)&=&T(x_1e_1+x_2e_2+x_3e_3)=x_1T(e_1)+x...
...begin{array}{c}x_1\\ x_2\\ x_3\end{array}\right]=Ax
\end{array}\end{displaymath}

Por outras palavras, a transformação linear definida atrás pode ser representado à custa de uma matriz $ A\in
{\mathcal{M}_{2\times 3}}\left({\mathbb{R}}\right)$, que tem como colunas as coordenadas em relação a $ B_1^*$ das imagens dos vectores $ e_i \in {\mathbb{R}}^3, i=1, 2, 3$ por $ T$. Desta forma, dizemos que nas condições do exemplo anterior, a matriz $ A$ é a representação matricial de $ T$ relativamente às bases canónicas de $ {\mathbb{R}}^2$ e $ {\mathbb{R}}^3$.

Por exemplo, considere a aplicação linear $ T$ definida por

$\displaystyle T(1,0,0)$ $\displaystyle =$ $\displaystyle (4,-1)=4(1,0)-1(0,1)$  
$\displaystyle T(0,1,0)$ $\displaystyle =$ $\displaystyle (-2,5)=-2(1,0)+5(0,1)$  
$\displaystyle T(0,0,1)$ $\displaystyle =$ $\displaystyle (3,-2)=3(1,0)-2(0,1)$  

A matriz que representa $ T$ em relação às bases canónicas de $ {\mathbb{R}}^3$ e $ {\mathbb{R}}^2$ é $ A=\left[\begin{array}{ccc}4 & -2 & 3\\ -1 & 5 & -2\end{array}\right]$. Para todo $ v\in {\mathbb{R}}^3$, $ T(v)=Av$.


Repare que os cálculos envolvidos foram simples de efectuar já que usámos as bases canónicas dos espaços vectoriais. Tal não será, certamente, o caso se usarmos outras bases que não as canónicas. Neste caso, teremos que encontrar as coordenadas das imagens dos elementos da base do primeiro espaço vectorial em relação à base fixada previamente do segundo espaço vectorial. Vejamos o exemplo seguinte:

Sejam $ \{u_1, u_2, u_3\}$ base $ B_2$ de $ {\mathbb{R}}^3$ e $ \{v_1, v_2\}$ base $ B_2^*$ de $ {\mathbb{R}}^2$. Se $ x\in {\mathbb{R}}^3$, então $ x=\xi_1u_1+\xi_2u_2+\xi_3u_3$, e consequentemente

$\displaystyle T(x)=\xi_1T(u_1)+\xi_2T(u_2)+\xi_3T(u_3).$

Por outro lado, $ T(u_i)\in {\mathbb{R}}^2, i=1, 2, 3$, logo, podemos escrever estes vectores como combinação linear de $ v_1$ e $ v_2$. Assim,

\begin{displaymath}\begin{array}{ccl}
T(u_1)&=&b_{11}v_1 +b_{21}v_2 \\
T(u_2)&=...
...2}v_1 +b_{22}v_2 \\
T(u_3)&=&b_{13}v_1 +b_{23}v_2.
\end{array}\end{displaymath}

Verificamos, então, que,

\begin{displaymath}\begin{array}{ccl}
T(x)&=& \xi_1(b_{11}v_1 +b_{21}v_2)+\xi_2(...
..._{22}+\xi_3b_{23}v_2)\\
&=&\alpha_1v_1+\alpha_2v_2
\end{array}\end{displaymath}

onde

$\displaystyle \left[\begin{array}{ccc}b_{11}&b_{12}&b_{13}\\ b_{21}&b_{22}&b_{2...
...\end{array}\right]=\left[\begin{array}{c}\alpha_1\\ \alpha_2
\end{array}\right]$

Dizemos, agora, que $ B=\left[\begin{array}{ccc}b_{11}&b_{12}&b_{13}\\ b_{21}&b_{22}&b_{23}
\end{array}\right]$ é a matriz de $ T$ relativamente às bases $ B_2$ e $ B_2^*$ de $ {\mathbb{R}}^3$ e $ {\mathbb{R}}^2$, respectivamente.


Passamos de seguida a expôr o caso geral.

Sejam $ B_1=\{u_1, u_2, ..., u_n\}$ uma base de $ U$, $ B_2=\{v_1, v_2, ..., v_n\}$ uma base de $ V$, e

\begin{displaymath}\begin{array}{ccl}
T&:&U\rightarrow V\\ \\
&&x\rightarrow T(x)=\displaystyle\sum_{i=1}^nx_jT(u_i).
\end{array}\end{displaymath}

O vector $ T(u_j)$ pode ser escrito - de modo único - como combinação linear dos vectores $ v_1, v_2, ..., v_m$. Assim

$\displaystyle T(u_j)=\displaystyle\sum_{i=1}^ma_{ij}\cdot v_i, \ \ \ j=1,...,n.$

Logo

$ T(x)=\displaystyle\sum_{j=1}^nx_j T(u_j)=
\displaystyle\sum_{j=1}^n[\displayst...
....+\displaystyle\sum_{j=1}^n[a_{mj}x_j]v_m
=\displaystyle\sum_{j=1}^n\varphi v_i$.

Verificamos, assim, que existe entre as coordenadas $ (x_1, x_2,
..., x_n)$ de $ x$ (relativa à base $ B_1$), em $ U$, e as coordenadas $ (\varphi_1, \varphi_2, ..., \varphi_m)$ de $ T(x)$ (relativa à base $ B_2$) em $ V$. Tal ligação exprime-se pelas seguintes equações

$\displaystyle \varphi_i=\displaystyle\sum_{j=1}^na_{ij}x_j, \ \ i=1, 2, ..., m.$

O que se pode ser escrito como a equação matricial seguinte:

$\displaystyle \left[\begin{array}{cccc}a_{11}&a_{12}&...&a_{1n}
\\ a_{21}&a_{22...
...[\begin{array}{c}\varphi_1\\ \varphi_2
\\ \vdots\\ \varphi_m
\end{array}\right]$

Assim, concluímos:

Teorema 6.3.1   Se fixamos uma base de $ U$ e uma base de $ V$, a aplicação linear $ T: U\longrightarrow V$ fica perfeitamente definida por $ m \times n$ escalares. Ou seja, a aplicação linear $ T: U\longrightarrow V$ fica perfeitamente definida por uma matriz do tipo $ m \times n$

$\displaystyle M_{B_1, B_2}(T)$

cujas colunas são as coordenadas dos transformados dos vectores da base de $ U$, em relação à base de $ V$.

Vimos, então, que dada uma transformação linear $ G:{\mathbb{K}}^n \rightarrow {\mathbb{K}}^m$, existe uma matriz $ A \in \mathcal{M}_{m\times n}\left( {\mathbb{K}}\right)$ tal que $ G=T_A$. Mais, se $ \{e_1,\dots ,e_n\}$ e $ \{f_1,\dots ,f_m\}$ são as bases canónicas, respectivamente, de $ {\mathbb{K}}^n$ e $ {\mathbb{K}}^m$, então a matriz $ A$ é tal que a coluna $ i$ de $ A$ são as coordenadas de $ G(e_i)$ em relação à base $ \{f_1,\dots ,f_m\}$. No entanto, se se considerarem bases que não as canónicas, então é preciso ter um pouco mais de trabalho.

Por exemplo, considere6.1 a base $ B_1$ de $ {\mathbb{R}}^3$ constituída pelos vectores $ (0,1,1),(1,1,0),(1,0,1)$, e a base $ B_2$ de $ {\mathbb{R}}^2$ constituída pelos vectores $ (2,1),(1,2)$. Vamos calcular a matriz $ G$ que representa $ T:{\mathbb{R}}^3\rightarrow {\mathbb{R}}^2$, com $ T(x,y,z)=(x-y,x+y+z)$, nas bases apresentadas. Em primeiro lugar, calculamos as imagens dos elementos da base escolhida:
$\displaystyle T(0,1,1)$ $\displaystyle =$ $\displaystyle (-1,2)=v_1$  
$\displaystyle T(1,1,0)$ $\displaystyle =$ $\displaystyle (0,2)=v_2$  
$\displaystyle T(1,0,1)$ $\displaystyle =$ $\displaystyle (1,2)=v_3$  

Agora, encontramos as coordenadas de $ v_1,v_2,v_3$ relativamente à base de $ {\mathbb{R}}^2$ que fixámos. Ou seja, encontramos as soluções dos sistemas possíveis determinados6.2

$\displaystyle Ax=v_1, \, Ax=v_2, \, Ax=v_3,$

onde $ A=\left[\begin{array}{cc} 2 & 1\\ 1 & 2\end{array}\right]$. A matriz que representa $ T$ em relação às bases apresentadas é $ G=\left[\begin{array}{ccc} u_1 & u_2 & u_3\end{array}\right]$, onde $ u_1$ é a única solução de $ Ax=v_1$, $ u_2$ é a única solução de $ Ax=v_2$ e $ u_3$ é a única solução de $ Ax=v_3$.

Octave \includegraphics[scale=0.3]{Octave_Sombrero.eps}

> v1=[-1;2]; v2=[0;2]; v3=[1; 2];
> A=[2 1; 1 2];
> x1=A\v1
x1 =

  -1.3333
   1.6667

> x2=A\v2
x2 =

  -0.66667
   1.33333

> x3=A\v3
x3 =

  -1.8952e-16
   1.0000e+00

> G=[x1 x2 x3]
G =

  -1.3333e+00  -6.6667e-01  -1.8952e-16
   1.6667e+00   1.3333e+00   1.0000e+00

Fixadas as bases dos espaços vectoriais envolvidos, a matriz associada à transformação linear $ G$ será, doravante, denotada por $ [G]$.

Antes de passarmos ao resultado seguinte, consideremos as transformações lineares

\begin{displaymath}\begin{array}{llll}
H:&{\mathbb{R}}^2 & \rightarrow & {\mathb...
...arrow & {\mathbb{R}}\\
&(r,s,t) & \mapsto & 2r-s+t \end{array}\end{displaymath}

Obtemos, então,
$\displaystyle G\circ H(x,y)$ $\displaystyle =$ $\displaystyle 2(x-y)-1\cdot y+1\cdot 0$  
  $\displaystyle =$ $\displaystyle \left[\begin{array}{ccc}2&-1&1 \end{array}\right]\left[\begin{array}{c}x-y\\ y\\ 0\end{array}\right]$  
  $\displaystyle =$ $\displaystyle \left[\begin{array}{ccc}2&-1&1 \end{array}\right]\left[\begin{arr...
...& 1 \\ 0 & 0 \end{array}\right]\left[\begin{array}{c} x \\ y \end{array}\right]$  
  $\displaystyle =$ $\displaystyle [G][H] \left[\begin{array}{c}x \\ y \end{array}\right]$  

Portanto, $ [G\circ H]=[G][H]$.

Vejamos o que podemos afirmar em geral:

Teorema 6.3.2   Sejam $ U,V,W$ espaços vectoriais sobre $ {\mathbb{K}}$ e $ H:U\rightarrow V $, $ G:V\rightarrow W$ duas transformações lineares. Então
  1. $ G\circ H$ é uma transformação linear;
  2. $ G\circ H=T_{\left[G \right]\left[H \right]}$ e $ \left[G \circ H \right]= \left[G \right]\left[H \right]$.

A demonstração de (1) fica como exercício. Para mostrar (2), observe-se que, para qualquer $ u\in U$,

$\displaystyle G\circ H(u)=G(H(u))=G([H]u)=[G][H]u=T_{[G][H]} u.$


Fechamos, assim, como iniciámos: a algebrização do conjunto das matrizes. As matrizes não são mais do que representantes de um certo tipo de funções (as transformações lineares) entre conjuntos muitos especiais (espaços vectoriais). Se a soma de matrizes corresponde à soma de tranformações lineares (em que a soma de funções está definida como a função definida pela soma das imagens), o produto de matrizes foi apresentado como uma operação bem mais complicada de efectuar. No entanto, a forma como o produto matricial foi definido corresponde à composição das transformações lineares definidas pelas matrizes.

Este último capítulo explica, ainda, a razão pela qual não demos ênfase a espaços vectoriais reais de dimensão finita que não os da forma $ {\mathbb{R}}^n$. Mostrámos que todo o espaço vectorial finitamente gerado (ou seja, que tenha uma base com um número finito de elementos) é isomorfo a algum $ {\mathbb{R}}^n$. Já os não finitamente gerados pertencem a outra divisão: são bem mais difíceis de estudar, mas em compensação têm aplicações fantásticas, como o processamento digital de imagem.


Como epílogo, deixamos a seguinte mensagem: a parte interessante da matemática só agora está a começar!


next up previous contents
Seguinte: Bibliografia Acima: Transformações lineares Anterior: Propriedades das transformações lineares   Conteúdo
Pedro Patricio 2008-01-08