next up previous contents
Seguinte: Bases de espaços vectoriais Acima: Espaços vectoriais Anterior: Definição e exemplos   Conteúdo

Independência linear

Sejam $ V$ um espaço vectorial sobre $ {\mathbb{K}}$ e $ \left\{v_i\right\}_{i\in I} \subseteq V, \left\{\alpha_i \right\}_{i\in I} \subseteq {\mathbb{K}}$. Se

$\displaystyle v= \sum_{i=1}^n \alpha_i v_i ,$

diz-se que $ v$ é uma combinação linear dos vectores $ v_1 , \dots , v_n$. Neste caso, dizemos que $ v$ se pode escrever como combinação linear de $ v_1 , \dots , v_n$.

Definição 4.2.1 (Conjunto linearmente independente)   Um conjunto não vazio $ \{v_i \}_{i\in I} \subseteq V$ diz-se linearmente independente se

$\displaystyle \sum_{i\in I} \alpha_i v_i =0 \Longrightarrow \alpha_1=\alpha_2 = \dots = \alpha_n =0.$

Um conjunto diz-se linearmente dependente se não for linearmente independente.

Por abuso de linguagem, tomaremos, em algumas ocasiões, vectores linearmente independentes para significar que o conjunto formado por esses vectores é linearmente independente.

O conceito de dependência e independência linear é usualmente usado de duas formas.

(i)
Dado um conjunto não vazio $ \{v_i\}$ de $ n$ vectores linearmente dependentes, então é possível escrever o vector nulo como combinação linear não trivial de $ v_1 , \dots , v_n$. Ou seja, existem escalares $ \alpha_1 , \dots, \alpha_n $, algum ou alguns dos quais não nulos, tais que

$\displaystyle 0= \sum_{i=n}^n \alpha_i v_i.$

Seja $ \alpha _k$ um coeficiente não nulo dessa combinação linear. Então

$\displaystyle v_k = \sum_{i=1,i \ne k}^{n} \left( -\alpha_k ^{-1} \alpha_i \right) v_i.$

Concluindo, dado um conjunto de vectores linearmente dependentes, então pelo menos um desses vectores é uma combinação linear (não trivial) dos outros vectores.
(ii)
Dado um conjunto não vazio $ \{v_i\}$ de $ n$ vectores linearmente independentes, da relação

$\displaystyle 0=\sum_{i=n}^n \alpha_i v_i$

podemos concluir de forma imediata e óbvia que $ \alpha_1 = \dots = \alpha_n =0$. Esta implicação será muito útil ao longo desta disciplina.

Algumas observações:

  1. Considerando o espaço vectorial $ {\mathbb{K}}\left[x \right]$, o conjunto dos monómios $ \{1,x, x^2, \dots\}$ é constituído por elementos linearmente independentes. Já $ 1, x, x^2, x^2 + x + 1$ são linearmente dependentes, visto

    $\displaystyle 1+x+x^2- \left( x^2+x+1\right) =0.$

  2. Em $ {\mathbb{K}}_n \left[x \right]$, quaisquer $ n+1$ polinómios são linearmente dependentes.
  3. Em $ {\mathbb{R}}^3$, consideremos os vectores $ \alpha=(1,1,0),\beta=(1,0,1),\gamma=(0,1,1), \delta=(1,1,1)$. Estes quatro vectores são linearmente dependentes (pois $ \alpha + \beta + \gamma -2\delta =0$), apesar de quaisquer três deles serem linearmente independentes.

Teorema 4.2.2   Sejam $ v_1 , \dots , v_n$ elementos linearmente independentes de um espaço vectorial $ V$. Sejam ainda $ \alpha_1,\dots, \alpha_n,\beta_1,\dots, \beta_n \in {\mathbb{K}}$ tais que

$\displaystyle \alpha_1 v_1+ \cdots + \alpha_nv_n=\beta_1 v_1+ \cdots + \beta_n v_n.$

Então $ \alpha_i=\beta_i$, para todo $ i=1, \dots, n$.

Se $ \alpha_1 v_1+ \cdots + \alpha_nv_n=\beta_1 v_1+ \cdots + \beta_n v_n$ então

$\displaystyle \left( \alpha_1-\beta_1\right) v_1+ \cdots + \left( \alpha_n-\beta_n\right) v_n=0,$

pelo que, usando o facto de $ v_1 , \dots , v_n$ serem linearmente independentes, se tem $ \alpha_i-\beta_i=0$, para todo $ i=1, \dots, n$.

O resultado anterior mostra a unicidade da escrita de um vector como combinação linear de elementos de um conjunto linearmente independente, caso essa combinação linear exista.

Teorema 4.2.3   Seja $ A$ um subconjunto não vazio de um espaço vectorial $ V$ sobre $ {\mathbb{K}}$. Então o conjunto de todas as combinações lineares de elementos de $ A$ é um subespaço vectorial de $ V$.

Seja $ A'$ o conjunto de todas as combinações lineares de elementos de $ A$. $ A'$ é obviamente não vazio visto $ A \ne \emptyset$. Sejam $ u,v \in A'$. Ou seja,

$\displaystyle u=\sum_{i\in I} \alpha_i a_i ,     v= \sum_{j\in J} \beta_j a_j,$

para alguns $ \alpha_i, \beta_j \in {\mathbb{K}}$, com $ a_i \in A$. Note-se que

$\displaystyle u+v = \sum_{i\in I} \alpha_i a_i + \sum_{j\in J} \beta_j a_j$

e portanto $ u+v$ é assim uma combinação linear de elementos de $ A$ - logo, $ u+v \in A'$. Para $ \kappa \in {\mathbb{K}}$, temos que $ \kappa u = \sum_{i\in I}^n \kappa \alpha_i a_i$ e portanto $ \kappa u \in A'$.

Tendo em conta o teorema anterior, podemos designar o conjunto das combinações lineares dos elementos de $ A$ como o espaço gerado por $ A$. Este espaço vectorial (subespaço de $ V$) denota-se por $ \langle A \rangle$.

Quando o conjunto $ A$ está apresentado em extensão, então não escrevemos as chavetas ao denotarmos o espaço gerado por esse conjunto. Por exemplo, se $ A=\{ v_1,v_2, v_3 \}$, então $ \langle A \rangle$ pode-se escrever como $ \langle v_1, v_2 ,v_3 \rangle$. Por notação, $ \langle \emptyset \rangle = \{ 0 \}$.

É importante referir os resultados que se seguem, onde $ V$ indica um espaço vectorial.

  1. Os vectores não nulos $ v_1,v_2,\dots ,v_n\in V$ são linearmente independentes se e só se, para cada $ k$, $ v_k \not\in \langle v_1, \dots ,v_{k-1},v_{k+1},\dots,v_n \rangle$.
  2. Sejam $ A,B \subseteq V$.
    1. Se $ A \subseteq B $ então $ \langle A \rangle \subseteq \langle B \rangle$.
    2. $ \langle A \rangle = \langle \langle A \rangle \rangle$.
    3. $ \langle A \rangle$ é o menor (para a relação de ordem $ \subseteq$) subespaço de $ V$ que contém $ A$.


next up previous contents
Seguinte: Bases de espaços vectoriais Acima: Espaços vectoriais Anterior: Definição e exemplos   Conteúdo
Pedro Patricio 2008-01-08