2 – Determinantes

Dado um sistema de duas equações e duas incógnitas
$$
\left\{ \begin{array}{r}
a_{11} x_1 + a_{12} x_2 = b_1\\
a_{21} x_1 + a_{22} x_2 = b_2
\end{array} \right.
$$

é possível resolvê-lo, por exemplo, por substituição e sua solução será
$$
x_1 = \frac{a_{11} b_1 – a_{12} b_2}{a_{11} a_{22} – a_{12} a_{21}} ; x_2 =
\frac{a_{11} b_2 – a_{21} b_1}{a_{11} a_{22} – a_{12} a_{21}} .
$$

Nas duas frações acima aparece o mesmo denominador, uma expressão que surge em diversos contextos dentro da álgebra linear. Por este motivo ele recebeu um nome e é objeto de estudo pormenorizado.

Definição: O determinante da matriz
$$
A = \left[ \begin{array}{rr}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{array} \right]
$$

é denotado por qualquer uma das formas abaixo
$$
\det A = \left| A \right| = \left|
\begin{array}{rr}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{array} \right|
= a_{11} a_{22} – a_{12} a_{21}.
$$

O determinante de uma matriz \(3 \times 3\)
$$
A = \left[ \begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}
\end{array} \right].
$$
é definido como
$$
\det A = a_{11} a_{22} a_{33} + a_{13} a_{21} a_{32} + a_{12} a_{23} a_{31}
– a_{11} a_{23} a_{32} – a_{12} a_{21} a_{33} – a_{13} a_{22} a_{31}.
$$

Exemplo: O determinante da matriz
$$
A = \left[ \begin{array}{rrr}
1 & 4 & 7\\
2 & 5 & 8\\
3 & 6 & 9
\end{array} \right].
$$
é
$$
\left| \begin{array}{rrr}
1 & 4 & 7\\
2 & 5 & 8\\
3 & 6 & 9
\end{array} \right| = 1.5.9 + 2.6.7 + 4.8.3 – 3.5.7 – 6.8.1 – 2.4.9 = 0.
$$

O cálculo de determinantes de matrizes de dimensões maiores diretamente pode ficar longo e tedioso. No entanto algumas propriedades simplificam esta operação. Antes de mostrarmos estas propriedades e até mesmo antes de descrever uma definição mais geral do determinante é útil apresentar algumas definições.

Definição: Dada uma fila de elementos (ou seja, um conjunto de elementos ordenados, por exemplo por meio de sua posição), uma transposição destes elementos é a troca de posição entre dois deles. Uma permutação é o resultado de uma transformação entre elementos de um conjunto ordenado obtida por meio de um número finito de transposições.

Exemplos: (1 2 3 4) \(\rightarrow\) (3 2 1 4) representa uma transposição dos elementos 3 e 1.

(1 2 3 4) \(\rightarrow\) (3 1 2 4) representa uma permutação obtida por meio da transposição anterior, seguida de nova transposição dos elementos 1 e 2.

\( n\) objetos podem ser permutados de \(n\) ! maneiras diferentes pois, temos \(n\) escolhas para a primeira posição, \(n – 1\) para a segunda, e consecutivamente,
$$
n (n – 1) (n – 2) \ldots 1 = n!
$$

Observe que, para a contagem acima, a permutação identidade, que consiste em deixar a fila inalterada, foi considerada.

Uma permutação é par (ímpar) se envolve um número par (ímpar) de transposições.

Exemplo:
$$
\begin{array}{ccccc}
(1 2 3 4 5) & \rightarrow & (1 2 5 4 3) \rightarrow & (1 5 2 4 3) \\
& & \text{par} & \text{impar} .
\end{array}
$$

Definição: o símbolo totalmente antissimétrico de Levi-Civita é
$$
\,\varepsilon_{i j k} \ldots = \left\{ \begin{array}{rl}
0, & \text{se dos índices está repetido,}\\
1, & \text{se \(i, j, k, \ldots\) aparecem como permutação par de
(1 2 3 \(\ldots\) )},\\
– 1, & \text{se \(i, j, k, \ldots\) aparecem como permutação impar
de (1 2 3 \(\ldots\) ).}
\end{array} \right.
$$

O símbolo pode ter qualquer número de índices, mas nosso propósito será suficiente usar 3 índices.

Exemplos:
$$
\begin{array}{rrr}
\,\varepsilon_{123} = 1, & \,\varepsilon_{231} = 1, & \,\varepsilon_{312} =
1,\\
\,\varepsilon_{132} = – 1, & \,\varepsilon_{213} = 1, & \,\varepsilon_{321} = –
1,\\
\,\varepsilon_{111} = 0, & \,\varepsilon_{112} = 0, & \text{etc} .
\end{array}
$$

De posse destas definições podemos apresentar uma definição para o determinate de uma matriz de qualquer dimensão, desde que seja uma matriz quadrada.

Definição: O determinante de uma matriz \(A_{3 \times 3}, A = \{a_{ij} \}\) é
$$
\det A = \sum^3_{i j k} a_{1 i} a_{2 j} a_{3 k} \,\varepsilon_{i j k} .
$$

O determinante de uma matriz \(A_{n \times n}, A = \{a_{i j} \}\) é
$$
\det A = \sum^n_{i_1 i_2 \ldots i_n} a_{1 i_1} a_{2 i_2} \ldots a_{n
i_n} \,\varepsilon_{i_1 i_2 \ldots i_n} .
$$

Usaremos esta definição, na maioria das vezes, apenas para mostrar resultados gerais sobre o determinante. Na prática, para matrizes com entradas numéricas, usaremos as propriedades para este cálculo. No entanto compreender esta notação é útil e facilita muito o desenvolvimento a seguir.

Exemplo: Para uma matriz \(2 \times 2\) , cujo determinante já escrevemos acima, temos
\begin{eqnarray*}
\left| \begin{array}{rr}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{array} \right| = \sum_{i, j} a_{1 i} a_{2 j} \,\varepsilon_{i j} = & &
\end{eqnarray*}
$$
= a_{11} a_{21} \,\varepsilon_{11} + a_{11} a_{22} \,\varepsilon_{12} + a_{12}
a_{21} \,\varepsilon_{21} + a_{12} a_{22} \,\varepsilon_{12}, = a_{11} a_{22} –
a_{12} a_{21},
$$

pois \(\,\varepsilon_{12} = 1 ;\; \,\varepsilon_{21} = – 1 ;\; \,\varepsilon_{11} = \,\varepsilon_{22} = 0\) . Este é, naturalmente, a mesma expressão já listada. O símbolo de Levi-Civita é utilizado aqui apenas para indicar um sinal e o cancelamento de termos incluem entradas de mesma linha ou mesma coluna da matriz. Para efeito de adquirir maior familiaridade com este formalismo vamos ainda listar o determinante de matrizes \(3 \times 3\) .

Exemplo:
\begin{eqnarray*}
\left| \begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}
\end{array} \right| = \sum_{i, j, k} a_{1 i} a_{2 j} a_{3 k} \,\varepsilon_{i
j k} = & &
\end{eqnarray*}
\begin{eqnarray*}
= a_{11} a_{22} a_{33} \,\varepsilon_{123} + a_{11} a_{23} a_{32}
\,\varepsilon_{132} + a_{12} a_{21} a_{33} \,\varepsilon_{213} + & & \\
+ a_{12} a_{23} a_{31} \,\varepsilon_{231} + a_{13} a_{21} a_{32}
\,\varepsilon_{312} + a_{13} a_{22} a_{31} \,\varepsilon_{321} = & &
\end{eqnarray*}
$$
= a_{11} a_{22} a_{33} + a_{12} a_{23} a_{31} + a_{13} a_{21} a_{32} –
a_{11} a_{23} a_{32} – a_{12} a_{21} a_{33} – a_{13} a_{22} a_{31},
$$

novamente, a mesma expressão já definida.

Propriedades do determinante

Na demonstração das propriedades do determinante usaremos apenas matrizes \(3 \times 3\) . A extensão destas demonstrações para matrizes de dimensões maiores é direta e não apresenta maior dificuldade. Denotaremos as matrizes \(A = \{a_{i j} \}\) e \(B = \{b_{i j} \}\) .

(i) Se todos os elementos de uma linha (ou coluna) de uma matriz são nulos, seu determinante é nulo.

Demonstração: Todos os termos do somatório que representa o determinante contém um elemento de todas as linhas (colunas). Se uma delas for nula o determinate é nulo. Alternativamente, se uma das linhas de \(A\) é nula, digamos que seja a primeira linha, \(a_{1 i} = 0\) , então $$
\det A = \sum_{i, j, k} a_{1 i} a_{2 j} a_{3 k} \,\varepsilon_{i j k} = 0.
$$

Como veremos a seguir todas as propriedades válidas para as linhas também valem para as colunas.

(ii) Se \(A’\) é a transposta de \(A\) então \(\det A’ = \det A\) .

Demonstração: Denotando \(A’ = \{a’_{i j} \}\) e lembrando que \(a’_{i j} = a_{j i}\) temos que
\begin{eqnarray*}
& \det A = \sum_{i, j, k} a_{1 i} a_{2 j} a_{3 k} \,\varepsilon_{i j k} =
\sum_{i, j, k} a_{i 1} a_{j 2} a_{k 3} \,\varepsilon_{i j k} = &
\end{eqnarray*}
$$
= \sum_{i, j, k} a’_{1 i} a’_{2 j} a’_{3 k} \,\varepsilon_{i j k} = \det A’.
$$

(iii) Se, em uma matriz, uma linha (coluna) é multiplicada por uma constante o determinante da matriz fica multiplicado por esta constante.

Demonstração: Sem perda de generalidade considere que \(B\) é obtida de \(A\) pela multiplicação de sua primeira linha por uma constante \(k\) . Então \(b_{1 i} = k a_{1 i}\) e
$$
\det B = \sum_{i, j, k} b_{1 i} b_{2 j} b_{3 k} \,\,\varepsilon_{i j k} =
\sum_{i, j, k} k a_{1 i} a_{2 j} a_{3 k}\, \,\varepsilon_{i j k} = k \det A.
$$

(iv) Se, em uma matriz, duas linhas (colunas) são permutadas o determinante da matriz muda de sinal (fica multiplicado por \(– 1\)).

Demonstração: Seja \(B\) a matriz obtida de \(A\) pela permutação das linhas 1 e 2. (O resultado é análogo para qualquer outra escolha de linhas ou colunas). Então \(b_{1 i} = a_{2 i}\) e \(b_{2 i} = a_{2 i}\) e
$$
\det B = \sum_{i, j, k} b_{1 i} b_{2 j} b_{3 k} \,\varepsilon_{i j k} =
\sum_{i, j, k} a_{2 i} a_{1 j} a_{3 k} \,\varepsilon_{i j k} .
$$

Podemos renomear os índices, permutando os índices \(i\) e \(j\) sem alterar o determinante,
$$
\det B = \sum_{i, j, k} a_{1 i} a_{2 j} a_{3 k} \,\varepsilon_{j i k} = – \det A.
$$

Na última igualdade foi usado o fato de que \(\,\varepsilon_{j i k} = – \,\varepsilon_{i j k}\).

(v) Se \(A\) tem duas linhas (colunas) iguais então \(\det A = 0\) .

Demonstração: Devido à propriedade (iv) se \(B\) é obtida de \(A\) por permutação de duas linhas (colunas) então \(\det B = – \det A\) . Se \(A = B\) , pois as duas linhas são iguais, então \(\det A = 0\) .

(vi) Se \(B\) é obtida de \(A\) pela soma de cada elemento de uma linha (coluna) por constantes seu determinante fica alterado da seguinte forma:
$$
\left| \begin{array}{rrr}
a_{11} & \cdots & a_{1 n}\\
\vdots & & \vdots\\
a_{k 1} + b_1 & \cdots & a_{k n} + b_n\\
\vdots & & \vdots\\
a_{n 1} & \cdots & a_{n n}
\end{array} \right| = \left| \begin{array}{rrr}
a_{11} & \cdots & a_{1 n}\\
\vdots & & \vdots\\
a_{k 1} & \cdots & a_{k n}\\
\vdots & & \vdots\\
a_{n 1} & \cdots & a_{n n}
\end{array} \right| + \left| \begin{array}{rrr}
a_{11} & \cdots & a_{1 n}\\
\vdots & & \vdots\\
k_1 & \cdots & k_n\\
\vdots & & \vdots\\
a_{n 1} & \cdots & a_{n n}
\end{array} \right|
$$

Demonstração: Suponha que \(B\) é a matriz obtida de \(A\) pela soma de cada elemento de sua primeira linha com constantes, \(b_{1 i} = a_{1 i} + k_i\) , onde \(k_i (i – 1, \ldots, n)\) são constantes, suas outras linhas permanecendo inalteradas, \(b_{j i} = a_{j i}\) se \(j \neq 1\) . Então

$$
\det B = \sum_{i, j, k} b_{1 i} b_{2 j} b_{3 k} \,\varepsilon_{j i k} = \sum_{i, j, k} (a_{1 i} + k_i) a_{2 j} a_{3 k} \,\varepsilon_{j i k} =
$$
$$
= \sum_{i, j, k} a_{1 i} a_{2 j} a_{3 k} \,\varepsilon_{j i k} + \sum_{i, j,k} k_i a_{2 j} a_{3 k} \,\varepsilon_{j i k},
$$

que é o mesmo resultado mostrado acima. É importante observar que o determinante de uma soma de matrizes não é igual à soma dos determinantes, ou seja
$$
\det (A + B) \neq \det A + \det B.
$$

(vii) O determinante não se altera se somarmos à uma de suas linhas um múltiplo de outra linha. Devido à propriedade (ii) o mesmo vale para colunas da matriz.

Demonstração: Vamos denotar por \(B\) a matriz obtida de \(A\) por meio da operação \(L_1 + k L_2 \rightarrow L_2\) ,ou seja, \(b_{1 j} = a_{1 j} + k a_{2 j}\) . (A demonstração é análoga para quaisquer outras duas linhas ou colunas de \(A.)\) Então

$$
\det B = \sum_{i, j, k} b_{1 i} b_{2 j} b_{3 k} \,\varepsilon_{j i k} = \sum_{i, j, k} (a_{1 i} + k a_{2 i}) a_{2 j} a_{3 k} \,\varepsilon_{j i k} =
$$
$$
= \sum_{i, j, k} a_{1 i} a_{2 j} a_{3 k} \,\varepsilon_{j i k} + k \sum_{i, j, k} a_{2 i} a_{2 j} a_{3 k} \,\varepsilon_{j i k} = \det A.
$$

O último somatório é nulo porque representa o determinate de uma matriz com duas linhas iguais.

Exemplo: Usamos a propriedade (vii) para linhas, colunas (ou ambas) com maior número de entradas nulas. No determinante abaixo fazemos as operações indicadas à esquerda,
$$
L_2 – 2 L_3 \rightarrow L_2 \left| \begin{array}{rrr}
1 & 2 & 3\\
2 & 3 & 2\\
1 & 0 & 1
\end{array} \right| = \left| \begin{array}{rrr}
1 & 2 & 3\\
0 & 3 & 0\\
1 & 0 & 1
\end{array} \right| = 3 – 3 \times 3 = – 6,
$$

ou, indicando a \(i\)-ésima coluna por \(C_i\) :
$$
C_3 – C_1 \rightarrow C_3 \left| \begin{array}{rrr}
1 & 2 & 3\\
2 & 3 & 2\\
1 & 0 & 1
\end{array} \right| = \left| \begin{array}{rrr}
1 & 2 & 2\\
2 & 3 & 0\\
1 & 0 & 0
\end{array} \right| = – 2 \times 3 = – 6.
$$

(viii) O determinate de um produto de matrizes é igual ao produto dos determinantes:
$$
\det (A.B) = \det A . \det B.
$$

Demonstração:

Nota: \((A B)_{i j} = \sum_k a_{i k} b_{k j}\) .

(ix) O desenvolvimento de Laplace é uma propriedade dos determinantes importante e será considerada na seção a seguir.

Desenvolvimento de Laplace

Vimos anteriormente que o determinante de uma matriz \(3 \times 3\) , \(A = \{a_{i j} \}\) , ou seja,
$$
A = \left[ \begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}
\end{array} \right].
$$

é definido como
$$
\det A = a_{11} a_{22} a_{33} + a_{13} a_{21} a_{32} + a_{12} a_{23} a_{31}
– a_{11} a_{23} a_{32} – a_{12} a_{21} a_{33} – a_{13} a_{22} a_{31.}
$$

Colocando os elementos da primeira linha em evidência em todos os fatores temos
$$
\det A = a_{11} (a_{22} a_{33} – a_{23} a_{32}) + a_{12} (a_{23} a_{31} –
a_{21} a_{33}) + a_{13} (a_{21} a_{32} – a_{22} a_{31}) =
$$

$$
a_{11} \left| \begin{array}{rr}
a_{22} & a_{23}\\
a_{32} & a_{33}
\end{array} \right| – a_{12} \left| \begin{array}{rr}
a_{21} & a_{23}\\
a_{31} & a_{33}
\end{array} \right| + a_{13} \left| \begin{array}{rr}
a_{21} & a_{21}\\
a_{31} & a_{32}
\end{array} \right| .
$$

O sinal do segundo termo foi invertido para que uma notação mais sintética pudesse ser adotada, da seguinte forma:
$$
\det A = a_{11} \left| A_{11} \right| – a_{12} \left| A_{12} \right|
+ a_{13} \left| A_{13} \right|,
$$

onde \(A_{i j}\) é uma submatriz obtida de \(A\) através da retirada de sua \(i\)-ésima linha e \(j\)-ésima coluna. Uma notação ainda mais compacta e que será útil pode ser conseguida definido-se o cofator do elemento \(a_{i j} \) como o número
$$
\Delta_{ij} = (- 1)^{i + j} \left| A_{i j} \right|.
$$

Desta forma podemos escrever
$$
\det A = a_{11} \Delta_{11} + a_{12} \Delta_{12} + a_{13} \Delta_{13} = \sum_{k = 1}^n a_{1 k} \Delta_{1 k},
$$

que é chamado de desenvolvimento de Laplace ao longo da primeira linha. O mesmo pode ser escrito para qualquer linha (ou coluna),
$$
\det A = \sum_{k = 1}^n a_{i k} \Delta_{i k}, i = 1, \ldots, n,
$$
que é o desenvolvimento de Laplace ao longo da \(i\)-ésima linha.

Esta forma compacta do desenvolvimento de Laplace será usada em demonstrações futuras. Ela também é usada na prática para o cálculo de determinantes, principalmente para matrizes de dimensões maiores que \(3 \times 3\) . Um exemplo pode tornar mais claro este uso.

Exemplo: Vamos obter o determinante da matriz \(A\) abaixo pelo desenvolvimento de Laplace ao longo da segunda coluna:
$$
A = \left[ \begin{array}{rrr}
1 & – 2 & 3\\
2 & 1 & – 1\\
– 2 & – 1 & 2
\end{array} \right].
$$
$$
\det A = + 2 A = \left| \begin{array}{rr}
2 & – 1\\
– 2 & 2
\end{array} \right| + 1 \left| \begin{array}{rr}
1 & 3\\
– 2 & 2
\end{array} \right| + 1 \left| \begin{array}{rr}
1 & 3\\
2 & – 1
\end{array} \right| = 2 (2) + 1 (8) + 1 (- 7) = 5.
$$

Observe que os sinais dos cofatores são:
$$
(- 1)^{1 + 2} = – 1 ; (- 1)^{2 + 2} = + 1 ; (- 1)^{3 + 2} = – 1.
$$

Em diversas situações o cálculo pode ser muito simplificado de usarmos juntamente com este desenvolvimento as demais propriedades do determinante.

Exemplo: Com a mesma matriz \(A\) acima fazemos primeiro a operação \(L_3 + L_2 \rightarrow L_3\) , que deixa o determinante inalterado,
$$
\det A = \left| \begin{array}{rrr}
1 & – 2 & 3\\
2 & 1 & – 1\\
– 2 & – 1 & 2
\end{array} \right| = \left| \begin{array}{rrr}
1 & – 2 & 3\\
2 & 1 & – 1\\
0 & 0 & 1
\end{array} \right| = (- 1)^{3 + 3} \left| \begin{array}{rr}
1 & – 2\\
2 & 1
\end{array} \right| = 5.
$$

Na penúltima igualdade foi feito o desenvolvimento de Laplace ao longo da terceira linha (escolhida porque contém apenas um elemento não nulo).

Exemplo: Para o cálculo do determinante da matriz \(A_{4 \times 4}\) abaixo usamos as propriedades do determinante para obter uma matriz com um único
termo não nulo, com a operação \(C_1 – 2 C_2 \rightarrow C_1\) ,
$$
\det A = \left| \begin{array}{rrrr}
– 1 & 2 & 3 & – 4\\
4 & 2 & 0 & 0\\
– 1 & 2 & – 3 & 0\\
2 & 5 & 3 & 1
\end{array} \right| = \left| \begin{array}{rrrr}
– 5 & 2 & 3 & – 4\\
0 & 2 & 0 & 0\\
– 5 & 2 & – 3 & 0\\
– 8 & 5 & 3 & 1
\end{array} \right| = – 3.2 \left| \begin{array}{rrrr}
5 & 2 & 1 & – 4\\
0 & 1 & 0 & 0\\
5 & 2 & – 1 & 0\\
8 & 5 & 1 & 1
\end{array} \right| .
$$

Na última igualdade foi colocado em evidência os fatores \(– 1\) da primeira coluna, 3 da terceira coluna, e 2 da segunda linha. Fazemos agora o desenvolvimento de Laplace ao longo da segunda linha e, em seguida, \(C_1 + 5 C_2 \rightarrow C_1 \) para obter
$$
\det A = -6 (-1)^{2 + 2} \left| \begin{array}{rrr}
5 & 1 & – 4\\
5 & – 1 & 0\\
8 & 1 & 1
\end{array} \right| = \left| \begin{array}{rrr}
10 & 1 & – 4\\
0 & – 1 & 0\\
13 & 1 & 1
\end{array} \right| = – 6 (- 1) \left| \begin{array}{rr}
10 & – 4\\
13 & 1
\end{array} \right| = 372.
$$

A última operação foi o desenvolvimento de Laplace ao longo da segunda linha.

Matriz adjunta e matriz inversa

Dada a matriz \(A =\{a_{i j}\}\) já definimos anteriormente o cofator do elemento \(a_{i j} \) como o número
$$
\Delta_{ij} = (- 1)^{i+j} \left| A_{ij} \right|,
$$
onde \(A_{ij}\) é uma submatriz obtida de \(A\) através da retirada de sua \(i\)-ésima linha e \(j\)-ésima coluna. Como existe um cofator para cada um dos \(n \times n\) elementos de \(A\) podemos construir a chamada matriz dos cofatores de \(A\), que denotaremos por \(\bar{A} = \{\Delta_{i j} \}\) , com as mesmas dimensões de \(A\) .

Exemplo: Vamos encontrar a matriz dos cofatores de
$$
A = \left[ \begin{array}{rrr}
2 & 1 & 0\\
– 3 & 1 & 4\\
1 & 6 & 5
\end{array} \right].
$$

Seus cofatores são
$$
\Delta_{11} = (- 1)^{1 + 1} \left| \begin{array}{rr}
1 & 4\\
6 & 5
\end{array} \right| = – 19 ;
$$

$$
\Delta_{12} = (- 1)^{1 + 2} \left| \begin{array}{rr}
– 3 & 1\\
4 & 5
\end{array} \right| = + 19 ;
$$

$$
\Delta_{13} = (- 1)^4 \left| \begin{array}{rr}
– 3 & 1\\
1 & 6
\end{array} \right| = – 19 ;
$$

$$
\begin{array}{rr}
\Delta_{21} = – \left| \begin{array}{rr}
1 & 0\\
6 & 5
\end{array} \right| = – 5 ; & \Delta_{31} = \left| \begin{array}{rr}
1 & 0\\
1 & 4
\end{array} \right| = 4 ;
\end{array}
$$

$$
\begin{array}{rr}
\Delta_{22} = \left| \begin{array}{rr}
2 & 0\\
1 & 5
\end{array} \right| = 10 ; & \Delta_{32} = – \left| \begin{array}{rr}
2 & 0\\
– 3 & 4
\end{array} \right| = – 8 ;
\end{array}
$$

$$
\begin{array}{rr}
\Delta_{23} = – \left| \begin{array}{rr}
2 & 1\\
1 & 6
\end{array} \right| = – 11 ; & \Delta_{33} = \left| \begin{array}{rr}
2 & 1\\
– 3 & 1
\end{array} \right| = 5.
\end{array}
$$

A matriz dos cofatores é, portanto,
$$
\bar{A} = \left[ \begin{array}{rrr}
– 19 & 19 & – 19\\
– 5 & 10 & – 11\\
4 & – 8 & 5
\end{array} \right].
$$

Definição: Dada uma matriz quadrada \(A,\) a matriz adjunta de \(A\) é a matriz transposta da matriz dos cofatores. Denotaremos esta matriz por \(\text{adj} A = \bar{A}’\) .

Exemplo: Continuando com a mesma matriz \(A\) do exercício anterior, sua adjunta é
$$
\text{adj} A = \left[ \begin{array}{rrr}
– 19 & – 5 & 4\\
19 & 10 & – 8\\
– 19 & – 11 & 5
\end{array} \right].
$$

Aproveitando ainda o mesmo exemplo para mostrar uma utilidade da matriz adjunta, observe que o determinante de \(A\) é
$$
\left| \begin{array}{rrr}
2 & 1 & 0 \\
– 3 & 1 & 4 \\
1 & 6 & 5
\end{array} \right| = 2 \Delta_{11} + \Delta_{12} = 2 (- 19) + 19 = – 19,
$$

enquanto o produto de \(A\) por sua adjunta é
$$
A. \text{adj} A = \left[\begin{array}{rrr}2 & 1 & 0\\- 3 & 1 & 4\\1 & 6 & 5 \end{array}\right]
\left[\begin{array}{rrr}- 19 & – 5 & 4\\19 & 10 & – 8\\- 19 & – 11 & 5\end{array}\right]= – 19
\left[\begin{array}{rrr}1 & 0 & 0\\0 & 1 & 0\\ 0 & 0 & 1\end{array}\right] = – 19 \mathbb{I}_3.
$$

Este é um resultado geral e importante, válido para toda matriz \(A_{n \times n}\).

Teorema: Se \(A\) é uma matriz \(n \times n\) então
$$
A. \text{adj} A = (\det A) \mathbb{I}_n .
$$

Demonstração: para matrizes \(3 \times 3\) temos
$$
A. \text{adj} A = \left[ \begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}
\end{array} \right]
\left[ \begin{array}{rrr}
\Delta_{11} & \Delta_{21} & \Delta_{31}\\
\Delta_{12} & \Delta_{22} & \Delta_{32}\\
\Delta_{13} & \Delta_{23} & \Delta_{33}
\end{array} \right].
$$

Se denotarmos por \(c_{i j} = A. \text{adj} A_{i j}\) um elemento qualquer deste produto, observamos que
$$
c_{11} = a_{11} \Delta_{11} + a_{12} \Delta_{12} + a_{13} \Delta_{13} = \left| A \right|,
$$

uma vez que este é o desenvolvimento de Laplace para o determinante ao longo da primeira linha. Outro elemento é
$$
c_{12} = a_{11} \Delta_{21} + a_{12} \Delta_{22} + a_{13} \Delta_{23},
$$

que é o desenvolvimento de Laplace para o determinante
$$
c_{12} = \left| \begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{11} & a_{12} & a_{13}\\
a_{31} & a_{32} & a_{33}
\end{array} \right| = 0,
$$

nulo porque duas linhas da matriz são iguais. Todos os demais elementos admitem igual tratamento e
$$
c_{i j} = (A . \text{adj} A)_{i j} = \left| A \right| \delta_{i j},
$$

significando que todos são nulos exceto os elementos da diagonal principal. Este é o resultado que procuramos mostrar
$$
A . \text{adj} A = \left[ \begin{array}{rrr}
\left| A \right| & 0 & 0\\
0 & \left| A \right| & 0\\
0 & 0 & \left| A \right|
\end{array} \right] = \det A.\mathbb{I}_3 .
$$

O mesmo procedimento pode ser feito para matrizes quadradas de qualquer dimensão.

Denotando \((A \text{adj} A)_{i j} = c_{i j}, \text{adj} A = \{\Delta_{j i} \}\) temos
$$
c_{i j} = \sum_{k = 1}^n a_{i k} \Delta_{j k} = 0
$$

se \(i \neq j\) pois representa o determinante de uma matriz com duas linhas iguais. Se \(i = j\)
$$
c_{i i} = \sum_{k = 1}^n a_{i k} \Delta_{i k} = \det A.
$$

Logo \(A.\text{adj} A = \left| A \right| \mathbb{I}_n\) .

Definição: Dada uma matriz quadrada \(A\) dizemos que \(A^{- 1}\) é a matriz inversa de \(A\) se \(A A^{- 1} = A^{- 1} A =\mathbb{I}\) . Dizemos ainda que \(A\) é invertível se existir a sua inversa.

Exemplo: considerando a matriz
$$
A = \left[ \begin{array}{rr}
6 & 2\\
11 & 4
\end{array} \right], \det A = 2,
$$

encontramos a matriz dos cofatores e sua adjunta
$$
\bar{A} = \left[ \begin{array}{rr}
4 & – 11\\
– 2 & 6
\end{array} \right],\;\;\; \text{adj} A = \left[ \begin{array}{rr}
4 & – 2\\
– 11 & 6
\end{array} \right] .
$$

O produto entre A e sua adjunta é
$$
A . \text{adj} A = \left[ \begin{array}{rr}
6 & 2\\
11 & 4
\end{array} \right] \left[ \begin{array}{rr}
4 & – 2\\
– 11 & 6
\end{array} \right] = \left[ \begin{array}{rr}
2 & 0\\
0 & 2
\end{array} \right] .
$$

A inversa de \(A\) é
$$
A^{- 1} = \frac{\text{adj} A}{\det (A)} = \frac{1}{2} \left[
\begin{array}{rr}
4 & – 2\\
– 11 & 6
\end{array} \right]
$$

pois
$$
A A^{- 1} = \frac{1}{2} \left[ \begin{array}{rr}
6 & 2\\
11 & 4
\end{array} \right] \left[ \begin{array}{rr}
4 & – 2\\
– 11 & 6
\end{array} \right] = \left[ \begin{array}{rr}
1 & 0\\
0 & 1
\end{array} \right] =\mathbb{I}.
$$

Teorema: Uma matriz \(A\) é invertível se, e somente se, seu determinate é não nulo, \(\det A \neq 0\) . Neste caso sua inversa é
$$
A^{- 1} = \frac{\text{adj} A}{\det A} .
$$

Demonstração: Suponha que \(A\) é invertível (ou seja, existe a sua inversa \(A^{- 1}\) ). Neste caso
$$
A.A^{- 1} =\mathbb{I} \Rightarrow \det (A.A^{- 1}) = \det \mathbb{I}= 1.
(\times)
$$

Pela propriedade (ix) do determinante temos que
$$
\det A . \det (A^{- 1}) = 1 A
$$

e, portanto
$$
\det (A^{- 1}) = \frac{1}{\det A} .
$$

Concluimos de (*) que \(\det A \neq 0\) é uma condição suficiente para que \(A\) admita uma inversa. Por outro lado, se \(\det A \neq 0\)
então
$$
A^{- 1} = \frac{\text{adj} A}{\det A} .
$$

Podemos listar ainda outras propriedades de matrizes e suas inversas e consequências das propriedades acima:

  1. Se \(A\) e \(B\) são invertíveis então o produto \(A B\) é invertível e sua inversa é \((A B)^{- 1} = B^{- 1} A^{- 1}\).

    Demonstração: \(B^{- 1} A^{- 1} (A B) = B^{- 1} (A^{- 1} A) B =
    B^{- 1} \mathbb{I}B = B^{- 1} B =\mathbb{I}\) .

  2. Se existe uma matriz \(B\) tal que \(B A =\mathbb{I}\) então \(A\) é invertível e \(B = A^{- 1}\) . Isto significa que a inversa é única e \(A^{- 1} A = A A^{- 1} =\mathbb{I}\) (a inversa à direita e à esquerda são idênticas).
    Demonstração: \(B = B\mathbb{I}= B A A^{- 1} = (B A) A^{- 1}
    =\mathbb{I}A^{- 1} = A^{- 1}\).
  3. Se \(A\) tem determinante nulo então não existe a inversa de \(A\).

Exemplo: Como um exercício procure uma matriz \(B_{2 \times 2}\) que seja a inversa de
$$ A = \left[ \begin{array}{rr}0 & 2\\0 & 1\end{array} \right]. $$

Tanto a operação de resolver um sistema linear quanto a de inverter um matriz são muito comuns na matemática aplicada e computacional. Estas operações envolvem um grande número de cálculos e nem sempre são realizadas na prática nas formas aqui descritas. Uma forma adicional de solução de sistemas de \(n\) equações e \(n\) incógnitas, ainda envolvendo muitas operações mas muito útil em manipulações algébricas e abstratas é a conhecida regra de Cramer.

Regra de Cramer

Considere o sistema de \(n\) equações e \(n\) incógnitas
\begin{eqnarray*}
a_{11} x_1 + a_{12} x_2 + \ldots + a_{1 n} x_n = b_1 & & \\
a_{21} x_1 + a_{22} x_2 + \ldots + a_{2 n} x_n = b_2 & & \\
\vdots & & \\
a_{n 1} x_1 + a_{n 2} x_2 + \ldots + a_{n n} x_n = b_n & &
\end{eqnarray*}
ou, \(A X = B\) , para representar sinteticamente a operação entre
matrizes
$$
\left[ \begin{array}{rrrr}
a_{11} & a_{12} & \cdots & a_{1 n} \\
a_{21} & a_{22} & \cdots & a_{2 n} \\
\vdots & & & \vdots \\
a_{n 1} & a_{n 2} & \cdots & a_{n n}
\end{array}
\right]
\left[ \begin{array}{r}
x_1\\
x_2\\
\vdots\\
x_n
\end{array}
\right] =
\left[ \begin{array}{r}
b_1\\
b_2\\
\vdots\\
b_n
\end{array}
\right].
$$

Se o determinante de \(A\) é não nulo, \(\det A \neq 0\) , então existe a inversa \(A^{- 1}\) e o sistema fica completamente resolvido, bastando multiplicar o sistema por \(A^{- 1}\) à esquerda
$$
A^{- 1} A X = A^{- 1} B.
$$

Como \(A^{- 1} A =\mathbb{I}\) então a solução é
$$
X = A^{- 1} B.
$$

Lembrando que
$$
A^{- 1} = \frac{\text{adj} A}{\det A}
$$

escrevemos
$$
\left[\begin{array}{r} x_1\\ x_2\\ \vdots\\ x_n \end{array}\right] = \frac{1}{\det A}
\left[\begin{array}{rrrr}
\Delta_{11} & \Delta_{21} & \cdots & \Delta_{1 n}\\
\Delta_{12} & \Delta_{22} & \cdots & \Delta_{2 n}\\
\vdots & & & \vdots\\
\Delta_{1 n} & \Delta_{2 n} & \cdots & \Delta_{n n}
\end{array}\right]
\left[\begin{array}{r} b_1\\ b_2\\ \vdots\\ b_n \end{array}\right].
$$

Como exemplo vamos listar explicitamente o primeiro elemento da solução
$$
x_1 = \frac{1}{\det A} (\Delta_{11} b_1 + \Delta_{21} b_2 + \ldots + \Delta_{n 1} b_n),
$$

onde se observa que o termo entre parênteses é o determinante de uma matriz obtida de \(A\) substituindo-se sua primeira coluna pela matriz coluna \(B\) ,em seu desenvolvimento de Laplace ao longo da primeira linha:
$$
\left| \begin{array}{rrrr}
b_1 & a_{12} & \cdots & a_{1 n}\\
b_2 & a_{22} & \cdots & a_{2 n}\\
\vdots & & & \vdots\\
b_n & a_{n 2} & \cdots & a_{n n}
\end{array} \right| = \Delta_{11} b_1 + \Delta_{21} b_2 + \ldots +
\Delta_{n 1} b_n .
$$

O mesmo ocorre com qualquer um dos elementos \(x_i\) da solução,
$$
x_i = \frac{1}{\det A} \left| \begin{array}{rrrrr}
a_{11} & \cdots & b_1 & \cdots & a_{1 n}\\
a_{21} & \cdots & b_2 & \cdots & a_{2 n}\\
\vdots & & & & \vdots\\
a_{n 1} & \cdots & b_n & \cdots & a_{n n}
\end{array} \right|, i = 1, \ldots, n,
$$

onde a matriz \(B\) substitui a \(i\)-ésima coluna no determinante. Esta é a chamada regra de Cramer.

Exemplo: Vamos resolver o seguinte sistema usando a regra de Cramer,
$$
\begin{array}{r}
2 x – 3 y + 7 z = 1\\
x + 3 z = 5\\
2 y – z = 0
\end{array}
$$

que equivale à \(A X = B\) ,
$$
A = \left[ \begin{array}{rrr}
2 & – 3 & 7\\
1 & 0 & 3\\
0 & 2 & – 1
\end{array} \right], \;\;\; B = \left[ \begin{array}{r}
1\\
5\\
0
\end{array} \right] .
$$

Notamos que \(\det A = – 1\) a solução do sistema é
$$
x = – \left| \begin{array}{rrr}
1 & – 3 & 7\\
5 & 0 & 3\\
0 & 2 & – 1
\end{array} \right| = – 49 ;
$$

$$
y = – \left| \begin{array}{rrr}
2 & 1 & 7\\
1 & 5 & 3\\
0 & 0 & – 1
\end{array} \right| = 9 ;
$$

$$
z = – \left| \begin{array}{rrr}
2 & – 3 & 1\\
1 & 0 & 5\\
0 & 2 & 0
\end{array} \right| = 18.
$$

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *