Um problema em diagonalização de matrizes

Seja A a matriz

A=\left\lbrack\begin{matrix}  0&0&0&1\\  1&0&0&0\\  0&1&0&0\\  0&0&1&0  \end{matrix}\right\rbrack

Os seus valores próprios são determinados pela equação (que envolve o determinante)

-\left|\begin{matrix}  -\lambda&0&0&1\\  1&-\lambda&0&0\\  0&1&-\lambda&0\\  0&0&1&-\lambda  \end{matrix}\right|=1-\lambda^4=0

O polinómio p(\lambda)=1-\lambda^4 recebe a designação de polinómio característico da matriz A. Relativamente a p(\lambda) sabemos ainda que

p(\lambda)=\left(1-\lambda^2\right)\left(1+\lambda^2\right)=(1-\lambda)(1+\lambda)\left(1+\lambda^2\right)

Segue-se daqui que p(\lambda) possui as raízes reais 1 e -1, bem como as raízes complexas i e -i. Para determinarmos os vectores próprios correspondentes aos valores próprios reais, resolvemos o sistema de equações dado por \left(A-\lambda I\right)\vec{X}=0, onde I corresponde à matriz identidade. Fazemos então

\vec{X}=\left\lbrack\begin{matrix}  x\\  y\\  z\\  w  \end{matrix}\right\rbrack

Para \lambda=1 temos o sistema

\left\lbrack\begin{matrix}  -1&0&0&1\\  1&-1&0&0\\  0&1&-1&0\\  0&0&1&-1  \end{matrix}\right\rbrack\left\lbrack\begin{matrix}  x\\  y\\  z\\  w  \end{matrix}\right\rbrack=\left\lbrack\begin{matrix}  0\\  0\\  0\\  0  \end{matrix}\right\rbrack

Se aplicarmos a condensação de Gauss concluímos que a matriz associada ao determinante tem característica 3 e as três primeiras linhas são linearmente independentes. Então, o sistema considerado é equivalente a

\left\lbrace\begin{matrix}  x=w\\  x=y\\  y=z  \end{matrix}\right.

isto é, y=x, z=x e w=x. O vector próprio \vec{v}_1 associado ao valor próprio 1 é

\vec{v}_1=x\left\lbrack\begin{matrix}  1\\  1\\  1\\  1  \end{matrix}\right\rbrack

Associado ao valor próprio \lambda=-1 temos o vector próprio

\vec{v}_{-1}=x\left\lbrack\begin{matrix}  1\\  -1\\  1\\  -1  \end{matrix}\right\rbrack

Observamos que se tratam de dois vectores perpendiculares entre si. Recorrendo ao processo de ortogonalização de Gram-Schmidt, incluindo os versores da base canónica, é possível encontrar dois vectores adicionais, perpendiculares entre si e perpendiculares a cada um dos vectores próprios. No entanto, como se trata de um cenário intuitivo, facilmente vemos que os vectores

\vec{u}_1=\left\lbrack\begin{matrix}  1\\ 0\\ -1 \\ 0  \end{matrix}\right\rbrack

e

\vec{u}_2=\left\lbrack\begin{matrix}0\\ 1\\ 0\\ -1\end{matrix}\right\rbrack

além de serem perpendiculares entre si, são perpendiculares a \vec{v}_1 e \vec{v}_{-1}. Definimos os versores

\left\lbrace\begin{matrix}  \vec{e}_1=\frac{\vec{v}_1}{\left\|\vec{v}_1\right\|}\\  \vec{e}_2=\frac{\vec{v}_{-1}}{\left\|\vec{v}_{-1}\right\|}\\  \vec{e}_3=\frac{\vec{u}_1}{\left\|\vec{u}_1\right\|}\\  \vec{e}_4=\frac{\vec{u}_2}{\left\|\vec{u}_2\right\|}  \end{matrix}\right.

e construímos a matriz Q, colocando-os em coluna,

Q=\left\lbrack\begin{matrix}  \frac{1}{2}&\frac{1}{2}&\frac{\sqrt{2}}{2}&0\\  \frac{1}{2}&-\frac{1}{2}&0&\frac{\sqrt{2}}{2}\\  \frac{1}{2}&\frac{1}{2}&-\frac{\sqrt{2}}{2}&0\\  \frac{1}{2}&-\frac{1}{2}&0&-\frac{\sqrt{2}}{2}  \end{matrix}\right\rbrack

Observando que a entrada (M)_{ij} da matriz M=AB corresponde ao produto escalar do vector dado pela linha i de A pelo vector dado pela coluna j de B, vemos que QQ^T=I, isto é, Q^T=Q^{-1}, a transposta de Q coincide com a respectiva inversa.

Com um pouco de aritmética verificamos que

B=Q^{-1}AQ=\left\lbrack\begin{matrix}  1&0&0&0\\  0&-1&0&0\\  0&0&0&-1\\  0&0&1&0  \end{matrix}\right\rbrack

que corresponde a uma matriz diagonal por blocos do tipo

\left\lbrack\begin{matrix}  C&O\\  O&D  \end{matrix}\right\rbrack

onde

C=\left\lbrack\begin{matrix}  1&0\\  0&-1  \end{matrix}\right\rbrack

D=\left\lbrack\begin{matrix}  0&-1\\  1&0  \end{matrix}\right\rbrack

O=\left\lbrack\begin{matrix}  0&0\\  0&0  \end{matrix}\right\rbrack

A submatriz C, por si só, é uma matriz diagonal (todos os valores não nulos se encontram na sua diagonal) cujas entradas não nulas são os valores próprios da matriz A. O processo descrito permite determinar uma matriz Q tal que B=Q^{-1}AQ corresponde a uma matriz completamente diagonal caso o polinómio característico de A possua todas as raízes simples.

Esta abordagem acarreta uma dificuldade óbvia quando pretendemos efectuar uma diagonalização por blocos de uma matriz M de cujo polinómio característico apenas conhecemos uma factorização. No caso da matriz A, sabemos que

p(\lambda)=\left(1-\lambda^2\right)\left(1+\lambda^2\right)

de onde facilmente determinamos os valores próprios. Suponhamos agora que não nos é possível, por motivos algébricos, refinar esta factorização. No entanto, pretendemos obter, com base na factorização encontrada, uma forma de obter uma diagonalização em blocos que lhe esteja associada.

Para o efeito, consideramos os sistemas de equações

\left(I-A^2\right)\vec{X}=0

e

\left(I+A^2\right)\vec{X}=0

correspondentes a cada um dos factores do polinómio característico, onde o \lambda é substituído pela matriz A e o termo independente é multiplicado pela matriz identidade.

O primeiro sistema escreve-se como

\left\lbrack\begin{matrix}  1&0&-1&0\\  0&1&0&-1\\  -1&0&1&0\\  0&-1&0&1  \end{matrix}\right\rbrack\left\lbrack\begin{matrix}  x\\ y\\ z\\ w  \end{matrix}\right\rbrack=\left\lbrack\begin{matrix}  0\\ 0\\ 0\\ 0  \end{matrix}\right\rbrack

e o segundo como

\left\lbrack\begin{matrix}  1&0&1&0\\  0&1&0&1\\  1&0&1&0\\  0&1&0&1  \end{matrix}\right\rbrack\left\lbrack\begin{matrix}  x\\ y\\ z\\ w  \end{matrix}\right\rbrack=\left\lbrack\begin{matrix}  0\\ 0\\ 0\\ 0  \end{matrix}\right\rbrack

Calculamos a solução do primeiro sistema, vindo

\left\lbrace\begin{matrix}  z=x\\ w=y  \end{matrix}\right.

A solução do segundo sistema é dada por

\left\lbrace\begin{matrix}  z=-x\\ w=-y  \end{matrix}\right.

Do primeiro sistema tiramos os vectores

\vec{u}_1=\left\lbrack\begin{matrix}  1\\ 0\\ 1\\ 0  \end{matrix}\right\rbrack

\vec{u}_2=\left\lbrack\begin{matrix}  0\\ 1\\ 0\\ 1  \end{matrix}\right\rbrack

Do segundo sistema construímos, por exemplo, os vectores

\vec{v}_1=\left\lbrack\begin{matrix}  1\\ 0\\ -1\\ 0  \end{matrix}\right\rbrack

\vec{v}_2=\left\lbrack\begin{matrix}  0\\ 1\\ 0\\ -1  \end{matrix}\right\rbrack

O facto de todos os vectores serem perpendiculares entre si é uma coincidência do problema em questão e, em geral não se verifica. No entanto, cada vector do primeiro grupo, \vec{u}_i é perpendicular a qualquer vector do segundo grupo, \vec{v}_i. Mais uma vez, definimos os versores

\left\lbrace\begin{matrix}  \vec{e}_1=\frac{\vec{u}_1}{\left\|\vec{u}_1\right\|}\\  \vec{e}_2=\frac{\vec{u}_{2}}{\left\|\vec{u}_{2}\right\|}\\  \vec{e}_3=\frac{\vec{v}_1}{\left\|\vec{v}_1\right\|}\\  \vec{e}_4=\frac{\vec{v}_2}{\left\|\vec{v}_2\right\|}  \end{matrix}\right.

e colocamo-los em coluna para construírmos a matriz

Q=\left\lbrack\begin{matrix}  \frac{\sqrt{2}}{2}&0&\frac{\sqrt{2}}{2}&0\\  0&\frac{\sqrt{2}}{2}&0&\frac{\sqrt{2}}{2}\\  \frac{\sqrt{2}}{2}&0&-\frac{\sqrt{2}}{2}&0\\  0&\frac{\sqrt{2}}{2}&0&-\frac{\sqrt{2}}{2}  \end{matrix}\right\rbrack

Tendo em atenção que Q^{-1}=Q^T, facilimente constatamos que

B=\left\lbrack\begin{matrix}  0&1&0&0\\  1&0&0&0\\  0&0&0&-1\\  0&0&1&0  \end{matrix}\right\rbrack

está diagonalizada por blocos como pretendíamos. É importante notar que não foi necessário o recurso à factorização completa do polinómio característico de A para efectuar esta diagonalização.

Seja agora A a matriz com n linhas e n colunas dada por

A=\left\lbrack\begin{matrix}  0&0&\cdots&0&1\\  1&0&\cdots&0&0\\  0&1&\cdots&0&0\\  \vdots&\vdots&\ddots&\vdots&\vdots\\  0&0&\cdots&1&0  \end{matrix}\right\rbrack

Esta matriz resulta da identidade após uma rotação das linhas. Expandindo o determinante \left|A-\lambda I\right|, chegamos à conclusão que a equação que nos proporciona os respectivos valores próprios assume a forma

\lambda^n-1=0

a qual sabemos como factorizar. A equação anterior escreve-se como

\prod_{k=0}^{n-1}\left(\lambda-e^{\frac{2k\pi i}{n}}\right)=0

na qual i representa a unidade imaginária. Segue-se daqui que a matriz admite n vectores próprios sendo a sua maioria imaginários. Se agruparmos as raízes conjugadas e multiplicando os respectivos factores somos conduzidos à factorização

(\lambda-1)\prod_{k=0}^{\frac{n-1}{2}}\left(\lambda^2-2\lambda\cos\left(\frac{2k\pi}{n}\right)+1\right)=0

caso n seja um número primo diferente de 2. Tendo em conta os valores próprios complexos da equação, \lambda_1,\cdots,\lambda_{n-1}, construímos os vectores

\vec{u}_0=\left\lbrack\begin{matrix}  1\\1\\ \vdots\\1\\1  \end{matrix}\right\rbrack

e

\vec{u}_{k}=\left\lbrack\begin{matrix}  \lambda_{-k}\\ \lambda_{-k+1}\\ \vdots\\ \lambda_{-k+6}\\1  \end{matrix}\right\rbrack

onde k=1,\cdots,n-1 e -k\equiv n-k módulo n. Facilmente nos convencemos que \vec{u}_0 é o vector próprio correspondente ao valor próprio 1 e \vec{u}_k, com k=1,\cdots,6, são os vectores próprios de A relativamente aos valores próprios \lambda_k. Como \lambda_{-k} é conjugado de \lambda_{k}, definimos os vectores

\vec{v}_{k}=\frac{\vec{u}_k+\vec{u}_{-k}}{2}

e

\vec{w}_k=\frac{\vec{u}_k-\vec{u}_{-k}}{2i}

Os pares vectores \vec{v}_k e \vec{w}_k definem, para cada k, um espaço vectorial a duas dimensões. Não é um exercício difícil concluir que se verificam as equações

\left(A^2-2A\cos\left(\frac{2k\pi}{n}\right)+I\right)\vec{v}_k=0

e

\left(A^2-2A\cos\left(\frac{2k\pi}{n}\right)+I\right)\vec{w}_k=0

como seria de esperar.

Sobre Sérgio O. Marques

Licenciado em Física/Matemática Aplicada (Astronomia) pela Faculdade de Ciências da Universidade do Porto e Mestre em Matemática Aplicada pela mesma instituição, desenvolvo trabalho no PTC (Porto Technical Centre) - Yazaki como Administrador de bases-de-dados. Dentro o meu leque de interesses encontram-se todos os temas afins às disciplinas de Matemática, Física e Astronomia. Porém, como entusiasta, interesso-me por temas relacionados com electrónica, poesia, música e fotografia.
Esta entrada foi publicada em Matemática com as etiquetas , , , , . ligação permanente.

Uma resposta a Um problema em diagonalização de matrizes

  1. Os autovalores de uma dada matriz quadrada A de dimensão nXn são os n números que resumem as propriedades essenciais daquela matriz . O autovalor de A é um número λ tal que, se for subtraído de cada entrada na diagonal de A, converte A numa matriz singular . Subtrair um escalar λ de cada entrada na diagonal de A é o mesmo que subtrair λ vezes a matriz identidade I de A. Portanto, λ é um autovalor se e somente se a matriz (A-λI) for singular.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão / Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão / Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão / Alterar )

Google+ photo

Está a comentar usando a sua conta Google+ Terminar Sessão / Alterar )

Connecting to %s