Luso Academia

Início » Posts tagged 'matriz transformação'

Tag Archives: matriz transformação

Mecânica Quântica – Revisões I

— 1. Introdução —

Vamos agora começar o nosso estudo de Mecânica Quântica. Conceptualmente falando a Mecânica Quântica é a parte da Física onde temos uma maior disrupção face aos conceitos que temos do quotidiano. Por outro lado alguns dos conhecimentos de base para a Mecânica Quântica foram transmitidos noutras disciplinas e como tal é bastante provável que estejam algo esquecidos.

Por forma a minimizar as eventuais falhas identificadas, vamos, antes de mais, rever alguns conceitos de Física e Matemática de outras disciplinas. Em primeiro lugar vamos olhar para a Mecânica Clássica usando um formalismo próprio da Álgebra Linear. Desta forma vemos a linguagem matemática da Mecânica Quântica num contexto físico mais familiar. Posteriormente vamos entrar propriamente na Mecânica Quântica e esperamos que desta forma o choque não seja tão severo pois o estudante já estará mais acostumado à linguagem matemática usada e terá que se acostumar a uma nova linguagem física.

— 2. Sistemas de coordenadas —

Vamos admitir que temos um sistema de coordenadas {S} e um sistema de coordenadas {S'} que resulta de uma rotação a {S}. Vamos considerar um ponto {P} de coordenadas {(x_1,x_2,x_3)} em {S} e coordenadas {(x'_1,x'_2,x'_3)} em {S'}.

Em geral é óbvio que {x'_1=x'_1(x_1,x_2,x_3)}, {x'_2=x'_2(x_1,x_2,x_3)} e que {x'_3=x'_3(x_1,x_2,x_3)}.

Uma vez que a transformação de {S} para {S'} é uma rotação podemos assumir que se trata de uma transformação linear. Assim podemos escrever

{\begin{aligned} x'_1 &= \lambda _{11}x_1+ \lambda _{12}x_2 +\lambda _{13}x_3 \\ x'_2 &= \lambda _{21}x_1+ \lambda _{22}x_2 +\lambda _{23}x_3 \\ x'_3 &= \lambda _{31}x_1+ \lambda _{32}x_2 +\lambda _{33}x_3 \end{aligned}}

Podemos escrever as equações anteriores de uma forma mais compacta:

\displaystyle x'_i=\sum_{j=1}^3 \lambda_{ij}x_j

No caso de queremos fazer uma transformação de {S'} para {S} a transformação inversa é

\displaystyle x_i=\sum_{j=1}^3 \lambda_{ji}x'_j

A notação anterior sugere que os índices {\lambda} podem ser agrupados numa matriz:

\displaystyle \lambda= \left(\begin{array}{ccc} \lambda_{11} & \lambda_{12} & \lambda_{13} \\ \lambda_{21} & \lambda_{22} & \lambda_{23} \\ \lambda_{31} & \lambda_{32} & \lambda_{33} \end{array} \right)

Na literatura a matriz acima tem o nome de matriz de rotação.

— 3. Propriedades da Matriz de Rotação —

Para a transformação {x'_i=x'_i(x_i)}

\displaystyle  \sum_j \lambda_{ij}\lambda_{kj}=\delta_{ik}

Onde {\delta_{ik}} é o delta de Kronecker e a sua definição é

\displaystyle  \delta_{ik}=\begin{cases} 0 \quad i\neq k\\ 1 \quad i=k \end{cases}

Para a transformação inversa {x_i=x_i(x'_i)} é

\displaystyle  \sum_i \lambda_{ij}\lambda_{ik}=\delta_{jk}

As relações anteriores têm o nome de relações ortogonais.

— 4. Matrizes: Definições, Operações e propriedades —

Vamos representar as coordenadas de um ponto {P} usando um vector coluna

\displaystyle  x = \left(\begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array}\right)

Usando a notação habitual da Álgebra Linear podemos escrever as equações de transformação {x'=\mathbf{\lambda} x}

Definimos o produto matricial, {\mathbf{AB}=\mathbf{C}}, como sendo possível somente quando o número de colunas de {\mathbf{A}} é igual ao número de linhas de {\mathbf{B}}.

Para calcularmos um elemento específico da matriz {\mathbf{C}}, que vamos denotar por {\mathbf{C}_{ij}}, temos

\displaystyle  \mathbf{C}_{ij}=[\mathbf{AB}]_{ij}=\sum_k A_{ik}B_{kj}

Dada a definição de produto matricial é claro que em geral temos {\mathbf{AB} \neq \mathbf{BA}}

Como exemplo vamos calcular

\displaystyle \mathbf{A}=\left( \begin{array}{cc} 2 & 1\\ -1 & 3 \end{array}\right) ;\quad \mathbf{B}=\left( \begin{array}{cc} -1 & 2\\ 4 & -2 \end{array}\right)

Com

\displaystyle  \mathbf{AB}=\left( \begin{array}{cc} 2\times (-1)+1\times 4 & 2\times 2+1\times (-2)\\ -1\times (-1)+3\times 4 & -1\times 2+3\times (-2) \end{array}\right)=\left( \begin{array}{cc} 2 & 2\\ 13 & -8 \end{array}\right)

e

\displaystyle  \mathbf{BA}=\left( \begin{array}{cc} -4 & 5\\ 10 & -2 \end{array}\right)

Dizemos que {\lambda^T} é a matriz transposta, ou simplesmente transposta, de {\lambda} e calculamos os elementos matriciais da transposta por {\lambda_{ij}^T=\lambda_{ji}}.

De uma forma mais vulgar dizemos que para obtermos a transposta de uma matriz devemos trocar as suas colunas por linhas ou vice-versa.

Para uma matriz {\mathbf{A}} existe outra {\mathbf{U}} tal que {\mathbf{AU}=\mathbf{UA}=\mathbf{A}}. A matriz {\mathbf{U}} diz-se a matriz unidade e escrevemos {\mathbf{U}=\mathbf{1}}.

Se {\mathbf{AB}=\mathbf{BA}=\mathbf{1}}, {\mathbf{A}} e {\mathbf{B}} dizem-se matrizes inversas e {\mathbf{B}=\mathbf{A}^{-1}}, {\mathbf{A}=\mathbf{B}^{-1}}.

Para as matrizes de rotação temos

{\begin{aligned} \lambda \lambda ^T &= \left( \begin{array}{cc} \lambda_{11} & \lambda_{12}\\ \lambda_{21} & \lambda_{22} \end{array}\right)\left( \begin{array}{cc} \lambda_{11} & \lambda_{21}\\ \lambda_{12} & \lambda_{22} \end{array}\right) \\ &= \left( \begin{array}{cc} \lambda_{11}^2+\lambda_{22}^2 & \lambda_{11}\lambda_{21}+\lambda_{12}\lambda_{22}\\ \lambda_{21}\lambda_{11}+\lambda_{22}\lambda_{12} & \lambda_{21}^2+\lambda_{22}^2 \end{array}\right)\\ &=\left( \begin{array}{cc} 1 & 0\\ 0 & 1 \end{array}\right)\\ &= \mathbf{1} \end{aligned}}

Onde a penúltima igualdade segue do que vimos na Secção 3.

Assim {\lambda ^T=\lambda ^{-1}}.

Para terminarmos esta secção vamos indicar mais algumas propriedade das matrizes.

Em primeiro lugar vamos dizer que ainda que o produto matricial não seja comutativo ele é associativo. Logo {(\mathbf{AB})\mathbf{C}=\mathbf{A}(\mathbf{BC})}.

Para a adição de matriz é válido {C_{ij}=A_{ij}+B_{ij}}.

A matriz responsável por invertermos as coordenadas de todos os eixos de um sistema de coordenadas é chamada de matriz paridade

\displaystyle  \left( \begin{array}{ccc} -1 & 0 & 0\\ 0 & -1 & 0\\ 0 & 0 & -1 \end{array}\right)

Uma vez que podemos mostrar que as matrizes de rotação têm sempre determinante igual a {1}, enquanto que o determinante da matriz paridade é {-1} sabemos que não existe nenhuma transformação contínua das matrizes de rotação para a matriz paridade.

— 5. Vectores e Escalares —

Em Física as quantidades ou são escalares ou são vectores (também podem ser tensores, mas uma vez que ainda não precisamos destas quantidades vou fingir que não existem). Estas duas entidades são definidas de acordo com as suas propriedades de transformação

Seja {\lambda} uma transformação de coordenadas, {\displaystyle\sum_j\lambda_{ij}\lambda_{kj}=\delta_{ij}}, Se:

  • {\displaystyle\sum_j\lambda_{ij}\varphi=\varphi} então {\varphi} é um escalar.
  • {\displaystyle\sum_j\lambda_{ij}A_j=A'_i} para {A_1}, {A_2} e {A_3} então {(A_1,A_2,A_3)} é um vector.

— 5.1. Operações com escalares e vectores —

No interesse de termos um artigo auto-contido vamos enumerar algumas propriedades de vectores e escalares:

  1. {\vec{A}+\vec{B}=\vec{B}+\vec{A}}
  2. {\vec{A}+(\vec{B}+\vec{C})=(\vec{A}+\vec{B})+\vec{C}}
  3. {\varphi+\psi=\psi+\varphi}
  4. {\varphi+(\psi+\xi)=(\varphi+\psi)+\xi}
  5. {\xi \vec{A}= \vec{B}} é um vector.
  6. {\xi \varphi=\psi} é um escalar.

Como exemplo vamos demonstrar a quinta proposição e as restantes demonstrações ficam como um exercício para o leitor.

Para mostrarmos que {\xi \vec{A}= \vec{B}} é um vector temos que mostrar que a sua lei de transformação é a lei de transformação de um vector.

{\begin{aligned} B'_i &= \displaystyle\sum_j \lambda_{ij}B_j\\ &= \displaystyle\sum_j \lambda_{ij}\xi A_j\\ &= \xi\displaystyle\sum_j \lambda_{ij} A_j\\ &= \xi A'_i \end{aligned}}

Assim {\xi A} transforma-se como um vector.

— 6. Produtos vectoriais —

As operações entre escalares são de conhecimento geral por isso não vamos perder muito tempo com elas, mas provavelmente é importante que olhemos para duas operações entre vectores visto que elas serão muito importantes para os nossos desenvolvimentos futuros.

— 6.1. Produto escalar —

Usando dois vectores é possível construirmos um escalar. Este escalar é uma medida da projecção de um vector no outro e a sua definição é

\displaystyle  \vec{A}.\cdot\vec{B}=\sum_i A_i B_i = AB\cos (A.B)

Para esta operação ser digna do seu nome temos ainda que provar que o resultado é de facto um escalar.

Primeiro escrevemos {A'_i=\displaystyle \sum_j\lambda_{ij}A_j} e {B'_i=\displaystyle \sum_k\lambda_{ik}B_k}, onde alteramos o índice da segunda soma pois vamos multiplicar estas duas quantidades e assim evitamos confusões desnecessárias.

Temos

{\begin{aligned} \vec{A}'\cdot \vec{B}' &= \displaystyle\sum_i A'_i B'_i \\ &= \displaystyle \sum_i \left(\sum_j\lambda_{ij}A_j\right)\left( \sum_k\lambda_{ik}B_k \right)\\ &= \displaystyle \sum_j \sum_k \left( \sum_i \lambda_{ij}\lambda_{ik} \right)A_j B_k\\ &= \displaystyle \sum_j \left(\sum_k \delta_{jk}A_jB_k \right)\\ &= \displaystyle \sum_j A_j B_j \\ &= \vec{A}\cdot \vec{B} \end{aligned}}

Assim {\vec{A}\cdot \vec{B}} é um escalar.

— 6.2. Produto vectorial —

Antes de mais vamos introduzir o Símbolo de Levi-Civita {\varepsilon_{ijk}}. A sua definição é {\varepsilon_{ijk}=0} se dois ou mais índices são iguais; {\varepsilon_{ijk}=1} se {i\,j\,k} é uma permutação par de {123} (as permutações pares são {123}, {231} e {312}); {\varepsilon_{ijk}=-1} se {i\,j\,k} é uma permutação ímpar de {123} (as permutações ímpares são {132}, {321} e {213}).

O produto vectorial, {\vec{C}}, entre dois vectores {\vec{A}} e {\vec{B}} é {\vec{C}=\vec{A}\times \vec{B}}.

Para calcular as componentes do vector {\vec{C}} usamos a seguinte equação:

\displaystyle  C_i=\sum_{j,k}\varepsilon_{ijk}A_j B_k

Onde {\displaystyle\sum_{j,k}} é uma abreviatura para {\displaystyle\sum_j\sum_k}.

Como exemplo vamos calcular {C_1}

{\begin{aligned} C_1 &= \sum_{j,k}\varepsilon_{1jk}A_j B_k\\ &= \varepsilon_{123}A_2 B_3+\varepsilon_{132}A_3 B_2\\ &= A_2B_3-A_3B_2 \end{aligned}}

Onde usámos a definição de {\epsilon_{ijk}} ao longo da dedução.

Também podemos ver que (outro exercício para o leitor) {C_2=A_3B_1-A_1B_3} e que {C_3=A_1B_2-A_2B_1}.

Se apenas queremos determinar a magnitude de {\vec{C}} podemos usar a equação {C=AB\sin (A,B)}.

Após escolhermos os três eixos que definem o nosso referencial podemos escolher como base do nosso espaço um conjunto de três vectores linearmente independentes com norma igual a {1}. Estes vectores são chamados de vectores unitários.

Se denotarmos estes vectores por {\vec{e}_i} qualquer vector {\vec{A}} pode ser escrito como

\displaystyle \vec{A}=\displaystyle \sum _i \vec{e}_i A_i

Também temos {\vec{e}_i\cdot \vec{e}_j=\delta_{ij}} e {\vec{e}_i\times \vec{e}_j=\vec{e}_k}. A última equação pode também ser escrita como {\vec{e}_i\times \vec{e}_j=\vec{e}_k\varepsilon_{ijk}}.

— 7. Derivada de um vector em ordem a um escalar —

Seja {\varphi} uma função escalar de {s}: {\varphi=\varphi(s)}. Uma vez que tanto {\varphi} como {s} são escalares sabemos que as suas equações de transformação são {\varphi=\varphi '} e {s=s'}. Logo temos {d\varphi=d\varphi '} e {ds=ds'}

Assim para a diferenciação é {d\varphi/ds=d\varphi'/ds'=(d\varphi/ds)'}.

Para definirmos a derivada de um vector em ordem a um escalar vamos seguir um caminho semelhante.

Já sabemos que é {A'_i=\displaystyle \sum_j \lambda _{ij}A_j}. Então

{\begin{aligned} \dfrac{dA'_i}{ds'} &= \dfrac{d}{ds'}\left( \displaystyle \sum_j \lambda _{ij}A_j \right)\\ &= \displaystyle \lambda _{ij}\dfrac{d A_j}{ds'}\\ &= \displaystyle \lambda _{ij}\dfrac{d A_j}{ds}\ \end{aligned}}

Onde a última igualdade segue do facto que {s} é um escalar.

Pelo que mostrámos podemos escrever

\displaystyle  \frac{d A'_i}{ds'}= \left( \frac{d A_i}{ds} \right)'=\sum_j \lambda _{ij}\frac{d A_j}{ds}

Assim {dA_j/ds} transforma-se de acordo com a lei de transformação de um vector. Logo {d\vec{A}/ds} é um vector.

As regras para derivarmos vectores são:

  • {\dfrac{d}{ds}(\vec{A}+\vec{B})= \dfrac{d\vec{A}}{ds}+\dfrac{d\vec{B}}{ds}}
  • {\dfrac{d}{ds}(\vec{A}\cdot\vec{B})= \vec{A}\cdot\dfrac{d\vec{B}}{ds}+\dfrac{d\vec{A}}{ds}\cdot \vec{B}}
  • {\dfrac{d}{ds}(\vec{A}\times\vec{B})= \vec{A}\times\dfrac{d\vec{B}}{ds}+\dfrac{d\vec{A}}{ds}\times \vec{B}}
  • {\dfrac{d}{ds}(\varphi\vec{A})= \varphi\dfrac{d\vec{A}}{ds}+\dfrac{d\varphi}{ds}\vec{A}}

As demonstrações destas regras não são necessárias para ganharmos qualquer tipo técnica e assim sendo não serão apresentadas, no entanto o leitor que não esteja muito habituado a este tipo de raciocínio deve concluir as demonstrações para ganhar experiência.

%d bloggers gostam disto: