Pular para o conteúdo principal

Produtos internos e projeções

Para nos preparar melhor para explorar as capacidades e limitações dos circuitos quânticos, vamos introduzir alguns conceitos matemáticos adicionais — a saber, o produto interno entre vetores (e sua conexão com a norma euclidiana), as noções de ortogonalidade e ortonormalidade para conjuntos de vetores, e matrizes de projeção, que nos permitirão introduzir uma generalização conveniente das medições na base computacional padrão.

Produtos internos

Lembre-se de que quando usamos a notação de Dirac para nos referir a um vetor coluna arbitrário como um ket, como

ψ=(α1α2αn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix},

o vetor bra correspondente é a transposta conjugada desse vetor:

ψ=(ψ)=(α1α2αn).(1)\langle \psi \vert = \bigl(\vert \psi \rangle \bigr)^{\dagger} = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix}. \tag{1}

Alternativamente, se temos em mente algum conjunto de estados clássicos Σ\Sigma e expressamos um vetor coluna como um ket, como

ψ=aΣαaa,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle,

então o vetor linha (ou bra) correspondente é a transposta conjugada

ψ=aΣαaa.(2)\langle \psi \vert = \sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert. \tag{2}

Temos também que o produto de um vetor bra por um vetor ket, vistos como matrizes com uma única linha ou uma única coluna, resulta em um escalar. Especificamente, se temos dois vetores coluna

ψ=(α1α2αn)eϕ=(β1β2βn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \quad\text{e}\quad \vert \phi \rangle = \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix},

de modo que o vetor linha ψ\langle \psi \vert é como na equação (1),(1), então

ψϕ=ψϕ=(α1α2αn)(β1β2βn)=α1β1++αnβn.\langle \psi \vert \phi \rangle = \langle \psi \vert \vert \phi \rangle = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix} \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \overline{\alpha_1} \beta_1 + \cdots + \overline{\alpha_n}\beta_n.

Alternativamente, se temos dois vetores coluna escritos como

ψ=aΣαaaeϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{e}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

de modo que ψ\langle \psi \vert é o vetor linha (2),(2), encontramos que

ψϕ=ψϕ=(aΣαaa)(bΣβbb)=aΣbΣαaβbab=aΣαaβa,\begin{aligned} \langle \psi \vert \phi \rangle & = \langle \psi \vert \vert \phi \rangle\\ & = \Biggl(\sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert\Biggr) \Biggl(\sum_{b\in\Sigma} \beta_b \vert b\rangle\Biggr)\\ & = \sum_{a\in\Sigma}\sum_{b\in\Sigma} \overline{\alpha_a} \beta_b \langle a \vert b \rangle\\ & = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a, \end{aligned}

onde a última igualdade decorre da observação de que aa=1\langle a \vert a \rangle = 1 e ab=0\langle a \vert b \rangle = 0 para estados clássicos aa e bb satisfazendo ab.a\neq b.

O valor ψϕ\langle \psi \vert \phi \rangle é chamado de produto interno entre os vetores ψ\vert \psi\rangle e ϕ.\vert \phi \rangle. Os produtos internos são de extrema importância na informação e computação quântica; não conseguiríamos avançar muito na compreensão matemática da informação quântica sem eles.

Vamos agora reunir alguns fatos básicos sobre produtos internos de vetores.

  1. Relação com a norma euclidiana. O produto interno de qualquer vetor

    ψ=aΣαaa\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle

    consigo mesmo é

    ψψ=aΣαaαa=aΣαa2=ψ2.\langle \psi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \alpha_a = \sum_{a\in\Sigma} \vert\alpha_a\vert^2 = \bigl\| \vert \psi \rangle \bigr\|^2.

    Assim, a norma euclidiana de um vetor pode ser alternativamente expressa como

    ψ=ψψ.\bigl\| \vert \psi \rangle \bigr\| = \sqrt{ \langle \psi \vert \psi \rangle }.

    Observe que a norma euclidiana de um vetor deve ser sempre um número real não negativo. Além disso, a única forma de a norma euclidiana de um vetor ser igual a zero é se todas as entradas forem iguais a zero, ou seja, se o vetor for o vetor nulo.

    Podemos resumir essas observações da seguinte forma: para todo vetor ψ\vert \psi \rangle temos

    ψψ0,\langle \psi \vert \psi \rangle \geq 0,

    com ψψ=0\langle \psi \vert \psi \rangle = 0 se e somente se ψ=0.\vert \psi \rangle = 0. Essa propriedade do produto interno é às vezes chamada de definição positiva.

  2. Simetria conjugada. Para quaisquer dois vetores

    ψ=aΣαaaeϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{e}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

    temos

    ψϕ=aΣαaβaeϕψ=aΣβaαa,\langle \psi \vert \phi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a \quad\text{e}\quad \langle \phi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\beta_a} \alpha_a,

    e portanto

    ψϕ=ϕψ.\overline{\langle \psi \vert \phi \rangle} = \langle \phi \vert \psi \rangle.
  3. Linearidade no segundo argumento (e linearidade conjugada no primeiro). Suponha que ψ,\vert \psi \rangle, ϕ1,\vert \phi_1 \rangle, e ϕ2\vert \phi_2 \rangle são vetores e α1\alpha_1 e α2\alpha_2 são números complexos. Se definirmos um novo vetor

    ϕ=α1ϕ1+α2ϕ2,\vert \phi\rangle = \alpha_1 \vert \phi_1\rangle + \alpha_2 \vert \phi_2\rangle,

    então

    ψϕ=ψ(α1ϕ1+α2ϕ2)=α1ψϕ1+α2ψϕ2.\langle \psi \vert \phi \rangle = \langle \psi \vert \bigl( \alpha_1\vert \phi_1 \rangle + \alpha_2\vert \phi_2 \rangle\bigr) = \alpha_1 \langle \psi \vert \phi_1 \rangle + \alpha_2 \langle \psi \vert \phi_2 \rangle.

    Ou seja, o produto interno é linear no segundo argumento. Isso pode ser verificado pelas fórmulas acima ou simplesmente observando que a multiplicação de matrizes é linear em cada argumento (e especificamente no segundo argumento).

    Combinando esse fato com a simetria conjugada, concluímos que o produto interno é conjugado linear no primeiro argumento. Isto é, se ψ1,\vert \psi_1 \rangle, ψ2,\vert \psi_2 \rangle, e ϕ\vert \phi \rangle são vetores e α1\alpha_1 e α2\alpha_2 são números complexos, e definirmos

    ψ=α1ψ1+α2ψ2,\vert \psi \rangle = \alpha_1 \vert \psi_1\rangle + \alpha_2 \vert \psi_2 \rangle,

    então

    ψϕ=(α1ψ1+α2ψ2)ϕ=α1ψ1ϕ+α2ψ2ϕ.\langle \psi \vert \phi \rangle = \bigl( \overline{\alpha_1} \langle \psi_1 \vert + \overline{\alpha_2} \langle \psi_2 \vert \bigr) \vert\phi\rangle = \overline{\alpha_1} \langle \psi_1 \vert \phi \rangle + \overline{\alpha_2} \langle \psi_2 \vert \phi \rangle.
  4. A desigualdade de Cauchy–Schwarz. Para qualquer escolha de vetores ϕ\vert \phi \rangle e ψ\vert \psi \rangle com o mesmo número de entradas, temos

    ψϕψϕ.\bigl\vert \langle \psi \vert \phi \rangle\bigr| \leq \bigl\| \vert\psi \rangle \bigr\| \bigl\| \vert \phi \rangle \bigr\|.

    Essa é uma desigualdade incrivelmente útil, amplamente utilizada na informação quântica (e em muitos outros tópicos de estudo).

Conjuntos ortogonais e ortonormais

Dois vetores ϕ\vert \phi \rangle e ψ\vert \psi \rangle são ditos ortogonais se seu produto interno é zero:

ψϕ=0.\langle \psi \vert \phi \rangle = 0.

Geometricamente, podemos pensar em vetores ortogonais como vetores em ângulo reto entre si.

Um conjunto de vetores {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} é chamado de conjunto ortogonal se todo vetor do conjunto é ortogonal a todos os outros vetores do conjunto. Ou seja, esse conjunto é ortogonal se

ψjψk=0\langle \psi_j \vert \psi_k\rangle = 0

para todas as escolhas de j,k{1,,m}j,k\in\{1,\ldots,m\} para as quais jk.j\neq k.

Um conjunto de vetores {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} é chamado de conjunto ortonormal se for um conjunto ortogonal e, além disso, todo vetor do conjunto for um vetor unitário. Alternativamente, esse conjunto é ortonormal se tivermos

ψjψk={1j=k0jk(3)\langle \psi_j \vert \psi_k\rangle = \begin{cases} 1 & j = k\\[1mm] 0 & j\neq k \end{cases} \tag{3}

para todas as escolhas de j,k{1,,m}.j,k\in\{1,\ldots,m\}.

Por fim, um conjunto {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} é uma base ortonormal se, além de ser um conjunto ortonormal, ele forma uma base. Isso é equivalente a {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} ser um conjunto ortonormal e mm ser igual à dimensão do espaço do qual ψ1,,ψm\vert \psi_1\rangle,\ldots,\vert\psi_m\rangle são extraídos.

Por exemplo, para qualquer conjunto de estados clássicos Σ,\Sigma, o conjunto de todos os vetores da base padrão

{a:aΣ}\big\{ \vert a \rangle \,:\, a\in\Sigma\bigr\}

é uma base ortonormal. O conjunto {+,}\{\vert+\rangle,\vert-\rangle\} é uma base ortonormal para o espaço de dimensão 22 correspondente a um único qubit, e a base de Bell {ϕ+,ϕ,ψ+,ψ}\{\vert\phi^+\rangle, \vert\phi^-\rangle, \vert\psi^+\rangle, \vert\psi^-\rangle\} é uma base ortonormal para o espaço de dimensão 44 correspondente a dois qubits.

Estendendo conjuntos ortonormais a bases ortonormais

Suponha que ψ1,,ψm\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle são vetores que vivem em um espaço de dimensão nn, e suponha ainda que {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} é um conjunto ortonormal. Conjuntos ortonormais são sempre conjuntos linearmente independentes, portanto esses vetores necessariamente geram um subespaço de dimensão m.m. Concluímos disso que mnm\leq n porque a dimensão do subespaço gerado por esses vetores não pode ser maior do que a dimensão do espaço inteiro do qual foram extraídos.

Se for o caso que m<n,m<n, então sempre é possível escolher nmn-m vetores adicionais ψm+1,,ψn\vert \psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle de forma que {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} forme uma base ortonormal. Um procedimento conhecido como processo de ortonormalização de Gram–Schmidt pode ser usado para construir esses vetores.

Conjuntos ortonormais e matrizes unitárias

Conjuntos ortonormais de vetores estão intimamente relacionados com matrizes unitárias. Uma forma de expressar essa conexão é dizer que as três afirmações a seguir são logicamente equivalentes (ou seja, todas são verdadeiras ou todas são falsas) para qualquer escolha de uma matriz quadrada UU:

  1. A matriz UU é unitária (isto é, UU=I=UUU^{\dagger} U = \mathbb{I} = U U^{\dagger}).
  2. As linhas de UU formam um conjunto ortonormal.
  3. As colunas de UU formam um conjunto ortonormal.

Essa equivalência é bastante direta quando pensamos em como funciona a multiplicação de matrizes e a transposta conjugada. Suponha, por exemplo, que temos uma matriz 3×33\times 3 como esta:

U=(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)U = \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}

A transposta conjugada de UU tem o seguinte aspecto:

U=(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)U^{\dagger} = \begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix}

Multiplicando as duas matrizes, com a transposta conjugada no lado esquerdo, obtemos esta matriz:

(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)=(α1,1α1,1+α2,1α2,1+α3,1α3,1α1,1α1,2+α2,1α2,2+α3,1α3,2α1,1α1,3+α2,1α2,3+α3,1α3,3α1,2α1,1+α2,2α2,1+α3,2α3,1α1,2α1,2+α2,2α2,2+α3,2α3,2α1,2α1,3+α2,2α2,3+α3,2α3,3α1,3α1,1+α2,3α2,1+α3,3α3,1α1,3α1,2+α2,3α2,2+α3,3α3,2α1,3α1,3+α2,3α2,3+α3,3α3,3)\begin{aligned} &\begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix} \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}\\[4mm] \quad &= \begin{pmatrix} \overline{\alpha_{1,1}}\alpha_{1,1} + \overline{\alpha_{2,1}}\alpha_{2,1} + \overline{\alpha_{3,1}}\alpha_{3,1} & \overline{\alpha_{1,1}}\alpha_{1,2} + \overline{\alpha_{2,1}}\alpha_{2,2} + \overline{\alpha_{3,1}}\alpha_{3,2} & \overline{\alpha_{1,1}}\alpha_{1,3} + \overline{\alpha_{2,1}}\alpha_{2,3} + \overline{\alpha_{3,1}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,2}}\alpha_{1,1} + \overline{\alpha_{2,2}}\alpha_{2,1} + \overline{\alpha_{3,2}}\alpha_{3,1} & \overline{\alpha_{1,2}}\alpha_{1,2} + \overline{\alpha_{2,2}}\alpha_{2,2} + \overline{\alpha_{3,2}}\alpha_{3,2} & \overline{\alpha_{1,2}}\alpha_{1,3} + \overline{\alpha_{2,2}}\alpha_{2,3} + \overline{\alpha_{3,2}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,3}}\alpha_{1,1} + \overline{\alpha_{2,3}}\alpha_{2,1} + \overline{\alpha_{3,3}}\alpha_{3,1} & \overline{\alpha_{1,3}}\alpha_{1,2} + \overline{\alpha_{2,3}}\alpha_{2,2} + \overline{\alpha_{3,3}}\alpha_{3,2} & \overline{\alpha_{1,3}}\alpha_{1,3} + \overline{\alpha_{2,3}}\alpha_{2,3} + \overline{\alpha_{3,3}}\alpha_{3,3} \end{pmatrix} \end{aligned}

Se formarmos três vetores a partir das colunas de U,U,

ψ1=(α1,1α2,1α3,1),ψ2=(α1,2α2,2α3,2),ψ3=(α1,3α2,3α3,3),\vert \psi_1\rangle = \begin{pmatrix} \alpha_{1,1}\\ \alpha_{2,1}\\ \alpha_{3,1} \end{pmatrix}, \quad \vert \psi_2\rangle = \begin{pmatrix} \alpha_{1,2}\\ \alpha_{2,2}\\ \alpha_{3,2} \end{pmatrix}, \quad \vert \psi_3\rangle = \begin{pmatrix} \alpha_{1,3}\\ \alpha_{2,3}\\ \alpha_{3,3} \end{pmatrix},

então podemos expressar o produto acima alternativamente da seguinte forma:

UU=(ψ1ψ1ψ1ψ2ψ1ψ3ψ2ψ1ψ2ψ2ψ2ψ3ψ3ψ1ψ3ψ2ψ3ψ3)U^{\dagger} U = \begin{pmatrix} \langle \psi_1\vert \psi_1 \rangle & \langle \psi_1\vert \psi_2 \rangle & \langle \psi_1\vert \psi_3 \rangle \\ \langle \psi_2\vert \psi_1 \rangle & \langle \psi_2\vert \psi_2 \rangle & \langle \psi_2\vert \psi_3 \rangle \\ \langle \psi_3\vert \psi_1 \rangle & \langle \psi_3\vert \psi_2 \rangle & \langle \psi_3\vert \psi_3 \rangle \end{pmatrix}

Referindo-se à equação (3),(3), vemos agora que a condição para que essa matriz seja igual à matriz identidade é equivalente à ortonormalidade do conjunto {ψ1,ψ2,ψ3}.\{\vert\psi_1\rangle,\vert\psi_2\rangle,\vert\psi_3\rangle\}.

Esse argumento se generaliza para matrizes unitárias de qualquer tamanho. O fato de que as linhas de uma matriz formam uma base ortonormal se e somente se a matriz é unitária decorre então do fato de que uma matriz é unitária se e somente se sua transposta também é unitária.

Dada a equivalência descrita acima, juntamente com o fato de que todo conjunto ortonormal pode ser estendido para formar uma base ortonormal, concluímos o seguinte fato útil: Dado qualquer conjunto ortonormal de vetores {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} extraídos de um espaço de dimensão nn, existe uma matriz unitária UU cujas primeiras mm colunas são os vetores ψ1,,ψm.\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle. Pictoricamente, sempre podemos encontrar uma matriz unitária com esta forma:

U=(ψ1ψ2ψmψm+1ψn).U = \left( \begin{array}{ccccccc} \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt}\\ \vert\psi_1\rangle & \vert\psi_2\rangle & \cdots & \vert\psi_m\rangle & \vert\psi_{m+1}\rangle & \cdots & \vert\psi_n\rangle\\[2mm] \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} \end{array} \right).

Aqui, as últimas nmn-m colunas são preenchidas com qualquer escolha de vetores ψm+1,,ψn\vert\psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle que tornem {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} uma base ortonormal.

Projeções e medições projetivas

Matrizes de projeção

Uma matriz quadrada Π\Pi é chamada de projeção se satisfaz duas propriedades:

  1. Π=Π.\Pi = \Pi^{\dagger}.
  2. Π2=Π.\Pi^2 = \Pi.

Matrizes que satisfazem a primeira condição — isto é, que são iguais à sua própria transposta conjugada — são chamadas de matrizes hermitianas, e matrizes que satisfazem a segunda condição — que elevá-las ao quadrado as mantém inalteradas — são chamadas de matrizes idempotentes.

Como uma ressalva, a palavra projeção às vezes é usada para se referir a qualquer matriz que satisfaça apenas a segunda condição, mas não necessariamente a primeira, e quando isso acontece o termo projeção ortogonal é normalmente usado para se referir às matrizes que satisfazem ambas as propriedades. No contexto da informação e computação quântica, porém, os termos projeção e matriz de projeção se referem mais tipicamente a matrizes que satisfazem ambas as condições.

Um exemplo de projeção é a matriz

Π=ψψ(4)\Pi = \vert \psi \rangle \langle \psi \vert \tag{4}

para qualquer vetor unitário ψ.\vert \psi\rangle. Podemos ver que essa matriz é hermitiana da seguinte forma:

Π=(ψψ)=(ψ)(ψ)=ψψ=Π.\Pi^{\dagger} = \bigl( \vert \psi \rangle \langle \psi \vert \bigr)^{\dagger} = \bigl( \langle \psi \vert \bigr)^{\dagger}\bigl( \vert \psi \rangle \bigr)^{\dagger} = \vert \psi \rangle \langle \psi \vert = \Pi.

Aqui, para obter a segunda igualdade, usamos a fórmula

(AB)=BA,(A B)^{\dagger} = B^{\dagger} A^{\dagger},

que é sempre verdadeira, para quaisquer duas matrizes AA e BB para as quais o produto ABAB faz sentido.

Para ver que a matriz Π\Pi em (4)(4) é idempotente, podemos usar a hipótese de que ψ\vert\psi\rangle é um vetor unitário, de modo que satisfaz ψψ=1.\langle \psi \vert \psi\rangle = 1. Assim, temos

Π2=(ψψ)2=ψψψψ=ψψ=Π.\Pi^2 = \bigl( \vert\psi\rangle\langle \psi\vert \bigr)^2 = \vert\psi\rangle\langle \psi\vert\psi\rangle\langle\psi\vert = \vert\psi\rangle\langle\psi\vert = \Pi.

De forma mais geral, se {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} é qualquer conjunto ortonormal de vetores, então a matriz

Π=k=1mψkψk(5)\Pi = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert \tag{5}

é uma projeção. Especificamente, temos

Π=(k=1mψkψk)=k=1m(ψkψk)=k=1mψkψk=Π,\begin{aligned} \Pi^{\dagger} &= \biggl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr)^{\dagger} \\ &= \sum_{k = 1}^m \bigl(\vert\psi_k\rangle\langle\psi_k\vert\bigr)^{\dagger} \\ &= \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ &= \Pi, \end{aligned}

e

Π2=(j=1mψjψj)(k=1mψkψk)=j=1mk=1mψjψjψkψk=k=1mψkψk=Π,\begin{aligned} \Pi^2 & = \biggl( \sum_{j = 1}^m \vert \psi_j\rangle \langle \psi_j \vert\Bigr)\Bigl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr) \\ & = \sum_{j = 1}^m\sum_{k = 1}^m \vert \psi_j\rangle \langle \psi_j \vert \psi_k\rangle \langle \psi_k \vert \\ & = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ & = \Pi, \end{aligned}

onde a ortonormalidade de {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} implica a penúltima igualdade.

De fato, isso esgota todas as possibilidades: toda projeção Π\Pi pode ser escrita na forma (5)(5) para alguma escolha de um conjunto ortonormal {ψ1,,ψm}.\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\}. (Tecnicamente falando, a matriz zero Π=0,\Pi=0, que é uma projeção, é um caso especial. Para encaixá-la na forma geral (5)(5) devemos permitir que a soma seja vazia, resultando na matriz zero.)

Medições projetivas

A noção de medição de um sistema quântico é mais geral do que apenas as medições na base padrão. Medições projetivas são medições descritas por uma coleção de projeções cuja soma é igual à matriz identidade. Em símbolos, uma coleção {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} de matrizes de projeção descreve uma medição projetiva se

Π0++Πm1=I.\Pi_0 + \cdots + \Pi_{m-1} = \mathbb{I}.

Quando essa medição é realizada em um sistema X\mathsf{X} enquanto ele está em algum estado ψ,\vert\psi\rangle, duas coisas acontecem:

  1. Para cada k{0,,m1},k\in\{0,\ldots,m-1\}, o resultado da medição é kk com probabilidade igual a

    Pr(outcome is k)=Πkψ2.\operatorname{Pr}\bigl(\text{outcome is $k$}\bigr) = \bigl\| \Pi_k \vert \psi \rangle \bigr\|^2.
  2. Para qualquer resultado kk que a medição produza, o estado de X\mathsf{X} se torna

    ΠkψΠkψ.\frac{\Pi_k \vert\psi\rangle}{\bigl\|\Pi_k \vert\psi\rangle\bigr\|}.

Também podemos escolher resultados diferentes de {0,,m1}\{0,\ldots,m-1\} para medições projetivas, se desejarmos. De forma mais geral, para qualquer conjunto finito e não vazio Σ,\Sigma, se temos uma coleção de matrizes de projeção

{Πa:aΣ}\{\Pi_a:a\in\Sigma\}

que satisfaz a condição

aΣΠa=I,\sum_{a\in\Sigma} \Pi_a = \mathbb{I},

então essa coleção descreve uma medição projetiva cujos possíveis resultados coincidem com o conjunto Σ,\Sigma, onde as regras são as mesmas de antes:

  1. Para cada aΣ,a\in\Sigma, o resultado da medição é aa com probabilidade igual a

    Pr(outcome is a)=Πaψ2.\operatorname{Pr}\bigl(\text{outcome is $a$}\bigr) = \bigl\| \Pi_a \vert \psi \rangle \bigr\|^2.
  2. Para qualquer resultado aa que a medição produza, o estado de X\mathsf{X} se torna

    ΠaψΠaψ.\frac{\Pi_a \vert\psi\rangle}{\bigl\|\Pi_a \vert\psi\rangle\bigr\|}.

Por exemplo, as medições na base padrão são equivalentes a medições projetivas, onde Σ\Sigma é o conjunto de estados clássicos de qualquer sistema X\mathsf{X} sobre o qual estamos falando e nosso conjunto de matrizes de projeção é {aa:aΣ}.\{\vert a\rangle\langle a\vert:a\in\Sigma\}.

Outro exemplo de medição projetiva, desta vez em dois qubits (X,Y),(\mathsf{X},\mathsf{Y}), é dado pelo conjunto {Π0,Π1},\{\Pi_0,\Pi_1\}, onde

Π0=ϕ+ϕ++ϕϕ+ψ+ψ+eΠ1=ψψ.\Pi_0 = \vert \phi^+\rangle\langle \phi^+ \vert + \vert \phi^-\rangle\langle \phi^- \vert + \vert \psi^+\rangle\langle \psi^+ \vert \quad\text{e}\quad \Pi_1 = \vert\psi^-\rangle\langle\psi^-\vert.

Se temos múltiplos sistemas que estão conjuntamente em algum estado quântico e uma medição projetiva é realizada em apenas um dos sistemas, a ação é similar ao que tínhamos para as medições na base padrão — e de fato podemos agora descrever essa ação em termos muito mais simples do que antes.

Para ser preciso, suponha que temos dois sistemas (X,Y)(\mathsf{X},\mathsf{Y}) em um estado quântico ψ,\vert\psi\rangle, e uma medição projetiva descrita por uma coleção {Πa:aΣ}\{\Pi_a : a\in\Sigma\} é realizada no sistema X,\mathsf{X}, enquanto nada é feito em Y.\mathsf{Y}. Fazer isso é então equivalente a realizar a medição projetiva descrita pela coleção

{ΠaI:aΣ}\bigl\{ \Pi_a \otimes \mathbb{I} \,:\, a\in\Sigma\bigr\}

no sistema conjunto (X,Y).(\mathsf{X},\mathsf{Y}). Cada resultado de medição aa ocorre com probabilidade

(ΠaI)ψ2,\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|^2,

e condicionado ao resultado aa aparecer, o estado do sistema conjunto (X,Y)(\mathsf{X},\mathsf{Y}) se torna

(ΠaI)ψ(ΠaI)ψ.\frac{(\Pi_a \otimes \mathbb{I})\vert \psi\rangle}{\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|}.

Implementando medições projetivas

Medições projetivas arbitrárias podem ser implementadas usando operações unitárias, medições na base padrão e um sistema auxiliar extra, como será explicado agora.

Suponha que X\mathsf{X} é um sistema e {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} é uma medição projetiva em X.\mathsf{X}. Podemos facilmente generalizar essa discussão para medições projetivas com diferentes conjuntos de resultados, mas para conveniência e simplicidade assumiremos que o conjunto de possíveis resultados da nossa medição é {0,,m1}.\{0,\ldots,m-1\}.

Notemos explicitamente que mm não é necessariamente igual ao número de estados clássicos de X\mathsf{X} — vamos deixar nn ser o número de estados clássicos de X,\mathsf{X}, o que significa que cada matriz Πk\Pi_k é uma matriz de projeção n×nn\times n.

Como assumimos que {Π0,Πm1}\{\Pi_0\ldots,\Pi_{m-1}\} representa uma medição projetiva, é necessariamente o caso que

k=0m1Πk=In.\sum_{k = 0}^{m-1} \Pi_k = \mathbb{I}_n.

Nosso objetivo é realizar um processo que tenha o mesmo efeito que realizar essa medição projetiva em X,\mathsf{X}, mas fazê-lo usando apenas operações unitárias e medições na base padrão.

Faremos uso de um sistema auxiliar extra Y\mathsf{Y} para isso, e especificamente vamos tomar o conjunto de estados clássicos de Y\mathsf{Y} como sendo {0,,m1},\{0,\ldots,m-1\}, que é o mesmo que o conjunto de resultados da medição projetiva. A ideia é que realizaremos uma medição na base padrão em Y,\mathsf{Y}, e interpretaremos o resultado dessa medição como sendo equivalente ao resultado da medição projetiva em X.\mathsf{X}. Precisaremos assumir que Y\mathsf{Y} é inicializado em algum estado fixo, que escolheremos como 0.\vert 0\rangle. (Qualquer outra escolha de vetor de estado quântico fixo poderia ser feita para funcionar, mas escolher 0\vert 0\rangle torna a explicação a seguir muito mais simples.)

Claro, para que uma medição na base padrão de Y\mathsf{Y} nos diga algo sobre X,\mathsf{X}, precisaremos permitir que X\mathsf{X} e Y\mathsf{Y} interajam de alguma forma antes de medir Y,\mathsf{Y}, realizando uma operação unitária no sistema (Y,X).(\mathsf{Y},\mathsf{X}). Primeiro considere esta matriz:

M=k=0m1k0Πk.M = \sum_{k = 0}^{m-1} \vert k \rangle \langle 0 \vert \otimes \Pi_k.

Expressa explicitamente como uma chamada matriz de blocos, que é essencialmente uma matriz de matrizes que interpretamos como uma única matriz maior, MM tem o seguinte aspecto:

M=(Π000Π100Πm100).M = \begin{pmatrix} \Pi_0 & 0 & \cdots & 0\\[1mm] \Pi_1 & 0 & \cdots & 0\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & 0 & \cdots & 0 \end{pmatrix}.

Aqui, cada 00 representa uma matriz n×nn\times n preenchida inteiramente com zeros, de modo que a matriz inteira MM é uma matriz nm×nmnm\times nm.

Agora, MM certamente não é uma matriz unitária (a menos que m=1,m=1, caso em que Π0=I,\Pi_0 = \mathbb{I}, dando M=IM = \mathbb{I} nesse caso trivial) porque matrizes unitárias não podem ter nenhuma coluna (ou linha) inteiramente 0;0; matrizes unitárias têm colunas que formam bases ortonormais, e o vetor totalmente nulo não é um vetor unitário.

No entanto, é o caso que as primeiras nn colunas da matriz MM são ortonormais, e obtemos isso da hipótese de que {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} é uma medição. Para verificar essa afirmação, observe que para cada j{0,,n1},j\in\{0,\ldots,n-1\}, o vetor formado pela coluna número jj de MM é o seguinte:

ψj=M0,j=k=0m1kΠkj.\vert \psi_j\rangle = M \vert 0, j\rangle = \sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert j\rangle.

Observe que aqui estamos numerando as colunas a partir da coluna 0.0. Calculando o produto interno da coluna ii com a coluna jj quando i,j{0,,n1}i,j\in\{0,\ldots,n-1\}, obtemos

ψiψj=(k=0m1kΠki)(l=0m1lΠlj)=k=0m1l=0m1kliΠkΠlj=k=0m1iΠkΠkj=k=0m1iΠkj=iIj={1i=j0ij,\begin{aligned} \langle \psi_i \vert \psi_j \rangle & = \biggl(\sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert i\rangle\biggr)^{\dagger} \biggl(\sum_{l = 0}^{m-1} \vert l \rangle \otimes \Pi_l \vert j\rangle\biggr) \\ & = \sum_{k = 0}^{m-1} \sum_{l = 0}^{m-1} \langle k \vert l \rangle \langle i \vert \Pi_k \Pi_l \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \Pi_k \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \vert j\rangle\\ & = \langle i \vert \mathbb{I} \vert j \rangle\\ & = \begin{cases} 1 & i = j\\ 0 & i\neq j, \end{cases} \end{aligned}

que é o que precisávamos mostrar.

Assim, como as primeiras nn colunas da matriz MM são ortonormais, podemos substituir todas as entradas zero restantes por alguma outra escolha de entradas de números complexos de modo que a matriz inteira seja unitária.

U=(Π0??Π1??Πm1??)U = \begin{pmatrix} \Pi_0 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \Pi_1 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Se tivermos as matrizes Π0,,Πm1,\Pi_0,\ldots,\Pi_{m-1}, podemos calcular as matrizes adequadas para preencher os blocos marcados com ?\fbox{?} na equação — usando o processo de Gram–Schmidt — mas não importa especificamente quais são essas matrizes para fins desta discussão.

Finalmente, podemos descrever o processo de medição: primeiro realizamos UU no sistema conjunto (Y,X)(\mathsf{Y},\mathsf{X}) e depois medimos Y\mathsf{Y} com respeito a uma medição na base padrão. Para um estado arbitrário ϕ\vert \phi \rangle de X,\mathsf{X}, obtemos o estado

U(0ϕ)=M(0ϕ)=k=0m1kΠkϕ,U \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = M \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = \sum_{k = 0}^{m-1} \vert k\rangle \otimes \Pi_k \vert\phi\rangle,

onde a primeira igualdade decorre do fato de que UU e MM coincidem em suas primeiras nn colunas. Quando realizamos uma medição projetiva em Y,\mathsf{Y}, obtemos cada resultado kk com probabilidade

Πkϕ2,\bigl\| \Pi_k \vert \phi\rangle \bigr\|^2,

caso em que o estado de (Y,X)(\mathsf{Y},\mathsf{X}) se torna

kΠkϕΠkϕ.\vert k\rangle \otimes \frac{\Pi_k \vert \phi\rangle}{\bigl\| \Pi_k \vert \phi\rangle \bigr\|}.

Assim, Y\mathsf{Y} armazena uma cópia do resultado da medição e X\mathsf{X} muda exatamente como mudaria se a medição projetiva descrita por {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} tivesse sido realizada diretamente em X.\mathsf{X}.