Pular para o conteúdo principal

Equivalência das representações

Até agora discutimos três formas diferentes de representar canais em termos matemáticos: representações de Stinespring, representações de Kraus e representações de Choi. Também temos a definição de canal, que estabelece que um canal é um mapeamento linear que sempre transforma matrizes de densidade em matrizes de densidade, mesmo quando o canal é aplicado a apenas uma parte de um sistema composto. O restante da lição é dedicado a uma prova matemática de que as três representações são equivalentes e capturam precisamente a definição.

Visão geral da prova

Nosso objetivo é estabelecer a equivalência de uma coleção de quatro afirmações, e começaremos escrevendo-as com precisão. Todas as quatro afirmações seguem as mesmas convenções utilizadas ao longo da lição: Φ\Phi é um mapeamento linear de matrizes quadradas para matrizes quadradas, as linhas e colunas das matrizes de entrada foram colocadas em correspondência com os estados clássicos de um sistema X\mathsf{X} (o sistema de entrada), e as linhas e colunas das matrizes de saída foram colocadas em correspondência com os estados clássicos de um sistema Y\mathsf{Y} (o sistema de saída).

  1. Φ\Phi é um canal de X\mathsf{X} para Y.\mathsf{Y}. Isto é, Φ\Phi sempre transforma matrizes de densidade em matrizes de densidade, mesmo quando age sobre uma parte de um sistema composto maior.

  2. A matriz de Choi J(Φ)J(\Phi) é semidefinida positiva e satisfaz a condição TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

  3. Existe uma representação de Kraus para Φ.\Phi. Isto é, existem matrizes A0,,AN1A_0,\ldots,A_{N-1} para as quais a equação Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} é verdadeira para toda entrada ρ,\rho, e que satisfazem a condição k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

  4. Existe uma representação de Stinespring para Φ.\Phi. Isto é, existem sistemas W\mathsf{W} e G\mathsf{G} para os quais os pares (W,X)(\mathsf{W},\mathsf{X}) e (G,Y)(\mathsf{G},\mathsf{Y}) têm o mesmo número de estados clássicos, juntamente com uma matriz unitária UU representando uma operação unitária de (W,X)(\mathsf{W},\mathsf{X}) para (G,Y),(\mathsf{G},\mathsf{Y}), tal que Φ(ρ)=TrG(U(00ρ)U).\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}}\bigl( U (\vert 0\rangle\langle 0 \vert \otimes \rho) U^{\dagger} \bigr).

A forma como a prova funciona é que um ciclo de implicações é provado: a primeira afirmação da nossa lista implica a segunda, a segunda implica a terceira, a terceira implica a quarta, e a quarta afirmação implica a primeira. Isso estabelece que todas as quatro afirmações são equivalentes — ou seja, elas são todas verdadeiras ou todas falsas para uma dada escolha de Φ\Phi — pois as implicações podem ser seguidas transitivamente de qualquer uma das afirmações para qualquer outra.

Essa é uma estratégia comum ao provar que uma coleção de afirmações são equivalentes, e um truque útil a utilizar nesse contexto é configurar as implicações de forma a torná-las tão fáceis de provar quanto possível. É o que acontece aqui — e na verdade já encontramos duas das quatro implicações.

Canais para matrizes de Choi

Referindo-nos às afirmações listadas acima por seus números, a primeira implicação a ser provada é 1 \Rightarrow 2. Essa implicação já foi discutida no contexto do estado de Choi de um canal. Aqui resumiremos os detalhes matemáticos.

Suponha que o conjunto de estados clássicos do sistema de entrada X\mathsf{X} seja Σ\Sigma e seja n=Σ.n = \vert\Sigma\vert. Considere a situação em que Φ\Phi é aplicado ao segundo de dois sistemas X\mathsf{X} juntos no estado

ψ=1naΣaa,\vert \psi \rangle = \frac{1}{\sqrt{n}} \sum_{a \in \Sigma} \vert a \rangle \otimes \vert a \rangle,

que, como matriz de densidade, é dado por

ψψ=1na,bΣabab.\vert \psi \rangle \langle \psi \vert = \frac{1}{n} \sum_{a,b \in \Sigma} \vert a\rangle\langle b \vert \otimes \vert a\rangle\langle b \vert.

O resultado pode ser escrito como

(IdΦ)(ψψ)=1na,b=0n1abΦ(ab)=J(Φ)n,(\operatorname{Id}\otimes \,\Phi) \bigl(\vert \psi \rangle \langle \psi \vert\bigr) = \frac{1}{n} \sum_{a,b = 0}^{n-1} \vert a\rangle\langle b \vert \otimes \Phi\bigl(\vert a\rangle\langle b \vert\bigr) = \frac{J(\Phi)}{n},

e pela suposição de que Φ\Phi é um canal, isso deve ser uma matriz de densidade. Como toda matriz de densidade, ela deve ser semidefinida positiva, e multiplicar uma matriz semidefinida positiva por um número real positivo resulta em outra matriz semidefinida positiva, portanto J(Φ)0.J(\Phi) \geq 0.

Além disso, sob a suposição de que Φ\Phi é um canal, ele deve preservar o traço, e portanto

TrY(J(Φ))=a,bΣTr(Φ(ab))ab=a,bΣTr(ab)ab=aΣaa=IX.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\Phi( \vert a\rangle\langle b \vert)\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert a\rangle\langle b \vert\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a\in\Sigma} \vert a\rangle\langle a \vert\\ & = \mathbb{I}_{\mathsf{X}}. \end{aligned}

Representações de Choi para Kraus

A segunda implicação, referindo-nos novamente às afirmações da nossa lista por seus números, é 2 \Rightarrow 3. Para ser claro, estamos ignorando as demais afirmações — e em particular não podemos assumir que Φ\Phi é um canal. Tudo o que temos para trabalhar é que Φ\Phi é um mapeamento linear cuja representação de Choi satisfaz J(Φ)0J(\Phi) \geq 0 e TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

Isso, no entanto, é suficiente para concluirmos que Φ\Phi possui uma representação de Kraus

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

para a qual a condição

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

é satisfeita.

Começamos com a suposição criticamente importante de que J(Φ)J(\Phi) é semidefinida positiva, o que significa que é possível expressá-la na forma

J(Φ)=k=0N1ψkψk(1)J(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \tag{1}

para alguma escolha dos vetores ψ0,,ψN1.\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle. Em geral haverá múltiplas formas de fazer isso — e de fato isso espelha diretamente a liberdade que se tem ao escolher uma representação de Kraus para Φ.\Phi.

Uma forma de obter tal expressão é primeiro usar o teorema espectral para escrever

J(Φ)=k=0N1λkγkγk,J(\Phi) = \sum_{k = 0}^{N-1} \lambda_k \vert \gamma_k \rangle \langle \gamma_k \vert,

em que λ0,,λN1\lambda_0,\ldots,\lambda_{N-1} são os autovalores de J(Φ)J(\Phi) (que são necessariamente números reais não negativos pois J(Φ)J(\Phi) é semidefinida positiva) e γ0,,γN1\vert\gamma_0\rangle,\ldots,\vert\gamma_{N-1}\rangle são autovetores unitários correspondentes aos autovalores λ0,,λN1.\lambda_0,\ldots,\lambda_{N-1}.

Observe que, embora não haja liberdade na escolha dos autovalores (exceto em como são ordenados), há liberdade na escolha dos autovetores, especialmente quando há autovalores com multiplicidade maior que um. Portanto, essa não é uma expressão única de J(Φ)J(\Phi) — estamos apenas assumindo que temos uma tal expressão. De qualquer forma, como os autovalores são números reais não negativos, eles têm raízes quadradas não negativas, e assim podemos selecionar

ψk=λkγk\vert\psi_k\rangle = \sqrt{\lambda_k} \vert \gamma_k\rangle

para cada k=0,,N1k = 0,\ldots,N-1 para obter uma expressão na forma (1).(1).

No entanto, não é essencial que a expressão (1)(1) venha de uma decomposição espectral dessa forma, e em particular os vetores ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle não precisam ser ortogonais em geral. Vale notar, porém, que podemos escolher esses vetores para serem ortogonais se desejarmos — e além disso nunca precisamos que NN seja maior que nmnm (lembrando que nn e mm denotam os números de estados clássicos de X\mathsf{X} e Y,\mathsf{Y}, respectivamente).

Em seguida, cada um dos vetores ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle pode ser decomposto como

ψk=aΣaϕk,a,\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle,

onde os vetores {ϕk,a}\{ \vert \phi_{k,a}\rangle \} possuem entradas correspondentes aos estados clássicos de Y\mathsf{Y} e podem ser determinados explicitamente pela equação

ϕk,a=(aIY)ψk\vert \phi_{k,a}\rangle = \bigl( \langle a \vert \otimes \mathbb{I}_{\mathsf{Y}}\bigr) \vert \psi_k\rangle

para cada aΣa\in\Sigma e k=0,,N1.k=0,\ldots,N-1. Embora ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle não sejam necessariamente vetores unitários, esse é o mesmo processo que usaríamos para analisar o que aconteceria se uma medição na base padrão fosse realizada no sistema X\mathsf{X} dado um vetor de estado quântico do par (X,Y).(\mathsf{X},\mathsf{Y}).

E agora chegamos ao truque que faz essa parte da prova funcionar. Definimos nossas matrizes de Kraus A0,,AN1A_0,\ldots,A_{N-1} de acordo com a seguinte equação.

Ak=aΣϕk,aaA_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

Podemos pensar nessa fórmula de forma puramente simbólica: a\vert a\rangle é efetivamente invertido para formar a\langle a\vert e movido para o lado direito, formando uma matriz. Para fins de verificação da prova, a fórmula é tudo o que precisamos.

Há, no entanto, uma relação simples e intuitiva entre o vetor ψk\vert\psi_k\rangle e a matriz Ak,A_k, que é que ao vetorizar AkA_k obtemos ψk.\vert\psi_k\rangle. Vetorizar AkA_k significa empilhar as colunas umas sobre as outras (com a coluna mais à esquerda no topo, seguindo até a mais à direita na parte inferior), para formar um vetor. Por exemplo, se X\mathsf{X} e Y\mathsf{Y} são ambos qubits, e para alguma escolha de kk temos

ψk=α0000+α0101+α1010+α1111=(α00α01α10α11),\begin{aligned} \vert\psi_k\rangle & = \alpha_{00} \vert 0\rangle \otimes \vert 0\rangle + \alpha_{01} \vert 0\rangle \otimes \vert 1\rangle + \alpha_{10} \vert 1\rangle \otimes \vert 0\rangle + \alpha_{11} \vert 1\rangle \otimes \vert 1\rangle\\[2mm] & = \begin{pmatrix} \alpha_{00} \\[1mm] \alpha_{01} \\[1mm] \alpha_{10} \\[1mm] \alpha_{11} \end{pmatrix}, \end{aligned}

então

Ak=α0000+α0110+α1001+α1111=(α00α10α01α11).\begin{aligned} A_k & = \alpha_{00} \vert 0\rangle\langle 0\vert + \alpha_{01} \vert 1\rangle\langle 0\vert + \alpha_{10} \vert 0\rangle\langle 1\vert + \alpha_{11} \vert 1\rangle\langle 1\vert\\[2mm] & = \begin{pmatrix} \alpha_{00} & \alpha_{10}\\[1mm] \alpha_{01} & \alpha_{11} \end{pmatrix}. \end{aligned}

(Atenção: às vezes a vetorização de uma matriz é definida de forma ligeiramente diferente, em que as linhas da matriz são transpostas e empilhadas umas sobre as outras para formar um vetor coluna.)

Primeiro verificaremos que essa escolha de matrizes de Kraus descreve corretamente o mapeamento Φ,\Phi, após o que verificaremos a outra condição necessária. Para manter as coisas claras, vamos definir um novo mapeamento Ψ\Psi da seguinte forma.

Ψ(ρ)=k=0N1AkρAk\Psi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

Portanto, nosso objetivo é verificar que Ψ=Φ.\Psi = \Phi.

A forma como podemos fazer isso é comparando as representações de Choi desses mapeamentos. Representações de Choi são fiéis, então temos Ψ=Φ\Psi = \Phi se e somente se J(Φ)=J(Ψ).J(\Phi) = J(\Psi). Nesse ponto podemos simplesmente calcular J(Ψ)J(\Psi) usando as expressões

ψk=aΣaϕk,aeAk=aΣϕk,aa\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle \quad\text{e}\quad A_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

juntamente com a bilinearidade dos produtos tensoriais para simplificar.

J(Ψ)=a,bΣabk=0N1AkabAk=a,bΣabk=0N1ϕk,aϕk,b=k=0N1(aΣaϕk,a)(bΣbϕk,b)=k=0N1ψkψk=J(Φ)\begin{aligned} J(\Psi) & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} A_k \vert a\rangle \langle b \vert A_k^{\dagger}\\[2mm] & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} \vert \phi_{k,a} \rangle \langle \phi_{k,b} \vert \\[2mm] & = \sum_{k = 0}^{N-1} \biggl(\sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a} \rangle\biggr) \biggl(\sum_{b\in\Sigma} \langle b\vert \otimes \langle \phi_{k,b} \vert\biggr)\\[2mm] & = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \\[2mm] & = J(\Phi) \end{aligned}

Portanto, nossas matrizes de Kraus descrevem corretamente Φ.\Phi.

Resta verificar a condição necessária sobre A0,,AN1,A_0,\ldots,A_{N-1}, que acaba sendo equivalente à suposição TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}} (que ainda não usamos). O que mostraremos é esta relação:

(k=0N1AkAk)T=TrY(J(Φ))(2)\Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr)^{T} = \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) \tag{2}

(em que estamos nos referindo à transposta matricial no lado esquerdo).

Começando pelo lado esquerdo, podemos primeiro observar que

(k=0N1AkAk)T=(k=0N1a,bΣbϕk,bϕk,aa)T=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T & = \Biggl(\sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert b \rangle \langle \phi_{k,b} \vert \phi_{k,a} \rangle \langle a \vert\Biggr)^T\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

A última igualdade decorre do fato de que a transposta é linear e mapeia ba\vert b\rangle\langle a \vert em ab.\vert a\rangle\langle b \vert.

Passando para o lado direito da nossa equação, temos

J(Φ)=k=0N1ψkψk=k=0N1a,bΣabϕk,aϕk,bJ(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k\rangle\langle\psi_k \vert = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert

e portanto

TrY(J(Φ))=k=0N1a,bΣTr(ϕk,aϕk,b)ab=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert \bigr)\, \vert a\rangle \langle b \vert\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

Obtivemos o mesmo resultado, e portanto a equação (2)(2) foi verificada. Segue-se, pela suposição TrY(J(Φ))=IX,\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}, que

(k=0N1AkAk)T=IX\Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T = \mathbb{I}_{\mathsf{X}}

e portanto, como a matriz identidade é sua própria transposta, a condição necessária é verdadeira.

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

Representação de Kraus para Stinespring

Suponha agora que temos uma representação de Kraus de um mapeamento

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

para o qual

k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

Nosso objetivo é encontrar uma representação de Stinespring para Φ.\Phi.

O que gostaríamos de fazer primeiro é escolher o sistema de lixo G\mathsf{G} de modo que seu conjunto de estados clássicos seja {0,,N1}.\{0,\ldots,N-1\}. Para que (W,X)(\mathsf{W},\mathsf{X}) e (G,Y)(\mathsf{G},\mathsf{Y}) tenham o mesmo tamanho, porém, é necessário que nn divida mN,m N, o que nos permite tomar W\mathsf{W} com estados clássicos {0,,d1}\{0,\ldots,d-1\} para d=mN/n.d = mN/n.

Para uma escolha arbitrária de n,n, m,m, e N,N, pode não ser o caso de mN/nmN/n ser um inteiro, portanto não somos de fato livres para escolher G\mathsf{G} de modo que seu conjunto de estados clássicos seja {0,,N1}.\{0,\ldots,N-1\}. Mas sempre podemos aumentar NN arbitrariamente na representação de Kraus escolhendo Ak=0A_k = 0 para quantos valores adicionais de kk desejarmos.

Assim, se assumirmos tacitamente que mN/nmN/n é um inteiro — o que equivale a NN ser múltiplo de m/gcd(n,m)m/\operatorname{gcd}(n,m) — então somos livres para tomar G\mathsf{G} de modo que seu conjunto de estados clássicos seja {0,,N1}.\{0,\ldots,N-1\}. Em particular, se N=nm,N = nm, podemos tomar W\mathsf{W} com m2m^2 estados clássicos.

Resta escolher U,U, e faremos isso seguindo o padrão abaixo.

U=(A0??A1??AN1??)U = \begin{pmatrix} A_{0} & \fbox{?} & \cdots & \fbox{?} \\[1mm] A_{1} & \fbox{?} & \cdots & \fbox{?} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] A_{N-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Para ficar claro, esse padrão pretende sugerir uma matriz em blocos, onde cada bloco (incluindo A0,,AN1A_{0},\ldots,A_{N-1} bem como os blocos marcados com um ponto de interrogação) tem mm linhas e nn colunas. Há NN linhas de blocos, o que significa que há d=mN/nd = mN/n colunas de blocos.

Expresso em termos mais formais, definiremos UU como

U=k=0N1j=0d1kjMk,j=(M0,0M0,1M0,d1M1,0M1,1M1,d1MN1,0MN1,1MN1,d1)\begin{aligned} U & = \sum_{k=0}^{N-1} \sum_{j=0}^{d-1} \vert k \rangle \langle j \vert \otimes M_{k,j} \\[4mm] & = \begin{pmatrix} M_{0,0} & M_{0,1} & \cdots & M_{0,d-1} \\[1mm] M_{1,0} & M_{1,1} & \cdots & M_{1,d-1} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] M_{N-1,0} & M_{N-1,1} & \cdots & M_{N-1,d-1} \end{pmatrix} \end{aligned}

onde cada matriz Mk,jM_{k,j} tem mm linhas e nn colunas, e em particular tomaremos Mk,0=AkM_{k,0} = A_k para k=0,,N1.k = 0,\ldots,N-1.

Essa deve ser uma matriz unitária, e os blocos marcados com ponto de interrogação — ou equivalentemente Mk,jM_{k,j} para j>0j>0 — devem ser escolhidos com isso em mente; mas além de permitir que UU seja unitária, esses blocos não terão nenhuma relevância para a prova.

Vamos momentaneamente ignorar a preocupação de que UU seja unitária e nos concentrar na expressão

TrG(U(00Wρ)U)\operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

que descreve o estado de saída de Y\mathsf{Y} dado o estado de entrada ρ\rho de X\mathsf{X} para nossa representação de Stinespring. Podemos escrever alternativamente

U(00ρ)U=U(0IW)ρ(0IW)U,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) \rho (\langle 0\vert \otimes \mathbb{I}_{\mathsf{W}}) U^{\dagger},

e vemos pela nossa escolha de UU que

U(0IW)=k=0N1kAk.U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k.

Portanto, concluímos que

U(00ρ)U=j,k=0N1kjAkρAj,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = \sum_{j,k = 0}^{N-1} \vert k\rangle\langle j\vert \otimes A_k \rho A_j^{\dagger},

e assim

TrG(U(00Wρ)U)=j,k=0N1Tr(kj)AkρAj=k=0N1AkρAk=Φ(ρ).\begin{aligned} \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho) U^{\dagger}\bigr) & = \sum_{j,k = 0}^{N-1} \operatorname{Tr}\bigl(\vert k\rangle\langle j\vert\bigr) \, A_k \rho A_j^{\dagger} \\ & = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} \\ & = \Phi(\rho). \end{aligned}

Temos, portanto, uma representação correta para o mapeamento Φ,\Phi, e resta verificar que podemos escolher UU como unitária.

Considere as primeiras nn colunas de UU quando ela é escolhida de acordo com o padrão acima. Tomando apenas essas colunas, temos uma matriz em blocos

(A0A1AN1).\begin{pmatrix} A_0\\[1mm] A_1\\[1mm] \vdots\\[1mm] A_{N-1} \end{pmatrix}.

nn colunas, uma para cada estado clássico de X,\mathsf{X}, e como vetores vamos nomear as colunas como γa\vert \gamma_a \rangle para cada aΣ.a\in\Sigma. Aqui está uma fórmula para esses vetores que pode ser relacionada à representação em blocos acima.

γa=k=0N1kAka\vert \gamma_a\rangle = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k \vert a \rangle

Agora vamos calcular o produto interno entre quaisquer dois desses vetores, ou seja, os correspondentes a qualquer escolha de a,bΣ.a,b\in\Sigma.

γaγb=j,k=0N1kjaAkAjb=a(k=0N1AkAk)b\langle \gamma_a \vert \gamma_b \rangle = \sum_{j,k = 0}^{N-1} \langle k \vert j \rangle \, \langle a \vert A_k^{\dagger} A_j \vert b\rangle = \langle a \vert \Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr) \vert b\rangle

Pela hipótese

k=0m1AkAk=IX\sum_{k = 0}^{m-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

concluímos que os nn vetores coluna {γa:aΣ}\{\vert\gamma_a\rangle\,:\,a\in\Sigma\} formam um conjunto ortonormal:

γaγb={1a=b0ab\langle \gamma_a \vert \gamma_b \rangle = \begin{cases} 1 & a = b\\ 0 & a\neq b \end{cases}

para todo a,bΣ.a,b\in\Sigma.

Isso implica que é possível completar as colunas restantes de UU de modo que ela se torne uma matriz unitária. Em particular, o processo de ortonormalização de Gram-Schmidt pode ser usado para selecionar as colunas restantes. Algo semelhante foi feito na lição Circuitos quânticos de "Fundamentos de informação quântica" no contexto do problema de discriminação de estados.

Representações de Stinespring de volta à definição

A implicação final é 4 \Rightarrow 1. Ou seja, assumimos que temos uma operação unitária transformando um par de sistemas (W,X)(\mathsf{W},\mathsf{X}) em um par (G,Y),(\mathsf{G},\mathsf{Y}), e nosso objetivo é concluir que o mapeamento

Φ(ρ)=TrG(U(00Wρ)U)\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

é um canal válido. Pela sua forma, fica evidente que Φ\Phi é linear, e resta verificar que ela sempre transforma matrizes densidade em matrizes densidade. Isso é bastante direto e já discutimos os pontos principais.

Em particular, se começarmos com uma matriz densidade σ\sigma de um sistema composto (Z,X),(\mathsf{Z},\mathsf{X}), e em seguida adicionarmos um sistema de espaço de trabalho W,\mathsf{W}, certamente continuaremos com uma matriz densidade. Se reordenarmos os sistemas (W,Z,X)(\mathsf{W},\mathsf{Z},\mathsf{X}) por conveniência, podemos escrever esse estado como

00Wσ.\vert 0\rangle\langle 0\vert_{\mathsf{W}} \otimes \sigma.

Em seguida, aplicamos a operação unitária U,U, e como já discutimos, isso é um canal válido e, portanto, mapeia matrizes densidade em matrizes densidade. Por fim, o traço parcial de uma matriz densidade é outra matriz densidade.

Outra maneira de dizer isso é observar primeiro que cada uma dessas coisas é um canal válido:

  1. Introduzir um sistema de espaço de trabalho inicializado.
  2. Realizar uma operação unitária.
  3. Traçar um sistema (traço parcial).

E por fim, qualquer composição de canais é outro canal — o que é imediato a partir da definição, mas também é um fato que vale a pena observar por si só.