Pular para o conteúdo principal

Informação clássica

Assim como fizemos na lição anterior, começaremos esta lição com uma discussão sobre informação clássica. Mais uma vez, as descrições probabilística e quântica são matematicamente similares, e reconhecer como a matemática funciona no contexto familiar da informação clássica é útil para entender por que a informação quântica é descrita da forma que é.

Estados clássicos via produto cartesiano

Começaremos pelo nível mais básico, com estados clássicos de múltiplos sistemas. Por simplicidade, começaremos discutindo apenas dois sistemas e depois generalizaremos para mais de dois sistemas.

Para ser preciso, seja X\mathsf{X} um sistema cujo conjunto de estados clássicos é Σ,\Sigma, e seja Y\mathsf{Y} um segundo sistema cujo conjunto de estados clássicos é Γ.\Gamma. Note que, por termos denominado esses conjuntos de conjuntos de estados clássicos, nossa suposição é que Σ\Sigma e Γ\Gamma são ambos finitos e não vazios. Pode ser que Σ=Γ,\Sigma = \Gamma, mas isso não é necessariamente o caso — e de qualquer forma, será útil usar nomes diferentes para se referir a esses conjuntos em prol da clareza.

Agora imagine que os dois sistemas, X\mathsf{X} e Y,\mathsf{Y}, são colocados lado a lado, com X\mathsf{X} à esquerda e Y\mathsf{Y} à direita. Se quisermos, podemos ver esses dois sistemas como se formassem um único sistema, que podemos denotar por (X,Y)(\mathsf{X},\mathsf{Y}) ou XY\mathsf{XY} conforme nossa preferência. Uma pergunta natural sobre esse sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) é: "Quais são seus estados clássicos?"

A resposta é que o conjunto de estados clássicos de (X,Y)(\mathsf{X},\mathsf{Y}) é o produto cartesiano de Σ\Sigma e Γ,\Gamma, que é o conjunto definido como

Σ×Γ={(a,b):aΣ  e  bΓ}. \Sigma\times\Gamma = \bigl\{(a,b)\,:\,a\in\Sigma\;\text{e}\;b\in\Gamma\bigr\}.

Em termos simples, o produto cartesiano é precisamente a noção matemática que captura a ideia de considerar um elemento de um conjunto e um elemento de um segundo conjunto juntos, como se formassem um único elemento de um único conjunto. No caso em questão, dizer que (X,Y)(\mathsf{X},\mathsf{Y}) está no estado clássico (a,b)Σ×Γ(a,b)\in\Sigma\times\Gamma significa que X\mathsf{X} está no estado clássico aΣa\in\Sigma e Y\mathsf{Y} está no estado clássico bΓ;b\in\Gamma; e se o estado clássico de X\mathsf{X} é aΣa\in\Sigma e o estado clássico de Y\mathsf{Y} é bΓ,b\in\Gamma, então o estado clássico do sistema conjunto (X,Y)(\mathsf{X},\mathsf{Y}) é (a,b).(a,b).

Para mais de dois sistemas, a situação se generaliza de forma natural. Se supormos que X1,,Xn\mathsf{X}_1,\ldots,\mathsf{X}_n são sistemas com conjuntos de estados clássicos Σ1,,Σn,\Sigma_1,\ldots,\Sigma_n, respectivamente, para qualquer inteiro positivo n,n, o conjunto de estados clássicos da nn-upla (X1,,Xn),(\mathsf{X}_1,\ldots,\mathsf{X}_n), vista como um único sistema conjunto, é o produto cartesiano

Σ1××Σn={(a1,,an):a1Σ1,,anΣn}. \Sigma_1\times\cdots\times\Sigma_n = \bigl\{(a_1,\ldots,a_n)\,:\, a_1\in\Sigma_1,\:\ldots,\:a_n\in\Sigma_n\bigr\}.

Claro, somos livres para usar os nomes que quisermos para os sistemas, e para ordená-los como escolhermos. Em particular, se temos nn sistemas como acima, poderíamos escolher nomeá-los X0,,Xn1\mathsf{X}_{0},\ldots,\mathsf{X}_{n-1} e organizá-los da direita para a esquerda, de modo que o sistema conjunto se torne (Xn1,,X0).(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0). Seguindo o mesmo padrão para nomear os estados clássicos e conjuntos de estados clássicos associados, poderíamos então nos referir a um estado clássico

(an1,,a0)Σn1××Σ0(a_{n-1},\ldots,a_0) \in \Sigma_{n-1}\times \cdots \times \Sigma_0

desse sistema composto. De fato, essa é a convenção de ordenação usada pelo Qiskit ao nomear múltiplos qubits. Voltaremos a essa convenção e como ela se conecta aos circuitos quânticos na próxima lição, mas já começaremos a usá-la agora para nos acostumarmos.

Muitas vezes é conveniente escrever um estado clássico da forma (an1,,a0)(a_{n-1},\ldots,a_0) como uma string an1a0a_{n-1}\cdots a_0 por brevidade, particularmente na situação muito típica em que os conjuntos de estados clássicos Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} estão associados a conjuntos de símbolos ou caracteres. Nesse contexto, o termo alfabeto é comumente usado para se referir a conjuntos de símbolos usados para formar strings, mas a definição matemática de um alfabeto é precisamente a mesma que a definição de um conjunto de estados clássicos: é um conjunto finito e não vazio.

Por exemplo, suponha que X0,,X9\mathsf{X}_0,\ldots,\mathsf{X}_9 sejam bits, de modo que os conjuntos de estados clássicos desses sistemas sejam todos iguais.

Σ0=Σ1==Σ9={0,1} \Sigma_0 = \Sigma_1 = \cdots = \Sigma_9 = \{0,1\}

Há então 210=10242^{10} = 1024 estados clássicos do sistema conjunto (X9,,X0),(\mathsf{X}_9,\ldots,\mathsf{X}_0), que são os elementos do conjunto

Σ9×Σ8××Σ0={0,1}10. \Sigma_9\times\Sigma_8\times\cdots\times\Sigma_0 = \{0,1\}^{10}.

Escritos como strings, esses estados clássicos têm a seguinte aparência:

000000000000000000010000000010000000001100000001001111111111 \begin{array}{c} 0000000000\\ 0000000001\\ 0000000010\\ 0000000011\\ 0000000100\\ \vdots\\[1mm] 1111111111 \end{array}

Para o estado clássico 0000000110,0000000110, por exemplo, vemos que X1\mathsf{X}_1 e X2\mathsf{X}_2 estão no estado 1,1, enquanto todos os demais sistemas estão no estado 0.0.

Estados probabilísticos

Lembre da lição anterior que um estado probabilístico associa uma probabilidade a cada estado clássico de um sistema. Portanto, um estado probabilístico de múltiplos sistemas — vistos coletivamente como um único sistema — associa uma probabilidade a cada elemento do produto cartesiano dos conjuntos de estados clássicos dos sistemas individuais.

Por exemplo, suponha que X\mathsf{X} e Y\mathsf{Y} sejam ambos bits, de modo que seus conjuntos de estados clássicos correspondentes sejam Σ={0,1}\Sigma = \{0,1\} e Γ={0,1},\Gamma = \{0,1\}, respectivamente. Aqui está um estado probabilístico do par (X,Y):(\mathsf{X},\mathsf{Y}):

Pr((X,Y)=(0,0))=1/2Pr((X,Y)=(0,1))=0Pr((X,Y)=(1,0))=0Pr((X,Y)=(1,1))=1/2 \begin{aligned} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,0)\bigr) & = 1/2 \\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,1)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,0)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,1)\bigr) & = 1/2 \end{aligned}

Este estado probabilístico é aquele em que tanto X\mathsf{X} quanto Y\mathsf{Y} são bits aleatórios — cada um é 00 com probabilidade 1/21/2 e 11 com probabilidade 1/21/2 — mas os estados clássicos dos dois bits sempre coincidem. Este é um exemplo de uma correlação entre esses sistemas.

Ordenando conjuntos de estados do produto cartesiano

Estados probabilísticos de sistemas podem ser representados por vetores de probabilidade, como foi discutido na lição anterior. Em particular, as entradas do vetor representam probabilidades de o sistema estar nos possíveis estados clássicos daquele sistema, e entende-se que foi selecionada uma correspondência entre as entradas e o conjunto de estados clássicos.

Escolher tal correspondência significa efetivamente decidir uma ordenação dos estados clássicos, que frequentemente é natural ou determinada por uma convenção padrão. Por exemplo, o alfabeto binário {0,1}\{0,1\} é naturalmente ordenado com 00 primeiro e 11 segundo, então a primeira entrada em um vetor de probabilidade que representa um estado probabilístico de um bit é a probabilidade de ele estar no estado 0,0, e a segunda entrada é a probabilidade de ele estar no estado 1.1.

Nada disso muda no contexto de múltiplos sistemas, mas há uma decisão a ser tomada. O conjunto de estados clássicos de múltiplos sistemas juntos, vistos coletivamente como um único sistema, é o produto cartesiano dos conjuntos de estados clássicos dos sistemas individuais — portanto, devemos decidir como os elementos dos produtos cartesianos dos conjuntos de estados clássicos devem ser ordenados.

Há uma convenção simples que seguimos para isso, que é começar com quaisquer ordenações já existentes para os conjuntos de estados clássicos individuais, e então ordenar os elementos do produto cartesiano alfabeticamente. Outra forma de dizer isso é que as entradas em cada nn-upla (ou, equivalentemente, os símbolos em cada string) são tratadas como se tivessem significância que decresce da esquerda para a direita. Por exemplo, de acordo com essa convenção, o produto cartesiano {1,2,3}×{0,1}\{1,2,3\}\times\{0,1\} é ordenado assim:

(1,0),  (1,1),  (2,0),  (2,1),  (3,0),  (3,1). (1,0),\; (1,1),\; (2,0),\; (2,1),\; (3,0),\; (3,1).

Quando as nn-uplas são escritas como strings e ordenadas dessa forma, observamos padrões familiares, como {0,1}×{0,1}\{0,1\}\times\{0,1\} sendo ordenado como 00,01,10,11,00, 01, 10, 11, e o conjunto {0,1}10\{0,1\}^{10} sendo ordenado como foi escrito anteriormente na lição. Como outro exemplo, ao ver o conjunto {0,1,,9}×{0,1,,9}\{0, 1, \dots, 9\} \times \{0, 1, \dots, 9\} como um conjunto de strings, obtemos os números de dois dígitos 0000 a 99,99, ordenados numericamente. Isso obviamente não é coincidência; nosso sistema decimal usa precisamente esse tipo de ordenação alfabética, onde a palavra alfabética deve ser entendida com um sentido amplo que inclui algarismos além de letras.

Voltando ao exemplo de dois bits acima, o estado probabilístico descrito anteriormente é portanto representado pelo seguinte vetor de probabilidade, onde as entradas são rotuladas explicitamente por razões de clareza.

(120012)probability of being in the state 00probability of being in the state 01probability of being in the state 10probability of being in the state 11(1) \begin{pmatrix} \frac{1}{2}\\[1mm] 0\\[1mm] 0\\[1mm] \frac{1}{2} \end{pmatrix} \begin{array}{l} \leftarrow \text{probability of being in the state 00}\\[1mm] \leftarrow \text{probability of being in the state 01}\\[1mm] \leftarrow \text{probability of being in the state 10}\\[1mm] \leftarrow \text{probability of being in the state 11} \end{array} \tag{1}

Independência de dois sistemas

Um tipo especial de estado probabilístico de dois sistemas é aquele em que os sistemas são independentes. Intuitivamente, dois sistemas são independentes se conhecer o estado clássico de qualquer um dos sistemas não afeta as probabilidades associadas ao outro. Ou seja, descobrir em qual estado clássico um dos sistemas se encontra não fornece nenhuma informação sobre o estado clássico do outro.

Para definir essa noção com precisão, suponhamos novamente que X\mathsf{X} e Y\mathsf{Y} são sistemas com conjuntos de estados clássicos Σ\Sigma e Γ,\Gamma, respectivamente. Com relação a um dado estado probabilístico desses sistemas, diz-se que eles são independentes se for o caso que

Pr((X,Y)=(a,b))=Pr(X=a)Pr(Y=b)(2) \operatorname{Pr}((\mathsf{X},\mathsf{Y}) = (a,b)) = \operatorname{Pr}(\mathsf{X} = a) \operatorname{Pr}(\mathsf{Y} = b) \tag{2}

para toda escolha de aΣa\in\Sigma e bΓ.b\in\Gamma.

Para expressar essa condição em termos de vetores de probabilidade, suponha que o dado estado probabilístico de (X,Y)(\mathsf{X},\mathsf{Y}) seja descrito por um vetor de probabilidade, escrito na notação de Dirac como

(a,b)Σ×Γpabab.\sum_{(a,b) \in \Sigma\times\Gamma} p_{ab} \vert a b\rangle.

A condição (2)(2) de independência é então equivalente à existência de dois vetores de probabilidade

ϕ=aΣqaaeψ=bΓrbb,(3)\vert \phi \rangle = \sum_{a\in\Sigma} q_a \vert a \rangle \quad\text{e}\quad \vert \psi \rangle = \sum_{b\in\Gamma} r_b \vert b \rangle, \tag{3}

representando as probabilidades associadas aos estados clássicos de X\mathsf{X} e Y,\mathsf{Y}, respectivamente, tais que

pab=qarb(4)p_{ab} = q_a r_b \tag{4}

para todo aΣa\in\Sigma e bΓ.b\in\Gamma.

Por exemplo, o estado probabilístico de um par de bits (X,Y)(\mathsf{X},\mathsf{Y}) representado pelo vetor

1600+11201+1210+1411 \frac{1}{6} \vert 00 \rangle + \frac{1}{12} \vert 01 \rangle + \frac{1}{2} \vert 10 \rangle + \frac{1}{4} \vert 11 \rangle

é aquele em que X\mathsf{X} e Y\mathsf{Y} são independentes. Especificamente, a condição necessária para a independência é verdadeira para os vetores de probabilidade

ϕ=140+341eψ=230+131. \vert \phi \rangle = \frac{1}{4} \vert 0 \rangle + \frac{3}{4} \vert 1 \rangle \quad\text{e}\quad \vert \psi \rangle = \frac{2}{3} \vert 0 \rangle + \frac{1}{3} \vert 1 \rangle.

Por exemplo, para que as probabilidades para o estado 0000 coincidam, precisamos que 16=14×23,\frac{1}{6} = \frac{1}{4} \times \frac{2}{3}, e de fato isso é verdade. As demais entradas podem ser verificadas de maneira similar.

Por outro lado, o estado probabilístico (1),(1), que podemos escrever como

1200+1211,(5) \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle, \tag{5}

não representa independência entre os sistemas X\mathsf{X} e Y.\mathsf{Y}. Uma forma simples de argumentar isso é a seguinte.

Suponha que existissem vetores de probabilidade ϕ\vert \phi\rangle e ψ,\vert \psi \rangle, como na equação (3)(3) acima, para os quais a condição (4)(4) é satisfeita para toda escolha de aa e b.b. Necessariamente, teríamos então que

q0r1=Pr((X,Y)=(0,1))=0. q_0 r_1 = \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (0,1)\bigr) = 0.

Isso implica que q0=0q_0 = 0 ou r1=0,r_1 = 0, pois se ambos fossem não nulos, o produto q0r1q_0 r_1 também seria não nulo. Isso leva à conclusão de que q0r0=0q_0 r_0 = 0 (no caso q0=0q_0 = 0) ou q1r1=0q_1 r_1 = 0 (no caso r1=0r_1 = 0). Verificamos, no entanto, que nenhuma dessas igualdades pode ser verdadeira, pois devemos ter q0r0=1/2q_0 r_0 = 1/2 e q1r1=1/2.q_1 r_1 = 1/2. Portanto, não existem vetores ϕ\vert\phi\rangle e ψ\vert\psi\rangle satisfazendo a propriedade necessária para a independência.

Tendo definido independência entre dois sistemas, podemos agora definir o que se entende por correlação: é uma falta de independência. Por exemplo, como os dois bits no estado probabilístico representado pelo vetor (5)(5) não são independentes, eles são, por definição, correlacionados.

Produtos tensoriais de vetores

A condição de independência recém-descrita pode ser expressa de forma concisa por meio da noção de produto tensorial. Embora os produtos tensoriais sejam uma noção muito geral, e possam ser definidos de forma bastante abstrata e aplicados a uma variedade de estruturas matemáticas, podemos adotar uma definição simples e concreta no caso em questão.

Dados dois vetores

ϕ=aΣαaaeψ=bΓβbb,\vert \phi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{e}\quad \vert \psi \rangle = \sum_{b\in\Gamma} \beta_b \vert b \rangle,

o produto tensorial ϕψ\vert \phi \rangle \otimes \vert \psi \rangle é o vetor definido como

ϕψ=(a,b)Σ×Γαaβbab. \vert \phi \rangle \otimes \vert \psi \rangle = \sum_{(a,b)\in\Sigma\times\Gamma} \alpha_a \beta_b \vert ab\rangle.

As entradas desse novo vetor correspondem aos elementos do produto cartesiano Σ×Γ,\Sigma\times\Gamma, que são escritos como strings na equação anterior. Equivalentemente, o vetor π=ϕψ\vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle é definido pela equação

abπ=aϕbψ\langle ab \vert \pi \rangle = \langle a \vert \phi \rangle \langle b \vert \psi \rangle

sendo verdadeira para todo aΣa\in\Sigma e bΓ.b\in\Gamma.

Podemos agora reformular a condição de independência: para um sistema conjunto (X,Y)(\mathsf{X}, \mathsf{Y}) em um estado probabilístico representado por um vetor de probabilidade π,\vert \pi \rangle, os sistemas X\mathsf{X} e Y\mathsf{Y} são independentes se π\vert\pi\rangle é obtido tomando um produto tensorial

π=ϕψ \vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle

de vetores de probabilidade ϕ\vert \phi \rangle e ψ\vert \psi \rangle em cada um dos subsistemas X\mathsf{X} e Y.\mathsf{Y}. Nessa situação, diz-se que π\vert \pi \rangle é um estado produto ou vetor produto.

Frequentemente omitimos o símbolo \otimes ao tomar o produto tensorial de kets, como ao escrever ϕψ\vert \phi \rangle \vert \psi \rangle em vez de ϕψ.\vert \phi \rangle \otimes \vert \psi \rangle. Essa convenção captura a ideia de que o produto tensorial é, nesse contexto, a forma mais natural ou padrão de tomar o produto de dois vetores. Embora seja menos comum, a notação ϕψ\vert \phi\otimes\psi\rangle também é usada às vezes.

Quando usamos a convenção alfabética para ordenar os elementos de produtos cartesianos, obtemos a seguinte especificação para o produto tensorial de dois vetores coluna.

(α1αm)(β1βk)=(α1β1α1βkα2β1α2βkαmβ1αmβk) \begin{pmatrix} \alpha_1\\ \vdots\\ \alpha_m \end{pmatrix} \otimes \begin{pmatrix} \beta_1\\ \vdots\\ \beta_k \end{pmatrix} = \begin{pmatrix} \alpha_1 \beta_1\\ \vdots\\ \alpha_1 \beta_k\\ \alpha_2 \beta_1\\ \vdots\\ \alpha_2 \beta_k\\ \vdots\\ \alpha_m \beta_1\\ \vdots\\ \alpha_m \beta_k \end{pmatrix}

Como observação importante, note a seguinte expressão para produtos tensoriais de vetores da base padrão:

ab=ab.\vert a \rangle \otimes \vert b \rangle = \vert ab \rangle.

Poderíamos alternativamente escrever (a,b)(a,b) como um par ordenado, em vez de uma string, caso em que obtemos ab=(a,b).\vert a \rangle \otimes \vert b \rangle = \vert (a,b) \rangle. É, no entanto, mais comum omitir os parênteses nessa situação, escrevendo em vez disso ab=a,b.\vert a \rangle \otimes \vert b \rangle = \vert a,b \rangle. Isso é típico na matemática em geral; parênteses que não adicionam clareza ou removem ambiguidade são frequentemente simplesmente omitidos.

O produto tensorial de dois vetores tem a importante propriedade de ser bilinear, o que significa que é linear em cada um dos dois argumentos separadamente, assumindo que o outro argumento está fixo. Essa propriedade pode ser expressa por estas equações:

1. Linearidade no primeiro argumento:

(ϕ1+ϕ2)ψ=ϕ1ψ+ϕ2ψ(αϕ)ψ=α(ϕψ)\begin{aligned} \bigl(\vert\phi_1\rangle + \vert\phi_2\rangle\bigr)\otimes \vert\psi\rangle & = \vert\phi_1\rangle \otimes \vert\psi\rangle + \vert\phi_2\rangle \otimes \vert\psi\rangle \\[1mm] \bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle & = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr) \end{aligned}

2. Linearidade no segundo argumento:

ϕ(ψ1+ψ2)=ϕψ1+ϕψ2ϕ(αψ)=α(ϕψ)\begin{aligned} \vert \phi \rangle \otimes \bigl(\vert \psi_1 \rangle + \vert \psi_2 \rangle \bigr) & = \vert \phi \rangle \otimes \vert \psi_1 \rangle + \vert \phi \rangle \otimes \vert \psi_2 \rangle\\[1mm] \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) & = \alpha \bigl(\vert\phi\rangle\otimes\vert\psi\rangle\bigr) \end{aligned}

Considerando a segunda equação em cada um desses pares de equações, vemos que os escalares "flutuam livremente" dentro dos produtos tensoriais:

(αϕ)ψ=ϕ(αψ)=α(ϕψ).\bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle = \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr).

Portanto, não há ambiguidade em simplesmente escrever αϕψ,\alpha\vert\phi\rangle\otimes\vert\psi\rangle, ou alternativamente αϕψ\alpha\vert\phi\rangle\vert\psi \rangle ou αϕψ,\alpha\vert\phi\otimes\psi\rangle, para se referir a esse vetor.

Independência e produtos tensoriais para três ou mais sistemas

As noções de independência e produtos tensoriais se generalizam de forma direta para três ou mais sistemas. Se X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} são sistemas com conjuntos de estados clássicos Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, respectivamente, então um estado probabilístico do sistema combinado (Xn1,,X0)(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0) é um estado produto se o vetor de probabilidade associado tem a forma

ψ=ϕn1ϕ0 \vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

para vetores de probabilidade ϕ0,,ϕn1\vert \phi_0 \rangle,\ldots,\vert \phi_{n-1}\rangle que descrevem estados probabilísticos de X0,,Xn1.\mathsf{X}_0,\ldots,\mathsf{X}_{n-1}. Aqui, a definição do produto tensorial se generaliza de forma natural: o vetor

ψ=ϕn1ϕ0\vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

é definido pela equação

an1a0ψ=an1ϕn1a0ϕ0 \langle a_{n-1} \cdots a_0 \vert \psi \rangle = \langle a_{n-1} \vert \phi_{n-1} \rangle \cdots \langle a_0 \vert \phi_0 \rangle

sendo verdadeira para todo a0Σ0,an1Σn1.a_0\in\Sigma_0, \ldots a_{n-1}\in\Sigma_{n-1}.

Uma forma diferente, mas equivalente, de definir o produto tensorial de três ou mais vetores é recursivamente em termos de produtos tensoriais de dois vetores:

ϕn1ϕ0=ϕn1(ϕn2ϕ0). \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle = \vert \phi_{n-1} \rangle \otimes \bigl( \vert \phi_{n-2} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle \bigr).

De forma similar ao produto tensorial de apenas dois vetores, o produto tensorial de três ou mais vetores é linear em cada um dos argumentos individualmente, assumindo que todos os demais argumentos estão fixos. Nesse caso, diz-se que o produto tensorial de três ou mais vetores é multilinear.

Assim como no caso de dois sistemas, poderíamos dizer que os sistemas X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} são independentes quando estão em um estado produto, mas o termo mutuamente independentes é mais preciso. Existem outras noções de independência para três ou mais sistemas, como a independência par a par, que são ao mesmo tempo interessantes e importantes — mas não no contexto deste curso.

Generalizando a observação anterior sobre produtos tensoriais de vetores da base padrão, para qualquer inteiro positivo nn e quaisquer estados clássicos a0,,an1,a_0,\ldots,a_{n-1}, temos

an1a0=an1a0.\vert a_{n-1} \rangle \otimes \cdots \otimes \vert a_0 \rangle = \vert a_{n-1} \cdots a_0 \rangle.

Medições de estados probabilísticos

Agora vamos avançar para as medições de estados probabilísticos de múltiplos sistemas. Ao escolher ver múltiplos sistemas juntos como sistemas únicos, obtemos imediatamente uma especificação de como as medições devem funcionar para múltiplos sistemas — desde que todos os sistemas sejam medidos.

Por exemplo, se o estado probabilístico de dois bits (X,Y)(\mathsf{X},\mathsf{Y}) é descrito pelo vetor de probabilidade

1200+1211, \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle,

então o resultado 0000 — ou seja, 00 para a medição de X\mathsf{X} e 00 para a medição de Y\mathsf{Y} — é obtido com probabilidade 1/21/2 e o resultado 1111 também é obtido com probabilidade 1/2.1/2. Em cada caso, atualizamos a descrição do vetor de probabilidade do nosso conhecimento de acordo, de modo que o estado probabilístico se torna 00|00\rangle ou 11,|11\rangle, respectivamente.

Poderíamos, no entanto, optar por medir não todos os sistemas, mas apenas alguns deles. Isso resultará em um resultado de medição para cada sistema que é medido, e também (em geral) afetará nosso conhecimento dos sistemas restantes que não medimos.

Para explicar como isso funciona, vamos nos concentrar no caso de dois sistemas, um dos quais é medido. A situação mais geral — na qual algum subconjunto próprio de três ou mais sistemas é medido — efetivamente se reduz ao caso de dois sistemas quando vemos os sistemas que são medidos coletivamente como se formassem um sistema e os sistemas que não são medidos como se formassem um segundo sistema.

Para ser preciso, suponhamos que X\mathsf{X} e Y\mathsf{Y} são sistemas cujos conjuntos de estados clássicos são Σ\Sigma e Γ,\Gamma, respectivamente, e que os dois sistemas juntos estão em algum estado probabilístico. Consideraremos o que acontece quando medimos apenas X\mathsf{X} e não fazemos nada com Y.\mathsf{Y}. A situação em que apenas Y\mathsf{Y} é medido e nada acontece com X\mathsf{X} é tratada simetricamente.

Primeiro, sabemos que a probabilidade de observar um determinado estado clássico aΣa\in\Sigma quando apenas X\mathsf{X} é medido deve ser consistente com as probabilidades que obteríamos sob a suposição de que Y\mathsf{Y} também fosse medido. Ou seja, devemos ter

Pr(X=a)=bΓPr((X,Y)=(a,b)). \operatorname{Pr}(\mathsf{X} = a) = \sum_{b\in\Gamma} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (a,b) \bigr).

Esta é a fórmula para o chamado estado probabilístico reduzido (ou marginal) de X\mathsf{X} sozinho.

Essa fórmula faz todo sentido em nível intuitivo, no sentido de que algo muito estranho teria que acontecer para que ela fosse errada. Se fosse errada, isso significaria que medir Y\mathsf{Y} poderia de alguma forma influenciar as probabilidades associadas aos diferentes resultados da medição de X,\mathsf{X}, independentemente do resultado real da medição de Y.\mathsf{Y}. Se Y\mathsf{Y} estivesse em um local distante, como em algum lugar de outra galáxia por exemplo, isso permitiria sinalização mais rápida que a luz — o que rejeitamos com base em nossa compreensão da física. Outra forma de entender isso vem da interpretação de probabilidade como reflexo de um grau de crença. O simples fato de outra pessoa poder decidir olhar para Y\mathsf{Y} não pode mudar o estado clássico de X,\mathsf{X}, portanto, sem qualquer informação sobre o que ela fez ou deixou de ver, as crenças de alguém sobre o estado de X\mathsf{X} não devem mudar como resultado.

Agora, dada a suposição de que apenas X\mathsf{X} é medido e Y\mathsf{Y} não é, ainda pode existir incerteza sobre o estado clássico de Y.\mathsf{Y}. Por esse motivo, em vez de atualizar nossa descrição do estado probabilístico de (X,Y)(\mathsf{X},\mathsf{Y}) para ab\vert ab\rangle para alguma seleção de aΣa\in\Sigma e bΓ,b\in\Gamma, devemos atualizar nossa descrição de modo que essa incerteza sobre Y\mathsf{Y} seja devidamente refletida.

A seguinte fórmula de probabilidade condicional reflete essa incerteza.

Pr(Y=bX=a)=Pr((X,Y)=(a,b))Pr(X=a) \operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) = \frac{ \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (a,b)\bigr) }{ \operatorname{Pr}(\mathsf{X} = a) }

Aqui, a expressão Pr(Y=bX=a)\operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) denota a probabilidade de que Y=b\mathsf{Y} = b condicionada a (ou dado que) X=a.\mathsf{X} = a. Tecnicamente falando, essa expressão só faz sentido se Pr(X=a)\operatorname{Pr}(\mathsf{X}=a) for não nulo, pois se Pr(X=a)=0,\operatorname{Pr}(\mathsf{X}=a) = 0, então estamos dividindo por zero e obtemos a forma indeterminada 00.\frac{0}{0}. Isso não é um problema, porém, porque se a probabilidade associada a aa é zero, então nunca obteremos aa como resultado de uma medição de X,\mathsf{X}, portanto não precisamos nos preocupar com essa possibilidade.

Para expressar essas fórmulas em termos de vetores de probabilidade, considere um vetor de probabilidade π\vert \pi \rangle que descreve um estado probabilístico conjunto de (X,Y).(\mathsf{X},\mathsf{Y}).

π=(a,b)Σ×Γpabab \vert\pi\rangle = \sum_{(a,b)\in\Sigma\times\Gamma} p_{ab} \vert ab\rangle

Medir apenas X\mathsf{X} produz cada possível resultado aΣa\in\Sigma com probabilidade

Pr(X=a)=cΓpac. \operatorname{Pr}(\mathsf{X} = a) = \sum_{c\in\Gamma} p_{ac}.

O vetor que representa o estado probabilístico de X\mathsf{X} sozinho é portanto dado por

aΣ(cΓpac)a. \sum_{a\in\Sigma} \biggl(\sum_{c\in\Gamma} p_{ac}\biggr) \vert a\rangle.

Tendo obtido um determinado resultado aΣa\in\Sigma da medição de X,\mathsf{X}, o estado probabilístico de Y\mathsf{Y} é atualizado de acordo com a fórmula de probabilidades condicionais, de modo que é representado por este vetor de probabilidade:

ψa=bΓpabbcΓpac. \vert \psi_a \rangle = \frac{\sum_{b\in\Gamma}p_{ab}\vert b\rangle}{\sum_{c\in\Gamma} p_{ac}}.

No caso de a medição de X\mathsf{X} resultar no estado clássico a,a, atualizamos portanto nossa descrição do estado probabilístico do sistema conjunto (X,Y)(\mathsf{X},\mathsf{Y}) para aψa.\vert a\rangle \otimes \vert\psi_a\rangle.

Uma forma de pensar sobre essa definição de ψa\vert\psi_a\rangle é vê-la como uma normalização do vetor bΓpabb,\sum_{b\in\Gamma} p_{ab} \vert b\rangle, onde dividimos pela soma das entradas desse vetor para obter um vetor de probabilidade. Essa normalização efetivamente leva em conta um condicionamento ao evento de que a medição de X\mathsf{X} resultou no resultado a.a.

Para um exemplo específico, suponha que o conjunto de estados clássicos de X\mathsf{X} seja Σ={0,1},\Sigma = \{0,1\}, o conjunto de estados clássicos de Y\mathsf{Y} seja Γ={1,2,3},\Gamma = \{1,2,3\}, e o estado probabilístico de (X,Y)(\mathsf{X},\mathsf{Y}) seja

π=120,1+1120,3+1121,1+161,2+161,3. \vert \pi \rangle = \frac{1}{2} \vert 0,1 \rangle + \frac{1}{12} \vert 0,3 \rangle + \frac{1}{12} \vert 1,1 \rangle + \frac{1}{6} \vert 1,2 \rangle + \frac{1}{6} \vert 1,3 \rangle.

Nosso objetivo será determinar as probabilidades dos dois possíveis resultados (00 e 11), e calcular qual é o estado probabilístico resultante de Y\mathsf{Y} para os dois resultados, assumindo que o sistema X\mathsf{X} é medido.

Usando a bilinearidade do produto tensorial, e especificamente o fato de que ele é linear no segundo argumento, podemos reescrever o vetor π\vert \pi \rangle da seguinte forma:

π=0(121+1123)+1(1121+162+163). \vert \pi \rangle = \vert 0\rangle \otimes \biggl( \frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle\biggr) + \vert 1\rangle \otimes \biggl( \frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle\biggr).

Em palavras, o que fizemos foi isolar os vetores da base padrão distintos para o primeiro sistema (ou seja, o que está sendo medido), fazendo o produto tensorial de cada um com a combinação linear de vetores da base padrão para o segundo sistema que obtemos ao selecionar as entradas do vetor original que são consistentes com o estado clássico correspondente do primeiro sistema. Uma breve reflexão revela que isso sempre é possível, independentemente de qual vetor começamos.

Tendo expressado nosso vetor de probabilidade dessa forma, os efeitos de medir o primeiro sistema tornam-se fáceis de analisar. As probabilidades dos dois resultados podem ser obtidas somando as probabilidades entre parênteses.

Pr(X=0)=12+112=712Pr(X=1)=112+16+16=512 \begin{aligned} \operatorname{Pr}(\mathsf{X} = 0) & = \frac{1}{2} + \frac{1}{12} = \frac{7}{12}\\[3mm] \operatorname{Pr}(\mathsf{X} = 1) & = \frac{1}{12} + \frac{1}{6} + \frac{1}{6} = \frac{5}{12} \end{aligned}

Essas probabilidades somam um, como esperado — mas isso é uma verificação útil dos nossos cálculos.

E agora, o estado probabilístico de Y\mathsf{Y} condicionado a cada possível resultado pode ser inferido normalizando os vetores entre parênteses. Ou seja, dividimos esses vetores pelas probabilidades associadas que acabamos de calcular, de modo que se tornem vetores de probabilidade.

Assim, condicionado a X\mathsf{X} ser 0,0, o estado probabilístico de Y\mathsf{Y} se torna

121+1123712=671+173, \frac{\frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle}{\frac{7}{12}} = \frac{6}{7} \vert 1 \rangle + \frac{1}{7} \vert 3 \rangle,

e condicionado ao resultado da medição de X\mathsf{X} ser 1,1, o estado probabilístico de Y\mathsf{Y} se torna

1121+162+163512=151+252+253. \frac{\frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle}{\frac{5}{12}} = \frac{1}{5} \vert 1 \rangle + \frac{2}{5} \vert 2 \rangle + \frac{2}{5} \vert 3 \rangle.

Operações sobre estados probabilísticos

Para concluir esta discussão sobre informação clássica para múltiplos sistemas, consideraremos operações em múltiplos sistemas em estados probabilísticos. Seguindo a mesma ideia de antes, podemos ver múltiplos sistemas coletivamente como sistemas únicos e compostos, e então recorrer à lição anterior para ver como isso funciona.

Voltando à configuração típica em que temos dois sistemas X\mathsf{X} e Y,\mathsf{Y}, consideremos operações clássicas no sistema composto (X,Y).(\mathsf{X},\mathsf{Y}). Com base na lição anterior e na discussão acima, concluímos que qualquer operação desse tipo é representada por uma matriz estocástica cujas linhas e colunas são indexadas pelo produto cartesiano Σ×Γ.\Sigma\times\Gamma.

Por exemplo, suponha que X\mathsf{X} e Y\mathsf{Y} sejam bits, e considere uma operação com a seguinte descrição.

Operação

Se X=1,\mathsf{X} = 1, então realize uma operação NOT em Y.\mathsf{Y}.
Caso contrário, não faça nada.

Esta é uma operação determinística conhecida como operação controlled-NOT, onde X\mathsf{X} é o bit de controle que determina se uma operação NOT deve ou não ser aplicada ao bit alvo Y.\mathsf{Y}. Aqui está a representação matricial desta operação:

(1000010000010010).\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0 \end{pmatrix}.

Sua ação sobre os estados da base padrão é a seguinte.

0000010110111110\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 01 \rangle\\ \vert 10 \rangle & \mapsto \vert 11 \rangle\\ \vert 11 \rangle & \mapsto \vert 10 \rangle \end{aligned}

Se trocarmos os papéis de X\mathsf{X} e Y,\mathsf{Y}, tomando Y\mathsf{Y} como o bit de controle e X\mathsf{X} como o bit alvo, então a representação matricial da operação se tornaria

(1000000100100100)\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0\\[2mm] 0 & 1 & 0 & 0 \end{pmatrix}

e sua ação sobre os estados da base padrão seria assim:

0000011110101101\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 11 \rangle\\ \vert 10 \rangle & \mapsto \vert 10 \rangle\\ \vert 11 \rangle & \mapsto \vert 01 \rangle \end{aligned}

Outro exemplo é a operação com esta descrição:

Operação

Realize uma das duas operações a seguir, cada uma com probabilidade 1/2:1/2:

  1. Defina Y\mathsf{Y} para ser igual a X.\mathsf{X}.
  2. Defina X\mathsf{X} para ser igual a Y.\mathsf{Y}.

A representação matricial desta operação é a seguinte:

(11212000000000012121)=12(1100000000000011)+12(1010000000000101).\begin{pmatrix} 1 & \frac{1}{2} & \frac{1}{2} & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & \frac{1}{2} & \frac{1}{2} & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 1 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 0 & 1 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 1 \end{pmatrix}.

A ação desta operação sobre os vetores da base padrão é a seguinte:

0000011200+1211101200+12111111\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\[1mm] \vert 01 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[3mm] \vert 10 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[2mm] \vert 11 \rangle & \mapsto \vert 11 \rangle \end{aligned}

Nesses exemplos, simplesmente estamos vendo dois sistemas juntos como um único sistema e procedendo como na lição anterior.

O mesmo pode ser feito para qualquer número de sistemas. Por exemplo, imagine que temos três bits, e incrementamos os três bits módulo 88 — ou seja, pensamos nos três bits como codificando um número entre 00 e 77 usando notação binária, somamos 1,1, e então tomamos o resto após dividir por 8.8. Uma forma de expressar esta operação é assim:

001000+010001+011010+100011+101100+110101+111110+000111.\begin{aligned} & \vert 001 \rangle \langle 000 \vert + \vert 010 \rangle \langle 001 \vert + \vert 011 \rangle \langle 010 \vert + \vert 100 \rangle \langle 011 \vert\\[1mm] & \quad + \vert 101 \rangle \langle 100 \vert + \vert 110 \rangle \langle 101 \vert + \vert 111 \rangle \langle 110 \vert + \vert 000 \rangle \langle 111 \vert. \end{aligned}

Outra forma de expressá-la é como

k=07(k+1)mod8k,\sum_{k = 0}^{7} \vert (k+1) \bmod 8 \rangle \langle k \vert,

assumindo que concordamos que números de 00 a 77 dentro de kets se referem às codificações binárias de três bits desses números. Uma terceira opção é expressar esta operação como uma matriz.

(0000000110000000010000000010000000010000000010000000010000000010)\begin{pmatrix} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1\\ 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \end{pmatrix}

Operações independentes

Agora suponha que temos múltiplos sistemas e independentemente realizamos diferentes operações nos sistemas separadamente.

Por exemplo, tomando nossa configuração habitual de dois sistemas X\mathsf{X} e Y\mathsf{Y} com conjuntos de estados clássicos Σ\Sigma e Γ,\Gamma, respectivamente, suponhamos que realizamos uma operação em X\mathsf{X} e, de forma completamente independente, outra operação em Y.\mathsf{Y}. Como sabemos da lição anterior, essas operações são representadas por matrizes estocásticas — e para ser preciso, digamos que a operação em X\mathsf{X} é representada pela matriz MM e a operação em Y\mathsf{Y} é representada pela matriz N.N. Assim, as linhas e colunas de MM têm índices que estão em correspondência com os elementos de Σ\Sigma e, da mesma forma, as linhas e colunas de NN correspondem aos elementos de Γ.\Gamma.

Uma pergunta natural a fazer é a seguinte: se vemos X\mathsf{X} e Y\mathsf{Y} juntos como um único sistema composto (X,Y),(\mathsf{X},\mathsf{Y}), qual é a matriz que representa a ação combinada das duas operações nesse sistema composto? Para responder a essa pergunta, devemos primeiro introduzir os produtos tensoriais de matrizes, que são similares aos produtos tensoriais de vetores e são definidos de forma análoga.

Produtos tensoriais de matrizes

O produto tensorial MNM\otimes N das matrizes

M=a,bΣαabab M = \sum_{a,b\in\Sigma} \alpha_{ab} \vert a\rangle \langle b\vert

e

N=c,dΓβcdcd N = \sum_{c,d\in\Gamma} \beta_{cd} \vert c\rangle \langle d\vert

é a matriz

MN=a,bΣc,dΓαabβcdacbd M \otimes N = \sum_{a,b\in\Sigma} \sum_{c,d\in\Gamma} \alpha_{ab} \beta_{cd} \vert ac \rangle \langle bd \vert

Equivalentemente, o produto tensorial de MM e NN é definido pela equação

acMNbd=aMbcNd\langle ac \vert M \otimes N \vert bd\rangle = \langle a \vert M \vert b\rangle \langle c \vert N \vert d\rangle

sendo verdadeira para toda seleção de a,bΣa,b\in\Sigma e c,dΓ.c,d\in\Gamma.

Uma forma alternativa, mas equivalente, de descrever MNM\otimes N é que ela é a única matriz que satisfaz a equação

(MN)(ϕψ)=(Mϕ)(Nψ) (M \otimes N) \bigl( \vert \phi \rangle \otimes \vert \psi \rangle \bigr) = \bigl(M \vert\phi\rangle\bigr) \otimes \bigl(N \vert\psi\rangle\bigr)

para toda possível escolha de vetores ϕ\vert\phi\rangle e ψ,\vert\psi\rangle, assumindo que os índices de ϕ\vert\phi\rangle correspondem aos elementos de Σ\Sigma e os índices de ψ\vert\psi\rangle correspondem a Γ.\Gamma.

Seguindo a convenção descrita anteriormente para ordenar os elementos de produtos cartesianos, podemos também escrever o produto tensorial de duas matrizes explicitamente da seguinte forma:

(α11α1mαm1αmm)(β11β1kβk1βkk)=(α11β11α11β1kα1mβ11α1mβ1kα11βk1α11βkkα1mβk1α1mβkkαm1β11αm1β1kαmmβ11αmmβ1kαm1βk1αm1βkkαmmβk1αmmβkk)\begin{gathered} \begin{pmatrix} \alpha_{11} & \cdots & \alpha_{1m} \\ \vdots & \ddots & \vdots \\ \alpha_{m1} & \cdots & \alpha_{mm} \end{pmatrix} \otimes \begin{pmatrix} \beta_{11} & \cdots & \beta_{1k} \\ \vdots & \ddots & \vdots\\ \beta_{k1} & \cdots & \beta_{kk} \end{pmatrix} \hspace{6cm}\\[8mm] \hspace{1cm} = \begin{pmatrix} \alpha_{11}\beta_{11} & \cdots & \alpha_{11}\beta_{1k} & & \alpha_{1m}\beta_{11} & \cdots & \alpha_{1m}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{11}\beta_{k1} & \cdots & \alpha_{11}\beta_{kk} & & \alpha_{1m}\beta_{k1} & \cdots & \alpha_{1m}\beta_{kk} \\[2mm] & \vdots & & \ddots & & \vdots & \\[2mm] \alpha_{m1}\beta_{11} & \cdots & \alpha_{m1}\beta_{1k} & & \alpha_{mm}\beta_{11} & \cdots & \alpha_{mm}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{m1}\beta_{k1} & \cdots & \alpha_{m1}\beta_{kk} & & \alpha_{mm}\beta_{k1} & \cdots & \alpha_{mm}\beta_{kk} \end{pmatrix} \end{gathered}

Os produtos tensoriais de três ou mais matrizes são definidos de forma análoga. Se M0,,Mn1M_0, \ldots, M_{n-1} são matrizes cujos índices correspondem a conjuntos de estados clássicos Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, então o produto tensorial Mn1M0M_{n-1}\otimes\cdots\otimes M_0 é definido pela condição de que

an1a0Mn1M0bn1b0=an1Mn1bn1a0M0b0\langle a_{n-1}\cdots a_0 \vert M_{n-1}\otimes\cdots\otimes M_0 \vert b_{n-1}\cdots b_0\rangle = \langle a_{n-1} \vert M_{n-1} \vert b_{n-1} \rangle \cdots\langle a_0 \vert M_0 \vert b_0 \rangle

para toda escolha de estados clássicos a0,b0Σ0,,an1,bn1Σn1.a_0,b_0\in\Sigma_0,\ldots,a_{n-1},b_{n-1}\in\Sigma_{n-1}. Alternativamente, os produtos tensoriais de três ou mais matrizes podem ser definidos recursivamente, em termos de produtos tensoriais de duas matrizes, similar ao que observamos para vetores.

Diz-se que o produto tensorial de matrizes é multiplicativo porque a equação

(Mn1M0)(Nn1N0)=(Mn1Nn1)(M0N0) (M_{n-1}\otimes\cdots\otimes M_0)(N_{n-1}\otimes\cdots\otimes N_0) = (M_{n-1} N_{n-1})\otimes\cdots\otimes (M_0 N_0)

é sempre verdadeira, para qualquer escolha de matrizes M0,,Mn1M_0,\ldots,M_{n-1} e N0,Nn1,N_0\ldots,N_{n-1}, desde que os produtos M0N0,,Mn1Nn1M_0 N_0, \ldots, M_{n-1} N_{n-1} façam sentido.

Operações independentes (continuação)

Podemos agora responder à pergunta feita anteriormente: se MM é uma operação probabilística em X,\mathsf{X}, NN é uma operação probabilística em Y,\mathsf{Y}, e as duas operações são realizadas de forma independente, então a operação resultante no sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) é o produto tensorial MN.M\otimes N.

Portanto, tanto para estados probabilísticos quanto para operações probabilísticas, produtos tensoriais representam independência. Se temos dois sistemas X\mathsf{X} e Y\mathsf{Y} que independentemente estão nos estados probabilísticos ϕ\vert\phi\rangle e ψ,\vert\psi\rangle, então o sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) está no estado probabilístico ϕψ;\vert\phi\rangle\otimes\vert\psi\rangle; e se aplicamos operações probabilísticas MM e NN aos dois sistemas de forma independente, então a ação resultante no sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) é descrita pela operação MN.M\otimes N.

Vejamos um exemplo, que recorda uma operação probabilística em um único bit da lição anterior: se o estado clássico do bit é 0,0, ele é deixado como está; e se o estado clássico do bit é 1,1, ele é invertido para 0 com probabilidade 1/2.1/2. Observamos que essa operação é representada pela matriz

(112012). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}.

Se essa operação for realizada em um bit X,\mathsf{X}, e uma operação NOT for (independentemente) realizada em um segundo bit Y,\mathsf{Y}, então a operação conjunta no sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) tem a representação matricial

(112012)(0110)=(01012101200001200120). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} \otimes \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & \frac{1}{2} \\[1mm] 1 & 0 & \frac{1}{2} & 0 \\[1mm] 0 & 0 & 0 & \frac{1}{2} \\[1mm] 0 & 0 & \frac{1}{2} & 0 \end{pmatrix}.

Por inspeção, vemos que esta é uma matriz estocástica. Este sempre será o caso: o produto tensorial de duas ou mais matrizes estocásticas é sempre estocástico.

Uma situação comum que encontramos é aquela em que uma operação é realizada em um sistema e nada é feito em outro. Nesse caso, exatamente a mesma prescrição é seguida, tendo em mente que não fazer nada é representado pela matriz identidade. Por exemplo, reinicializar o bit X\mathsf{X} para o estado 00 e não fazer nada em Y\mathsf{Y} produz a operação probabilística (e de fato determinística) em (X,Y)(\mathsf{X},\mathsf{Y}) representada pela matriz

(1100)(1001)=(1010010100000000). \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \otimes \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 1 & 0 \\[1mm] 0 & 1 & 0 & 1 \\[1mm] 0 & 0 & 0 & 0 \\[1mm] 0 & 0 & 0 & 0 \end{pmatrix}.