Vetores e MatrizesVectors and Matrices

Alguma familiaridade com vetores e matrizes é essencial para entender a computação quântica.Some familiarity with vectors and matrices is essential to understand quantum computing. Fornecemos uma breve introdução abaixo e os leitores interessados são recomendados a ler uma referência padrão em álgebra linear como Strang, G. (1993). Introdução à álgebra linear (Vol. 3). Wellesley, MA: Wellesley-Cambridge Press ou uma referência online como álgebra linear.We provide a brief introduction below and interested readers are recommended to read a standard reference on linear algebra such as Strang, G. (1993). Introduction to linear algebra (Vol. 3). Wellesley, MA: Wellesley-Cambridge Press or an online reference such as Linear Algebra.

Um vetor de coluna (ou simplesmente vetor) $ v de $ dimensão (ou tamanho) $ n é uma coleção de $ $ $ números n complexos $ (v_1,v_2,\ldots,v_n) $ dispostos como uma coluna:A column vector (or simply vector) $v$ of dimension (or size) $n$ is a collection of $n$ complex numbers $(v_1,v_2,\ldots,v_n)$ arranged as a column:

$$v =\begin{bmatrix}$$v =\begin{bmatrix} v_1\\v_1\\ v_2\\v_2\\ \vdots\\\vdots\\ v_n \end{bmatrix}$$v_n \end{bmatrix}$$

A norma de um vetor $ v é definida como i v $ i $ \sqrt { \sum _ | _ | ^2 } $ .The norm of a vector $v$ is defined as $\sqrt{\sum_i |v_i|^2}$. Diz-se que um vetor é de norma unitária (ou, em alternativa, é chamado de vetor unitário)se a sua norma for $ 1 $ .A vector is said to be of unit norm (or alternatively it is called a unit vector) if its norm is $1$. O adjacente de um vetor v é $ $ denotado $ v^ e é definido como o \dagger $ vetor de linha seguinte onde $ * $ denota o conjugado complexo,The adjoint of a vector $v$ is denoted $v^\dagger$ and is defined to be the following row vector where $*$ denotes the complex conjugate,

$$\begin{bmatrix}v_1 \\ \vdots \\ v_n \end{bmatrix} ^ \dagger = \begin{bmatrix} v_1^* & \cdots & v_n^*\end{bmatrix}$$$$\begin{bmatrix}v_1 \\ \vdots \\ v_n \end{bmatrix}^\dagger = \begin{bmatrix}v_1^* & \cdots & v_n^* \end{bmatrix}$$

A forma mais comum de multiplicar dois vetores juntos é através do produto interno,também conhecido como um produto ponto.The most common way to multiply two vectors together is through the inner product, also known as a dot product. O produto interno dá a projeção de um vetor para outro e é inestimável na descrição de como expressar um vetor como uma soma de outros vetores mais simples.The inner product gives the projection of one vector onto another and is invaluable in describing how to express one vector as a sum of other simpler vectors. O produto interno entre $ u e v , $ $ $ denotado $ \left \langle u, v \right \rangle $ é definido comoThe inner product between $u$ and $v$, denoted $\left\langle u, v\right\rangle$ is defined as

$$ \langleu, v \rangle = u^ \dagger v = _ 1^ { * } v_1 + + \cdots u _ n^ v { * } _ n.\langle u, v\rangle = u^\dagger v=u_1^{*} v_1 + \cdots + u_n^{*} v_n. $$

Esta notação também permite que a norma de um vetor $ v seja escrita como $ $ \sqrt { \langle v, v \rangle } $ .This notation also allows the norm of a vector $v$ to be written as $\sqrt{\langle v, v\rangle}$.

Podemos multiplicar um vetor com um número $ c para formar um novo $ vetor cujas entradas são multiplicadas por $ c $ .We can multiply a vector with a number $c$ to form a new vector whose entries are multiplied by $c$. Também podemos adicionar dois vetores $ u e v para formar um novo $ $ $ vetor cujas entradas são a soma das entradas de $ u e v $ $ $ .We can also add two vectors $u$ and $v$ to form a new vector whose entries are the sum of the entries of $u$ and $v$. Estas operações são retratadas abaixo:These operations are depicted below:

$$\mathrm{If } ~ u=\begin{bmatrix}$$\mathrm{If}~u =\begin{bmatrix} u_1\\u_1\\ u_2\\u_2\\ \vdots\\\vdots\\ u_n \end{bmatrix} ~ \mathrm { e}~u_n \end{bmatrix}~\mathrm{and}~ v =\begin{bmatrix}v =\begin{bmatrix} v_1\\v_1\\ v_2\\v_2\\ \vdots\\\vdots\\ v_n, \end{bmatrix} ~ \mathrm { então}~v_n \end{bmatrix},~\mathrm{then}~ au+bv =\begin{bmatrix}au+bv =\begin{bmatrix} au_1+bv_1\\au_1+bv_1\\ au_2+bv_2\\au_2+bv_2\\ \vdots\\\vdots\\ \end{bmatrix}au_n+bv_n.au_n+bv_n \end{bmatrix}. $$

Uma matriz de tamanho $ m n é uma coleção de \times $ $ números complexos mn $ dispostos em $ linhas m $ e n $ $ colunas como mostrado abaixo:A matrix of size $m \times n$ is a collection of $mn$ complex numbers arranged in $m$ rows and $n$ columns as shown below:

$$M =$$M = \begin{bmatrix} M_ { 11 } ~~ M_ { 12 } ~~ \cdots ~~ M_ { 1n}\\M_{11} ~~ M_{12} ~~ \cdots ~~ M_{1n}\\ M_ { 21 } ~~ M_ { 22 } ~~ \cdots ~~ M_ { 2n}\\M_{21} ~~ M_{22} ~~ \cdots ~~ M_{2n}\\ \ddots\\ M_ { m1 } ~~ M_ { m2 } ~~ \cdots ~~ M_ { mn}\\M_{m1} ~~ M_{m2} ~~ \cdots ~~ M_{mn}\\ \end{bmatrix}.$$\end{bmatrix}.$$

Note que um vetor de dimensão $ n é simplesmente uma matriz de tamanho n $ $ \times 1 $ .Note that a vector of dimension $n$ is simply a matrix of size $n \times 1$. Tal como acontece com os vetores, podemos multiplicar uma matriz com um número $ c para obter uma nova matriz onde cada entrada é $ multiplicada com $ $ c, e podemos adicionar duas matrizes do mesmo tamanho para produzir uma nova matriz cujas entradas são a soma das respetivas entradas das duas matrizes.As with vectors, we can multiply a matrix with a number $c$ to obtain a new matrix where every entry is multiplied with $c$, and we can add two matrices of the same size to produce a new matrix whose entries are the sum of the respective entries of the two matrices.

Multiplicação de matriz e produtos de tensorMatrix Multiplication and Tensor Products

Também podemos multiplicar duas matrizes $ M $ de dimensão m n e $ N de \times $ $ $ dimensão n p para $ obter uma nova matriz P de \times $ $ $ dimensão m p da $ seguinte \times $ forma:We can also multiply two matrices $M$ of dimension $m\times n$ and $N$ of dimension $n \times p$ to get a new matrix $P$ of dimension $m \times p$ as follows:

\begin{align} &\begin{bmatrix} M_ { 11 } ~~ M_ { 12 } ~~ \cdots ~~ M_ { 1n}\\M_{11} ~~ M_{12} ~~ \cdots ~~ M_{1n}\\ M_ { 21 } ~~ M_ { 22 } ~~ \cdots ~~ M_ { 2n}\\M_{21} ~~ M_{22} ~~ \cdots ~~ M_{2n}\\ \ddots\\ M_ { m1 } ~~ M_ { m2 } ~~ \cdots ~~ M_ { mn}M_{m1} ~~ M_{m2} ~~ \cdots ~~ M_{mn} \end{bmatrix} \begin{bmatrix} N_ { 11 } ~~ N_ { 12 N_ } ~~ \cdots ~~ { 1p}\\N_{11} ~~ N_{12} ~~ \cdots ~~ N_{1p}\\ N_ { 21 } ~~ N_ { 22 N_ } ~~ \cdots ~~ { 2p}\\N_{21} ~~ N_{22} ~~ \cdots ~~ N_{2p}\\ \ddots\\ N1 { } ~~ N_ n1 N_ { n2 } ~~ \cdots ~~ N_ { np}N_{n1} ~~ N_{n2} ~~ \cdots ~~ N_{np} \end{bmatrix}=\begin{bmatrix} P_ { 11 } ~~ P_ { 12 P_ } ~~ \cdots ~~ { 1p}\\P_{11} ~~ P_{12} ~~ \cdots ~~ P_{1p}\\ P_ { 21 } ~~ P_ { 22 P_ } ~~ \cdots ~~ { 2p}\\P_{21} ~~ P_{22} ~~ \cdots ~~ P_{2p}\\ \ddots\\ P_ { m1 } ~~ P_ { m2 } ~~ \cdots ~~ P_ { mp}P_{m1} ~~ P_{m2} ~~ \cdots ~~ P_{mp} \end{bmatrix} \end{align}

onde as entradas de $ P $ são P_ $ { ik j } = \sum M { ij N_ } { jk } $ .where the entries of $P$ are $P_{ik} = \sum_j M_{ij}N_{jk}$. Por exemplo, a entrada $ P_ { 11 } $ é o produto interno da primeira linha de $ M com a primeira coluna de N $ $ $ . Note que uma vez que um vetor é simplesmente um caso especial de uma matriz, esta definição estende-se à multiplicação de vetores de matriz.For example, the entry $P_{11}$ is the inner product of the first row of $M$ with the first column of $N$. Note that since a vector is simply a special case of a matrix, this definition extends to matrix-vector multiplication.

Todas as matrizes que consideramos serão matrizes quadradas, onde o número de linhas e colunas são iguais, ou vetores, o que corresponde a apenas $ 1 $ coluna.All the matrices we consider will either be square matrices, where the number of rows and columns are equal, or vectors, which corresponds to only $1$ column. Uma matriz quadrada especial é a matriz identitária,denotada, $ \boldone $ que tem todos os seus elementos diagonais iguais a $ 1 $ e os restantes elementos iguais a $ 0 $ :One special square matrix is the identity matrix, denoted $\boldone$, which has all its diagonal elements equal to $1$ and the remaining elements equal to $0$:

$$\boldone=\begin{bmatrix} 10 ~~ \cdots ~~ 0\\1 ~~ 0 ~~ \cdots ~~ 0\\ 0 ~~ ~~ \cdots ~~ 10\\0 ~~ 1 ~~ \cdots ~~ 0\\ \ddots\\~~ \ddots\\ 0 ~~ 0 ~~ \cdots ~~ 1 \end{bmatrix} .$$0 ~~ 0 ~~ \cdots ~~ 1 \end{bmatrix}.$$

Para uma matriz quadrada $ $ A, dizemos que uma matriz $ B é o seu $ inverso se AB $ BA = = \boldone $ .For a square matrix $A$, we say a matrix $B$ is its inverse if $AB = BA = \boldone$. O inverso de uma matriz não precisa de existir, mas quando existe é único e denotamos $ A^ { -1 } $ .The inverse of a matrix need not exist, but when it exists it is unique and we denote it $A^{-1}$.

Para qualquer matriz $ M $ , a transposição contígua ou conjugada de $ M é uma matriz N tal que N_ $ $ $ $ { ij } = M_ ji { } ^ * $ .For any matrix $M$, the adjoint or conjugate transpose of $M$ is a matrix $N$ such that $N_{ij} = M_{ji}^*$. O adjacente de $ M $ é geralmente denotado $ M^ \dagger $ .The adjoint of $M$ is usually denoted $M^\dagger$. Dizemos que uma matriz $ U $ é unitária se $ UU^ \dagger = U^ \dagger U ou = \boldone $ equivalentemente, $ U^ { -1 } = U^ \dagger $ .We say a matrix $U$ is unitary if $UU^\dagger = U^\dagger U = \boldone$ or equivalently, $U^{-1} = U^\dagger$. Talvez a propriedade mais importante das matrizes unitárias é que eles preservam a norma de um vetor.Perhaps the most important property of unitary matrices is that they preserve the norm of a vector. Isto acontece porqueThis happens because

$$\langle\rangle = v,v^ \dagger v^ = \dagger U^ { -1 } U = v^ \dagger U^ \dagger U^ U vy = \langle v, U v, U v, U v \rangle .$$$$\langle v,v \rangle=v^\dagger v = v^\dagger U^{-1} U v = v^\dagger U^\dagger U v = \langle U v, U v\rangle.$$

Diz-se que uma matriz $ M $ é eremita se $ = M. M^ \dagger $ .A matrix $M$ is said to be Hermitian if $M=M^\dagger$.

Finalmente, o produto tensor (ou produto Kronecker) de duas matrizes $ M de tamanho m n e N de tamanho p $ q é uma matriz maior P $ M \times N de tamanho $ $ mp $ $ \times $ $ = \otimes $ $ \times nq , e é obtido a $ partir de M e N da seguinte $ $ $ $ forma:Finally, the tensor product (or Kronecker product) of two matrices $M$ of size $m\times n$ and $N$ of size $p \times q$ is a larger matrix $P=M\otimes N$ of size $mp \times nq$, and is obtained from $M$ and $N$ as follows:

\begin{align} M \otimes N &=M \otimes N &= \begin{bmatrix} M_ { 11 } ~~ \cdots ~~ M_ { 1n }\\M_{11} ~~ \cdots ~~ M_{1n} \\ \ddots\\ M_ { m1 } ~~ \cdots ~~ M_ { mn }M_{m1} ~~ \cdots ~~ M_{mn} \end{bmatrix} \otimes \begin{bmatrix} N_ { 11 } ~~ \cdots ~~ N_ { 1q }\\N_{11} ~~ \cdots ~~ N_{1q}\\ \ddots\\ P1 { } ~~ \cdots ~~ p1 N_ N_ { pq}N_{p1} ~~ \cdots ~~ N_{pq} \end{bmatrix}\\ &= \begin{bmatrix} M_ { 11 } \begin{bmatrix} N_ { 11 N_ } ~~ \cdots ~~ { 1q } \\ \ddots \\ N_ { p1 } ~~ \cdots ~~ N_ { pq } \end{bmatrix} ~~ \cdots M_{11} \begin{bmatrix} N_{11} ~~ \cdots ~~ N_{1q}\\ \ddots\\ N_{p1} ~~ \cdots ~~ N_{pq} \end{bmatrix} \cdots ~~ M_ { 1n } \begin{bmatrix} N_ { 11 N_ } ~~ \cdots ~~ { 1q N_ } \\ \ddots \\ { p1 N_ } ~~ \cdots ~~ { pq } \end{bmatrix}\\M_{1n} \begin{bmatrix} N_{11} ~~ \cdots ~~ N_{1q}\\ \ddots\\ N_{p1} ~~ \cdots ~~ N_{pq} \end{bmatrix}\\ \ddots\\ M_ { m1 } \begin{bmatrix} N_ { 11 } ~~ \cdots ~~ N_ { 1q } \\ \ddots \\ { p1 } ~~ \cdots ~~ N_ p1 N_ { pq } \end{bmatrix} ~~ \cdots M_{m1} \begin{bmatrix} N_{11} ~~ \cdots ~~ N_{1q}\\ \ddots\\ N_{p1} ~~ \cdots ~~ N_{pq} \end{bmatrix} \cdots ~~ M_ { mn } \begin{bmatrix} N_ { 11 } ~~ \cdots ~~ N_ { 1q N_ } \\ \ddots \\ { p1 } ~~ \cdots ~~ N_ { pq } \end{bmatrix}M_{mn} \begin{bmatrix} N_{11} ~~ \cdots ~~ N_{1q}\\ \ddots\\ N_{p1} ~~ \cdots ~~ N_{pq} \end{bmatrix} \end{bmatrix}.\end{bmatrix}. \end{align}

Isto é melhor demonstrado com alguns exemplos:This is better demonstrated with some examples:

$$ \begin{bmatrix} a \\ b c d \end{bmatrix} \otimes \begin{bmatrix} \\ \\ e \end{bmatrix}=a \\ b \end{bmatrix} \otimes \begin{bmatrix} c \\ d \\ e \end{bmatrix} = \begin{bmatrix} a \begin{bmatrix} \\ c d \\ e \end{bmatrix}a \begin{bmatrix} c \\ d \\ e \end{bmatrix} \\[1.5em] b \begin{bmatrix} \\ c d \\ e\end{bmatrix}\\[1.5em] b \begin{bmatrix} c \\ d \\ e\end{bmatrix} \end{bmatrix} =\begin{bmatrix}a c \\ a d a e b b d \\ \\ \\ \\ ser\end{bmatrix}= \begin{bmatrix} a c \\ a d \\ a e \\ b c \\ b d \\ be\end{bmatrix} $$

eand

$$ \begin{bmatrix} a\ b \\ c\ d \end{bmatrix}a\ b \\ c\ d \end{bmatrix} \otimes \begin{bmatrix} e\ f \\ g\ h \end{bmatrix}e\ f\\g\ h \end{bmatrix} = \begin{bmatrix} um\begin{bmatrix}a\begin{bmatrix} e\ f \\ g\ h \end{bmatrix}e\ f\\ g\ h \end{bmatrix} b\begin{bmatrix}b\begin{bmatrix} e\ f \\ g\ h \end{bmatrix}e\ f\\ g\ h \end{bmatrix} \\[1em] c\begin{bmatrix}\\[1em] c\begin{bmatrix} e\ f \\ g\ h \end{bmatrix}e\ f\\ g\ h \end{bmatrix} d\begin{bmatrix}d\begin{bmatrix} e\ f \\ g\ h \end{bmatrix}e\ f\\ g\ h \end{bmatrix} \end{bmatrix} = \begin{bmatrix} ae\ af\ ser\ bf \\ae\ af\ be\ bf \\ ag\ ah\ bg\ bh \\ag\ ah\ bg\ bh \\ ce\ cf\ de\ df \\ce\ cf\ de\ df \\ cg\ ch\ dg\ dh \end{bmatrix} .cg\ ch\ dg\ dh \end{bmatrix}. $$

Uma convenção notacional útil final em torno dos produtos tensores é que, para qualquer vetor $ v $ ou matriz $ $ M, $ v^ n ou { \otimes } $ $ M^ n { \otimes é mão curta para } $ um produto $ $ tensor repetido n-fold.A final useful notational convention surrounding tensor products is that, for any vector $v$ or matrix $M$, $v^{\otimes n}$ or $M^{\otimes n}$ is short hand for an $n$-fold repeated tensor product. Por exemplo:For example:

\begin{align} &\begin{bmatrix}1 \\ 0 \end{bmatrix} ^ { \otimes 1 } = \begin{bmatrix} \\ 10 , \end{bmatrix} \qquad \begin{bmatrix} 1 \\ 0 \end{bmatrix} ^ { \otimes 2 } = \begin{bmatrix} 1 \\ 0 \\ \\ 0 0 \end{bmatrix} 0 , \qquad \begin{bmatrix} 1 \\ -1 \end{bmatrix} ^ { \otimes 2 } = \begin{bmatrix} 1 \\ \\ -1 -1 \\ 1 \end{bmatrix} 1 ,\\&\begin{bmatrix} 1 \\ 0 \end{bmatrix}^{\otimes 1} = \begin{bmatrix} 1 \\ 0 \end{bmatrix}, \qquad\begin{bmatrix} 1 \\ 0 \end{bmatrix}^{\otimes 2} = \begin{bmatrix} 1 \\ 0 \\0 \\0 \end{bmatrix}, \qquad\begin{bmatrix} 1 \\ -1 \end{bmatrix}^{\otimes 2} = \begin{bmatrix} 1 \\ -1 \\-1 \\1 \end{bmatrix}, \\ &\begin{bmatrix}0 & 1 \\ 1 & 0 \end{bmatrix} ^ { \otimes 1 } = \begin{bmatrix} 1 & 1 \\ 1 & 1 0 \end{bmatrix} , \qquad \begin{bmatrix} & \\ 1 & 0 \end{bmatrix} ^ { \otimes 0 } = \begin{bmatrix} & 0 & 0 & 1 \\ & 0 & 1 0 0 0 & \\ 0 & 0 0 1 & & 0 0 \\ 0 1 & 0 & 0 & 0 0 \end{bmatrix} .&\begin{bmatrix} 0 & 1 \\ 1& 0 \end{bmatrix}^{\otimes 1}= \begin{bmatrix} 0& 1 \\ 1& 0 \end{bmatrix}, \qquad\begin{bmatrix} 0 & 1 \\ 1& 0 \end{bmatrix}^{\otimes 2}= \begin{bmatrix} 0 &0&0&1 \\ 0 &0&1&0 \\ 0 &1&0&0\\ 1 &0&0&0\end{bmatrix}. \end{align}