Procesos cuánticos Markovianos desde sistemas cerrados

Hace un año llegué a Melbourne, Australia a hacer un doctorado (PhD). El principal producto del trabajo que he hecho en este tiempo es este artículo
arXiv:1802.10344 [quant-ph]
Almost Markovian processes from closed dynamics
Pedro Figueroa-Romero, Kavan Modi, Felix A. Pollock
que actualmente estamos preparando para enviar a una revista acorde al tema. El trabajo en sí y las herramientas que utilizamos son bastante técnicas (basta echar un ojo a los apéndices, que son realmente la médula de mi trabajo), pero al final el resultado creo que es bastante sencillo.

Como parte de los requerimientos del doctorado uno tiene que dar una presentación al público (que al final es sólo el panel de examinadores, tu grupo de investigación, uno que otro curioso y amigos, si uno los tiene) cada año, así que aprovecharé las diapositivas que preparé para explicar acá de qué va el artículo. Y me refiero únicamente al resultado; aunque aquí doy un poco más de detalle del que di en la plática, realmente dejo fuera la gran mayoría de fibra técnica, sobre eso posiblemente escriba un poco más adelante. Como comentario extra, las diapositivas están llenas de changos (monos, simios) y es porque el acrónimo de nuestro grupo es MonQIS (que se lee monkeys en inglés).

Mi plática se intituló Quantum Markov processes from closed dynamics, así que lo primero que parece relevante es explicar (dar una noción de) qué es un proceso Markoviano. En procesos estocásticos clásicos, un proceso de Markov es simplemente una secuencia de eventos probabilísticos en la cual el resultado siguiente a cualquier evento dado únicamente depende de ese preciso evento y no de todos los anteriores, es decir, es un proceso sin memoria.


El ejemplo que puse fue el de jugarse \$10 con una moneda que tiene igual probabilidad de caer en cara o cruz (águila o Sol en México). Como paréntesis cultural, usé una moneda de plata de la Diosa mexica Coyolxauhqui 😉 Éste es seguramente el ejemplo más sencillo: la probabilidad de tener $x$ cantidad de dinero en el siguiente volado sólo depende de la cantidad que uno tiene en este momento. El proceso puede volverse no-Markoviano si, por ejemplo, se pone a un adversario que modifica la moneda cada vez que uno gana. Otro ejemplo sencillo es el de una urna con pelotas de distintos colores y cada vez que uno saca una pelota, ésta es remplazada haciendo que la probabilidad para la siguiente extracción sea las misma. Igual este tipo de modelo puede complicarse de muy diversas formas.

De aquí entonces sigue conectar la idea de procesos estocásticos (no-)Markovianos con la física y en particular con el caso cuántico. Antes de discutir el caso de procesos estocásticos cuánticos generales (donde usualmente se omite el calificador 'estocástico'), cuando uno considera sistemas abiertos —un sistema de interés $S$ contenido (interactuando) con otro más grande llamado ambiente $E$ (por environment en inglés)— lo que encuentra es que la dinámica más general es no-Markoviana, es decir, estrictamente toda la física (ya que 'no existen' los sistemas completamente cerrados) ocurre de forma no-Markoviana y uno tiene que poner a mano ciertas condiciones para aproximar los procesos como Markovianos; la razón de hacerlo es simplemente que la dinámica que la gente sabe describir es Markoviana (¡!). La dinámica en procesos Markovianos cuánticos es usualmente descrita por una ecuación diferencial llamada ecuación maestra y está generada por mapeos (funciones) cuánticos de estados a estados (o más exactamente densidades de matriz a densidades de matriz) llamados semigrupos dinámicos cuánticos. El caso más general es la ecuación GKSL (Gorini–Kossakowski–Sudarshan–Lindblad) que contiene a la ecuación de Liouville-von Neumann y a la famosa ecuación de Schrödinger.


Existen casos particulares de ecuaciones maestras no-Markovianas pero nada equivalente a GKSL (hasta donde sé). Mis propios asesores han hecho avances en esta dirección (arXiv:1704.06204 [quant-ph]). De cualquier modo, el tema de Markovianidad en procesos estocásticos cuánticos generales ha sido un problema en sí mismo empezando incluso, por ejemplo, por tener una condición de Markovianidad libre de ambigüedades, algo equivalente a la clásica "$\mathbb{P}[X_{k+1}|X_k;\ldots;X_1]=\mathbb{P}[X_{k+1}|X_k]$". Un marco operacional que resuelve esto proveyendo una distinción inequívoca entre dinámicas Markoviana y no-Markoviana, y permitiendo la cuantificación de efectos de "memoria" en procesos cuánticos es el llamado tensor de proceso desarrollado hace algunos años por varios autores, entre ellos mis asesores. El artículo que cito en las diapositivas es seguramente la referencia principal (arXiv:1512.00589 [quant-ph], que incluye también arXiv:1801.09811 [quant-ph]).


En procesos cuánticos generales (con intervenciones) nos referimos a correlaciones temporales cuando hablamos de memoria. En particular, el hecho de que hacer mediciones en el sistema modifica el estado del mismo y que las correlaciones entre $S$ y $E$ ya no son puramente clásicas sino que pueden expresar entrelazamiento (i.e. ser distintas de un producto $X_E\otimes{X}_S$), históricamente han vuelto problemático el tratamiento de procesos con memoria: la descripción usual en términos de mapeos dinámicos deja de funcionar (una revisión del tema aquí: arXiv:1708.00769 [quant-ph]). Lo que hace el tensor de proceso es precisamente describir la dinámica en términos de un (super)mapeo dinámico $\mathcal{T}$ en función del conjunto de intervenciones en el sistema, que denotamos $\mathbf{M}=\{\mathcal{M}\}$ simplemente por apelar a mediciones, aunque en general pueden referirse a cualquier manipulación experimental en el sistema (matemáticamente son mapeos de estados a estados que preservan probabilidades y positividad). Luego de $k$ intervenciones, $\mathcal{T}_{k:0}$ describirá el estado del sistema en ese momento, $\rho_k=\mathcal{T}_{k:0}[\mathbf{M}_{k-1:0}]$. El tensor de proceso satisface todas las propiedades de un mapeo dinámico y en particular la condición de Markov se traduce en una independencia en las manipulaciones hechas en el pasado en el sistema "$\rho_\ell(\sigma_k|\mathbf{M}_{k:0})=\rho_\ell(\sigma_k)$" (los detalles en arXiv:1801.09811 [quant-ph]).

El tensor de proceso puede visualizarse fácilmente con los diagramas que llamamos circuitos cuánticos. Éstos son usuales principalmente en computación cuántica cuando uno piensa en qubits (sistemas cuánticos de dos niveles $\{\alpha|0\rangle+\beta|1\rangle\,|\,|\alpha|^2+|\beta|^2=1\}$) a los cuáles se les aplican compuertas cuánticas (quantum gates), que son simplemente operaciones matriciales elementales (que forman una base en el espacio de matrices en cuestión). Los circuitos se leen de izquierda a derecha y se van representando las operaciones aplicadas en un momento dado; en nuestro caso el sistema inicia en un estado conjunto $\rho$ y de ahí se van aplicando las operaciones $\mathcal{M}_i$ sólo en el sistema $S$, además de la evolución conjunta $U_i$ descrita por matrices cuadradas unitarias, $U_iU_i^\dagger=U_i^\dagger{U}_i=\mathcal{I}$, igual que en la dinámica de Schrödinger usual (en donde $U=e^{-iHt}$).

Vale, con esto entonces puedo conectar específicamente con el problema en el que trabajé.


La cuestión es caracterizar las condiciones en la que la Markovianidad surge en procesos con una dinámica conjunta (sistema + ambiente) cerrada (i.e. que evoluciona con dinámica equivalente a la de Schrödinger) sin asumir nada a priori. La aproximación usual de procesos cuánticos como Markovianos es equivalente a desechar la parte del ambiente a cada paso y reemplazar ésta por una nueva. En nuestro circuito esto significa cortar las líneas en el sistema $E$ entre cada evolución.

Este problema y las herramientas con las que contamos, son muy parecidas al del surgimiento de estados de equilibrio, y más en general de la segunda ley de la termodinámica, desde la mecánica cuántica.


En mecánica estadística, el teorema $H$ de Boltzmann nos asegura que un gas ideal fuera de equilibrio converge a una distribución de Maxwell-Boltzmann, maximizando la entropía del sistema. Esto provee un mecanismo del surgimiento de procesos irreversibles desde una dinámica microscópica reversible. Aunque no está libre de críticas y objeciones, en general éstas se resuelven razonablemente y el principio puede generalizarse a sistemas más generales.

La cuestión es similar en mecánica cuántica aunque acá uno no puede escapar de problemas como recurrencias y reversibilidad. En general, pues, un equilibrio estricto es imposible en sistemas cuánticos, pero esto se resuelve con una idea similar referida como equilibración (que no es un término estándar en español, y que igual suena feo en inglés como 'equilibration') en promedio: los sistemas evolucionan hacia un estado fijo de equilibrio y se mantienen cerca de él por la mayor parte del tiempo, aunque eventualmente puedan alejarse arbitrariamente de él. La caricatura del gráfico de la distancia $\text{dist}(\rho_t^{(S)},\omega^{(S)})$ fue tomada de arXiv:1503.07538 [quant-ph], que es un muy buen punto de referencia para introducirse al tema. Es importante mencionar que éste sigue siendo un tema de investigación activo hoy en día en el área denominada termodinámica cuántica (una lecura recomendable (en inglés) en Quanta Magazine: The Quantum Thermodynamics Revolution).

La distancia "$\text{dist}(A,B)$" puede ser cualquier métrica para estados cuánticos, y la medida empleada es usualmente la distancia traza, $\mathcal{D}(A,B)\equiv\frac{1}{2}\|A-B\|_1$ donde $\|X\|_1\equiv\mathrm{tr}\sqrt{XX^\dagger}$. Estas ideas en equilibración son directamente accesibles con el tensor de proceso vía el isomorfismo de Choi-Jamiołkowski, que provee una correspondencia uno a uno entre mapeos cuánticos y estados cuánticos; esto permite en general estudiar propiedades de mapeos cuánticos mediante las propiedades de sus estados asociados, usualmente llamados estados Choi.


La notación usual para el estado Choi del tensor de proceso es $\Upsilon$. Casi en correspondencia directa, lo que estudiamos entonces fue la distancia $\mathcal{N}\equiv\min_{\Upsilon^{(\text{M})}}\mathcal{D}(\Upsilon,\Upsilon^{(\text{M})})$, que directamente denominamos no-Markovianidad, donde $\Upsilon^{(\text{M})}$ es el estado Choi asociado al proceso Markoviano que minimiza la distancia traza con un proceso arbitrario. El resultado al final es un teorema de concentración de probabilidad alrededor de procesos Markovianos. Estrictamente, lo que dice el teorema es que la probabilidad de que la no-Markovianidad $\mathcal{N}$ para un proceso de $k$ pasos (i.e. con $k$ intervenciones), desde un sistema conjunto $ES$ de dimensión $d_Ed_S$, exceda una cota superior $\mathcal{B}$ en la no-Markovianidad promedio $\mathbb{E}[N]$ por una cantidad $\epsilon$, decrece exponencialmente en $\epsilon^2$, i.e. $\mathbb{P}[\mathcal{N}\geq\mathcal{B}+\epsilon]\leq\mathrm{e}^{-\mathcal{C}\epsilon^2}$ donde $\mathcal{C}\sim{d}_Ed_S^{-2k-1}$. Esto parece complicado pero al final la caricatura en el espacio de estados $\Upsilon$ de las diapositivas es bastante intuitivo.

La dificultad acá fue calcular la cota $\mathcal{B}\geq\mathbb{E}[\mathcal{N}]$ y la cantidad $\mathcal{C}$. La cota superior en la no-Markovianidad promedio satisface $0\leq\mathcal{B}\leq1$ (que es congruente con la distancia traza) y al final mostramos que ésta es cero cuando $d_E\to\infty$, haciendo los procesos indistinguibles de procesos Markovianos, y uno cuando $k\to\infty$, haciendo que en general los procesos puedan o no ser Markovianos en promedio.

La consecuencia de ésto y del valor de $\mathcal{C}$ es que cuando la dimensión del ambiente satisface $d_E\gg{d}_S^{2k+1}$, casi todos los procesos serán casi Markovianos. Esto puede verse como un enunciado de tipicidad de procesos Markovianos en ambientes grandes, análoga al enunciado de que casi todos los estados físicos son térmicos o que casi todos los estados cuánticos bipartitas puros están casi máximamente entrelazados. La condición de ambientes grandes es usualmente la que ocurre, sin embargo el detalle está en que la condición en nuestro resultado depende de un escalamiento exponencial de $d_S$ en los pasos temporales $k$. Esto hace que los procesos rápidamente puedan volverse distinguibles de los procesos Markovianos (i.e. que se pueda observar no-Markovianidad).

El resultado está de acuerdo con una de las aproximaciones usuales de procesos como Markovianos (conocida como aproximación de Born), con la generalización de tener un número dado de intervenciones $k$. La otra aproximación es conocida como aproximación de Markov y técnicamente dice que las auto-correlaciones temporales en $E$ decaen suficientemente rápido de modo que el estado del sistema puede expresarse de la forma $\rho_t\approx\rho^{(E)}\otimes\rho_t^{(S)}$ para todo tiempo $t$, esto significa que el acoplamiento entre sistema y ambiente es débil.

Nosotros no asumimos acoplamiento débil, e incluso al contrario, tomamos el acoplamiento más fuerte posible a través de las unitarias $U_i$. Esto es de hecho una limitación pues la naturaleza tiene formas de acoplamiento muy específicas determinadas por el Hamiltoniano del sistema total.


Específicamente lo que hicimos fue muestrear matrices unitarias de la distribución de probabilidad uniforme del grupo unitario, conocida como medida de Haar y todos los resultados están basados en esta distribución. Lo que ésto significa requiere una discusión aparte. A resumidas cuentas, la evolución que tomamos no es física, para ello tendremos que considerar unitarias de la forma $U=e^{-iHt}$, por ejemplo, para modelos con Hamiltonianos independientes de tiempo. Esto además conecta con otros problemas relacionados como dar escalas temporales de no-Markovianidad, equivalente al problema de escalas de tiempo en que ocurre equilibración de estados cuánticos.

Esto es casi seguramente algo que abordaremos en el futuro cercano, junto con otros problemas relacionados con tipicidad de procesos y equilibración en procesos arbitrarios.

No comments:

Post a Comment