martes, 11 de agosto de 2009

Perturbaciones dependientes del tiempo III

Al llevarse a cabo la derivación de la regla de oro de Fermi en la primera entrada sobre las perturbaciones dependientes del tiempo, se abrió el tema empezando con un sistema consistente en únicamente dos estados, puesto que un modesto inicio suele allanar el camino hacia el entendimiento de lo que ocurre con sistemas más complejos que consisten de una gran cantidad de estados y que contienen una gran cantidad de partículas. En un sistema de este tipo suponemos que hay inicialmente solo dos estados eigenestados del sistema no perturbado, ψa y ψb, ampliándose la notación con un super-índice de cero puesto entre paréntesis (0) para indicar que se trata de estados no-perturbados que son eigenestados del Hamiltoniano no-perturbado H0:


En un tiempo inicial t.=.0, cualquier otro estado de este tipo de sistema puede ser expresado como una combinación linear de los dos eigenestados no-perturbados:


En ausencia de cualquier tipo de perturbación, cada componente evoluciona con su propio factor exponencial característico:


Por |ca|2 entendemos la probabilidad de que una partícula se encuentre en el estado ψa, o mejor dicho, la probabilidad de que una medición de la energía del sistema producirá como resultado el valor Ea. La normalización de la función de onda Ψ impone desde luego la condición:


que se debe cumplir en todo momento.

Cuando se le aplica al sistema de dos estados una perturbación H1, ya vimos que el análisis del problema nos permite obtener el siguiente par de ecuaciones diferenciales acopladas:


Podemos intentar resolver éste par de ecuaciones diferenciales acopladas para el caso de una perturbación independiente del tiempo. Esto significa que la perturbación que usualmente representamos como H1(t) la podemos representar simplemente como H1. Pero antes de emprender la empresa de resolver el sistema de dos estados bajo la suposición de que la perturbación H1 es algo que no varía con el tiempo, simplificaremos la notación que tenemos arriba recurriendo a notación matricial habido el hecho de que aún no siendo el Hamiltoniano H1 una matriz de cualquier modo se están definiendo con lo que tenemos arriba elementos matriciales que pueden ser insertados dentro de una matriz:


De este modo, las ecuaciones diferenciales acopladas que tenemos arriba se pueden expresar de la siguiente manera mucho más compacta y fácil de entender:


Supondremos las siguientes condiciones iniciales:


Si tomamos la derivada con respecto al tiempo del coeficiente cb obtendremos entonces la segunda derivada con respecto al tiempo de dicho coeficiente:


Substituyendo el coeficiente ca por su valor de 1, lo anterior se puede simplificar a lo siguiente:


Para mayor simplicidad, haremos la siguiente subsitución:


con la cual tenemos entonces:


Esto último es una ecuación diferencial linear con coeficientes constantes, nada penosa cuando se ha tomado un curso introductorio de ecuaciones diferenciales, y se puede resolver con una función de la forma cb.=.eμt, lo cual nos lleva a lo siguiente:


Resolviendo esta ecuación cuadrática con la ayuda de la fórmula cuadrática, las dos raíces de μ obtenidas son:


en donde el radical se ha simplficado representándolo simplemente como ω. De este modo, el coeficiente cb viene quedando como:


Pero la condición cb(0).=.0 nos impone el hecho de que C.=.0, así que se elimina el término cosenoidal quedando únicamente el término senoidal:


Tomando nuevamente la derivada con respecto al tiempo del coeficiente cb en esta última relación, se tiene:


Así pues, tomando las últimas dos líneas y despejando para el coeficiente ca obtenemos la relación:


Pero se tienen también la condición ca(0).=.1 con lo cual, para un tiempo t.=.0 (lo cual convierte el factor exponencial en 1 haciendo lo mismo con el término cosenoidal entre los paréntesis cuadrados pero desvaneciendo el segundo término senoidal):


Es así como terminamos con el siguiente par de ecuaciones para ambos coeficientes ca y cb:


De este modo, confirmamos lo siguiente:


habiéndose usado en la anterior simplificación el hecho de que, por la definición dada a ω:


En todo esto se tomó como hipótesis de que la perturbación H1 era una perturbación independiente del tiempo. Y sin embargo, el desarrollo sugiere que el sistema de dos estados parece estar oscilando entre un estado “puro” ψa (habiendo partido de la condición inicial que le asigna al coeficiente ca el valor de 1) y “algún” estado ψb. Esto parece contradecir nuestra impresión de que para perturbaciones que son independientes del tiempo (tal y como las que se estudian en la teoría de las perturbaciones independientes del tiempo) no ocurre ninguna transición alguna. Sin embargo, hay que tomar en cuenta de que las funciones ψa y ψb no son eigenestados del Hamiltoniano perturbado H:

H = H0 + H1

y por lo tanto una medición de la energía del sistema no producirá como resultado ni Ea ni Eb al ir evolucionando el sistema con el tiempo. En el estudio de las pertubaciones dependientes del tiempo, generalmente se supone que la perturbación es H1 es “encendida” por un tiempo, y después la perturbación es removida “apagándola” para poder examinar la manera en la que ha cambiado el sistema. Al principio, y también al final, ψa y ψb son eigenestados del Hamiltoniano exacto no-perturbado H0, y solo bajo éste contexto (antes de aplicar la perturbación y después de haberse removido la perturbación) tiene sentido decir que el sistema experimentó una transición de un eigenestado al otro. Si suponemos que la perturbación es aplicada a partir de un tiempo t.=.0 y es removida un cierto tiempo t después, esto no altera los cálculos que se han efectuado arriba.

De cualquier modo, es importante mantenernos en el caso de un sistema con dos estados para confirmar el asunto de las oscilaciones que se presentan de manera casi inesperada, y podemos anticipar el hecho de que se presentan porque aunque las dos ecuaciones diferenciales acopladas para un sistema de dos estados son casi idénticas en forma (exceptuando los signos diferentes en los exponenciales), las condiciones iniciales distintas traen consigo una asimetría que se va a manifestar de alguna manera conforme vaya transcurriendo el tiempo.

Todo lo que se ha hecho hasta este punto es exacto, sin haberse hecho presunción alguna acerca del tamaño de la perturbación H1 o de su naturaleza. Para un sistema de dos estados al que se le aplica una perturbación dependiente del tiempo, se tienen dos ecuaciones diferenciales acopladas cuya solución ya sea numérica o analítica requiere necesariamente de un punto de partida, consistente en las condiciones iniciales del problema (esto es lo que se conoce formalmente entre los matemáticos como un problema de valor inicial).

Suponóngase que en un sistema de dos estados se empieza con las siguientes condiciones iniciales para los coeficientes ca(t) y cb(t) en un tiempo t.=.0:

En caso de no haber perturbación alguna, ésta sería la situación permanente, por tiempo indefinido, los coeficientes se mantendrían en estos valores sin cambio alguno. Tomaremos éstas condiciones iniciales como el punto de partida, usándolas considerándolas como correcciones de orden cero, y para enfatizar ésto podemos agregar si así lo deseamos un super-índice de cero entre paréntesis (0) a cada coeficiente:


Para calcular la magnitud de la aproximación de primer orden, ya sea analíticamente o numéricamente con la ayuda de una computadora, recurrimos a las condiciones iniciales metiendo los coeficientes directamente en el lado derecho de cada una de las dos ecuaciones diferenciales acopladas, agregando un super-índice (1) para enfatizar que lo que se estará obteniendo son las correcciones perturbativas de primer orden (póngase atención en los super-índices):


Obsérvese que habiendo empezado por el hecho de que la corrección perturbativa de orden cero no contiene ningún factor de H1, vemos ahora que la corrección perturbativa de primer orden contiene un factor de H1, el cual aparece en el coefciente cb(t).

La táctica recursiva que sigue consiste en usar las correcciones de primer orden así obtenidas para calcular las correcciones de segundo orden, metiendo los coeficientes que ahora son de primer orden directamente en el lado derecho de cada una de las dos ecuaciones diferenciales acopladas, agregando un super-índice (2) para enfatizar que lo que se estará obteniendo son las correcciones perturbativas de segundo orden:


Obsérvese que habiendo partido del hecho de que la corrección perturbativa de primer orden contiene un factor de H1, encontramos ahora que la corrección perturbativa de segundo orden contiene dos factores de H1. El coeficiente cb permanece sin modificación alguna. Obsérvese también que el coeficiente ca es modificado en cada correción perturbativa de orden par, mientres que el coeficiente cb es modificado en cada correción perturbativa de orden impar; lo cual no sería cierto si la matriz de perturbación H1 contuviera elementos diagonales.

El procedimiento iterativo bosquejado arriba de ir metiendo cada par de aproximaciones de orden n en el lado derecho del sistema de ecuaciones diferenciales acopladas para obtener el siguiente par de aproximaciones de orden n+1 se puede continuar en forma repetida. A estas alturas resulta obvio que para poder resolver un sistema de dos estados tenemos que definir alguna matriz de perturbación H1 que se pueda emplear ya sea para cálculos analíticos, o cálculos de naturaleza numérica.

Usualmente, cuando pensamos en una perturbación dependiente del tiempo, nos imaginamos algo así como un átomo de hidrógeno al que de repente se le aplica un campo eléctrico , lo cual ciertamente introducirá un efecto Stark, tras lo cual el campo eléctrico es removido; o algo así como una muestra de gas hidrógeno a la cual se le aplica un campo magnético oscilante. Pero en el caso de un sistema formado por dos pozos cuánticos entre los cuales hay una barrera de potencial como se vió en la entrada anterior, no parece haber absolutamente nada en el sistema de dos pozos que pueda haber variado con el tiempo, ni antes ni después. ¿En dónde está la perturbación? El Hamiltoniano H que corresponde al sistema de dos pozos no parece ser algo a lo que se le pueda adjudicar dependencia del tiempo alguna

En el caso del doble pozo de potencial en donde ocurre el fenómeno de las oscilaciones cuando se pone en dicho pozo doble una sola partícula, a estas alturas algunos lectores posiblemente se estarán preguntando: si el Hamiltoniano del sistema no-perturbado es H0, ¿en dónde está la perturbación H1 que provoque la inestabilidad del sistema? No se debe batallar mucho para encontrarla. Se encuentra en la barrera de potencial que separa ambos pozos. En ausencia de dicha barrera de potencial, el pozo de potencial es simplemente un pozo con una cierta anchura en el cual la partícula se encuentra en algún estado eigen completamente estacionario. Pero al introducir en dicho pozo, entre ambas paredes del pozo que se supone impenetrables, una barrera de potencial con una profundidad V0, la inestabilidad se hace presente casi de inmediato, lo cual podemos resaltar con el siguiente gráfico animado:


De éste modo, la barrera de potencial V0 es la perturbación H1, de modo tal que el Hamiltoniano H del sistema perturbado viene siendo:

H = H0 + H1

H = H0 + V0

Si no fuera por la barrera de potencial V0 que separa los dos pozos de anchura a, lo que tendríamos sería un solo pozo de anchura 2a en el cual lo único que se puede tener son los estados estacionarios que predice la ecuación de Schrödinger independiente del tiempo; no habría ni puede haber oscilación de ningún tipo. La barrera de potencial V0 presente entre ambos pozos, aunque siempre haya estado allí como algo permanente desde el principio de la Creación, es lo que provoca la dinámica de la partícula viajando de un pozo a otro habiendo probabilidades iguales de encontrar a la partícula tanto en un pozo como en el otro en tiempos distintos. Asimismo, la matriz de perturbación H1 para el sistema de dos pozos no puede ser una matriz diagonal, ya que si lo fuera entonces simplemente se estarían modificando los eigen-estados estacionarios del sistema a un nuevo nivel. Tentativamente, tomando en cuenta que en la matriz de perturbación los elementos matriciales no-diagonales deben cumplir con el requisito de simetría (H1)ab.=.(H1)ba, entonces su aspecto tiene que ser al menos algo como lo siguiente para un sistema de dos estados:


¿Y qué tal una matriz de perturbacion para un sistema de varios estados? Tomando lo anterior como inspiración, lo primero que se nos puede venir a la mente es algo como lo siguiente (tómese en cuenta que V0 puede ser una simple constante numérica, nada que varíe con el tiempo, pero la sola presencia de tal potencial en los sitios adecuados en una matriz de perturbación puede provocar una perturbación cuyos efectos de variación temporal pueden ser evidentes):


Ya vimos en la entrada anterior que para un sistema de dos estados un simulador de la regla de oro de Fermi que le dá solución numérica al problema general de dos estados mediante un procedimiento iterativo numérico conforme va avanzando el tiempo predice que el sistema entrará en oscilaciones. Pero al ir aumentando el número de estados, el simulador nos comprueba que el comportamiento del sistema se irá acercando al comportamiento típico de una caída exponencial en lo que toca al coeficiente numérico c0(t) que antes se encontraba repleto (con un valor igual a la unidad indicando una probabilidad de 1) en contraste con los demás coeficientes que se encontraban completamente vacíos (con un valor de cero indicando una probabilidad de cero). En base a la matriz anterior, podemos vislumbrar que el Hamiltoniano H de un sistema que se acerca al decaimento exponencial (estamos hablando del Hamiltoniano total del sistema) irá tomando un aspecto como el siguiente:


Nos preguntamos ahora: ¿qué sucedería en el caso de un sistema en el cual suponemos desde un principio que los elementos diagonales (H1)aa y (H1)bb no necesariamente serán iguales a cero? Podemos dar una respuesta a ésta interrogante regresando al caso más sencillo que es el de un sistema de dos estados. Tenemos que retornar a un paso intermedio previo en la obtención del par de ecuaciones diferenciales acopladas, el paso en donde aún no se supone que los elementos matriciales diagonales en la matriz de perturbación sean iguales a cero como normalmente ocurre:


y mantener abierta la posibilidad de que no sean iguales a cero. En tal caso tenemos lo siguiente:


Hasta aquí todo es exacto, y el par de ecuaciones acopladas reemplaza al par simplificado anterior.

Al igual que en lo que hemos visto arriba, las condiciones iniciales son:


Usando tales condiciones iniciales para nuestro problema de valor inicial, y llevando a cabo las integraciones requeridas, tenemos a un primer orden de corrección:


De este modo, las normas de los coeficientes son:


y a un primer orden se cumple que:


De éste modo, aún suponiendo que los elementos diagonales que corresponden a la matriz de perturbación no son iguales a cero, se sigue cumpliendo la condición de que la suma de los cuadrados de los coeficientes de probabilidad sigue siendo en todo momento igual a la unidad.

Todo lo anterior nos ha preparado para poder enfrentar un nuevo nivel de complejidad en donde supondremos que las condiciones iniciales ya no estarán acotadas dándole siempre el valor de 1 al coeficiente que corresponde a un estado ca y el valor de 0 al coeficiente que corresponde al otro estado cb, sino un valor cualquiera A para el coeficiente del estado-a y un valor cualquiera B para el coeficiente del estado-b (desde luego inferiores a la unidad cada uno de ellos, pero siempre sujetos a la condición de que la suma de sus normas sea igual a la unidad en todo momento):


y lo llevaremos ahora todo hasta un segundo orden de corrección. Procediendo en una forma parecida a como lo acabamos de hacer arriba, y llevando a cabo la integración para obtener las correcciones de primer orden, se tiene lo siguiente a un primer orden:


Para la corrección de segundo orden, volvemos a meter los resultados obtenidos en el lado derecho de las ecuaciones diferenciales acopladas, obteniendo para ca(2):


llegando a lo siguiente después de aplicar la operación de integración:


Estudiando la simetría de lo que sucede, nos damos cuenta de que podemos obtener para cb(2) lo que le corresponde tomando el resultado anterior e intercambiando A por B así como intercambiando el signo asociado a ω:


Todavía no hemos desarrollado algún ejemplo concreto usando algún Hamiltoniano de perturbación H1, hasta aquí solo  hemos hablado de generalidades. Mantieniéndonos todavía dentro de un sistema limitado única y exclusivamente a dos estados, supondremos que le aplicamos al sistema de dos estados una perturbación oscilatoria. Este tipo de perturbaciones también son conocidas como perturbaciones armónicas. Supóngase que la perturbación que está siendo aplicada es una de tipo cosenoidal:


Al potencial V le definiremos elementos matriciales de la manera usual recurriendo como siempre a las eigenfunciones de base del sistema no-perturbado:


de modo tal que cada elemento matricial de la matriz de perturbación así construída será:


Dicho sea de paso, la perturbación armónica que estamos considerando aquí también se puede representar y manipular matemáticamente del siguiente modo que es más elegante y más compacto, todo es cuestión de gustos y preferencias:


En el análisis que estaremos llevando a cabo seguiremos suponiendo que los elementos diagonales de la matriz de perturbación H1 se desvanecen, ya que éste suele ser el caso más frecuente.

Trabajando a un primer orden sin considerar correcciones perturbativas de orden superior, y recurriendo a la relación que se obtuvo arriba para una corrección de primer orden:


se tiene entonces, con la especificación usual ca.=.1 al empezar el proceso de perturbación en un tiempo t.=.0:


Ésta es la respuesta exacta, válida para todo el rango de frecuencias ω. Sin embargo, es un gasto innecesario de tiempo y esfuerzo manejar todo desde la perspectiva exacta cuando lo usual es enfocar nuestra atención en el término que realmente nos importa, y el término que realmente nos importa de los dos términos que aparecen entre corchetes es aquél cuya magnitud es mucho mayor que la del otro término bajo cierta condición. Y la condición de interés se obtiene cuando uno de los denominadores es mucho menor que el denominador que corresponde al otro término, lo cual hace que el término con denominador relativamente chico pueda tomar un valor considerablemente grande. La condición con la que nos interesa trabajar es desde luego la siguiente:


Ésta especificación no es algo que nos deba preocupar, puesto que de cualquier modo otras perturbaciones a otras frecuencias tienen probabilidades muy bajas de poder producir una transición. Con ésta condición, el primer término mostrado a continuación en color rojo se puede considerar despreciable, conduciéndonos al desarrollo que se muestra:


La probabilidad de transición, la probabilidad de que en éste sistema que consta únicamente de dos estados y que haya empezado inicialmente en el estado ψa y termine en el estado ψb un cierto tiempo t después es:


Este resultado al ser examinado detenidamente nos puede parecer algo sorprendente. Nos dice que la probabilidad de transición oscila armónicamente (senoidalmente) con una probabilidad máxima igual a:


como resulta evidente en la siguiente gráfica de la probabilidad de transición P en función del tiempo:




Éste máximo en la probabilidad tiene que ser necesariamente mucho menor que 1, ya que de lo contrario la suposición de que la perturbación es una perturbación “pequeña” dejaría de tener validez. Después de haber alcanzado dicho máximo, la probabilidad de transición sorprendentemente cae hasta tomar un valor de cero. Esto significa que en los tiempos:


se tiene la certeza total de que la partícula estará confinada a permanecer en el estado bajo. Esto significa que si queremos maximizar las posibilidades de provocar una transición de un estado a otro, debemos evitar mantener aplicada la perturbación al sistema por un período relativamente grande de tiempo. De hecho, al poco tiempo de ser aplicada la perturbación, es mejor remover la perturbación antes de que haya transcurrido un tiempo:


con la esperanza de poder encontrar al sistema en el estado superior (recuérdese que estamos hablando de probabilidades, no de certezas). Esto sugiere que la mejor manera de poder provocar una detección de partículas en el estado superior consiste en la aplicación repetida de “pulsos” de perturbación.

Arriba se dió la gráfica de la probabilidad de transición en función del tiempo transcurrido. Sin embargo, la probabilidad de transición no sólo depende del tiempo t, obviamente la probabilidad de transición también será mayor en tanto más cerca esté la frecuencia ω de la perturbación armónica a la “frecuencia natural del sistema” que es ω0 en éste caso. La gráfica de la probabilidad de transición en función de la frecuencia ω toma el siguiente aspecto:




Los dos puntos laterales destacados en la gráfica corresponden a las frecuencias en las cuales la probabilidad de transición ha caído del valor máximo posible hasta cero. Si suponemos en la gráfica que la probabilidad de transición del sistema hacia un estado superior tiene que ver con la capacidad del sistema para absorber energía del espectro radiante que está recibiendo, siendo las franjas obtenidas en un espectrograma tanto más obscuras conforme la capacidad de absorción sea mayor, las bandas más luminosas mostradas en la barra horizontal debajo de la curva (que sería el equivalente del espectrograma) indicarían los lugares de absorción mínima o nula correspondiendo con una probabilidad de transición igualmente mínima o casi nula. Así pues, para poder maximizar la probabilidad de transición del sistema de dos estados, no sólo es necesario aprovechar los tiempos en los cuales la probabilidad de transición adquiere su valor máximo sino también acercarse lo más posible a la frecuencia de resonancia en la cual la probabilidad de transición adquiere su valor máximo, lo cual significa que la representación matemática correcta de la probabilidad de transición es una función de dos variables, del tiempo y de la frecuencia de la perturbación sinusoidal aplicada, o sea P(t,ω). La siguiente gráfica trata de mostrar ambos efectos, con tres curvas senoidales cuadráticas que varían conforme al avance del tiempo, en donde la primera curva de absorción de energía (con picos de amplitud más altos) es producida en un sistema en donde la diferencia de frecuencias entre la frecuencia resonante ωr del sistema y la frecuencia ω aplicada como perturbación al sistema es igual a 1 Megahertz, la segunda curva senoidal cuadrática es de menores amplitudes en los picos de probabilidad de transición en virtud de que la diferencia entre las frecuencias ωr y ω es todavía mayor con una diferencia de 2 Megahertz resultando en una probabilidad de transición todavía menor que la que se puede obtener de la primera curva en cualquier instante de tiempo, y la tercera curva senoidal cuadrática es todavía más pequeña que las otras dos en virtud de lo que damos por hecho es una diferencia aún mayor entre las dos frecuencias ωr y ω que en las otras dos curvas:




Hemos visto ya que en la derivación de la regla de oro de Fermi mediante la aplicación de una perturbación armónica (sinusoidal), se obtienen dos términos, un término “anti-resonante” y un término “resonante” con una expresión como la siguiente:


en donde dentro de los corchetes el primer término usualmente eliminado (término antiresonante) es destacado con tipografía de color rojo, y el segundo término (resonante) se mantiene en tipografía de color negro, siendo el primer término de mucho menor amplitud que el segundo cerca de la frecuencia de resonancia ω0. El primer término proviene de la parte eiωt de cos(ωt), mientras que el segundo término proviene de la parte e-iωt, de modo tal que despreciar el primer término es formalmente equivalente a especificar el Hamiltoniano de perturbación simplemente como:


Siendo el Hamiltoniano de perturbación una matriz diagonal, lo anterior equivale al momento de especificar la matriz de perturbación a usar los siguientes elementos matriciales diagonales (obsérvese que la selección de signos en los exponenciales se requiere para hacer que la matriz Hamiltoniana de perturbación pueda ser Hermitiana):


El físico Isidor Rabi descubrió que si se usa ésta selección de elementos matriciales para lo que se conoce como la aproximación de onda rotatoria desde el inicio de los primeros cálculos para un sistema de dos niveles, el par de ecuaciones diferenciales que contiene coeficientes acoplados:


puede ser resuelto en forma exacta, ¡y ni siquiera es necesario recurrir a los detalles propios de la teoría de las perturbaciones dependientes del tiempo! (Se sigue suponiendo que los elementos diagonales de la matriz de perturbación son cero).

Vamos a resolver en forma exacta el anterior par de ecuaciones diferenciales acopladas usando la aproximación de la onda rotatoria usando las siguientes condiciones iniciales:


Recurriendo a la aproximación de la onda rotatoria y usándola en el anterior par de ecuaciones diferenciales, se tiene entonces:


Diferenciando la segunda ecuación diferencial con respecto al tiempo, y substituyendo en lo así obtenido la primera ecuación diferencial, vemos que:


Lo anterior es equivalente a la siguiente ecuación diferencial de segundo orden:


Para tratar de resolver ésta ecuación diferencial, intentamos una solución del siguiente tipo para el coeficiente cb(t):


Ésta substitución nos conduce a la siguiente ecuación cuadrática:


en donde usando la relación definitoria para la frecuencia resonante ωr conocida como la frecuencia de flopeo de Rabi (la palabra inglesa flop forma pareja con la palabra inglesa flip en el binomio flip-flop que significa entre otras cosas “dar un giro y revertirlo”, “hacer y deshacer”, “poner y quitar”):


se obtienen las siguientes raíces:


La solución general del sistema para el coeficiente cb(t) es entonces:


Lo anterior se puede escribir de la siguiente manera más compacta con la ayuda de la fórmula de Euler:


Pero puesto que se ha especificado como condición inicial cb(0).=.0, por lo tanto se debe tener C.=.0 ya que de no ser así lo que tenemos a la derecha no se podría reducir a cero a causa del cosenoide, con lo cual nos debe quedar un solo término:


Diferenciando ésto último con respecto al tiempo, se tiene:


Metemos ahora ésto en la expresión para el coeficiente ca(t):


La condición ca(0).=.1 toma lo anterior y nos deja con lo siguiente:


Con el coeficiente D completamente determinado, podemos escribir entonces las ecuaciones para ambos coeficientes ca(t) y cb(t) de la siguiente manera:


El resultado es exacto, sin requerir ni siquiera correcciones de primer orden u orden posterior, y por lo tanto sin requerir la ayuda de la teoría de las perturbaciones dependientes del tiempo.

La probabilidad de que el sistema pueda migrar del estado a al estado b será entonces:


Cuando sen2rt).=.1 se tiene entonces la probabilidad máxima de que se pueda llevar a cabo la transición del estado a al estado b, y ésta probabilidad máxima será:


Tomando la definición de la frecuencia resonante ωr que para éste sistema de dos estados ya se ha dicho que se le puede llamar la frecuencia de flopeo de Rabi:


podemos ver entonces que el numerador en la expresión para la probabilidad máxima Pmax nunca podrá ser mayor que el denominador, y el máximo valor posible de la probabilidad ocurrirá justo cuando ω.=.ω0. Podemos comprobar por substitución directa que la suma de los cuadrados de los coeficientes ca(t) y cb(t) siempre será igual a la unidad:


Los resultados exactos que se han obtenido se reducen a lo que predice la teoría de las perturbaciones siempre y cuando la perturbación sea lo suficientemente pequeña, lo cual podemos ver tomando la frecuencia resonante ωr de flopeo de Rabi:


e imponeniendo la condición:


que en el caso presente vendría siendo la condición para poder considerar la perturbación “lo suficientemente pequeña”, y de éste modo se tendría entonces que la frecuencia resonante vendría siendo:


con lo cual la probabilidad de transición para ir del estado a al estado b será:


Este es el mismo resultado que el que se obtuvo arriba con la teoría de las perturbaciones dependientes del tiempo. De éste modo, el resultado exacto obtenido por Isidor Rabi para un sistema de dos estados se reduce al resultado aproximado predicho por la teoría de las pertubaciones dependientes del tiempo cuando se considera una perturbación suficientemente pequeña. Como se vió aquí, el problema en realidad se reduce a definir cuándo para cierto sistema físico se puede considerar la pertubación como suficientemente pequeña. Obsérvese que al transcurrir el tiempo, el sistema regresa por vez primera a una probabilidad de transición igual a cero cuando ωrt.=.π o bien:


Para un sistema que conste de únicamente dos estados, y al cual se le aplique una perturbación armónica (que varíe senoidalmente), la esperanza de poder hacer que las partículas que se encuentran en el estado a puedan ser excitadas para que todas lleguen al estado b parecen remotas. La probabilidad máxima posible, de acuerdo al resultado exacto, a la larga no parece ser muy grande porque periódicamente se desploma hasta cero, y es en tales momentos de baja o nula probabilidad cuando las partículas que han sido excitadas hasta el estado b vuelvan a caer por sí solas al estado de menor energía, o sea regresando al estado a, reduciéndose con ello periódicamente la cantidad de partículas que podamos tratar de mantener de modo más o menos permanente (en promedio) en el estado b. El experimentador tiene aquí una variable bajo su control: la frecuencia ω que le aplica al sistema de dos estados proveniente de una fuente de luz monocromática cuyo “color” pueda variar girando perillas de sintonía fina. Pero ésto no parece ser suficiente, dadas las dificultades para poder generar una frecuencia ω que esté cercana (ya no digamos que sea igual) a la frecuencia de resonancia ωr del sistema.

Y si obtener una condición en la que haya una cantidad igual de partículas en el estado b que en el estado a parece difícil, obtener una condición en la que haya más partículas en el estado b que en el estado a se antoja casi imposible, ello no ocurrirá a menos de que se recurra a algún truco. Lograr algo así sería lograr lo que se conoce como una inversión de población. Un truco tal podría consistir en aprovechar ventajosamente los fotones emitidos conforme las partículas caen del estado excitado b al estado excitado a, fotones que normalmente se pierden escapando al exterior, y rescatando la mayor cantidad posible de tales fotones con algún sistema de espejos para reflejarlos de nuevo hacia las partículas con el objeto de que tales fotones reciclados puedan excitar nuevamente a las partículas del estado a al estado b. Después de todo, siendo fotones que acaban de ser emitidos por las partículas, tienen justo la frecuencia resonante exacta ωr que se requiere para volver a excitar aquellas partículas de las cuales acaban de ser emitidos. Esta posibilidad fue precisamente lo que motivó a Theodore Maiman a diseñar un sistema de espejos y una fuente de excitación luminosa (con la energía luminosa salida de un tubo de gas neón y aplicada en pulsos periódicos) para excitar una cantidad suficientemente grande de partículas en un cristal de rubí capaz de no solo crear una condición en la que hubiera más partículas en el estado excitado b que en el estado excitado a, sino que del sistema pudiera parte de las partículas en el estado b viajando en conjunto en un haz de luz coherente (con los fotones viajando en fase). Fue así como se inventó el láser. De hecho, en cierta forma ya se le había adelantado Charles Townes con la invención del Máser, pero el láser fue la primera fuente de energía electromagnética coherente que estaba dentro del rango del espectro visible de energías electromagnéticas.

Los principios y conceptos que hemos visto aquí en los análisis que se han llevado a cabo se pueden extender hacia un sistema de muchos estados en lugar de únicamente dos estados.

Las técnicas de la teoría de las perturbaciones dependientes del tiempo proporcionan una manera adicional de obtener las mismas respuestas que las que se pueden obtener por otros medios. Para el caso del potencial especificado en la siguiente figura:




podemos calcular las energías posibles del sistema (para un movimiento unidimensional horizontal) sujeto a las condiciones:


y demostrar con ello que para energías de las partículas dentro de un rango para el cual la barrera central tiene una probabilidad de transmisión muy baja, los niveles de energía ocurren en pares, con cada par de energías consistente en un estado par y en un estado impar. Hecho ésto, de tal par de eigenestados podemos formar un estado de superposición de energías para el cual es casi seguro que la partícula será encontrada en el lado izquierdo del pozo. Este estado es análogo al del movimiento clásico de una partícula para la cual su energía E es menor que al altura V0 de la barrera de potencial. Un examen de la dependencia temporal de éste estado saca a la luz que el tiempo requerido para que la partícula se desplace hasta el lado derecho del pozo es del mismo orden de magnitud que el que se obtiene del argumento semiclásico según el cual se supone que la partícula se comporta clásicamente rebotando en el lado izquierdo del pozo con una probabilidad de transmisión a través de la barrera dado dado por los cálculos cuánticos acostumbrados que ya fueron tratados en ésta obra al discutir el tema de transmisión y reflexión de partículas, resultando instructivo comparar un cálculo de ésta naturaleza de la dependencia del tiempo de la probabilidad para que la partícula sea encontrada en el lado derecho de la caja con el cálculo mecánico-cuántico. Ambos métodos de ataque proporcionan el mismo resultado. De hecho, éste es el mismo caso que el que se vió en la introducción al simulador de la regla de oro de Fermi en la entrada anterior.