Vous êtes sur la page 1sur 191

Propagación en los potenciales Random Smooth

Una tesis presentada

por

Scot Elmer James Shaw

El Departamento de Física en el ful parcial fi

llment de los requisitos

para el grado de Doctor

en Filosofía

en el tema de

Física

Universidad de Harvard,

Cambridge, Massachusetts

mayo 2002
©do2002 - Scot Elmer James Shaw

Todos los derechos reservados.


director de tesis Autor

Eric J. Heller Scot Elmer James Shaw

Propagación en los potenciales Random Smooth

Abstracto

El estudio teórico de los sistemas de la mecánica cuántica a escala micrométrica generalmente ser-

ginebras con dos hipótesis sobre el potencial: que no hay potencial de fondo,

y que cualquier potencial con fi nir es difícil amurallado. En esta tesis, vamos a ver un meno

Nomenon que se ve cuando no se realizan estos supuestos, en el contexto de electrones

conductancia a través de los gases bidimensionales de electrones (2DEGs).

Comenzamos mediante el establecimiento de dos marcos matemáticos di ff Erent para el estudio sis-

tems con potenciales lisas. Las golosinas método de representación variable discreta

sistemas cerrados, en los que uno está resolviendo para estados propios y valores propios. la inversa

método de la función de Green trata de sistemas abiertos, en los que uno está resolviendo para la dispersión

matriz y de estado estacionario de electrones fl ux. Es el último método que aplicaremos a

el caso de la conductancia 2DEG.

Nuestro estudio está motivado por los recientes experimentos que probaron el patrón espacial

de electrones de reflujo. De acuerdo con estos experimentos, se encuentra que los electrones siguen

ramas estrechas en lugar de un usive di ff patrón de propagación. Llegamos a la conclusión de que la

ramas son el resultado de la dispersión de ángulo pequeño o FF de un débil, suave desordenada

potencial de fondo, generados por la capa de átomos donantes en el cristal 2DEG.

entonces tenemos en cuenta las franjas de interferencia observados experimentalmente, que persisten a
Abstracto iv

gamas de varias micras. Se presenta un modelo de novela que explica la persistencia

y el carácter de estas franjas, basándose únicamente en la dispersión de primer orden o FF de la fuerte

potenciales generados por las impurezas en el cristal.

a continuación, nos volvemos a los métodos de la mecánica clásica para estudiar el patrón de ramificación.

Utilizando el análisis de la estabilidad de la trayectoria clásica, se muestra que las ubicaciones de sucursales

se puede predecir por una proyección de la matriz de estabilidad en el colector inicial.

También consideramos que las leyes de escala para diversos aspectos estadísticos del flujo clásica

(Por ejemplo, el tiempo de impulso-relajación). Nos encontramos que estas propiedades de la

ramificado flujo se adhieran a nuestras predicciones teóricas. Por último, consideramos lo que uno

Los mapas tridimensionales pueden decirnos acerca de la dinámica de estos sistemas. El mapa da

nosotros una comprensión de la correlación observada entre las propiedades de estabilidad rama

y los puntos de inflexión en el colector de evolución.


Contenido

Pagina del titulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . yo

Abstracto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
Contenidos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
Lista de Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii
Agradecimientos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . X

1 Representaciones variable discreta 1


1.1 Propiedades de las funciones de DVR básicos. . . . . . . . . . . . . . . . . 2
1.2 A partir de DVR Funciones generales Ortonormales. . . . . . . . . . 3
1.2.1 puntos arbitrarios. . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Puntos de interes. . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 DVR A partir de polinomios ortogonales. . . . . . . . . . . . . . 6
1.4 Uso de la expansión. . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1,5 Scaling. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6 dimensiones superiores. . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Presentación de simetría. . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8 Algunos ejemplos útiles. . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 El cálculo de la propagación de ondas 17


2.1 La función de Green. . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 El S-Matrix, coeficientes de FFI Transmisión Coe, y la Fórmula Landauer. 21
2.3 Reducción del Sistema Infinito a una matriz finitos. . . . . . . . . . . . 23
2.4 Uso GRAMO - 1 s
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 Extensión a Leads múltiple transmisión. . . . . . . . . . . . . . . 27
2.6 Ejemplo An. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7 El campo magnético. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3 El flujo de electrones en Dispositivos 2 grados simples 38


3.1 El QPC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.1 Suave punto de contacto Modelo . . . . . . . . . . . . . . . . . . 39
3.1.2 Método experimental. . . . . . . . . . . . . . . . . . . . . . 42

v
Contenido vi

3.1.3 Un modelo simple. . . . . . . . . . . . . . . . . . . . . . . . . . 44


3.1.4 Analiza la punta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1.5 Teoría de la Dispersión AFM punta. . . . . . . . . . . . . . . 50
3.1.6 Simetría. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2 Una cavidad resonante. . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4 El desorden y el flujo de electrones ramificada 62


4.1 Indicaciones experimentales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2 Modelo matemático para el trastorno. . . . . . . . . . . . . . . . . . . . sesenta y cinco

4.3 Medición de Desorden. . . . . . . . . . . . . . . . . . . . . . . . . . . . 67


4.4 Resultados flujo de electrones. . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Ramificado 4.5 Flujo en un campo magnético. . . . . . . . . . . . . . . . . . . 74
4,6 trastorno en un cavidad resonante. . . . . . . . . . . . . . . . . . . . . . 78

5 franjas 83
5.1 La longitud térmica. . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Dentro de la duración de la fase-Coherencia. . . . . . . . . . . . . . . . . . 87
5.2.1 Promediar térmica. . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.2 La dispersión simple-Modelo. . . . . . . . . . . . . . . . . . . 90
5.2.3 Límite Continuum solo Dispersión. . . . . . . . . . . . . . . 93
5.3 Dispersión múltiple y la duración de la fase-Coherencia. . . . . . . . . 95

6 Estabilidad y la Matriz de Estabilidad 101


6.1 Dinámicas locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.2 La matriz de estabilidad a través de tiempo discreto. . . . . . . . . . . . . . . . . 103
6.3 Un Fuller, Derivación más complicado. . . . . . . . . . . . . . . . . 105
6.4 La Unidad determinante de la matriz de estabilidad. . . . . . . . . . . . . 107
6.5 Un primer vistazo a la estabilidad. . . . . . . . . . . . . . . . . . . . . . . . . 108
6.6 La reducción de dimensionalidad. . . . . . . . . . . . . . . . . . . . . . . . . 109
6.7 Estabilidad y sistemas cerrados . . . . . . . . . . . . . . . . . . . . . . 110
6.8 Estabilidad y sistemas abiertos. . . . . . . . . . . . . . . . . . . . . . . 113

7 Promedios Ensemble 118


7.1 Potenciales azar Revisited. . . . . . . . . . . . . . . . . . . . . . . 119
7.2 Las correlaciones potenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.2.1 Auto-correlación y la función espectral. . . . . . . . . . 122
7.2.2 Simetría circular. . . . . . . . . . . . . . . . . . . . . . . . 124
7.2.3 Correlación de Gauss. . . . . . . . . . . . . . . . . . . . . . . 125
7.2.4 ondas planas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Los tiempos de relajación 7.3 Momentum. . . . . . . . . . . . . . . . . . . . . . 129
7.4 El crecimiento de los exponentes. . . . . . . . . . . . . . . . . . . . . . 134
7.4.1 La rarefacción. . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Contenido vii

7.4.2 exponentes de Lyapunov. . . . . . . . . . . . . . . . . . . . . . . 138


7.5 Distribuciones de largo alcance. . . . . . . . . . . . . . . . . . . . . . . . 139

8 flujo bifurcado Clásica 144


8.1 sistemas físicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.2 colectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.3 Parámetros adimensionales. . . . . . . . . . . . . . . . . . . . . . . . 148
8.4 Características rama. . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.4.1 Análisis de la estabilidad Branch. . . . . . . . . . . . . . . . . . . . 150
8.4.2 distribución de intensidad. . . . . . . . . . . . . . . . . . . . . . . 152
8.4.3 escalas de longitud. . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.4.4 Estructuras espacio de fases. . . . . . . . . . . . . . . . . . . . . . 160
8.5 Gestión de la rama. . . . . . . . . . . . . . . . . . . . . . . . . . . 161

Mapas 9 unidimensionales 166


9.1 Ecuaciones de mapeo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
9.2 Potenciales de mapeo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.3 Ramas en los sistemas de mapeo. . . . . . . . . . . . . . . . . . . . . . 170
9.4 Análisis de la estabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

Bibliografía 178
Lista de Figuras

2.1 Configuración para la técnica numérica para el cálculo de la propagación de ondas. 18


2.2 Configuración para el ejemplo de § 2.6 . . . . . . . . . . . . . . . . . . . . . . 29

3.1 Las curvas de nivel de una función suave QPC muestra. . . . . . . . . . . . . . 41


3.2 QPC medidas de conductancia . . . . . . . . . . . . . . . . . . . . . . . . . 42
3,3 esquemática de un dispositivo 2DEG con punta de exploración AFM. . . . . . . . . 43
3,4 QPC modelo de juguete esquemática. . . . . . . . . . . . . . . . . . . . . . . . 44
3.5 Cálculos para un modelo simple de QPC conductancia. . . . . . . . . 46
3.6 Simulación de AFM escanear a través de QPC conductancia. . . . . . . . . . . . . . 48
3.7 Los datos experimentales para el modo de QPC primero. . . . . . . . . . . . . . . . . 49
3.8 Demostración de AFM dependencia de altura para mediciones de conductancia. . . . . . . . . . . . .
...................... 51
3.9 promedios de exploración bidimensionales que muestran la dependencia de la altura de la
punta del AFM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.10 ondas cuánticas a través del QPC con varios posibles alturas de AFM 54
3.11 Abrir potencial cavidad resonante . . . . . . . . . . . . . . . . . . . . . 56
espectro de transmisión 3,12 de banda ancha de la cavidad resonante abierto. . . . 58
3.13 funciones de onda resonante con ningún nodo angulares en la cavidad resonante abierto. . . .
............................... 59
espectro de transmisión 3,14 de banda estrecha de la cavidad resonante abierto. . . 60
3.15 funciones de onda resonante a todos los picos en una banda de energía estrecha de la
cavidad resonante abierto. . . . . . . . . . . . . . . . . . . . . . . . . . . 61

4.1 datos experimentales que muestran ramificados flujo. . . . . . . . . . . . . . . 64


4.2 Ejemplo 2DEG potencial desordenada . . . . . . . . . . . . . . . . . . 68
4.3 Quantum reflujo a través de un potencial 2DEG desordenada. . . . . . . . . . 71
4.4 Una comparación de electrones de reflujo y una exploración de punta de AFM ramificada. . . . 73
4.5 Electrón reflujo con el trastorno a las dos di ff Erent fortalezas campo magnético. 75
scan punta 4,6 AFM con campo magnético distinto de cero. . . . . . . . . . . . . . . 77
4,7 potencial cavidad resonante con el trastorno. . . . . . . . . . . . . . . . . 79
4.8 espectros de transmisión de la cavidad para un intervalo de fuerzas trastorno. . . . . 81

viii
Lista de Figuras ix

4.9 ondas estacionarias en los picos de resonancia en la cavidad con el trastorno. . . . . 82

5.1 Supervivencia de franjas con el promediado térmica. . . . . . . . . . . . . . . 84


5.2 Comparación de la verdadera distribución térmica con nuestra aproximación. 89
5.3 señales de ejemplo, en el modelo de dispersión simple. . . . . . . . . . . . . 94
5.4 configuración de dispersión unidimensional. . . . . . . . . . . . . . . . . . . . 98

6,1 esquemática de la dinámica local y la utilidad del exponente rarefacción 116

7.1 La función de correlación impulso. . . . . . . . . . . . . . . . . . . 132


7.2 Dependencia del tiempo de impulso de relajación en la fuerza potencial. 133
7.3 El impulso de relajación en un potencial con Bessel función de auto-correlación 133
7.4 Crecimiento del exponente media rarefacción en tiempos cortos y medianas 137
7.5 Crecimiento del exponente rarefacción media para la multiplicación de matrices. 137
7.6 Crecimiento de la media exponente Lyapunov a veces cortas y medias. 140
7.7 Crecimiento del exponente media Lyapunov para la multiplicación de matrices. . 140
7.8 Distribución de las huellas de la matriz estabilidad. . . . . . . . . . . . . . . . . . 142

8.1 cuántica y clásica fl ujo a través de un potencial 2DEG . . . . . . . . 145


8.2 Clásica UX fl y la estabilidad de Lyapunov exponente. . . . . . . . . . . . . 151
8.3 Classical UX fl y rarefacción exponentes. . . . . . . . . . . . . . . . . 153
8.4 distribución de la intensidad logarítmica normal aproximado para ramificado flujo. . . 154
8.5 tiempo de auto-intersección mínimo como una función de la fuerza trastorno. . 160
8.6 Evolución de las estructuras en el espacio de fase en ramificado flujo. . . . . . . . . 162
8.7 Una demostración de la ingeniería de un colector para poner una rama en una trayectoria
determinada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

9.1 Mapeo del sistema con un potencial de dos dimensiones en rodajas . . . . . . . . 171
9.2 Mapeo del sistema con un potencial aleatorio no en rodajas. . . . . . . . . . . 172
9.3 exponentes de rarefacción en un sistema de mapeo sencilla. . . . . . . . . . 176
9.4 exponentes de Lyapunov en un sistema de mapeo sencillo. . . . . . . . . . . 177
Expresiones de gratitud

Debido a que este puede ser mi única oportunidad de agradecer a estas personas por escrito, que puede ser un poco más
detallada en mis gracias más de lo necesario.
Como mi asesor, Rick Heller merece gracias por muchas cosas. En particular, para crear el entorno de la
investigación en la que he realizado mis estudios de grado. Llegué a Harvard con la intención de unirse a su grupo, por
dos razones principales: las áreas de investigación en el que se vio involucrado, y lo que había oído acerca de su
personalidad. No se me ha decepcionado en cualquier sentido. Él ha proporcionado orientación en los momentos clave
en mi trabajo al mismo tiempo que me permite trabajar de forma independiente la mayoría de las veces.

Debido al entorno de investigación sostenida por Rick, he cruzado con muchos estudiantes graduados y
posdoctorados que tienen influido y mejorado mi investigación. La dirección de mi trabajo de graduación ha sido
fuertemente influenciada por los miembros del grupo Westervelt, en particular Marcos Topinka y Brian LeRoy.
Dentro del grupo de Heller, hablando con Ragnar Fleischmann me ayudó ya que me dieron mis pies debajo de
mí para el cálculo de la conductancia 2 grados. El ejemplo de Michael Haggerty me ha llevado a la situación
actual de toda mi filosofía de programación. Alex Barnett me ha proporcionado los beneficios de su propia
experiencia numérica. Lev Kaplan y Steve Tomsovic tienen, a través de sus escritos y la comunicación directa,
me proporcionaron una visión de los aspectos más analíticos para entender estos sistemas.

La influencia de aquellos con los que trabajé antes de venir a la Universidad de Harvard también sigue siendo
importante. Profesores David Cook y John Brandenberger en la Universidad de Lawrence me proporcionaron las
bases que me permitieron golpear el funcionamiento de tierra en Harvard y completar mi tesis en cuatro años.
David ayudó a mis habilidades numéricas a florecer, y John me sometió a un examen difícil de mi intuición física.
Doy gracias a Keith Burnett en Oxford para correr el riesgo de un estudiante de los EE.UU. y darme mi experiencia
de investigación en el mundo real primero.

Mis padres, Michael y Susan Shaw, necesitan fi gura aquí en alguna parte: ellos me dan más que mi
material genético, después de todo. Mi interés por la ciencia y las matemáticas comenzó temprano en mi vida,
y se animó y me educó en formas tanto sencillas y tortuosos. Visitas a museos, libros sobre ciencia,
experimentos químicos con Stu ss encuentran en la cocina -la mayoría de nosotros que terminan yendo en la
ciencia probablemente tenía estas experiencias. Pero, ¿cuántos de nosotros, como los niños pequeños, se
engañe pensando que un poco de profesor 1 fue, de hecho, el juego electrónico de mano para el que había
estado pidiendo?

Mientras estoy escribiendo nombres abajo, no puedo descuidar la de Arik Martin, lo mejor posible, el amigo
más constante desde la secundaria. Me ha proporcionado una gran cantidad de apoyo y aliento en los últimos
años; él es un gran tipo y no quiero perder la oportunidad de conseguir que en el registro permanente.

Por último, Moria Tumbleson, mi novia desde que eran estudiantes de primer año en la Universidad de
Lawrence. Ella me acompañó a Massachusetts cuando llegué a la universidad, lejos de su familia, amigos y
trabajo. Su apoyo puede resumirse en la siguiente
1 Un dispositivo difundida por Texas Instruments que se parece a una calculadora, pero que presenta al usuario con problemas de matemáticas

simples para responder.


Expresiones de gratitud xi

hecho: en este mismo momento, ella es mi tesis corrección de pruebas para mí. A pesar de que no es un científico, que
será, tal vez, sea la única persona que no sea yo quien va a leer toda la cosa.
Capítulo 1

Representaciones variable discreta

En este capítulo se destaca de gran parte del resto de esta tesis en que se trata de

un método numérico de manera aislada de cualquier resultado. Aunque el método de resolución

di ff ecuaciones diferenciales de representación variable discreta (DVR) demostró ser uno

eso no cifra prominente en esta investigación, no obstante es importante para llevar

a la atención de la comunidad de la física. Que es mucho más conocido dentro de la

comunidad química.

DVR es un método para resolver ecuaciones diferenciales di ff. Parece a horcajadas sobre el

límite entre la discretización de la red y la expansión base-función, dos métodos bien

conocido por la comunidad física. Vamos a tratarlo en gran medida con el lenguaje de una base-

extensión de la función, a pesar de que lleva más equipaje que que puedan implicar. Tenga en cuenta que

algunos autores se refieren a ella como base variacional.

Los métodos de DVR son útiles en la mecánica cuántica para resolver schr odinger de

ecuación cuando tenemos alguna información útil sobre el potencial. DVR fi NDS una

casa en esta tesis, ya que es implícitamente una técnica suave de potencial. Ver también [ 1 ]

1
Capítulo 1: Representaciones variable discreta 2

Para una buena introducción a las bases de DVR.

1.1 Propiedades de las funciones de DVR Basis

Para cualquier expansión base-función, necesitamos primero identificar las funciones de base que

vamos a utilizar. Hay muchas bases di ff Erent DVR, y el que usted elija

dependerá del problema que se desea resolver. Aquí es donde un poco de información

sobre los potenciales lisas para ser encontradas es útil. Esto se hará más clara

mas tarde; por ahora, podemos afirmar algunas propiedades generales de las funciones de base y DVR

cómo se convierten en útiles. Lo haremos en una dimensión, teniendo dimensiones superiores

base fija para ser productos de conjuntos unidimensionales.

En el sentido más general, se requerirá el seguimiento de nuestras funciones de base DVR.

Somos, después de una serie de norte funciones de base { F yo( X)} con las propiedades

F yo( X j) = λ - 1/2yo δ ij (1,1)

para un conjunto de norte puntos { X j} y los pesos { λ yo}, y

∫ segundo

dx f yo( x) f j ( x) = δ ij (1,2)
un

para un intervalo [ a, b] que contiene todas las X j. A continuación, utilizar estas funciones de base a

funciones de onda aproximadas tomando

Σ
ψ (x) ≈ norte - 1 ψ (x yo) F yo( x) λ yo1/2 (1,3)
i=0

el cual, dada nuestra requisitos para las funciones de base, es exacta en los puntos de la rejilla.

Para dos funciones de onda φ (x) y ψ (x) aproximado que el anterior, podemos expresar la
Capítulo 1: Representaciones variable discreta 3

integral de solapamiento de

(Σ ) • •
∫ segundo

dx ψ (x) φ * ( X) ≈ ∫ segundo dx ψ (x yo) F yo( x) λ yo1/2 •Σ φ * ( X j) F j ( x) λ 1/2j • (1,4)


un un
yo j
∫ segundo

=Σ λ 1/2
yo λ 1/2 j ψ (x yo) φ * ( X j)
dx f yo( x) f j ( X) (1,5)
un
i, j

=Σ λ yo ψ (x yo) φ * ( X yo). (1,6)


yo

Motivados por este resultado, entonces tomamos

∫ segundo
Σ
dx F (x) ≈ norte - 1 λ yo F (x yo) (1,7)
un
i=0

como una regla de cuadratura aproximada. Vamos a utilizar esta regla de cuadratura con frecuencia en

la determinación de las funciones de DVR y pesos. En este punto, hemos hecho declaraciones

trata ni de la calidad de esta aproximación integral ni cualquier restricción sobre la

función F (x). Como es razonable, sin embargo, la calidad de las soluciones que obtenemos

de nuestra base de DVR está relacionada con la calidad de esta integral.

1.2 A partir de DVR general Ortonormal

funciones

Es, en general, posible construir un conjunto base { F yo( X)} para un DVR comenzando con una

conjunto arbitrario de funciones ortonormales { pag yo( X)}, dónde

∫ segundo

dx p yo( x) p j ( x) = δ ij, (1,8)


un

y puntos arbitrarios { X yo}. Aunque tal construcción general es posible, la calidad

de la aproximación resultante será generalmente pobres. Nos fijamos en dos casos, uno en donde

tenemos puntos arbitrarios { X yo}, y uno donde estos puntos son escogidos de tal manera que la
Capítulo 1: Representaciones variable discreta 4

regla de cuadratura es digno de confianza (aunque sin receta se dará hasta la próxima

la sección de la forma de lograr eso). En cualquiera de los casos, podemos ampliar cualquier función en el

intervalo [ a, b] en términos de nuestras funciones ortonormales; En particular, podemos ampliar la

funciones de base de DVR F yo( X):

F yo( x) = Σ un ij pag j ( X). (1,9)


j

1.2.1 puntos arbitrarios

Si escogemos puntos al azar para la { X yo}, por lo general no generar un buen

regla de cuadratura y el DVR resultante no serán particularmente útiles. Uno podría

imaginar casos, sin embargo, cuando uno quiere seguir este camino, así que la incluimos

por completitud. Dado que la regla de cuadratura es inexacta, que no va a usar para determinar

mina de los coeficientes de FFI expansión del Consejo de Europa relativas a la base DVR las funciones ortonormales.

A pesar de que han de renunciar a la regla de cuadratura, insistimos en el DVR básica

propiedad

F yo( X j) = λ - 1/2 yo
δ ij (1,10)

Σ
un ik pag k ( X j) = λ - 1/2 yo
δ ij (1,11)
k
Σ
λ 1/2
yo un ik pag k ( X j) = δ ij
(1,12)
k

λ 1/2
yo un ik = [ pag k ( X j)] - 1 (1,13)

donde el inverso en la ecuación final es una matriz inversión.

No tenemos ninguna manera en el momento de separar los pesos λ yo de la expansión

coe fi cientes. Mirando a la ortogonalidad de la { F yo( X)}, podemos hacerlo. Tenemos que

∫ segundo

dx f yo( x) f j ( x) = δ ij (1,14)
un
Capítulo 1: Representaciones variable discreta 5

∫ segundo
[Σ ] [Σ ]

dx un ik pag k ( X) un jl pag j ( X) = δ ij (1,15)


un
k l
∫ segundo
Σ Σ
un ik un jl dx p k ( x) p l ( x) = δ ij (1,16)
un
k l
Σ Σ
un ik un jl δ kl = δ ij (1,17)
k l
Σ
un ik un jk = δ ij (1,18)
k
Σ
( un ik) 2 = 1. (1,19)
k

Esta expresión nos permite separar el λ yo términos después de la inversión de la matriz.

1.2.2 Puntos de interes

Vamos a suponer que, de alguna manera puntos, hemos seleccionado { X yo} de tal manera que la resultante

regla de cuadratura es buena. En este caso, tenemos un medio mucho más directa de encontrar la

de expansión coe fi cientes un ij. Se les da por

un ij ≡ ∫ segundo dx f yo( x) p j ( X) (1,20)


un

norte - 1
Σ
= λ k F yo( X k) pag j ( X k) (1,21)
k=0

= λ 1/2 yo pag j ( X yo), (1,22)

donde hemos aplicado la regla de cuadratura de la ecuación. ( 1.7 ) Para aproximar la integral.

Usando esta definición de la un ij, nosotros tomamos

Σ
F yo( x) = λ 1/2yo pag j ( X yo) pag j ( X). (1,23)
j

A partir de la ecuación. ( 1.23 ) Ahora podemos determinar los valores de los coe fi cientes λ yo por

Σ
F yo( X k) = λ 1/2 yo
pag j ( X yo) pag j ( X k) (1,24)
j
Capítulo 1: Representaciones variable discreta 6

Σ
δ ik λ -yo1/2 = λ 1/2 yo
pag j ( X yo) pag j ( X k) (1,25)
j

δ ik λ -yo1 =Σ pag j ( X yo) pag j ( X k) (1,26)


j

λ -yo1 =Σ pag 2 j ( X yo). (1,27)


j

1.3 DVR A partir de polinomios ortogonales

Vamos a reducimos nuestro enfoque mediante la aplicación de los resultados de la sección anterior, en el caso

donde nuestras funciones ortonormales están relacionados con una familia de polinomios ortogonales.

Esto nos dará una manera de determinar los puntos { X yo} necesario para una buena cuadratura

regla.

Dejar que las funciones { q yo( X)} ser una familia de polinomios ortogonales en el intervalo

[ a, b] con la función de ponderación w (x); es decir,

∫ segundo

dx w q (x) yo( x) q j ( x) = h yo δ ij (1,28)


un

dónde h yo es la norma de q yo( X). Comenzamos funciones ortonormales de fi nir pag yo( x) =

w (x) 1/2 h - 1/2yo q yo( X). Estos continuación, se parecen a las funciones de la sección anterior, y nos

pueden aplicar esos resultados.

En general, es el caso que existe una cuadratura de Gauss asociado con

un conjunto de polinomios ortogonales y su función de ponderación w (x). Es decir, hay

existe un conjunto de norte puntos { X yo} y los pesos { λ yo} de tal manera que cualquier polinomio P (x) de

orden 2 norte - 1 o menos se puede integrar exactamente por

∫ segundo

dx w (x) P (x) = Σ λ yo w (x yo) P (x yo). (1,29)


un
yo

Se encuentra que los puntos son { X yo} ≡ { x: q NORTE( x) = 0} [ 2 ], Y se dan los pesos
Capítulo 1: Representaciones variable discreta 7

por el resultado de la sección anterior,

λ -yo1 =Σ pag 2 j ( X yo) (1,30)


j

= w (x yo) Σ q j2( X yo) h j.- 1 (1,31)


j

Esta expresión de los pesos es considerablemente más fácil de aplicar que la encontrada en

[ 2 ], Aunque también se encuentra en otras referencias [ 3 , La ecuación. 8.4.18].

Utilizando la definición de la ecuación. ( 1.23 ), el F yo( X) tienen la forma de polinomios PAG yo( X) de

orden norte - 1 vez w (x) 1/2. Por lo tanto tenemos que

∫ segundo ∫ segundo

dx f yo( x) f j ( x) = dx w (x) P yo( x) P j ( X) (1,32)


un un

=Σ λ k w (x k) PAG yo( X k) PAG j ( X k) (1,33)


k

=Σ λ k F yo( X k) F j ( X k) (1,34)
k

donde la suma es igual a la integral porque PAG yo( x) P j ( X) es un polinomio de orden

2 norte - 2, y de este modo exacto en la cuadratura. Vemos que los puntos y los pesos que nos

necesitar en la definición del DVR son sólo los de la cuadratura de Gauss asociado

con la familia de polinomios ortogonales.

Dado que la cuadratura es exacta para las funciones pag yo( X), las aproximaciones en hallazgo

F yo( X) en términos de ellos son ahora exacta. Por lo tanto tenemos que

Σ
F yo( x) = λ 1/2yo pag j ( X yo) pag j ( X), (1,35)
j

o, volviendo a la serie original de los polinomios ortogonales,

Σ
F yo( x) = w (x) 1/2 w (x yo) 1/2 λ 1/2 yo
h -j q1 j ( X yo) q j ( X). (1,36)
j

Como una interesante (y en última instancia útil) a un lado, ya w (x) será, en general, tienen

sin ceros, tenemos norte las condiciones en el polinomio PAG yo( x) = f yo( x) w (x) - 1/2: que
Capítulo 1: Representaciones variable discreta 8

debe tener ceros en absoluto X j: j 6 = yo y eso PAG yo( X i) = w (x yo) - 1/2 λ - 1/2 yo
. Por lo tanto PAG yo( X) es

única de fi nido, y así debe ser de la forma

X - Xj
PAG yo( X) α Π . (1,37)
j 6 = yo
X yo - X j

La normalización de este polinomio se deja indeterminada, pero funciona con el SUM-

mación en pag yo( X) encontraron anterior muestra que lo hace ceder esta forma. Esta forma de producto

hace que sea un poco más fácil de visualizar las funciones de base de DVR que lo hace la suma.

1.4 Uso de la expansión

Ahora usamos estas funciones de base y la cuadratura que viene con ellos a

resolver la ecuación de Schrödinger para una sola partícula. Usamos la cuadratura asociado

para aproximar todas las integrales que nos encontramos.

La expansión de nuestra función de onda, tomamos

Ψ ( X) ≈ Σ do yo F yo( X), (1,38)


yo

dónde

∫ segundo

do i = dx Ψ ( x) f yo( X) (1,39)
un

≈Σ λ j Ψ ( X j) F yo( X j) (1,40)
j

= λ 1/2 yo Ψ ( X yo). (1,41)

Para los elementos de matriz del operador potencial energético V, tenemos que

∫ segundo

V ij = dx f yo( x) f j ( x) V (x) (1,42)


un
Capítulo 1: Representaciones variable discreta 9

≈Σ λ k F yo( X k) F j ( X k) V (x k) (1,43)
k

=Σ λ k λ -yo1/2 δ ik λ -j 1/2 δ jk V (x k) (1,44)


k

= δ ij V (x yo) (1,45)

de manera que, en la medida en que confiamos en la cuadratura, tenemos una energía potencial en diagonal. Algunos

los autores se refieren a este proceso como la elección de una base de que “coordinan diagonaliza

espacio."

La energía cinética no es diagonal, pero en dimensiones más altas de una se encuentra que

es escasa. Los elementos de matriz K ij son, en general, dif'ıcil determinar ya que

involucrar a los derivados no sólo de la pag yo( X) sino también de w (x) 1/2. En términos de la DVR

funciones de base, que tienen

∫ segundo

K ij = dx f yo( X) ˆ KF j ( X) (1,46)
un

= - ∫ segundo dx f yo( x) f '' j( X) (1,47)


un

≈-Σ λ k F yo( X k) Fj ('' X k) (1,48)


k

=-Σ λ k λ -yo1/2 δ ik F j ''( X k) (1,49)


k

= - λ 1/2 F '' j( X yo). (1,50)

Nuestra hamiltoniano está representado por la matriz H ij = K ij + δ ij V (x yo). el eigen-

vectores nos dan la do yo coe cientes FFI de la expansión. A continuación, encontramos los valores de la

funciones propias en los puntos de rejilla de do i = λ 1/2 yo Ψ ( X yo). Debido a la mayor precisión

Cuadratura de Gauss que nos da para un fijada número de evaluaciones de la función, el uso

este conjunto base DVR nos permite resolver la ecuación de Schrödinger con matrices más pequeños

que de otro modo podría ser requerida.


Capítulo 1: Representaciones variable discreta 10

1.5 Escala

Si partimos de un conjunto de polinomios ortogonales, se nos da un conjunto de puntos X yo

con la que comenzar. Aunque no es un asunto complicado, es fácil confundirse

cuando se trata de re-escalar los puntos para el DVR. Podemos mover la ubicación de nuestra

puntos de la rejilla de escalar las funciones de base. Supongamos que queremos mover los puntos X yo a

HX yo. Entonces conseguimos los elementos de matriz del hamiltoniano como H ij = h - 2 K ij + δ ij V (hx yo).

Los vectores propios siguen siendo la do yo, pero los que ahora están relacionados con los valores de la ola

función en los puntos de escaladas do i = λ 1/2 yo Ψ ( HX yo).

1.6 Dimensiones Superiores

Un ejemplo en tres dimensiones debe ser su ciente FFI para demostrar los principios.

Que una función de base tridimensional DVR se dará por

F ijk ( x, y, z) = f yo( x) f j ( y) f k ( z) (1,51)

y el operador de energía cinética dada por

K̂ = -∇ 2 = - ∂ 2
K Kx+ ˆ Ky+ ˆ Kz (1,52)
∂x 2 - ∂ 2 ∂y 2 - ∂ 2 ∂z 2 = ˆ

Los elementos de la contribución potencial de energía al hamiltoniano son

∫ segundo ∫ segundo ∫ segundo

V ijklmn = dx dy dz f ijk ( x, y, z) V (x, y, z) f LMN ( x, y, z) (1,53)


un un un
∫ segundo ∫ segundo ∫ segundo

= dx f yo( x) f l ( X) dy f j ( y) f metro( y) dz f k ( z) f norte( z) V (x, y, z) (1,54)


un un un

≈Σ λ un F yo( X un) F l ( X un) Σ λ doΣF k ( X do) F norte( X do) V (x un, X segundo, X do)
λ segundo F j ( X segundo) F metro( X segundo)
un segundo do

(1,55)
Capítulo 1: Representaciones variable discreta 11

Σ Σ
=Σ λ un λyo- 1/2 δ I a λ l- 1/2 δ la λ segundoj λ - 1/2 δ jb λ -metro
1/2
δ megabyte λ do λk- 1/2 δ kc λ -norte
1/2
δ Carolina del Norte
un segundo do

× V (x un, X segundo, X do) (1,56)

= δ Illinois δ jm δ kn V (x yo, X j, X k). (1,57)

Por lo que permanecen en diagonal, tal como se ve en una dimensión.

La energía cinética es de nuevo más complicada que la energía potencial.

∫ segundo ∫ segundo ∫ segundo

K ijklmn = dx dy dz f ijk ( x, y, z) ˆ KF LMN ( x, y, z) (1,58)


un un un
∫ segundo ∫ segundo ∫ segundo
)
= dx dy dz [f yo( x) f j ( y) f k ( z)] ( ˆ Kx+ ˆ Ky+ ˆ Kz [ F l ( x) f metro( y) f norte( z)]
un un un

(1,59)
∫ segundo ∫ segundo ∫ segundo

= dx f yo( z) ˆ K X F l ( z) dy f j ( y) f metro( y) dz f k ( z) f norte( z) + · · · (1,60)


un un un

= K Illinois δ jm δ kn + K jm δ Illinois δ kn + K kn δ Illinois δ jm. (1,61)

Por lo tanto, aunque la energía cinética no es diagonal, no es densa.

Este escalado con dimensionalidad de los problemas expresados ​en la base es un DVR

aspecto importante del método. Supongamos que tenemos norte funciones de base a lo largo de cada uno

de re ejes de coordenadas. En ese caso, el hamiltoniano completo es una norte re × norte re array, así tiene

un total de norte 2 re elementos de matriz. Hay un total de norte re elementos distintos de cero de V a

calcular y dN d + 1 elementos distintos de cero de K. Debido a la superposición, sólo hay dN d + 1

elementos distintos de cero de H. DVR, a continuación, nos da una ecuación de matriz dispersa de resolver, y

se adapta bien a dimensiones superiores.


Capítulo 1: Representaciones variable discreta 12

1.7 Presentación de Simetría

Muchos de los problemas tratados en la mecánica cuántica han incorporado en simetrías

que podríamos desear para explotar en una técnica de solución. Podemos hacer eso en DVR

construir versiones simétricas de forma explícita del conjunto de funciones base. Asumiremos

que la base DVR tiene puntos de rejilla que son simétricas respecto al origen. 1

Comencemos con un conjunto base DVR { F yo( X)}. Tengamos definen las funciones de base

f +yo ( x) = 2 - 1/2 [ F yo( X) + f norte - 1 - yo( X)] (1,62)

F yo
-
( x) = 2 - 1/2 [ F yo( X) - F norte - 1 - yo( X)]
(1,63)

donde ahora sólo vamos yo ∈ [ 0, NORTE/ 2 - 1] y es necesario que norte se justo. Así tenemos

un total de norte funciones de base, si se toman todos f + yo y F- yo para reemplazar el F yo, pero estos

nuevos conjuntos están en clases de simetría explícitos. Se ve fácilmente que las bases son dos

equivalente.

Con nuestro nuevo conjunto de bases, se obtiene casi la totalidad de los beneficios de la base original DVR

sin modi fi cación. Tenemos, por ejemplo, que

∫ segundo ∫ segundo

dx f ± yo ( x) f ± j ( x) = 1 dx [f yo( X) ± F norte - 1 - yo( x)] [f j ( X) ± F norte - 1 - j ( X)] (1,64)


un 2 un
[∫ segundo

=1 dx f yo( x) f j ( X) ± ∫ segundo dx f yo( x) f norte - 1 - j ( X)


2 un un

∫ segundo
]

± ∫ segundo dx f norte - 1 - yo( x) f j ( X) + dx f norte - 1 - yo( x) f norte - 1 - j ( X)


un un

(1,65)

=1 (1,66)
2 ( δ ij ± δ en - 1 - j ± δ norte - 1 - i, j + δ norte - 1 - en - 1 - j)

= δ ij ± δ en - 1 - j. (1,67)
1 Todavía tengo que encontrar una base DVR útil con puntos de cuadrícula que no son simétricas respecto al origen, por lo que esto parece

una suposición razonable de hacer.


Capítulo 1: Representaciones variable discreta 13

Ahora tenemos en cuenta que, dado que estamos restringiendo el rango de yo, nunca podremos tener i =

norte - 1 - j. De ahí que nos queda

∫ segundo

dx f ± yo ( x) f ± j ( x) = δ ij. (1,68)
un

Tenga en cuenta que esta notación está destinado a indicar que hacemos la misma elección de más o

menos en ambas funciones.

Para los posibles elementos de la matriz energética, tenemos

∫ segundo

V ij±= dx f ± yo ( x) V (x) f ± j( X) (1,69)


un
∫ segundo

=1 dx [f yo( X) ± F norte - 1 - yo( x)] V (x) [f j ( X) ± F norte - 1 - j ( X)] (1,70)


2 un
[∫ segundo

=1 dx f yo( x) V (x) f j ( X) ± ∫ segundo dx f yo( x) V (x) f norte - 1 - j ( X)


2 un un

∫ segundo
]

± ∫ segundo dx f norte - 1 - yo( x) V (x) f j ( X) + dx f norte - 1 - yo( x) V (x) f norte - 1 - j ( X) (1,71)


un un

=1
2 [ δ ij V (x yo) ± δ en - 1 - j V (x yo)

± δ norte - 1 - i, j V (x norte - 1 - yo) + δ norte - 1 - en - 1 - j V (x norte - 1 - yo)] . (1,72)

Suponemos que estamos trabajando con un potencial aún. Desde los puntos de la

cuadratura son simétricas, de manera que X i = - X norte - 1 - yo, tenemos V (x i) = V (x norte - 1 - yo).

La explotación de este resultado y las limitaciones de yo y j,

V ij±= δ ij V (x yo). (1,73)

Por último, los elementos de matriz de energía cinética son

∫ segundo

K ±ij = dx f ± yo ( X) ˆKF ± j ( X) (1,74)


un
∫ segundo

=1 dx [f yo( X) ± F norte - 1 - yo( X)] ˆ K [f j ( X) ± F norte - 1 - j ( X)] (1,75)


2 un
Capítulo 1: Representaciones variable discreta 14

[∫ segundo

=1 dx f yo( X) ˆ KF j ( X) ± ∫ segundo dx f yo( X) ˆ KF norte - 1 - j ( X)


2 un un

∫ segundo
]

± ∫ segundo dx f norte - 1 - yo( X) ˆ KF j ( X) + dx f norte - 1 - yo( X) ˆ KF norte - 1 - j ( X) (1,76)


un un

=1 (1.77)
2 ( K ij ± K en - 1 - j ± K norte - 1 - i, j + K norte - 1 - en - 1 - j) .

Esta expresión también puede ser simplificarse, en el caso de que cada uno de los ortonormal

funciones { pag yo( X)} es ya sea simétrica o antisimétrica (que no tienen por qué ser del todo

mismo). En este caso, se tiene que pag yo( x) = ± pag yo( - X) y pag '' yo ( x) = ± pag '' yo ( - X) para todos yo, como

así como la condición establecida ya que, X i = - X norte - 1 - yo.

Mirando primero a los coe fi cientes λ yo, notamos eso

λ -yo1 =Σ pag 2 j ( X yo) (1,78)


j

=Σ [ ± pag j ( - X yo)] 2 (1,79)


j

=Σ pag 2 j ( - X yo) (1,80)


j

=Σ pag 2 j ( X norte - 1 - yo) (1,81)


j

= λ-1 norte - 1 - yo.


(1,82)

Ahora, para el operador de energía cinética, tenemos que

K ij = - λ 1/2 yo F '' j( X yo) (1,83)

Σ
= - λ 1/2 yo λ 1/2 j
pag k ( X j) pagk ''( X yo) (1,84)
k
Σ
= - λ 1/2 yo λ 1/2 j
[ ± pag k ( - X j)] [ ± pagk''( - X yo)] (1.85)
k
Σ
= - λ 1/2 norte - 1 - yo λ
norte
1/2 - 1 - j
pag k ( X norte - 1 - j) pagk'' ( X norte - 1 - yo) (1,86)
k

= - λ 1/2 norte - 1 - yo F norte


'' - 1 - j ( X norte - 1 - yo)
(1,87)

= K norte - 1 - en - 1 - j. (1,88)
Capítulo 1: Representaciones variable discreta 15

Del mismo modo, se puede demostrar que K en - 1 - j = K norte - 1 - i, j. Esto nos da la ed simplifica

expresión

K ±ij = K ij ± K norte - 1 - i, j. (1,89)

1.8 Algunos ejemplos útiles

Aunque la discusión anterior es su ciente FFI para elaborar la base de cualquiera de DVR

los conjuntos disponibles de polinomios ortogonales, existen expresiones ed muy simplifica

para algunas de las posibles opciones. Es decir, que es posible crear las matrices para la

problema sin pasar por las cantidades descritas anteriormente.

Un buen ejemplo es la elección de un DVR basado en polinomios de Hermite. los

polinomios de Hermite son ortogonales en el intervalo ( -∞, ∞) con la ponderación

función w (x) = e - X 2. Los puntos de la cuadratura se encuentran, como de costumbre, como ceros de

un polinomio de Hermite, y los pesos provienen de una suma sobre polinomios de Hermite

en los puntos de cuadratura. No voy a ir a través de los pasos de la derivación aquí, pero

se puede demostrar (véase [ 1 ]) Que los elementos de la matriz de energía cinética son dadas por

••
•• (1/6) (4 norte - 1 - 2 X 2 yo ) i=j
K̂ = - ∂ 2
K . (1,90)
∂x 2 ⇒ K ij = ••
••
( - 1) yo - j [ 2 ( X yo - X j) - 2 -. 5] yo 6 = j

Otro ejemplo útil proviene de una base trigonométrica. Tomamos el conjunto de

funciones seno normalizados 2 1/2 pecado( iπx) para el rango (0, 1). El DVR resultante tiene

la ventaja de producir puntos de la cuadrícula igualmente espaciados. Nos encontramos que [ 4 ]

X i = ( i + 1) / ( N + 1) (1,91)
Capítulo 1: Representaciones variable discreta dieciséis

λ i = ( N + 1) - 1 (1,92)

w (x) = 1 (1,93)

{ pecado [(2 N + 1) ( X - X yo) π / 2] }


yo
F yo( x) = λ 1/2 - pecado [(2 N + 1) ( x + x yo) π / 2] (1,94)
2 pecado[( X - X yo) π / 2] pecado[( x + x yo) π / 2]


[2
•• π2

2 3( N + 1) 2 + 1 3 - pecado - 2 ( pi x yo)]
i=j
K ij = { pecado - 2 [( X yo - X j) π / 2] - pecado - 2 [( X yo - X j) π / 2]} yo 6 = j . (1,95)
••
• ( - 1) yo - j π 2 2

Es interesante observar que algunas bases de DVR trigonométricas en realidad están disfrazados

bases de polinomios [ 5 ]. Para soluciones simplificados en otros casos especiales, véase [ 1 ], [ 4 ], Y

[ 6 ].
Capitulo 2

El cálculo de la propagación de ondas

Los sistemas con los que tratamos en la mecánica cuántica son a menudo cerrados. De tal

casos, que realizan cálculos para hallar los estados propios del potencial dado. Aunque el

di fi cultades que se pueden encontrar en estos cálculos no debe ser minimizada,

esto es sólo un tipo de sistema que puede ser tratada con la mecánica cuántica. En esto

capítulo, nos ocupamos de desarrollar una técnica para el tratamiento de sistemas abiertos por

el cálculo de propagación, en contraposición a pie, las ondas.

Por otra parte, estamos buscando una técnica que hace el menor número de simplificaciones a o

suposiciones sobre el potencial de lo posible. En última instancia, estaremos calculando el

conductancia a través de los potenciales de lisas, desordenados, por lo que, en particular, vamos a evitar

supuestos de FL en potenciales o en paredes duras cantidad infinita. También vamos a evitar limitar

nosotros mismos para el “régimen de túnel”, donde se conecta un sistema casi aislada

débilmente a clientes potenciales. Por supuesto, al evitar estas simplificaciones, estamos cortando a nosotros mismos

O ff de algunas técnicas muy fi ciente E (véase, por ejemplo, [ 7 , Cap. 6] y [ 8 ]) y nosotros

será limitada en el tamaño de los sistemas que podemos estudiar y las escalas de energía

17
Capítulo 2: El cálculo de propagación de las ondas 18

flujo incidente
plomo 1 Sistema 2 conducir Transmisión
Reflexión

rejilla de diferencias finitas


puntos acoplados

Figura 2.1: Aquí vemos el marco conceptual inicial para nuestra técnica numérica para el cálculo de la propagación de
ondas. Tenemos la visión del sistema contenida en una cubeta; a la izquierda ya la derecha son los cables de
conexión del sistema de depósitos térmicos, que no incluye explícitamente. Todos los de la dispersión tiene lugar en
una fi con región Ned refiere como el “sistema”. No se produce la dispersión en las derivaciones, que sirven para
definir los modos o canales de la dispersión. Discretizamos espacio sobre una rejilla di ff rencia finita. Puntos en la
cuadrícula se acoplan solamente a los vecinos más cercanos, y por lo tanto la comunicación entre el sistema de
dispersión y los conductores se lleva a cabo en las dos bandas indicadas. con el tiempo vamos a ampliar esta
configuración para incluir a más clientes potenciales.

que podemos alcanzar. Hay comercio-o ff s que se hará en la elección de cualquier información numérica

técnica.

Técnicas para resolver problemas bajo estas limitaciones existen, aunque son

no tan ampliamente aplicado como las técnicas más e fi ciente que implican más simplificaciones.

El esquema general de nuestro método es el siguiente. Comenzamos por el pensamiento de la totalidad

entorno físico como compuesta de un “sistema”, donde se produce la dispersión,

y semi-infinito “pistas”. Estos cables deben soportar modos transversales cuantificados. los

idioma del proceso de dispersión es entonces la de la matriz de dispersión (S-matriz),

el acoplamiento de los modos de incidentes a los modos dispersos. La matriz S nos lleva a un cálculo

de la conductancia, si se desea que la cantidad, por lo familiar Landauer fórmula [ 9 ].

Ver figura 2.1 para una representación esquemática de esta configuración.

Debe tenerse en cuenta que no vamos a resolver por el solo hecho de la matriz S, aunque en algunos

casos que se desea toda la información. Nuestros cálculos también deben hacer accesible
Capítulo 2: El cálculo de propagación de las ondas 19

los estados de dispersión del sistema.

Para las matemáticas necesarias para llevar a cabo este método, comenzamos por hallazgo de una ma-

trix representación de la inversa de la función de Green para el sistema, teniendo en

tener en cuenta el acoplamiento del sistema de dispersión a los clientes potenciales. En lugar de realizar

una inversión de la matriz computacionalmente costosa, que resolver una serie de Ax = b multi- matriz

tiplication problemas para determinar la respuesta del sistema a los diversos posible

modos incidente. Si se desea, se pueden extraer los elementos de matriz de dispersión de

estas respuestas del sistema.

Nuestra inversa función de Green trata a todo el dominio del potencial a la vez.

Existen otros métodos en la literatura que implicaría la construcción de hasta fun- de Green

ción a través del un sistema “rebanada” a la vez, llama recursiva Green's función (RGF)

métodos [ 10 , 11 , 12 , 13 ]. Estos métodos de intercambio de un gran problema para muchos pequeños

problemas. Hay dos debilidades a estas técnicas. En primer lugar, descartando informa-

ción sobre los puntos interiores del sistema, que hacen inaccesible la propagación

los propios Estados. En segundo lugar, no parece que pueden tratar con sistemas más

de dos cables. Sólo hay un gran beneficio a estos métodos, sin embargo. Aunque el

número de operaciones necesarias es la misma, rompiendo el problema arriba en muchos

trozos pequeños, uno reduce los requisitos de memoria del ordenador. Este cambio

permiten a uno calcular la conductancia de los sistemas más largos.

2.1 La función de Green

Antes de profundizar en nuestro método de hallazgo función de Green para un sistema,

debemos describir este objeto y su utilidad. La función de Green nos dice la


Capítulo 2: El cálculo de propagación de las ondas 20

respuesta de un sistema a una fuente de función delta [ 14 , Cap. 8]. Para una ff diferencial general de di

operador F, utilizado en la ecuación diferencial di ff Ff (x) = 0 en una región sin fuentes,

fi ca la función de Green satis

F̂G F ( x, x ') = δ (x - X ').


FG (2,1)

Si tenemos un sistema gobernado por el operador diferencial di ff F y tenemos una conocida

función de fuente g (x), podemos determinar la solución f (x) con esa fuente por


f (x) = dx ' G (x, x ') g (x ') (2,2)

Como se puede fácilmente veri fi. Nuestro objetivo es determinar la función de Green para el

sistema de dispersión; entonces podemos utilizar una ola incidente dada como la fuente, y determinar

la onda dispersada resultante.

El operador di ff diferencial con el que nos interesa de trabajo es el tiempo-

schr independiente ecuación odinger en dos dimensiones,

Hˆ (~ x) ψ (~ x) = Eψ (~ x), (2,3)

[ mi - ˆ H (~ x)] ψ (~ x) = 0. (2,4)

La función de Green es entonces una solución a

[ mi - ˆ H (~ x)] G (~ x, ~ x ') = δ (~ x - ~ X '). (2,5)

Hay, en general, dos posible solución a esta ecuación: el llamado “avanzada”

y las funciones de Green “retardado”. Podemos seleccionar uno u otro por la inclusión de

un infinitesimal número imaginario ± iη en la ecuación diferencial di ff,

[ mi - ˆ H (~ x) ± iη] G ± (~ x, x ~ ') = δ (~ x - ~ X '). (2,6)


Capítulo 2: El cálculo de propagación de las ondas 21

Tomando los signos superiores nos da la solución retrasados ​físicamente aceptable. De

este punto en adelante, cada vez que nos referimos a la función de Green GRAMO vamos a significar la

función de Green retardada G +.

Mirando hacia delante un poco, queremos una técnica susceptible de solución en un ordenador.

Esto significa que vamos a trabajar con representaciones matriciales de nuestros operadores. Tomando

el hamiltoniano para ser una matriz cuadrada y yo para ser la matriz identidad correspondiente,

la representación ecuación matricial de la ecuación di ff diferencial es [( E + iη) I - H] G = YO,

G = [(E + iη) I - H] - 1. (2,7)

2.2 El S-Matrix, Transmisión Coe cientes de FFI, y

la Fórmula Landauer

La cantidad de frecuencia de interés para la propagación de los problemas de onda es la conductividad

tancia, sobre todo porque se trata de la cantidad experimental de más fácil acceso. Nosotros

ahora ver la conexión entre la conductancia y la matriz de dispersión, a través de

la fórmula Landauer. a continuación, vamos a relacionar la matriz S de la función de Green.

Después de la investigación de microondas que se hizo alrededor de la Segunda Guerra Mundial, gran parte de la

idioma para estudiar la dispersión se convirtió en el de guías de onda. Es decir, hablamos de

Modos de incidentes, o canales, y cómo un evento de dispersión parejas los incidentes Chan

Nels en canales dispersos. Es dentro de este marco conceptual que la Landauer

fórmula es útil, ya que se conecta los coe transmisión FFI de estos canales a la
Capítulo 2: El cálculo de propagación de las ondas 22

conductancia mide a través de un sistema. En pocas palabras, es

Σ
G = 2 mi 2 T yo, (2,8)
h yo

dónde GRAMO aquí es la conductancia (no la función de Green), el T yo son la transmisión

coe coe fi cientes para los canales de incidentes, y la suma es sobre todos los canales. mi 2 / h es el

cuántica de la conductancia y la 2 se debe girar a la degeneración. No vamos a derivar esta

expresión aquí (ver [ 9 ] si estás interesado).

Usando la ecuación. ( 2.8 ), Obtenemos la conductancia mediante el cálculo de coeficientes de FFI coe transmisión.

Podemos, a su vez, determinar coe fi cientes de transmisión mediante la búsqueda de la S-matriz. los

S-matriz nos dice cómo un potencial de dispersión se conecta a canales de incidentes dispersos

canales, incluyendo ambos turnos de amplitud y fase. Si un sistema tiene norte incidente

canales, que pueden especificar una onda incidente dada por norte amplitudes en un vector ~ a. Similar,

con metro canales de salida, que pueden especificar la onda dispersada con metro amplitudes en una

vector ~ segundo. La matriz S sería entonces metro × norte y conectaría a la onda incidente

la onda dispersada por ~ b = s · ~ a. Las propiedades de los S-matriz reflejar las simetrías

del sistema físico [ 9 ]. Indexar todos los canales de incidentes y todos los canales dispersos,

el elemento de la matriz S s ij nos dice la dispersión en el canal j del canal incidente yo.

La fi ciente Coe transmisión T yo es entonces

Ti=Σ | s ij | 2. (2,9)
j ∈ transmisión
plomos

Restringimos la suma de mirar sólo a los canales en los “cables de transmisión” para que podamos

no incluyen elementos s ij correspondiente a La reflexión.


Capítulo 2: El cálculo de propagación de las ondas 23

2.3 Reducción del Sistema Infinito a un Finitos

Matriz

Para escribir una ecuación matricial de la función de Green, que primero necesitamos una matriz repre-

resentación para el hamiltoniano H. Nos encontramos uno por el que se establecen una finito espacial

di ff rejilla rencia. Se trata de una malla espacial rectangular regular con separaciones un X y un y. UN

notable beneficio de la base di ff erencing infinito es que el componente potencial energético

de H es diagonal, requiriendo sólo los valores del potencial en los puntos de rejilla. Nosotros

aproximar las segundas derivadas en el hamiltoniano por

∂ 2X ψ (x, y) ≈ ψ (x - un X, y) - 2 ψ (x, y) + Ψ (x + a X, y) , (2,10)


un 2 X

y lo mismo para ∂ 2 y. La aproximación utilizada para la segunda derivadas de la ecuación. 2.10 resultados

Sólo en acoplamiento-vecino más cercano en el componente de energía cinética de H.

Nuestro objetivo es una representación de la matriz infinita de la función de Green en el sistema.

Tenemos, utilizando la Ec. 2.7 y la matriz para H generada por infinito erencing di ff, una

en fi representación matricial noche para la función de Green (porque el infinito di ff rencia

rejilla que cubre los cables y el sistema tiene un número infinito de puntos de la rejilla). Sin embargo,

podemos escribir la ecuación. 2.7 simbólicamente en la forma

• • • •

• GRAMO l GRAMO
• ls • ( E + iη) I - H l τ •
• • = • • , (2,11)
• • • •
GRAMO sl GRAMO s τT ( E + iη) I - H s

donde hemos denominado elementos de puntos en el sistema con un subíndice s y esos

para los puntos en las derivaciones con un subíndice l. Hemos organizado las filas y columnas

de la matriz de tal manera que podemos dividir en sub-matrices que tratan por separado con
Capítulo 2: El cálculo de propagación de las ondas 24

los cables, el sistema, y ​el acoplamiento entre los dos. El sub-matriz infinita GRAMO s,

tratar con el sistema, es la pieza de interés.

Ahora se deriva una matriz de identidad que vamos a necesitar. Vamos a trabajar en términos de una

matriz general, a continuación, aplicar el resultado a nuestro caso específico. Supongamos que tenemos una

matriz cuadrada UN dividida en sub-matrices


• •

• UN 0 UN 1 •
A= • • , (2,12)
• •
UN 2 UN 3

dónde UN 0 y UN 3 son ellos mismos cuadrado. Dejar que la matriz B = A - 1 ser igualmente

subdividido, con sub-matrices segundo 0 y segundo 3 de las mismas dimensiones que UN 0 y UN 3

respectivamente. Tomando el producto de UN y SEGUNDO, tenemos


• •

• UN 0 segundo 0 + UN 1 segundo 2 UN 0 segundo 1 + UN•1 segundo 3


UN · B = • • = YO. (2,13)
• •
UN 2 segundo 0 + UN 3 segundo 2 UN 2 segundo 1 + UN 3 segundo 3

Un poco de álgebra con este resultado nos permite expresar los elementos de segundo puramente en términos de

elementos de A. Desde la esquina superior derecha,

UN 0 segundo 1 + UN 1 segundo 3 = 0 (2,14)

segundo 1 = - UN0- UN
1
1 segundo 3.
(2,15)

Combinando este resultado con la esquina inferior derecha, tenemos que

UN 2 segundo 1 + UN 3 segundo 3 = yo (2,16)

- UN 2 UN0 UN
-1
1 segundo 3 + UN 3 segundo 3 = yo
(2,17)

segundo
3 = UN 3 -
-1
UN 2 UN - 1 0 UN 1. (2,18)

Similar,

segundo
0 = UN 0 -
-1
UN 1 UN - 1 3 UN 2. (2,19)
Capítulo 2: El cálculo de propagación de las ondas 25

Aunque este resultado no es profundo, no nos permite tratar con partes de una matriz

en aislados unos de otros, y en particular para realizar las inversiones por separado.

Para nuestro sistema, la sub-matriz de la ecuación. ( 2.11 ) Tratar con los clientes potenciales, ( E + iη) I - H l,

tiene un número infinito de elementos en ella. El sub-matriz de tratar con el sistema,

( E + iη) I - H s, tiene sólo un número finito de elementos. Debido a que hemos de fi nida la

división entre los conductores y el sistema de tal manera que todo se produce la dispersión en el sistema, la

soluciones en las derivaciones están viajando olas en modos transversales constantes; con este

simplificación, podemos determinar la inversa

gramo l ≡ [( E + iη) I - H l] - 1 (2,20)

analíticamente; gramo l es la función de Green combinada para los conductores semi-infinito. Nosotros entonces

de fi ne la matriz

σ ≡ τ T gramo l τ, (2,21)

en términos de los cuales

GRAMO
s = EI -
-1
H s - σ. (2,22)

Tenga en cuenta que hemos dejado caer el término iη en esta expresión; que ya no es relevante, ya que es

la matriz σ es en sí mismo complejo y pantanos la infinitesimal iη. Tenga en cuenta que σ es solo

distinto de cero para los puntos del sistema adyacente a los conductores, como la base erencing di ff infinito

sólo las parejas vecinos más cercanos.

La matriz σ se puede dividir en matrices individuales para cada plomo, σ = Σ pag σ pag.

Dejar que los modos transversales de plomo pag ser χ pm( y). Tenemos que

h2 Σ
σ pag( y yo, y j) = - ¯ χ pm( y yo) mi ik pagmetro un X χ pm( y j), (2,23)
2 mamá 2 X metro
Capítulo 2: El cálculo de propagación de las ondas 26

donde el y yo y y j son las y- coordenadas de puntos de cuadrícula yo y j, y k pag metro es la ola

número para una onda que se propaga en el modo de metro de plomo pag [ 15 , § 3,5]. Eq. 2.23 es derivado

por primera usando la expansión de función de base de la función de Green para un semi-infinito

plomo, a continuación, la discretización de la ecuación resultante. Hemos escrito la ecuación. 2.23 para y como el

dirección transversal. Puede ser fácilmente alterado para tener X como la dirección transversal por

el intercambio X 'S y y 'S en toda la expresión.

Para hallar los vectores de onda k pag metro, observamos que la relación de dispersión en la aproximación

mación del infinito di ff erencing nos da

h2
E = ? pm + ¯ [1 - cos ( un X k pag metro)],
(2,24)
mamá 2 X

con pm la energía del modo transversal χ pm. En el límite un X → 0, la ecuación. 2.24 se convierte

la relación de dispersión en el espacio libre familiar. También es importante la expresión de la

velocidad de propagación de una onda en uno de estos modos, ¯ hv = ∂ k MI, lo que nos da

• ) 2 •• 1/2
h h
v pM = ¯ pecado( un Xm)
k pag • 1-( 1 - mi - pm . (2,25)
= ¯
mamá X mamá X h̄ 2 / mamá 2 X
h

2.4 Uso GRAMO - 1 s

Dada una matriz de representación finita de la función de Green, podemos hallar la

elementos de la matriz S se necesita en la fórmula Landauer. Lo hacemos mirando una vez

de nuevo en los modos de plomo transversales, que de fi ne nuestros canales de dispersión.

Considere una onda incidente en el canal yo que incide sobre el sistema de dispersión. Esta

onda nos da un término fuente a lo largo del borde del sistema, lo que nos permite aplicamos el

función de Green para determinar la respuesta del sistema. Podemos entonces proyecto que
Capítulo 2: El cálculo de propagación de las ondas 27

respuesta en los modos dispersos para determinar elementos de S-matriz. En símbolos,

∫ ∫
s ij = ¯ h ( - v yo v j) 1/2 dy dy ' ψ fuera
j ( y) G s ( X r, y; X l, y ') ψ en yo ( y '), (2,26)

dónde X r da la coordenada del borde de la transmisión y plomo X l da la

coordenada del borde de la ventaja incidente. Los términos que aparecen fuera de la

integrales en esta ecuación son necesarios porque las ofertas S-matriz en reflujo, mientras

las integrales se ocupan de la amplitud [ 15 ]. En términos de matrices, que representan el incidente

y los estados dispersos como vectores, que tienen

φ yo ≡ GRAMO s · ψ en
yo ⇒ s ij = ¯ h ( - v yo v j) 1/2 φ yo · ψ fuera
j.
(2,27)

Computacionalmente, invertir una matriz grande es costoso. Elegimos, por lo tanto, para resolver

el problema de una manera ligeramente di ff Erent de que implicaba anteriormente. Podemos determinar

GRAMO
s utilizando los métodos descritos anteriormente; en lugar de invertirla, resolvemos la matriz
-1

ecuación GRAMO - 1s φ i = ψ en yo con φ yo como lo desconocido. Hay paquetes computacionales

a disposición de e fi cientemente resolver este “ Ax = b ”Tipo de problema, explotando la diseminación de

GRAMO
s. 1
-1

2.5 Extensión a Leads múltiple transmisión

Conceptualmente, la forma que hemos descrito anteriormente este método es el más fácil

manera de entenderlo: un solo incidente de plomo y un solo plomo transmisión, todo ello en una

sistema lineal. Sin embargo, este método permite una mayor expansión para incluir cables
1 En este trabajo, he usado el paquete “SuperLU.” Se realiza una descomposición LU de la matriz, mediante intercambios de
renglones para preservar escasez en la descomposición. Esto me permite resolver de múltiples lados derecho sin signi fi cativo
adicional e ff ORT, y así extraer la matriz S completa en un solo paso.
Capítulo 2: El cálculo de propagación de las ondas 28

en los lados del sistema. La extensión matemática es fácil; los cables adicionales

y sus estados transversales apenas un par de otros puntos de la matriz.

Aunque uno puede conectar cables adicionales, no hay que confundir esto con la idea

de añadir “terminales”. Muchos experimentos en 2DEGs generalmente entren en las categorías:

“Dos terminal” y “cuatro terminal.” En un experimento de dos terminales, uno aplica una polarización

voltaje y la corriente medidas entre dos conductores. En un experimento de cuatro terminales,

se pasa una corriente entre dos conductores y mide un voltaje rencia di ff a través de dos

di ff Erent conduce. Estamos llevando a cabo un experimento con claridad numérica de dos terminales con

nuestro formalismo.

Uno tiene mucha más libertad con los conductores de lo que hemos dicho hasta ahora de manera explícita.

Por ejemplo, ninguno de los cables tiene que cubrir todo un lado del sistema. Más

importante, en realidad no es un requisito que los cables sean de la forma descrita

aquí, semi-en dispositivos rectangulares finitos con modos transversales constantes. Mientras

se puede determinar la función de Green para los conductores y los términos de acoplamiento entre

los cables y el sistema, se puede hallar la matriz σ en la ecuación. 2.21 y por lo tanto GRAMO - 1 s.

2.6 Un Ejemplo

Las fórmulas dadas anteriormente están completos, pero sin ver a su aplicación se

son algo abstracto. De hecho, la aplicación de las fórmulas puede ser algo

di fi culto a llevar a cabo, ya que hay muchos índices para mantener recta. Presentamos aquí

un ejemplo con cables laterales, y para ser en general que dejar que esos cables laterales tienen una anchura

di ff Erent que la del sistema. Para mantener las fórmulas un poco tratable, vamos

tomar el sistema a ser discretizado en un tres por tres cuadrícula. Esta configuración se muestra en
Capítulo 2: El cálculo de propagación de las ondas 29

2 conducir

0 1 2

plomo 1
3 4 5 Lead 3

6 7 8

El plomo 4

Figura 2.2: Disposición para el ejemplo de la § 2.6 . El sistema está discretizada en una rejilla de tres bythree, con los
nueve puntos de la cuadrícula según la etiqueta. Hay cuatro cables en el sistema, con 1 y 3 de tres puntos de ancho
y 2 y 4 sólo dos puntos a través. Las líneas discontinuas indican las fronteras entre el sistema y los cables.

Figura 2.2 .

La cosa más fácil que mirar es el potencial. Que no haya un potencial en general V

en el sistema. Como se mencionó anteriormente, la única información que necesitamos sobre este

potencial es su valor en los puntos de rejilla. Nosotros representamos el potencial que el nueve por nueve
Capítulo 2: El cálculo de propagación de las ondas 30

matriz diagonal

• •

• V [ 0] 0 0 ··· 0 •
• •
• •
• •
• 0 V [ 1] 0 ··· 0 •
• •
• •
• •
Vs= • 0 0 V [ 2] ··· 0 • , (2,28)
• •
• •
• .. .. .. .. .. •
• . •
• . . . . •
• •
• •
0 0 0 ··· V [ 8]

dónde V [i] indica el valor del potencial en el punto de la cuadrícula yo.

El siguiente componente a considerar es la energía cinética. Empecemos por de fi nir

Los valores

h2
t x, y ≡ ¯ . (2,29)
2 mamá 2 x, y

Utilizando el resultado de la ecuación. 2.10 , Podemos expresar la energía cinética

K = pag 2 (2,30)
2 metro

h2 ( ∂2 )
=-¯ x+ ∂2 y
(2,31)
2 metro

= - t X [ ψ (x - un X, y) - 2 ψ (x, y) + Ψ (x + a X, y)]

- t y [ ψ (x, y - un y) - 2 ψ (x, y) + Ψ (x, y + una y)] . (2,32)


Capítulo 2: El cálculo de propagación de las ondas 31

Traducido en una formulación de matriz, esto nos da esa


• •

• 0 tX0 ty0 0 0 0 0 •
• •
• •
• •


tX0 tX0 ty0 0 0 0 •

• •
• •
• •
• 0 tX0 0 0 ty0 0 0 •
• •
• •
• •
• ty0 0 0 tX0 ty0 0 •
• •
• •
• •
K s = ( 2 t x + 2 t y) yo - • 0 ty0 tX0 tX0 ty0 • . (2,33)
• •
• •
• •
• •
• 0 0 ty0 tX0 0 0 ty •
• •
• •
• •
• 0 0 0 ty0 0 0 tX0 •
• •
• •
• •
• 0 0 0 0 ty0 tX0 tX •
• •
• •
• •
0 0 0 0 0 ty0 tX0

La matriz para el hamiltoniano en el sistema es entonces sólo H s = K s + V s.

Ahora dirigimos nuestra atención a los clientes potenciales. Tenemos que determinar la transversal

modos en los clientes potenciales, utilizando el mismo discretización utilizada en el sistema. Aquí, sin embargo,

sólo hay que preocuparse de una dimensión. En cuanto a plomo 1, que será más adelante

utilizado como el plomo para nuestras ondas incidentes, volvemos a escribir la matriz de Hamilton como el

suma de una matriz de energía potencial y la energía cinética de una matriz:

• • • •

• V [ 0] 0 0 • • 2 ty- ty 0 •
• • • •
• • • •
• • • •
H1= • 0 V [ 3] 0 • + • - ty2 ty- ty • . (2,34)
• • • •
• • • •
• • • •
0 0 V [ 6] 0 - ty2 ty

Tenga en cuenta la elección que hemos hecho para el potencial en el liderazgo: hemos emparejado

que el potencial transversal a la potencial en el borde del sistema. Aunque somos

de ninguna manera se requieren para tomar esta decisión, si no entonces no será (arti fi cial)

re fl exiones o FF de la discontinuidad en el potencial.


Capítulo 2: El cálculo de propagación de las ondas 32

Esta matriz de tres por tres representa entonces el hamiltoniano unidimensional para

la transversal conduce en el sistema. Resolviendo para los vectores propios y valores propios de

la matriz, obtenemos el conjunto { χ 1 yo , 1 yo : yo ∈ [ 0, 2]} de vectores propios y valores propios. Dado

la energía de nuestra onda incidente, la Ec. ( 2.25 ) Nos da, además, un conjunto de velocidades

{ v 1yo : yo ∈ [ 0, 2]}.

Lead 3 se ve muy similar a como 1 tratada más arriba, así que vamos a mirar ahora en una de las

cables secundarios. Tenemos que

• • • •

• V [ 1] 0 • • 2 tX- tX •
H2= • • + •• • . (2,35)
• • •
0 V [ 2] - tX2 tX

La solución a este problema de valores propios de una dimensión nos da el conjunto { χ 2 yo , 2 yo : yo ∈ [ 0, 1]},

y de éstos obtenemos { v 2 yo : yo ∈ [ 0, 1]}. Tenga en cuenta, sin embargo, que desde este cable tiene X como

la dirección transversal cambiamos X 'S y y 'S en nuestras ecuaciones.

No vamos a escribir todos los términos de la matriz de energía propia, ya que ello conseguir

bastante largo. Veamos uno de los conductores, sin embargo, para ver donde va a contribuir.

Recordemos la ecuación. ( 2.23 ) Para la contribución de la matriz auto-energía de un solo plomo,

h2 Σ
σ pag( y yo, y j) = - ¯ χ pm( y yo) mi ik pagmetro un X χ pm( y j). (2,36)
2 mamá 2 X metro

En cuanto a plomo 1, la y yo y y j será reemplazado por el y- coordenadas de los puntos 0, 3,

y 6 en el sistema. O, más bien, tomamos χ 1 metro( y i) = χ 1 metro[ yo]. La matriz de energía propia voluntad

acoplar los tres puntos entre sí en todas las combinaciones posibles. Mirando a la

matriz energética auto completo de nueve por nueve, vemos que los conductores contribuyen a los elementos
Capítulo 2: El cálculo de propagación de las ondas 33

indicada a continuación:

• •

• 100100100 •
• •
• •
• •
• 022000000 •
• •
• •
• •
• •
• 0 2 2, 3 0 0 3 0 0 3 •
• •
• •
• •
• 100100100 •
• •
• •
• •
• 000000000 • . (2,37)
• •
• •
• •
• •
• 003003003 •
• •
• •
• •
• 100100100 •
• •
• •
• •
• 000000044 •
• •
• •
• •
0 0 3 0 0 3 0 4 3, 4

Ahora tenemos toda la información necesaria para escribir nuestra función de Green inversa,

GRAMO
s = EI -
-1
H - σ. Para aplicarlo, miramos a la Ax = b problema GRAMO - 1 sφi= ψ en yo . Qué,

Sin embargo, hemos de tomar como las ondas entrantes? Ya que GRAMO - 1 s
es una matriz de nueve por nueve,

necesitamos tanto φ yo y ψ en yo a ser vectores de nueve elementos. Vamos a empezar por pedir todo

de los modos de plomo transversales: { χ 10, χ 11, χ 12, χ 20, χ 21, χ 30, χ 31, χ 32, χ 40, χ 41}. Llegamos a la ψ yo

vectores de “relleno” estos estados propios con ceros. Por ejemplo, para el primer incidente

el modo que tenemos que

ψ en
0 = [ χ 10 [ 0], 0, 0, χ 10 [ 1], 0, 0, χ 10 [ 2], 0, 0] .
(2,38)

En los elementos de ψ en 0 que corresponden a puntos adyacentes para dirigir 1, tomamos el valor

de χ 10 en aquellos puntos adyacentes; para todos los demás puntos del sistema, tomamos ceros. Si nosotros

están interesados ​en una onda de salida en el segundo estado de plomo 2, escribiríamos

ψ fuera
4 = [ 0, χ 21 [ 0], χ 21 [ 1], 0, 0, 0, 0, 0, 0] , (2,39)
Capítulo 2: El cálculo de propagación de las ondas 34

usando la lógica similar.

El uso de estos vectores, podemos resolver primera GRAMO - 1 sφ0= ψ en 0. El elemento de la matriz S es entonces

Encontrado por s 04 = ¯ h ( - v 10 v 4)2 media φ 0 · ψ fuera 4. Para obtener la conductancia total del sistema,

tendrá que determinar s ij: yo ∈ [ 0, 2], j ∈ [ 3, 9]. Tenga en cuenta que esto sólo significa la resolución

Tres Ax = b problemas.

2.7 Campo Magnético

Hasta este punto, hemos supuesto que no hay campo magnético presente.

Por supuesto, hay muchos experimentos en los que está presente un campo magnético, tal vez

como el único parámetro independiente disponible (por ejemplo, [ dieciséis ]). Ciertamente uno puede manejar una

campo magnético en la ecuación de Schrödinger, aunque hay complicaciones en la inclusión

una en nuestros cálculos. En primer lugar, uno tiene que hacer frente a la presencia de los cables.

La presencia de un campo magnético en las derivaciones cambia un número de las propiedades de

los cables sobre los que hemos dependido. Por ejemplo, si no se tiene cuidado, el plomo

modos ya no pueden ser descritos por ondas planas que se propagan en fi transversal fijo

modos. Incluso si es así, entonces los modos transversales serán, en general, ya no serán

ortogonal [ 15 ], Y serán ff on diferente para las ondas entrantes y salientes.

Si queremos tomar el campo magnético a cero en las pistas, tenemos que tener una

potencial vector que apunta a lo largo de cada ventaja en que el plomo. Para un sistema rectangular,

eso significa que ~ UN debe ser perpendicular a cada pared del sistema en esa pared.

entonces podemos reducir ~ UN a cero en las derivaciones sin introducir ningún rizo, y por lo tanto

sin ningún tipo de campos magnéticos espurios [ 17 ]. De hecho, podemos reducir ~ UN a cero con una

Paso Función en los bordes del sistema, y ​por lo tanto tener una constante campo magnético en
Capítulo 2: El cálculo de propagación de las ondas 35

el sistema y cero campo en las derivaciones.

Tenemos la restricción adicional de que debemos utilizar una forma continua de fi nido Vec-

tor potencial. Si usamos una fi nida por tramos de ~ UN, habrá falsa re fl exiones o FF de

las discontinuidades, incluso si las diversas piezas corresponden al mismo campo magnético.

Siguiendo [ 18 ], Encontramos un potencial vector continua que satisface nuestra ori- límite

requisito entación y nos da una constante de campo magnético.

Vamos a empezar con un potencial vector ~ UN 0 (~ x) = Por ˆ X. Esto nos da nuestra constante

magnética de campo, y es perpendicular a las paredes en los lados izquierdo y derecho de nuestros

sistema. Observamos que la transformación de norma generada por

f (x ~; theta) = - bxy pecado 2 ( θ) + 1 (2,40)


4 Por 2 - X 2) sen (2 θ)

rotará el potencial vector a través del ángulo θ sin cambiar la resultante

magnética de campo cuando tomamos

~ A (~ x) = ~ UN 0 (~ X) + ∇ f (~ x; θ). (2,41)

No queremos cambiar la orientación del vector potencial sobre todo el sistema,

sin embargo, como ya es correcta a lo largo de dos paredes. Por lo tanto, tenemos que crear una máscara

para esta transformación calibre, una que va a uno a lo largo de las paredes superior e inferior

y para poner a cero a lo largo del paredes izquierda y derecha. Tomando las dimensiones del sistema sea

w X y w Y, podemos tomar

( wy )( wy ) -1

m (~ x) = . (2,42)
y + wywy- y y + wywy- y + wX x + w Xw X - X

Este no es el más bonito de funciones, pero puede ser re-fundido a una forma que no se basa

sobre la cancelación de fi nidades permanecer finito; esto no es más que la representación más simple. Nosotros
Capítulo 2: El cálculo de propagación de las ondas 36

luego tomar

~ A (~ x) = ~ UN 0 (~ X) + ∇ [ f (x ~; π / 2) m (~ x)] . (2,43)

Ahorradores de la álgebra, encontramos que el potencial vector tiene los componentes

X( w y - y) y 2 ( w 2 y X2+ w2 X wy y - w2 X y 2)
UN x = BW 2 (2,44)
[ w y2( w X - x) x + w 2 X( w y - y) y] 2
y( w X - x) x 2 ( w 2 X y2+ w2 y wX X - w2 y X 2)
UN y = - BW 2 . (2,45)
[ w y2( w X - x) x + w 2 X( w y - y) y] 2

Puede ser veri fi que este potencial vector da una constante de campo magnético en el

sistema y, a pesar de ser continuamente definido, es perpendicular a cada una de las paredes.

Punto, cabe destacar que se trata de fi nida unde en las esquinas del sistema. Si bien esto es cierto,

veremos más adelante que sólo necesitamos para evaluar la función entre los puntos de cuadrícula,

no a ellos, por lo que se evitan las esquinas.

Ahora que tenemos un potencial vector de aplicar, echemos un vistazo a lo que vamos a hacer con

eso. El potencial vector entra en las ecuaciones como una modificación de los términos de acoplamiento

entre los sitios de celosía. El acoplamiento se modi fi ed por la exponencial

{ es decir
∫ segundo
}

exp d ~ x · ~A (~ x) , (2,46)
h̄ un

donde integramos desde el punto un apuntar b [ 19 , Vol. 3, p. 21-2]. Vamos a estimar este

integrante tomando ∫ segundo

d ~ x · ~UN ≈ (~ X segundo - ~ X un) · ~A [(~ x a + ~ X b) / 2]. (2,47)


un

Para introducir este acoplamiento para el hamiltoniano de la manera más general, tenemos

{ es decir }

H ij ( A) = H ij ( 0) exp A [(~ x i + ~ X j) / 2] . (2,48)


h̄ (~ x yo - ~ X j) · ~
h
Capítulo 2: El cálculo de propagación de las ondas 37

Observamos primero que, debido a nuestra elección de trabajar en la base di ff erencing infinito, H ij ( 0)

sólo es distinto de cero en la diagonal y de puntos de la rejilla del vecino más cercano. Este hecho no es

cambiado por el potencial a largo plazo del vector, por lo que la diseminación de nuestro problema de la matriz no es

un ff reflejada. En segundo lugar, observamos que los términos de la diagonal no se alteran por la magnética

campo.

La explotación más simple de esta transformación de norma, convirtiendo el campo magnético

o ff con una función de paso en los bordes del sistema, no es ideal. El medidor permite

que hagamos esto sin introducir campos adicionales, pero sí tenemos un problema con

una falta de coincidencia en modo transversal en los bordes del sistema. Como resultado, hay algunos

re fl exiones en los bordes que no tienen significado físico. El e ff ect parece haber

insignificante, siempre que exista una mínima dispersión fi cante físicamente signi pasando en el

mismo tiempo (es decir, sólo es observable si V (~ x) = 0). Una solución más rigurosa, si uno

tiene la intención de evitar el campo magnético en las derivaciones, sería aplicar este indicador y

a continuación, incluir una longitud de cada conductor en el dominio, el uso de estas longitudes para reducir el

potencial vector a cero [ 18 ].


Capítulo 3

El flujo de electrones en simple 2DEG

dispositivos

Una buena parte de los estudios de propagación de ondas en la última década, tanto teórica

y experimental, se han centrado en el comportamiento de los dispositivos mesoscópicos y dos

gases de electrones dimensional [ 20 ]. Un gas de electrones de dos dimensiones, o 2DEG, se forma

cuando una heteroestructura de cristal (normalmente GaAs / AlGaAs) está hecho de tal manera que elecciones libres

trones sienten una posibilidad fuerte con fi nir en una dirección [ 21 ]. Los electrones de modo confinado

son ff e caz reducidos a dos grados de libertad. Dispositivos se forman ya sea por etch-

ing distancia partes del cristal o por acoplamiento capacitivo “puertas” a la 2DEG y

la reducción de la densidad de electrones en las zonas. Actual, entonces se pasa a través del dispositivo,

y la conductancia se puede medir como una función de diversos parámetros externos (por ejemplo,

magnética campo).

En este capítulo, comenzamos a discutir la investigación que se ha realizado en colabo-

oración con los experimentadores en el grupo Westervelt [ 22 , 23 ]. Estos experimentos,

38
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 39

y la teoría correspondiente, han analizado la estructura espacial de electrones fl ow

en un 2DEG. El parámetro independiente en los experimentos es la posición de una

microscopio de fuerza atómica (AFM) punta encima de la muestra, dando resolución espacial a la

experimentos. También vamos a tocar en otro tipo de experimentos que pueden ser simulados

con estos métodos numéricos.

3.1 El QPC

El dispositivo 2DEG prototípico es el contacto de punto cuántico (QPC) [ 24 , 25 , 26 ].

No sólo son los dispositivos más simples (que no sea un sistema totalmente abierto), pero

también son componentes de la mayoría de dispositivos más complejos [ 27 , 28 ]. Este sencillo dispositivo

Es entonces cuando comenzamos.

3.1.1 Suave punto de contacto Modelo

Antes de hacer cualquier modelado de los experimentos de conductancia, necesitamos un modelo

del QPC. Como se describe en el capítulo 2 , La técnica que vamos a utilizar para hallar la

la conductancia a través de la 2DEG sólo requiere que seamos capaces de especificar el valor de

el potencial en cada punto de la cuadrícula. Por tanto, podemos de fi nir una función potencial V (~ r) en

cualquier manera que deseamos. Para duplicar el sistema físico en la mayor medida posible, sin embargo,

construimos una función suave, analítico para modelar el potencial punto de contacto.

Elijamos V de tal manera que V (x, y) = f (x) y 2. Es decir, en cualquier fi jo X el valor

potencial transversal es parabólica. Esto es razonable física y ayuda a nuestra intuición

al hacer la analítica soluciones en una dimensión. Dado que también queremos hacer el
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 40

potencial simétrico alrededor del centro del punto de contacto, podemos escribir en la forma

V (x, y) = mi 2 ω (x) 2 (3,1)


2

con ω (x) 2 una función par, por lo que la relación con las soluciones analíticas en el y

dirección lo más explícito posible. Ahora tenemos que elegir una ω (x); en este trabajo, vamos

tomar


••
• ω 0 ( 1 - 3 | 2 x / l | 2 + 2 | 2 x / l | 3) | 2 x | <l
ω (x) = , (3,2)
••
• 0 |2x|>l

dónde l es un parámetro que determina la “longitud” del punto de contacto, y ω 0

determina el “ancho”. Tomamos

ω 0 = mi F (3.3)
h̄ (N -. 5),
h

dónde norte da el número de modos de puertas abiertas para el QPC. Este potencial tiene la ven-

tajas de ser adiabático como queramos (a través del parámetro l), ir a cero de forma explícita

más allá de una región conocida, y que tiene un número explícitamente controlable de trans- abierto

Modos de verso. Figura 3.1 muestra contornos de esta función potencial.

La característica de excelencia de la conductancia punto de contacto es de cuantificación [ 24 ]. Esta

cuantificación se manifiesta como pasos en la conductancia como una función de la tensión de

aplicada a las puertas que crean el QPC. Relacionando esto con mi modelo de cálculo, se

se cuantizado pasos en la conductancia como una función del parámetro ω 0, hecho

muy explícita por la formulación con NORTE. Aunque este aspecto de la conducta no es QPC

nuestro enfoque principal, sirve como un útil veri fi cación que nuestro método y el modelo

estan trabajando.
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 41

Figura 3.1: contornos de ejemplo de la función de potencial utilizados en este trabajo para modelar el QPC.

El origen de las medidas de conductancia es bastante sencillo de entender. Recordemos la

fórmula Landauer, Eq. 2.8 , Que da a la conductancia como una suma de coef- transmisión

coe fi. En el límite adiabático, no hay dispersión entre los modos como los cables

estrecha en la punto de contacto; es decir, como los modos transversales evolucionan suavemente como

una función de X, una ola en el yo º estado permanece en el yo º estado. La ola es ya sea

reflejada en el mismo modo, o se propaga a través del QPC. Haciendo caso omiso de túneles y

por encima de la barrera La reflexión (que también se suprime en un punto de contacto adiabático),

esto significa que cada coe fi ciente de transmisión T yo es cero o uno. Como el punto

contacto se abre, las energías de la disminución modos transversales; como es- de cada modo

ergy pasa la energía de Fermi, los correspondientes coe transmisión fi ciente cambios desde

cero a uno y la conductancia aumenta en 2 mi 2 / h.

En el límite adiabático, todos los pasos serían aguda y de la misma altura. Para un verdadero

potencial, tenemos que lidiar tanto con un túnel y la mezcla de modos. Ambos ECTS e ff

suavizar los pasos de conductancia. En figura 3.2 , Vemos los pasos de nuestro modelo para una

elección de los parámetros. Tenga en cuenta que, mientras que los pasos iniciales son muy diferentes, este último
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 42

10

6
G (2 e 2 / h)

0
0 2 4 6 8 10
apertura QPC (número de modos)

Figura 3.2: Una demostración de la conductancia cuantificado mostrado por mi modelo computacional. Para los
primeros varios modos, los pasos son bastante agudo, aunque túnel hace generar algo de redondeo. Para los
modos más altos, los ECTS e ff de mezcla de modo y tunelización abrumar al patrón regular paso. El número
de modos que muestran pasos afilados se puede cambiar cambiando la adiabaticidad (el parámetro “longitud”)
del QPC.

pasos son borrosas por las no idealidades.

3.1.2 Método experimental

Ahora que tenemos un QPC numérico que puede ser comparado con los experimentos, nos volvemos

a la configuración experimental. Para la cuantificación sencilla de la conductancia, la independiente

parámetro es el voltaje en las puertas QPC. El paisaje potencial inducida en

la 2DEG por las puertas es estático en un sentido: aunque el voltaje en las puertas puede ser

cambiado, las propias puertas no se pueden mover. Los recientes avances en experimental

técnica y el equipo han hecho posible una medición con resolución.


Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 43

Una punta (AFM) cargado negativamente atómica microscopio de fuerza se puede mantener por encima de la

muestrear, la creación de una protuberancia móvil en el potencial visto por electrones en el 2DEG.

El potencial inducida por la punta del AFM es una protuberancia de Lorentz circularmente simétrica,

centrada debajo de la punta [ 29 ]. La altura de la de Lorentz se determina por el voltaje

de la punta, y su anchura por la distancia desde la punta a la 2DEG. La punta de AFM puede

ser movido, y la conductancia se puede medir como una función de la posición de la punta. Aunque el

conexión exacta entre esta medida y la función de onda de la transmisión

electrones debe ser establecida, no al menos mantienen la promesa de obtener imágenes de la

electrón flujo; es de esperar cierta dependencia | ψ | 2 para la amplitud de la

AFM de correo ff ect. Ver figura 3.3 para un esquema de la instalación.

Figura 3.3: En este esquema de un dispositivo de 2DEG, vemos la configuración básica para nuestras mediciones de
conductancia 2 grados. Los contactos óhmicos se acoplan directamente a la 2DEG, lo que permite una tensión de
polarización a aplicar al sistema y corriente medida. Las puertas, aquí en un quantum punto de contacto con fi guración, se
modelan en la parte superior del cristal y acoplados capacitivamente a la 2DEG. Su correo ff ect puede cambiarse mediante la
variación de la tensión de polarización aplicada entre ellos y el 2DEG. Finalmente, una punta de microscopio de fuerza
atómica (AFM), también acoplado capacitivamente a la 2DEG, se puede mover encima de la muestra.
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 44

Dispersas s-ola
De la onda P de Transmisión

onda plana incidente

Figura 3.4: Una esquemático para el modelo simple bajo consideración en § 3.1.3 . Una onda plana incidente en una
pequeña ranura en una pared da lugar a una onda P transmitida. Un punto dispersor solo da lugar a una s-onda
saliente. Consideramos que la interacción de estas dos ondas en la ranura para determinar reflujo.

3.1.3 Un modelo sencillo

Antes de entrar en las predicciones computacionales y resultados experimentales, es

útil observar un modelo sencillo de construir intuición acerca de lo que podríamos esperar

para ver a medida que avanzamos sobre la punta del AFM. El modelo que aquí se presenta no pretende

dar predicciones cuantitativas de los resultados, sino simplemente para alertarnos sobre alguna

fenómenos para los que buscan.

Un diagrama esquemático del modelo se da en la figura 3.4 . Consideramos una onda plana incidente

en una pequeña hendidura en una pantalla. Que satisface las condiciones de contorno de Dirichlet en la pantalla

y teniendo sólo el término de orden más bajo (la longitud de onda larga o límite hendidura pequeña) para la

onda transmitida, la onda transmitida es una onda P. Esta ranura desempeña el papel de la

punto de contacto en el modelo. A continuación, introducir un único dispersor punto para jugar el

función del potencial de Lorentz bajo la punta del AFM.

Teoría de la dispersión nos da la onda transmitida por completo

ψ (~ r) = φ (~ r) + s (k) G (~ r, ~ r s) φ (r ~ s), (3,4)


Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 45

dónde GRAMO es la función de Green, φ es la onda incidente, ~ r s es la ubicación de la

punto dispersor, y s es una amplitud dependiente de la energía (en dos dimensiones, s (k) =

- ( 8 πk) 1/2 exp [ iπ / 4] f (k) para la dispersión de amplitud f (k) [ 30 , La ecuación. (2,11)]). Estamos en-

TERESADAS en la determinación del reflujo a través de la ranura, con el reflujo encontrado de la plena ψ

por

h
~J=¯ (3,5)
2 im (ψ * ∇ ψ - ψ ∇ ψ *).

La solución para el pleno ψ requiere la función de Green para el sistema con una

pantalla y una hendidura, que no se conoce analíticamente. Teniendo en cuenta que sólo nos interesa

en el UX FL en la ranura, sin embargo, podemos utilizar la función de Green para un simple plano,

G (~ r, ~ r ') = - yo (3,6)
4 H 0 ( k | ~ r - ~ r '|),

dónde H 0 es un saliente Hankel función [ 30 , La ecuación. (2,10)]. Tomamos el incidente φ como

el p-onda. Si utilizamos la función de este verde, la ola que viene o FF del dispersor punto

no satisfará las condiciones de contorno en la pantalla. Ya que sólo miramos a la ola

en la ranura y no están interesados ​en una mayor dispersión de la orden, esta aproximación es

su fi ciente.

En figura 3.5 , Se muestran los resultados con este modelo. El resultado importante es que,

cuando representando el cambio en la conductancia en función de la posición del dispersor, vemos

franjas regulares espaciados a la mitad de la longitud de onda incidente. La onda incidente por sí solo tiene

no hay franjas de intensidad, y la onda completa para cualquier ubicación dada dispersor no tiene

franjas radiales simples.

¿Qué tenemos la intención de tomar distancia de este modelo simple si nos fijamos en los sistemas reales?

En primer lugar, que las características que se observan en la conductancia no necesita estar presente en el ser ola
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 46

UN) SEGUNDO) DO)

Figura 3.5: Estos son los resultados calculados para nuestro modelo simple dispersión de QPC conductancia. Cada
imagen es de cuatro longitudes de onda cuadrada. En (A), mostramos | φ | 2, la onda incidente. Tenga en cuenta que no
hay características en esta onda, distintos de la dependencia angular. En (B), se muestra | ψ | 2 para una única ubicación
del dispersor. La onda resultante tiene características para ella, que la onda incidente interfiere con la onda dispersada.
En (C), se muestra el cambio en reflujo como una función de la posición dispersor (es decir, la intensidad en un punto se
determina por el cambio de reflujo a través de la hendidura cuando el dispersor es en ese punto). En esta imagen, vemos
la influencia de | φ | 2 en la dependencia angular y de interferencia en las franjas de media longitud de onda espaciados.

sondeado. Como se ve en esta demostración, los márgenes observados en el trazado de exploración no necesita ser

representante de flecos en | ψ | 2. En segundo lugar, esperamos ver características en la escala de un

media longitud de onda. Por último, esperamos que cualquier característica observado que tienen un sobre que

está relacionado con | ψ | 2.

3.1.4 Tip Scans

Los experimentos que estamos interesados ​en el modelado de escanear la punta del AFM sobre una

rejilla de dos dimensiones de los puntos y mira conductancia como una función de posición de la punta.

Teniendo en cuenta la esencia del modelo presentado anteriormente, esperaríamos ver una serie de cosas

en estos resultados. Puede haber flecos en los resultados, con una separación de una mitad

longitud de onda, así como un sobre en general debido a la espacial per fi l del electrón

flujo se va a examinar. Por estas ECTS e ff aparezcan en los datos experimentales, los experimentos
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 47

debe satisfacer una serie de condiciones; entre ellos, que la longitud de coherencia en el

material es su fi cientemente largo y que los electrones son su fi cientemente monocromática.

Computacionalmente, tenemos una sola, bien de fi nida de energía y en la longitud fi nita coherencia,

por lo que estos problemas no aparecen explícitamente. 1

Ya hemos visto la forma funcional del potencial QPC, pero aún no han sido

para especificar la forma de la potencial inducida por la punta del AFM. Es un Lorentz

con altura variable y anchura [ 29 ]. La altura de la de Lorentz es controlado por

el (negativo) de tensión de la punta del AFM. La mitad de la anchura de la Lorentzian es igual a

la distancia de la punta de la 2DEG. Como resultado, la configuración experimental impone

un valor mínimo de este parámetro. En los experimentos en consideración, la

distancia de punta a 2DEG tiene un mínimo cerca de 60 nm debido al cristal por encima

la 2DEG. La longitud de onda de Fermi en el sistema es, en comparación, cerca de 40 nm. Esta

significa que el dispersor punto utiliza en § 3.1.3 es una mala representación de la dispersión

centro creado por la punta. Con una media de anchura de 1,5 λ f, la Lorentzian es considerablemente

grosera de las características que esperamos imagen con ella.

En figura 3.6 , Vemos los resultados de cálculo de un Lorentz en dos dimensiones

explorar en busca de un punto de contacto operativo en la meseta de la conductancia primera. Estos datos hacen

mostrar la periferia a intervalos de media longitud de onda, como se esperaba. Tenga en cuenta que estos datos no hacen

comenzar hasta 60 millas náuticas de la QPC. Si la punta está más cerca de la punto de contacto, la cola

del Lorentz se extiende en el contacto, aumenta el potencial en su centro, y se cierra

que o FF. Uno puede ver el principio de este “cross-talk” e ff ect a la izquierda de la exploración.

Las franjas tienen dos características notables. La primera es las franjas concéntricas,
1 Para simular la temperatura finito de los experimentos, podemos realizar cálculos en una serie de energías cerca de la superficie

de Fermi e integrar sobre la distribución térmica.


Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 48

1.5 mi 2 / h 2 mi 2 / h

Figura 3.6: Estos son los resultados de cálculo para la conductancia de un QPC como una función de la posición de
Lorentz. La región de exploración comienza a la izquierda 60 nm de distancia del QPC, y es 300 nm en un lado. La barra
de escala es lineal, pero es evidente que los colores no se aplican de forma lineal; para llevar a cabo las funciones más
pequeños sobre la mayor parte de la imagen, nos concentramos el mapa de color cerca de 2 mi 2 / h. Hay tres cosas para
señalar en la imagen: la región a la izquierda, donde no podemos ver mucho porque el AFM se está cerrando o FF del
QPC, los anillos concéntricos predichos en la medición de la conductancia y la variación de los anillos causados ​por las
ondas reflectante o FF de los lados de la QPC.

reminiscencia del modelo simple con un dispersor de punto y una rendija. El segundo es el

variaciones transversales de estas franjas. Esto puede ser explicado como el e ff ect del segundo

orden cerrado órbitas. en el capítulo 5 , Vamos a discutir la formación de franjas en detalle.

Estas franjas también aparecen en los datos experimentales, una muestra de los cuales se muestra

En figura 3.7 . Aquí, también, los datos comienzan a cierta distancia del QPC, para la

misma razón dada por los resultados computacionales. Los datos no es tan “limpia” como la

a partir de los cálculos, debido a otras características, sin control de la potencial paisajístico

en el 2DEG. Sin embargo, el acuerdo cualitativo es evidente. Cuantitativamente, el

cálculos están de acuerdo tanto con la separación de las funciones y de su magnitud relativa.
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 49

Figura 3.7: Estos datos son de un experimento y son cortesía del grupo Westervelt. Mostramos la conductancia en
función de la posición de AFM, con el QPC en la meseta de la conductancia primera. se incluye un esquema de la
puerta de punto de contacto. No hay datos se muestran en la región donde la punta del AFM se cierra el punto de
contacto. Flecos están separados por λ / 2 ( ≈ 20 nm)
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 50

3.1.5 Teoría de la Dispersión AFM Consejo

La posibilidad demostrado de medición de características en escala media longitud de onda con

nuestra gran Lorentz plantea la pregunta de cómo esto es posible. Nuestra primera pista viene

de algo primero observó experimentalmente: las características medidas desaparecen como el

altura de la de Lorentz se reduce. El control experimental de, y el conocimiento

aproximadamente, la altura de la de Lorentz no es muy grande, pero se observó que reducir a la mitad

el voltaje en la punta (y por lo tanto reducir a la mitad la altura de la de Lorentz) causaron la

características que desaparezcan. Computacionalmente, por supuesto, tenemos un control ner mucho más fi

los parámetros del potencial. En figura 3.8 , Nos fijamos en la conductancia en función

de posición de la punta para una serie de alturas de los picos, a partir de 1,2 mi F y terminando en 0,8 mi f.

Vemos que las características, las cuales comienzan en el orden de 0,05 GRAMO, desaparecen a medida que disminuimos la

altura de Lorentz. Así que está claro, es algo acerca de la presencia de una inflexión clásica

punto en el potencial de Lorentz que es crítica en el cambio de la conductancia de la

sistema.

Otra forma de probar la dependencia de la fuerza de la punta al- potencial

mínimos para una comparación directa con el experimento. La fijación de la tensión en el AFM

y cambiar la distancia entre ella y la 2DEG tiene el e ff ect de la disminución de la

la fuerza del potencial que genera. Los experimentadores establecieron su sis-

TEM y seleccionado un área lo suficientemente lejos del punto de contacto que podrían tener

mediciones sin la AFM un ff ión de la misma QPC. A continuación, realiza dos

escaneos dimensionales de la punta del AFM y se promediaron las señales resultantes, la obtención de una

di ff valor medio de Erent di ff alturas Erent AFM. Podemos ejecutar una simulación donde

reproducimos los parámetros experimentales y realizar las mismas medidas y


Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 51

1.6 2.2
1.4
UN) SEGUNDO) 1.82
1.2

∆ G/x 2 ( 2 e 2 / h λ f2)
1.6
1.4
G (2 e 2 / h)

1.2
0.8 1
0.6 0,81
0.4 0.6
0.4
0.2 0.2
0 0
012345678 3 3,5 4 4,5 5 5,5 6 6,5 7 7,5
X ( λ F) X ( λ F)

Figura 3.8: Estos gráficos muestran la conductancia en función de la posición de la punta para una serie de alturas de
los picos punta. El centro de la Lorentz se encuentra en el y = 0 eje y escaneado en el X dirección, comenzando en el
centro del QPC. curvas sucesivas se les da un conjunto o ff vertical de modo que todos ellos pueden ser vistos (el
desplazamiento horizontal aparente es un artefacto de cambiar punta influencia en el QPC). En todos los casos, la
media anchura de la Lorentz es de 1,5 λ. La curva más alta tiene el potencial punta de AFM en aproximadamente 0,8 mi F
y la curva más bajo lo tiene a aproximadamente 1,2 mi f. En (A), se muestra la conductancia, sin modificar fi ed. En (B),
se muestra una versión modificada ed de los mismos datos, en las que mostramos ((2 mi 2 / h) - G) x 2. La razón de esta
modi fi cación es que la

X - 2 geométrica ff fallo de la señal hace que sea difícil ver lo que está sucediendo durante la última parte de las curvas en
(A). En ambos (A) y (B), observamos la desaparición de características como el pico de la Lorentzian cae por debajo de
la energía de Fermi.
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 52

0.16
UN) SEGUNDO) 0.14
0.12

Average Signal (e 2/ h)
0.1
0.08
0.06
0.04
0.02
0
0 20 40 60 80 100
Altura (nm)

Figura 3.9: Los datos experimentales y computacionales ((A) y (B), respectivamente) para la intensidad de señal
media como una función de la altura de AFM. El acuerdo es bueno, aunque observamos que el ruido llega a dominar
la señal experimental en torno a 0,01 mi 2 / h. En el trabajo computacional, el pico de la punta del AFM potencial es igual
a la energía de Fermi a una altura punta de 25 nm. Esto es claramente en el rango donde está desapareciendo la
señal, y el redondeo se puede entender como sigue. En la teoría y experimento, hay un suave fondo desordenado
potencial presente (discutido en el capítulo 4 ). Cuando el AFM es por un bache en este potencial, el potencial punta
se elevará por encima de la energía de Fermi para alturas por encima de 25 nm. Tomando este e ff ect en cuenta,
esperamos que la señal desaparezca a una altura de 30 nm. Aunque hay alguna señal residual para los potenciales
de AFM de dispersión más débiles, la desaparición de un punto de inflexión clásica es claramente un evento
significativo.

un promedio. Los resultados, mostrados en la figura 3.9 , Muestran un acuerdo sorprendentemente fuerte.

En el caso de las simulaciones, se sabe que el observado la desaparición de la

la señal se lleva a cabo como la protuberancia potencial cae por debajo de la energía de Fermi.

Si vamos a ver un e ff efecto sobre la conductancia, que razonablemente probable

encontrar una onda dispersada de regresar a la QPC. En figura 3.10 , Nos fijamos en la ola real

funciones para los electrones que llegan a través del QPC y dispersan o FF del Lorentz.

Nos fijamos en los modos FF punto de contacto de tres Erent di, ya las tres Erent di ff Lorentz

alturas (una de esas alturas es cero, para proporcionar un punto de referencia). Notamos eso
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 53

el Lorentz por debajo de la energía de Fermi dispersa claramente la onda de entrada, pero hay

es poca interferencia que se remonta en el QPC. Cuando el pico de Lorentz está por encima de la

energía de Fermi, sin embargo, hay una gran interferencia de volver al punto de contacto,

que es la firma que buscábamos para indicar cuando la conductancia debe

ser un fuerte ff reflejada.

3.1.6 Simetría

En el sistema físico, una simetría se observa bajo un cambio en la dirección

del flujo de corriente. Es decir, si dejamos el voltaje en ambos las puertas y la punta de la misma,

y dejar la punta en el mismo lugar, a continuación, cambiando la dirección de la tensión de polarización

a través de la 2DEG no cambia la conductancia medida. Esto es importante

en cuenta, ya que las mediciones se han realizado utilizando corriente alterna y la técnicas de lock-in.

Algunos podrían argumentar que esta simetría es el resultado de la dispersión de los agujeros debido fl

frente a los electrones, ya que en un cristal como este podemos pensar en ser actual

llevado por electrones o agujeros (o ambos). Sin embargo, aparece la misma simetría

trivialmente en un modelo que es estrictamente de un solo electrón propagación de la onda.

Nuestro sistema exhibe tanto la conservación de reflujo y el tiempo de reversibilidad (sin magnética

campos sin embargo, se han introducido). Los resultados anteriores consideración en un scat- unitaria

matriz tering (( s T) * = s - 1), y los últimos resultados en una matriz de dispersión simétrica

( s T = s) [ 9 ]. Supongamos que, para un determinado fi con guración del sistema, tenemos metro estafa-

Modos de conductos a la izquierda de la QPC y norte la realización de los modos de la derecha. Nosotros

el cálculo de la conductancia de izquierda a derecha por la suma

metro - 1 m+n-1
Σ Σ
GRAMO l → r = 2 mi 2 | s ji | 2, (3,7)
h i=0 j=m
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 54

Figura 3.10: Estas cifras muestran | ψ | 2 para los electrones que llegan a través del punto de contacto abierto a uno,
dos, y tres modos transversales, con tres di ff Erent Lorentzians. El centro de la Lorentzian se centra verticalmente y
derecha del centro horizontalmente. Desde la parte superior, tenemos la altura del pico a 0, .75 mi f, y 1,25 mi f. Lorentzianos
medias anchuras son 1,5 λ en cada caso. Tenga en cuenta que es sólo cuando la altura del pico excede mi F que vemos
fuerte retrodispersión al QPC. Tenga en cuenta también que, con la introducción de los modos segundo y tercero,
vemos “lóbulos” que faltan a la punta del AFM y se doblan pero no retrodispersados.
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 55

recordando que la matriz S se conecta a los modos de entrada salientes. Ahora, con el

misma matriz de dispersión, obtenemos la conductancia de derecha a izquierda por la suma

m+n-1 metro - 1
Σ Σ
GRAMO r → l = 2 mi 2 | s ji | 2 (3,8)
h i=m j=0

y, puesto que S es simétrica,

GRAMO r → l = GRAMO l → r. (3,9)

Este resultado no es profunda, pero tiene algunas consecuencias no-intuitivas. Cenar-

plantear que tenemos un sistema con un punto de contacto simétrica y una tensión de polarización CC.

Si colocamos el AFM en el lado de transmisión del sistema, debe ahora ser in-

tuitivo que vamos a tener algún patrón de franjas de interferencia regulares y un sobre

relacionada con la función de onda transmitida. Sin embargo, si colocamos la punta del AFM en el

posición simétrica, debemos tener la misma conductancia. Por lo tanto el mismo patrón

está por ver si escaneamos el AFM en el incidente lado del QPC. Nuestra intuición para el

origen físico del patrón es mucho más turbia en este caso.

3.2 Una cavidad resonante

Antes de las técnicas experimentales fueron desarrollados para la resolución espacial de las elec-

tron flujo, las medidas de conductancia se hicieron con otras variables independientes:

las tensiones en puertas, campo magnético, o energía de Fermi, por ejemplo. Un tal experimento

ment es medir la conductancia de alguna cavidad como una función de estos parámetros,

para estudiar el espectro de esa cavidad, y para extraer información acerca de la dinámica.

Uno de tales cavidad ha sido de particular interés para los grupos Westervelt y Heller

[ 30 , Capítulo 8].
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 56

Figura 3.11: Esta imagen en escala de grises muestra el potencial utilizado para la cavidad resonante en § 3.2 . El
potencial QPC es de la misma forma que hemos considerado hasta ahora. La parte del espejo se define de la siguiente
manera. En primer lugar, encontramos el arco deseado (aquí, 90 grados de arco con el centro de curvatura en el QPC).
Cualquier región a la derecha de este arco se llevará a cabo en algún potencial dado mayor que la energía de los
electrones que entran en el resonador. A continuación, barrer una curva cuártica alrededor del borde de esta región para
hacer la pared blanda; la quartic se elige para que coincida con los valores y derivados de los potenciales a ambos lados
de la pared suave.

La cavidad en cuestión tiene dos componentes (véase la figura 3.11 ). Olas entran a través

un QPC, al igual que hemos considerado anteriormente. Por el lado de la transmisión del QPC

(En este caso, el lado derecho) colocamos un espejo, que es un segmento de un círculo. Podemos variar la

longitud de arco del espejo, así como la ubicación del centro de curvatura. clásicamente,

el sistema es cerrado si el centro de curvatura está a la izquierda de la QPC, abierta si es

a la derecha, y si coinciden marginal.

Este sistema ha sido considerado por el grupo de Heller antes. en [ 31 ], NDS uno fi

cálculos de tren de ondas para el sistema 2DEG, mostrando acuerdo con algún general

características de los resultados experimentales. en [ 30 ], Hersch explora la misma geometría,


Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 57

tanto teórica como en un experimento de microondas de su propio diseño y ejecución.

Se explora la importancia de órbitas clásicas di ff Ractive en la geometría abierta. En

un sistema de este tipo, a diferencia de los experimentos 2 grados, uno tendrá de hecho la fuerte

esquinas que se concentra en, y el acuerdo entre el experimento y la teoría

es muy bueno.

Con estos antecedentes, uno podría preguntarse por qué esta geometría debe ser revisada.

La resolución de las características de [ 31 ] Es su fi cientemente gruesa que no podíamos esperar para mostrar

acuerdo mejor que los cálculos de ondas pequeñas, y ya que estamos tratando con suave

los potenciales de los fenómenos serán ff on diferente que las observadas por Hersch. Existen

varias razones para proceder a pesar de estas limitaciones. Una es simplemente para demostrar

la facultad general de las técnicas desarrolladas para tratar di ff Erent experimental

situaciones. En el futuro, también podríamos abordar cuestiones de pie experimentales,

por ejemplo, cómo se podría usar la sonda AFM para medir la onda estacionaria en una cavidad.

Nuestra razón principal, sin embargo, es sentar las bases para el trabajo en una cavidad con

trastorno liso (explorado en el capítulo 4 ).

Computacionalmente, tenemos más control y libertad en la creación del sistema de

uno lo hace de forma experimental. El inconveniente es que, con la información única acerca imperfecta

el sistema experimental, hay cantidad de control nos permitirá exactamente replicarlo. Lo haremos

Por lo tanto, simplemente elegir un rango de parámetros que produce algunos resultados interesantes.

Vamos a usar el sistema resonador con el QPC que tuvo lugar en un solo modo de apertura - es decir,

en el comienzo mismo de la meseta de la conductancia primera. En este punto, la onda

Sal de este QPC sin impulso longitudinal y estamos en un régimen donde

regresar ondas pueden interferir con la onda de salida (como en el régimen de túneles).
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 58

0.9 1

0.8

0.7

0.6
Transmission

0.5

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10 12 14 dieciséis

Energía (MeV)

Figura 3.12: Aquí vemos la transmisión de la cavidad resonante en una amplia gama de energías, a partir de
cero. Vemos la estructura general que esperamos. A bajas energías, vemos picos individuales
correspondientes a los modos sin nodos angulares y un número creciente de nodos radiales. Para energías
más altas, vemos más estructura que la geometría permite nodos angulares también.

También hacemos el QPC tiempo suficiente para que todo el túnel de otros modos se suprime.

Por último, tomemos mi F como nuestro parámetro independiente y mirar el espectro de una

fi ja cavidad. Hemos establecido el espejo para que el sistema es marginal; es decir, el centro de

curvatura está centrado en la apertura de la QPC (aunque observamos que, para una suave

potencial, esto es un concepto definido fi mal de).

En figura 3.12 , Vemos la curva de conductancia para una amplia extensión de la energía.

Vemos que la conductancia tiene el tipo de estructura que es de esperar, la

picos de conductancia correspondientes a las resonancias de la estructura. Para energías más bajas,

vemos un patrón regular de picos fuertes individuales, aunque hay algunos más pequeños

picos presentes también. La investigación de estos picos fuertes (véase la figura 3.13 ) vemos eso

que corresponden a una secuencia de modos con ningún nodo angulares.


Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 59

Figura 3.13: En esta figura, nos fijamos en las funciones de onda en la cavidad en los picos de conductancia más
fuertes en la figura 3.12 . Estos picos fuertes corresponden a los casos simples de ningún nodo angulares. A partir de
las energías bajas, vemos una progresión gradual en el número de modos radiales existentes en energías que, a escala
adecuada, nos dan la progresión de números enteros cuadrados.
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 60

0.7

0.6

0.5

0.4
Transmission

0.3

0.2

0.1

0
6,4 6,6 6,8 7 7,2 7,4 7,6 7,8 8 8.2
Energía (MeV)

Figura 3.14: Aquí nos fijamos en una exploración ner fi de las energías en una banda estrecha de la figura 3.12 , La exposición de la
estructura resultante de los modos con nodos angulares.

A altas energías, la estructura se vuelve más interesante. Esto es consecuencia de

el acortamiento de la longitud de onda Fermi, y la creciente sostenibilidad de los nodos angulares

en la cavidad. Elegimos una gama de energías de la figura 3.12 y hacer un ner fi

exploración de las energías, que se muestra en la figura 3.14 . Vemos la estructura adicional aquí, y en

Figura 3.15 vemos las ondas estacionarias en la cavidad en los picos en esta transmisión

curva.
Capítulo 3: Flujo de electrones en Dispositivos 2 grados simples 61

Figura 3.15: Estas son las funciones de onda de los picos en la conductancia en la figura 3.14 . A estas energías,
observamos que los picos de transmisión más estrechos corresponden a los modos con los nodos angulares. No
hay modos con un nodo central, según lo dictado por la simetría de la cavidad. El pico de transmisión más débil, la
tercera, es notable, ya que es tiene signi fi cativo amplitud cerca de los bordes del espejo.
Capítulo 4

El desorden y ramificada de electrones

Fluir

En el capítulo anterior, los dispositivos que consideramos tenían particularmente simple

potenciales. Se tuvieron en cuenta sólo la forma del potencial generado por el

puertas electrostáticas y la punta del AFM. Lo que se ha quedado fuera son componentes de la

potencial que están fuera del control del experimentador. Hay desorden en

el cristal 2DEG, lo que lleva a un potencial de fondo bultos que será inevitable

presente en el sistema experimental. Puesto que hemos sido cuidadosos para desarrollar técnicas

que puede manejar los potenciales lisas arbitrarias, podemos desarrollar un modelo para este trastorno

e incluirlo en nuestras simulaciones.

Cabe señalar que, a pesar de la presencia y naturaleza de este trastorno es ge-

ralmente dejado fuera de las simulaciones, los resultados experimentales del grupo tienen Westervelt

puesto de relieve la importancia de considerar este trastorno. Es no sólo está presente, pero

tiene un impacto signi fi cativo en los resultados se ve en la nueva resolución espacial de la conductancia

62
Capítulo 4: El desorden y ramificada flujo de electrones 63

mediciones.

En este capítulo, vamos a empezar por el desarrollo de un modelo de cómo esta desordenada

potencial debería aparecer. Vemos entonces los ECTS ff e incluyendo que el fondo

potencial en nuestros cálculos tiene el flujo de electrones.

4.1 Indicaciones experimentales

A pesar de que todavía no se había discutido, ya hemos visto algunas pruebas de Disorders

der. Haciendo referencia de nuevo a los datos mostrados en la figura 3.7 , Vemos que el de flujo se inclina,

bien lejos del QPC, de una manera que sugiere la presencia de características adicionales en

el potencial. No fue hasta los experimentos probaron la región de flujo de electrones así

lejos del QPC, sin embargo, que el impacto total de este trastorno se hizo evidente.

Mientras que el flujo cerca de la QPC podría ser entendido por una teoría bastante sencillo

mirar los modos transversales del punto de contacto, esta imagen se descompone en el

escala del micrón.

El flujo de electrones a través de distancias más largas se ve que tiene una estructura ramificada, tal como

muestra en la figura 4.1 . El primer sospechoso por una causa es claramente el fondo desordenada

potencial. Si el potencial 2DEG fueron FL en el QPC después, los patrones simples de QPC

modos transversales se mantendrían en todas las escalas de longitud. Por otra parte, podemos ver que el

e ff ect de la enfermedad no es simplemente di ff usive. Si lo fuera, veríamos el “untando

fuera”de características sin la introducción de nuevas estructuras interesantes.


Capítulo 4: El desorden y ramificada flujo de electrones 64

Figura 4.1: En esta figura, vemos los datos experimentales tomadas durante un intervalo relativamente grande más allá
del punto de contacto. Vemos inmediatamente que el patrón espacial de la fl ujo no es simplemente una extensión de los
patrones de modos transversales QPC. Las partes (a) y (b) muestran los resultados en sistemas experimentales di ff
Erent, lo que demuestra que este ramificado flujo es más la regla que la excepción. La flecha en (A) indica la ubicación
de una aparente cáustica, lo que indica que la de flujo ha experimentado algún evento de enfoque.
Capítulo 4: El desorden y ramificada flujo de electrones sesenta y cinco

4.2 Modelo matemático para el Trastorno

Las técnicas que nos permiten calcular la propagación de electrones con el general lisa

potenciales también nos permiten introducir ningún potencial de fondo que queremos. Debemos

primero determinar qué forma este contexto debe tomar. Hay dos ori- física

ginebras de este potencial: impurezas a través de la estructura cristalina, y variaciones

en la densidad de átomos donantes en el plano dopado. Vamos a considerar ambos

contribuciones. Al modelar el potencial desordenada, vamos a tratar de imitar el

sistema físico lo más estrechamente posible. Esto significa que el diseño de un modelo que utiliza la

parámetros físicos del sistema experimental, y deben tener algún medible

cantidades que se pueden comparar con ese sistema.

Vamos a tratar tanto las impurezas y los átomos donantes como cargas puntuales por encima de una

la realización de avión. El potencial e ff reflexivo inducida en el 2DEG será de la forma

h2 re
V (r) = - q ¯ (4,1)
( r2+
2 metro re 2) 3/2,

dónde q es la carga en el átomo de impureza o donante y re es la distancia entre

la carga y el 2DEG; la distancia r se mide en el plano. Llegamos a este

expresión por primera aproximación de la 2DEG como ideal la realización de avión y hallazgo

las variaciones de densidad 2DEG [ 32 , § 3.2.2]. A partir de estas variaciones de densidad, observamos

la densidad de dos dimensiones de los estados de encontrar la variación local en número de onda [ 21 ,

Ch. 1]. Por último, determinar la dirección ff potencial reflexivo implícitos en estas número de onda

variaciones. Debido a nuestra hipótesis de un plano conductor ideales, esta no es la completa

forma del potencial que surgiría en un 2DEG con la movilidad y el portador limitado

densidad. Lo hace, sin embargo, capturar la característica clave de la proyección en el largo alcance
Capítulo 4: El desorden y ramificada flujo de electrones 66

comportamiento [ 21 , Cap. 9]. Ambos de nuestras fuentes de trastorno tienen una carga | q | = mi, el electrón

cargar. átomos donadores están cargados positivamente, las impurezas están cargadas negativamente. 1

Veamos primero a las impurezas. Estas cargas se distribuyen al azar en

el espacio tridimensional con una densidad ρ yo. La densidad de impurezas es en gran parte una

función del proceso de fabricación. Para las muestras utilizadas en los experimentos de interés

para nosotros, ρ yo es su fi cientemente pequeño ( ρ yo ~ 10 14 cm - 3) que ignoramos cualquier correlación entre

cargos.

Las impurezas aparecen a lo largo del cristal, tanto por encima como por debajo de la 2DEG,

por lo que es e ff caz hay límite en lo lejos que pueden ser de la 2DEG. Tampoco, más

importante, de lo cerca que pueden ser para la 2DEG. Los que son su fi cientemente lejos

Del 2DEG tendrán muy amplios potenciales, los bajos. Los que están cerca de la

2DEG, sin embargo, tendrá contribuciones altos y estrechos.

A continuación consideramos los donantes. Estas cargas se distribuyen en una de dos dimensiones

región paralela a la 2DEG (llamado δ- dopaje). La densidad de la lámina en esta capa es σ re,

y para los sistemas bajo consideración σ re ≈ 8 × 10 12 cm - 2. La capa dopante es

22 nm de distancia de la 2DEG. Cabe señalar que este está más cerca que en muchas

experimentos a causa de las necesidades experimentales particulares del grupo Westervelt.

Uno quiere llevar la punta del AFM lo más cerca posible a la 2DEG tener una estrecha

perturbación. Como resultado, la estructura del cristal por encima de la 2DEG se hace más delgada que

de lo contrario es necesario.

La comparación de la densidad de la lámina de átomos donantes para la densidad espacial de impurezas, que

ver que hay un mayor número de átomos donantes significativamente un ff ión de la 2DEG.
1 Los orígenes de las cargas de las impurezas son estados electrónicos localizados. Algunos de los electrones liberados por los
donantes fi nd estas impurezas en la estructura cristalina en lugar de por lo que es a la 2DEG.
Capítulo 4: El desorden y ramificada flujo de electrones 67

La distribución de los átomos donantes en su plano es, sin embargo, de gran importancia. Si

los donantes se distribuyen con uniformidad completa, podríamos razonablemente tratarlos

como una hoja de carga con un simple Entretanto campo e ff ect en el 2DEG. Es inevitable

las variaciones en la densidad de átomos donantes que dan lugar a protuberancias en el fieltro potencial

en el 2DEG.

Aunque los donantes no se distribuirán de manera uniforme, el otro extremo es también

no realizado. La densidad de átomos donantes es su fi cientemente alta que no podemos ignorar

correlaciones y distribuirlos completamente al azar. Estas correlaciones de carga

limitar las variaciones en la densidad, que, a su vez, limita las magnitudes de las variaciones de

el e ff potencial reflexivo. Nos encontramos en [ 33 ] Un estudio auto-consistente de la distribución de

átomos donadores. La fi autores nd una función de correlación para los átomos donantes cargadas, y una

relación de aplicar esta función de correlación a cualquier densidad átomo donante. Utilizamos esta

función de correlación en un simple pero su fi ciente de la moda: se ofrece un máximo local

densidad para los donantes cargadas, que luego que utilizamos para limitar la distribución aleatoria

de los átomos.

4.3 Trastorno de medición

Este modelo para un potencial desordenada tiene la ventaja de tener en cuenta

parámetros físicos del sistema. Podemos entrar en el (al menos aproximadamente) conocidos

densidades de los donantes y las impurezas, y generar un conjunto de potenciales aleatorios.

Un ejemplo de un potencial de este conjunto se muestra en la figura 4.2 . Tenga en cuenta que,

aunque los potenciales son al azar, nos quedamos con ninguna param arbitrariamente ajustable
Capítulo 4: El desorden y ramificada flujo de electrones 68

- 7meV 17meV

Figura 4.2: Aquí vemos un ejemplo del potencial de los trastornos generados por nuestro modelo. se incluyen el
ECTS e ff de las fluctuaciones de densidad de donantes y de impurezas. Los notables ECTS e ff de impurezas
pueden ser vistos como el ocasional fuerte repunte en el potencial, lo que hemos tratado de llevar a cabo con el
mapa de colores. En el potencial real, estos picos más altos que van 17meV, pero los datos han sido picada que
nos permita ver el fondo más suave.
Capítulo 4: El desorden y ramificada flujo de electrones 69

etros. 2 Sería útil, por tanto, para probar el modelo comparando a algún otro

parámetro experimentalmente accesible.

Nos encontramos un parámetro tal en la movilidad μ. Esta cantidad se puede medir

experimentalmente, y tenemos un medio para medir numéricamente también. Hacemos

por lo que el uso de trayectorias clásicas y mirando a la correlación impulso-momento

función. Definimos la cantidad

c (t) = ˆ p (t) · ˆ pag( 0), (4,2)

que nos dice lo bien que la partícula “recuerda” su dirección inicial de propagación.

Dejamos que el tiempo de impulso-relajación τ para un potencial ser definido como el tiempo τ para

que el conjunto promedió 3 < c (τ) > ha caído a un valor de mi - 1. Tenga en cuenta que < c (τ) >

decae exponencialmente con el tiempo, como se discute más adelante en esta tesis (véase, por ejemplo,

Figura 7.1 ). La movilidad se da en términos del tiempo de impulso-relajación de

μ = eτ / m [ 21 , La ecuación. 9,69]. También es útil tener en cuenta una longitud de impulso-relajación

l = v F τ.

Nuestro sistema físico tiene una movilidad en el rango de 10 6 a 4,5 × 10 5 cm 2 / V s. Utilizando el

rangos físicamente aceptables de parámetros del sistema, este potencial modelo consistentemente

produce movilidades en ese rango.

A continuación, nos gustaría caracterizar a los potenciales aleatorios generados por este

método con el fin de compararlos con los de otros métodos. dos medidas

que utilizamos son longitud de correlación y la distribución potencial de altura. En el primer caso,

comenzamos suponiendo que la función de autocorrelación del potencial será


2 Debido a las barras de error en todos los parámetros experimentales, se nos da rangos dentro de los que trabajar.

3 Aquí, “conjunto” significa tanto nuestro conjunto de potenciales de azar y conjuntos de trayectorias aleatorias en esos potenciales.
Capítulo 4: El desorden y ramificada flujo de electrones 70

circularmente simétrica (una suposición razonable, ya que no hemos construido en cualquier preferida

dirección). El número que citamos como la longitud de correlación es la distancia que

uno tiene que viajar radial de la función de autocorrelación para caer o FF a mi - 1 ( el

valor de desplazamiento cero es 1). La longitud de correlación es la respuesta a la pregunta

“En general, la amplitud son las características del potencial?”

La distribución de potencial de altura responde a la pregunta “en general, lo grande que son

las características en el potencial?”Para responder a esto, que recogen el valor del potencial en

puntos en una cuadrícula regular. A continuación hacemos un histograma de estos valores. Si el potencial

es su fi cientemente aleatorio (que se encuentra, cuando se toman durante muchos longitudes de correlación), este

distribución será una gaussiana. Tomamos una desviación estándar de esta Gauss

distribución como la escala de altura del potencial.

Poniendo nuestros valores experimentales en el modelo, los potenciales resultantes tienen

longitud de correlación escalas del orden de 40 nm y las escalas de altura entre diez y

quince por ciento de la energía de Fermi.

4.4 Resultados flujo de electrones

La planificación que se ha puesto en el diseño de las posibilidades y la coincidencia

de parámetros experimentales no era un desperdicio; cuando nos encontramos cuántica de reflujo a través de estos

potenciales al azar, se observó el mismo fenómeno de ramificación visto experimentalmente.

Un ejemplo se muestra en la figura 4.3 .

El uso de los métodos establecidos en el Capítulo 2 , La cantidad de más fácil acceso para nosotros

es la densidad de reflujo de la mecánica cuántica en el sistema. El medi- espacialmente resuelto

surements realizados en los experimentos, sin embargo, de la conductancia como una función
Capítulo 4: El desorden y ramificada flujo de electrones 71

Figura 4.3: Aquí vemos un ejemplo de cuántica de reflujo a través de un potencial desordenada en nuestro modelo. La
imagen superior muestra el potencial, con un mapa de colores que comienza en verde para valores bajos, a través de gris
y de blanco. El QPC aparece en rojo en la izquierda. La imagen inferior muestra el quantum de reflujo a través del
sistema. Estos datos son sobre un área de dos micras de largo por uno de alto micras.
Capítulo 4: El desorden y ramificada flujo de electrones 72

de la posición de punta de AFM. Es razonable suponer que estas dos cantidades se mostrarán

comportamiento similar, ya que la cantidad de retrodispersión de la punta del AFM se nece-

riamente dependerá de la electrónica de reflujo en su posición. Este supuesto debe, sin embargo,

ser probado. Del mismo modo que hemos simulado una exploración de punta para mirar franjas cercanas al QPC en Fig-

Ure 3.6 , También podemos introducir un potencial punta de AFM móvil en un sistema con ramificado

electrones flujo y medir la conductancia. Como se muestra en la figura 4.4 , Encontramos una fuerte Agreement

ment entre las dos cantidades. Este resultado refuerza tanto la reivindicación experimental

ese electrón de reflujo ha sido asignada, y nuestra intención de sacar conclusiones sobre la

sistema experimental basado en cálculos UX fl.

Dado que los potenciales son generados al azar, el objetivo nunca fue reproducir pre

precisamente los resultados de cualquier experimento dado. Sin embargo, nos quedamos encantados al

lo bien que se reprodujeron las características cualitativas. No sólo son las ramas

presente, pero también vemos las mismas escalas de longitud generales para la formación y per-

ruptura de las ramas. En las exploraciones de punta simulados, vemos las características de los datos

similares a las de los datos experimentales.

Un resultado importante de estas simulaciones es la siguiente: comparar el potencial

En figura 4.3 para el flujo a través de él, no se puede hacer una correlación directa ramificado

ción entre las características evidentes del potencial y las ubicaciones de las ramas. En

en particular, no es el caso que las ramas simplemente siguen las zonas bajas de la

potencial, lo que podríamos caracterizar como “canales” que dirigen el fl ujo. aunque hay

son eventos ocasionales, donde, por ejemplo, el de flujo se divide en torno a una impureza aguda

dispersión central, las ramas son el resultado de la dispersión de ángulo pequeño acumulado.

De las dos contribuciones al potencial, la mucho más importante para la ramificación


Capítulo 4: El desorden y ramificada flujo de electrones 73

Figura 4.4: En esta figura, vemos una comparación de la densidad de la mecánica cuántica fl ux (parte superior) y la conductancia
en función de la posición de la punta (parte inferior) para el mismo potencial desordenada. Como era de esperar, la fuerza de la
señal cuando el escaneo de la punta del AFM es dependiente de la densidad de reflujo en la posición de la punta. Las franjas se
ven en la exploración punta no están presentes en el reflujo, también como se esperaba. Estos datos cubren un área de una micra
de largo por .6 micras de altura.
Capítulo 4: El desorden y ramificada flujo de electrones 74

es que a partir de las variaciones de densidad de dopante. Si se quita las impurezas de la

sistema, las ramas permanecen. Ellos pueden cambiar algo en los detalles, pero

siguen presentes y cualitativamente la misma. La eliminación de los dopantes y dejando sólo

la cativamente impurezas signi fi cambia el flujo, sin embargo, y ya no son ramas

presente.

4.5 flujo bifurcado en un campo magnético

Hasta este momento, sólo hemos considerado el fenómeno de flujo ramificado en sis-

tems sin un campo magnético externo. El ECTS e ff de un campo magnético son algo

intuitivo, pero son sin embargo, observar.

En primer lugar, consideremos el e ff ect de un campo magnético sobre el electrón reflujo en sí. En

un sistema con una super fi potencial, el e ff ect del campo sería doblar todas electrones

trayectorias a curvas con algunos radio ciclotrón conocido. Con el trastorno presente,

sin embargo, la dinámica favorecerán algunos caminos más de otros (por lo tanto la naturaleza ramificado

del fl ujo). La competencia entre estas dinámicas de los electrones en el magnética

de campo da como resultado un “trinquete” de las ramas como la intensidad de campo se incrementa, en lugar

que un barrido continuo. Aunque esto es dif'ıcil para transmitir sin una continua

conjunto de imágenes UX fl, la idea se ilustra en la figura 4.5 .

El desplazamiento de las ramas tiene mayores implicaciones para la situación experimental,

ya que la medición de la conductancia accesibles depende de la dispersión. Podemos UN-

compren- dan la correlación entre la conductancia medida y de electrones fl ux por

teniendo en cuenta las trayectorias clásicas. Para disminuir la conductancia del sistema, un tra-

jectory necesita ser dispersada por la punta del AFM y volver al QPC. En la ausencia
Capítulo 4: El desorden y ramificada flujo de electrones 75

Figura 4.5: Aquí vemos dos conjuntos de datos de electrones reflujo densidad, tomadas con los mismos valores desordenados
potencial, pero en dos di ff Erent magnéticos ELD. Para la imagen superior
B = 0, y para la imagen de fondo B = 25mt. Ambos conjuntos de datos cubren un área de dos micras de largo por una
micra alta. Vemos que, cuando se aumenta el campo, las ramas no se doblan de forma continua. Más bien, las ramas
son los mismos a cierta distancia, momento en el que los electrones toman claramente caminos distintos.
Entendemos esto como el e ff ect del campo magnético acumulando hasta que es su ciente para causar FFI
trayectorias para saltar de una rama a otra forma dinámica favorecida. Este trinquete e ff ect continúa como las de
reflujo aumenta, dando lugar a una flexión neto acumulado de trayectorias. También observamos que la densidad de
reflujo se ha desplazado dentro de las ramas presentes, otro correo ff ect que lleva a cabo el doblado neta causada
por el campo magnético.
Capítulo 4: El desorden y ramificada flujo de electrones 76

de un campo magnético, esto significa que la trayectoria debe incidir sobre la punta del AFM

potencial en un ángulo recto con el punto de inflexión clásica y estar dispersos a lo largo de la espalda

sí mismo. invariancia inversión del tiempo garantiza que la trayectoria seguirá el mismo

rama de nuevo al QPC que se utiliza para llegar a la AFM. La colocación del AFM sobre

una rama garantiza tanto una alta densidad de electrones que chocan y una alta densidad de

posibles vías de retorno en el que se dispersen.

En presencia de un campo magnético, se pierde la invariancia de la inversión del tiempo que nos

se usa para describir nuestro proceso de dispersión. La existencia de una trayectoria clásica de

el QPC con el AFM, ya no garantiza la existencia de una vía de retorno.

Pensar en términos de inversión del tiempo, sin embargo, nos señala en la dirección de lo que

en su lugar debe esperar para ver. El conjunto de trayectorias que se puede utilizar para volver a la

QPC del AFM son sólo aquellos que son vistos yendo a la AFM de la QPC

para el opuesto campo magnético. Las condiciones para una señal fuerte, la presencia de

Ambos caminos de salida y retorno, son satis fi cado por aquellas regiones del espacio donde éstos

dos patrones de ramificación se superponen. entonces podríamos predecir que la señal medida

con una punta de exploración se correlacionan con el producto de las densidades de fl ux calculado en tanto

signos del campo magnético. Esta predicción nace mediante simulaciones, como se muestra en

Figura 4.6 .

Esta intuición implica una relación que ya sabemos que es cierto: la señal

que se mide debe ser simétrica en campo magnético [ dieciséis ]. Cambio de la señal de la

campo simplemente intercambia los papeles de los caminos de salida y regreso.


Capítulo 4: El desorden y ramificada flujo de electrones 77

UN)

SEGUNDO)

DO)

Figura 4.6: En esta figura, se muestran los resultados de una exploración punta del AFM simulada en el

presencia de campo magnético. Los datos son más de una gama limitada, la medición de una micra de largo por .6 micras de
altura. En la fila (A), vemos que el fundente y los resultados de un análisis de punta a cero campo magnético. La
correspondencia entre los dos es como se ha visto antes. En (B), tenemos el reflujo en un campo magnético de ±. 1T. (La
interferencia en la esquina superior derecha de la imagen de la primera en (B) es simplemente el resultado de una rama de
golpear la esquina de la rejilla.) En (C), se muestra la raíz cuadrada del producto de los dos conjuntos de datos en (B), y el
resultado de una exploración de punta de AFM simulado a B = . 1T. (Hemos elegido la raíz cuadrada del producto de manera
que, a medida que tomamos segundo → 0, que se reducen a la imagen utilizada en (A).) Esta exploración punta se correlaciona
con el producto, en lugar de a la de reflujo, ya sea en valor real campo. Nos encontramos la misma punta de datos de
escaneado si tomamos B = -. 1T. La característica más interesante de la exploración punta en (C) se aísla isla de señal cerca del
centro de la exploración donde dos ramas se cruzan entre sí.
Capítulo 4: El desorden y ramificada flujo de electrones 78

4.6 Trastorno en una cavidad resonante

Podemos ahora, como se sugirió anteriormente, mirar el correo y siguientes ect que tiene un potencial desordenada

en la cavidad resonante considerado en § 3.2 . En una cavidad, esperamos ECTS e ff notables para

los niveles de desorden que probablemente no se vean en un sistema abierto en nuestras escalas de longitud. los

razón es que los electrones confinados a una cavidad se “vea” el mismo trastorno muchas veces

a medida que rebotan alrededor. Hay tres cosas que consideramos cuando introducimos

trastorno. En primer lugar es que las energías de resonancia de la cavidad se desplazarán, y así los picos

en la curva de transmisión se moverá. En segundo lugar, observamos que el estado cerrado de la

cavidad, especialmente cuando nos acercamos a la marginalidad, es un delicado equilibrio. Pequeños niveles de

trastorno en la cavidad puede destruir fácilmente por las razones indicadas anteriormente. Como resultado,

es de esperar que la transmisión de la cavidad se incrementará a lo largo del

espectro. Por último, la simetría de la cavidad se rompe por cualquier trastorno. Con el

la simetría rota, las olas pueden acoplarse a una nueva clase de modos de la cavidad y que deben ver

nuevos picos aparecen en el espectro de transmisión.

Tomamos la misma configuración cavidad utilizado antes, e introducir gradualmente el trastorno. Un

ejemplo del potencial resultante se muestra en la figura 4.7 . En figura 4.8 , Vemos lo

que ocurre con el espectro en una banda estrecha como se introduce el trastorno. Existen

cinco pasos a medida que aumenta la fuerza trastorno, terminando en 0,05 mi F. Incluso en este nivel de

trastorno, se observa que los picos de conductancia existentes se desplazan y aparecen otros nuevos.

Además, toda la curva de conductancia se eleva, como el cierre geométrico de la

cavidad se pierde. En figura 4.9 , Podemos ver lo que está sucediendo a las funciones de onda en el

Mismo tiempo; para la comparación, tenemos las funciones de onda en los picos de conductancia para

trastorno de cero y para el trastorno a 0,05 mi F. Lo más interesante, vemos que el trastorno
Capítulo 4: El desorden y ramificada flujo de electrones 79

Figura 4.7: Esta imagen muestra el potencial en nuestra cavidad resonante con un fondo desordenado introducido.
Debido a las alturas de los picos en el trastorno son pequeñas (alrededor del 5%) en comparación con la energía
de los electrones que vamos a enviar a través del sistema, el mapa de color de escala de grises se corta o FF y no
vemos la suavidad del espejo y QPC. El radio de curvatura del espejo es cinco longitudes de correlación de la
enfermedad.
Capítulo 4: El desorden y ramificada flujo de electrones 80

ha permitido que nuestro sistema previamente simétrica para acoplar a los modos con un nodo central.
Capítulo 4: El desorden y ramificada flujo de electrones 81

0.9 1

0.8
UN)
0.7

0.6
Transmission

0.5

0.4

0.3

0.2

0.1

0
6,4 6,6 6,8 7 7,2 7,4 7,6 7,8 8 8.2

Energía (MeV)

B2 B6
0.9 1 B7
B3
0.8
SEGUNDO)
0.7
A5
B1 A4
0.6 B4
Transmission

0.5

0.4
A1 A2
0.3

0.2
B5 A3
0.1

0
6,4 6,6 6,8 7 7,2 7,4 7,6 7,8 8 8.2

Energía (MeV)

Figura 4.8: Aquí vemos la evolución del espectro de transmisión de la cavidad como la fuerza de la enfermedad se
incrementa. En (A), se muestran seis curvas, el más bajo (negro) no es por un fondo desordenado y la más alta
(púrpura) es para un fondo en .37meV (0,05 mi F para el centro del espectro), con pasos incluso entre. En (B), se
muestran sólo los dos extremos, y que hemos denominado los picos. Vemos el desplazamiento de los picos (por
ejemplo, A4 B6), la desaparición de los picos (por ejemplo, A3), y la aparición de otras nuevas (por ejemplo, B5)
que se introduce el desorden. También observamos el conjunto e ff ect de la enfermedad para aumentar la
transmisión del sistema.
Capítulo 4: El desorden y ramificada flujo de electrones 82

A1) A2) A3)

A4) A5)

B1) B2) B3) B4)

B5) B6) B7)

Figura 4.9: Aquí vemos las funciones de onda de los picos en las curvas de transmisión de la figura 4.8 (SEGUNDO). La
comparación de los dos conjuntos de datos, observamos dos cosas. En primer lugar, mirando a los picos que están
presentes para las dos curvas, la cantidad que cambia una función de onda está relacionada con la altura y la anchura
del pico de transmisión original (comparar A1 cambiar a B2 con división A2 a B3 y B4). Esto tiene sentido, ya estrechos,
altos picos corresponden a las resonancias más fuertes de la cavidad original, y se podría esperar que éstos serán más
difíciles de destruir. En segundo lugar, para las funciones de onda que cambian de forma significativa y para el que no
está presente en absoluto sin trastorno (B5 es el único completamente nuevo pico desde B1 simplemente se ha
desplazado en este rango de energía), el rencia di ff es principalmente la introducción de una componente con un nodo
central. En el sistema original, simétrica, dichos estados no se les permitió.
Capítulo 5

flecos

Los resultados de la cartografía experimentos de electrones flujo en un 2DEG mostró dos

resultados sorprendentes. El primero era la naturaleza ramificado del flujo, explicado como la

e ff ect de un potencial de fondo desordenado. El segundo era la perseverancia de

franjas de interferencia regulares durante todo el, rango de varios micrones de las exploraciones.

franjas de interferencia espaciados por medio de la longitud de onda de Fermi se esperaba que cerca de

El punto de contacto. A distancias de varios cientos de nanómetros, las diversas energías

presente en el electrón flujo permanecerían en fase entre sí. A medida que uno se mueve

más lejos de la QPC, sin embargo, simples consideraciones sugieren que los diversos

frecuencias se dispersarían y cualquier ECTS ff interferencia e serían lavado.

La supervivencia de las franjas de interferencia se ve en simu- completo de la mecánica cuántica

ciones con el promediado térmica, como se muestra en la figura 5.1 , Por lo que sabemos que una completa

La teoría se reproducirlos. Esta solución completa no, sin embargo, nos dice mucho acerca

el mecanismo que permite a las franjas para sobrevivir.

En este capítulo, comenzamos por explicar por qué uno podría esperar al margen de morir

83
Capítulo 5: Franjas 84

UN)

SEGUNDO) DO)

Figura 5.1: Aquí vemos la supervivencia de franjas de interferencia más allá de la longitud térmica en una simulación
completa de la mecánica cuántica. (A) muestra la mecánica cuántica de reflujo a través del sistema; para una discusión de la
naturaleza “ramificada” del reflujo, véase el capítulo 4 . En (B), hemos introducido un potencial de punta móvil y la
conductancia trama como una función de la posición de la punta. Esta exploración se toma a la energía de Fermi. En (C),
tenemos una exploración promediado térmicamente de la misma región. En esta simulación, ` T ≈ 600 nm (véase § 5.1 ) Y el
borde izquierdo de la exploración es de aproximadamente 1 μ m desde el punto de contacto.
Capítulo 5: Franjas 85

como nos alejamos del QPC. A continuación se presenta un modelo simple para la franja para-

mación, apelando únicamente a fi dispersión de primer orden, que tiene una dependencia di ff Erent

en promedio térmica y muestra que las franjas deben sobrevivir a la fase-coherencia

longitud. También vamos a echar un vistazo a una idea, apelando a la dispersión de orden superior, que

sugiere que las franjas pueden producirse más allá de la duración de la fase-coherencia.

En la raíz de estas discusiones es el modelo que tenemos para el potencial visto

por electrones en un 2DEG. Aunque hemos encontrado que la contribución de los donantes átomo a la

potencial fue el componente más importante para la ramificación, es la impureza contri-

bución que es más importante para la franja. La razón es que sólo las impurezas dan

nosotros los fuertes centros de dispersión, que son necesarios para obtener las ondas que viajan hacia atrás hacia

el QPC.

5.1 La longitud térmica

Hay muchas cantidades Erent di ff se refiere como “longitudes térmicas”, uno de los cuales

juega un papel importante en nuestra comprensión de las franjas de interferencia. Antes de explicar nuestra

la comprensión de la perseverancia de las franjas de interferencia, vale la pena el gasto

un tiempo para explicar por qué fueron inesperados.

Recordemos que las medidas son de la conductancia en función de la posición de la punta.

Hemos demostrado que la señal depende de electrones que se dispersa de nuevo a

el QPC, por lo que tendrá en cuenta las trayectorias con este resultado. Hay tres fuentes de

dispersión a considerar: las puertas, la punta del AFM, y las impurezas en el cristal

estructura. 1 Las puertas son dispersores claramente fuertes, y esperamos que el mismo
1 Por esta e ff ect, ignoramos la pequeña ángulo de dispersión causada por variaciones de la densidad de átomos donantes. Eso
Capítulo 5: Franjas 86

de la punta del AFM, siempre y cuando se crea una región de agotamiento. Los dispersores de impurezas,

sin embargo, tienen comparativamente pequeñas secciones transversales. Aunque podemos considerar múltiples

acontecimientos de dispersión de la AFM y las puertas, esperamos que cualquier señal que implica múltiples

la dispersión de las impurezas a ser insignificante en comparación con una señal de un solo dispersión.

Hay dos maneras de entender la periferia cerca de la QPC. El primero es el

que se utilizó en la construcción de nuestro modelo simple. Si el QPC no tiene canales abiertos,

de modo que todo proviene de la conductancia de un túnel, a continuación, una onda dispersada de vuelta a la

QPC de la AFM puede interferir con la onda y el cambio de la conductancia de salida.

Si hay canales abiertos, que es la situación experimental más común, entonces

la onda de salida es distinguible de la onda de retorno. Aquí, nos fijamos en el

la interferencia de múltiples formas de volver al QPC. Una onda dispersada a partir de la

punta del AFM será, en general, se transmitirá en parte a través de la QPC y parcialmente

reflejada. Esta re fl eja de onda puede esparcir de la AFM nuevo e interferir con el

primera ola volver. Así tenemos, en esencia, una cavidad Fabret-Perot abierta y podemos

entender las franjas de interferencia dentro de ese paradigma.

consideraciones cinemáticas simples sugieren que estas franjas deben morir a una

longitud térmica ` T dada por

` T = ¯ h 2 k 0 / 2 MKT. (5,1)

Esta longitud viene de una consideración de la propagación de las energías presentes en la ex

periments. A pesar de que se llevan a cabo a bajas temperaturas (menos de 4.7K), el

difusión de las energías implícita sigue siendo notable. Encontramos ` T como la distancia a la cual

olas di ff Ering en energía kT se deriva fuera de fase por un radián sobre la ronda

Es poco probable que causaría una ruta más corta que la longitud de eliminación de coherencia para volver a la QPC.
Capítulo 5: Franjas 87

viaje (QPC a AFM y vuelta). Cuando esto sucede, los patrones de interferencia a partir de

las diversas energías presentes serán su fi cientemente fuera de fase uno con el otro que

la señal agregada no tendría ningún patrón de franjas discernible. Las franjas vistos ex

experimentalmente, sin embargo, sobrevivir mucho más allá de este radio. Buscamos otros paradigmas

de la formación de franjas de entender esta observación.

5.2 Dentro de la duración de la fase-Coherencia

Aquí se utiliza un modelo simple, de una sola dispersión para predecir las franjas visto más allá de la

longitud térmica. El resultado depende de transporte de fase coherente en cada individuo

energía presente, y por lo tanto no se aplica más allá de la duración de la fase-coherencia. Nosotros

tendrá en cuenta los eventos de un solo dispersión que implican la AFM y las impurezas que resultan

en ondas de volver al QPC, y la interferencia entre estos diversos caminos.

5.2.1 Promediar térmica

Era la media térmica, una suma sobre las diversas energías presentes en nuestra prop-

agating electrones, que nos dio la longitud térmica y la expectativa de que las franjas

moriría a cabo. En este modelo, tendremos que realizar una ex integrante promedio térmica

implícitamente. El promedio térmica totalmente correcta se logra mediante una integral sobre la energía

con el derivado de la función de Fermi como una función de ponderación. Con el fin de simplificar

la matemática de este modelo, que buscan una aproximación que es una integral sobre

vector de onda con ponderación gaussiana. Para los rangos de los parámetros en este sistema,

una aproximación de este tipo puede ser hecha a un grado aceptable de precisión.

La distribución térmica de energías comienza con la derivada de la Fermi


Capítulo 5: Franjas 88

función a la temperatura conocida T y la energía de Fermi mi F:

f (E) = [ 1 + mi( mi - mi F) / kT] - 1 (5,2)

- F '( E) = [ 1 + mi( mi - mi F) / kT] - 2 1 (5,3)


kT e ( mi - mi F) / kT.

Deseamos aproximar esta función por una gaussiana preservando al mismo tiempo la normaliza-

ción. Podemos hacerlo mediante la adopción de

- F '( MI) ≈ 1 (5,4)


2 π 1/2 kT correo - [( mi - mi F) / ( 2 kT)] 2.

El ancho de esta Gaussian se estableció haciendo coincidir el segundo orden en serie de Taylor alrededor

E = E F para las dos funciones. Si nos vamos a coincidir con el valor en E = E F más bien que

emparejan la normalización, veríamos que las formas de las dos curvas son muy

similar. La normalización no cambia este hecho; simplemente cambia la general

constante. La mayoría del error en esta aproximación viene de este primer paso.

Para transformar este exponencial en una gaussiana k, llevamos a cabo más fi simplificado

cationes. Nosotros tomamos ( mi - mi F

) (k2- k2 ) 2
2
0
= (5,5)
2 kT 4 MKT / ¯h 2
h̄ 4
h
= 0) 2
(5,6)
dieciséis metro 2 ( kT) 2 ( k 2 - k 2

h̄ 4
h [ 4 k2
≈ 0( k - k 0) 2] (5,7)
dieciséis metro 2 ( kT) 2

h̄ 4 k 02
h
= (5,8)
4 metro 2 ( kT) 2 ( k - k 0) 2.

Observamos que, usando la definición de la longitud de la ecuación térmica. 5.1 ,

h̄ 4 k 02
h
(5,9)
4 metro 2 ( kT) 2 = `2 T,
Capítulo 5: Franjas 89

+ 21
Derivada de la función de Fermi
4.5E + 21 5e approximaion de Gauss

+ 21

3.5E + 21 4E
Weighting function

+ 21

2.5e + 21 3e

+ 21

1.5E + 21 2e

1e + 21

5e + 20

0
0,8 0,85 0,9 0,95 1 1,05 1,1 1,15 1,2
k (k 0)

Figura 5.2: A continuación se muestran dos posibles funciones de ponderación para la comparación. En primer lugar es la
verdadera función de distribución térmica, la derivada de la función de Fermi. En segundo lugar es nuestra aproximación, una
gaussiana en número de onda. Las curvas se calculan para
mi F = 16meV y T = 4.7K.

en términos de los cuales tomamos

- F '( MI) ≈ 1 (5,10)


2 π 1/2 kT correo - ( k - k 0) 2`2 T.

Esta es la función de ponderación que vamos a utilizar en la realización de la media térmica.

Lo comparamos con el derivado original de la función de Fermi en la figura 5.2 . Aunque

las dos curvas no son idénticas, es razonable afirmar que los resultados clave de

el modelo no será un ff reflejada.

Deseamos integrar más k más bien que mi en tomando el promedio térmica. Dado

la relación de dispersión E = ¯ h 2 k 2 / 2 metro, tenemos dE = ( ¯ h 2 k / m) dk. Una vez más atractivo para

los valores que aparecerán para k 0 y ` T, podemos aproximar esta relación de dispersión

como lineal en el intervalo de la función de ponderación y tomar Delaware ≈ ( ¯ h 2 k 0 / m) dk. Por lo tanto,
Capítulo 5: Franjas 90

para una señal de s (k, r) en fijada vector de onda, tenemos la señal promediada térmicamente s (r)

dada por


h̄ 2 k 0
h
s (r) = dk correo - ( k - k 0) 2`2 T s (k, r) (5,11)
2 π 1/2 MKT

= π - 1 / 2` T dk correo - ( k - k 0) 2`2 T s (k, r). (5,12)

5.2.2 El modelo único de dispersión

Este modelo está diseñado para tener las matemáticas simples para que podamos expresar una

resultado analítico. Las aproximaciones hechas no tienen ningún efecto sobre e ff los resultados cualitativos,

y la pequeña e ff efecto sobre los resultados cuantitativos. Simplificamos las matemáticas mediante el uso de mi ikr

en lugar de las funciones de Bessel para las dos dimensiones ondas S. Nosotros asumimos que la dispersión

amplitudes proporcionales a la longitud de dispersión para cada dispersador, y un desplazamiento de fase

igual a la longitud de dispersión del número de onda. La cantidad de interés es el

reflujo a través del punto de contacto como resultado de la dispersión. Buscaremos

interferencia constructiva o destructiva de las ondas que regresan en el punto de contacto,

y tomar esto como nuestra señal.

Tome una distribución aleatoria de dispersores de onda s (las impurezas) en los puntos { r yo}

con la dispersión de longitudes { un yo}, y asumir transporte de fase coherente sobre la redonda

distancias de viaje. Deje que la onda de la QPC ser justo r - 1/2 mi ikr, y la onda dispersada

de un dispersor punto, medida en el QPC, ser ( California yo/ r yo) mi ik ( 2 r i + un yo). Que hemos llamado la

constante de proporcionalidad entre la longitud de dispersión y la amplitud do. El actual

valor de esta constante dependerá de los detalles de los potenciales de dispersión irrelevantes a

Este modelo. Tenga en cuenta también que hay dos factores de r - 1/2 yo
, uno de los siguientes del fallo

de onda que ilumina el dispersor y uno para el ff fallo de la onda dispersada, y que
Capítulo 5: Franjas 91

los avances de fase por la distancia de ida y vuelta, más el desplazamiento de fase. Deje que la punta esté en

un radio r t y tienen la longitud de dispersión un t, dando una ola rendimiento similar. Finalmente,

para simplificar la notación, vamos definen r ' yo ≡ r i + un yo/ 2.

La onda de retorno completo en una sola energía es

Σ California yo
mi 2 ikr 'i+ California tmi 2 ikrt.' (5,13)
yo
r yo rt

Estamos interesados ​en la señal de retorno, por lo que tomamos la plaza absoluta de esta onda.

Nos concentramos en los términos cruzados, lo que dará lugar a las oscilaciones con r t.

Los términos cruzados son

[Σ ]
do 2 un yo un t
s (r, k) = 2 Re mi 2 ik (r yo' - r ' t) . (5,14)
yo
r yo r t

Debemos tomar nota en este punto de los términos que estamos descuidando. En primer lugar,

son los términos independientes de r t. Ya que en cualquier sistema físico estaríamos detectando

un cambio en la conductancia, esta constante de fondo simplemente se cifra en nuestra

base. En segundo lugar, existe el término do 2 un 2 t / r 2 t, una señal monotónica generalmente esperado

independiente de energía.

Ahora necesitamos térmicamente promedio de esta señal utilizando la Ec. ( 5.12 ). el térmicamente

señal promediada, promediado después de la cuadrada absoluta de modo que es una suma incoherente, es
[∫ ]
Σ do 2 un yo un t
s (r) = 2 π - 1 / 2` T Re dk correo - ( k - k 0) 2`2 T mi 2 ik (r yo' - r ' t) . (5,15)
yo
r yo r t

Tenga en cuenta que podemos llevar la selección de la parte real fuera de la integral, ya

todos los demás términos en la expresión son reales. Llevamos la parte imaginaria a través de la

promedio térmica, ya que hace más fácil la integral. Realización de la gaussiana resultante

integrante, tenemos
[Σ ∫ ]
do 2 un yo un t
s (r) = 2 π - 1 / 2` T Re dk correo - ( k - k 0) 2`2 T mi 2 i (k - k 0) ( r ' yo - r ' t) mi 2 ik 0 ( r 'yo
'yo - r ' t)

yo
r yo r t
Capítulo 5: Franjas 92

(5,16)
[Σ ∫ ]
do 2 un yo un t
= 2 π - 1 / 2` T Re mi 2 ik 0 ( ryo' - r ' t) dk correo - ( k - k 0) 2`2 T mi 2 i (k - k 0) ( r ' yo - r ' t)
yo
r yo r t

(5,17)
[Σ ]
do 2 un yo un t
= 2 Re mi 2 ik 0 ( ryo' - r ' t) mi - ( r 'yo
'yo - r ' t) 2 / `2 T
. (5,18)
yo
r yo r t

Tomando la parte real, nos queda

do 2 un yo un t
s (r) = 2 Σ cos [2 k 0 ( r 'yo - r ' t)] mi - ( r '
yo - r ' t) 2 / `2 T. (5,19)
yo
r yo r t

Vemos el siguiente en este resultado. La onda dispersada de la punta interfiere con

el fondo de las ondas dispersas de las impurezas. Después de la media térmica,

la mayor parte de la señal resultante está perdido. Las piezas que sobreviven a la media son contri-

buciones de los dispersores que se acercan del mismo radio 2 desde el QPC como es

la punta. A pesar de que podemos tener una señal cuando r ' t> `T, la longitud térmica todavía juega

un papel en la que se determina la anchura de la banda alrededor r ' t que contribuye a la

promediado térmicamente señal.

Tenga en cuenta que los márgenes previstos por este modelo se encuentran en la mitad de la longitud de onda de Fermi,

como se observó. Además, las franjas estarán orientados perpendicularmente a la dirección

del flujo de electrones, como se observa también.

En figura 5.3 , Mostramos ejemplos de s (r) a dos temperaturas para la misma distri-

bución de dispersores. Para hacer la señal más fáciles de observar, dividimos el total

la dependencia radial de la fuerza de la señal. A partir de la ecuación. 5.19 determinamos que existe

una limpieza r - 2 dependencia. Sin embargo, hay un factor menos obvio de r 1/2 esto parece

así, dando la intensidad de la señal de un general r - 3/2 dependencia. los r 1/2 viene de
2 Para ser totalmente correcta, hay que sustituir “longitud de trayectoria” para “radio”.
Capítulo 5: Franjas 93

una dependencia de la densidad de la señal. Si tomamos simplemente la suma σ de norte cosenos de

fase aleatoria, se encuentra que <| σ | > α norte 1/2. Tomando nota de que el número de dispersores en

nuestra ` T - aumentos de banda ancha aproximadamente de forma lineal con el radio, tenemos una resultante

r 1/2 Modificación de la fuerza marginal.

La variación radial de la fuerza franja sugerido por este modelo es, por desgracia,

hecho dif'ıcil para observar experimentalmente por otras variaciones de intensidad de la señal. Ex-

periments se planifican y realizan que debe proporcionar más directo actualmente

evidencia de este modelo [ 34 ].

5.2.3 Límite Continuum solo Dispersión

Si cambiamos la suma en la ecuación. ( 5.19 ) A una integral sobre el plano y dejar un i = un ∀ yo,

vamos a partir de un sistema de centros de dispersión discretos a una aproximación continua con

densidad constante. Tenemos

∫∞ ∫π

dr r cos
dθ 2 do 2 Automóvil club k 0 ( r ' -t
[2británico r' t)] mi - ( r ' - r '
t) 2 / `2 T

0 0 rr t
{∫ ∞ ∫π
}

Re = Dr mi club
dθ 2 do 2 Automóvil r ' - r ' t) mi
2 ik 0 (británico t
- ( r' - r' t) 2 / `2 T
(5,20)
0 0 rt
{∫ ∞ }

Re
= 2 πc 2 Automóvil club británico t Dr e 2 ik 0 ( r ' - r ' t) mi - ( r ' - r ' t) 2 / `2 T
(5,21)
rt 0
{∫ ∞ }

Re
= 2 πc 2 Automóvil club británico t Dr e 2 ik 0 [ r - ( r ' t - un/ 2)] mi - [ r - ( r ' t - un/ 2)] 2 / `2 T (5,22)
rt 0

do 2 Automóvil club británico t


= π 3 / 2` T mi - k0`22 T { 1 + Re [erf ( ik 0` T + ( r ' t- un/ 2) / ` T)]} . (5,23)
rt

La expresión de la función de error es oscilatoria, pero acotado en magnitud.

Como resultado, el término dominante para la magnitud de esta señal es la exponencial

mi - k0`22 T. Para los valores aplicables en los sistemas físicos que hemos considerado,
Capítulo 5: Franjas 94

10
17 K
9 1.7 K

8
UN)
7

6
Signal Envelope

0
0 1 2 3 4 5 6 7 8 9 10
radio ( μ metro)

1.7 K
5

SEGUNDO)
3

1
Signal

-1

-2

-3

-4

-5
0,5 0,6 0,7 0,8 0,9 1 1,1 1,2 1,3 1,4 1,5
radio ( μ metro)

Figura 5.3: Aquí vemos ejemplos de la señal generada por la ecuación. 5.19 . En todos los casos, mostramos r 3/2 s (r). En
(A), tenemos las envolventes de la señal a dos temperaturas di ff Erent para la misma distribución de dispersores. Los
dispersores tienen una densidad de 40 μ metro - 2,
y λ 0 = 40 nm. Estos demuestran cómo la longitud térmica disminuido a temperaturas más altas da como resultado
una señal más pequeña con variaciones más rápidas con radio. En (B), se muestra la señal en 1,7 K en un rango
más como que escaneada experimentalmente.
Capítulo 5: Franjas 95

esto es extremadamente pequeña; en este límite continuo, la señal desaparece. 3

Hay razones para ser escépticos acerca de este límite continuo. En particular, se asume

una distribución completamente uniforme de dispersores sobre el plano. Este supuesto es

en oposición a la aleatoriedad de los sistemas de interés. Ya sabemos de

la teoría de dispersión múltiple que una distribución tan regular simplemente puede aparecer como una

significa campo, e ff caz “elevar el piso” del potencial sobre el cual los electrones

propagar.

Además, este cálculo continuo límite nos dice nada acerca de cómo se

se acercó límite. Como se señaló anteriormente, simplemente tomando el modelo de dispersión simple

en la ecuación. ( 5.19 ) Y el aumento de la densidad re de dispersores sin ninguna correlación en su

resultados de colocación en una re 1/2 dependencia de la intensidad de la señal. Es evidente, sin embargo, por lo

algunos densidad el modelo de dispersión simple deja de ser un uno útil. Múltiple de dispersión

Los cálculos han mostrado que, para las densidades de los dispersores aquí considerados, la sola

dispersión aproximación es apropiado. Como la densidad de dispersores aumentos y

la dispersión múltiple se vuelve más importante, la señal deja de ser tan fácil de

entender [ 35 ].

5.3 Dispersión múltiple y la eliminación de Coherencia

Longitud

Otro modelo que podría dar cuenta de franja más allá de la longitud térmica es uno

que apelan a la dispersión de orden superior y la formación de resonancias locales. Si


3 Tenga en cuenta que la matemática es simple, pero la respuesta es incorrecta si se toma la integral sobre r en el rango ( -∞, ∞).
Capítulo 5: Franjas 96

la punta está dentro de la longitud térmica de impureza (e, implícitamente, dentro de la fase transitoria

longitud de coherencia), entonces una resonancia puede formar entre los dos. La naturaleza de esta

resonancia podría entonces o bien mejorar o suprimir back-dispersión al QPC, por lo tanto

el cambio de la conductancia medida.

Este modelo fue finalmente rechazado como una explicación de los flecos que nos

estaban viendo porque no podía explicar adecuadamente la orientación de las franjas

perpendicular al electrón local de reflujo; franjas de este modelo se centran en

la impureza locales que participan en la resonancia. Una consideración de este modelo dirigido

nosotros a la conclusión, sin embargo, que puede ser posible observar franjas de interferencia

no sólo más allá de la longitud térmica, sino también más allá de la duración de la fase-coherencia.

La pérdida de información de fase entre el QPC y la punta no tiene e ff ect en el

resonancia local en cuestión. La intuición detrás de esto debe resultar familiar

estamos acostumbrados a la idea de medir las propiedades de los sistemas coherentes con

equipo en el laboratorio, lo que implica mucho más incoherente de transporte coherente.

Tenga en cuenta que, en el límite considerado, una señal dependiente de la dispersión múltiple

O ff de impurezas debe ser considerablemente más débil que otro de dispersión simple. En

la región en la que el modelo de dispersión simple explicado anteriormente es aplicable, nos

esperar que el mecanismo de dominar. Sólo más allá de la duración de la fase-coherencia, donde

el modelo de dispersión simple falla, esperaríamos que esta contribución múltiple de dispersión

ser visto.

En una dimensión, podemos trabajar explícitamente lo que está sucediendo con la dispersión BE-

yond la duración de la fase-coherencia. Los resultados de esta manera son simples, pero su ciente FFI

para hacer nuestro punto. Vamos a trabajar en la matriz de transferencia (T-matriz) formalismo (ver
Capítulo 5: Franjas 97

[ 21 , Cap. 5] para una discusión más completa). Este es otro método de matriz de la matriz,

además de nuestro S-matriz, para la descripción de la dispersión en términos de canales. Mientras

la S-matriz conecta modos entrantes a los modos de salida, se conecta el T-matriz

Modos de entrada y salida en un lado del sistema de entrada y de salida

modos en el otro lado. Por ejemplo, teniendo en cuenta el dispersor Q En figura 5.4 , nosotros

tendría
• • • •

• segundo
• • UN •
• • = SQ • • , (5,24)
• • • •
do ' re '

pero

• • • •

• do ' • • UN •
• • T =Q • • . (5,25)
• • • •
re ' segundo

La misma información está contenida en la S-matriz y la matriz T, y una lata

transformar entre los dos. La ventaja del formalismo de transferencia de matriz es que

la matriz de transferencia para un sistema de material compuesto puede ser construida por la matriz multiplicación

ción de la transferencia matrices para los componentes.

Si se resuelve para la transmisión y reflexión coe fi cientes de un sistema, que requiere

conservación ux fl, NDS uno fi que los elementos de la matriz de transferencia pueden ser escritos

en la forma
• •

• 1 / t*r*/ t* •
T= • • , (5,26)
• •
r/t 1/t

dónde t y r son complejos e incluyen información de desplazamiento de fase, y la transmisión

y reflexión coe fi cientes están dadas por T = | t | 2 y R = | r | 2. ( Tenga en cuenta que estamos escribiendo

la matriz de transferencia como “T” para evitar la confusión con el Coe transmisión fi ciente “ T. “)
Capítulo 5: Franjas 98

Q T S

en Letras DO' DO'' do

licenciado RE' RE'' re

X
0 X1 x 1+ x 2

Figura 5.4: Aquí vemos la configuración de dispersión unidimensional descrito en § 5.3 . Los dispersores etiquetados Q,
UN, y S están jugando los roles del QPC, punta de AFM, y dispersor impureza respectivamente.

Tengamos definen la matriz


• •

• mi iφ 0 •
A (φ) = • • . (5,27)
• •
0 mi - iφ

Esta matriz es la matriz de transferencia para la propagación en el espacio libre, donde la ola

acumula una fase φ. Esta matriz es útil porque nos permite tratar cualquier dispersor

como si se encuentra en el origen; nos limitamos definen la matriz T yo( X yo) para un dispersor

situado en la posición X yo y tomar

T yo( X i) = UN - 1 ( kx yo) T yo( 0) A (kx yo). (5,28)

Observamos que la forma simple A (φ) nos permite escribir UN - 1 ( φ) = A ( - φ) y A (φ 0 +

φ 1) = A (φ 0) A (φ 1). Suponiendo que el transporte de fase coherente, que ahora puede escribir el T-

matriz para el sistema completo en la figura 5.4 como

T CCT = UN - 1 ( kx 1 + kx 2) T S ( 0) A (kx 1 + kx 2) UN - 1 ( kx 1) T T ( 0) A (kx 1) T Q ( 0)

(5,29)

= UN( - kx 1) [ UN( - kx 2) T S ( 0) A (kx 2) T T ( 0)] A (kx 1) T Q ( 0) (5,30)

≡ UN - 1 ( kx 1) T S T ( 0) A (kx 1) T Q ( 0), (5,31)


Capítulo 5: Franjas 99

trabajando de derecha a izquierda según lo dictado por la definición de los T-matrices. Vemos eso

el formalismo nos permite tratar el sistema dispersor y la punta separada de su

interacción con el QPC. Ahora podemos introducir desfase en el siguiente sencillo

manera: que añadir una fase adicional, al azar para que acumulado entre el QPC

y la punta. Es decir, se sustituye la matriz A (kx 1) con A (kx 1 + φ) y UN - 1 ( kx 1)

con UN - 1 ( kx 1 + φ), dónde φ es una variable aleatoria con una distribución P (φ, x 1).

Se incluye una dependencia X 1 porque esperamos que la distribución de ampliar a medida que

propagarse a grandes distancias. Suponemos que tenemos el transporte de fase coherente

sobre la distancia X 2 entre la punta y el dispersor.

Veamos primero en el caso genérico,

T BA = UN - 1 ( α) T segundo A (α) T A. (5,32)

Con la acumulación fase general α, vamos a ser capaces de aplicar esto a nuestro subsistema

T S T y, a su vez, el sistema completo. Nos encontramos que

)
t -BA1 = ( t segundo t UN) + ( mi 2 iα r segundo r * UN
( t segundo t * UN) - 1 (5,33)

tomando el múltiple de matriz y simplificar. Para simplificar la notación, vamos definen

t j = T 1/2 j mi iδ j y r j = R 1/2 j mi iρ j. A continuación, encontramos la transmisión de coe fi ciente como

T UN T segundo
T BA = | t BA | 2 = (5,34)
1 + R UN R B + 2 ( R UN R SEGUNDO) 1/2 cos (2 α + 2 δ A + ρ segundo - ρ UN) .

Tengamos definen Φ licenciado en Letras ≡ 2 δ A + ρ segundo - ρ UN para acortar la expresión algo a

T UN T segundo
T BA = (5,35)
1 + R UN R B + 2 ( R UN R SEGUNDO) 1/2 cos (2 α + Φ LICENCIADO EN LETRAS) .

Usando la ecuación. 5.35 , Podemos hallar la expresión de la conductancia de cualquiera de una manera coherente

o un sistema incoherente. Veamos primero en la parte coherente,

T S T ( 0) = UN( - kx 2) T S ( 0) A (kx 2) T T ( 0). (5.36)


Capítulo 5: Franjas 100

La transmisión de este sistema es la Ec. 5.35 con α = kx 2 y la sustitu- apropiado

tuciones para la transmisión y coe fi cientes reflexión del Consejo de Europa:

TT TS
T ST = (5,37)
1 + R T R S + 2 ( R T R S) 1/2 cos (2 kx 2 + Φ S T ) .

Esta es la expresión habitual de resonancia-túnel, como era de esperar. Observando ahora

la parte incoherente, es necesario tomar α = kx 1 + φ y llevar a cabo nuestra integral sobre la

función de distribución de fase aleatoria P (φ, x 1). Trabajando a partir de la definición de T STQ en

Eq. 5.31 ,

∫ ∞ -∞ dφ
T Q T S T P (φ, x 1)
T CCT = (5,38)
1 + R Q R ST + 2 ( R Q R S T ) 1/2 cos (2 φ + 2 kx 1 + Φ CCT) .

Supongamos que estamos mucho más allá de la duración de la fase-coherencia, y podemos razonable-

hábilmente aproximada P (φ, x 1) como una constante; es decir, es igualmente probable que cualquier fase. Tomando

ventaja de la naturaleza angular de la fase, podemos escribir esto como

∫2π
TQ TST/ 2 π
T CCT = dφ (5,39)
0 1 + R Q R ST + 2 ( R Q R S T ) 1/2 cos (2 φ + 2 kx 1 + Φ CCT)

= TQ TST . (5,40)
1 - RQ RST

Esta expresión también debe resultar familiar; podríamos escribirlo de primera princi-

ples, teniendo en cuenta la transmisión de dos barreras ignorando ECTS ff interferencia E (es decir, una

infinita suma de términos para varios rebotes entre las barreras).

Por lo tanto, el formalismo de la transferencia de la matriz nos muestra que el sistema en su conjunto se comporta

como era de esperar: tenemos resonancia entre dispersor y la punta que no le importa

incoherentes sobre el transporte de regreso al QPC. La combinación de sistema resonante

y QPC se comporta como un sistema de transmisión simple sin ECTS ff interferencia e, y

las franjas de la resonancia sobrevivirán.


Capítulo 6

La estabilidad y la Matriz de Estabilidad

Hay varias herramientas que están disponibles cuando uno trata con tra- clásica

jectories en lugar de ondas de la mecánica cuántica. Una de esas herramientas es el análisis

de la matriz de la estabilidad, y la información que lleva sobre comportamiento local [ 36 ,

Curso 9].

La matriz de la estabilidad se ve generalmente como se aplica en los sistemas con órbitas periódicas.

Parte del objetivo de este capítulo, además de detallar una derivación de la estabilidad

ecuaciones matriciales que pueden ser más claras que las ven generalmente, es destacar la

errores que se pueden hacer si se tiene estabilidad periódica órbita e ingenuamente se aplica en

un sistema sin órbitas periódicas.

Empezamos viendo lo que la matriz de estabilidad METRO nos habla de una clásica

trayectoria. Con este entendimiento, encontramos una expresión para la matriz de estabilidad en

un contexto sencillo con el tiempo discretizado. Tomando la discretización a cero, llegamos

en el di ecuación ff diferencial a ser resuelto por los elementos de la matriz de estabilidad. Nosotros

luego tomar un segundo vistazo, llegando a la misma ecuación diferencial di ff por una más directa

101
Capítulo 6: Estabilidad y la Matriz de Estabilidad 102

pero tal vez menos clara ruta. A continuación, nos fijamos en algunas propiedades de la matriz de estabilidad

que será útil en la comprensión de la misma. Por último, nos fijamos en lo que nos dice esta matriz

sobre trayectorias periódicas y no periódicas trayectorias.

6.1 Dinámicas locales

La matriz de estabilidad nos dice acerca del comportamiento dinámico local a un determinado trayec-

conservador. La idea de la “dinámica local” es bastante simple. Dada una trayectoria de referencia

propagándose a través de un cierto potencial complicado, nos preguntamos qué está sucediendo a otra

trayectorias “cerca” de la referencia. La noción de “proximidad” aquí es en el sentido de

el barrio de la trayectoria de referencia en el espacio de fase. Sin embargo complicada

el potencial, no será, en general, ser algún entorno suficientemente pequeño que podemos

hacer aproximaciones lineales de la dinámica. La matriz de estabilidad describirá aquellos

linealizadas, dinámicas locales. Hay que tener cuidado al observar que la matriz de Estabilidad,

por lo tanto, ser una propiedad asociada con una trayectoria individual. Además, es

una cantidad dependiente del tiempo.

Hagamos la pregunta más concreta. Definimos una trayectoria en norte espacial

dimensiones que

~ x (t) = (q 0 ( t),. . . , q norte - 1 ( t), p 0 ( t),. . . , pag norte - 1 ( t)) . (6,1)

Es decir, hacemos un seguimiento de la ubicación de la trayectoria en un total de 2 NORTE- espacio de fase dimensional.

La fi especificación de todos los 2 norte coordenadas en cualquier momento es su ciente FFI para especificar una trayectoria.

Deje una trayectoria ~ X 0 ( t) nuestra trayectoria de referencia, y dejar una segunda trayectoria ~ x (t)
Capítulo 6: Estabilidad y la Matriz de Estabilidad 103

begin desplazados de X 0 ( t) por alguna pequeña cantidad:

~ (x 0) = ~ X 0 ( 0) + δ ~ x ( 0). (6,2)

Vamos a suponer que el desplazamiento inicial δ ~ x ( 0) es su fi cientemente pequeña que ~ x (t)

sigue siendo su fi cientemente cerca de ~ X 0 ( t) para todos los tiempos de interés.

Teniendo en cuenta esta definición, podemos tomar lo natural definición de un dis- dependiente del tiempo

colocación

δ ~ x (t) = ~ x (t) - ~ X 0 ( t). (6,3)

Utilizamos la evolución de este vector de desplazamiento para definir nuestra matriz de estabilidad para el

trayectoria ~ X 0 ( t). Tomar

δ ~ x (t) = METRO( t) · δ ~ x ( 0) (6,4)

para definir la matriz de estabilidad METRO( t). Tenga en cuenta que la matriz depende de nuestra

elección de la trayectoria de referencia, pero no depende de nuestra elección de desplazamiento inicial

ción. Es decir, la matriz de estabilidad describe el comportamiento de todas las trayectorias en una

en fi barrio infinitesimal de la referencia. El uso de la expresión anterior, podemos de fi nir

los elementos de la matriz de estabilidad como

METRO ij ( t) ≡ ∂ ? x yo( t) (6,5)


∂? x j ( 0).

6.2 La matriz de estabilidad a través de tiempo discreto

Una manera intuitiva para acercarse a la derivación de la matriz de estabilidad diferencial di ff

ecuaciones es por primera mirar la evolución de una trayectoria bajo la clásica habitual
Capítulo 6: Estabilidad y la Matriz de Estabilidad 104

dinámica con el paso de tiempo discreto τ. Vamos a proceder de esta manera, con el tiempo tomando

τ → 0 en llegar a las ecuaciones diferenciales di ff.

Tengamos definen una segunda matriz de ahora, DM ( t 2, t 1) de tal manera que

δ ~ x (t 2) = DM ( t 2, t 1) · δ ~ x (t 1). (6,6)

Nuestra matriz de estabilidad original se puede escribir como METRO( t) = DM ( t, 0). También podemos utilizar

DM matrices para romper el intervalo de tiempo de encontrar METRO. Por ejemplo, tomar dos

intervalos, podemos escribir

METRO( t) = DM ( t, t ') DM ( t ', 0). (6,7)

Los elementos de DM se encuentran en una manera muy similar a los de METRO,

DM ij ( t 2, t 1) ≡ ∂ ? x yo( t 2) (6,8)
∂? x j ( t 1) .

La matriz DM es útil, por el momento, para el seguimiento de la evolución de METRO en una sola

intervalo de tiempo sin referencia a ningún otro intervalos de tiempo.

La forma más sencilla de discretizar el tiempo para una trayectoria, pasando sólo para el fin primero en τ

y trabajar con un sistema unidimensional, es escribir

q (t + τ) = q (t) + τm - 1 p (t) (6,9)

p (+ τ t) = p (t) - τV q [ q (t)] (6,10)

donde por V q nos referimos a la q derivado del potencial V. 1 El uso de estos y la Ec. ( 6.8 ),

nos encontramos los elementos de DM ( + Τ t, t) ser


• •

• 1 τm - 1 •
DM ( t + τ, t) = • • . (6,11)
• •
- τV qq 1

1 Utilizamos estas expresiones de manera que podamos, después, tomar τ a cero y obtener una ecuación diferencial di ff. Si se quisiera
convertir el sistema continuo en un mapa de tiempo discreto, este no es el camino que hay que hacerlo - el mapa resultante no sería
simpléctico (área de preservación).
Capítulo 6: Estabilidad y la Matriz de Estabilidad 105

Para llegar a una ecuación diferencial de di ff METRO notamos eso

METRO( + Τ t) = DM ( + Τ t, t) DM ( t, 0) (6,12)

= DM ( + Τ t, t) METRO( t) (6,13)

˙
METRO( t) ≈ [ METRO( t τ +) - METRO( t)] τ - 1 (6,14)

≈ [ DM ( + Τ t, t) METRO( t) - METRO( t)] τ - 1 (6,15)

≈ [ DM ( + Τ t, t) - ESTOY( t) τ - 1 (6,16)

≈ K ( t) METRO( t), (6,17)

donde hemos de fi nido la matriz K ( t) en la etapa final para ser

K ( t) = [ DM ( + Τ t, t) - YO] τ - 1 (6,18)

el cual, escribir los elementos de la matriz, encontramos que

• •

• 0 metro - 1 •
K ( t) = • • . (6,19)
• •
- V qq 0

Notamos eso τ ha caído de esta expresión, por lo que puede llevar al límite τ → 0

y escribir exactamente ˙ METRO( t) = K ( t) METRO( t).

6.3 Un Fuller, derivación más complicado

Por dos razones, ahora vamos a trabajar a través de una segunda derivación del diferencial di ff

ecuación para METRO( t). Una razón para ello es que la extensión de dimensiones superiores es

no inmediatamente obvio a partir de los resultados unidimensionales anteriores. La segunda razón

es que, aunque más opaco, esta derivación es quizás más satisfactorio.


Capítulo 6: Estabilidad y la Matriz de Estabilidad 106

Al igual que antes, estamos buscando los elementos de ˙ METRO( t). Estos pueden ser escritos más intuitiva

como

( ∂x yo( t) )

˙
METRO ij ( t) = ∂ . (6,20)
∂t ( METRO ij) = ∂ ∂t ∂x j ( 0)

Ahora vamos a cambiar el orden de la erentiation di ff tener

( ∂x yo( t) )

˙
METRO ij ( t) = ∂ . (6,21)
∂x j ( 0) ∂t

Los términos dentro de los paréntesis son del todo “local” en el tiempo, y nos lo bastante

tener un derivado local fuera así. Para conseguir eso, ampliamos la derivada usando

∂ ∂x j ( 0) = Σ ∂x k ( t) ∂ ∂x k ( t)
. (6,22)
k
∂x j ( 0)

Reconocemos los coe fi cientes en la suma como elementos de METRO.

También tenemos que mirar en el término dentro del paréntesis y tratar de simplificarlo.

Podemos escribir en términos de la función de Hamilton, aunque hay que tener cuidado

sobre el tiempo X yo( t) es una coordenada espacial o una coordenada de impulso - hay una

firmar di ff rencia. Tenemos que



••
∂x yo • ∂H / ∂p yo X i = q yo
. (6,23)
∂t = ••
• - ∂H / ∂q yo X i = pag yo

Poniendo todo junto, tenemos que


• •
[∂2 H ∂x yo ]∂x
· METRO( t) = K ( t) METRO( t),
• 0 yo •
˙
METRO( t) = • • · (6,24)
• •
j
- yo 0

dónde yo es la matriz identidad de rango igual a la dimensionalidad del sistema. los

matriz dada por ∂ 2 H / ∂x yo ∂x j es el Jacobiano de la pendiente de H. En la mayoría de los casos, 2


2 Si hay términos en el hamiltoniano que utiliza productos de coordenadas de posición y momento, habrá términos en los bloques

diagonales de K.
Capítulo 6: Estabilidad y la Matriz de Estabilidad 107

esto nos da
• •

• 0 yo metro - 1•
K ( t) = • • (6.25)
• •
- ∂ 2 V / ∂q yo ∂q j 0

En una dimensión, esta definición reproduce la matriz K que vimos en nuestra anterior

derivación.

6.4 La Unidad determinante de la matriz de Estabilidad

Hay una restricción en la matriz de estabilidad que necesita ser observado: debe

mantener un determinante de 1. Esto viene de los requerimientos de área de preservación de

la mecánica clásica tal como se establece en el teorema de Liouville, ya que ahora se mostrará. Ya que es

No siempre es obvio, vamos a ver primero a una demostración del teorema de Liouville. Dejar f (~ x, t) ser una

función de densidad en el espacio de fase. Es decir, se da la densidad de trayectorias en fase

el espacio como una función de la 2 norte posición espacio-fase dimensional ~ X y tiempo. El total

derivada temporal df / dt da la densidad después de la de flujo, y

df
X · ∇ F, (6,26)
dt = ∂ t f + ~ ˙

dónde

Σ ∂ ∂
∇ ≡ norte q̂ yo
q + pag yo (6,27)
i=1
∂q yo ∂p yo

es el operador del espacio de fases. Por el teorema de continuidad,

∂ t f = · -∇ ( f ~ ˙ X). (6,28)

Usando esto como una sustitución, tenemos

df
X) + ~ X
˙ ·∇F
Ẋ (6,29)
dt = · -∇ ( f ~ ˙
Capítulo 6: Estabilidad y la Matriz de Estabilidad 108

= - ~ ˙ X · ∇ F - F ∇ · ~ ˙ x + ~X
˙ ·∇F
Ẋ (6,30)

=-F∇·~˙ X (6,31)

Σnorte ∂
=-F q̇ i + ∂
q ˙ yo
pag (6,32)
i=1
∂q yo ∂p yo

Σnorte ∂ ∂H ∂H
=-F -∂ (6,33)
∂q yo ∂p yo ∂p yo ∂q yo
i=1

= 0. (6,34)

donde hemos utilizado las ecuaciones de Hamilton. Esto demuestra que, para un sistema de Hamilton,

la densidad se conserva en el espacio de fases.

Dicho de otra manera, los volúmenes en el espacio fase se conservan. Ahora nos relacionamos esta declaración

a nuestra matriz de estabilidad. Recordemos que el NORTE- dimensional volumen definido por norte vectores

está dada por el determinante de una matriz con los vectores como columnas. 3 Si definimos una

matriz RE( 0) con norte Los vectores de desplazamiento como las columnas, podemos actuar en todos ellos

simultáneamente tomando RE( t) = METRO( t) RE( 0). Por las propiedades del determinante, nos

tienen | RE( t) | = | METRO( t) || RE( 0) |, por lo que la conservación de la NORTE- volumen dimensional de fi nido

por RE( t) requiere que METRO( t) tienen determinante de la unidad.

6.5 Un primer vistazo a la Estabilidad

Antes de que se de fi ne la estabilidad en un sentido matemático, es útil para discutir lo

entendemos por ella en un sentido general. La estabilidad es una propiedad de una trayectoria dada, y

proviene de la dinámica local, linealizados como se representa por la matriz de estabilidad. Nosotros

considerar una trayectoria estable si, en alguna escala de tiempo de interés, que las trayectorias

comenzar cerca de ella tienden a permanecer cerca de ella. Cabe recordar que una de fi nición del caos
3 En dos dimensiones, esto se reduce a la magnitud del producto cruzado, y en tres dimensiones a la triple producto escalar.
Capítulo 6: Estabilidad y la Matriz de Estabilidad 109

es que las trayectorias que comienzan cerca uno del otro divergen exponencialmente con el tiempo;

este es un ejemplo de inestabilidad.

Sin embargo, como veremos más adelante, esta consideración conduce a bastante di ff Erent matemática

siendo consideradas las descripciones en función del tipo de sistema. Tenga en cuenta que, en la mayor

dimensiones, hay múltiples opciones, ortogonales para el vector de desplazamiento. Como un

En consecuencia, puede haber cierta ambigüedad en esta definición de la estabilidad. En los casos ff Erent di,

vamos a resolver esta ambigüedad de varias maneras.

6.6 La reducción de dimensionalidad

Antes de seguir adelante, debemos hacer una digresión aparente por un momento y

mencionar el método utilizado para reducir la dimensionalidad de un sistema. Tenga en cuenta que lo haremos

Siempre que se habla en términos de los potenciales en dos dimensiones, aunque estas nociones

son de ninguna manera confinado a los sistemas de baja dimensionalidad.

Si tenemos un potencial en dos dimensiones, hay cuatro coordenadas espacio-fase

para realizar un seguimiento de una trayectoria dada, todos ellos dependen del tiempo. Como se señaló anteriormente, la

especí fi cación de todo el espacio de fases coordenadas en cualquier momento determina completamente un tra-

jectory. En la mayoría de los sistemas físicos, sin embargo, tenemos información adicional. Si nosotros

asumir un potencial estático (es decir, independiente del tiempo), entonces la energía de nuestro partícula

ser conservadas. Esta conservación de la energía reduce la dimensionalidad de acceso

espacio de fase por una dimensión. Por lo tanto, por ejemplo, una trayectoria puede ser completamente

fi especificados dando a los dos coordenadas espaciales y una dirección de propagación; el

magnitud del impulso puede ser determinada por la conservación de energía.

Un espacio de fase tridimensional todavía presenta problemas para la visualización. los


Capítulo 6: Estabilidad y la Matriz de Estabilidad 110

la práctica habitual es para reducir la dimensionalidad mediante la adopción de las rebanadas bidimensionales

de espacio de fase. Supongamos, por ejemplo, tomamos un avión de la fijada X- coordinar y buscar

en donde todas las trayectorias pasan a través de este plano. Desde el X- coordinar está dada por la

ubicación del avión, todas nuestras trayectorias se determinan por completo especificando

el y- coordinar donde pasan a pesar de que el plano y el ángulo de propagación. Eso

es generalmente la práctica tomar solamente las trayectorias que pasan a través del plano de

dada lado a otro, por lo que la y El impulso puede ser utilizado sin ambigüedad como

la segunda coordenada en lugar de ángulo.

Esta técnica se denomina una “superficie de la sección,” y es útil en ambos cerrados y

sistemas abiertos. Se trata en muchos libros que tienen que ver con la dinámica clásica caóticas

(Véase, por ejemplo, [ 37 ]).

6.7 Estabilidad y sistemas cerrados

El sistema habitual en el que se escucha sobre el análisis de la estabilidad es un sistema cerrado con

órbitas de época. Aquí, uno nds fi la matriz de estabilidad durante un único periodo de un periódico

órbita, llama al resultado la “matriz monodromía”, y extrae la información de estabilidad

de eso.

La primera cosa a hacer es fi para seleccionar una superficie de la sección en el dominio del sistema.

La superficie de la sección de fi ne una dinámica discretos en la parte superior de nuestra continua Newto-

nian dinámica. Recordando que un punto de la superficie de la sección es la intersección

de una trayectoria con esa superficie, tenemos un mapa que tiene una trayectoria de uno

punto de intersección a su siguiente.

La estabilidad se observa ahora en la superficie de la sección y la siguiente pregunta es


Capítulo 6: Estabilidad y la Matriz de Estabilidad 111

pedido: dado un punto de la superficie de la sección que corresponde a una referencia periódica

trayectoria, lo que ocurre con los puntos vecinos bajo norte iteraciones del mapa? Nota

que, por definición, no importa cuántas veces iteramos el mapa, el punto de referencia

Siempre se asigna a sí mismo.

Al observar la dinámica subyacente, podemos determinar una matriz monodromía

METRO por nuestra trayectoria de referencia para una sola iteración del mapa; esto es esencialmente

la matriz de estabilidad para la trayectoria para un único período, proyectada en el subespacio

de la superficie de la sección. La medida estándar de la estabilidad, la llamada de Lyapunov

exponente para la trayectoria, es el logaritmo del valor propio más grande de esta matriz.

¿Por qué esta medida? Tome cualquier desplazamiento general (en la superficie de la sección) δ ~ x 0 y

tomar norte iteraciones de

δ ~ x n = METRO norte · δ ~ x 0. (6,35)

Estamos interesados ​en la forma en que el desplazamiento inicial es cada vez mayor, por lo que queremos la longitud

de δ ~ x norte. Debido a que el e ff ect de la matriz de estabilidad en cada iteración es multiplicativa,

podemos determinar la red e ff ect de una sola iteración mediante la adopción de

[1

h = lim . (6,36)
norte → ∞ norte En | δ ~ x n |]

los valores propios λ yo y vectores propios ~ v yo de la matriz METRO nos permitirá ampliar la

desplazamiento inicial

δ ~ x0=Σ do i ~ v yo. (6,37)


yo

Debajo norte iteraciones del mapa, entonces tenemos que

METRO norte · δ ~ x 0 = Σ do yo λ Ni ~ v yo. (6,38)


yo
Capítulo 6: Estabilidad y la Matriz de Estabilidad 112

Si ordenamos nuestros valores propios de tal manera que λ 0 ≥ λ yo, podemos decir eso

( λ yo ) norte
Σ
METRO norte · δ ~ x 0 = λ norte 0 do yo v ~ yo (6,39)
yo
λ0

lim (6,40)
norte → ∞ METRO norte · δ ~ x 0 ≈ λ norte 0 do 0 ~ v 0

para un genérico δ ~ x 0. ( En particular, no será cierto para aquellos particulares δ ~ x 0 ese

pasar a ser ortogonal a ~ v 0.) Utilizando este resultado, tenemos que

[1

h = lim (6,41)
norte → ∞ norte En | δ ~ x n |]

≈1 (6,42)
norte En | λ norte 0 ~ v 0 do 0 |

=1 (6,43)
norte ln ( λ norte 0 do 0)

= ln λ 0 + 1 (6,44)
norte En do 0

≈ En λ 0. (6,45)

Vemos que, si estamos considerando el límite de iteraciones de una trayectoria periódica,

es útil considerar los valores propios de la matriz monodromía. Las trayectorias pueden ser

poner en tres categorías generales por este método al observar las huellas, o sumas de

los valores propios, de sus matrices monodromía. Tenga en cuenta que nuestra matriz de estabilidad original

tenía un determinante unidad, y esta propiedad se traslada a la matriz monodromía.

Esto es cierto, a pesar de que la superficie de la formulación de la sección no garantiza que

trayectorias tendrán el mismo tiempo para una iteración del mapa, como resultado de la

Poincar'e-Cartan teorema [ 38 ]. Para el de dos dimensiones fase espacio definido por la

la superficie de la sección, sólo hay dos valores propios a considerar y, como resultado, se

debe ser recíprocos.

Si la traza de la matriz de estabilidad es mayor que 2, entonces sabemos que tanto

valores propios son reales. Uno de ellos es mayor que 1, y el otro menor que 1. En este caso,
Capítulo 6: Estabilidad y la Matriz de Estabilidad 113

habrá un exponente positivo de Lyapunov, y la trayectoria se considera que es

inestable. Vecina trayectorias tiende a huir de la trayectoria de referencia

exponencialmente con norte.

Si la traza de la matriz de estabilidad es menor que 2, entonces los valores propios deben estar

complejo; serán complejos conjugados el uno del otro. En este caso, el Lyapunov

exponente es cero.

Si la traza de la matriz monodromía es exactamente 2, entonces ambos valores propios son iguales

a 1 y la trayectoria se considera marginalmente estable. En este caso, puede trayectorias

se alejan de la trayectoria de referencia, pero lo hacen con una dependencia lineal de la

norte en lugar de exponencial. A modo de ejemplo, consideremos el caso de “cizalla”:

• •

• 1 re •
M= • • (6,46)
• •
01
• • • •

• un • • a + ndb •
• ·
METRO norte • = • • . (6,47)
• • • •
segundo segundo

6.8 Estabilidad y Sistemas Abiertos

La medida de la estabilidad encontró anteriormente para trayectorias periódicas en sistemas cerrados

se vuelve bastante sentido si tenemos en cuenta los sistemas abiertos, donde las trayectorias de

interés no son periódicas. Aquí, las trayectorias no atravesarán la misma historia de la

potenciales varias veces, lo que no es verdadero sentido de iteraciones o tomar límites como

norte → ∞.

Todavía puede haber una tentación, sin embargo, utilizar el exponente de Lyapunov como

medida de la estabilidad. Es, después de todo, un concepto cómodo. Consideremos una


Capítulo 6: Estabilidad y la Matriz de Estabilidad 114

ejemplo extremo para ver por qué no esta noción. Dejar

• •

• 0 un •
METRO( t) = • • (6,48)
• •
- 1 / un 0

durante algún tiempo t. En este caso, el determinante es 1 (según sea necesario), los valores propios son ± yo,

la traza es 0, y la trayectoria se declara estable por el exponente de Lyapunov

medida. Sin embargo, vemos que si tomamos δ ~ x ( 0) = (0, 1), tenemos δ ~ x (t) = (a, 0).

Podemos hacer que este final de desplazamiento tan grande como lo deseamos por nuestra elección de un, pero el

Exponente de Lyapunov permanecerá 0.

¿Qué utilizamos para reemplazar la noción de estabilidad de Lyapunov exponente? los

concepto que estamos buscando es la misma: ¿cuánto se mueven las trayectorias de vecinos

lejos de nuestra trayectoria de referencia? Veamos esta primera en un sentido general,

donde no tenemos instrucciones especiales de desplazamiento a considerar (que pronto considerar

colectores de trayectorias en el que tendrán indicaciones especiales). Indicamos la cuestión

matemáticamente como sigue: dado un matriz de estabilidad METRO, buscamos la dirección de

desplazamiento inicial que resulta en el mayor estiramiento. Podemos tomar nuestra inicial

el desplazamiento como δ ~ x ( 0) = (cos θ, pecado θ) y tomar 4

• •

• cos θ •
METRO( t) ·• • = δ ~ x (t; θ). (6,49)
• •
pecado θ

a continuación, queremos maximizar | δ ~ x (t) | como una función de θ. Si etiquetamos a los elementos de la

4 Todavía queremos estar trabajando dentro de la in fi barrio infinitesimal alrededor de la trayectoria de referencia donde la dinámica lineal en METRO
son una aproximación razonable. Dado que la acción de METRO es lineal, sin embargo, podemos trabajar con vectores de norma 1 para hacer la
vida más simple; sticklers puede multiplicar todas las ecuaciones por algún infinitesimal δ sin cambiar nada más.
Capítulo 6: Estabilidad y la Matriz de Estabilidad 115

matriz de estabilidad
• •

• ab •
METRO( t) = • • , (6,50)
• •
discos compactos

se encuentra que

{ [( un 2 - segundo 2 + do 2 - re 2) 2 + 4 ( AB + discos compactos) 2 ] 1/2}

max | δ ~ x (t; θ) | 2 = 1 un 2 + segundo 2 + do 2 + re 2 + .


2

(6,51)

Si no tenemos ninguna razón para estar interesado en cualquier desplazamiento inicial por encima de cualquier otro,

a continuación, debe tomar

1
(6,52)
2 ln (max | δ ~ x (t; θ) | 2)

como un reemplazo para el exponente de Lyapunov.

Supongamos que no estamos interesados ​en el comportamiento de una trayectoria aislada, sino

más bien en el comportamiento de una colección de trayectorias, o colector. Por ejemplo, podemos

puede tomar trayectorias que emanan de un punto único en una distribución de ángulos. En

el caso de un colector, no es probable que nos interesa en el estado general

encima. Eq. ( 6.51 ) Determina el máximo posible de estiramiento, teniendo en cuenta

todas las posibles direcciones de desplazamiento iniciales. En nuestro ejemplo, es posible dis- inicial

colocaciones sobre una trayectoria de referencia dado no están representados por el colector.

De hecho, podemos especificar un único vector re para una trayectoria dada que apunta a lo largo de la

colector inicial, y sólo desplazamientos iniciales a lo largo de re aparecer en nuestra infinitesimal en la fi

barrio. Para una imagen para ir junto con el fallo, consulte la figura 6.1 .

Vamos a continuación, definen un “enrarecimiento exponente” r (t) por

|||.
r (t) = En ||| METRO( t) · ˆ re (6,53)
Capítulo 6: Estabilidad y la Matriz de Estabilidad 116

M (t) d

re

Figura 6.1: Esta figura es ilustrativa de la dinámica local alrededor de una referencia
trayectoria cuando es un miembro de un colector de trayectorias. El colector es un objeto unidimensional en nuestro
espacio de fase, a partir de la izquierda como una línea sencilla (por ejemplo, todas las trayectorias de partida en el
mismo punto con una distribución de ángulos). Con el tiempo, va a evolucionar a un objeto complejo, pero aún
unidimensional (haciendo caso omiso de una posible dimensión fractal con el tiempo a infinito). La acción de la
dinámica local, lineales dará vuelta a algunas círculo de desplazamientos sobre nuestra trayectoria de referencia en
algún elipse. Podemos ver, sin embargo, que el máximo estiramiento de esta elipse no es tan relevante como el
estiramiento del vector

re que se encuentra a lo largo del colector.


Capítulo 6: Estabilidad y la Matriz de Estabilidad 117

El exponente rarefacción nos dice cuánto trayectorias desplazados a lo largo del primer

colector se han alejado de la trayectoria de referencia. Dicho de otra manera, se dice

nosotros cómo la dinámica hemos comprimido o ampliado el colector en torno a la

trayectoria de referencia (de ahí el nombre de “exponente rarefacción”). Es una propiedad de

una trayectoria dada, y es claramente dependiente de la elección de colector inicial. Esta

noción limitada no es la estabilidad en el sentido habitual de la palabra, pero en muchas clásica

sistemas que pueden ser significativamente más significativa.


Capítulo 7

Promedios Ensemble

Uno de los temas de la investigación en esta tesis es que, cuando se trata de azar

sistemas, hay un comportamiento interesante para encontrar buscando en las realizaciones individuales

de los potenciales aleatorios. Fue sólo de este modo que nos encontramos con el ramificado

estructura de flujo. Hay, sin embargo, razones para mirar el comportamiento estadístico se ve en

promedios de conjunto también. El comportamiento de cualquier miembro individual del conjunto

(Es decir, la ramificado flujo en una realización potencial dado con condiciones iniciales dadas)

sólo puede ser determinado por ejecutar realmente las trayectorias. El comportamiento de la

promedios del conjunto, sin embargo, son en algunos casos susceptibles de tratamiento analítico. Esta

es parte de la fuerza que las simulaciones clásicas llevar a la mesa, con la riqueza

de información acerca de las trayectorias individuales que está disponible para nosotros.

En este capítulo, vamos a ver varias formas en que podemos caracterizar las estadísticas

de nuestros potenciales aleatorios y los fl ow ramificados clásicos circula por ellos.

Hay dos formas equivalentes para llegar a estas medidas estadísticas, a los que

se hace referencia generalmente como “promedios del conjunto.” El primero es ejecutar las trayectorias de

118
Capítulo 7: Promedios Ensemble 119

muchos potenciales Erent di ff generados de la misma manera (es decir, utilizando las mismas funciones

pero con semillas aleatorias di ff Erent). La otra es ejecutar muchas trayectorias independientes

en el mismo potencial. Aquí, la “independencia” significa que las trayectorias deben ver

historias no correlacionados medida que se propagan a través del potencial. Este requisito

se puede realizar mediante el lanzamiento de trayectorias de ubicaciones aleatorias separadas en promedio

por la longitud de correlación potencial, y dándoles orientaciones iniciales aleatorias. En

la práctica, se utiliza una combinación de estos dos enfoques para asegurar que no somos

recogiendo las características particulares de cualquier realización del potencial aleatorio.

Palabras tal vez hay que decir acerca de cómo este procedimiento se relaciona con las fotos

de ow fl ramificado que aparecen en esta tesis en otro lugar. Esas imágenes surgen de

el lanzamiento de muchas trayectorias que son casi tan lejos de “independiente” como uno puede conseguir;

que están destinados a ser relacionada con las fuentes físicas. Se puede esperar que el conjunto

promedios serán en absoluto aplicar a estos sistemas? La respuesta es sí, y que podría llegar a

los mismos resultados para los promedios de conjunto con sólo mirar a los cálculos de ramificado

flujo. El problema es que, dado que las trayectorias no son independientes en cualquiera

realización de flujo ramificado, tendríamos que el promedio de muchos más trayectorias

de lo contrario es necesario. Utilizamos distribuidos al azar, ya que son trayectorias

más e fi ciente a lograr la convergencia de los promedios.

7.1 Potenciales azar Revisited

El potencial aleatorio descrito en el Capítulo 4 para los estudios de quantum ramificado

reflujo fue modelado muy de cerca después de que el potencial físico en el sistema. El fin

resultado fue un potencial aleatorio que podría caracterizarse por dos cantidades: una longitud
Capítulo 7: Promedios Ensemble 120

escala, determinado por la función de autocorrelación, y una escala de altura, determinada por

la distribución de los valores en el potencial. Cualitativamente, el potencial donante-átomo

responsable de la ramificación se compone de suaves colinas muy por debajo de la energía de la

electrones dispersados.

En este punto, ya que paso de la mecánica cuántica para mirar clasifi-

mecánica de cal, es razonable para volver a examinar el potencial también. Es la ramificación

fenómeno peculiar a un potencial aleatorio generado de esta manera (densidad de los donantes

fl uctuaciones), o se trata de un fenómeno general más dependiente en gran medida en estos esta-

Statistical propiedades del potencial? La respuesta, como era de prever, es que el

fenómeno de ramificación no depende del origen del potencial, y estamos

libre de examinar los potenciales generados en otras formas.

Hemos considerado varios medios distintos de la generación de dichos potenciales aleatorios.

La versión simplificada más estrechamente relacionada con el modelo que en un principio se consideró

es la convolución de una protuberancia gaussiana bidimensional con una rejilla de valores aleatorios.

El potencial resultante tiene auto-correlación de Gauss, y con la transformada rápida de Fourier

métodos es fácil de generar. Esta es la forma que hemos utilizado con mayor frecuencia,

por razones que se discutirán más adelante. Otro potencial que es simple

para generar y que también exhibe de flujo ramificado es la superposición de azar

ondas de coseno orientado. Hemos generado un potencial tan tanto mediante la adopción de un único

número de onda y mediante la adopción de una distribución normal de números de onda alrededor de una media. 1

El problema de la propagación clásica a través de los medios de comunicación al azar ha sido sin duda

1 Aunque se podría suponer que la adopción de una distribución de números de onda daría lugar a una mayor “al azar” potencial, lo contrario
es cierto para un número fijo de ondas componentes. Con un número de onda fijada, sólo tenemos que lograr un su fi cientemente densa
distribución en un círculo en el espacio de Fourier; para un rango de números de onda, tenemos que lograr un su fi cientemente densa
distribución de una corona circular.
Capítulo 7: Promedios Ensemble 121

estudió en el pasado, por lo que es importante que hagamos claro desde el principio lo que el régimen

están estudiando. Hay dos tipos de medios aleatorios dominan la literatura hasta la fecha. En primer lugar se encuentran

sistemas de dispersores de puntos separados por el espacio libre. En este régimen, los dispersores son

generalmente se considera que ser fuerte, de modo que los eventos de dispersión raras son de gran ángulo

[ 39 , 13 ]. En segundo lugar están los sistemas con un potencial de “ruido blanco”. En un sistema tal, el

potencial se considera que tiene un valor sin correlación de punto a punto y con un poco

(A menudo gaussiana) de distribución [ 11 ]. Los sistemas que consideramos aquí caen en la

no hay tierra de nadie entre estos dos extremos.

7.2 Las correlaciones potenciales

Como se discutió en § 4.3 , Nuestro potencial modelo original se caracterizó por una gaussiana

auto-correlación y una distribución de la altura de Gauss. Al mirar a otros potenciales

que exhiben flujo ramificado, y especialmente al tratar de hacer algo por el estado analítico

mentos sobre las trayectorias de estos potenciales, tenemos que mirar a estas propiedades.

A pesar de que vemos el fenómeno de ramificación en muchos tipos di ff Erent de azar suave

potenciales, todos los potenciales aleatorias suaves no son iguales. Aquí, nos fijamos en el

funciones de autocorrelación para nuestros potenciales. Miramos primero a una concreta mathemat-

ical fundación para caracterizar la di ff erences entre varios potenciales aleatorios.

A continuación, aplicamos esto a dos tipos de potenciales que dió ramificados flujo.

Vamos a llegar a la siguiente conclusión. Aunque hay muchos suave al azar

potenciales que exhiben flujo ramificado, que no queremos alejarse demasiado de la original

sistema. Las correlaciones de Gauss, que no sólo vamos a ver en el valor de la

potencial, pero también en sus derivados, son de gran valor para nuestro tratamiento analítico.
Capítulo 7: Promedios Ensemble 122

7.2.1 Auto-correlación y la función espectral

Hay dos conceptos que utilizamos para caracterizar la dependencia espacial de nuestra

potenciales: auto-correlación y la función espectral. Tal como se desarrolló en esta sección,

Estos dos conceptos son simplemente relacionados entre sí. Tenga en cuenta que, a menos que se

se indica, todas las integrales en esta sección son en el rango de ( -∞, ∞).

Empecemos por de fi nición de la función de autocorrelación para una función f (x, y) ser

∫ ∫
c (α, β) = dx dy f (x + α, y + β) f * ( x, y), (7,1)

donde suponemos una normalización implícita de tal manera que do( 0, 0) = 1. Al mirar nuestra

potenciales, sino que también serán útiles para mirar el auto-correlación de los derivados de la

potencial. Tenemos más de fi ne

∫ ∫
do Minnesota( α, β) = dx dy f ( Minnesota)( x + α, y + β) f ( Minnesota) * ( x, y) (7,2)

por lo que nuestra función de autocorrelación es c (α, β) = c 0,0 ( α, ß).

Tomando nota de que la transformada de Fourier de un derivado está dada por (véase [ 14 , Cap. 15])


F norte( t) = 1 dω ( - iω) norte F (ω) e - iωt (7,3)

y que se puede desplazar a una función mediante la adopción de


f (t + τ) = 1 dω F (ω) e - iω (t + τ), (7,4)

tenemos

∫ ∫
do Minnesota( α, β) = dx dy f ( Minnesota)( x + α, y + β) f ( Minnesota) * ( x, y) (7,5)
∫ ∫ [1 ∫ ∫
= dx dy dk dl ( - ik) metro( - Illinois) norte F (k, l) ×
4 π2
Capítulo 7: Promedios Ensemble 123

mi - ik (x + α) mi - il (y + β)] F( Minnesota) * ( x, y) (7,6)


∫ ∫
=1 dk dl ( - ik) metro( - Illinois) norte F (k, l) e - ikα mi - ilβ ×
4 π2
[∫ ∫ ]

dx dy f ( Minnesota) * ( x, y) e - ikx mi - ily (7,7)


∫ ∫
=1 dk dl ( - ik) metro( - Illinois) norte F (k, l) e - ikα mi - ilβ ( ik) metro( Illinois) norte F * ( k, l)
4 π2

(7,8)
∫ ∫
=1 dk k dl 2 metro l 2 norte F (k, l) F * ( k, l) e - ikα mi - ilβ (7,9)
4 π2
∫ ∫
=1 dk k dl 2 metro l 2 norte S (k, l) e - ikα mi - ilβ (7,10)
4 π2

donde, en el último paso, tenemos de fi ne una “función espectral” S (k, l) ≡ F (k, l) F * ( k, l).

Aunque esto puede no parece ser un progreso real, lo es. Volvamos por un momento

a do 0,0 ( α, ß),

∫ ∫
do 0,0 ( α, β) = dx dy f (x + α, y + β) f * ( x, y). (7,11)

En la mayoría de las situaciones, uno cualquiera conocer esta función o uno sabrá su Fourier

transformar. Teniendo en cuenta tampoco, podemos hallar las correlaciones derivadas. Asumamos por el

momento en que se nos da do 0,0. Entonces nosotros tenemos

∫ ∫
1
dk dl S (k, l) e - ikα mi - ilβ = do 0,0 ( α, β) (7,12)
4 π2
∫ ∫
S (k, l) = dα c dβ 0,0 ( α, β) e ikα mi ilβ. (7,13)

El uso de esta expresión,

∫ ∫ {∫

do Minnesota( α, β) = 1 dk k dl 2 metro l 2 norte dα ' ∫ dβ ' do 0,0 ( α ', β ') mi ikα ' mi ilβ '} mi - ikα mi - ilβ
4 π2

(7,14)
Capítulo 7: Promedios Ensemble 124

7.2.2 Simetría circular

Para la mayoría de los potenciales con los que tratamos, no hay una dirección preferida. Ese

es decir, se espera que la función de correlación sea simétrica circularmente. Con ese

supuesto, también será encontramos que la función espectral es circularmente simétrico. Dejar

Consideremos

α = r cos θ (7,15)

β = r pecado θ (7,16)

k = κ cos φ (7,17)

l = κ pecado φ. (7,18)

Tomamos nuestras funciones para estar en función de estas variables también,

do Minnesota( α, β) → do Minnesota( r, θ) (7,19)

S (k, l) → S (κ, φ). (7,20)

La transformación de nuestras ecuaciones, se trabaja con la primera función espectral fi, tenemos

∫ ∫
S (k, l) = dα c dβ 0,0 ( α, β) e ikα mi ilβ (7,21)
∫∞ ∫2π

S (κ, φ) = Dr dθ rc 0,0 ( r, θ) e iκr cos ( θ - φ). (7,22)


0 0

Por el supuesto de que tenemos una función de correlación circularmente simétrica, podemos

tomar do 0,0 ( r, θ) = C 0,0 ( r, 0) y moverlo fuera de la θ integral. Desde el coseno tiene

periodo 2 π y no hay otra θ términos dependientes, la integral es ff UNA reflejada por el

presencia de la φ plazo y tenemos

∫∞ ∫2π

S (κ, φ) = Dr. RC 0,0 ( r, 0) dθ correo iκr cos ( θ - φ) (7,23)


0 0
∫∞
=2π Dr. RC 0,0 ( r, 0) J 0 ( kappa R) (7,24)
0
Capítulo 7: Promedios Ensemble 125

el cual, observamos, también es simétrica circularmente. El uso de este hecho, podemos escribir

∫ ∫
do Minnesota( α, β) = 1 dk k dl 2 metro l 2 norte S (k, l) e - ikα mi - ilβ (7,25)
4 π2
∫∞ ∫2π

do Minnesota( r, θ) = 1 dκ dφ κ (κ cos φ) 2 metro( κ pecado φ) 2 norte S (κ, φ) e - iκr cos ( φ - θ)


4 π2 0 0

(7,26)
∫∞ ∫2π

=1 dκ κ 2 m + 2 n + 1 S (κ, 0) dφ cos ( φ) 2 metro pecado( φ) 2 norte mi - iκr cos ( φ - θ).


4 π2 0 0

(7,27)

No podemos, en general, decir que do Minnesota( r, θ) es circularmente simétrica, ya que la deriva-

tantes se encuentran a lo largo de una cuadrícula cartesiana. Esto se manifiesta en los términos adicionales en el

angular integral. Sin embargo, teniendo en cuenta nuestras suposiciones, podemos tratar el m = n = 0 caso

y encontrar la inversa de la ecuación de la función espectral.

∫∞ ∫2π

do 0,0 ( r, θ) = 1 dκ κS (κ, 0) dφ correo - iκr cos ( φ - θ) (7,28)


4 π2 0 0
∫ ∞ ∫ 2π

=1 dκ κS (κ, 0) dφ correo - iκr cos ( φ) (7,29)


4 π2 0 0
∫∞
=1 dκ κS (κ, 0) J 0 ( kappa R). (7,30)
2π 0

7.2.3 Correlación de Gauss

El modelo que tenemos para el potencial en un 2DEG, generada por el donante

átomos, se caracteriza por un circularmente simétrica, la función de autocorrelación de Gauss.

Como resultado, esto ha sido una de las características de fi nición de los potenciales usados ​para

examine ramificado flujo. Este es el primer potencial de ficción que examinamos.

La función de autocorrelación conocida es

c (r, θ) = e - r 2 / L 2 (7,31)
Capítulo 7: Promedios Ensemble 126

por alguna escala de longitud L. Utilizando los resultados con simetría circular anterior, entonces tenemos

ese

∫∞
S (κ, φ) = 2 π dr re - r 2 / L 2 J 0 ( kappa R) (7,32)
0

= πL 2 mi - κ 2 L 2 / 4. (7,33)

Utilizando este resultado de encontrar las funciones de correlación más altos,

∫∞ ∫2π

do Minnesota( r, θ) = L 2 dκ κ 2 m + 2 n + 1 mi - κ 2 L 2 / 4 dφ cos ( φ) 2 metro pecado( φ) 2 norte mi - iκr cos ( φ - θ).


4π 0 0

(7,34)

La ecuación general resultante de esta integral es desagradable. Podemos, sin embargo,

limitar nuestra consideración a transversal derivados. Ya que tenemos una simetría rotacional,

somos libres de elegir nuestra dirección de “propagación” como el X eje sin pérdida de

generalidad. Como resultado, podemos limitar nuestra consideración a las funciones do 0, norte( r, 0), dando

∫∞ ∫2π

do 0, norte( r, 0) = L 2 dκ κ 2 n + 1 mi - κ 2 L 2 / 4 dφ pecado( φ) 2 norte mi - iκr cos φ (7,35)


4π 0 0
∫ ∞
{ }

= L2 dκ κ 2 n + 1 mi - κ 2 L 2 / 4 2 π (kappa (7,36)
R) R) - n ( 2 norte - 1)! ( norte - 1)! 2 norte - 1 J norte( kappa
4π 0
∫∞
= L2 dκ κ n + 1 mi - κ 2 L 2 / 4 J norte( kappa R) (7,37)
2 r - n-(12 norte - 1)! ( norte - 1)! 20norte
{ 2 n + 1 mi - r 2 / L 2 L - 2 norte - 2 r norte}
= L2 (7,38)
2 r - n-(12 norte - 1)! ( norte - 1)! 2 norte

= (2 norte - 1)! ( norte - 1)! 2 L - 2 norte mi - r 2 / L 2 (7,39)

= (2 norte)! (7,40)
¡norte! L - 2 norte mi - r 2 / L 2.

Este resultado es importante. El trabajo analítico a seguir, mirando a la media de conjunto

propiedades de flujo a través de estos potenciales al azar, depende de la capacidad de dividirse

el flujo en segmentos que son independientes entre sí. Esto depende de lo finito
Capítulo 7: Promedios Ensemble 127

rango de la función de autocorrelación, no sólo de la potencial pero de sus derivados

también.

Para el comportamiento a largo plazo, hay teorías que dependen de las integrales de

estas funciones de autocorrelación [ 40 ]. Aunque el tiempo y duración de las escalas que se

considerar son generalmente demasiado corto para estas teorías, vamos a hallar la integral es necesario.

Nosotros tomamos

∫∞ ∫∞
c dr 0, norte( r, 0) = (2 norte)! Dr e - r 2 / L 2 (7,41)
0 ¡norte! L - 2 norte 0
{ Lπ 1/2 }
= (2 norte)! (7,42)
¡norte! L - 2 norte 2

= (2 norte)! (7,43)
¡norte! 2 L 1 - 2 norte π 1/2.

7.2.4 ondas planas

A partir del trabajo en caos cuántico, las propiedades de la superposición de ondas planas son bastante

bien conocido [ 41 ]. Potenciales generados por tal suma también resultan en ramificado flujo, por lo

tenemos razones para incluirlos en nuestra discusión aquí. También es necesario para obtener el

resultados para la auto-correlación de los derivados de la potencial, como arriba.

Consideremos una suma de ondas planas de número de onda fijada k pero ori- al azar

entación. En este caso, se parte de la función espectral y trabajar hacia la

función de autocorrelación. A partir de la información que acabamos de dar, podemos escribir

( )

S (κ, φ) = 2 πL δ κ-1 . (7,44)


L

El parámetro L determina la escala de longitud del potencial de esta relación

con el número de onda. El factor de 2 πL preserva la normalización cuando hacemos

nuestra transformada de Fourier, ya que pronto será mostrado. Para llegar desde esta expresión en nuestro
Capítulo 7: Promedios Ensemble 128

función de correlación, tenemos

∫∞ ∫2π

do 0,0 ( r, θ) = 1 dκ κ dφ S (κ, φ) e - iκr cos ( φ) (7,45)


4 π2 0 0
∫∞ ∫ 2π ( )

=L dκ κ dφ δ κ-1 mi - iκr cos ( φ) (7,46)


2π 0 0 L
∫ 2π

=1 dφ correo - IR cos ( φ) / L (7,47)


2π 0

= J 0 ( r / L), (7,48)

como se esperaba. El proceso inverso, pasando de Bessel función de auto-correlación con el

información espectral, es igualmente simple y hace uso de la función de Bessel orthogonal-

dad.

Buscando las funciones generales, tenemos

∫∞ ∫2π

do Minnesota( r, θ) = 1 dκ κ 2 m + 2 n + 1 dφ cos ( φ) 2 metro pecado( φ) 2 norte S (κ, φ) e - iκr cos ( φ - θ)


4 π2 0 0

(7,49)
∫∞ ∫2π ( )

=L dκ κ 2 m + 2 n + 1 dφ cos ( φ) 2 metro pecado( φ) 2 norte δ κ-1 mi - iκr cos ( φ - θ)


2π 0 0 L

(7,50)
∫2π

=1 dφ cos ( φ) 2 metro pecado( φ) 2 norte mi - IR cos ( φ - θ) / L. (7,51)


2 πL - 2 metro - 2 norte 0

En general, esto no es tratable. Sin embargo, vamos a con fi ne nuestra atención como antes para

teniendo derivados transversales. Es decir, observamos do 0, norte( r, 0), la toma de y y derivados

mirando correlaciones en el X dirección.

∫2π

do 0, norte( r, 0) = 1 dφ pecado( φ) 2 norte mi - IR cos ( φ) / L (7,52)


2 πL - 2 metro - 2 norte 0

= (2 norte)! (7,53)
¡norte! 2 n ( rL) - norte J norte( r / L).

Por lo tanto vemos que el potencial generado de esta manera, así como todos los derivados,

tiene correlaciones de rango mucho más largos que el caso de Gauss de la sección anterior.
Capítulo 7: Promedios Ensemble 129

De hecho, tenemos razones para sospechar que el desarrollo analítico a seguir puede romper

abajo para potenciales tales como un resultado de las correlaciones de largo alcance que existen.

Echamos un vistazo rápido, una vez más, en la integral de las funciones de autocorrelación.

Debido a las propiedades de las funciones de Bessel, a saber,

∫∞
dr r - norte J norte( r) = n! 2 norte (7,54)
0 (2 norte)! ,

tenemos que

∫∞
c dr 0, norte( r, 0) = L 1 - 2 norte. (7,55)
0

Tiempos de relajación 7.3 Momentum

Como se mencionó anteriormente en esta tesis, una de las formas de caracterizar el movimiento a través

un potencial de azar es el tiempo de relajación impulso. Otro nombre para esto podría

ser el tiempo de correlación impulso-impulso. En esencia, se trata de una medida de lo

el tiempo que tarda una partícula “olvidar” la dirección que estaba viajando inicialmente. Nosotros

hacer que la definición más matemática por de fi nir la función

c (t) = ˆ p (t) · ˆ pag( 0). (7,56)

El promedio de esta función durante muchos trayectorias independientes, < Connecticut) >, es la momentánea

función de correlación tum para el sistema. Tenemos más de fi ne la relajación impulso

hora τ r por

< c (τ r) > = mi - 1 (7,57)

La imagen habitual para esta relajación es el impulso de una potencial con ocasionales

A gran ángulo de dispersión eventos, en lugar de la dispersión de ángulo pequeño continua que
Capítulo 7: Promedios Ensemble 130

estamos viendo. En ese cuadro, el tiempo que sale es una medida de cuánto tiempo

se puede esperar que una partícula se propague antes de su ff Ering una colisión. En cada colisión, es

supone que la dirección de propagación es aleatorizado. Tomando algo fijo proba-

bilidad de una colisión por unidad de tiempo, un decaimiento exponencial de < Connecticut) > se cae de inmediato.

En los sistemas de flujo ramificado, que en lugar de tener una pérdida gradual de la memoria

de la dirección inicial de propagación. Aquí, sin embargo, podemos aplicar esa ubicua

concepto en los procesos aleatorios, el paseo aleatorio. Vamos a considerar el cambio de la

momento de la partícula como un paseo aleatorio en el espacio de momentos. Dado que la energía es

conserva y el valor medio del potencial es cero, tomaremos nuestro paseo aleatorio

estar en una dimensión: el ángulo del vector de impulso.

Para simplificar, tomamos el ángulo inicial para ser θ ( 0) = 0. Entonces tenemos

c (t) = ˆ p (t) · ˆ pag( 0) (7,58)

= cos [ θ (t) - θ ( 0)] (7,59)

= cos [ θ (t)]. (7,60)

Para aplicar nuestro paseo aleatorio, es necesario discretizar el tiempo de alguna manera. Importa muy

poco cómo lo hacemos; supongamos que tenemos un poco de paso de tiempo τ tiempo suficiente para que

podemos considerar Δ θ yo y Δ θ i + 1 como variables aleatorias independientes. Ellos vendrán

de la misma distribución; no importa lo que los detalles de esta distribución

son, como mucho, ya que tiene media cero. Esta suposición es razonable, dada la falta de

cualquier dirección preferida en nuestros potenciales aleatorios. Dejar que la desviación estándar de la

distribución de Δ θ ser σ 1.

Un resultado bien conocido de la teoría de probabilidades es el teorema del límite central. Afirma

que, por su fi cientemente grande norte, la suma de norte números aleatorios de la misma distribución
Capítulo 7: Promedios Ensemble 131

irá a una gaussiana. La media de esta Gauss será norte veces la media de la

distribución original, y la desviación estándar serán

σ n = σ 1 norte 1/2. (7,61)

Como nos tomamos nuestra distribución de Δ θ tener media cero, la suma de los cambios también

tienen una media de cero.

A continuación, hacer preguntas sobre la distribución de do n = c (nτ). Tenemos que


1 (2 π) 1/2 σ
< do norte > = dθ cos ( θ) mi - θ 2 / 2 σ 2
norte
(7,62)
norte

= mi - σ 2 norte/ 2
(7,63)

= mi - σ 2 1 norte/ 2. (7,64)

A partir de este resultado, volvemos al caso de tiempo continuo mediante la adopción de n = t / τ,

< Connecticut) > = mi - ( σ 2 1/ 2 τ) t. (7,65)

Al igual que en el caso discreto de gran ángulo de dispersión eventos, esperamos una Expo-

decaimiento nential de la función de correlación impulso-impulso. Esto se muestra en

Figura 7.1 .

Definimos el tiempo de impulso de relajación τ r por

< c (τ r) > = mi - 1 (7,66)

⇒ τ r = 2 τσ - 2 1.
(7,67)

Es de esperar que, de hecho observar, que τ r tiene una dependencia de la fuerza de

el potencial. Para relacionar esto con el formalismo desarrollado anteriormente, es de esperar una

dependencia de σ 1 en la fuerza del potencial. La distribución de Δ θ Es mas


Capítulo 7: Promedios Ensemble 132

Data at 0.1
exp(-x/160)
0.8 1
Data at 0.2
exp(-x/39)
0.6

<c(t)>
0.4

0.2

- 0,2 0
0 100 200 300 400 500

Time (s)

Figure 7.1: Here we see the decay of the momentum correlation function in our random potentials. The
potentials used have Gaussian auto-correlation with a correlation length of 1. These data were generated using
ten thousand trajectories in each of five realizations of the potential (this number of trajectories was only
necessary to get convergence for the stronger potentials tested). We have shown the computational results,
along with exponential fits, for two different potential strengths. We see excellent agreement between the
calculated momentum correlation function and the fitted exponentials.

directly related to the distribution of gradients in the potential. We do not have direct

access to this distribution function, but we do know that, since differentiation is a

linear function, the standard deviation of the gradient distribution will be linear in the

strength of the potential. We would then expect σ 1 itself to be linear in the strength

of the potential, and τ r to have an inverse square dependence on the strength of the

potential. This also is as observed, shown in Figure 7.2 . Davies arrives at essentially

the same dependence by working explicitly in Fourier space [ 21 ].

In a potential with Bessel function auto-correlation (i.e., our sum of plane waves),

we still see a nearly exponential decay of the momentum correlation function for

any given potential strength. However, the dependence on the potential height is

not as nicely inverse-square as it is when we look at potentials with Gaussian auto-

correlations. In Figure 7.3 , we show the result in this type of potential.


Chapter 7: Ensemble Averages 133

100000
1.25*x**(-2.076)

10000

Momentum Relaxation Time (s)


1000

100

10

1
0.01 0.1 1

Potential Strength

Figure 7.2: Here we see the inverse square dependence of the momentum relaxation time on the strength of
the potential. The data points show the e − 1 times for the momentum correlation functions at various potential
strengths, always using a potential with Gaussian auto-correlation. The line is a fitted function to these points,
where both the power and the coefficient were allowed to vary. We see that the best fit to the points is close to
the predicted inverse square dependence. The data is shown on a log-log scale to make it easier to see the
behavior at all scales.

100000
Data at 0.1 1.25*x**(-2.2)
exp(-x/200)
0.8 1
Data at 0.2 10000
A) exp(-x/45) B)
Momentum Relaxation Time (s)

0.6
1000
<c(t)>

0.4
100
0.2

10

- 0.2 0 1
0 100 200 300 400 500 0.01 0.1 1

Time (s) Potential Strength

Figure 7.3: Here we see the momentum relaxation in a potential generated as the sum of plane waves. In (A),
we see that, at two different values of the potential strength, we have nearly exponential decay of the
momentum correlation function. In (B), however, we see that the potential strength dependence of the
momentum relaxation time is best fit by t − 2.2, noticeably different from the inverse square expected. The failure of
the momentum correlation function to be exponential in time, and the more rapid falloff of the relaxation time,
are presumably the result of longer-range correlations in the potential.
Chapter 7: Ensemble Averages 134

7.4 The Growth of the Exponents

One traditional way to characterize ensemble averages of trajectories is by looking

at the ensemble average of Lyapunov exponent. The usual prediction is that, at long

times, this average will increase linearly with time (or range). In our systems, however,

there are two problems. First, the branched flow structures that we have looked at

are not the long-range behavior. Second, we are more interested in the rarefaction

exponent than the Lyapunov exponent.

In this section, we get predictions for the growth of the ensemble average rar-

efaction and Lyapunov exponents at all time scales. As has been argued before, the

propagation of the stability matrix can be looked at as the product of random matri-

ces. We will exploit that fact in this section, getting predictions based on the behavior

of such matrices and then demonstrating that the full system exhibits the predicted

behavior.

The matrices that we work with are not, of course, completely random. Going

back to the definition of the stability matrix, we we mimic the dynamics by taking

∏i
Mi= DM i (7.68)
j= 1

where
• •

• 1 − τ 2 V ′′ i
τ •
DM i = • • . (7.69)
• •
− τV ′′ i 1

This is not the form that we used in Chapter 6 when deriving the differential equation

for M. Whereas that definition only preserved the unit determinant of M in the limit

τ → 0, this form of DM ensures that we will maintain the unit determinant of M


Chapter 7: Ensemble Averages 135

for any τ . We will take random values of V ′′ i in a uniform distribution of zero mean.

Without loss of generality, we have taken the mass variable to be 1.

7.4.1 Rarefaction

For part of this section, we will find it easier to speak of a “rarefaction coefficient”

r c rather than a rarefaction exponent r. The relationship between the two is simply

r = ln r c.

Let’s look at M 2:

M 2 = DM 2 DM 1 (7.70)
• • • •

• 1 − τ 2 V ′′ 1 τ • • 1 − τ 2 V ′′ 2 τ •
= • • • • (7.71)
• • • •
− τV ′′ 1 1 − τV ′′ 2 1
• •

• − τ 2 V ′′1 + ( 1 − τ 2 V ′′ 1 )( 1 − τ 2 V ′′ 2) τ + τ( 1 − τ 2 V ′′ 2) •
= • • . (7.72)
• •
− τV ′′ 1 − τV ′′ 2( 1 − τ 2 V ′′ 1)
1 − τ 2 V ′′ 2

Now, let’s look only to first order in τ . The remaining terms are

• •

• 1 2τ •
M2= • • . (7.73)
• •
− τ(V ′′ 1 + V ′′ 2) 1

We can correctly extrapolate that, to first order in τ ,

• •

• 1 iτ •
Mi= • • . (7.74)
• •
− τ ∑ ij= 1 V ′′ j
1

From this form of M i, we have a rarefaction coefficient of

r c i = [ 1 + ( iτ) 2]1/2 . (7.75)


Chapter 7: Ensemble Averages 136

For iτ 1, this becomes r c i≈ 1 + ( iτ) 2/ 2, so we have quadratic growth with i. For

iτ 1, r c i ≈ iτ , so for intermediate values we expect a transition from quadratic to

linear growth in i.

For long times, it is not appropriate to use our first-order approximation for M i.

Let us assume that the elements of M i are eventually randomized with some average

magnitude α i. How does α i scale with i? Well,

• • • • • •

• 1 − τ 2 V ′′ i
τ • • ab • • a( 1 − τ 2 V ′′ i)+ cτ b( 1 − τ 2 V ′′ i)+ dτ •
• • • • = •• • . (7.76)
• • • • •
− τV ′′ i 1 cd c − aτV ′′ i
d − bτV ′′ i

The elements of the new matrix are all, to first order in τ , of the form a + cτ . With

〈 a 〉 = 〈 c 〉 = 0 and 〈 a 2 〉 = 〈 c 2 〉 = α 2 i, we have

α i+ 1 = 〈( a + cτ) 2 〉 1/2 (7.77)

= 〈 a 2 + c 2 τ 2 + 2 acτ 〉 1/2 (7.78)

= ( 〈 a 2 〉 + τ 2 〈 c 2 〉 + 2 τ 〈 ac 〉) 1/2 (7.79)
) 1/2
= ( α2 i+ τ2 α2 i
(7.80)
( 1 + τ 2)1/2 .
= αi (7.81)

So we have exponential growth of the elements of the matrix. The expectation for r c i

will itself be linear in α i, so we also see exponential growth in r c i, or linear growth in

r i. These three regimes of rarefaction exponent growth can be seen in Figure 7.4 . For

comparison, in Figure 7.5 we show the results for the random matrix multiplication

used in this development.


Chapter 7: Ensemble Averages 137

1.6 1.6
Data
1.4 Quadratic Fit
1.5
A) 1.2 B)
1.4

exp( <r(t)> )
<r(t)>

0.8 1 1.3

0.6
1.2
0.4
1.1
0.2

0 1
0 0.2 0.4 0.6 0.8 1 0 0.02 0.04 0.06 0.08 0.1

Time (s) Time (s)

Figure 7.4: Here we see the growth of the rarefaction exponent as a function of time in the real system. Though
our predictions for how this should behave were made using random matrix multiplication, those predictions
carry through to the full system. In (A), we see the ensemble averaged rarefaction exponent; it is easy here to
see that, fairly quickly, we get into the regime of linear growth with time. In (B), we show the rarefaction
coefficient (rather than exponent), making it easier to see that quantity’s initial quadratic growth and mid-range
linear growth.

3.5
Data
4.5 5 Quadratic Fit

A) 2.5 3 B)
3.5 4
exp( <r i> )
<r i>

1.5 2
2.5 3

0.5 1 1.5 2

0 1
0 400 800 1200 1600 2000 0 100 200 300 400

Index Index

Figure 7.5: These show the growth of the average rarefaction exponent for random matrix multiplication. Here,
the random matrices were as described in the text, using
τ = . 01 and potential second derivatives distributed uniformly in the range ( − 5, 5). We see the same general
shape as that for the full system. In (A), we show the data far enough to see the linear growth with iteration
index, and in (B) we show the rarefaction coefficient for the early data. The crossover from the regime shown in
(B) to the long-time behavior is dependent on the choice of input parameters.
Chapter 7: Ensemble Averages 138

7.4.2 Lyapunov Exponents

Though we are not primarily interested in the Lyapunov exponent growth, it is

interesting to look at because it is another test of the model used above. The general

argument for the long-term linear growth of the rarefaction exponents still holds,

and we do indeed observe this dependence for Lyapunov exponents. The short-term

growth fits our model well, but shows small deviations from that predicted (and

observed) for the random matrices.

We begin in a way similar to the previous section, with our expression for M i to

order τ ,

• •

• 1 iτ •
Mi= • • . (7.82)
• •
− τ ∑ ij= 1 V ′′ j
1

From this expression, we have eigenvalues λ ± satisfying the equation

∑i
( λ ± − 1) 2 + iτ 2 V j′′= 0. (7.83)
j= 1

To simplify the notation, let S i = ∑ ij= 1 V ′′ j. Solving this equation for the eigenvalues

λ ±, we have

λ ± = 1 ± i 1/2 τ( − S i) 1/2. (7.84)

We take the potential terms to come from a uniform distribution of zero mean.

By the central limit theorem, we know that S i will go to a Gaussian distribution with

zero mean and standard deviation proportional to i 1/2. Now, what happens if S i > 0?

Then we have a complex λ ±, which means a Lyapunov exponent of 0. Hence, for any

value with S i > 0, we might as well let λ ± = 1. Half of the time, we have S i < 0,
Chapter 7: Ensemble Averages 139

which are the only remaining interesting cases. We note that

∫0
1 (2 π) 1/2 σe − S 2/ 2 σ 2 ≈ 0.411 σ 1/2 ∝ i 1/4.
(7.85)
−∞ dS ( − S) 1/2

Putting these into our expression for λ+, we expect

λ+ = 1 + τO(i 3/4). (7.86)

Finally, for the Lyapunov exponent, we note that

h+ = ln λ+ (7.87)

= ln[1 + τO(i 3/4)] (7.88)

≈ τO(i 3/4). (7.89)

So, at short times, we expect the Lyapunov exponent to grow as i 3/4.

As shown in Figure 7.6 , the full simulations deviate somewhat from this predic-

tion for the earliest times. The 3/4 power law is still, however, a decent first-order

description of the short-time behavior. The results for random matrix multiplication,

shown in Figure 7.7 , follow this power law somewhat more closely. In both systems,

we see the linear growth of Lyapunov exponent at long times.

7.5 Long Range Distributions

The analysis of stability matrix evolution gave us access to the functional form of

the growth of the means. It can also tell us something about the long-time distribu-

tions of variables.

Multiplication of random matrices, such as those used above, is amenable to an

application of the same central-limit theorem already employed for momentum


Chapter 7: Ensemble Averages 140

1.8 3.5
Data
1.6 3/4 Power Law Fit
1.4
A) B)
1.2
2.5 3

exp( <h+(t)> )
<h+(t)>

0.8 1

0.6
0.4 1.5 2
0.2
0 1
0 0.2 0.4 0.6 0.8 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7

Time (s) Time (s)

Figure 7.6: Here we see the growth of the Lyapunov exponent as a function of time in the real system. In (A),
we see the ensemble averaged Lyapunov exponent, which goes to linear growth with time even sooner than
the rarefaction exponent did. In (B), we show the corresponding eigenvalue (i.e., e h+) making it easier to see the
initial behavior. Included is a fit curve showing t 3/4 growth. The agreement is fairly good, though the very
beginning of the data seems to have closer to linear dependence.

1.8
Data
1.6 3/4 Power Law Fit
1.4
A) B) 2.5 3
1.2
exp( <h+ i> )
<h+ i>

0.8 1
0.6
1.5 2
0.4
0.2
0 1
0 200 400 600 800 1000 1200 0 200 400 600 800

Index Index

Figure 7.7: These plots show the growth of the average Lyapunov exponent for random matrix multiplication, as
described in the text. The features are clearly the same as those for the full system. In (A), we show iterations
far enough to establish the long-time linear growth. In (B), we focus on the initial behavior of e h+. Though the
agreement with the 3/4 power law predicted isn’t exact, the very early agreement seems better than that for the
full system.
Chapter 7: Ensemble Averages 141

relaxation. Theory predicts that the elements of the stability matrices should have

a log-normal distribution for sufficiently long times; that is, the logs of the elements

should have normal distributions.

As the elements of the stability matrix go to a log-normal distribution, so will

simple functions of those elements: notably, the trace and the rarefaction coefficient,

in which we are interested. When the mean of the distribution for the trace has grown

sufficiently, we can reasonably make the approximation that the Lyapunov exponent

is just the log of the trace, so that quantity would have a normal distribution. Let

us make the argument for a log-normal distribution in terms of the absolute value

of the trace of the stability matrix, and keep in mind that what we’re saying could

also be applied to the rarefaction coefficient or the elements of the stability matrix

themselves.

Why should the elements of the stability matrix, and its trace, have log-normal

distributions? Consider again the history of the stability matrix for a trajectory.

We again divide this history into independent pieces, so that we can consider the

stability matrix to be the product of uncorrelated random matrices. The elements of

the matrix resulting from such a product are themselves products of random numbers

taken from some distribution. The trace, a simple function of these elements, inherits

the property as well. The logarithm of the trace is then a sum of the logarithms of

random numbers. The logarithm of a random number is itself a random number;

the central limit theorem doesn’t care what the actual distribution for the random

number is. Thus, the central limit theorem predicts that, as the number of terms in

the series increases, the distribution of ln |Tr( M)| will tend to a normal distribution;
Chapter 7: Ensemble Averages 142

0.4 0.18 0.12


t=10 t=50 t=150
0.35 Gaussian fit 0.16 Gaussian fit Gaussian fit
0.1
0.3 0.14
0.12 0.08
0.25
0.1
Histogram

Histogram

Histogram
0.2 0.06
0.08
0.15
0.06 0.04
0.1 0.04
0.02
0.05 0.02
0 0 0
-6 -4 -20 2 4 6 8 -5 0 5 10 15 20 0 5 10 15 20 25 30 35 40

ln[Tr(M)] Data at ln[Tr(M)] Data at ln[Tr(M)] Data at

Figure 7.8: Here we see the distribution of ln [Tr( M( t))] for classical trajectories with m = 1 and E = 1 in a potential
with correlation length 1 and feature height
. 1. We take the data at three times, t = 10, 50, and 150 from left to right. We see that, even at short times, the
distribution is approximately log-normal, and that the agreement with this form improves as time progresses.

| Tr(M)| thus has a log-normal distribution by definition.

A study of the distributions for various quantities for our classical trajectories

bear out this prediction of log-normal behavior. Though it is explicitly a long-time

prediction, we can see the log-normal distributions forming at times short enough to

be relevant to our branching phenomenon. A few examples are shown in Figure 7.8 .

Though our disordered potential is stronger than that generally considered by

theory, some predictions from the weak-disorder cases carry through to our parameter

regime. For our potential with Gaussian correlations, we find the prediction [ 40 , 42 ]

〈 ln | Tr( M)| 〉

ν0= (7.90)
r

νν̄ = ln ( 〈| Tr( M)| 2 〉) (7.91)


2r
ν − ν0
σ ν2 = ¯ . (7.92)
r

Here, r is the range coordinate and we can take it as being approximately proportional

to time by r ≈ ( 2 E/m) 1/2 t. We find ν L and ν ′ from our data, and compare the

predicted variance with that observed. For ranges of up to approximately 150


Chapter 7: Ensemble Averages 143

correlation lengths with potential features at .1 E F , we find agreement with this theory

to within ∼ 10%. Though the distribution of Tr( M) becomes increasingly log-normal

for longer ranges, the agreement with this theory actually worsens; this is presumably

the result of the potential features being so strong.

For weak disorder, we also find in [ 40 ] the prediction

∫∞ 〈∂2 U(z; r − ξ) ∣∣∣∣∣ z=z 0, p=p 0 ∣∣∣∣∣ z=z 0, p=p 0 〉•• 1/3
∂ 2 U(z; r) ∂z 2
ν ′ ≈ •• 1 dξ (7.93)
2 0 ∂z 2

where ν ′ provides an upper bound for lim r →∞ ν 0. In our terms, this translates to

∫∞ ) 1/3

ν′≈ ( 1 dr c 0,2( r, 0) . (7.94)


2 σ2 0

For a potential with Gaussian correlations,

ν ′ ≈ ( 3 σ 2 π 1/2)1/3 L − 1. (7.95)

Out to our ranges of about 150 correlation lengths, this ν ′ upper bound is about a

factor of two larger than the numerical ν 0. This factor is in accordance with results

quoted in [ 40 ].
Chapter 8

Classical Branched Flow

We have already introduced the branched nature of electron flow seen experi-

mentally in 2DEG devices, and have shown that the full quantum-mechanical results

exhibit the same phenomenon. There are so many places in physics where we find a

strong correlation between classical and quantum behaviors that it should not come

as a surprise that the branching appears in classical calculations as well. In Figure 8.1 ,

we see an example of quantum and classical flux through the same potential.

As set out in Chapters 6 and 7 , there are tools of analysis available in classical

mechanics that are not available in quantummechanics. We have already explored the

expected ensemble-averaged behavior; at this point, we turn to the more interesting

behavior in individual realizations of the random potentials.

What will we gain in this discussion? First of all, it opens up for us the language of

individual trajectories in describing the behavior of the flow. Needless to say, particle

trajectories are closer to our daily intuition than is wave mechanics. Second, we

can use the stability matrix analysis already introduced to study the formation and

144
Chapter 8: Classical Branched Flow 145

Figure 8.1: Here we see an example of quantum- and classical-mechanical flux


calculations, carried out in the same potential. In both cases, a QPC determines the shape of the manifold sent
into the random background potential. The agreement between the two calculations is not perfect, but it is
sufficiently good to conclude that branching is largely a classical phenomenon. Though this is our motivation,
we will generally not make direct comparisons between classical and quantum solutions in the same potentials.
Chapter 8: Classical Branched Flow 146

persistence of branches. Third, it is simple to study the branching as a phenomenon in

four-dimensional phase space rather than merely two-dimensional coordinate space.

The structures seen in phase space further illuminate the underlying behavior.

8.1 Physical Systems

The characteristics that we have described for our random potentials are found

in nature, and not only in the 2DEG electron propagation problem. Recent work

on the propagation of sound waves through the ocean has used a similar potential,

and the beginnings of structures very like our branches have been reported [ 40 ].

Similarly, work on gravitational micro-lensing has seen evidence of such structure on

a significantly larger length scale [ 43 ].

We believe that one reason that these structures haven’t been studied in the past

is that it requires one to look beyond the statistical properties of trajectories in the

potential. Those statistical properties are as expected, as we saw in Chapter 7 . The

branching phenomenon is seen as a result of choosing not only a single potential from

the ensemble, but also choosing a special initial manifold (i.e., one-dimensional) of

trajectories. One then must look at the full coordinate space history of the propagated

ensemble.

8.2 Manifolds

For the quantum-mechanical flux calculations, we studied the propagation of elec-

trons through the 2DEG potential after they had passed through a point contact. The
Chapter 8: Classical Branched Flow 147

effect of this point contact was to turn the incident plane wave into something more

like a p-wave: the electrons flowing out into the 2DEG originated from approximately

the same place, but with a distribution of angles and a node along a wall.

In the classical system, we have more freedom in determining how we send elec-

trons through the system. Whatever we do, we need to choose some initial “manifold,”

or collection, of trajectories to launch at the system. We should not expect that our

results will necessarily be independent of this choice. To more closely simulate the

quantum-mechanical experiments, we could launch trajectories that initially fill phase

space (all positions, all angles) and let them pass through a point contact (as we have

done in Figure 8.1 ). The QPC would have the effect of forming a new manifold, with

trajectories close to one another in space but still with a distribution of angles. Al-

ternatively, we could dispense with the QPC and form this vertical manifold in phase

space ourselves.

The latter approach is the one that we will generally take, though whenever direct

comparisons are made between classical and quantum flow through the same potential

we would use the former. The theory used to deal with the classical manifold is clearer

if it is truly one-dimensional in phase space, which we would never achieve using the

QPC method.

Note that the classical mechanics opens up other possibilities as well. We can

orient our one-dimensional manifold any way that we wish, relative to the phase-space

axes. If we were to consider higher-dimensional systems, three spatial dimensions and

up, we would have additional, more interesting choices to make. With two spatial

dimensions, our only option, if we wish to see interesting evolution of the manifold,
Chapter 8: Classical Branched Flow 148

is to use a one-dimensional manifold. If we have three spatial dimensions, we can

consider not only lines of trajectories, but variously oriented sheets as well. The

behaviors that might be seen in such systems have not yet been explored.

8.3 Dimensionless Parameters

Two quantities in our system highlight the fundamentally independent parameters

that we can vary for our ensemble of potentials, and are important as we consider the

branched flow. First, we normalize all energies by the energy of the particles that we

are sending though the system. Hence the value V (x, y) of the potential at a point in

space gives us the height relative to the energy of our particle. Only this ratio, and

not any independent energy scale, is important for the nature of our branches.

Second, we can measure the length scale of our branches in units of the correlation

length of the potential. It is a simple but not well-known result that the spatial re-

scaling of the potential, while keeping the height of the potential the same and the

energy of the particles the same, results in nothing more than a re-scaling of the

classical trajectories through the system. It is worth going through this result below;

we will, at the same time, show the energy-scaling result.

Let our potential be given by V (x, y), and take initial conditions x( 0), y( 0), p x( 0),

and p y( 0). Suppose that the solution is the trajectory given by x(t), y(t), p x( t), and

p y( t). Now consider the same potential stretched spatially by the factor α, and scaled

in energy by a factor µ 2. That is, we have V ′( x, y) = µ 2 V (x/α, y/α). We now consider

initial conditions scaled by the same amounts: x ′( 0) = αx( 0), p ′ x( 0) = µp x( 0), and

similarly for the y components.


Chapter 8: Classical Branched Flow 149

The solution to the equations of motion in this scaled potential with these initial

conditions is x ′( τ) = αx(t) and p ′ x( τ) = µp x( t) with τ ≡ αt/µ, and again similarly for

the y components. We demonstrate this by beginning with the equations of motion

for the scaled system and find that

∂ τ x ′( τ) = 1 (8.1)
mp ′ x( τ)

∂ τ [ αx(t)] = 1 (8.2)
mµp x( t)

α(∂ τ t)∂ t x(t) = 1 (8.3)


mµp x( t)

α(µ/α)∂ t x(t) = 1 (8.4)


mµp x( t)

∂ t x(t) = 1 (8.5)
mp x( t)

which is the equation of motion for the original system and, by our assumptions, we

know it to be satisfied. For the momentum, we have

∂ τ p ′ x( τ) = − ∂ x ′( τ) V ′ ( x ′( τ), y ′( τ)) (8.6)

∂ τ [ µp x( t)] = − ∂ αx(t) V ′ ( αx(t), αy(t)) (8.7)

∂ τ [ µp x( t)] = − ∂ αx(t) µ 2 V (x(t), y(t)) (8.8)

µ(µ/α)∂ t p x( t) = − α − 1 ∂ x(t) µ 2 V (x(t), y(t)) (8.9)

∂ t p x( t) = − ∂ x(t) V (x(t), y(t)) (8.10)

which again is known to be true based on our assumptions.

Clearly, we have performed a time scaling as well as the energy and spatial scal-

ings. To study the branched flow, however, we are interested in the time-independent

coordinate-space projection of the trajectories. Hence we aren’t sensitive to the

changes in time scale introduced in the formal manipulations above.


Chapter 8: Classical Branched Flow 150

8.4 Branch Characteristics

Observing and describing the branched flow is only the first step toward under-

standing it. We also seek a way to describe the formation of these branches, and how

to distinguish the regions of phase space where we find branches from those where we

do not.

8.4.1 Branch Stability Analysis

Going beyond the statistical measures in Chapter 7 , we would like to look at what

is happening with trajectories in our systems. Can we characterize those that end up

in branches, differentiating them from those that do not?

As argued in Chapter 6 , the Lyapunov exponent measure of stability is not par-

ticularly meaningful in these open systems without periodic trajectories. We can now

make a direct comparison between the Lyapunov exponent measure of stability and

the more specialized notion of the rarefaction exponent.

Using the standard Lyapunov exponent measure of stability, shown in Figure 8.2 ,

we see that the trajectories in our branches go through periods of stability and in-

stability. Here we understand “stability” to mean that the Lyapunov exponents go

to zero. The branches do not, however, remain stable for even a majority of their

histories, nor do the branches represent the only regions with such stability. Hence

this measure of stability is a poor descriptive tool for the branching phenomenon.

If we use our rarefaction exponent notion of stability, we find a more useful mea-

sure. Here we see a strong correspondence between branches and stability, shown in

Figure 8.3 . The branches represent not only the least unstable regions of the flow, but
Chapter 8: Classical Branched Flow 151

0 > 2.32

0 > 2.32

Figure 8.2: Here we see the flux through a potential and the corresponding Lyapunov exponent measure of
stability. The top figure shows the flux density in greyscale. We note that the areas of low Lyapunov exponent
(green and yellow) have poor correlation to branch locations. We see areas of high flux with high Lyapunov
exponent, and areas of low flux with low Lyapunov exponent. At each point of coordinate space, we have
shown the stability of the most stable trajectory passing through that point. Higher values in the data have been
clipped to show more detail in this range. In the bottom image, we combine both sets of information, with color
determined by Lyapunov exponent and intensity determined by flux density. This representation makes it easy
to see that the long-range, strong branches pass in and out of areas of low Lyapunov exponent.
Chapter 8: Classical Branched Flow 152

in fact the strongest branches remain stable, with negative rarefaction exponents. The

weaker branches are not stable in this global sense, but do represent areas of relative

local stability. We see no regions of phase space that are local minima of rarefaction

exponents that do not form branches.

8.4.2 Intensity Distribution

Though one has a strong qualitative feel for the branched nature of the flux, there

is a certain difficulty in characterizing it quantitatively. One way to do so is to look

at the distribution of intensities in the flux as a function of the distance from the

launching point. We do this by taking a one-dimensional slice of the flux data at a

fixed radius and applying the appropriate analysis. Qualitatively, what we see in this

slice is that most of space has very little flux, and some regions (where branches pass

through our slice) have very high flux. Fixing a radius and aggregating flux data

from many different potentials in the ensemble, we see an approximately log-normal

distribution of intensities, as shown in Figure 8.4 .

This intensity distribution is theoretically predicted, given some reasonable as-

sumptions about the behavior of the system. We return for a moment to our rar-

efaction measure described above. Let us first take a radial slice and ask about the

distribution of rarefaction coefficients (recall that the rarefaction exponent and coef-

ficient are related by r = ln r c). The arguments laid forth in § 7.5 for the log-normal

distribution of |Tr( M)| apply here as well. Our rarefaction coefficient is merely the

length of the vector M · ˆ d, and the log-normal distribution of the elements of M

give us a log-normal distribution of | M · ˆ d|. This can easily be verified with random
Chapter 8: Classical Branched Flow 153

− 1.34 > 4.1

− 1.34 > 4.1

Figure 8.3: Here we see the flux through a potential and the corresponding rarefaction exponent measure of
stability for the same system as shown in Figure 8.2 . The top figure shows the flux density in greyscale. The
middle figure shows the rarefaction exponent for the same flow. We note that the areas of low rarefaction
exponent (green and yellow) have a strong correlation to areas of high flux density, as contrasted to the
behavior of the Lyapunov exponents. Higher values in the data have been clipped to show more detail in this
range. In the bottom image, we combine both sets of information, with color determined by rarefaction and
intensity determined by flux density.
Chapter 8: Classical Branched Flow 154

0.4
Data
Gaussian fit
0.35

0.3

0.25
Histogram

0.2

0.15

0.1

0.05

0
-4 -2 0 2 4 6 8 10

Log Intensity

Figure 8.4: This figure shows the distribution of intensities in our classical branched flow. The data are taken
from trajectories run in two hundred different realizations of the random potential, looking at the intensities at a
fixed radius. The random potential height was .1 E F , and the slice was taken at a radius of fifty correlation
lengths. What is plotted is the histogram of the logarithms of the intensities, and a Gaussian fit. Were the
distribution of intensities truly log-normal, the plotted histogram would itself be normal. Though the bulk of the
data clearly fits a Gaussian, we have notable deviation from log-normal starting at about 2 σ left of the mean.
The Gaussian fit isn’t perfect, but at least points in the direction of an emerging log-normal intensity distribution.
The quality of this fit improves with radius.
Chapter 8: Classical Branched Flow 155

matrices, and is not peculiar to our choice of ˆ d or the dynamics that generate M.

We now need to connect the distribution of rarefaction coefficients to the observed

distribution of intensities. Let r c be the rarefaction coefficient of a trajectory at our

chosen distance, and let p(r c) be the (log-normal) probability distribution of r c. If

we let the density of trajectories in our initial manifold be unity, then the density

in the neighborhood of our reference trajectory is now ( r c) − 1 by the definition of r c.

We will assume that trajectories sufficiently close to one another will have similar

rarefactions, so that whereas p(r c) gives the probability distribution of r c in terms

of trajectories, r c p(r c) gives the distribution in terms of spatial locations (that is,

we have divided by the trajectory density). Finally, the intensity i at a location

in space is directly proportional to the density of trajectories at that point, and

therefore inversely proportional to r c. Hence the probability distribution of i is given

by i − 1 p(i − 1). Given the log-normal form of p, this is itself log-normal. 1

8.4.3 Length Scales

Though a spatial re-scaling of our potential does change the length scale of the

features that we see in the flow, we saw that it does so in a trivial fashion. We are

left, then, with the task of observing the changes to the flow when we change the

ratio of the energy of our particles to the height of the features in the potential.

The qualitative changes are not surprising. The flow is seen to form branches more

quickly the stronger we make the potential. Stronger potentials cause larger-angle

scattering events, so the spreading trajectories are noticeably perturbed more quickly.
1 A useful, but occasionally annoying, property of the log-normal distribution is it’s robustness to taking powers of the random

variable.
Chapter 8: Classical Branched Flow 156

We have looked for a quantitative measure of this change, and find the most useful to

be the distance to a self-intersection, or conjugate, point. This concept comes from

semi-classical physics and the tracking of Maslov indices [ 44 ].

A self-intersection point is defined as a point where a trajectory and an infinites-

imally displaced neighbor will cross one another. We again only concern ourselves

with displacements that are along the initial distribution. We find that, with such

a definition, the self-intersection points correspond closely to macroscopic foci. We

find the self-intersection points by looking for a zero of the quantity

( − p y( t), p x( t), 0, 0) · M( t) · ˆ d. (8.11)

The vector on the right is an initial displacement along the distribution, and the

vector on the left is one perpendicular to the direction of propagation for the particle

at time t. When this quantity goes to zero, a trajectory has intersected a neighboring

trajectory infinitesimally displaced along the initial distribution. 2

Let us immediately specialize to the case where ˆ d lies entirely in the momentum

subspace, corresponding to trajectories starting from the same point but with different

momenta. With ˆ d specified, the shortest distance to a self-intersection point is a

property of the random potential rather than of any specific manifold, since all starting

positions and directions are equivalent.

Let us take l as the correlation length of our potential, d as the shortest path

length to a self-intersection point, and / E as the feature height in the potential

divided by the energy of the particles in our manifold. We are after a relationship

between the dimensionless quantities d/l and / E. We can find one analytically in
2 If you don’t immediately see this, it shouldn’t be difficult to convince yourself with pen and paper. Consider what it means for this

quantity to change sign.


Chapter 8: Classical Branched Flow 157

the limit / E → 0, though we will see that result still applies in our regime of interest

( / E ∼ . 1).

We will begin by working in terms of a time τ to a self-intersection, rather than

path length d, since time is the fundamentally independent parameter. For weak

potentials, however, we can accurately approximate d ≈ τ( 2 E/m) 1/2. The theory

that we are about to work through is not difficult, but we need to take care to not

lose important terms.

Let us take, without loss of generality, y as the direction transverse to the prop-

agation of the trajectory. When the slope dy/dp y of the manifold is zero, we are at

a self-intersection. Considering the inverse, we want dp y/ dy to go to ±∞. At time

t = 0, we have dp y/ dy = ∞. If we can find the time for dp y/ dy to go from ∞ to zero,

it should be roughly half the time scale for it to go from ∞ to −∞. This is the time

scale for which we solve. 3

In the limit / E → 0, the dynamics are dominated by shearing. Hence we can

take, to first order,

dy
(8.12)
dt = p y( t) m

≈ p y( 0) (8.13)
m

y(t) ≈ p y( t) t (8.14)
m
dy
(8.15)
dp y( 0) ≈ t m
dp y( 0)
(8.16)
dy ≈ m t
3 To see that this is the appropriate time scale to find, consider what happens to the manifold to form a caustic.
Chapter 8: Classical Branched Flow 158

We then have that

dp y
(8.17)
dt = − ∂ y V (~x(t))

p y( t) = p y( 0) − ∫ t dt ′ ∂ y V (~x(t ′)) (8.18)


0
[∫ t ]
dp y( t)
dt ′ ∂ y V (~x(t ′)) (8.19)
dy = dp y( 0) dy − ∂ y 0

dp y( t)
dt ′ ∂ yy V (~x(t ′)) (8.20)
dy = dp y( 0) dy − ∫ t 0

dp y( t)
dt ′ ∂ yy V (~x(t ′)) (8.21)
dy ≈ m t−∫t 0

Let us consider the integral. In our limit, the trajectory will propagate over

many correlation lengths of the potential, which we can consider it to be a series of

uncorrelated events. With l as the correlation length of the potential, the time for

the particle to cover a correlation length is t 1 = l/( 2 E/m) 1/2. We then propagate

over N = t/t 1 correlation lengths, and approximate the integral as a sum over these

independent pieces:

∫t

dt ′ ∂ yy V (~x(t ′)) ≈ N t 1 ( ∂ yy V ) i . (8.22)
0
i= 1

We now need to consider these ( ∂ yy V ) i terms. As we will now argue, they are given

by ( ∂ yy V ) i = r i/ l 2, where the r i are random numbers with zero mean and standard

deviation σ r. The is obvious, since differentiation is a linear operation. The l

dependence comes in from the second derivative and the fact that l sets the length

scale in the potential. Other constants of proportionality go into σ r. One can verify

that the units are correct. By the central limit theorem, as N →∞,

∫t
dt ′ ∂ yy V (~x(t ′)) ≈ t 1 N 1/2 σ r (8.23)
0 l2

1 σr
= t 1/2 t 1/2 (8.24)
l2
Chapter 8: Classical Branched Flow 159

(m ) 1/4

= t 1/2 σ r (8.25)
l 3/2 2E

where we have approximated the integral by the standard deviation of the sum,

which is the appropriate place in the distribution to look for our first self-intersection.

Plugging this result into Eq. 8.21 and setting dp y/ dy = 0 at the time τ , we have

(m ) 0
m 1/4 =

(8.26)
τ − τ 1/2 σ lr 3/2 2E
( 1 2 Em 3 ) 1/4

τ − 3/2 = σ r (8.27)
l 3/2
(E3 ) 1/4
σr
τ − 3/2 = E (8.28)
l 3/2 2 m3
( ) − 2/3 l (2 m3 ) 1/6

τ= . (8.29)
E E 3 σ 4r

The essential piece of this result is the ( / E) − 2/3 dependence. The additional energy

dependence is merely a result of the time scaling already noted in § 8.3 . The result is

perhaps clearer when we write the distance d = τ( 2 E/m) 1/2,

( 2E ) 1/2 ( ) − 2/3 l (2 m3 ) 1/6

d= (8.30)
m E E 3 σ 4r
( ) − 2/3 ( 2 ) 2/3
d
. (8.31)
l= E σr

With this result in hand, we now turn to numerics to test it. Again, we most

directly look at τ(•), time being the independent parameter. Fixing E, however, we

are clearly probing the same relationship as that for d. In Figure 8.5 , we see results in

the range / E ∈ ( 0, .2) and a numerical fit to the data. The − 2/3 power law succeeds

to much higher values of / E than we had a right to expect.


Chapter 8: Classical Branched Flow 160

70
0.70126*x**(-0.65629)
60 Numerical data

50

40

τ
30

20

10

0
0 0.04 0.08 0.12 0.16 0.2

ε /E

Figure 8.5: In this figure, we see the values of τ , the minimum time to a self-
intersection event, as a function of potential strength / E. The fit is performed numerically, and has an exponent
of −. 656, very close to the predicted − 2/3. Because the function is changing more rapidly for small / E, we have
taken more points in that region.

8.4.4 Phase Space Structures

The branches that we see in coordinate space are, of course, merely projections

of structures in phase space. For example, as noted in § 8.4.1 , when we look at the

stability of branches we only see the stability of one trajectory through each point.

The evolution of these structures can provide some insight into the formation and

persistence of these branches.

To see the structures in phase space, we use the method known as the surface of

section, though we do so in a somewhat non-standard fashion. The usual case is to

study a system with an energy hyper-surface (that is, the surface in phase space to

which energy conservation restricts our trajectories) that is bounded in coordinate

space. One then defines a single surface of section and looks at successive intersections

of trajectories with this surface [ 37 ]. In our system, there is no spatial bound on the

trajectories and we are not looking for periodic behavior. We define instead a series of
Chapter 8: Classical Branched Flow 161

surfaces of section at equally spaced intervals, and look at intersections of trajectories

with these surfaces. In some sense, we take surface number as a discretized time

coordinate.

We use the rarefaction information that we are already collecting to color the

phase space slices, allowing us to compare the structures with the stabilities. At the

same time, we track the coordinate space projection of the phase space information,

so that we can further correlate structures and stabilities to branches.

Looking at the full information in phase space, the best correlation to branch

location still appears to be rarefaction exponent. We see, however, an unanticipated

correlation between areas of low rarefaction and turning points in the manifold; this

notion is developed further in Chapter 9 . For the strong, persistent branches, we

see stable “kinks” in the phase space distribution forming on a length scale small

compared to the correlation length of the potential. These knots then contain locally

high densities of trajectories, and are unlikely to be broken up by the action of the

potential until they have spent much time shearing. The regions of phase space

that do not project to branches do contain complex structures, including the cusp

catastrophes characteristic of focusing. These structures are, however, sufficiently

sparsely populated that they do not produce globally significant flux in coordinate

space. See Figure 8.6 for an example of the phenomena mentioned here.

8.5 Branch Management

In the rarefaction exponent, we have a measure that seems to correlate to the

location of branches. We would like to show that, in addition to being descriptive,


Chapter 8: Classical Branched Flow 162

Figure 8.6: In this figure, we see the information that is available to us in the
full phase space. At the top, we see the usual picture of branched flow, colored by rarefaction exponent. At the
bottom, we have five surface of section images taken from evenly spaced points along the image. In this
sequence, color is determined by rarefaction exponent and, in the bar at the bottom, we show the
coordinate-space projections. We note first that the regions of high density in coordinate space correlate well to
low rarefaction exponent, as noted before. We also see that the regions of low rarefaction exponent tend to
correlate to the vertical parts of the manifold. Finally, we see that the strong branch going to the right of the top
image is the projection of a small kink in the manifold.
Chapter 8: Classical Branched Flow 163

there is a useful predictive power to the rarefaction exponent. The stability matrix

for a trajectory is independent of the initial manifold, but the rarefaction exponent

isn’t; we can thus manufacture a manifold that will minimize the rarefaction exponent

for a given trajectory. If we are correct about this measure, the resulting flow should

have a branch along that trajectory.

We begin by generating a potential, running a single trajectory, and finding ~ x(t)

and M( t). We then select some time τ . If we had complete freedom in the orientation

of the initial manifold, we would find the eigenvectors of M( τ) and align the manifold

along the eigenvector with the smallest eigenvalue. We do not, however, have complete

freedom. We clearly restrict ourselves to creating an initial manifold that lies within

the energy hyper-surface. Additionally, we choose to restrict ourselves to points that

lie in a given surface of section.

To deal with our restriction to a subspace of the full phase space, we choose

vectors {ˆ v i} that span the subspace. We then find the “reduced” stability matrix

M ′( t), where

M ′( t) ij = ˆ v i · M( t) · ˆ v j. (8.32)

We can then find the eigenvectors of M ′( τ) and choose an initial manifold in the

full phase space that lies along the eigenvector with the smallest eigenvalue. Because

of expansion or compression along the directions orthogonal to our subspace, the

eigenvalue of M ′( τ) will not give the rarefaction exponent for this trajectory with this

manifold. This selection of manifold does, however, give us the minimum rarefaction

exponent possible with our restrictions.

In practice, there are reasons that this prescription may not work as expected.
Chapter 8: Classical Branched Flow 164

Since the rarefaction exponent of a trajectory is a function of time, we are only assured

of a small rarefaction exponent at the selected time τ ; we know nothing about the rest

of the history of the trajectory. What we may see is a trajectory with a focus at time

τ but no nearby trajectories for t 6= τ . It may also be the case that the rarefaction

exponent for some time t < τ is sufficiently positive that the nearby trajectories leave

the region of linear dynamics. These problems, of course, compound as τ grows.

Despite these problems, numerical experiments have shown good results using this

method. In Figure 8.7 , we see representative results.

At the moment, this control method is merely an interesting theoretical result,

adding credence to our belief that rarefaction is a good tool for describing branches.

It has not been turned into an experimental control method, and I don’t see any

obvious way to achieve this kind of manifold control in the context of 2DEGs. Were

it possible to do so, the ability to direct a branch to a desired location, with the

consequent increase in signal strength over the mean, might find practical application.
Chapter 8: Classical Branched Flow 165

A)

B)

C)

Figure 8.7: Here we see the construction of a manifold to put a branch along a given trajectory. In (A), we see
flux over a random potential. The initial manifold is our usual case of trajectories coming from a single point with
a distribution of angles. In (B), we have isolated a trajectory from the manifold in (A) that clearly doesn’t lie in a
branch. In (C), we show the flux with an initial manifold rotated from that in (A), selected so as to minimize the
rarefaction exponent of the trajectory in (B). We see that the result is a strong branch along the selected
trajectory.
Chapter 9

One-Dimensional Maps

In moving from quantum-mechanical to classical calculations, we stepped away

from the original system of interest but gained some analytical tools. We can take an-

other step by moving from the two-dimensional classical dynamics to a one-dimensional

mapping system. Though we find that not all of the properties seen in the two-

dimensional dynamics carry over to the one-dimensional map, we can take advantage

of additional analysis tools in the one-dimensional system. In this chapter, we explore

some of what we can learn from the mapping system.

The primary advantage of the one-dimensional mapping systems is speed. One

can calculate the evolution of many more trajectories in such a system, and therefore

get better statistical information in shorter periods of time. Additionally, the tools

that we used to look at the evolution of phase-space structures classically are simpler

to apply for mapping systems. Though we note them here, we will not be using

these advantages in this thesis. In this chapter, we begin by laying out the method

for converting the two-dimensional system to a one-dimensional mapping system.

166
Chapter 9: One-Dimensional Maps 167

We then note some differences that crop up between this system and the original.

Finally, we extract an analytical result to back up observations made in phase space

in Chapter 8 .

9.1 Mapping Equations

We must begin by laying out the equations that we will use for our one-dimensional

mapping system. There are two fundamental differences from the full two-dimensional

dynamics. First, we explicitly move from differential equations with a continuous time

variable to a system of discrete time steps. Second, to mimic the two-dimensional

propagation, we will have a changing (i.e., time-dependent) potential in our map. By

creating a system with a time-dependent potential, we give up energy conservation.

In writing our one-dimensional equations of motion, we cannot use the simplest

form of Newton’s equations, out of a concern for area preservation in phase space.

Though we are giving up many other properties, area preservation is a sufficiently

important one that we will make some efforts to retain it. Thinking back to Chapter 6 ,

recall that area preservation is reflected in the determinant of M remaining 1. In the

derivation of the differential equations for M, we at one point utilized discrete time

to find a matrix DM( t+τ, t) in terms of which M( t+τ) = DM( t+τ, t) M( t). Taking

τ → 0 led us to the differential equations.

Now, rather than taking the limit τ → 0, we are stuck with a finite τ between

steps of the map. For the simplest set of one-dimensional equations, we had
• •

• 1 τm − 1 •
DM( t + τ, t) = • • . (9.1)
• •
− τV qq( t, q(t)) 1
Chapter 9: One-Dimensional Maps 168

If we use this form for finite τ , det( DM) 6= 1. We can solve this with an additional

term in the upper left-hand corner of the matrix; there are several ways to arrive at

this term, but let’s just see what it needs to be and then interpret the results. If we

take
• •

• 1 − τ 2 m − 1 V qq τm − 1 •
DM( t + τ, t) = • • (9.2)
• •
− τV qq 1

we have the desired result. Translating this matrix back into equations of motion, we

have that

p(t + τ) = p(t) − τV q( q(t)) (9.3)

q(t + τ) = q(t) + τm − 1 p(t) − τ 2 m − 1 V q( q(t)) (9.4)

which can be re-written as

p(t + τ) = p(t) − τV q( q(t)) (9.5)

q(t + τ) = q(t) + τm − 1 p(t + τ). (9.6)

We get exact area preservation for any τ if we use these modified equations. The

modification only requires that we update the momentum first, then use the new

momentum value to update the position. Clearly, there are other ways that we

could have achieved area preservation, but this method results in the most sensible

alteration to our equations of motion.

As mentioned earlier, our mapping system is explicitly one of discrete time steps,

so we can eliminate the “time” coordinate entirely in favor of a step index. At this

point, we also need to make our potential explicitly step-dependent. Thus we arrive
Chapter 9: One-Dimensional Maps 169

at

p i+ 1 = p i − τ∂ q V i( q i) (9.7)

q i+ 1 = q i + τm − 1 p i+ 1. (9.8)

9.2 Mapping Potentials

The mapping system gives us even more flexibility in determining the potential.

Let us first explore the version most closely related to the two-dimensional dynamics

already studied. Let V (x, y) be a two-dimensional potential that we might use in the

full dynamics. We can now take slices of this potential at discrete steps in x, letting

V i( q) = V (i ∆ x, q). The choice of step size ∆ x can be related to our choice of time

step τ in the mapping system. Though we cannot preserve energy in the mapping

system, we can at least start with the trajectory energies near some value E. We can

then take

( 2E ) 1/2
∆x
. (9.9)
τ=v= m

One clear step that we could take away from the full classical system is to abandon

this choice of ∆ x. By varying the value used, we can change the amount of correlation

between the potential at one step and the next.

There is also no reason that we need to choose the potential so closely related

to that of an actual two-dimensional system. To go to the other extreme, we could

generate new random one-dimensional potentials from some ensemble at each time

step. If we want to maintain some degree of correlation between potentials at each


Chapter 9: One-Dimensional Maps 170

step, we can “mix in” a new random potential at each step with some mixing factor

to determine the degree of correlation.

For the most part, we will use potentials generated by taking slices of an actual

two-dimensional potential. One should note that this is a logical extension of work

done with the two-dimensional dynamics where we looked at successive surfaces of

section.

9.3 Branches in Mapping Systems

The branched flow has proven so robust to date, it should come as no surprise that

is persists when we move to a one-dimensional mapping system. It does so in any

kind of potential that we use, both those that come from slices of two-dimensional

potentials and those that are generated as one-dimensional potentials with forced

correlations. In Figure 9.1 , we have an example.

The relationship between branch location and low rarefaction exponent, however,

doesn’t seem as strong in the mapping systems as it is in the full two-dimensional

dynamics. For those potentials that have their origins in full two-dimensional po-

tentials, the correspondence is still there. Looking at our more general potentials,

however, it is largely broken, as shown in Figure 9.2 . What we see in those cases is a

greater dependence of stability on index number. The failure of Lyapunov exponents

to correlate with branch location, however, is still true in all cases.


Chapter 9: One-Dimensional Maps 171

Figure 9.1: Here we have three images of branched flow in a mapping system where the potential is a true
two-dimensional one (here, a superposition of plane waves). The vertical axis of each picture is the q coordinate,
the horizontal axis is the time, or step index. Trajectories are launched from a single point with a distribution of
momenta. In the first image, we see the greyscale image of the flux, which shows the branching phenomenon.
In the second image, we have the rarefaction information for the same flow. In the third, we have the flux
information again, now colored by the rarefaction information. We note that, though there is generally good
agreement between flux and rarefaction, there are areas of small rarefaction exponent that do not seem to
show high flux.
Chapter 9: One-Dimensional Maps 172

Figure 9.2: Here we have three images of branched flow in a mapping system where the potential is
one-dimensional, with a new random potential mixed in at every step. This does not correspond to a sliced
two-dimensional potential. The vertical axis of each picture is the q coordinate, the horizontal axis is the time, or
step index. Trajectories are launched from a single point with a distribution of momenta. In the first image, we
see the greyscale image of the flux, which shows the branching phenomenon. In the second image, we have
the rarefaction information for the same flow. In the third, we have the flux information again, now colored by
the rarefaction information. In this system, the relationship between rarefaction exponent and branch location is
poor at best. Beginning very early in the flow, we see areas of high flux but high rarefaction exponents, and
areas of low flux with low rarefaction exponents.
Chapter 9: One-Dimensional Maps 173

9.4 Stability Analysis

In light of the apparent breakdown of the relationship between flux density and

rarefaction exponent, it is dubious to draw conclusions about that relationship based

on mapping systems. Nevertheless, the simplifications that come with the mapping

system allow analytic work that we can only do in the full two-dimensional dynamics

with some hand waving. In particular, we use the mapping system to explore the

noted relationship between low rarefaction exponent and “vertical” manifolds. The

“verticality” of the manifold in phase space was one early candidate for determining

where branches form, as such areas of phase space will have many trajectories built up

at the same coordinate space location. Though that relationship didn’t pan out, we

do see that areas of low rarefaction exponent are frequently areas where the manifold

is vertical (the converse fails to be true). We will explore this relationship.

Let us consider the following mapping system. For n 0 steps, the manifold prop-

agates through free space. Then there is one time step with a potential V (q). After

passing over this potential, there are n 1 more steps of free space. This gives us
• •

• 1 n 0,1 τm − 1 •
DM n 0,1 = • • (9.10)
• •
0 1
• •

• 1 − τ 2 m − 1 V qq τm − 1 •
DM V = • • . (9.11)
• •
− τV qq 1

Putting this together, we have M = DM n 1 DM V DM n 0. Now, we find a condition on

the potential that yields a vertical manifold. We require


• •
( )
• 0 •
· M· • • =0 (9.12)
10 • •
1
Chapter 9: One-Dimensional Maps 174

This gives us

( 1 − τ2 m−1 V v ) )

qq
n 0 τm − 1 + τm − 1 + ( 1 − n 0 τ 2 m − 1 V v qq
n 1 τm − 1 = 0 (9.13)

(1 )

V v qq = 1 +1 (9.14)
τ2 m−1 n0 n1+ 1

where the superscript v indicates that this is the condition for verticality of the

manifold.

Plugging this potential value into the stability matrix, we get the simplified version
• •

• −( n 1 + 1) n − 1 0
0 •
Mv= • • . (9.15)
• •
− mτ − 1 ( n − 1 0+( n 1 + 1) − 1) − n 0( n 1 + 1) − 1

It is now simple to find the rarefaction exponent as well, which gives us


∣∣∣∣∣∣∣∣ Mv· • •
[n0 ]
• 0 •
ln • • . (9.16)
• • ∣∣∣∣∣∣∣∣ = ln
n1+ 1
1

Suppose that, rather than looking for a vertical manifold, we seek to minimize the

rarefaction exponent. That is equivalent to finding


∣∣∣∣∣∣∣∣ M· • •

• 0 •
min • • (9.17)
• •

1 ∣∣∣∣∣∣∣∣

as a function of V qq. Much algebra, of which we will spare the reader, yields

[1 ]
n1+ 1
V r qq = 1 + (9.18)
τ2 m−1 n0 τ − 2 m 2 + ( n 21 + 1) 2

and the minimum rarefaction exponent is


∣∣∣∣∣∣∣∣ Mr· • •
[ ]
• 0 • n 20
ln • • (9.19)
• • ∣∣∣∣∣∣∣∣ = 1
2 ln τ − 2 m 2 + ( n 1 + 1) 2
1
Chapter 9: One-Dimensional Maps 175

where we have let M r ≡ M| V qq → V r


qq .

We note that, in the limit n 1 + 1 τ − 1 m, V r qq = Vv qq. Additionally, in the same

limit we find that the rarefaction exponents in each case go to the same value (which

happens to approach −∞ as n 1 → ∞). So, as one propagates farther from the

focusing event, the condition to be vertical becomes the same as the condition to

have the minimum rarefaction exponent.

What about the Lyapunov exponent for these vertical regions? From Eq. ( 9.15 ),

we see that the eigenvalues are [ −( n 1+ 1)/ n 0] ± 1. Thus, in the same large n 1 limit where

verticality corresponds to small rarefaction exponent, we find the Lyapunov exponent

increasing without bound. These results are shown graphically in Figures 9.3 and 9.4 .

We conclude from this result that the process of shearing, in the absence of any

potential, will concentrate trajectories in the turning points of the manifold. This

results in a correlation between rarefaction exponent and vertical sections of the

manifold, a correlation observed in Chapter 8 . Even in regions where there are no

strong branches, we expect that turning points in the manifold will correspond to

locally low rarefaction exponent.


Chapter 9: One-Dimensional Maps 176

Figure 9.3: Here we see flux in a simple mapping system. The trajectories pass over 100 steps of flat potential
before hitting a single focusing dip. They then pass over another 700 steps of flat potential. From top to bottom
we have the flux, the rarefaction exponent, and the flux colored by the rarefaction exponent. We see that the
two concentrations of flux are also highly localized areas of low rarefaction exponent, a correspondence that
gets better as we move from left to right.
Chapter 9: One-Dimensional Maps 177

Figure 9.4: Here we see flux in the same simple mapping system as Figure 9.3 . The trajectories pass over 100
steps of flat potential before hitting a single focusing dip. They then pass over another 700 steps of flat
potential. From top to bottom we have the flux, the Lyapunov exponent, and the flux colored by the Lyapunov
exponent. We see that the areas of low Lyapunov exponent do not correspond to the concentrations of flux.
Furthermore, these concentrations are growing less stable in this measure the farther we go to the right.
Bibliography

[1] D. Baye and P.-H. Heenen, Journal of Physics A 19, 2041 (1986).

[2] W. H. Press, S. A. Teukolsky, W. T. Vetterling, and B. P. Flannery, Numerical


Recipes in C ( Cambridge University Press, New York, 1997).

[3] F. B. Hildebrand, Introduction to Numerical Analysis ( McGraw-Hill, New York,


1974).

[4] D. Baye, Journal of Physics B 28, 4399 (1995).

[5] H. Karabulut and E. L. Sibert, Journal of Physics B 30, L513 (1997).

[6] V. Szalay, Journal of Chemical Physics 99, 1978 (1993).

[7] A. H. Barnet, Ph.D. thesis, Harvard University Department of Physics, 2000.

[8] E. J. Heller, Physical Review Letters 53, 1515 (1984).

[9] M. B¨ uttiker, Y. Imry, R. Landauer, and S. Pinhas, Physical Review B 31, 6207 (1985).

[10] D. J. Thouless and S. Kirkpatrick, Journal of Physics C 14, 235 (1981).

[11] P. A. Lee and D. S. Fisher, Physical Review Letters 47, 882 (1981).

[12] T. Kawamura and J. P. Leburton, Physical Review B 48, 8857 (1993).

[13] K. Nikoli´c and A. MacKinnon, Physical Review B 50, 11008 (1994).

[14] G. B. Arfken and H. J. Weber, Mathematical Methods for Physicists, fourth ed.
(Academic Press, New York, 1995).

[15] S. Datta, Electronic Transport in Mesoscopic Systems ( Cambridge University


Press, New York, 1995).

[16] C. M. Marcus et al., Physical Review Letters 69, 506 (1992).

[17] J. D. Jackson, Classical Electrodynamics, 3rd ed. (Wiley, New York, 1999).

178
Bibliography 179

[18] H. U. Baranger and A. D. Stone, Physical Review B 40, 8169 (1989).

[19] R. Feynman, The Feynman Lectures on Physics ( Addison-Wesley, Reading, MA,


1964).

[20] Mesoscopic Electron Transport, No. 345 in NATO Asi Series E, Applied Science,
edited by L. L. Sohn, L. P. Kouwenhoven, and G. Schon (Kluwer Academic Publishers, Boston, 1997).

[21] J. H. Davies, The Physics of Low-Dimensional Semi-Conductors: An Introduc-


tion ( Cambridge University Press, New York, 1997).

[22] M. A. Topinka et al., Science 289, 2323 (2000).

[23] M. A. Topinka et al., Nature 410, 183 (2001).

[24] B. J. van Wees et al., Physical Review Letters 60, 848 (1988).

[25] D. A. Wharam et al., Journal of Physics C 21, L209 (1988).

[26] C. W. J. Beenakker and H. van Houten, Solid State Physics 44, 1 (1991).

[27] L. W. Molenkamp et al., Physical Review B 41, 1274 (1990).

[28] K. L. Shepard, M. L. Roukes, and B. P. van der Gaag, Physical Review Letters
68, 2660 (1992).

[29] M. Eriksson et al., Applied Physics Letters 69, 671 (1996).

[30] J. S. Hersch, Ph.D. thesis, Harvard University Department of Physics, 1998.

[31] J. A. Katine et al., Physical Review Letters 79, 4806 (1997).

[32] D. J. Griffiths, Introduction to Electrodynamics, 2nd ed. (Prentice Hall, Engle-


wood Cliffs, New Jersey, 1989).

[33] R. Grill and G. H. Dohler, Physical Review B 59, 10769 (1999).

[34] B. J. LeRoy, private communication.

[35] A. Kalben, private communication.

[36] Les Houches, Session LII: Chaos and Quantum Physics, edited by M.-J. Gian-
noni, A. Voros, and J. Zinn-Justin (North-Holland, New York, 1991).

[37] E. Ott, Chaos in Dynamical Systems ( Cambridge University Press, New York,
1993).
Bibliography 180

[38] V. I. Arnold, Mathematical Methods of Classical Mechanics ( Springer-Verlag,


New York, 1978).

[39] A. Ishimaru, Wave Propagation and Scattering in Random Media ( IEEE Press,
New York, 1997).

[40] M. A. Wolfson and S. Tomsovic, Journal of the Acoustical Society of America


109, 2693 (2001).

[41] P. O’Connor, J. Gehlen, and E. J. Heller, Physical Review Letters 58, 1296
(1987).

[42] M. G. Brown et al., Ray Dynamics in Ocean Acoustics, 2001, nlin.CD/0109027,


available at xxx.lanl.gov.

[43] K. P. Rauch, S. Mao, J. Wambsganss, and B. Paczynski, Astrophysical Journal


386, 30 (1992).

[44] B. Eckhardt and D. Wintgen, Journal of Physics A 24, 4335 (1991).

Vous aimerez peut-être aussi