análisis de las propiedades de la cromodinámica cuántica a...

37
Análisis de las propiedades de la cromodinámica cuántica a partir de la comparación con las propiedades de la electrodinámica cuántica. Delgado Jeicot, Munevar Edwin Universidad Distrital “Francisco José de Caldas”, Facultad de Ciencias y Educación Grupo de Física e Informática “FISINFOR” The Quantum Chromodinamics or QCD, born as an attempt to know the behavior and the structure of the nucleus, where the atomic model proposed did not explain how could exist a state such a proton-neutron inside of those. This works pretend to be an introduction to QCD for undergraduate students, this going to be achieve by the comparison between this and the most succesful quantum field theory, the quantum electrodinamics or QED. Here we will build a picture like a resume, where the main properties and dierences from those two theories are going to be displayed qualitatively, one of this properties is the asymtotic freedom, a crucial property that trans QCD into an appropriate theory for the strong interaction which bind the proton and neutron. Aside of this, we are going to do a short remark about the presedent theories who helped to build the strong theory, from the Yukawa’s theory to Politzer, Wilczek and Gross theory who after a rigorous eort found that QCD is the most appropriate theory for surprise of the scientific community. Palabras clave: Quantum Chromodinamics, Quantum Electrodinamics, atomic models, asymtotic feedom. Desde las primeras teorías como la de Empédocles que proponía la existencia de cuatro constituyentes fundamen- tales el agua, el aire, el fuego y la tierra, u otras aún más antiguas como la propuesta en la India donde se mencionaba siete elementos fundamentales, siempre se ha buscado cual es o cuales son esos elementos constituyentes de la materia y cada vez se ha estado más cerca de la verdad. Cuando J.J. Thomson propuso su modelo del “pie de uvas”, y Rutherford junto a sus colaboradores empezó a pulirlo hasta llegar al modelo de Sommerfield, se pensaba que ya se tenía una teoría bastante buena y apropiada sobre la constitución de la materia, solo bastaban tres partículas elementales, el neutrón, el protón y el electrón, para conformar todos los elementos conocidos y toda la materia existente, sin Jeicot Delgado, Proyecto Curricular de Licenciatura en Física, Grupo de Física e Informática “FISINFOR”, Facultad de Ciencias y Educación, Universidad Distrital “Francisco José de Caldas”. Este trabajo de grado fue financiado por el Centro de Investiga- ciones de la Universidad Distrital (CIDC). Especial agradecimiento a mis padres que hicieron posible mi educación. Trabajo de grado como requisito para optar por el título de: “Li- cenciado(a) en Física” de la Universidad Distrital “Francisco Jose de caldas”. Código estudiante: 20071135016, [email protected] , Bogotá, Colombia 2016. embargo, existía un pequeño problema dentro del átomo, no se sabía como un protón podía convivir con un neutrón en el núcleo ya que estas no estaban ligadas eléctricamente, cómo era posible que un núcleo fuera estable sabiendo que no existía ninguna fuerza, hasta el momento, que pudiera dar cuenta de esta atracción entre estas dos partículas. Solo fue hasta que se pensó un nuevo tipo de interacción, llamado interacción fuerte, que los científicos empezaron a aproximarse a esa verdad oculta detras del núcleo que permitió entender en gran medida cómo estaba constituida la materia y, primordialmente, cómo esta interactuaba. La teoría de la cromodinámica cuántica o, por sus siglas en inglés, QCD quantum cromodynamic, es una teoría sobre la interacción fuerte con un marco matemático bastante robusto, pero tiene la ventaja de poder explicar el cómo esta compuesta la materia junto con la teoría electrodébil, dentro del marco del modelo estándar. Esta es una teoría que tuvo bastantes altibajos, cada vez que se pensaba que se estaba próximo a una teoría apropiada, surgían evidencias de algo más allá, muchas veces un problema más complejo que el anterior, que desemboca en el problema actual de la teoría de Lattice QCD que se sale del objetivo de este texto. Partiendo desde la teoría de Yukawa, hasta llegar a la cromodinámica cuántica propuesta por David Gross, Wilzek y Politzer, la interacción fuerte ha dado sorpresas, y que

Upload: phamnhi

Post on 18-Mar-2019

212 views

Category:

Documents


0 download

TRANSCRIPT

Análisis de las propiedades de la cromodinámica cuántica a partir de lacomparación con las propiedades de la electrodinámica cuántica.

Delgado Jeicot, Munevar EdwinUniversidad Distrital “Francisco José de Caldas”, Facultad de Ciencias y Educación

Grupo de Física e Informática “FISINFOR”

The Quantum Chromodinamics or QCD, born as an attempt to know the behavior and thestructure of the nucleus, where the atomic model proposed did not explain how could exist astate such a proton-neutron inside of those. This works pretend to be an introduction to QCDfor undergraduate students, this going to be achieve by the comparison between this and themost succesful quantum field theory, the quantum electrodinamics or QED.

Here we will build a picture like a resume, where the main properties and differencesfrom those two theories are going to be displayed qualitatively, one of this properties is theasymtotic freedom, a crucial property that trans QCD into an appropriate theory for the stronginteraction which bind the proton and neutron. Aside of this, we are going to do a short remarkabout the presedent theories who helped to build the strong theory, from the Yukawa’s theoryto Politzer, Wilczek and Gross theory who after a rigorous effort found that QCD is the mostappropriate theory for surprise of the scientific community.

Palabras clave: Quantum Chromodinamics, Quantum Electrodinamics, atomic models,asymtotic feedom.

Desde las primeras teorías como la de Empédocles queproponía la existencia de cuatro constituyentes fundamen-tales el agua, el aire, el fuego y la tierra, u otras aún másantiguas como la propuesta en la India donde se mencionabasiete elementos fundamentales, siempre se ha buscado cuales o cuales son esos elementos constituyentes de la materiay cada vez se ha estado más cerca de la verdad. Cuando J.J.Thomson propuso su modelo del “pie de uvas”, y Rutherfordjunto a sus colaboradores empezó a pulirlo hasta llegar almodelo de Sommerfield, se pensaba que ya se tenía unateoría bastante buena y apropiada sobre la constituciónde la materia, solo bastaban tres partículas elementales,el neutrón, el protón y el electrón, para conformar todoslos elementos conocidos y toda la materia existente, sin

Jeicot Delgado, Proyecto Curricular de Licenciatura en Física,Grupo de Física e Informática “FISINFOR”, Facultad de Cienciasy Educación, Universidad Distrital “Francisco José de Caldas”.

Este trabajo de grado fue financiado por el Centro de Investiga-ciones de la Universidad Distrital (CIDC). Especial agradecimientoa mis padres que hicieron posible mi educación.

Trabajo de grado como requisito para optar por el título de: “Li-cenciado(a) en Física” de la Universidad Distrital “Francisco Josede caldas”.

Código estudiante: 20071135016, [email protected],Bogotá, Colombia 2016.

embargo, existía un pequeño problema dentro del átomo,no se sabía como un protón podía convivir con un neutrónen el núcleo ya que estas no estaban ligadas eléctricamente,cómo era posible que un núcleo fuera estable sabiendo queno existía ninguna fuerza, hasta el momento, que pudieradar cuenta de esta atracción entre estas dos partículas.Solo fue hasta que se pensó un nuevo tipo de interacción,llamado interacción fuerte, que los científicos empezarona aproximarse a esa verdad oculta detras del núcleo quepermitió entender en gran medida cómo estaba constituidala materia y, primordialmente, cómo esta interactuaba.

La teoría de la cromodinámica cuántica o, por sus siglasen inglés, QCD quantum cromodynamic, es una teoría sobrela interacción fuerte con un marco matemático bastanterobusto, pero tiene la ventaja de poder explicar el cómoesta compuesta la materia junto con la teoría electrodébil,dentro del marco del modelo estándar. Esta es una teoríaque tuvo bastantes altibajos, cada vez que se pensaba que seestaba próximo a una teoría apropiada, surgían evidenciasde algo más allá, muchas veces un problema más complejoque el anterior, que desemboca en el problema actual dela teoría de Lattice QCD que se sale del objetivo de este texto.

Partiendo desde la teoría de Yukawa, hasta llegar a lacromodinámica cuántica propuesta por David Gross, Wilzeky Politzer, la interacción fuerte ha dado sorpresas, y que

2 JEICOT DELGADO

mayor sorpresa que la existencia de un comportamientoextraño de los constituyentes, ese concepto llamado libertadasintótica, concepto que, gracias a un solo signo y unainterpretación formidable de este, hace que la teoría cobreun éxito mucho mayor que cualquier otra teoría que tratesobre esta interacción. Solo basta con recordar las palabrasde David Gross en lo que respecta al descubrimiento deeste signo que rige el comportamiento asintótico: ´´Like anatheist who has just received a message from a burning bush,I became an immediate true believer. (Gross, 1999) (Al igualque un ateo quien acaba de recibir un mensaje de un arbustoen llamas, me convertí inmediatamente en creyente).”

Este texto tiene como objetivo mostrar en que consiste lateoría de la cromodinámica cuántica, esto mediante los he-chos históricos que la llevaron a la cumbre y la comparacióncon su teoría hermana, la electrodinámica cuántica o, por sussiglas en inglés, QED (Quantum Electrodynamic). En estetexto, también se busca orientar e interesar a los estudiantesde la Universidad Distrital, más precisamente, a los estudian-tes de licenciatura en física, para que continúen el presentetrabajo aportando a la construcción de esta teoría bastanteinteresante. Tenga en cuenta que este trabajo no propone serun soporte riguroso de cada uno de los desarrollos teóricosde la interacción fuerte, por lo cual, no posee un lenguajematemático formal ni muestra desarrollos analíticos preci-sos, su enfoque tiende a ser más conceptual mostrando lasinterpretaciones de los procesos mostrados, sin embargo, esde importancia que el lector posea unos conceptos básicossobre la mecánica cuántica y la teoría de perturbaciones.

Electrodinámica Cuántica

La teoría de la electrodinámica es una teoría que se enfocaen explicar fenómenos naturales en los cuales interactúan,tanto la electricidad como el magnetismo, con la materia;estos fenómenos son explicados mediante las ecuaciones deMaxwell. En su componente macroscópica, el electromagne-tismo se centra en estudiar los fenómenos donde se encuen-tran presentes cargas en movimiento o estáticas y cómo estasinfluyen en el comportamiento del sistema bajo estudio. Parael caso microscópico, los procesos son tratados mediante lamecánica cuántica la cual tuvo éxito al explicar los fenóme-nos presentes dentro del átomo.

Breve Reseña Sobre la Electrodinámica Clásica

La electrodinámica clásica se planteó como una teoríaque intentaba explicar el comportamiento de la materiacuando esta interactuaba electromagnéticamente. Una de lasprimeras aproximaciones formales propuestas para explicaresta interacción proponía la existencia de constituyentes opartículas por medio de las cuales la interacción electromag-nética se presentaba, Newton, en 1704, propuso la existencia

de unos entes mediadores que indicaban la presencia de unacarga eléctrica y cómo esta se comportaba(D. J. Griffiths yCollege, 1999). Él realizó un gran aporte al entendimientode cómo la luz interacciona con la materia a partir de suinterpretación de la luz en forma de partículas o corpúsculos.De este modo, logró explicar la mayoría de los diferentesfenómenos que presenta la luz, sin embargo, una de lasgrandes complicaciones se presentó al intentar explicar elfenómeno de reflexión, más específicamente, la reflexiónparcial.

En este proceso, la luz atraviesa una sustancia y solo unaporción de luz es reflejada mientras que la otra porción estransmitida. Considere el siguiente arreglo experimental: setiene un vidrio el cual es iluminado con luz monocromática(de un solo color, por lo tanto una única frecuencia) deforma tal que el vidrio permite que solo el 4 % de la luz seareflejada mientras que el 96 % es transmitida y es medida porun detector B que se encuentra encerrado dentro del vidrio.El esquema de este proceso se muestra en la Figura 1.

Figura 1. En esta imagen se muestra que el 96 % de la luz es trans-mitida y detectada en B, mientras que el otro 4 % es medida por eldetector A

Si se introduce una capa delgada de vidrio después deuna primera capa igualmente delgada se esperaría, bajo laexplicación corpuscular (en términos de partículas) de lamateria, que aproximadamente un 4 % de luz vuelva a serreflejada, pero lo que en realidad sucede en este fenómeno,es que no se refleja un total del 8 % de la luz, si no un16 % (Figura 2). Si se disminuye la distancia de separaciónentre las dos capas de vidrio se reduce el porcentaje de luzreflejada y pasa a un 10 % y cada vez que se disminuye elespaciamiento, el porcentaje decae hasta un valor de cero.En el caso contrario, al aumentar la distancia de separacióntambién se produce un decremento en el porcentaje de luzreflejada gradualmente hasta llegar a un valor igualmentede cero. Bajo la interpretación propuesta, este fenómeno eratotalmente desconcertante ya que, ¿cómo podría dependerla cantidad de partículas reflejadas de la distancia entre las

CROMODINÁMICA CUÁNTICA 3

dos capas?, Este fenómeno produjo una gran complicaciónen la interpretación de la luz como una partícula y fueun gran problema para Newton el poder explicarla. Paratratar de defender su aseveración llego a proponer que loscorpúsculos de luz se comunicaban de alguna forma y leenviaban información al otro corpúsculo definiendo si podíapasar o no. Esta fue una de las primeras nociones de camposinteractuantes, sin embargo, era totalmente descabellado quesu comunicación se basara en un elemento mediador entreestos ((Feynman, 1985)).

Figura 2. Esta imagen muestra un arreglo experimental similar ala Figura 1, con la inclusión de una capa delgada adicional modifi-cando enormemente el comportamiento de la luz

En esa misma época, existía otra interpretación de laluz, liderada por Huygens, la cual consistía en tratarlacomo si fuese una onda, pero, al igual que la interpretacióncorpuscular, la teoría permitía explicar una gran variedad defenómenos incluyendo el fenómeno de la reflexión parcial,sin embargo, cuando un foto detector (aparato que permitedetectar cuando llega la luz a este mediante un tic) esirradiado con luz monocromática y se comienza a disminuirgradualmente la intensidad de luz, no se disminuye laintensidad del sonido como predecía la teoría ondulatoria, sino aumenta la separación del sonido de cada tic, fenómenoen el cual la interpretación corpuscular sale triunfante.

Ambas teorías tenían sus logros y sus desventajas, pero laprueba reina que mostró el extraño comportamiento de la luzfue el experimento de la doble rendija, Figura 3, este consisteen establecer una barrera en medio de un haz de luz mono-cromático alineado con un foto detector. A esta barrera se leabren dos orificios uno de estos alineado y el otro ligeramen-te desplazado del otro. Cuando uno de los orificios A o Bes tapado, el foto detector suena un 2 % de las veces, de talforma que la luz pasa por B o A, ahora si se destapan los dosorificios se esperaría que el foto detector sonara o detectaraun 4 % de las veces pero en vez de esto, el suena un 8 %,además este valor varía según la distancia de separación en-tre los orificios. Hasta este punto, se pensaría en la luz comouna onda, no obstante, si se modifica ligeramente este expe-rimento introduciendo dos foto detectores en los orificios A

y B, estos suenan un 2 % de las veces de forma individual yel foto detector último un 4 % sin que su valor varíe según ladistancia de separación entre los orificios. Este fue un hechodesconcertante por lo cual se pensaba que la luz se compor-taba según el tipo de experimento que se iba a realizar, enalgunos casos esta lo hacia como partícula (cuando se poníanlos detectores en los orificios A y B) y en otros como ondas(cuando los orificios no tenían tales detectores), por lo cualfue llamada dualidad onda-partícula.

Figura 3. La imagen muestra el arreglo experimental con el cual seevidencia la ”dualidad onda-partícula“. Cuando los dos orificios seencuentran abiertos, la luz se comporta como una onda producien-dose un patrón de interferencia en D. Si se tapa un orificio, la luz secomporta como partícula produciendose la detección de un haz departículas en D.

Electrodinámica Cuántica como Teoría Cuántica deCampos

A partir de estos experimentos, fue necesario revisarla teoría y se propuso la electrodinámica cuántica o QEDpor sus siglas en inglés (Quantum Electrodynamics).Esta propone que la luz esta compuesta por partículascaracterizadas por un vector que las representa y cuyamagnitud está relacionada con la probabilidad de que unproceso, por ejemplo la trasmisión de luz en el caso de lareflexión parcial, se de. Adicional a esto, su dirección estávariando continuamente y depende de la frecuencia de laspartículas (similar a las manijas del reloj que están rotandoconstantemente y cuya rotación dependen de la frecuenciacaracterística del minutero, segundero y el horario, pero enuna versión mas rápida), de esta forma se pasa a tener unainterpretación probabilística de los fenómenos de la luz.

Como prueba a la teoría, es posible explicar los fenóme-nos mencionados anteriormente usando esta interpretación,de tal forma que para el primer fenómeno consistente en irra-diar con una fuente de luz monocromática un vidrio (que in-dica que tiene una frecuencia o una velocidad de rotación delvector fija), se tiene en la primera parte del fenómeno y parael caso de una partícula con vector de magnitud 0.2 unidades,una probabilidad del 4 % de que la luz sea reflejada. Don-de esta probabilidad es determinada tomando el cuadrado desu magnitud, que es 0.04 y que representa la probabilidadde que el evento o proceso se de. Para la segunda parte enla cual se introduce otra capa delgada de vidrio se produce

4 JEICOT DELGADO

una probabilidad igual para la primera capa, pero ahora lasegunda puede alterar el fenómeno, si la partícula que fuereflejada por la segunda capa llega al mismo tiempo que lareflejada por la primera pero con dirección totalmente con-traria, estos se restarán y producirán una probabilidad de 0(0.2 de la primera capa menos 0.2 de la segunda), pero si sevaria la distancia de separación alejando la segunda capa, lapartícula reflejada por esta tendrá mas tiempo de girar hastallegar a la misma dirección que la primera y se producirá unaprobabilidad de 16 % (0.2 de la primera partícula mas 0.2 dela segunda produce un vector de 0.4 cuyo cuadrado es 0.16,en la Figura 4 se muestra un esquema de cómo se realiza estasuma).

Figura 4. En esta imagen se muestra, esquemáticamente, la sumavectorial de los vectores de dos partículas que llegan con la mismadirección al detector. Cuando esto se produce, se presenta una in-terferencia constructiva entre estos, aumentando la probabilidad deser detectados.

De esta forma es posible explicar como se presenta estosfenómenos en términos de probabilidades siendo coherentecon los valores experimentales y porqué en algunos casosse detecta la luz y porqué en otros no. Uno de los aspectosmás importantes en esta teoría, es un postulado propuesto porFeynman (Feynman, 1985) el cual indica que todos los pro-cesos que se presentan o se puedan presentar en el fenómenohan de ser tomados, es decir, sin importar como se de el pro-ceso, se han de tener en cuenta todas las posibles formas enque se pueda llevar desde un estado inicial (emisión de la luzmonocromática sin interactuar) hasta un estado final (detec-ción de la luz por el detector), de esta forma se incluyen tantolos procesos en los cuales la luz toma los caminos “clásicos”,que son aquellos donde la luz le toma menos tiempo en llegaral detector (como ejemplo, la luz siendo transmitida por elprimer vidrio, luego siendo reflejada por el segundo, despuéssiendo transmitida por el primero para luego ser detectada),junto con todos los demás caminos donde no toma el caminomás rápido (por ejemplo, la luz siendo transmitida por la pri-mera capa del vidrio, luego siendo reflejada por la segundacapa para ser reflejada de nuevo por la primera capa, llegandoa la segunda donde, de nuevo, es reflejada y cuando llega ala primera capa por tercera vez, es transmitida para luego serdetectada). Esto es mostrado esquemáticamente en la Figura

5

Figura 5. En esta imagen se muestra uno de los posibles caminosque puede tomar la luz en el experimento.

Para poner a prueba el argumento propuesto por Feynmanacerca de todos los caminos posibles que la luz puede tomar,es necesario poner a prueba la teoría de la electrodinámicacuántica, por esto, se tratará el fenómeno de reflexión, dondela luz es reflejada al chocar o interaccionar con una superfi-cie. El experimento consiste en alinear una fuente de luz mo-nocromática S y un detector P, con un obstáculo en mediode ellos. Debajo de estos se pone un espejo en paralelo con laalineación, de tal forma que la luz de la fuente sea reflejadaen éste para luego ser detectada como se muestra en la Figura6.

Figura 6. En esta imagen se indican los posibles caminos que pue-de tomar la luz para llegar al detector, incluyendo aquellos caminosclásicos (caminos del tipo S − A − P).

La explicación bajo la interpretación de la teoría es quelos caminos que están en el centro tienden a reforzarse yaque la diferencia entre sus caminos (el tiempo que durangirando) son similares y así sus magnitudes o probabilidadestenderán a estar alineadas e interferirán constructivamente,esto es, los caminos con puntos de reflexión G y H en lafigura 6 se reforzarán y por tanto serán detectadas, peroen el caso de los caminos que van hasta el extremo delespejo,como los caminos A o M, sus vecinos B o K tendránuna diferencia de caminos notoria debido a que tienenque recorrer mayor trayecto, por lo cual se producirá unainterferencia destructiva que resultará en la anulación de laamplitud y no se detectará luz que haya tomado los caminos

CROMODINÁMICA CUÁNTICA 5

correspondientes a los extremos del espejo.

Según la interpretación de Feynman, se produce reflexiónen los extremos del espejo pero no son detectados debidoa que sus vecinos interfieren destructivamente, sin embargo,si se modifica el espejo eliminando la reflexión de aquelloscaminos que interfieren destructivamente y solo se dejan losque llegan con la misma dirección, se debe producir detec-ción de estos últimos, esto puede ser logrado cubriendo laparte del espejo correspondiente a los caminos B o K de laFigura 6 que interferían destructivamente con los caminos Ao M1. Un esquema de este experimento es mostrado en laFigura 7

Figura 7. En la figura se muestran un conjunto de haces que inci-den en el espejo modificado y son detectados en distintas posicio-nes. Su detección depende de la frecuencia de cada haz de luz.

Efectivamente, al realizar este experimento con esta modi-ficación se produce detección en los extremos del vidrio. Estehecho hace que la teoría salga triunfante al poder explicar losfenómenos de la luz, además de aquellos que son poco pro-bables o aquellos que ni siquiera se pensaba que existieran,como el mostrado anteriormente.

Construcción de una Teoría Cuántica de Campos

En el último siglo, se ha logrado comprender y pro-fundizar mucho más en el mundo físico y cómo este secomporta debido a diferentes fenómenos como por ejemploel comportamiento de la luz y su interacción con la materia,que es uno de los de mayor interés en el presente trabajoy con el que se ha trabajado de forma descriptiva. En sumayoría, estos avances han sido alcanzados gracias a lamecánica cuántica, y esto nos permite establecer o por lomenos asimilar de forma acertada, que esta teoría describede forma correcta el mundo físico. La gran complicaciónque posee esta teoría es su complejidad, solo es posibleaplicarla a problemas que son, en su descripción, un pocomás simples, y cuando se intenta generalizar o incluir masinteracciones, esta empieza a presentar fallas o simplementeno es posible obtener una descripción del fenómeno debidoa su complejidad en el formalismo.

Este problema no se había presentado en las teoríaspredecesoras y no se presenta actualmente si se usa la

mecánica clásica entonces, ¿por qué no partir desde estepunto e ir construyendo una teoría que se aproxime dela mejor forma a la teoría cuántica?. Este es uno de losobjetivos que se llevaron a cabo en el último siglo, sinembargo, no fue una tarea fácil de realizar.

Uno de los intentos mas resaltantes se da a partir delhamiltoniano, una cantidad que permite conocer cómo esel comportamiento de un sistema por lo cual es de granimportancia; cuando se presenta el caso donde el hamilto-niano es independiente del tiempo, se cumple que este esigual a la energía del sistema. Tras obtener esta cantidad, esposible desarrollar unas reglas que permiten tener un primeracercamiento a una teoría cuántica. No obstante, este no esun proceso fácil de realizar, hasta algunos físicos piensanque este problema es de carácter fundamental y no ha de serrealizado a través del hamiltoniano y han realizado distintosintentos de producir una nueva forma de alcanzar una teoríacuántica sin necesidad de este. Para Dirac, el hamiltonianosi es de vital importancia y si se presenta el caso dondeeste no sea el ente fundamental para realizar este proceso,ha de serlo una cantidad similar a este o un concepto masgeneralizado del mismo (Dirac, 1964).

Es necesario entonces usar el hamiltoniano, sin embargo,el mundo cuántico involucra elementos que tienen laposibilidad de moverse a velocidades cercanas a la de laluz o incluso iguales, y el hamiltoniano presenta un granproblema, no es invariante ante transformaciones relativistas.Esto implica que no es posible trabajar dentro de un marcorelativista con el hamiltoniano ya que al realizar cualquiertransformación de este tipo, por ejemplo una transformaciónespacial, las cantidades que son descritas por medio delhamiltoniano cambiarán y no estarán describiendo unacantidad real.

Para eludir este problema, es posible usar una funcióndiferente, llamada Lagrangiano, este es definido a partirde la acción, que es una función que define como se da ytrayectorias puede seguir un proceso. El lagrangiano tiene lapropiedad de ser invariante ante transformaciones relativistaspor lo cual es adecuado para tratar fenómenos en el mundocuántico. Ahora, si este es tan efectivo dentro del mundocuántico, ¿por qué no usarlo para obtener una teoría cuánticaapropiada?. Es posible realizarlo, sin embargo, solo paraalgunos casos particulares, pero ya que se busca obteneruna interpretación total del mundo a través de una teoríacuántica, es necesario obtener algún tipo de generalizaciónpara plantear la teoría.

En síntesis, el camino para obtener una teoría cuánticaparte desde el lagrangiano, pasa por el hamiltoniano comoun punto intermedio, y después de esto, se obtiene una

1Los diferentes caminos que puede tomar la luz dependen, a suvez, de la frecuencia de esta, por ejemplo, donde se detectan loshaces de frecuencia roja, los haces azules no son detectados ya queen ese punto se producirá una interferencia destructiva, y viceversa.

6 JEICOT DELGADO

aproximación a una teoría cuántica. No es posible acortar elcamino debido a los problemas mencionados anteriormente,entonces, el camino ha de realizarse completo y es, obtenerla acción del fenómeno para así poder identificar cual esel lagrangiano, obtener una ecuación similar a la de Euler-Lagrange, que es una ecuación de movimiento donde seincluye el lagrangiano, identificar el momento asociado a lavariable dinámica, realizar la cuantización con las variablesdinámicas involucradas, para así obtener una teoría cuántica.

Todo este recorrido se ha realizado para intentar describircómo se da un fenómeno y cómo se comporta el sistema bajolas interacciones que se presentan en este. Una de las ventajasde esto es que sin importar que sean una o varías partículaslas que conformen el sistema y sean las que estén interactuan-do, el sistema siempre será descrito mediante una función deonda. Este sistema, gracias a DeBroglie y Schrödinger, puedeser interpretado como una función de onda y toda función deonda puede ser interpretada como un campo ya que esta pue-de ser expandida en operadores de modo, que representan uncampo (Cohen-Tannoudji, J., y Grynberg, 1997). Esta fun-ción de onda o campo es quien describe el comportamientodel sistema, así, si se pone a evolucionar esta en un tiempo t,se puede determinar qué pasó con esta y cómo interactuó enun tiempo t. El poner a evolucionar a la función de onda enel tiempo se le conoce como punto de vista o representaciónde Schrödinger y esta evolución es determinada mediante laecuación:

H |Ψ(t, x)〉 = i~ddt|Ψ(t, x)〉 (1)

esta función describe el movimiento de la partícula, y trasconocer el hamiltoniano H es posible conocer cómo estapartícula se comporta en todo el proceso, conociendo así elcomportamiento de la partícula en su totalidad.

En algunos casos es un poco complejo obtener una des-cripción apropiada de la función de onda, entonces se cam-bia el objeto de estudio, pasando a ser los operadores los queevolucionarán en el tiempo y permitirán definir el valor delobservable (cantidad física) para ese tiempo específico, estepunto de vista o representación, es llamada representación deHeisenberg y es definido mediante la ecuación:

˙O(t) =i~

([H(t), ˆO(t)] (2)

en la cual ya no se busca la función de onda si no cómo es elcomportamiento de los operadores (O(t)) con respecto a t.

Como se había mencionado anteriormente, el plantear unateoría cuántica no es un proceso fácil, se ha de tener la accióndel sistema para poder calcular el lagrangiano, que permitedeterminar el hamiltoniano del sistema, para luego usar una

de las representaciones, ya sea la representación de Schrö-dinger o la de Heisenberg, y así conocer el comportamientode la partícula en distintos intervalos de tiempo. El problemaes que el hamiltoniano no tiene una solución simple paraQED, presenta grandes complicaciones al tratar de hacerloque, en su mayoría, residen en la determinación de lostérminos de interacción del sistema, y estos son los términosde mayor interés ya que son los que definen cómo se puedeproducir una partícula mediante experimentos de colisión oen su forma más general, cómo se da la interacción.

Para intentar evadir esta gran complicación, se unenlas dos representaciones para producir la representaciónde interacción, la cual no pone la dependencia del tiempoen las funciones de onda ni en los operadores si no quecombina las dos dependencias, ahora tanto el operadorcomo la función de onda poseen esa dependencia temporal.La ventaja de esta representación es que determina lassoluciones a los problemas usando la solución de campolibre en la representación de Schrodinger y a esta se le sumalos términos de interacción desconocidos.

Al acoplar las ecuaciones (1) y (2), junto con ciertos cam-bios en la función de onda (que describe el campo producidopor la partícula) y en los operadores (que pasan a tener ladependencia en el tiempo al depender del Hamiltoniano dela partícula libre), que son realizados mediante la operacióncon una función del hamiltoniano de campo libre (aquí nose incluirá un análisis formal de la teoría, para esto se puedever (Aitchison y Anthony, 2003), (Halzen y Martin, 1984) o(Greiner, Schramm, y Stein, 2002)), se produce la ecuaciónde Schwinger-Tomonaga:

iddt|Ψ(t)〉I = H′I |Ψ(t)〉I (3)

con H(t)I como el hamiltoniano de interacción y |Ψ(t)〉Icomo la función de onda de interacción.

A pesar de esta simplificación en los operadores y lafunción de onda, ya que se modificó el hamiltoniano y solose está interesado en los términos de interacción de éste,aún es complicado resolver, por lo cual se usa la teoría deperturbaciones.

Teoría de Perturbaciones. Esta teoría permite resolverecuaciones de gran complejidad matemática al tomar unaserie de funciones aproximadas a la función original, estoes, a partir de un estado conocido del sistema, empezara tomar funciones aproximadas y alrededor de este, quedescriban el estado, para así determinar el comportamientodel sistema. En otras palabras, empezar a adicionar términoscercanos a éste para así producir cualquier estado. Una delas herramientas mas usadas es la teoría de las matrices de

CROMODINÁMICA CUÁNTICA 7

dispersión o la teoría de la matriz S .

Suponga que se tiene un conjunto de partículas el cual enel comienzo de los tiempos no han interactuado de ningunamanera, por lo tanto, estas han de estar en un estado inicial|ψ(−∞)〉I = |i〉. Tiempo después, se producirá la interacciónentre estas partículas, y en últimas se separarán y ya no in-teractuarán entre sí. De este modo, tiempo después a la inter-acción, estas van a estar en un estado final |ψ(∞)〉I = | f 〉 quesolo difiere del estado inicial por unos cambios en las canti-dades de partículas, los valores de sus números cuánticos ysus cantidades de momento. Estos cambios pueden ser des-critos mediante un elemento matricial S aplicado al estadoinicial del sistema | f 〉 = S |i〉. Así si tomamos la amplitud delestado final se obtiene:

〈 f | f 〉 = 〈 f | S |i〉 = S f i (4)

donde las componentes de S son las amplitudes de probabi-lidad de encontrar una partícula en el estado final | f 〉, dadoque estuvo en un estado inicial |i〉

Para poder determinar los valores de S se usa la teoría deperturbación, que es el objetivo de usar la representación deinteracción ya que se tiene el hamiltoniano de campo libremás los términos de interacción, en otras palabras, más lostérminos perturbativos al integrar la ecuación (3) obtenién-dose:

|Ψ(t)〉I = −i∫ t

−∞

H′I(t′) |Ψ(t′)〉I dt′ (5)

donde los limites de integración son tomados desde el iniciode los tiempos donde no se presenta ningún tipo de interac-ción (−∞), hasta el tiempo t donde se da la interacción. SiH′′

I(t′) es nula, indica que no se presentó ninguna interac-

ción entre las partículas a un tiempo t′ por lo cual el estado|Ψ(t)〉(0)

I = |i〉. Introduciendo este hecho a la ecuación (5) seobtiene:

|Ψ(t)〉1I = |i〉 +∫ t

−∞

(−iH′I(t1))dt1 |i〉 (6)

donde los súper índices en las funciones de onda de las ecua-ciones (5) y (6) indican las correcciones a orden 0 y a primerorden, además el subíndice 1 en el tiempo indica que la in-teracción a primer orden se dió en un tiempo t1. Introducien-do todas las correcciones, cambiando el hamiltoniano por ladensidad hamiltoniana e introduciendo un nuevo operadorllamado operador ordenamiento del tiempo T que cumple:

T (H ′I

(x1))(H ′I

(x2)) =H ′I

(x1)H ′I

(x2) con t1 > t2H ′I

(x2)H ′I

(x1) con t2 > t1(7)

donde se cambia la dependencia de tn por xn que representalos posibles estados que tendrán las partículas. Con el fin de

hacer la ecuación más simétrica tanto en la posición como enel tiempo, para realizar los cálculos directamente sin preocu-parse por el orden de los términos dentro de la ecuación, seobtiene:

S =

∞∑n=0

(−i)n

n!

∫· · ·

∫d4x1 · · · d4xn

T H ′I

(x1)H ′I

(x2) · · · H ′I

(xn)

(8)

Los términos presentes en esta ecuación ahora dependen dela coordenada xn y la densidad hamiltoniana la cual definecomo se da la interacción. El operador ordenamiento en eltiempo, permite realizar el cálculo sin tener en cuenta en quémomento se da la interacción y al aplicarlo este reorganizalos términos según el orden temporal adecuado.

Este proceso se realiza con el fin de mostrar cuál es larelación que hay entre la ecuación de Schwinger-Tomonaga(3) y las amplitudes de Feynman (8). A pesar de ser unproceso engorroso, esta indica como se están dando lasinteraccionesy al tomar todas las correcciones, muestra todaslas interacciones que pueden llegar a darse, las cuales estánintegradas en unas nuevas herramientas llamadas diagramasde Feynman, que serán mostrados en las secciones próxi-mas, estos diagramas muestran desde una perspectiva gráficacómo se dan las interacciones y permite evaluar con mayorfacilidad cuales son los cálculos matemáticos involucradosen la ecuación.

Aplicación a Tres Partículas A, B y C. Para tener unamejor comprensión de cómo se trabaja dentro de esta teoría,se tratará con un sistema ficticio con tres elementos que vana interactuar. Téngase en cuenta tres partículas A, B y C, lascuales producen unos campos descritos por φA, φB y φC conspin 0. A manera de ejemplo sobre el uso de los diagramasde Feynman en conexión con la ecuación (8), se toma el pro-ceso de dispersión A + B → A + B con un tercer elementointeractuante C que tiene lugar en el proceso intermedio. Elhamiltoniano en la representación de interacción para estateoría es de la forma:

H =12

∑i=A,B,C

∫[Π2

i +(∇φi)2+miφi]d3x+g∫

d3φAφBφC (9)

donde los términos φi hacen referencia a los campos gene-rados por las partículas A, B y C, el término Πi correspondeal momento conjugado de la partícula i-ésima y el valor g esel término de acoplamiento de los campos. Aquí, el primertérmino hace referencia al hamiltoniano de campo libre y elsegundo al hamiltoniano de interacción.

En la teoría de la matriz S , se está interesado endeterminar la matriz en términos de los hamiltonianos

8 JEICOT DELGADO

(densidades hamiltonianas en este caso) de interacción. Enel hamiltoniano (9), el segundo término es quien describela interacción y las distintas formas en que se da esta estándescritas en este término además de las otras posibles formasque se pueden dar las interacciones al tomar los diferentesordenes de corrección en la ecuación (8). Los desarrollosnuméricos correspondientes a esta teoría se pueden revisaren ((Aitchison y Anthony, 2003)).

Gracias a esto es posible determinar los propagadores,que son elementos matemáticos que permiten poner aevolucionar en el tiempo al sistema y que para este caso,son:

〈0|aA(P′A)a†A(PA)|0〉 〈0|aB(P′B)φB(x1)|0〉 × 〈0|φB(x2)a†B(PB))|0〉 〈0|T (φC(x1)φC(x2))|0〉 〈0|T (φA(x1)φA(x2))|0〉 + x1 ↔ x2 (10)

Esta ecuación ha de ser integrada para obtener los elemen-tos S f i de la matriz S , que son aquellos que definen la am-plitud para que un sistema pase de un estado inicial |i〉 a unestado final | f 〉. un análisis de esta ecuación nos muestra que:ya que los términos aia

i son proporcionales a la delta de di-rac δ3(Pi − P′i) nos dice que la partícula i-ésima no presentóninguna interacción y siguió su camino, cuando se presen-tan términos de la forma 〈0|ai(P′i)φi(x1)|0〉 implica que se es-ta produciendo una aniquilación de la i-ésima partícula conestado x1, en forma similar los términos 〈0|φi(x2)ai(Pi)†|0〉simboliza la creación de la i-ésima partícula con estado x2.Por último, los términos de la forma 〈0|T (φi(x1)φi(x2))|0〉 sonlos términos que dan cuenta de interacciones mediadas por elcampo i-ésimo. Adicional a esta existen más ecuaciones quedan cuenta de las posibles interacciones a primera aproxima-ción, algunas de ellas, serán mostradas en el transcurso deeste trabajo. Para resolver esta integral (10, se ha de definirlos campos en su respectiva expansión de modos de campopara luego aplicar la transformada de Fourier, este procesoes un poco complejo y en la mayoría de los casos se pre-sentan divergencias, el proceso descriptivo para eliminar ta-les divergencias será mencionado en la sección Renormaliza-ción. Sin embargo, Feynman desarrolló un método para resu-mir este tipo de interacciones usando los llamados diagramasde Feynman. Para este caso el diagrama correspondiente esmostrado en el diagrama (11):

C

A

B

A

B′

A′

(11)

donde las partículas representadas por líneas externas sonpartículas reales, mientras que las partículas representadaspor líneas internas son virtuales (se definirá este conceptoen la sección Renormalización) y solo establecen una expli-cación esquemática del proceso por el cual se da la interac-

ción. Además de los diagramas de Feynman, se establecieronunos elementos llamados reglas de Feynman para establecerla solución de los diagramas directamente, para el caso de lateoría ABC, estas son:

I. Agregar (−ig) por cada vértice.

II. Por cada línea interna un factor (i/q2i − m2

i + iε) dondeq hace referencia al momento transferido a las partícu-las mediadoras.

III. Por cada vértice introducir un factor de la forma(2π4)δ4(p1+p2+...+pn+q1+q2+...+qn) donde el signode cada momento es determinado por la dirección decada partícula, si está entrando tendrá signo positivo,caso contrario, será negativo. Este hecho muestra laconservación del momento lineal durante los procesos.

Mediante estas reglas es posible calcular con mayorfacilidad la amplitud, o la matriz de dispersión S de losprocesos correspondientes al diagrama (12), la segunda reglanos cuenta además un hecho de suprema importancia enla física nuclear y de partículas, existe una condición enestas teorías llamada “mass-shell condition” o condición delcascarón de masa, que se cumple cuando se da q2

i = m2i , de

esta forma se indica si un proceso se da de forma virtual ono; si se cumple la condición, el campo o esa línea internatenderá a corresponder a un proceso real, pero si esta nose cumple o es “off mass-shell” implica que se presenta uncampo virtual. La palabra virtual indica que la partícula noexiste, es decir, se presenta algún tipo de interacción porejemplo, para el diagrama (12) entre A y B, produciéndoseuna partícula C que no es observada físicamente (no esposible obtener mediciones experimentales directas acercade su existencia en ese momento), entre mayor tiempo devida media posea la partícula virtual, tenderá a ser ”real“,por ejemplo, un fotón que es emitido en una supernova nonecesariamente es real para el proceso emisión y absorciónpor el ojo, sin embargo, ya que tuvo un tiempo de vida mediomuy grande, su masa tiende a caer en el valor de q2

i . Comoconsecuencia del principio de incertidumbre en términos

CROMODINÁMICA CUÁNTICA 9

de la energía y el tiempo 4E4t ≥ ~/2, para el caso de unapartícula virtual, esta puede tomar prestada una energíatan grande como se quiera del vacío siempre y cuando ladevuelva en el intervalo de tiempo fijado por el principio,ya que su energía puede ser cualquiera, la condición de “off

mass-shell” se cumplirá teniendo cualquier masa.

B

A

A′

C

B′

(12)

Las reglas de Feynman mencionadas anteriormente solonos hablan de los términos donde se presentan líneas internasy vértices, por ejemplo para diagramas como el diagrama(12), ¿qué sucede entonces para los casos donde existeninteracciones entre los campos, es decir, loops como elmostrado en el diagrama (11)?, loops de este tipo muestranla interacción entre A y C de tal forma que altera el momentode las partículas. La modificación en este caso del momentode B podría representar una variación a su vez en la masa,que desembocará en procesos medibles experimentalmente.En este proceso, se tiene un momento fijo entrante que esel momento que poseía la partícula B al inicio, antes dedisociarse, que luego se reparte en un momento para A yotro para C, que en últimas se unen para producir de nuevoa la partícula B pero ahora con un momento final o salientedistinto del inicial de tal forma que los momentos de A y Cno son totalmente especificados mediante la conservacióndel momento.

Para estos casos se desarrolló una cuarta regla:

IV. Por cada cuadri-momento k no fijado por la conserva-ción del momento, tome la integración de:∫

d4k(2π)4

Una integración sobre un cuadri-momento ocurre porcada espira cerrada.

Esto fue un gran avance ya que el lograr sintetizarecuaciones tan extensas que requieren de un cuidado precisopara su evaluación es de suprema importancia para facilitarlos cálculos de las amplitudes o matrices de dispersión S , delas cuales se puede extraer cantidades de vital importancia,como lo son los tiempos de vida medios τ de las partículasreales que, como se indica en su nombre, permite conocerel tiempo de vida2 de un conjunto de partículas de una sola

especie, y las secciones transversales σ de los procesosde dispersión que, junto con las secciones transversalesdiferenciales de dispersión dσ/dΩ, permiten definir, entreotras cosas, la velocidad o energía mínima con la cual hade incidir una partícula para generar un estado ligado, porejemplo, generar un estado ligado e− + e+. Esto puede serobtenido a través de la regla de oro de Fermi, esta es:

Tasa de transición o decaimiento = | f (potencial)2i | ·

(densidad de estados).

donde la densidad de estados indica la cantidad deespacios disponibles o de elementos en los cuales laspartículas pueden decaer, y el potencial está estrechamenteligado con la amplitud calculada a partir de las reglas deFeynman (Feynman, 1961).

Sin embargo, no estuvo exento de críticas como lomencionó en tono sarcástico Schwinger (David, 2005), “losdiagramas eran, como mucho, un asunto de pedagogía, no defísica” ya que, pareciese, no aportan nada a la teoría, solo unaforma más fácil de ver las ecuaciones de los propagadores,además las divergencias seguían presentándose y por lotanto no era posible obtener valores medibles para poderloscontrastar con los experimentales y corroborar si la teoríaera cierta o falsa.

La presentación ante el público científico de los diagramasde Feynman fue realizada en 1948 en Pensilvania, EstadosUnidos, durante una reunión entre físicos realizada en elhotel Pocono Manor Inn (David, 2005), aquí, Feynmanmostró sus diagramas como una forma de sintetizar aquelloscálculos que eran, en su formalismo, complicados y que sedebían tomar con cuidado por su extensión, pero ya que suconferencia fue precedida por una jornada maratónica de laintervención realizada por Schwinger, en aquellos tiemposel niño genio, quien mostraba una forma de eliminar losproblemas de divergencia en QED, esta conferencia fuecriticada y menos preciada pues ninguno entendía comoesos diagramas podrían ayudar a resolver los problemas dela teoría, además que algunos ni siquiera podían plantear losdiagramas y mucho menos vincularlos con los cálculos. Sinembargo, Freeman Dyson si tomó con cuidado cada una delas aseveraciones dadas y junto con Feynman y los amigosmás cercanos de este, se reunieron para que les explicara conmayor cuidado cómo se realizaban esos diagramas y cómose eliminaban las divergencias.

Tiempo después Dyson asistió a un curso de física teóricaen la escuela de verano en la Universidad de Michigan,en el cual se destacaron las conferencias realizadas porSchwinger sobre sus propios métodos de renormalización,de esta forma, Dyson tuvo la oportunidad de compartir

2el tiempo de vida está íntimamente relacionada con la tasa dedecaimiento Γ, la cual indica cuanto tarda en decaer o realizarse unproceso.

10 JEICOT DELGADO

con Schwinger y así entender de mejor forma su teoría.Gracias a esto, en un artículo escrito a finales de 1948(antes de que Feynman presentara su teoría en 1949), Dysonmostró la equivalencia matemática que existía entre losmétodos de renormalización propuestos por Schwinger y losde Feynman, junto con los propuestos por Tomonaga quetambién trabajaba en este tema, y como un adicional, mostróque con los diagramas de Feynman se podían ir eliminandoaquellas divergencias estableciendo las reglas de Feynmanmencionadas anteriormente.

En la época de la pos-guerra, Dyson llegó a realizar susestudios pos-doctorales en el Instituto de estudios Avanzadosen Princeton que estaba en proceso de renovación y cuyodirector recién posicionado era Oppenheimmer. En la épocaen la cual llegó a realizar sus estudios, el instituto no habíaterminado la adecuación de sus instalaciones por lo queDyson tuvo que realizar sus investigaciones en un salónen el cual se encontraban varios investigadores y todas lasmesas eran contiguas generando así una gran comunicaciónentre todos sus once ocupantes. Tras haber destacado enel instituto, Dyson comenzó a formar a cada uno de suscompañeros en el uso de los diagramas de Feynman, para asíproceder en los cálculos perturbativos pertinentes. De estetrabajo se destaca el realizado por Robert Karplus y NormanKroll quienes calcularon la corrección a segundo orden delmomento magnético del electrón, es decir, al orden e2 dondese presenta intercambio de un fotón, por lo tanto dos vértices,obteniendo un valor de 1,001147 el cual concordaba de muybuena forma con los resultados experimentales de la época,Además, todos los físicos que finalizaron su pos-doctoradoen el Instituto de Estudios Avanzados, pasaron a dictar susclases en diferentes universidades instruyendo a su vez, a losjóvenes en el uso de los diagramas de Feynman y así graciasal triunfo logrado por Karplus y Kroll y la gran difusión,los diagramas fueron catapultados a ser la herramientapredilecta en los cálculos perturbativos.(Gross, 1999)

Renormalización. En cierta medida la QED tiene unagran ventaja que radica en la constante de acoplamiento,e ' 1

137 con las dimensiones apropiadas (~ = c = 1, enla teoría ABC corresponde a ig), que al tener un valortan pequeño, cada vez que se tomen procesos donde seinvolucren términos con e4, e6, · · · , en donde n es la cantidadde vértices, se va a reducir en gran medida el aporte deestas, al propagador final. En una interacción por ejemplodel tipo (12) solo en la primera corrección se presentaya un término proporcional a e2. Ahora, si se toma parala siguiente corrección se tendrá uno proporcional a e4, esdecir, cada vez será más pequeña la corrección. Debido a queen esta formulación es necesario tomar todos los posiblescaminos, se han de tener las contribuciones hasta orden n,

sin embargo, al ser una constante tan pequeña, cada vez quese introduce un nuevo orden, los aportes se van a reducir yasí una aproximación decente se puede tener hasta segundoorden, es decir, hasta un término proporcional a e2.

Corrección de loop. A pesar de que la teoría presentauna buena aproximación, existen laboratorios como el acele-rador de Brookhaven, donde se podían obtener valores expe-rimentales con una mayor precisión (Aitchison y Anthony,2003), esto obligaba a la teoría a mejorar su precisión, alincrementar los términos de corrección para así poder pro-barla. Con base en lo anterior, y ya que siempre es necesariotomar todos los caminos posibles, al diagrama (12) junto conel diagrama (13):

B

AA′

B′

C

(13)

que corresponden a un segundo orden, se han de adicionardiagramas en los cuales se presentan los loops, como semuestra en el diagrama (14), en este se muestran dos par-tículas A y B con momento PA y PB respectivamente queinteraccionan y emergen con un momento P′A y P′B para Ay B, en esta aproximación se produce una partícula media-dora C con momento u = (P′A − PB)2 = (PA − P′B)2. Estetipo de diagramas se llaman diagramas de loops debido a laexistencia de procesos que se dan virtualmente.

C

A B

C

B

A

B′

A′x1

x2

x4

x3

(14)

Este diagrama ha de ser tenido en cuenta en la suma delos estados posibles que se introducen en la matriz S .Eneste diagrama se presenta un término de gran importanciacorrespondiente a la corrección de loop, que es:

(−ig)4∫ ∫ ∫ ∫

d4x1d4x2d4x3d4x4ei(P′A−PB)·x1 ei(P′B−PA)·x2 × 〈0|T φC(x1)φC(x2)|0〉 〈0|T φC(x2)φC(x4)|0〉

× 〈0|T φA(x3)φA(x4)|0〉 〈0|T φB(x3)φB(x4)|0〉(15)

CROMODINÁMICA CUÁNTICA 11

Este término se presenta cuando existe un loop en el dia-grama y corresponde, por tanto, al diagrama de espira mos-trado en (14). Este posee una solución, tras realizar la ex-pansión de estos en términos de campo y varios cambios devariable adicionales, corresponde a (Aitchison y Anthony,2003):

(−ig)2∫

d4k(2π)4

ik2 − m2

A + iεi

(q − k)2 − m2B + iε

≡ −iΠ[2]C (q2)

(16)Esto permite mostrar la dependencia que tiene el término

de loop (16) con respecto al momento k La introducción dela integral nos indica que es necesario realizar una integralsobre todo el espacio de momento, esto se debe a que noexiste especificación alguna del momento en las espiras, lamayor información que se puede sacar es que si el cuantoA tiene un momento k, el cuanto B tendría un momentoq − k cuya suma sería entonces q. Ese valor del momento,es una variable libre lo que nos indica precisamente lo yamencionado, una integral sobre todo el espacio de momento.

El problema que presenta esta integral es que, por una ins-pección rápida, la integral cuando se acerca al infinito, va adecaer como: ∫ Λ

0

k3

k4 dk (17)

que es proporcional a una integral del tipo 1/k para grandesvalores de Λ, cuya solución es lnΛ, entonces si se tomaun valor Λ → ∞, la integral tenderá a infinito, es decir,se vuelve una integral divergente. Este problema existe entodas las teorías de campos y solo puede ser evitada usandola renormalización.

En 1933 Dirac en la búsqueda de unificar la teoríade la relatividad y la mecánica cuántica propuso en elmarco de la mecánica cuántica, una partícula con velocidadigual a la velocidad de la luz, pero, debido al principio deincertidumbre, una incertidumbre en su posición, producíauna posibilidad de que su velocidad, en algunos casos,pudiese ser mayor a la de la luz lo que violaría uno de lospostulados de la relatividad que indica que nada puede viajarmás rápido que la velocidad de la luz. Esto fue solucionadoestableciendo que, en el momento de medir la velocidad dela partícula, se produjeran partículas en diferentes posiciones(conservando el principio de incertidumbre) e indistinguiblesde la partícula original. Estas partículas debían ser generadascon su pareja anti-partícula para que los números cuánticosfuesen conservados produciéndose así un espacio “vacío”densamente poblado por partículas denominadas virtuales.Este hecho es deducido a partir de la ecuación de Dirac lacual en su desarrollo, que será mencionado más adelante,presenta la posibilidad de que existan valores de energía

negativas, algo bastante extraño ya que si se presenta estosposibles niveles de energía, una partícula podría estardecayendo y a su vez emitiendo energía constantementelo que produciría que ningún átomo fuese estable. Parasubsanar este problema se introduce un “vacío” densamentepoblado de partículas lo que impide que los electrones de-caigan a estados diferentes gracias al principio de Pauli (esteindica que los fermiones no pueden estar en el mismo estado.Esto será ahondado en la sección Cromodinámica Cuántica).

Ahora, si se toma el caso donde se extrae, por ejemplo,un electrón del vacío, se obtendrá un electrón con energíapositiva, pues ya no está en el nivel de energía negativo, peroquedará un “hueco” en el lugar donde este debería estar. Esteespacio es asumido como la presencia de un positrón con unaenergía negativa y con números cuánticos contrarios a losdel electrón. La primera medición del positrón fue realizadapor Anderson en 1931 al observar rayos cósmicos en unacámara de niebla donde, al introducir un campo magnético,se mostraba a un “electrón” que la atravesaba. Sin embargose tenían diferentes movimientos, él no sabía si el electrónse movía hacia abajo, ya que algunos se desviaban hacíala izquierda, otros se desviaban a la derecha. Para eliminareste problema introdujo una placa delgada contra la cualcolisionaran los electrones y así poder saber su direcciónentrante. Sin embargo, las partículas entraban desde unamisma dirección pero tenían trayectorias contrarias eventoque solo se podía explicar mediante una diferencia de signoen la carga eléctrica (D. Griffiths, 1987). Este es el mecanis-mo mediante el cual se producen de forma espontánea paresde electrones-positrones vituales y puede ser generalizado acualquier tipo de pares partícula-antipartícula que presentenestos posibles niveles de energía, como por ejemplo, lospares quarks-antiquarks. Este es precisamente el fenómenoque se esta estudiando en la corrección de loop y del que seda cuenta a través del diagrama mostrado en la figura 14

Si se tiene en cuenta que para un momento infinitamentegrande, la distancia será infinitamente pequeña, es posibleresolver el problema de la divergencia en términos de lateoría de materia condensada. En este campo, el valor dek no se toma hasta infinito ya que su valor, en términosde la distancia, tiene un valor límite que depende delespaciamiento de la red, por lo cual si se toma hasta un valorde Λ, se podría obtener un valor coherente de la integral.

El objetivo entonces es fijar una cota para el valor deΛ de forma tal que, a pesar de ser un simple arreglo, sepueden obtener valores coherentes de la teoría. Sin embargo,existe algo realmente curioso en esta corrección, al tener unadistancia cercana al valor 0, por ejemplo en una distanciadel orden 10−30m, que es donde se presenta la divergenciaa infinito de Λ, y aplicarla a procesos de QED es posible

12 JEICOT DELGADO

determinar los valores de la corriente j, de la masa my la constante de estructura α correspondientes, pero, alacercarse más al valor 0, por ejemplo tomar una distancia delorden de 10−40m, se producen valores totalmente diferentestanto de j, m y α. Sin embargo, en 1949 Hans Bethe y VictorWeisskopf (Feynman, 1985) mostraron que al realizarse loscálculos correspondientes de los observables, se obtienenvalores muy similares sin importar cuales valores de j, m yalpha fuesen tomados, en adición, si se tomaban valores máspróximos al valor de 0 se logran obtener valores mucho másprecisos de los observables. Este hecho presenta la duda dequé sucede más allá de los valores límites de Λ propuestos,

algunos dicen que más allá de ese límite existe una nuevafísica a la espera de ser descubierta (Aitchison y Anthony,2003).

Trabajando con un valor finito de Λ, y evaluando todoslos términos de corrección de loops donde, además deintroducir el término (16) que corresponde a un solo loop,se introducen los términos similares de 2, 3, 4, · · · , n loopscorrespondientes a los terminos mostrados en el diagrama(18):

A

C

BA

+A

C

BA

C

BA

+A

C

BA

C

BA

C

BA

+ · · · (18)

de forma tal que al propagador final se le añaden los siguien-tes términos:

iq2 − m2

C

+i

q2 − m2C

(−iΠ[2]C (q2))

iq2 − m2

C

+

iq2 − m2

C

(−iΠ[2]C (q2))

iq2 − m2

C

(−iΠ[2]C (q2))

iq2 − m2

C

+ · · ·

(19)Esta serie, que tiene la forma de i

q2−m2C

(1 + r + r2 + · · · ),

converge para valores de |r| < 1 a (1 − r)−1, donde el valor

r = (Π[2]C ((q2))

(1

q2−m2C

). Para tener un mejor entendimiento de

este resultado, la expresión es:

iq2 − m2

C

(1 − r)−1 =i

q2 − m2C

11 − ΠC[2](q2)/q2 − m2

C

=i

q2 − m2C − ΠC[2](q2)

(20)

Esta ecuación tiene una forma similar a la ecuación mos-trada en la segunda regla de Feynman, que corresponde altérmino de campo libre o término de línea:

iq2 − m2

C − iε(21)

La integral se anula cuando se cumple la condición “mass-shell” con q2 = m2

C . Si se comparan las dos ecuaciones (20) y(21), se observa que la ecuación correspondiente a los loopscumplirá una condición de “mass-shell” modificada, de talforma que se anula la integral (tomando a ΠC[2](q2) comoun valor constante igual δm2

C) cuando q0 = (q2 + m2C + δm2

C)12

donde q0 y q son las componentes del cuadrimomento q.Lo que implica esta relación, es un cambio en la masa de la

partícula que genera el campo solo por la presencia de lasespiras.

Para tener una mejor comprensión de esto, en la teoría deestado sólido sucede algo similar; en un entorno eléctrico enun metal, se presentan iones por la presencia de un campoexterno, esto produce una reducción en la respuesta de loselectrones de conducción presentes dentro del entorno, esdecir, debido a la presencia de los iones, el campo generadopor estos hace que la “facilidad” con la que los electronesde conducción se muevan, se reduzca que, por último, sepuede entender como cambios inerciales de estos electrones.Para este caso, el entorno es el vacío y lo que se presentaen este es una disociación de C en pares A y B que luegose recombinan para generar de nuevo a C, este proceso sepuede dar tantas veces se quiera (cuantos más procesos deestos se presentan se tendrán mas términos de loops). Estoscambios son los que en conclusión alteran la inercia de C yproduce los aparentes cambios de su masa.

Al tratar este fenómeno de la forma descrita anteriormentese debe tener en cuenta un hecho relevante; para el caso delos electrones en un material, la masa “libre” (con el electrónfuera del material) y la masa “efectiva” (dentro del material)de estos se puede medir ya que es posible sacar al electrónde su entorno y ahí realizar la respectiva medición, peropara el presente caso, este proceso no es posible realizarlodebido a que no es posible sacar a la partícula C de suentorno, es decir, del vacío, por tanto es necesario cambiarla interpretación de la masa “libre” por la masa “efectiva”debido a la existencia de las interacciones del vacío.

Gracias a la condición de “mass-shell” es posibledeterminar una nueva cantidad llamada masa física de la

CROMODINÁMICA CUÁNTICA 13

partícula i-ésima m2f i,i = m2

i + Πi(q2) fijada por la condiciónq2 − m2

i − Πi(q2) = 0. Esta nueva cantidad es posibleobtenerla a través del término Πi(q2) y del parámetro m2

ique está presente en el lagrangiano, pero determinar estevalor no tiene mayor importancia ya que esta cantidad esposible determinarla experimentalmente, pero si en vezde esto se busca determinar el valor de mi, es posibleeliminar la dependencia en el lagrangiano de ese parámetroinobservable el cual es de segundo orden ya que el términoΠ

[2]i (q2) corresponde a segundo orden. El objetivo de este

proceso es precisamente el mencionado anteriormente,eliminar la dependencia del lagrangiano de ese parámetro,esto es necesario ya que si permanece esta dependencia, nosería posible solucionar el lagrangiano.

Este proceso se da con Π[2]C (q2) fijo, pero este no necesa-

riamente lo es, por lo cual se requiere evaluar este término. Sise expande alrededor del punto de interés que es q2 = m f i,C

se obtiene (igualmente, para un desarrollo completo de esteproceso se puede revisar (Aitchison y Anthony, 2003)):

i

(q2 − m2C)

[1 − dΠ

[2]C

dq2 q2=m2f i,C

]+ O(q2m2

f i,C)2(22)

donde el término O nos dice a qué orden se está tratando.Para este caso es O(g2), es decir, de segundo orden. Este pro-pagador es similar al propagador de campo libre (21), sinembargo, en éste está presente el término extra:

1 − dΠ[2]C

dq2 q2=m2f i,C

−1

Que tras una expansión geométrica puede ser expresadocomo:

1 +dΠ

[2]C

dq2 q2=m2f i,C

Ahora, mediante la comparación con la teoría de estadosólido se mostró que existen variaciones o alteraciones en elestado de vacío, es decir, el propagador (21) que es la solu-ción al propagador 〈0|T (φC(x1)φC(x2))|0〉 es alterado y ya norepresenta el estado de vacío, por lo cual es necesario mo-dificar este propagador para así poder aplicarlo al estado devacío exacto |Ω〉, esto es, 〈Ω|T (φC(x1)φC(x2))|Ω〉. En conclu-sión, ya que en el “vacío”, existen fluctuaciones caracteri-zadas por los términos de espiras descritos por la ecuación(20), el propagador de campo libre ha de ser alterado por untérmino de renormalización ZC que es:

ZC = 1 +dΠ

[2]C

dq2 q2=m2f i,C

(23)

Así, el propagador es:

〈0|T (φC(x1)φC(x2))|0〉 =

∫d4k

(2π)4 e−ik·(x1−x2)· iZc

k2 − m2f i,C + iε

+ cont. multipartículas

(24)

donde se introducen las contribuciones de multipartículasya que en las fluctuaciones del vacío, se pueden generarpartículas que se crean y se destruyen continuamentealterando el momento de las partículas A y B en este caso,además el factor ZC juega sólo el papel de una constante derenormalización que ha de ser introducida en el propagadorque a fín de cuentas está modificando el lagrangiano en unfactor proporcional a este.

Correcciones en el Vértice. Estas correcciones hacenreferencia a las posibles alteraciones en el vértice de los dia-gramas de Feynman. Estas alteraciones tienen la forma mos-trada en el diagrama (25).

B

A

A′

B

C

C

A

B′

(25)

Aquí, la partícula A con momento PA se disocia en unapartícula B y C, después B avanza hasta llegar al vértice don-de se disocia en C y A, luego A se recombina con C para pro-ducir a B con momento P′B. Estos procesos presentes en losdiagramas son llamadas espiras triangulares y son descritasmediante:

−igi

q2 − m2C

(−igG[2](P′A, P

′B)

)(26)

En este caso se realiza un desarrollo muy similar alrealizado en el caso de las correcciones de espiras, dondeG[2] es el factor que indica que existe un cambio en este caso,para la carga “efectiva”, esto con el fin de, al igual que encaso de las correcciones de espiras, eliminar la dependenciaen el lagrangiano de la cantidad inobservable g por unacantidad medible g f i. Este proceso será tratado con mayordetalle en la siguiente sección.

En conclusión, los efectos que producen estas correccio-nes son:

14 JEICOT DELGADO

I. La condición de “mass-shell” de una partícula es alte-rada y cambia el valor de m2

i en el lagrangiano, porel valor de m f i,i definido por la expresión: m2

f i,i =

m2i + Π(q2)

II. Los elementos matriciales del vacío del campo de unapartícula φi han de ser renormalizadas por un factor√

Zi, que para un orden O(g2) y con i = C, es dada porla ecuación (23)

III. Los propagadores, ahora poseen contribuciones de es-tados de dos partículas en la teoría ABC, en otras pala-bras, contribuciones de multipartículas.

IV. El factor de acoplamiento del lagrangiano de las inter-acciones g se ha de cambiar por g f i

Los factores Πi(q2) y Gi(P′A, P′B) son llamados factores de

autoenergía, el primero es la autoenergía de la partícula i y elsegundo es la autoenergía en el vértice. Los diagramas comolos mostrados en el diagrama 14 son los que introducen lascorrecciones en la masa, los correspondientes a 25 son losque producen correcciones en el momento magnético delas partículas y por último, ya que todas estas divergenciassiempre cambian la carga de las partículas, los dos tiposde diagramas son los causantes de las correcciones sobrela carga (D. Griffiths, 1987). Cabe recalcar que esto sehace con el objetivo de eliminar la dependencia en ellagrangiano de Λ, mediante la inclusión de parámetrosmedibles experimentalmente. A esta teoría se le dió elnombre de teoría de perturbación desnuda o en inglés Bareperturbation theory.

Reglas de Feynman para QED

Hasta este punto se ha visto cómo la teoría de camposjunto con la teoría de perturbaciones, permite describir lasinteracciones entre partículas cuales quiera, el objetivo,ahora es aplicar todos estos resultados a la interacción entrela materia y la luz, mas precisamente entre los electronesy los fotones, los cuales ahora tienen una dependenciaadicional con el espín. Ya que esto solo afecta en la formadel campo, no existe mayor complicación al compararlacon la teoría ABC, solo hay que tener en cuenta ciertasimplicaciones propuestas por la existencia del espín que seven representadas por la inclusión de las matrices de Diracγµ.

Las reglas correspondientes a QED son:

I. Notación, las líneas correspondientes a los electro-nes serán representadas por = u(si)(pi) cuando entre y= u(s j)(p j) cuando salga de un vértice, para el caso deun positrón, su línea será representada por = v(si)(pi)

cuando entre al vértice y = v(s j)(p j) cuando salga deeste. Por último, para el caso del fotón su línea serárepresentada por y descrita por εµi (pi) cuando entra alvértice y = εµ j∗(p j).

II. Por cada vértice introducir un factor igeγµ

III. por cada línea interna introducir un factor −igµνq2 si está

representa un fotón y γµq+mcq2−m2c2 si representa a un electrón

o positrón.

IV. Por cada vértice incluir, al igual que en la teoría ABC,un factor (2π)4δ4(p1 + · · · + pn + q1 + · · · + qn) corres-pondiente a la conservación del momento y los signosdefinidos según su dirección con respecto al vértice.

V. Por cada cuadri-momento k no fijado por la conserva-ción del momento, tome la integración de:∫

d4k(2π)4

Una integración sobre un cuadri-momento ocurre porcada loop cerrado.

Al aplicar estas reglas con respecto a un diagrama deFeynman definido, se obtiene el valor de la amplitud, ola matríz S , y con esta es posible calcular la magnitudfísica que se desee, por ejemplo las secciones transversales(relacionadas con la probabilidad de que ocurra alguna in-teracción en particular) o las tasas de decaimiento (permitendefinir los tiempos de vida medios de las partículas). Estasreglas son determinadas a partir del uso de la ecuación deDirac a partir de la cual se determina el lagrangiano. Elproceso para esta derivación será mostrado en la secciónInvarianza.

Renormalización en QED. Mientras que en la teoríaABC solo existía la divergencia en el ultravioleta, es decir,cuando q → 0, en QED se presenta otro tipo de divergenciacuando q → ∞, llamada divergencia en el infrarrojo.Para el caso de la divergencia ultravioleta, los procesosrealizados anteriormente muestran que es posible eliminaresta divergencia mediante el uso de la masa y la cargafísica. Estas magnitudes son aquellas que son medidas bajola presencia de interacciones del vacío con la partícula yson introducidas junto con el término de renormalización(operación entre la constante de renormalización y estasmagnitudes físicas), para modificar el lagrangiano. Estostérminos son llamados contra términos, cabe recordar queestos contra términos dan cuenta de las ”auto-energías“ queen el caso de la teoría ABC aparecen por la presencia deltérmino ΠC(q2), el cual corresponde a la auto-energía de lapartícula C, de tal forma que ésta, partiendo de un diagramacomo el descrito por (13), es modificada al aumentar el

CROMODINÁMICA CUÁNTICA 15

orden, presentando los términos de loops dentro que, entreotras cosas, implican procesos de creación y aniquilaciónde partículas donde se tiene, al inicio de todo el proceso,una partícula C y al final de este, la misma partícula perocon un momento modificado. Otra implicación presente alintroducir estos contra términos es la redefinición de nuevosvalores de la carga y la masa que, para el caso de la teoríaABC, son descritos por e = Z2

Z1e0Z1/2

3 .

Para el caso de QED, no solo se presentan términos deauto-energía de una sola partícula, por ejemplo para el elec-trón, sino que también se presenta una auto-energía para elfotón, así, se obtienen dos contra términos correspondientesa estas partículas. Adicional a estos dos, se presenta un tér-mino similar a G(P′A, P

′B) que corresponde a la auto-energía

en el vértice, estos contra términos son:

i [k/(Z2 − 1) − δm]

−i(gµνk2 − kµkν)(Z3 − 1)

−ieγµ(Z1 − 1)

Donde Z2, Z3 y Z1 representan los factores de renor-malización correspondientes a la inclusión de los contratérminos y cada uno da cuenta de una renormalizaciónespecífica, Z1 es la renormalización en el vértice, Z2 esla renormalización en la intensidad del campo y Z3 es larenormalización correspondiente a la polarización del vacío(Aitchison y Anthony, 2003), estos presentan la igualdadZ2 = Z1 gracias a la identidad Ward (esta identidad estaíntimamente relacionada con la simetría gauge y permiteestablecer una relación entre los factores de correlación.Aunque no se hablará de esto en el presente trabajo, esposible revisarlo en (Peskin y Schroeder, 1995)). Por último,δm corresponde al cambio en la masa debido al fenómenode polarización del vacío. La divergencia en el infrarrojo sepresenta ya que en el término (21), el cociente se anulará sise tratan con partículas sin masa, es decir, cuando m2

C = 0que es el caso del fotón. Eliminar esta divergencia es unpoco más complejo en su formalismo pero, la esencia centrales que los términos divergentes se van anulando uno a unoal introducir contra términos tanto de fotones virtuales comode fotones reales de forma similar a la introducción de lostérminos de masa y carga física en la teoría ABC.

La inclusión de estas correcciones y consideraciones im-plican modificaciones en los propagadores como ya se hamencionado, por lo cual también existirá una modificacióna la Ley de Coulomb. Un propagador de la forma −g2

s(q2 +

m2u)−1 se puede interpretar, tras realizar la transformada de

Fourier respectiva, como el potencial de Yukawa (se discuti-rá sobre este potencial la sección Cromodinámica Cuántica)

que tiene la forma:

−g2s

(4π)

e−r/m2u

r

(27)

Si se toma el caso del fotón, donde m2u = 0, se obtendría

−g2s/4πr el cual es el mismo potencial de Coulomb (teniendo

en cuenta que el valor de ε0 = 1). Esto nos da indicios decómo ha de comportarse el propagador y así, para el caso deQED, el propagador tendrá la forma (tras realizar la expan-sión del denominador al igual que se hizo con la ecuación(20)):

(−igµν)q2

(1 + Π[2]

γ (q2))

(28)

que al considerar el caso estático donde el cuadrimomentoq2 = −q · q el potencial tendrá la forma:

igµνq

+ igµνα

15π1

m2 (29)

Tras aplicar la transformada de Fourier se obtiene, para elprimer término, el potencial de Coulomb, ya que este tienela forma de (21) sin la masa, y el segundo término es unafunción δ. Este segundo término se puede entender como sifuese una perturbación en los átomos, por ejemplo, para unproceso de dispersión.

La ecuación (28) tras unos pocos ajustes, muestra una ca-racterística de gran importancia:

e2(q2) = e2(1 + Π[2]

γ (q2))

(30)

donde se transformó el factor gµν que esta relacionado conla carga eléctrica. Debido a que el factor Π

[2]γ (q2) depende

de q, la carga eléctrica dependerá ahora de esta. También esposible hacer el siguiente cambio α = e2/4π se obtiene:

α(q2) = α(1 + Π[2]

γ (q2))

(31)

Al introducir el factor Π[2]γ (q2) trás su integración se ob-

tiene:

α(Q2) =α

1 − α/3πln(Q2/Am2)(32)

con A = e5/3. Esta ecuación muestra las variacionesde la constante de acoplamiento al variar la energía otransferencia de momento y, ya que depende de Π

[2]γ (q2),

depende implicitamente de la constante de renormalizaciónZ3 la cual esta asociada a las fluctuaciones del vacío.Podemos entender de mejor manera estos efectos a partirde los dieléctricos. Aquí, cuando se introduce una carga +qy otra −q de prueba, las moléculas del material dieléctricose alinearán con las líneas del campo producido entre estasdos cargas, este efecto hace que se genere un momento

16 JEICOT DELGADO

dipolar inducido en las moléculas, produciendo, a su vez,un campo eléctrico, todo ese proceso, en últimas, hace quese disminuya el campo eléctrico entre las cargas de pruebapor un factor (1 + χ)−1 = ε0/ε donde χ es la permeabilidaddel material, ε0 es la permitividad en el vacío y ε es lapermitividad del material. Este efecto hace que la cargaefectiva dependa de la permitividad del material que, a suvez, varia con la distancia de separación entre las cargas.En síntesis, la carga ya no es la inicial si no tendrá undecremento en su magnitud y pasará a ser una carga efectiva.

En el caso de QED, se presenta una polarización delvacío, ver Figura 8, esto es, una alineación de los pares departículas con respecto al campo producido por una cargade prueba presente en éste. Hay que tener en cuenta queestos pares de partículas son introducidas gracias a que sepuede tomar prestada una cantidad de energía ∆E del vacíopara producirlas, siempre y cuando la devuelva dentro deun intervalo de tiempo ∆t ' ~/mc2 dado por el principiode incertidumbre, así los pares podrán, en este transcursode tiempo, recorrer una distancia c∆t ' ~/mc2. Ya queeste proceso se puede producir en múltiples ocasiones segenerará, al rededor de la carga de prueba, una nube de paresde partículas que realizarán el mismo efecto de reducciónen la carga explicado anteriormente con los dieléctricos.Entonces, cuando se desee medir la carga de la partículade prueba, entre más se aleje de esta, menor va a ser sucarga medible, y por el contrario, cuando más se acerquea esta, mayor va a ser la carga medida, de esta forma lacarga de prueba que se suponía era desnuda, pasa a ser lacarga efectiva, este efecto es llamado apantallamiento. Estefenómeno será ahondado con mayor claridad en la secciónProblemas de la teoría de campos. Un hecho importantesobre esto es que todas las contribuciones pueden sersumadas explícitamente, es decir, cada uno de los efectosproducidos por cada uno de los pares pueden ser calculadosindependientemente y luego ser sumados.

Figura 8. En esta imagen se muestra una representación gráfica ela polarización del vacío. Ya que el vacío esta densamente poblado,cuando se presenta una carga en este medio, estos son alineados detal forma que disminuyen la magnitud de la carga.

Por último, las teorías pueden ser clasificadas según surenormalización, teorías como la teoría ABC son super-renormalizables, esto indica que tienden a tener mayorfacilidad para realizar su renormalización ya que lasdivergencias no son tantas; ahora, teorías como la QEDson teorías renormalizables, que implica la existencia demas términos divergentes por lo cual se han de introducirnuevos contra términos asociados a nuevas magnitudesfísicas (con magnitud física se hace referencia a cantidadesreinterpretadas según se presente el apantallamiento oproceso similar, que a fin de cuentas, son las magnitudesmedibles experimentalmente) como por ejemplo las can-tidades g f i y m f i,i, y por último, están las teorías que nopueden ser renormalizadas, como es el caso de la teoría dela gravedad. Para explicar esto, se ha de tener en cuentaque el proceso de renormalización consiste en introducir uncontra término por cada divergencia que exista, estos contratérminos se van presentando si existen dentro del lagrangianocomo era el caso de g y mi desnudas, entonces, por cadadivergencia, es necesario obtener una magnitud física, perono existe la suficiente cantidad de magnitudes dentro dellagrangiano para sopesar las divergencias presentes en estasteorías, así que es necesario introducir una nueva magnitudfísica para obtener un nuevo contra término que sopese ladivergencia. Sin embargo, al aumentar el orden se presentauna nueva divergencia por lo cual, de nuevo se necesitaríaotra magnitud física, y si se sigue aumentando el orden seseguirán presentando una a una, nuevas divergencias por locual se necesitarían infinitas magnitudes físicas. Por estosmotivos, estas teorías no son renormalizables.

Existe un modo fácil de saber si una teoría es renorma-lizable o no, y es determinado mediante la dimensión de laconstante de acoplamiento. Para el caso de la teoría ABC laconstante de acoplamiento g tiene dimensiones de M1, es de-cir, dimensiones de masa con exponente positivo, y la teoríaes super renormalizable. En el caso de QED la constante deacoplamiento e es adimensional, por lo cual es una teoríarenormalizable y por último, la teoría de la gravedad no esrenormalizable ya que la constante de acoplamiento G tie-ne dimensiones de M−2, es decir, dimensiones de masa conexponente negativo. En lo que concierne a este trabajo, nose trataran con teorías no renormalizables. Cabe mencionarque todas las teorías gauge o de campo son teorías renorma-lizables, un ejemplo de éstas es la cromodinámica cuántica(D. Griffiths, 1987).

Cromodinámica CuánticaA comienzos del siglo XX se buscaba entender cual era

la estructura interna del átomo, con este objetivo en mente,empezaron a surgir teorías que intentaban dar explicacióna esto donde, en una primera aproximación, Thomson

CROMODINÁMICA CUÁNTICA 17

planteó su modelo atómico el cual consistía en elementoscargados negativamente puestos en un mar o espacio decarga positiva, similar a un pastel de pasas donde la cargapositiva es la corteza de este y la carga negativa son sus pasas.

Este modelo tuvo una gran acogida ya que explicabasin problemas la existencia del átomo. Sin embargo,Geiger y Marsden en 1909 realizaron un experimento decolisión de partículas α contra una placa delgada de orodel orden de 10−5cm, propuesto por Rutherford, donde losresultados indicaban la dispersión de algunas partículas aángulos iguales o por encima de 90. Estos resultados eransorprendentes ya que como dijo Rutherford ”pareciese comosi un cascarón sólido rebotara tras chocar con una hoja depapel“(Aitchison y Anthony, 2003).

Para entender de mejor manera este resultado, tengaseen cuenta que el número de partículas dispersadas debíadecaer exponencialmente a medida que aumenta el ángulode dispersión según el modelo atómico de J.J. Thomson,cualquier desviación con respecto a este decaimientomostrará entonces señales de dispersiones fuertes. Geigery Marsden encontraron que 1 en 20000 partículas α erandispersadas a ángulos mayores o iguales a 90, para elmodelo de Thomson, la dispersión a grandes ángulos no eraque no se pudiese presentar, pero este evento sucedería en 1de cada 103500 partículas α (Eisberg y Resnick, 1985). Estoevidenciaba que existía un error en el modelo de Thomson,ya no tenemos una distribución de carga homogéneadistribuida por todo el átomo, si no que esa carga ha deestar concentrada en algún punto específico llamado átomo.Rutherford fue mas allá de esta explicación cualitativa, ydemostró que la distribución angular para un átomo conestas características tenía la forma de sen−4φ/2, que luegofue confirmado en un artículo escrito por Geiger y marsdenen 1913, donde mostraba que esta forma característica sepresentaba para placas de oro y de plata. La Figura (9)muestra la cantidad de centelleos o partículas detectadasversus el ángulo de dispersión con respecto al centro de masadel sistema. Esto fue una prueba directa de la existencia deun núcleo dentro del átomo y debido a las diferencias enlas dispersiones para partículas cargadas eléctricamente semostró que este núcleo estaba cargado positivamente.

Figura 9. en esta gráfica se muestra la cantidad de centelleos porcada ángulo dispersado. Si no existiese el núcleo, la distribucióndecaería linealmente.(Aitchison y Anthony, 2004)

Tras obtener este gran logro, la investigación continuaba ytras comparar la diferencia entre las masas de los diferentesátomos de los elementos con respecto al átomo de hidrógeno,se evidenció una diferencia en las masas de las partículas queno podía ser explicado si el núcleo solo consistía de protones(D. Griffiths, 1987). Estos análisis mostraron la existencia deconstituyentes del núcleo de dos tipos, uno cargado positiva-mente (protones) y un segundo descubierto por Chadwick en1932 con carga neutra (neutrones) (Wilczek, s.f.). La cargaeléctrica permite al átomo existir en un estado base ligado,es decir, un estado de menor energía donde el núcleo esta-ba ligado con los electrones (carga negativa) y permitían laexistencia del átomo, Sin embargo, no era posible explicarla ligadura que existía en el núcleo pues este, al poseer 2entes uno con carga positiva y otra neutra, no podían estar li-gados mediante una interacción electromagnética proponién-dose así la existencia de una nueva fuerza o interacción. Estanueva interacción debía:

I. Tener un rango muy corto de alrededor de 2 Fermi (1Fermi o fentómetro es una unidad de longitud y esequivalente a 1 × 10−15m) pues no existía evidenciade esta fuera de los nucleones (protones y neutrones),cuyo diámetro es de 2.5 Fermi.

II. Ser independiente de la carga. Esto es explicado ya quelos niveles de energía de los estados base y excitadosde distintos átomos, como ejemplo el Litio y Beriliocon Z=3 y Z=4 respectivamente, con cantidad de pro-tones menor en el Litio, eran muy similares y si el po-

18 JEICOT DELGADO

tencial dependía de la carga deberían ser muy distintos.Estos niveles de energía son mostrados en la figura 10

Figura 10. en esta gráfica se muestran los niveles de energía dellítio y del Berilio, estos poseen igual masa pero un valor de cargadistinto.(D. Griffiths, 1987)

III. Ser de gran intensidad (por este motivo llamada in-teracción fuerte) puesto que permitía a los protones yneutrones estar encerrados en una especie de cascarón,y

IV. Ser fuertemente dependiente del espín, esta magnitudpropia o intrínseca es la que define la ”rotación“ quetiene una partícula subatómica, esta cantidad es similaral momento angular.

Para explicar esta última característica, tomemos comoejemplo al deuterón, esta es una partícula compuesta deun protón y un neutrón y solo posee un estado ligado basedonde sus constituyentes tienen sus espines esencialmenteen paralelo siendo este estado su único estado base. Sise toma el caso contrario donde los espines son anti-paralelos, la partícula no es estable, como se compruebaexperimentalmente. Ahora si se postula que la interacciónfuerte es la encargada de mantener a los nucleones ligados,esta interacción está obligada a tener una dependencia deespín. Esta característica y el principio de exclusión de Paulique establece que dos fermiones (partículas que poseenun espín semientero) no pueden interactuar en el mismoestado cuántico, en otras palabras, indica que no se puedeestablecer una ligadura o unión entre dos fermiones si estosestan definidos mediante los mismos valores de númeroscuánticos. Estas características también nos permitenexplicar por qué no existen estados ligados de dos protoneso dos neutrones puesto que, al ser dos nucleones iguales, elprincipio de exclusión censura la existencia de estados conespín paralelo ya que estarían en el mismo estado cuántico.Para el caso de dos protones o dos neutrones de un estado enel cual los espines sean anti-paralelos, el potencial no seríalo suficientemente fuerte para mantenerlos ligados.

Considere las funciones de onda de dos partículas idénti-cas a y b descritas por ψa y ψb, la función de onda del sis-

tema será ΨT = ψa(1)ψb(2) = ψa(2)ψb(1) (conmutan ya queson partículas idénticas por lo cual la etiqueta o el subíndicepuede ser cambiado), esto es:

|Ψ(1, 2)|2 = |Ψ(2, 1)|2 (33)

donde el subíndice define la partícula con la cual se estátrabajando y el valor (1) o (2) especifica el estado de la partí-cula. Este último hecho (33) indica que los estados posiblesdel sistema son:

Ψ(1, 2) = Ψ(2, 1) (34)

Ψ(1, 2) = −Ψ(2, 1) (35)

El estado final del sistema será entonces una combinaciónlineal de las funciones descritas ya sea por la ecuación (34)que produce una función de onda simétrica:

ΨS =1√

2(ψa(1)ψb(2) + ψa(1)ψb(2)) (36)

o por la ecuación (37)

ΨA =1√

2(ψa(1)ψb(2) − ψb(1)ψa(2)) (37)

En esta última ecuación se muestra el hecho del cual seha estado hablando con respecto al principio de exclusiónde Pauli. Ya que se están describiendo partículas idénticas,el estado del sistema no puede presentarse si las partículasestán en el mismo estado ya que la función de onda ΨA seanularía (Firk, 2000).

En aras de explicar este fenómeno, Yukawa postulóen 1935 su teoría conocida como la teoría del mesónoriginal (Eisberg y Resnick, 1985) el cual explicaba, deforma aproximada, la interacción entre nucleones. Éstateoría fue propuesta en similitud a la electrodinámicacuántica, postulando la existencia de elementos mediadoresllamadas piones o mesones π masivos (en el caso de QEDlos mediadores son los fotones) encargados de transmitir lainteracción fuerte entre los nucleones (protones y neutrones).

Para entender de mejor manera cómo se dió este avance,tengamos en cuenta la ecuación de Klein-Gordon:

−∂2φ

∂t2 = (−∇2 + m2)φ (38)

(Para seguir un desarrollo formal de esta ecuación, se pue-de revisar (Eisberg y Resnick, 1985)). Esta ecuación presentógrandes problemas pues, cuando se soluciona para el caso deuna partícula libre, se obtienen dos valores posibles de ener-gía, uno positivo y otro negativo:

E2 = p2 + m2 (39)

CROMODINÁMICA CUÁNTICA 19

Esto implica que, ya que se presenta un valor negativo enla energía, existiría una energía infinitamente negativa parauna partícula moviéndose libremente. Aparte de este proble-ma se presenta uno más complejo aún; tras calcular la co-rriente de probabilidad dada por la expresión:

∂ρ

∂t+ ∇ · j = 0 (40)

donde ρ y j están dados por:

ρ = i[φ∗∂φ

∂t−

(∂φ∗

∂t

]

j =1iφ∗∇φ − (∇φ∗)φ]

Al igual que en el caso de la energía, presenta una proba-bilidad con valores tanto positivos como negativos. Mientrasuna interpretación física de los valores de energía negativaspara la partícula libre puede ser obtenida (una interpretaciónigual que la dada por Dirac), para el caso de corrientes deprobabilidad negativas esto no es tan viable. A pesar de esto,usando la ecuación de Klein-Gordon es posible determinar elpotencial de Yukawa (27):

−g2s

(4π)

(e−r/a

r

)El cual encajaba de muy buena forma con los valores

obtenidos experimentalmente.

En este potencial, se presenta el factor g2 que juegael papel de la carga eléctrica en similitud del potencialeléctrico. Para la teoría propuesta por Yukawa, la cantidadadimensional g2 ' −15 mientras que la cantidad e2 ' 1/137,lo cual indica que el potencial del tipo Yukawa es muchomas intenso que el potencial eléctrico que concuerda con loesperado.

El factor a tiene el valor de 1,5 f que hace referencia alrango máximo de la fuerza que el potencial puede tener.Usando este valor y el hecho de que a viene dado por:

a =~

mπc(41)

es posible determinar la masa del pión que media la interac-ción. Así se estimó que este tenía un valor aproximado de100 MeV .

En su teoría, Yukawa también postuló que estos pionesse debían intercambiar en tiempos muy cortos pues, durantela emisión de un pión, los nucleones conservan su masa yya que se están intercambiando piones con masa, los valorespara los nucleones variarían y se presentaría una violaciónde la conservación de masa-energía en caso contrario. Esto

fue solucionado mediante el principio de incertidumbre de laenergía y el tiempo:

∆E∆t =~2

(42)

El cual indica que si el proceso se da en un intervalo detiempo muy corto, se produce un valor de incertidumbreen la energía muy grande, este valor podría llegar a ser tangrande que sería comparable con la masa del pión haciendoque encaje dentro del margen de incertidumbre. Además,este hecho muestra que un pión no podría existir como unapartícula libre pues se presentaría una violación permanentede la conservación de la masa y la energía.

La teoría propuesta por Yukawa encajaba con losresultados experimentales de colisión entre nucleones, enlos cuales se podían realizar transiciones de protón a neutróno viceversa mediante la absorción o emisión de uno de los3 tipos de piones que se postulaban (π+, π− y π0), así porejemplo, para la transición de un protón a un neutrón, elprotón emitía un pión π− dejando a este último con carganeutra.

A medida que pasaba el tiempo, los aceleradores se ibanrefinando e incrementando su potencia y así, los experimen-tos de colisiones entre electrones y nucleones a altas energíasdeterminaron la distribución de carga dentro de estos últimos,como se muestra en la Figura 11. Aunque el protón tiene unacarga neta positiva en su interior, la mayor parte está concen-trada en su centro y el resto presenta un gran decaimiento amedida que se acerca a su frontera llegando a cero. Para elcaso del neutrón que presenta una distribución neta neutra,en cercanías a su centro se presenta una carga positiva deca-yendo hasta llegar a un valor de carga negativa que empiezaa crecer a medida que se acerca a la frontera, llegando a unvalor igualmente cero. Esta distribución permitió a la teoríapostulada por Yukawa tener un éxito durante un buen tiempodebido a que este hecho era explicado si se establecía que losnucleones estaban compuestos por piones.

Figura 11. Distribución de carga en función de la distancia al cen-tro. Aquí se muestra que la distribución de la carga en los nucleonesno es uniforme, existen secciones donde se concentra la carga.(Eisberg y Resnick, 1985)

20 JEICOT DELGADO

Este éxito fue opacado tras mostrar que existía una fuerzarepulsiva para distancias de aproximadamente 0,5 f caracte-rística que la teoría no podía explicar. Esta fuerza repulsivaera la causante de la saturación de la interacción fuerte,ya que éste sólo interaccionaba con unos pocos nucleones.Si no se presentara esta saturación el potencial tendría unadependencia adicional con la cantidad de nucleones con loscuales se está interaccionando, aumentando su intensidad ysiendo dependiente de estos. Adicional a esto, el potencialpostulado por Yukawa para valores más pequeños que 2 f sedesviaba fuertemente del medido experimentalmente y porúltimo, a pesar de que existió una gran emoción cuando sedescubrió una partícula con la masa del pion en 1936 dadapor la ecuación (41), llamada muón µ se empezó a notar queesta no interactuaba fuertemente por lo cual no podía ser lamediadora. Al no existir, hasta la fecha, observación algunade la partícula, la teoría fue siendo olvidada poco a poco.Solo fue hasta 1947 que fue observado el pión (Eisberg yResnick, 1985).

Por la misma época se postuló la teoría de las inter-acciones débiles (interacción presente entre los leptones -partículas similares al electrón- y solo se presenta entre es-tos), por Glashow, Salam y Weinberg, describiéndola comouna teoría cuántica de campos no abelianas3 en similitud conla teoría propuesta por Feynman de la electrodinámica cuán-tica la cual es una teoría cuántica de campos abeliana U(1)4.La teoría de la interacción débil logró un gran triunfo porlo cual hubo una explosión de teorías de campo para poderexplicar la interacción fuerte.

Figura 12. Diagrama para el doblete de isospín, con T = 1/2

En 1949 Yang y Fermi propusieron que si existía una teo-ría de campos que pudiera dar cuenta de esta interacción, estadebería pertenecer al grupo S U(2) (simetría unitaria). Ellospropusieron que los protones y neutrones eran el mismo ele-mento llamado nucleón, el cual presentaba una nueva canti-dad cuántica llamada isospín y ligada a la carga eléctrica detal forma que para un valor de isospín de T = 1/2 se presen-taba un doblete de partículas o en otras palabras, el nucleóntenía dos estados, uno con Tz = +1/2 para el protón y el otrocon Tz = −1/2 para el neutrón Figura (12). La relación de lacarga y el número cuántico de isospín es descrita mediante laecuación de Gell-Mann y Nishijima:

Q = Tz + 1/2 (43)

donde se muestra que para el protón se produce una carga de1 y para el neutrón una de 0.Diferentes experimentos de colisión entre p + p y p + n

han mostrado que la fuerza entre estos pares es de lamisma intensidad, lo que implica que los estados de espíny momento angular son los mismos, esto muestra que lainteracción es independiente de la carga en la interacciónnucleón-nucleón.

La teoría de la simetría de sabor de S U(2) fue dada aconocer en 1954, por Yang y Mills, que intentaron describiral grupo de simetría de isospin como una teoría gaugelocal (una transformación gauge dependiente del tiempo).Pauli ya había desarrollado una teoría sobre las teoríasgauge no abelianas en 1953, pero no fue publicada ya quepensaba no era relevante debido a que no daba cuenta dela interacción. En esta teoría era necesaria la inclusiónde 3 campos mediadores producto de las combinacionesantisimétricas de las representaciones fundamentales deS U(2), es decir, 2 ⊗ 2 = 3A ⊕ 1S , esta teoría no fue muyapreciada como explicación dinámica de la interacción. Sinembargo, fue utilizada en la teoría electrodébil propuesta porGlashow, Salam y Weinberg en 1960, donde se presentan4 partículas mediadoras donde 3 de ellas adquieren masamediante el mecanismo de Higgs y la última no posee masay corresponde al fotón. Este intento no logró establecer cómointeractuaban los hadrones sino cómo lo hacían los partones(elementos “constituyentes” de los hadrones) dándose laprimera aparición de estos elementos en la teoría.

Problemas de la Teoría de Campos. QCD se en-frentaba a un gran problema ya que, a pesar de explicarla existencia de los hadrones de una forma bastanteapropiada, era una teoría cuántica de campos de forma talque presentaba los problemas propios de esta, de formamás precisa presentaba ,entre otros, el problema de lacarga cero de Landau. Como se mencionó anteriormente,Landau junto con sus colaboradores comenzó a estudiarQED a grandes energías, él estudiaba una relación entre lacarga desnuda (el valor de la carga sin presencia alguna depolarización del vacío) y la carga efectiva (la carga medidacon polarización) a distancias infinitesimalmente pequeñas.Landau Mostró la existencia de un término predominante enla carga que exhibía un efecto curioso, el valor de la cargaefectiva dependía de la polarización existente y para un valorfinito de distancia se anularía el valor de la carga efectiva,mejor dicho, ya que la polarización del vacío depende de laexistencia de una carga, se generarían polarizaciones hastaque el efecto o la medición de la carga sea nulo lo queproduciría en síntesis una carga efectiva nula.

Este problema fue un gran golpe para la teoría decampos ya que, además de estudiar este efecto en QED paragrandes energías, probó con diferentes teorías de camposdonde mostró que todas estas presentaban este problema,Landau pensaba que el apantallamiento era un efecto de

3En la teoría de grupos, una teoría no es abeliana cuando losgeneradores del grupo no conmutan entre si, es decir, AB , BA

4U significa el tipo de grupo que representa, en este caso unitarioe indica las caracteristicas del operador que realiza las transforma-ciones, y (1) significa la cantidad de representaciones fundamenta-les que tiene el grupo.

CROMODINÁMICA CUÁNTICA 21

la renormalización que se utilizaba en las teorías (en otraspalabras, cuando se introducen los contra términos), mas nodel tipo de teorías que se estén utilizando ya que no teníaevidencia de que se presentase lo contrario. Esto llevó aLandau a dictar la sentencia ”el método está muerto y debeser enterrado“ (Gross, 1999), con respecto a las teorías decampos para poder explicar la interacción fuerte y llevó a losfísicos de la Unión Soviética a desistir y descartar la teoríade campos.

En el caso de Estados Unidos, no se utilizaba esta teoríaya que no se podían realizar cálculos con ésta. Esto sedaba por dos razones, la primera no se sabía qué campo sepodía utilizar, Yukawa tuvo éxito al probar con los pionespero, después de la explosión de nuevas partículas que sedio al incrementar las energías de los aceleradores 5, noexistía nada especial en estos, por lo cual se podía trabajarcon cualquier tipo de hadrón. La segunda razón era queya que uno de los pilares de la teoría de campos es lateoría de perturbación y en la época existían muy pocosmétodos para tratar de realizar perturbaciones en las teorías,se empezaban a presentar divergencias al infinito cuandose llevaban a mayor orden los términos perturbativos, estoproducía una diferencia entre los cálculos teóricos y losdatos experimentales en caso tal que se pudieran realizartales cálculos ya que en algunos casos no son posiblesresolverlos. La necesidad de llevar a mayor orden la teoríade perturbaciones, a diferencia de QED, era debido a que elacoplamiento entre nucleones y piones es muy grande porlo cual se necesitan mayores órdenes para tener una teoríaapropiada y los pocos métodos no perturbativos conocidosen la época eran ineficaces.

Todo lo anterior llevó a la mayoría de los físicos a desistirde una teoría de campos como la teoría de la interacciónfuerte, pero gracias a la constancia de los físicos más jóvenesse pudo llegar a una teoría cuántica de campos apropiada.En aras de sepultar a la teoría cuántica de campos, DavidGross empezó a estudiar todos los procesos involucrados enla teoría de perturbación, observó además que el método deBootstrap que es una clase de teoría de las matrices S , eranmétodos puramente tautológicos (son auto-consistentes)junto con la teoría de las matrices S . Después de esto secentró en estudiar las simetrías existentes en la interacciónfuerte, en este campo un gran avance fue propuesto porGell-Mann llamado las corrientes de álgebra de Gell-Mann,el cual tomaba aspectos de la teoría de campos como pasosintermediarios y en la parte final los desechaba para no tenerinconvenientes con las divergencias.

Ya que esta aproximación propuesta por Gell-Mann secentraba en las simetrías de la interacción y no en cómo sedaba la dinámica de la interacción, se daba una idea errada

de la existencia de los quarks, de forma tal que Gell-Mannpresumió en una época, que los quarks eran solo elementosficticios, entes netamente matemáticos usados para tener unateoría consistente.

Después de haber realizado una investigación profundade la teoría cuántica de campos, Gross junto con Wilzeckdecidieron empezar a probar si las teoría de campos localesno podían presentar el escalamiento (proceso por el cual, losfactores de forma de la interacción que tienden a divergera infinito cuando la energía es muy grande, empiezan avariar su dependencia hasta tal punto que la divergencia yano se presenta pero ya no dependen de la transferencia demomento si no de un cociente entre estos), algo que paraellos, era la propiedad primordial de la interacción fuerte,para esto se dividió el campo de estudio en dos partes. Laprimera consistía en demostrar que para poder explicar elescalamiento era necesario que la teoría presentara libertadasintótica, y la segunda parte era mostrar que la libertadasintótica no se presentaba en una teoría de campos locales,hecho que se apoyaba en los estudios realizados por Landau.La primera parte la realizaron y mostraron la necesidad deuna libertad asintótica, para la segunda parte realizaron elcálculo de la función Beta, un cálculo que actualmente essimple, en aquella época era complicado ya que para larenormalización de la teoría se presentaba que estas erandependientes del tipo de gauge escogido, además de este,existía el problema de la regularización ya que no se habíandesarrollado herramientas apropiadas para esto por lo quetuvieron que suponer que la teoría era insensible al tipo deregularización usada.

Al comienzo, un error en el signo daba como resultadoque las teorías gauge no abelianas no poseían libertadasintótica, pero luego de una revisión mayor, y comparandotambién con los cálculos que Politzer había realizado, secomprobó que la libertad asintótica era propia de las teoríasgauge abelianas.

En la próxima sección se hablará de dos elementos im-portantes para formar la teoría de la interacción fuerte, elprimero es sobre la teoría de grupos, una teoría que permi-te construir una teoría de campos, y el segundo segmentoes la invarianza que es el hecho de mayor importancia paraestablecer las magnitudes que intervienen en la interaccióngracias al teorema de Noether.

Breve Reseña Sobre la Teoría de Grupos y la Invarianza

Teoría de Grupos. Para entender un poco más acercade la simetría de sabor S U(2) f , tomemos una función deonda que se transforma bajo una transformación gaugeglobal (una transformación gauge independiente del tiempo)como ψ′ = eiαψ donde el término α es independiente del

5en aquella época se descubrían partículas constantemente, tantoasí que se trataba como un evento cotidiano, ya se tenían descubier-tas aproximadamente 200 partículas un año después de la construc-ción del acelerador de Brookhaven (Eisberg y Resnick, 1985)

22 JEICOT DELGADO

tiempo y define qué tipo de transformación se toma.

Previamente se había mencionado que existía una inde-pendencia entre la interacción fuerte y la carga, esto nos in-dica que los estados de los nucleones pueden ser estados de-generados de la misma partícula, en otras palabras, cualquiercombinación lineal de estas representa el mismo estado delsistema. Entonces el estado Ψn del neutrón puede ser descritocomo una combinación del estado del protón más el estadodel neutrón, es decir Ψ′n = αψp + βψn. En adición, se mues-tra el carácter matemático que tiene el estado Ψn, al ser unacombinación de dos estados ψn y ψp, los cuales pueden serdescritos como Ψi = ψiχi, donde χi, para el caso del protónes:

χp =

(10

)y para el caso del neutrón:

χn =

(01

)que define el estado del nucleón, y ψi establece la probabi-lidad de que la partícula sea un protón o un neutrón, esteente matemático χi es un espinor. Estos son elementos ma-temáticos similares a los tensores a los que se le añade unadependencia, en este caso, de isospín.

Con base en esto, es posible definir el estado del nucleóncomo:

Ψ(1/2) =

(Ψp

Ψn

)(44)

donde el super-índice 1/2 indica que posee un isospín T =

1/2. Retomando, la transformación gauge global para el nu-cleón se sintetiza como:

Ψ′(1/2) = VΨ(1/2) (45)

donde la cantidad V es quien realiza la transformación sobreΨ(1/2) y ha de ser una matríz de 2 × 2 ya que se transformaentre 2 posibles estados.

Ya que existe el requerimiento de que sea invariante bajotransformaciones gauge globales, es decir, ΨΨ′ = ΨVΨ =

Ψ′V†VΨ = 1, la cantidad V ha de cumplir:

V†V = 1 (46)

esto nos indica que el operador V es unitario. Además, estacumple la segunda condición:

detV†V = detV†detV = detV ∗ detV = |detV|2 = 1 (47)

Lo cual hace al operador un operador especial unitario oS U. Por último el conjunto de todas las matrices V forman

un grupo. Todo esto, junto con la teoría de campos, es basa-do en la teoría de grupos. Existen distintas clases de grupos,unos son discretos, otros son contínuos, unos finitos, comoejemplo, la cantidad de veces que puedo emparejar los nú-meros del uno al tres con las letras a,b y c, y otros infinitos,como los números reales. Los elementos del grupo han decumplir las siguientes propiedades para poder decir que for-man un grupo (Firk, 2000):

I. Han de cumplir la propiedad clausurativa, esta nos di-ce que al realizar la operación o ley de composición(representado por ·), sea cual sea la que haya en elgrupo, entre dos elementos del grupo, producirá unelemento también del grupo. Esto es: Sí gi, g j ∈ G ygi · g j = gk entonces gk ∈ G

II. Existe el elemento identidad, esta propone la existen-cia de un elemento perteneciente al grupo tal que aloperarlo (o al aplicar la ley de composición) con unelemento del grupo, produce el mismo elemento. Estoes: Si gi ∈ G la operación gi · e = gi, con e, gi ∈ Gsiendo e el elemento identidad.

III. La propiedad asociativa nos indica que no interesaqué operaciones se realicen primero, siempre y cuan-do el orden se mantenga igual, es decir: gi · (g j · gk) =

(gi · g j) · gk

IV. Existe el elemento inverso, esta nos dice que por ca-da elemento del grupo, existe un elemento tal que aloperarlos se produce el elemento identidad. Esto es:gi · g−1

i = e

Adicional a estas propiedades se incluye la siguiente pro-piedad:

V. La propiedad conmutativa, esta indica que no intere-sa el orden en que se realice la operación, es decirgi · g j = g j · gi.

Cuando se cumple la anterior propiedad, el grupo es lla-mado abeliano, y caso contrario, no abeliano.

Los grupos también están caracterizados a partir de susreglas de transformación, por ejemplo, para el caso de losespinores se mostró que el operador de transformación V eraunitario y además |detV|2 = 1 lo que lo hacía al grupo ungrupo especial unitario con dos elementos. Este era el casodel grupo de isospín donde sus dos elementos eran el protóny el neutrón llamado grupo S U(2) de isospín, para el caso dela electrodinámica cuántica el grupo es uno U(1) donde soloes necesario que el operador que realiza la transformaciónsea unitario y con un único elemento que es el fotón.

La propiedad más importante presentada por los grupos enlas teorías de campos es que los grupos que forman las teo-rías son grupos de Lie, estos son grupos donde sus elementos

CROMODINÁMICA CUÁNTICA 23

dependen de un único parámetro continuo y diferenciable ycumplen transformaciones continuas (Maggiore, 2005), porlo cual, cualquier transformación realizada por un elementodel grupo de V, puede ser llevada a cabo por transformacio-nes infinitesimales sucesivas, esto es:

Vin f = 1 + iξ (48)

Donde ξ corresponde a una matriz, para el caso de S U(2) f

una de 2× 2, con elementos infinitesimales. Ya que V es uni-taria, Vin f también ha de serlo, esto obliga a ξ a ser hermítica,es decir, Trξ = 0, además ha de cumplir (1 + iξ)(1− iξ†) = 1.Estas condiciones permiten determinar los elementos de lamatríz ξ, obteniéndose:

ξ =

(a b − ic

b + ic −a

)(49)

Donde se redefinen los valores a, b, c comoε3/2, ε2/2, ε1/2 respectivamente y de esta forma, ξ = ε · τ/2con ε = (ε1, ε2, ε3) y τ representan las matrices de Pauli dadaspor las ecuaciones (50), (51) y (52) y, ya que determinanla forma en que se da la transformación, son llamadasgeneradores.

σx =

(0 11 0

)(50)

σy =

(0 −ii 0

)(51)

σz =

(1 00 −1

)(52)

A partir de la mecánica cuántica se establecen que estosgeneradores τ estan asociados con observables, esto se debeal hecho de que un estado degenerado puede ser caracteriza-do por los eigenvalores de un conjunto completo de opera-dores hermíticos que conmuten con el hamiltoniano y entreellos. Para mostrar que τ conmuta con el hamiltoniano sedefine una matriz H2 de 2 × 2 proporcional, por un factorH, a la matriz unitaria, por lo cual los generadores τ han deconmutar con estos ya que conmutan con la matriz unitaria.Sin embargo, τ no conmuta consigo mismo, entonces es ne-cesario definir a T = τ/2 donde se obtiene la relación deconmutación:

[Ti,T j] = iεi jkTk (53)

Esto muestra que hay una gran similitud entre el momentoangular y esta cantidad. por lo cual se define:

(T)2 =

(12τ

)2

=14

(τ1 + τ2 + τ3)2 =34

12 (54)

Al igual que en el caso del momento angular, solo esposible medir un único valor de τi junto con el valor total τ,

por lo cual se define la cantidad T3 = τ3/2. Este operadorha de producir los mismos espinores χn,p, por lo cual esllamado isospín. La ventaja que presenta esta aproximacióncon respecto a la interacción fuerte usando la teoría degrupos es que permite obtener los estados de las partículassin necesidad de recurrir directamente al hamiltoniano, estoya que, como se ha mencionado anteriormente, proponen untrabajo más complejo a pesar de que sea este el que definecómo se da la interacción. Sin embargo, esta teoría S U(2) f ,solo permite clasificar las partículas mas no determinancómo se da la interacción en su totalidad. Además, hayque tener en cuenta que la teoría es establecida asumiendoque el protón y el nucleón son la misma partícula, es decir,se está trabajando dentro de esta simetría, pero la realidades otra, las masas de las partículas son diferentes. Sinembargo, esto es atribuido a la existencia de la interacciónelectromagnética; al presentarse esta interacción, se produceun rompimiento en la simetría lo cual resulta en un aumentoo diferencia en la masa de los constituyentes del grupoS U(2) f .

Invarianza. Anteriormente, en la sección Construcciónde una teoría cuántica de campos, se había hablado que ellagrangiano es un invariante relativista, la teoría cuánticade campos o teorías gauge, son aquellas teorías que soninvariantes ante transformaciones gauge o transformacionesde fase. La importancia subyacente de este hecho, es que alexistir una invarianza bajo transformaciones de una ley, sefija la dinámica del sistema. Esto no siempre fue un hecho, ysolo es hasta décadas recientes en las cuales se ha mostradoque existe una conexión entre estos dos mediante el teoremade Noether. Por ejemplo, en la antigua Grecia, se creía quelas órbitas planetarias eran circulares. A comienzos del sigloXVII, Kepler saca a la luz sus leyes y muestra que las orbitasson elípticas. Sin embargo, la atracción planetaria, que definelas órbitas, es regida por la ley de gravitación universal deNewton desarrollada a mediados del siglo XVIII, la cuales simétricamente esférica, es decir, la fuerza de atraccióngravitacional es igual, siempre y cuando se mantenga en elperímetro del círculo. ¿Qué sucede aquí?, a pesar de quelas órbitas no son circulares la fuerza de atracción entreellas si tiene esta simetría; entonces, como dijo Newton, lasimetría no describe las trayectorias de los cuerpos si no quedescribe el aspecto más fundamental de la teoría, cómo seda la interacción (D. Griffiths, 1987).

Mediante un experimento simple se puede evidenciar queha de existir algún tipo de conexión entre una ley de conser-vación y la dinámica del sistema, por ejemplo, téngase encuenta el proceso de producción de la partícula X mediantela desintegración de las partículas A+B→ C +D+X, graciasa la conservación de la carga, es posible determinar la cargade la partícula X al conocer la de las partículas A, B,C y

24 JEICOT DELGADO

D, por otro lado, es posible conocerla sabiendo como essu comportamiento o dinámica, al ponerla dentro de uncampo magnético y observando cuales son sus trayectorias.La importancia de esto es la vinculación que supone laexistencia de una ley de conservación y la dinámica delfenómeno. Lo que se intenta entonces, es buscar una formade conectar estos elementos para así, a partir de una leyde conservación, establecer cuál es la dinámica de lainteracción.

Por otro lado, si se establece la simetría del sistema, queindica la existencia de operaciones de simetría (son aquellasoperaciones que, tras aplicarse sobre el sistema, lo dejanen las mismas condiciones o el mismo estado inicial) sepuede definir una invarianza o una conservación de estasimetría. Por ejemplo, la operación de rotación sobre uncírculo con respecto a su centro cuando se gira, ya sea 10,20 o cualquier tipo de rotación, este permanece en la mismaposición, la misma forma, el mismo tamaño, etc, es decir, susmismas características iniciales, por lo cual el círculo tiene,entre otras, una operación de simetría que es la rotación.Esta operación tambien se denomina invarianza ante estasoperaciones o transformaciones.

En la época de la electrodinámica clásica, se habían esta-blecido la ley de Gauss (55), la ley de Faraday-Lenz (56), laecuación que establece la no existencia de cargas magnéticas(57) y la ley de ampère (58).

∇ · E = ρem (55)

∇ × E = −∂B∂t

(56)

∇ · B = 0 (57)

∇ × B = jem (58)

Sin embargo Maxwell notó que al tomar la divergencia deesta última ecuación, se presentaba un problema en la ecua-ción de continuidad (59) ((Eisberg y Resnick, 1985)):

∂ρem

∂t− jem = 0 (59)

Ya que la divergencia de un rotacional es 0, el primermiembro de la ecuación (58) ha de ser 0, obligando a jem aser igualmente 0. Ahora, si este término se anula, el primertérmino en la ecuación (59) ha de ser 0. sin embargo, estosolo se cumple si la densidad de carga es constante en eltiempo.

Para evitar esto, Maxwel modificó la ley de Ampère aña-diéndole un término extra, llamado corriente de desplaza-miento eléctrico, obteniendo:

∇ × B = jem +∂E∂t

(60)

La ecuación de continuidad nos muestra que la taza dedecaimiento de la densidad de carga corresponde al flujode corriente a través de una superficie cerrada. Ahora, yaque esta superficie es arbitraria, se puede tomar tan pequeñacomo se desee de forma tal que se asegura la conservaciónde la carga para cualquier volumen. Esto es, solo dentrodel volumen puede producirse la creación y aniquilaciónde las partículas, sin embargo este puede ser tan pequeñoque puede hacer que solo conviva una carga dentro delvolumen, es decir, una conservación de carga local. Procesosdonde se crea una carga y otra es destruida a una distanciafuera del volumen, a pesar de estar conservándose la cargaglobalmente, no están permitidos ya que este es un procesoque ha de realizarse de forma instantánea y tendría queviolar el segundo postulado de la relatividad. De esta formaes posible vincular las ecuaciones dinámicas con la ley deconservación local, además a partir de esto se conformaronlas ecuaciones de Maxwell con la ecuación (60) junto conlas ecuaciones (55), (56) y (57) mencionadas previamente.

Por otro lado, en la electrodinámica clásica, es posible in-troducir el potencial escalar V y el potencial vectorial A paradescribir los campos B y E (gracias a las propiedades deloperador nabla). Sin embargo, estos no son únicos, si se lesrealiza un cambio o transformación de la forma:

V → V ′ = V +dχdt

(61)

A→ A′ = A + ∇χ (62)

siguen cumpliendo las ecuaciones de Maxwell y ademáscorresponden a los mismos valores de B y E. Esto es conse-cuencia de su invarianza y los cambios son compensados alintroducir una nueva función χ de tal forma que si se produceun cambio local de V , se compensará con un cambio en elpotencial A (si χ es una función constante, se está realizandouna transformación global ya que los potenciales cambiaránen todo punto y en la misma cantidad, y si χ(x, t) es unafunción de x y t, esta es una transformación local ya quedepende de los valores que pueda tomar y que estén tomandolas variables x y t). Al producirse una transformación sobreel potencial V , se da la existencia del potencial A, esto es, lageneración de un potencial, a partir de transformaciones.

Si se desea construir una teoría de esta forma, es necesarioentonces que esta sea invariante ante transformaciones simi-

CROMODINÁMICA CUÁNTICA 25

lares a las de los potenciales. La ecuación de Schrödinger conel hamiltoniano:

H =1

2m(p − qA)2 + qV (63)

será aquella ecuación que nos permita vincular los observa-bles físicos con los potenciales, entonces al aplicar una trans-formación a esta ecuación (con un hamiltoniano electrodiná-mico): (

12m

(−i∇ − qA)2 + qV)Ψ(x, t) = i

∂Ψ(x, t)∂t

(64)

es necesario que esta sea invariante, es decir, cuando se apli-que la transformacion a la ecuación (64) los potenciales vana cambiar según las ecuaciones (62) y (61) produciendo cam-bios en la ecuación, ya que se requiere que la ecuación seainvariante, la compensación ha de hacerla la función de onda,por lo tanto, deberá tener una transformación de la forma:

Φ→ Φ′ = eiχ(x,t)Φ (65)

dejando la ecuación (64) invariante. Esta nos muestraque se esta realizando un cambio en la fase de la funciónde onda para poder obtener los mismos observables físicosdespues de realizada la transformación. Por lo cual estatransformación tambien es llamada transformación de fase.

En 1949, Wigner dió una resaltante definición de lo quees una invarianza gauge, él mostró que solo diferencias depotencial eléctrico pueden tener un significado físico y queninguna cantidad física puede depender del valor absolutodel potencial electrostático. esto puede ser explicadomediante un experimento mental. ”’Suponga que la cargano se conserva, además existe una máquina especial quepuede crear o destruir partículas y esta localizada en unpotencial V , donde se invierte una cantidad de trabajo Wpara crear una partícula con carga Q . Luego, se traslada lamáquina y la carga a un potencial menor V ′, de forma talque este sistema gana una cantidad de energía Q(V − V ′)al realizar este proceso. En este punto, la máquina destruyela partícula cargada ganando la misma cantidad de trabajoW invertido al inicio del proceso en consecuencia de lainvarianza gauge. Por último, si la máquina es devuelta alpunto inicial sin realizar ningun trabajo en contra del campoeléctrico asociado al potencial,se cerrará el proceso y elsistema tendrá una ganancía de energía igual a Q(V − V ′),por lo cual existirá una violación clara de la conservación dela energía“ (Eisberg y Resnick, 1985).

Ahora, ¿qué sucede si se desea realizar un procesoinverso?, que es el objetivo. La idea central sería, a partir deuna exigencia de invarianza obtener una teoría coherente.Entonces ¿qué sucede si se exige que la función de onda yla ecuación que define su estado sean invariantes gauge, es

decir, invariante ante transformaciones de fase dependientesdel espacio-tiempo?. Entonces, la exigencia es que laecuación de Schrödinger (64) sea covariante (ante unatransformación gauge las ecuaciones tengan la mismaforma), teniendo en cuenta que la función de onda cumple laley de transformación (65).

Que sea covariante implica que la ecuación de Schrödin-ger (1) y su transformación (66):

H′ |Ψ(t, x)〉′ = i∂

∂t|Ψ(t, x)〉′ (66)

sean iguales (con H = p2/2m ya que es la ecuación de unapartícula libre). Debido a que la función de onda transformade la forma definida por la ecuación (65), las dos ecuacionesno serían iguales por lo cual, bajo esta transformación gauge,la ecuación de Schrödinger de campo libre no es invariante,es decir, al incluir un requerimiento de invarianza, la teoríaya no es la propia de un campo libre y es necesario incluircambios compensatorios en el operador ∇.

Con lo mencionado anteriormente, podemos asegurar queya que la ecuación de Schrödinger ya no representa la de unapartícula libre, esta nueva ecuación ha de representar una enla cual haya algun tipo de interacción, tras aplicar la trans-formación, es decir, tras sustituir la ecuación (65) en (66),nos damos cuenta que esos factores que alteran la invarian-za, estan relacionados con la fase, por supuesto esto es loesperado, sin embargo, estos tienen una forma similar a lostérminos adicionales que se presentan en las ecuaciones (62)y (61). Esto nos indica que la invarianza se conservaría sise incluyen los potenciales V y A. De esta forma es posibleestablecer que si se desea realizar un cambio o una trans-formación local en la función de onda, es necesario introdu-cir un campo que sopese estos cambios ((Eisberg y Resnick,1985)). Hay que tener en cuenta que los potenciales V y Ahan de cumplir la ecuación que las produjo, para el caso dela electrodinámica cuántica, los campos son producidos al re-querir que la ecuación de Dirac sea invariante ante transfor-maciones gauge (el mismo proceso realizado anteriormentesolo que realizado con la ecuación de Dirac), por lo tanto,han de ser soluciones a la ecuación de campo libre de Dirac,donde se incluyen los cambios en el operador ∂µ → Dµ queson el simil del operador ∇, este cambio es llamado principiode mínima correlación (D. Griffiths, 1987).

camino a la cromodinámica cuántica QCD

En base a la teoría de grupos y la invarianza se empiezana postular las teorías de campos y en 1947, el mismo año enque se descubrieron los piones, se vieron eventos extrañosen los rayos cósmicos, analizados en las cámaras de niebla,en este se veían rayos que tomaban caminos en forma de Vproducto de la interacción fuerte, pero su tasa de decaimiento

26 JEICOT DELGADO

era mucho mayor (10−10) del valor esperado (10−23), teníanque decaer mediante la interacción débil debido a su rango,sin embargo, ¿por qué no decaían fuertemente al tener unamasa tan grande? (el decaimiento se da dependiendo de lamasa, entre mayor sea, tendrá más opciones de partículas demenor masa en las cuales decaer), esto es explicado debidoa que, a pesar de que su producción sea por interacciónfuerte, las partículas que interactúan fuertemente tienen unasmasas muy similares entonces no tiene ninguna a cual decaerrápidamente, ya que no puede tener un decaimiento fuerte,el camino que queda es decaer débilmente, por lo cual tienenun tiempo de vida mucho mayor (D. Griffiths, 1987).

Al tener un comportamiento tan diferente al esperado,se les designó como partículas extrañas. Solo fue hasta1953, cuando se puso en funcionamiento el cosmotrón deBrookhaven que fueron producidas en el laboratorio; estaspartículas no podían ser explicadas desde el punto de vistade Yang y Fermi considerando a la interacción fuerte comouna teoría perteneciente al grupo S U(2), es decir, con dosconstituyentes con los números cuánticos de isospín yamencionados, en cambio, si se extendía al grupo a unasimetría a S U(3) (con tres constituyentes llamados quarks,nombre dado por Gell-Mann) incluyendo un nuevo númerocuántico de extrañeza, se podía explicar la producción deestas partículas vía interacción fuerte.

Esta idea fue propuesta por Gell-Mann y Nishijimaen su primera aproximación pero, tras medir las masasde las partículas extrañas, se mostró que si se enmarcabaen una teoría perteneciente al grupo S U(3) de sabor, losconstituyentes o quarks tenían una gran diferencia en lamasa lo que implica que aquella simetría se rompa o seainexacta. Ahora, las implicaciones de tener una simetríainexacta son grandes ya que evidencia la existencia de unasimetría subyacente en la cual los elementos constituyentessi poseen los mismos valores de masa y por lo tanto existiríanmás elementos, a diferencia de los quarks, que constituyanal espectro de partículas, algo inconcebible en la épocaya que no se tenía evidencia alguna de la existencia deuna partícula constituyente, inclusive no existía evidenciasobre la existencia de los quarks. Esto llevo a Gell-Manny Neeman en 1961 a proponer que la teoría se basaba enconstituyentes o quarks netamente matemáticos, en base alos resultados experimentales pues tras realizar colisionescon energía tres veces mas grandes que la necesaria paraproducirlos, nunca fueron vistos.

A pesar de estos problemas se continuaba trabajandoen base la teoría de grupos ya que podía explicar, en granmedida, el espectro de partículas observados y en 1964, sepresenta un giro importante ya que Gell-Mann y Zweig, deforma independiente, aceptaron la existencia de los quarks y

Quark Espin B Q I3 S Yu 1

213

23

12 0 1

3d 1

213 − 1

3 − 12 0 1

3s 1

213 − 1

3 0 1 − 23

Tabla 1En la tabla se muestran los valores numéricos de los númeroscuánticos principales, en esta se muestra la carga fracciona-da característica de los quarks

(Halzen y Martin, 1984)

propusieron que los mismos números cuánticos que habíanpropuesto Yang y Fermi para los nucleones y Gell-Mann yNishijima, para las partículas extrañas, se podrían asignar aaquellos quarks, construyéndose la simetría S U(3) de sabory definiéndose los sabores u, d y s, para los quarks up, downy strange,con valores en la tabla 1. Ahora, debido a quelas cargas que se producían por la unión de los quarks, porejemplo el protón, eran enteros de la carga e, se propuso quelos quarks debían tener carga fraccionada.

La propuesta de Gell-Mann y Zweig fue soportada porlos resultados experimentales de colisión entre leptones(partículas que interaccionan débilmente como es el casodel electrón) y nucleones, este mismo tipo de experimentosse realizaron para determinar la distribución de carga delos últimos usándose a los electrones como sonda, paraeste caso se incrementó la energía de los leptones para quepenetraran con mayor facilidad, por lo cual se le llamaronexperimentos de dispersión inelástica profunda, y así mirarlos ángulos a los cuales se dispersaban, para el primer caso,los electrones. En este primer experimento, se mostró unadispersión a grandes ángulos para ciertos electrones que seasemejaba mucho a los datos obtenidos por Rutherford alsondear el átomo 13, esta similitud indicaba que existía unaespecie de cascaron duro el cual realizaba esa dispersiónde electrones tan fuerte, pero y a diferencia del caso deRutherford, no se mostró solo un centro dispersor si notres de ellos. Esto mostraba la existencia de elementospuntuales dentro del nucleón que son los quarks. Adicionala esto, se realizaron colisiones entre neutrinos (leptón) yprotones en los cuales se motró que ”la sección transversal,que esta estrechamente ligada al potencial entre partículas,era proporcional a la energía de los neutrinos“ (Eisberg yResnick, 1985), resultados que solo pueden ser entendidos sise consideran elementos constituyentes puntuales.

CROMODINÁMICA CUÁNTICA 27

Figura 13. en esta gráfica se muestra los centelleos con respecto alángulo en los cuales son detectados, la linea punteada hace referen-cia a la distribución que debería haber presentado si no existiesenconstituyentes.(Halzen y Martin, 1984)

Gracias al avance tecnológico en los aceleradores, amedida que se incrementaba la cantidad de energía de laspartículas, se fueron descubriendo más sabores de quarks yasí en 1974 se descubrió un mesón compuesto por quarkscharm o encanto [c], en 1977 un mesón compuesto por elquark bottom o beauty [b] (Eisberg y Resnick, 1985) y en1995 se detectó el quark top o truth o top [t] (Fermilab,2014).

Los números cuánticos mencionados anteriormente, nopresentaban gran avance en la teoría de la interacción fuerteya que estos, a pesar de que explican cómo se construyenlos hadrones, no son magnitudes que definan algun tipode interacción o al menos alguna diferencia en el tipo deinteracción entre hadrones, por esto se piensa en estosnúmeros solo como una herramienta para clasificarlos, masno como un número propio de alguna teoría.

A pesar de los intentos realizados para observar alos partones solo se habían tenido especulaciones de suexistencia, como ejemplo la explicación cualitativa mostradaanteriormente, no obstante, si se postula su existencia todoslos hadrones han de estar compuestos por estos. Entonces, laidea central es realizar experimentos de dispersión teniendoen cuenta si los procesos se comportan según lo predicela teoría mostrando una estructura subyacente. Aquí sepresentará un desarrollo descriptivo involucrado en estosprocesos, sin embargo, los desarrollos matemáticos sepueden consultar en (Halzen y Martin, 1984), (Greiner et al.,2002) o (Aitchison y Anthony, 2004).

Teniendo esto en cuenta, se empezaron a realizar ex-perimentos de dispersión entre e− + p, los primeros con

transferencia de momento q2 pequeños. En este caso, graciasal postulado de De Broglie, una transferencia de momentode este tipo produce una longitud de onda muy grande, loque hace que el electrón interactúe con el protón como sieste último fuese puntual, a partir de esto, es posible estimarla sección transversal. ya que se trata de una dispersión dedos elementos puntuales, esta debe ser similar a la de unadispersión e− + µ difiriendo en los valores de la masa. Ahorase ha de incrementar un poco la transferencia de momentopara que el protón no se presente como una partículapuntual si no que sea considerada como un conjunto departículas modificándose la sección transversal puntual enun nuevo factor, llamados factores de forma, que indica laexistencia de una estructura desconocida, esta interacción esmostrada en el diagrama (67), donde el círculo representa eldesconocimiento de como se da la interacción.

p

e−

p′

e−

(67)

Los factores de forma son desconocidos, a pesar de esto,ya que las únicas magnitudes presentes en la interacciónson los cuadri-momento inicial p, el momento final p′ yla transferencia de momento q, estos factores han de sercuadri-vectores. A partir de esto, se establece una formageneralizada de los mismos llamada formula de Rosenbluth(Halzen y Martin, 1984). La ventaja que propone esteanálisis es: primero, ya se esta postulando la existenciade una estructura interna así, si los datos experimentalesconcuerdan, se estaría corroborando la existencia de lospartones. Segundo, los factores pueden ser calculados deforma experimental al medir los ángulos y el cuadrado dela cantidad de momento transferido en la dispersión. Sinembargo, este proceso teórico tiene un problema y es que eneste análisis no se tiene una sección transversal donde se decuenta del retroceso sufrido por el protón, no obstante, puedeser solventado al cambiar el marco de referencia, el cualsiempre se trabajaba con una partícula estática donde p = 0,pasando a uno, llamado marco de referencia Breit, donde elmomento incidente sea igual al momento de retroceso, estoes, p = p′ Si se aumenta la energía transferida q2 (graciasa la cantidad invariante p2 = E2 − p2, la transferencia demomento q2 produce también un aumento en la energíatransferida). Cada vez se va mejorando el modelo y si seaumenta aún más la transferencia de momento se obtendrá

28 JEICOT DELGADO

una interacción, ya no entre e− + p si no una del tipo e− + q,por lo cual es necesario cambiar el análisis de dispersión.

En la postulación de los partones, se supuso que estos noposeen estructura interna, entonces es posible tomar otra dis-persión en la cual los elementos interactuantes sean partícu-las puntuales, como una entre e−+µ, donde se han de realizarlos cambios de la masa de un muón por la de un partón des-conocida. Entonces, la dispersión transversal σ de este pro-ceso será la de la dispersión e− + µ modificada gracias a losfactores de forma, el tipo de interacción será entonces comoel que se muestra en el diagrama (68).

p

e−

p′

e−

(68)

Como último, se toma el análisis de dispersión dondeq2 → ∞. En este caso el proceso de dispersión que se veníatrabajando, que era elástico, se transforma por uno inelástico,donde se busca que la interacción sea entre leptones y quarkspuntuales, adicional a lo anterior, se realiza un cambio departícula interactuante, esto es, e− → νe, para evitar lapresencia de una interacción electromagnética. Ahora seha de definir la sección transversal σ incluyendo nuevosfactores de forma.

En todos los análisis anteriores, siempre se tenía los fac-tores de forma como funciones de los cuadri-vectores p, p′

y q, para este caso, en 1968 James Bjorken se fijo que losfactores de forma tenían un comportamiento diferente al au-mentar la transferencia de momento q2 donde no divergían ainfinito, y postuló que estos factores ya no dependían de loscuadri-momentos si no que lo hacían mediante un cocienteentre estos, esto es:

F(Q2)→ F(x) con x =Q2

2p · q

adicional a esto, ya no se presentan varios factores de for-ma (dos de ellos en la mayoría de casos) si no que uno pasaser una combinación lineal del otro como se evidencia en(69). Esta relación fue obtenida en 1969 por Callan-Gross(D. Griffiths, 1987).

F2(x) = 2xF1(x) (69)

Todos los procesos mencionados, tienen como fin mostrarcual fue el desarrollo sistemático para el análisis de los pro-cesos en toda teoría de partones, el objetivo era, postulandola existencia de elementos constituyentes, ir probando pocoa poco las teorías existentes evaluándolas y mostrando cualde ellas era la más apropiada. Sin embargo, los modelospropuestos con base en partones como constituyentes seacercaban a los datos experimentales pero ninguno deellos logró dar cuenta de la dinámica de estos. Entonces,fue necesario cambiar el enfoque y modificar el modeloañadiendo un nuevo constituyente llamado gluón.

Volviendo al desarrollo experimental, los experimentos decolisión e−h se sustituyeron por colisiones entre νh con elobjetivo de que los procesos de interacción se modifican enfunción de la eliminación de variables de poco interés o in-necesarias en los procesos, por lo tanto, es posible establecerun proceso donde el proceso predominante sea la interacciónfuerte, para esto, suponga la colisión de dos hadrones ”de-sintegrándose“ para producir unos nuevos hadrones. La ideade esto es que en estos decaimientos existen cantidades con-servadas como lo son la carga eléctrica, el número cuánticode sabor, el espín, momento angular, entre otros, por lo cual,a partir del estado inicial de los hadrones sea posible deter-minar el de los constituyentes, como ejemplo, analicemos elproceso:

π− + p→ Λ0 + K0 (70)mediado por la interacción fuerte, el pión π−, que es unmesón, tiene una carga eléctrica −1 y un espín entero(bosón) mientras que el protón, que es un barión, tiene unacarga +1 y un espín semientero (fermión) 6, esto implicaque, continuando con el concepto de constituyentes, lospartones han de tener carga fraccionada como se mencionóanteriormente. Tras varios análisis de partículas de laprimera generación, que son aquellas partículas que fuerondescubiertas o tratadas en las edades tempranas de la teoríade la interacción fuerte, se establece que estas partículas hande tener una configuración de sabores du (la barra indicaque es un anti-quark, por lo cual tiene valores de espín y decarga de sabor, eléctrica, entre otros, contraria) para el pióny para el caso del protón uud, ahora, se establece un sistemade ecuaciones de la forma:

u + u + d = 2u + d = +1d − u = −1

donde se establece el signo negativo en u dado que el piónesta constituido por un anti-quark u. La solución a estasecuaciones presenta los valores de la carga eléctrica u = + 2

3 yd = − 1

3 . Gracias a una basta información recolectada a travésde las colisiones entre hadrones (Eisberg y Resnick, 1985),se lograron establecer los valores de los números cuánticos

6esta unidad de carga hace referencia a un número entero de lacarga del electrón

CROMODINÁMICA CUÁNTICA 29

de los hadrones de primera generación (notese que esteanálisis fue realizado sin necesidad de establecer la teoríade grupos a la que pertenece, solo se supone la existenciade constituyentes), sin embargo, la introducción de nuevaspartículas, que se empezó a dar desde el descubrimiento delkaón en las camaras de nieblas, propusieron la existenciade más constituyentes, y es aquí donde se usa el procesoπ−p → Λ0K0, para definir los números cuánticos de losproductos.

Ya que estos presentaban un comportamiento extraño alno decaer como cualquier hadrón lo haría (por ejemplo elkaón que es producido bajo la reacción 70, tiene un tiempode vida de 10−13 que mucho mayor al esperado 10−23 debidoa que no hay hadrones de menor masa que posean cargade extrañeza para poder decaer y es necesario que no lohaga vía interacción fuerte sino lo haga vía interaccióndébil) poseían un valor extrañeza distinto de cero por locuál había de existir un constituyente con valor de extrañezadenominado quark strange como ya se ha mencionado, laventaja de esto es que, ya que se conoce que el kaón poseeun valor de extrañeza, el barión Λ0 también ha de poseeruno con valor de extrañeza contrario de forma tal que seconserve el número bariónico.

Ya se conocen los constituyentes del estado inicial del pro-ceso, entonces es necesario que el estado final tenga una mez-cla de los valores de los constituyentes, sin embargo, en el es-tado final aparecen los valores de extrañeza que son llevadospor los quarks s entonces algo tuvo que haber sucedido en lainteracción de tal forma que se produjera un par ss, es decir,un par de quarks tuvo que haber sido eliminado para producirasí este par, y la opción mas viable es la anulación del par uu.Por otro lado, ya que el hadrón inicial p posee un conjunto dequarks uud al cual se le ha de eliminar un quark u y añadir uns, se produce un hadrón Λ0 con constituyentes uds. Para elcaso del kaón, se ha de acoplar el anti-quark s produciendoseuna configuración ds. Ahora, ya que estos hadrones produci-dos no poseen interacción eléctrica, los valores de las cargasde los quarks s han de ser tales que anúlen esta interacción,así el anti-quark s ha de tener carga + 1

3 y el quark s ha detener una −1

3 . Ahora queda analizar la carga del barión Λ0

que muestra la conservación de los números cuánticos en elproceso además de la confirmación de los valores de los mis-mos para los quarks. A manera de comentario, cabe resaltarque estos análisis parten desde la especulación, se proponela existencia de constituyentes, y si estos dan respuesta a laconformación de las demás partículas se postula la teoría co-mo una teoría apropiada para la interacción fuerte. Análisissimilares a este pero con otros números cuánticos dan losvalores mostrados en la tabla 1.

Surgimiento del color. En base a la teoría cuánticade campos, la existencia de un número cuántico propone

la presencia de algún tipo de entidad mediadora que poseeun campo caracterizado por los números cuánticos propiosde la interacción, sin embargo, hasta el momento no se hamostrado ningún tipo de entidad mediadora que posea unnúmero cuántico de sabor, así que no es posible fijar laexistencia de esta cantidad dentro de la interacción fuerte,sino más bien se establece su existencia como una cantidadque solo permite clasificarlos.

La teoría S U(3) (o S U(6) al incrementar la cantidad desabores) permitía explicar cómo se presenta la producción departículas, sin embargo, no era posible explicar a cabalidadla existencia de algunas de las partículas que interactuabanfuertemente, como ejemplo la partícula Ω− con espín 3/2es hadrón que ha de estar compuesto de tres partones s deespín 1/2 esencialmente paralelos, adicional a esto, debenestar en un estado 0 de momento angular orbital que, alser fermiones (partículas de espín 1/2), no pueden estar enel mismo estado cuántico (Eisberg y Resnick, 1985). Altenerse funciones de onda anti-simétricas para los partones,se han de diferenciar sus estados para que su función no seanule, para esto se añade un nuevo número cuántico de colordistinto a los números cuánticos de sabor, con valores rojo,verde y azul, de forma tal que para formar una partícula sedeben mezclar los partones y producir un singlete de color,es decir se deben mezclar los valores de color de tal modoque no existiera valor de color en las partículas formadas.Así, por ejemplo, para el caso de los bariones, se debenmezclar los tres colores o, para el caso de los mesones, sedebe mezclar una partícula con color y una anti-partícula lacual posee una carga de color opuesta.

Por otro lado, las teorías de la interacción fuerte presenta-ban una desventaja referente al análisis de los diagramas deFeynman, en esta se presenta un efecto problemático debidoa que los quarks han de estar siempre confinados (se profun-dizará un poco en la sección Libertad Asintótica), por estemotivo, no es posible tener un diagrama de Feynman real,por ejemplo el mostrado en el diagrama 71 donde el electróninteractúa con un quark q mediante el fotón γ:

q

e−

q

γ

e−

(71)

En los diagramas mostrados en secciones previas se observa-ba la presencia de dos partículas reales (líneas externas) queinteractuaban mediante una partícula virtual (líneas interna),en el caso de QCD las líneas externas no son ”reales“ ya queno pueden ser observados directamente en el laboratorio,

30 JEICOT DELGADO

estos diagramas solo pueden mostrar el mecanismo deinteracción en QCD.

Para obtener un diagrama con partículas reales en la teoríade QCD, se han de incluir los elementos que interactúanen la vida real, es decir, si se desea examinar la interaccióne−e− + p → e+h es necesario realizar un diagrama donde separta desde un electrón que interactúe con el protón medianteun fotón virtual el cual se acoplará con un quark del protóncambiando su estado, por ejemplo, solo cambiando elmomento de este o cambiando su tipo dependiendo de lainteracción que se tenga en cuenta para así producir unhadrón diferente h, ver Figura (72).

e− e−

P (72)

Sin embargo no existía prueba alguna de la existencia delos gluones, todos los fenómenos mostrados eran explicadosmediante el modelo de partones, es decir, mediante quarksconstituyentes puntuales y no fue hasta 1964 donde seempezó a aceptar su existencia, gracias a la espectroscopía,ya que se mostraba partículas como el hadrón ω− con losnúmeros cuánticos especificados anteriormente.

En base a la teoría de grupos es posible construir unateoría consistente para QCD, tal como se presentó paraQED al ser U(1) y la teoría de Yang-Mills que es S U(2),en esta última se presenta la composición 2 ⊗ 2 = 3A ⊕ 1S

la cual nos expresa la cantidad de partículas mediadorasde la interacción de Yang-Mills, una partícula simétricay tres anti simétricas. Para el caso de una teoría S U(3),como la propuesta para la interacción de color, se proponela existencia de 3 ⊗ 3 = 8A ⊕ 1S por lo cual existiríanocho partículas mediadoras anti simétricas y una simétrica,estos mediadores (gluones) son combinaciones de las trescantidades propias de la teoría, para el caso de QCD, estasson las cantidades r, b y g mencionadas anteriormente.Los ocho mediadores al ser anti-simétricos no forman unsinglete por tanto interactúan con los quarks y otros gluones-que llamábamos partones anteriormente- para producir laspartículas reales observables, por otro lado, en el caso dela partícula simétrica mediadora, esta forma un singletepor lo cual no es necesario que sea confinada teniendola posibilidad de interactuar a distancias infinitas (Halzen

y Martin, 1984), sin embargo, no se ha medido ningunapartícula con características de este tipo.Ahora, mediante el proceso de desintegración de un pare− + e+ → γ, es posible obtener una producción pura dehadrones mediante la interacción fuerte, esto es, γ → q+q,noobstante, aunque es una producción pura, según el modelode partones, el par debería ser producido con momentosexactamente contrarios, pero lo que sucede es que existeun momento transversal sobre estos que hace que suproducción no sea, por ejemplo, el quark en dirección z yel anti-quark en −z, si no que existen ligeras desviacionesde estas direcciones, entonces ¿quién posee la otra porciónde momento transversal? La única explicación de esto es laexistencia de los gluones que hacen posible la conservacióndel momento.

Para entender con mayor claridad este fenómeno, supongaque solo existiece un constituyente, en este caso la distribu-ción de momento sería como la que se muestra en la figura14 ya que todo el momento del leptón entrante es distribui-do unicamente para el quark de valencia constituyente (estosson aquellos quarks que constituyen a los hadrones, recor-dando que existen polarizaciones de vacío, además de losquarks constituyentes existe un conjunto de pares de quarkanti-quark, estos también poseen una porción del momentototal pero esta cantidad no es representativa) donde el valorde x representa la fracción de momento que posee el quark.Si el número de quarks se toma igual a tres, este momentoha de ser distribuido de forma fraccionada, es decir, al sertransmitido a un quark de valencia, este lo distribuye con sustres compañeros produciendo que una fracción del momentodel leptón entrante sea distribuido para un quark, como semuestra en la figura 15. Por último, si se toma en cuenta laexistencia de los gluones, esta distribución de momento sesuaviza, con un máximo en 1

3 , debido a que el momento em-pieza a ser transmitido entre todos los constituyentes, esto es,entre los quarks y los gluones, como se muestra en la figura16.

Figura 14. Distribución del momento para un solo quark de valen-cia.

CROMODINÁMICA CUÁNTICA 31

Figura 15. Distribución del momento para tres quarks de valencia.

Figura 16. Distribución del momento para tres quarks junto consus gluones.

Es posible medir la fracción de momento que los quarkstienen con respecto al momento total entrante de formaexperimental y este momento es medible directamente 7, sinembargo, la suma total de las fracciones de momento de losquarks es aproximadamente de 50 %, entonces, el otro 50 %ha de ser llevado por otros constituyentes neutrales (debidoa que no se podía medir su momento directamente), pruebamás que convincente sobre la existencia de los gluones.

Figura 17. Estos valores experimentales muestran la distribucióndel momento dado por el electrón sobre el hadrón, donde se muestrala presencia de constituyentes distintos a los quarks (estos valoresson coherentes al eliminar las contribuciones del momento del marde quarks mediante la resta de los factores de forma Fep − Fen).(Halzen y Martin, 1984)

En la figura 17, se presenta la distribución del momentocon respecto a los valores de x y los quarks de valencia,donde x representa la fracción de momento distribuido, laconcordancia con los valores experimentales mostrados enesta figura y los valores teóricos esperados mostrados en lafigura 16 evidencia la concordancia con lo predicho, existenlos gluones.

Renormalización en QCD. Después de haber mostra-do la existencia de los gluones, se ha de estudiar cómo lasinteracciones de estos y los quarks producen cambios en losestados finales de las partículas producidas en tales interac-ciones, por ejemplo, la mostrada en el diagrama (71).En estassolo se han tenido en cuenta interacciones del tipo O(α) (in-teracciones electromagnéticas únicamente, es decir, el fotónγ con los quarks presentes en el hadrón). La idea es, graciasa todos los hechos experimentales y teóricos expuestos sobrela existencia del gluón, observar que sucede si se introduceninteracciones del tipo O(αs) (estas son interacciones fuertesdonde se asevera la existencia de los gluones g y estos han deinteractuar con los quarks) ya sea antes o después del vérticeO(α) 73, produciéndose una de orden = (α2αs) (el fotón esproducido por la desintegración de dos leptones e− + e+ pre-viamente), además de estos, es posible introducir procesosdel tipo γg→ qq.

γ q

q

q

g

(73)Ya que el escalamiento Bjorken no se cumple en procesos

donde se presente el gluón, la relación 69 ya no se cumpliráy los procesos tratados en la sección anterior han de ser re-evaluados. Los procesos ya no serán como en 72, sino quehan de tenerse en cuenta sub-procesos donde el gluón es-te presente. Para esto hay que determinar factores de formanuevos, el primer paso es ya no tener en cuenta los proce-sos de escalamiento, si no considerarlos dependientes de loscuadri-momentos, esto es, realizar el cambio:

F(x)→ F1(ν,Q2) con ν = p · q/M y Q2 = −q2 (74)

En estos procesos de orden (α2αs) también se incluyenlos procesos de tres jets, correspondientes a fenómenos, porejemplo, como el mostrado en el diagrama (73), a pesar deque estos eventos de tres jets se presentan en un 10 %-30 %de los eventos (Halzen y Martin, 1984). Aquí se ha decalcular las secciones transversales de dispersión σ dondese ha de integrar a su vez sobre todo el espacio de momentodebido a que el gluón virtual puede tener cualquier valor ensu momento.

7al tener carga eléctrica pueden interactuar con los fotones porlo cual puede determinarse el momento tomando una interacciónentre estos.

32 JEICOT DELGADO

Al realizar este proceso se presentan dos divergenciasadicionales: la primera, se presenta al calcular las funcionesde estructura correspondientes a procesos donde el quarkprevio o posterior al acoplamiento con el fotón emite ungluón y es cuando se tienen momentos proporcionales entreel gluón y el quark saliente pq y pg o pq, lo cual indica queel gluón está emergiendo con momento paralelo a q o a q yes llamada divergencia colineal o de masa debido a que ladivergencia se anula si se les asocia a los quarks un valor demasa m , 0. Al adicionar estas correcciones al propagadorfinal se hace una sustitución para que la divergencia sepresente en un término Pqq(z) llamada función de divisióno ”splitting function“ que indica la probabilidad de que unquark, que había radiado un gluón anteriormente, emerja conuna fracción de momento z del momento total del hadrón.La segunda divergencia es llamada divergencia suave oinfrarroja debido a que se presenta cuando se emiten gluonescon momentos cercanos a un valor 0.

En resumen se presentarían tres tipos de divergencias enla teoría de QCD, la primera es la divergencia ultravioletaque se tiene cuando p → ∞ y es inherente de la teoría quese trate pues se presenta en todas las teorías de campos,la segunda cuando se emite un gluón paralelo al quarkemergente, y la tercera es la divergencia infrarroja o suavecausada por la emisión de gluones o quarks con momentoscercanos a 0.

Para la divergencia colineal hay que recordar que cuandose realiza la operación de renormalización y se establecenlos factores de renormalización, se introducen los términosΠ[2](q2) y Π[2](0) con el objetivo de que el fotón cumplala condición ”on-shell“ y se establece una diferencia entreestos dos para que se cumpla que Π[2](q2) tienda a 0con q → 0, gracias a la introducción de este términola divergencia proveniente de la ecuación (17) se vuelvefinita. Para esta se tomó la diferencia entre los términosΠ[2](q2) y Π[2](0) lo que produce una eliminación de ladependencia de estos términos con Λ, el primer términoproviene de la integral correspondiente al diagrama de espira(16), mientras el segundo es un arreglo de cierta maneraarbitrario, introducido por el factor de renormalización elcual hace la convergencia al propagador del fotón apropiadopara la teoría con q2 → 0.

Tenga en cuenta que en la definición de las seccio-nes transversales se presenta un término proporcional aln(q2/m2

e) (con un factor de proporcionalidad dado porla constante de estructura fina α), que es bastante grandecuando se toma la renormalización con Π[2](0), que paraQED no es mayor problema debido a que la constante deestructura es pequeña, pero para el caso de QCD, graciasa que la constante de acoplamiento es mas grande no

es posible utilizar la teoría de perturbaciones para obtenervalores que puedan ser contrastados con los experimentales apesar de haber sido eliminada la divergencia. Ahora, graciasa que la escogencia de Π[2](0) es arbitraria, es posible tomarcualquier valor, por ejemplo, uno donde q2 → −µ2, dondeµ es un factor de masa grande introducido para que lostérminos logarítmicos mencionados anteriormente presentesen Π[2](q2) no crescan tan rápido. La introducción de estefactor tiene la ventaja de que no importa el factor escogidose obtendrán resultados finitos del propagador eliminando ladivergencia donde el parámetro experimental introducido noserá, por ejemplo la carga donde q2 → 0 sino será una dondeq2 → −µ2.

Ya que el problema radicaba en tomar un valor m2e

pequeño, se realiza el proceso anterior cambiando estevalor por uno apropiado Π[2](µ2) de forma tal que loslogaritmos ln(q2/µ2) no sean tan grandes y la constante deacoplamiento sea la apropiada. Ahora, aunque se eliminael logaritmo grande, este vuelve a aparecer en la carga detal forma que hace irrelevante el cambio de escala 8. Elproblema surge gracias a que, cuando se define el nuevofactor, este es introducido de golpe, se pasa discretamentede m2

e a −µ2, entonces el proceso que ha de ser aplicado esel tomar pequeños saltos continuos, o mejor dicho, saltosinfinitesimales partiendo desde m2

e haciendo cada vez masgrande este término hasta llegar a un valor apropiado de talforma que pueda ser aplicada la teoría de perturbaciones,es decir, hasta un valor −µ2. A partir de este tratamiento, esintroducida una nueva función llamada función β o ecuaciónde Callan-Symanzik (76)(esta es una función que define lavariación de la constante de acoplamiento con respecto a lavariación del parámetro µ) que muestra la dependencia dela teoría con la variación de la constante de acoplamiento,entonces gracias a la introducción de el factor de escala µ,es eliminada la divergencia propuesta por los logaritmosgrandes realizando cambios o saltos infinitesimales. Lafunción β (76) es una función de gran importancia ya queabre el camino a la comprensión de la libertad asintótica, sinembargo, este tema será ahondado en la sección LibertadAsintótica.

Cabe recordar que, como se había mencionado anterior-mente, el realizar un cambio en la escala, que a su vez estarelacionado con el punto limite sobre el cual se pausa ladivergencia (sección Corrección de loop), produce cambiosen todos los valores incluyendo el valor de α, que no presentamayor problema ya que al tomar los valores de expecta-ción de los observables se obtienen valores coherentes eindependientes de los factores de renormalización escogidos.

La divergencia ultravioleta es evitada usando la renor-malización tratada en la sección Renormalización, mientras

8se le llama cambio de escala al cambio de factor del cual de-pende el logaritmo

CROMODINÁMICA CUÁNTICA 33

que la divergencia infrarroja no puede ser evitada usandoeste método ya que ésta es anulada usando la teoría deperturbación que puede ser aplicada solo para valores de αs

pequeños que no se presentan si el momento es pequeño.Sin embargo, cuando se tienen en cuenta las divergenciaspresentadas por la emisión de gluones colineales y lasdadas por las infrarrojas se expone un efecto interesante, alsumarse todos los posibles diagramas a un orden fijo las dosdivergencias mencionadas se anulan dejando una seccióntransversal finita. Este hecho es un resultado general y esexpuesto por el teorema de Kinoshita, Lee y Nauenberg elcual establece que las singularidades de masa se anulan alsumar todos los estados indistinguibles de masa degeneradospara procesos como el mostrado en el diagrama (73). Hayque tener en cuenta que la divergencia colineal se seguirápresentando si en las líneas inicial se presentan quarks a loscuales el gluón si puede acoplarse y es necesario eliminarlausando el cambio en el factor de escala mencionadoanteriormente.

Se ha mencionado que hay una dependencia de la teoríacon los términos logarítmicos lnQ2 (Q2 también es llamadofactor de escala física), la presencia de estos logarítmosproduce la violación de escala Bjorken que es el objetivobajo un modelo de partones, el significado de esto es quepara un valor de Q2, digamos Q2

0, el fotón incidente verá solounas partículas, correspondiente con los modelos previos, sinembargo, si se aumenta Q2 de forma tal que para Q2 >> Q2

0el quark se verá rodeado de una nube de quarks, producto delas interacciones entre estos (mediadas por los gluones). Estonos indica que, a medida que se aumenta la transferenciade momento Q2, el fotón ”verá“ mas partones, un hechobastante interesante ya que se esperaría lo contrario. estefenómeno es explicado a través de la radiación de los quarks,donde entre mayor sea la energía del quark mas radiaciónemitirá, es decir, emitirá mas gluones que producirán paresde quarks sobre los cuales el momento del fotón ha deser repartido (la necesidad de que los quarks radien seráabordada en Libertad Asintótica.

Por último, es necesario recordad que en la definicióndel propagador del fotón se necesita fijar el gauge debidoa que si no se realiza este proceso el propagador no tieneuna función inversa que permite establecer la función deGreen que conecta la ecuación de movimiento de la partículadefinida por el lagrangiano. Sin embargo, un hecho de graninterés se presenta en la teoría de QCD; para el caso de QEDla introducción del gauge no afecta la física general de lateoría debido a que las componentes transversales de losfotones no interactúan con las longitudinales permitiendouna libre escogencia del gauge para el campo libre pero, parael caso de los gluones, Gribov mostró que al fijar el gauge enuna teoría gauge no abeliana se presenta una incompletitud

en la teoría (t’Hooft, 1999), es decir, las componentes longi-tudinales que son no físicas interactuan con las componentestransversales de los gluones produciendo cambios en lostérminos de espiras de los mismos.

Ya que estas interacciones no son físicas, solo se presen-tan en la teoría, es necesario eliminar estas componenteslongitudinales que, puede ser llevado a cabo través de laintroducción de los campos de Fadeev y Popov, los cualesfueron propuestos por primera vez por Witt, Fadeev y Popov(Greiner et al., 2002). Al tratarse estos campos como camposde fermiones, es posible tratarlos bajo el marco de la estadis-tíca de Fermi- Dirac. Ahora, ya que la estadística de Fermi-Dirac establece que los fermiones han de ser introducidoscon signos negativos, la adición del campo fantasma ocampos de Fadeev-Popov cancelan exactamente aquellascontribuciones longitudinales presentadas por la fijación deun gauge que interactuaban con las transversales dejando asíun lagrangiano sin presencia de campos longitudinales.

Libertad Asintótica. Se ha mencionado ya, que la cargaha de ser renormalizada y esta depende de un factor Z3 evi-denciada en la siguiente ecuación la cual muestra la variaciónde la carga tras realizar el proceso de renormalización

eµ = Z1/23 e0 (75)

Sin embargo, en la sección anterior se mostró que la cargaeµ depende del factor Λ introducido por el factor de renor-malización Z3 de forma tal que introducia logaritmos diver-gentes (grandes logaritmos) en la teoría los cuales podían sereliminados al cambiar el factor de escala tomando pequeñosvalores que se van cambiando poco a poco hasta llegar a unvalor µ apropiado y los efectos de este valor sobre la teoríaeran establecidos por la función β. Esta función esta definidamediante la ecuación:

µdeµdµ

= β(eµ,me/µ) (76)

cuya solución, usando la definición a segundo orden de eµy derivando en un punto fijo e0, es:

ln(µ/M) = 6π2 1

e2M

−1e2µ

(77)

que tras una reorganización es posible definir la cantidade2µ, la cual es:

e2µ =

e2M

1 − e2M

12π2 ln(µ2/M2)(78)

por último, usando el hecho de que:

34 JEICOT DELGADO

αµ =e2µ

e introduciendo un nuevo factor b dado por:

b =2N f − 33

12π(79)

se obtiene el valor de la constante de acoplamiento a segundoorden que es:

αs(Q2) =αs(µ2)

1 + bαs(µ2)ln(Q2/µ2)(80)

en el cual se hizo un cambio de las cantidades µ y M con elfin de trabajar en la región de espacio-momento junto con uncambio en el factor de b definiendolo como (33 − 2N f )/12π,donde q2 < 0 ya que de esta manera los valores de la cargavan a dar valores reales y µ sigue definiendo el factor de es-cala. La introducción de la constante b es realizada debido alhecho de que los cálculos se han realizado a segundo orden yeste permite integrar la cantidad de quarks activos en la teoríamediante la cantidad N f , el factor 33 en esta misma cantidadesta relacionado a la cantidad de colores en la teoría (Greineret al., 2002).

Hay que tener en cuenta que todas las cantidades obser-vables dependen de esta cantidad, directa o indirectamente,por ejemplo, la sección transversal depende de la constantede acoplamiento, como se muestra a continuación:

σ = σ[ pt](1 + αs/π) (81)

Sin embargo, el hecho de mayor relevancia se presentaen el signo del factor que acompaña a αs, el cual esnegativo como se muestra en la ecuación (80). Este signonegativo fue descubierto hace tiempo, en 1964, en la USSR,Vangashin y Terentier encontraron este factor, sin embargo,lo atribuyeron al hecho del desconcierto en las operacionesde renormalización, no se tenía claridad sobre estos temas,entonces, la existencia de este signo, se pensaba, no definíauna característica de importancia en la teoría si no sedebía mas a una anomalía del proceso y se presentaba paralas teorías cuánticas de campos. Más adelante, en 1969,Khriplovick calculó correctamente la renormalización dela carga (la cual esta ligada a αs por medio de Z3) de lasteorías de Yang-Mills (teorías de campos no abelianas) enel gauge de Coulomb, encontrando el signo inusual, pero,debido al hecho del desconocimiento de la dinámica deQCD, no pudó conectarlo con la libertad asintótica y pasódesapercibido (t’Hooft, 1999). Solo fue hasta que DavidGross, Politzer y Wilzeck estudiaron el comportamiento dela función β, donde, gracias a un error, confiaron en susresultados, que luego de corregirlo, observaron la existenciadel signo negativo logrando así vincularlo a la libertad

asintótica, fenómeno característico de las teorías de campono abelianas.

Ahora la importancia de este signo radica en que permiteexponer la dinámica tan extraña que presentaban los quarks,explicando tanto la existencia del confinamiento, como laaparente libertad de los quarks dentro de los hadrones.

Figura 18. En esta figura se muestra los distintos valores de laconstante de acoplamiento para distintos ordenes de magnitud dela función β al igual que distintas cotas Λ, en esta se muestra unaconvergencia para las distintas gráficas para valores grandes de Q.(Deur, Brodsky, y de Téramond, 2016)

Este es un fenómeno que se divide en dos partes, laprimera es el confinamiento el cual indica que después decierta región las partículas no pueden salir del potencial, esdecir, están confinadas dentro de la región (hadrón), y lasegunda parte es la libertad o el movimiento libre, dentro deesa región de energía, las partículas pueden moverse de talforma que pareciese que no hubiese ningún tipo de fuerzaque las estuviera ligando, la figura 18 muestra la variaciónde la constante de acoplamiento al aumentar la energía Q,para valores grandes de Q2 la constante de acoplamientose hace pequeña permitiendo hacer cálculos perturbativos,pero para valores mas pequeños esta constante se hace masgrande hasta alcanzar y superar los valores de 1 invalidandola aproximación perturbativa.

Retomando el experimento de la distribución de carga delos nucleones a mediados de 1950 mostrada en la gráfica11, se presenta un hecho de interés y es que después de sergolpeado el partón, este se mueve libremente ya que no sepresenta mayores cambios en la transferencia de momentodel fotón y saliente, además estos partones en movimiento,no irradiaban energía lo que implicaba que la desaceleraciónsobre estos era nula. Y aquí entra el comportamiento

CROMODINÁMICA CUÁNTICA 35

complejo de los partones ya que, a pesar de no irradiarenergía (que implica que se moverá de forma constante), lospartones no se ven fuera de los hadrones, lo cual es llamadoconfinamiento.

Por otro lado, se presenta uno de los mayores problemasde las teorías cuánticas de campos que era el problemade la carga cero de Landau, el cual propone la existenciadel apantallamiento (fenómeno mostrado en la sección deRenormalización en QED) que hace que la energía de unapartícula en el vacío diverja al infinito, una teoría de camposapropiada para la interacción fuerte debe dar cuenta deeste proceso y poder explicarlo. En este punto la libertadasintótica permite explicarlo, para nuestro caso QCD, sepresenta el fenómeno del anti-apantallamiento, procesoinverso al propuesto en QED, en este, ya que la carga delos quarks interactúa con los gluones y quarks, se generauna polarización del vacío donde se incrementa al infinitoel valor de la carga medida. Debido a que un quark siempredebe estar acompañado por su anti-quark la nube de parespartícula anti-partícula virtuales que se generan alrededor delos quarks van a superponerse produciendo una cancelaciónde los campos de los quarks, así un quark siempre debe estaren compañía de su anti-quark y se produce un valor de cargay energía finita pequeños.

Para el caso del comportamiento aparentemente libre delos quarks dentro de los hadrones, el anti-apantallamientopermite explicar este fenómeno, si la carga de color que po-see el quark es muy pequeña el choque (para el caso del pro-ceso fotón contra protón) del fotón contra el quark produciríaun comportamiento cuasi libre donde la radiación va a sermuy pequeña, ahora al desplazarse este quark se va a generar

una nube de pares partícula anti-partícula a medida que estese mueve que a su vez no genera una radiación significativa.

Figura 19. En el primer caso, se muestra el proceso de anti-apantallamiento fenómeno propio de las teorías gauge no abelianas.Si el factor proporcional a la cantidad de sabores activos llegase aser mayor que la cantidad de gluones que interactúan, se presentaráel apantallamiento que es el proceso similar a QED(Greiner et al., 2002)

Cabe resaltar que la existencia del factor (79) estableceun signo negativo en la constante de acoplamiento, y graciasa la existencia de este signo, el comportamiento de losquarks es explicado por QCD. Recordando que el factorb depende de la cantidad de sabores activos y la cantidadde cargas de color (dado en el factor 33), si el factorcorrespondiente a la cantidad de sabores activos supera alfactor correspondiente a la cantidad de cargas de color seproducirá un comportamiento de apantallamiento similar aQED como se muestra en la figura 19.

El siguiente cuadro establece que tipo de característicasson compartidas entre QED y QCD:

Electrodinámica cuántica QED Cromodinámica cuántica QCDTeoría de campos abeliana Teoía de campos no abelianaGrupo U(1) Grupo S U(3)c

Una única configuración para el mediador (γ) Ocho posibles configuraciones para el mediador (g)Mediador sin masa (fotón γ) Mediador sin masa (gluón g)α = 1

137 variable. αs = 1 variable.Existen dos tipos de divergencia (IR y UV) Existen tres tipos de divergencia (IR, UV y colineal)Mediador sin carga Mediador con cargaNo hay interacción γ − γ Se presenta interacción g − gNo existen campos fantasmas Existencia de campos fantasmasNo se presenta confinamiento existencia de la libertad asintótica

La teoría de la QCD es una teoría de grupos al igualque QED, sin embargo, QCD posee una gran diferenciaque permitió entender su comportamiento, esta es unateoría de grupos no abeliana perteneciente al grupo especial

unitario S U(3)c, esto implica que no se permite que suselementos conmuten al ser no abeliana, y además al ser unateoría S U(3), implica que posee tres elementos del grupodiferentes que son las tres cargas de color rojo, verde y, azul,

36 JEICOT DELGADO

que al combinarlos con las leyes de combinación del grupoforman los ocho gluones mediadores, donde el noveno no estenido en cuenta debido a que este posibilita la existencia deacoplamientos fuera de los hadrones. Este hecho, contrastaen gran medida con la electrodinámica cuántica la cuales una teoría U(1) con un único mediador y una únicaconfiguración posible que es el fotón. A pesar de que estasdos teorías poseen mediadores sin masa, es posible queexistan otros mediadores con masa que se acoplen tanto algluón como al fotón, y es este hecho el que permite acoplarla teoría de la interacción débil con la electromagnética ybusca acoplar también la teoría de la interacción fuerte.

Al ser ambas teorías de campos y, principalmente, alhacer uso de la teoría de perturbaciones, se presentandistintos tipos de divergencias, la primera divergencia quese presenta en cualquier teoría de campos es la divergenciaultravioleta (UV), este tipo de divergencia se presentagracias a la necesidad de tomar todos los posibles valoresde transferencia de momento para las líneas internas,es decir, aquellos elementos que median la interacción.Gracias a esto, se permite una interpretación distinta de laspropiedades del vacío, algo que, hace a penas un siglo, sepensaba de forma totalmente diferente y ahora exhibe unaposible interpretación tan fascinante como lo es la existenciade un ´´vacío” densamente poblado, además, la existenciade una cota superior Λ en el momento, como lo muestra elproceso de renormalización, implica a su vez la existenciade una nueva física que espera ser descubierta. Adicionala esta divergencia, se presentan las divergencias infrarrojas(IR) y las colineales, que para el caso de QCD, gracias a laexistencia de las dos en simultáneo, permite su anulación.

En lo que respecta a la carga propia de la teoría, la cargaeléctrica para el caso de QED y la carga de color para QCD,la QED permite una concepción un poco más simple que enQCD gracias a que el fotón no interactúa de ninguna formaconsigo misma y solo puede ser acoplada a los electrones,o entes con carga eléctrica, produciéndose una interacciónsolo entre estos entes con el fotón como mediador. Parael caso de QCD, esto se complica un poco más, debido ala presencia de la carga de color también en los gluones.Dirigiendo la atención a las líneas de campo, para el casode QCD, las líneas se mantienen en forma “elíptica” enlo que respecta a la interacción e−e+, pero, para QCD, lascosas cambian y las líneas de campo tienden a estrecharseun poco más aumentando la intensidad con la cual sonatraídos los quarks, además, si se separar o ´´sacar” a losquarks de los hadrones, estas líneas de campo aumentan suintensidad y cuando se rompe la ligadura entre estos, no solose produce la liberación de un quark, sino la producción deun anti-quark extra con el cual se pueda acoplar el quarksaliente gracias a la liberación de la energía almacenada

en la interacción, propiedad que se conoce como libertadasintótica. La existencia de esta carga de color produceefectos adicionales como lo son la interacción de los gluoneslongitudinales con los transversales, es decir, se presentauna interacción entre gluones no físicos con unos realesque, sino es por la existencia de los campos fantasmasde Fadeev-Popov, producirían nuevas divergencias; alfijar el gauge, es necesario introducir estos campos paraeliminar el acoplamiento de los gluones longitudinales alos transversales, elemento necesario para poder invertir lafunción de onda del gluón y obtener la función de Green quepermite construir el lagrangiano de la teoría a fin de cuentas.

La existencia de un fenómeno tan interesante como lo esla interacción fuerte, define una propiedad totalmente nuevapara el mundo de la física como lo es la libertad asintótica.Tenga en cuenta que se realizaron varios intentos para deter-minar la función beta que permite definir el comportamientode la constante de acoplamiento, y varios de ellos fueronfructíferos como el caso de Vangashin y Terentier en 1964,pero al ser una propiedad tan inusual, se necesito tiempoadicional para poder entenderla e interpretarla como lohicieron Gross, Politzer y Wilzcek en 1974. La figura 18,permite entender un poco mejor su comportamiento.

Observe que cuando la energía o la transferencia demomento es grande, la constante de acoplamiento poseeun valor pequeño, esto implica que los partones dentrodel átomo se pueden mover con mayor libertad al poseer,después de la colisión, un momento mucho mayor, y seesperaría que estos salieran libremente del hadrón pero,gracias a la libertad asintótica que hace que la intensidad dela interacción sea mucho mayor a medida que los quarks seseparan, esto nunca sucedía; comportamiento que se muestraen la gráfica para valores pequeños de la energía.

Conclusiones

Gracias a la existencia de una teoría apropiada para la in-teracción electromagnética como lo es QED que mostró sertan precisa al calcular el momento magnético del electróncon hasta 12 cifras de exactitud y catalogada así la teoría másprecisa creada por el hombre, se dió la primera aproximacióna la teoría de la interacción fuerte. Al crearse esta teoría enbase a la electrodinámica cuántica, comparten ciertas carac-terísticas, el cuadro comparativo , resume en gran medida lascaracterísticas de estas dos teorías. A partir de este cuadroes posible comprender de mejor manera el comportamientoextraño de QCD, si pensamos ahora a QCD como una QEDdonde se presentan comportamientos adicionales.

La necesidad de derivar todos los términos a partir de laconstante de acoplamiento αs recide en el hecho de que es-ta es una caracteristica adimensional y además no presenta

CROMODINÁMICA CUÁNTICA 37

ninguna complicación al realizar transformaciones. Ya quetodas las magnitudes físicas dependen de una forma u otrade este factor, el entender su comportamiento permite com-prender como es la estructura de la teoría y su interacción afín de cuentas. Una de las grandes implicaciones que poseeesta constante es la dependencia con el factor b, cuyo factordepende de la cantidad de quarks y gluones, el entender ladiferencia entre QED y QCD con respecto a la constante deacoplamiento es la que da cavida a la existencia de el factorb que permite conectar la QED con la QCD, además, mues-tra la existencia de un posible acoplamiento entre las teoríascuando este valor converja para ambas teorías a un valor co-mún.

A pesar de ser una teoría ampliamente aceptada, no es unateoría que este completa, QCD posee el gran problema deltamaño de la constante de acoplamiento, siempre y cuandose pueda aplicar la teoría de perturbaciones es posible ob-tener valores coherentes con los resultados experimentales,sin embargo, esto solo es posible siempre que la energía delos partones sea muy grande produciéndose una constante deacoplamiento pequeña pero, para valores más pequeños deenergía, la constante de acoplamiento es mayor que la unidadhaciendo imposible el uso de la teoría de perturbaciones. Dis-tintos intentos se han realizado para tratar de entender la teo-ría de QCD a valores de energía pequeños, el de mayor acep-tación es la teoría de Lattice QCD, que consiste en discretizarlos valores de la energía para luego llevarlo al continuo, peroes un proceso que presenta sus propias dificultades. QCD esuna teoría que presenta propiedades inusuales e interesantes,pero es una teoría que hasta la fecha, esta incompleta y enbúsqueda de ser descifrada.

References

Aitchison, I., y Anthony, H. (2003). Gauge theories in par-ticles physics (3.a ed., Vol. 1). Institute of Physics Pu-blishing.

Aitchison, I., y Anthony, H. (2004). Gauge theories in par-ticles physics (3.a ed., Vol. 2). Institute of Physics Pu-blishing.

Cohen-Tannoudji, J., C. D.-R., y Grynberg, G. (1997). Pho-tons and atoms, introduction to quantum electrodyna-

mics (1.a ed.). John Wiley and sons.David, K. (2005). La física y los diagramas de feynman.

Investigación y Ciencia.Deur, A., Brodsky, S. J., y de Téramond, G. F. (2016). The

qcd running coupling. Progress in Particle and Nu-clear Physics.

Dirac, P. A. M. (1964). Lectures on quantum mechanics (1.a

ed.). New York: Belfer Graduate School of Science.Yeshiva University.

Eisberg, R., y Resnick, R. (1985). Quantum physics, ofatoms, molecules, solids, nuclei and particles (2.a ed.).John Wiley and sons.

Feynman, P. R. (1961). Quantum electrodynamics (1.a ed.).Frontiers in physics.

Feynman, P. R. (1985). The strange theory of the light andmatter (2.a ed.). Princeton University Press.

Firk, F. (2000). Introduction to groups, invariant and parti-cles. indeterminado.

Greiner, W., Schramm, S., y Stein, E. (2002). Quantum chro-modinamics (2.a ed.). springer.

Griffiths, D. (1987). Introduction to elementary particles (1.a

ed.). John Wiley and sons.Griffiths, D. J., y College, R. (1999). Introduction to elec-

trodynamics (3.a ed.). Prentice Hall Upper Saddle Ri-ver, NJ.

Gross, D. (1999). Twenty five years of asymptotic freedom.Nuclear Physics B.

Halzen, F., y Martin, A. (1984). Quarks and leptons: an in-troductory course in modern particles physics (1.a ed.).John Wiley and sons.

Hendry, A. W., y Lichtenberg, D. B. (1978). The quarkmodel. Reports on progress in physics.

Maggiore, M. (2005). A modern introduction to quantumfield theory (1.a ed.). Oxford University Press.

Peskin, M., y Schroeder, D. (1995). An introduction to quan-tum field theory. Perseus Books Publishing.

t’Hooft, G. (1999). When was asymptotic freedom discove-red. Nuclear Physics.

Wilczek, F. (s.f.). Asymptotic freedom: From paradox toparadigm. En Lecture given in acceptance of the nobel

prize.