martes, 26 de septiembre de 2017

PROCESOS TERMODINÁMICOS 2

Hoy vamos a seguir hablando de los principios de la termodinámica, siguiendo la ley 0 de la termodinámica que comentamos ayer.
PROCESOS TERMODINÁMICOS (LEY CERO DE LA TERMODINÁMICA)

Bien, para poder hablar de la temperatura empírica necesitamos las ecuaciones que vimos ayer, la empírica y la térmica de estado, vamos a ver que etapas hay que pasar para llegar a tener una ecuación de este estilo.
ETAPAS:
I-Elección del sistema termométrico:
El sistema con el que mediremos la temperatura, el más simple que conocemos es el termómetro, siendo un sistema simple: (y, x).
II-Elección de la variable termométrica:
Pudiendo ser x la variable e y la constante o x la constante e y la variable.
III-Elección de la función termométrica:
Esto es una función lineal del tipo: f(x)=ax+b, lo que ocurre es que necesitamos conocer las constantes a y b para poder hacer mediciones correctas de lo que queramos.
Para sacar estas constantes necesitamos hacer uso de los puntos fijos.
Puntos fijos: Son aquellos estados de equilibrio de determinados sistemas que reflejan unas condiciones termodinámicas que son reproducibles en cualquier laboratorio.
Los puntos fijos que nosotros usamos para la escala Celsius son principalmente dos:
-El punto de fusión del hielo I a 0ºC y 1 atm.
-El punto de ebullición del agua a 100ºC y 1 atm.
Sustituyendo estos valores se obtendría la ecuación con las constantes a y b.

Vamos a ver otra ecuación que únicamente necesita de un punto fijo para poder despejar su constante:
En este caso, vamos a hablar del punto triple del agua.
El punto triple del agua es aquel punto con unas determinadas presión y temperatura donde coexisten los tres estados de la materia en el agua a la vez, sólido, líquido y gaseoso.
Este punto se consigue siempre a una presión  de 4,58mmHg que son unas 0,006037 atmósferas de presión.
Obtenido este punto, su temperatura siempre son 273,16K.
Cuando realizas esta ecuación pero, en vez de presión, existe una resistencia o una longitud de un tubo, por ejemplo, cambia el valor de la x ya que esta relacionada con diversos factores pero jamas cambia la constante de temperatura de 273,16.
Valor que se usa para sacar el conocido valor de 273,15K para el cero absoluto.

Vamos a ver ahora la escala de temperatura del gas ideal o como medir la temperatura con un termómetro a volumen constante.
Podemos decir que esto es mas que nada, una manera que tenían los científicos de medir la temperatura antes de la segunda ley de la termodinámica y además darse cuenta que a presiones bajas, todos los gases se comportan igual.
La menor variación en las lecturas de temperatura se ha encontrado en los termómetros de gas a volumen constante. A la vez, cuando reducimos la cantidad de gas, y por consiguiente su presión, la variación en las lecturas de temperatura se hace más pequeña independientemente del tipo de gas. El termómetro de gas a baja presión (gas ideal) y a volumen constante, consiste de una cápsula de gas conectada a un manómetro de Hg en forma de U , ``conectado" por el otro extremo a la atmósfera.
El manómetro a su vez está conectado a un reservorio que permite ajustar el cero de la escala (para mantener el gas a volumen constante) y a la vez medir la altura del reservorio respecto al cero de la escala. Así la presión del gas está dada por la diferencia entre la presión atmosférica y el producto de la densidad del mercurio con la aceleración debido a la gravedad y la altura. Para cierta cantidad de gas, digamos oxígeno, sumergimos la cápsula en un `"baño" de agua en el punto triple y medimos la presión, es decir, la altura del reservorio. Luego sumergimos la cápsula en el ambiente o baño cuya temperatura queremos medir y medimos la nueva presión a volumen constante. Extraemos algo de oxígeno y repetimos el procedimiento tantas veces como podamos. Estas mediciones de temperatura y presión las podemos graficar y extrapolar al valor de cero presión. Ahora cambiamos el gas (Nitrógeno, Aire, Helio, Hidrógeno, etc.). Se ha observado que la extrapolación de las rectas para distintos gases convergen a la misma temperatura.


Veamos la ecuación para calcular la diferencia de presiones:
Y el cálculo de la temperatura:

Mañana hablaremos de la temperatura empírica y realizaremos algún ejercicio relacionado con todo esto.



Espero que os haya sido útil esta entrada.
Si tenéis alguna duda, podéis dejarla en los comentarios.
Gracias.

lunes, 25 de septiembre de 2017

PROCESOS TERMODINÁMICOS

Vamos a comentar algunos procesos termodinámicos y sus repercusiones.

PROCESOS TERMODINÁMICOS
Existen 2 tipos de procesos termodinámicos:

-Procesos reales: Son aquellos que se producen en una dirección preferente, es decir, un ejemplo sería como el calor fluye espontáneamente del cuerpo más cálido al más frío.
Son procesos que, además, se pueden observar de forma espontánea en la naturaleza, cuya velocidad es alta y finita y cuyos estados intermedios son estados de equilibrio.

-Procesos ideales: Son procesos que no se observan espontáneamente en la naturaleza, cuya velocidad es lenta, en casos infinitamente lenta y cuyos estados intermedios pueden ser de equilibrio o no.
Está relacionado con la reversibilidad, ya que si un proceso real se produce en forma cuasiestática, es decir, lo suficientemente lento como para que cada estado se desvíe en forma infinitesimal del equilibrio se puede considerar reversible, porque una transformación reversible se realiza mediante una sucesión de estados de equilibrio del sistema con su entorno y es posible devolver al sistema y su entorno al estado inicial por el mismo camino.
Hay que decir que la mayoría de los procesos reversibles por mucho que tiendan a surgir de un proceso real, acabarán siendo procesos ideales pues es muy complicado eliminar por completo los efectos disipativos del mismo, es por eso que los procesos en la naturaleza son irreversibles.

Existen dos tipos de procesos ideales:

-Procesos cuasiestáticos disipativos: Tienen efecto disipativo por lo que no pueden revertirse, si por algún casual se invirtiese, se alteraría el universo termodinámico, así que no lo hagáis. Sus estados intermedios no son de equilibrio. Es imposible la relación fundamental entre las variables de estado. Pueden representarse gráficamente en el espacio termodinámico (formando curvas continuas). Posible calcular el área subtendida. Cumple el segundo principio de la termodinámica, es decir, aquel que dice que en todo proceso espontaneo la entropía (o grado de desorden) aumenta, si el proceso se revierte la entropía se mantiene.

-Procesos cuasiestáticos no disipativos: Tiene relación con el proceso cuasiestático a excepción clara de que no tiene efecto disipativo. Además es imposible la relación fundamental entre variables de estado. Si se representa en el espacio termodinámico se representaría con una curva discontinua. Es imposible calcular el área subtendida.


PRINCIPIO CERO DE LA TERMODINÁMICA

-2 sistemas separados por una pared diatérmica (dicese de una pared que tiene la posibilidad de transmitir o recibir diferentes temperaturas, es decir, permitir la transferencia de energía térmica sin que haya transferencia de masa) y del medio por una pared adiabática (pared que no permite el intercambio de calor) acaban alcanzando un estado de equilibrio térmico.

-2 sistemas en equilibrio térmico con un tercero se encuentran en equilibrio térmico entre sí.

Temperatura empírica. Isotermas.
Sobre la base del Principio Cero se define la temperatura empírica como aquella propiedad que tienen en común todos los sistemas que se encuentren en equilibrio térmico entre sí.
La temperatura empírica es una función de estado por lo que en un sistema simple será una función del tipo
Ecuación empírica o térmica de estado:
Por ejemplo, la ecuación de los gases ideales; P·V=nRT, sique este tipo de ecuación térmica de estado.

Ecuación de una isoterma:



Por hoy esto es suficiente de termodinámica.
Espero que os haya sido útil, si tenéis alguna duda, dejádmela en los comentarios.
Gracias.

jueves, 21 de septiembre de 2017

FULGURACIONES ESTELARES, EXPLOSIONES DE NEUTRINOS Y PÚLSARES

Recientemente fue estrenada en el cine la película: "Alien: Covenant", una película de una saga conocida y que se ambienta en gran parte de temas espaciales.
Bien, en una de las primeras escenas de la película la nave en la que viajan los personajes sufre unos desperfectos debido a una explosión de neutrinos.
Así que se me ha ocurrido que sería interesante explicar algunas cosas relacionadas con los neutrinos, las explosiones estelares o los púlsares.

Para comenzar, vamos a explicar qué es un neutrino.
Un neutrino, como hemos explicado en otras entradas, es una partícula elemental, del grupo de los fermiones y más específicamente de los leptones.
Existen tres tipos de neutrinos: el neutrino electrónico, muónico y tauónico; que aparezcan tres tipos de neutrinos distintos se debe a sus oscilaciones.
El descubrimiento en 2015 de estas oscilaciones que valió el premio nobel a los físicos Takaaki Kajita y Arthur B. McDonald fue muy importante pues permitió conocer que poseían masa ya que estas partículas son tremendamente esquivas y no interaccionan con casi nada, de hecho, una persona es atravesada cada segundo por unos 600 billones (600 millones de millones) de neutrinos del Sol.


Bien, es poco probable que unos neutrinos ocasionasen daños importantes a cualquier estructura de una nave espacial porque, como he comentado antes, interaccionan muy raramente con la materia, es decir, por ejemplo el flujo enorme de neutrinos solares que pasan a través de la Tierra solo es suficiente para producir una interacción por cada 1036 átomos, y cada interacción produce solamente algunos fotones o la transmutación de un elemento.
Lo que si es cierto y es lo siguiente que vamos a comentar es que los neutrinos son como los "mensajeros" de las supernovas, no solo nos pueden indicar cuando va llegar la explosión de la supernova sino que podemos estudiar sus características a través de los neutrinos anteriores a su llegada.

La explosión de una supernova es un fenómeno extremadamente energético como supondréis.
Las supernovas producen destellos de luz intensísimos que pueden durar desde varias semanas a varios meses. Se caracterizan por un rápido aumento de la intensidad luminosa hasta alcanzar una magnitud absoluta mayor que el resto de la galaxia. Posteriormente su brillo decrece de forma más o menos suave hasta desaparecer completamente.
Suelen producirse gracias a estrellas masivas que ya no pueden desarrollar reacciones termonucleares en su núcleo, y que son incapaces de sostenerse por la presión de degeneración de los electrones, lo que las lleva a contraerse repentinamente (colapsar) y generar, en el proceso, una fuerte emisión de energía.
Esta energía se materializa en forma de rayos gamma, la radiación más energética de todas la conocidas y que, unida a estas magníficas explosiones suponen un poder de destrucción exagerado.
Os voy a dejar a continuación un enlace a otra entrada que realicé sobre la vida de una estrella y que habla sobre las supernovas, tema sobre el que profundizaremos en entradas más adelante.
VIDA, MUERTE Y REACCIONES ESTELARES


Bien, posiblemente fue una explosión de estas características la que afectó a la nave "Covenant", no obstante vamos a hablar de las fulguraciones estelares, que también se presenta voluntaria a resolvernos el problema.

Una fulguración estelar es una liberación súbita e intensa de radiación electromagnética en la cromosfera de la estrella con una energía de bombas de hidrógeno, de hasta 6 × 10^25 julios, las cuales aceleran partículas a velocidades cercanas a la de la luz y están asociadas como precursoras de las eyecciones de masa coronal.
Las fulguraciones solares tienen lugar en la cromosfera solar, calentando plasma a decenas de millones de kelvin y acelerando los electrones, protones e iones más pesados resultantes a velocidades cercanas a la de la luz.
Producen radiación electromagnética en todas las longitudes de onda del espectro electromagnético, desde largas ondas de radio a los más cortos rayos gamma.
De esta procedencia también pueden llegar los neutrinos.
En nuestro caso, en el Sol, las fulguraciones solares están asociadas a eyecciones de masa coronal, las cuales influyen mucho nuestra meteorología solar local. Producen flujos de partículas muy energéticas en el viento solar y la magnetosfera terrestre que pueden presentar peligros por radiación para naves espaciales y astronautas.
El flujo de rayos X de la clase X de fulguraciones incrementa la ionización de la atmósfera superior, y esto puede interferir con las comunicaciones de radio en onda corta, y aumentar el rozamiento con los satélites en órbita baja, que lleva a decaimiento orbital.
La presencia de estas partículas energéticas en la magnetosfera contribuyen a la aurora boreal y a la aurora austral.
Las fulguraciones solares liberan una cascada enorme de partículas de alta energía conocida como tormenta de protones. Los protones pueden atravesar el cuerpo humano, provocando daño bioquímico.


Hablemos ahora de los púlsares:
Un púlsar es una estrella de neutrones que emite radiación periódica.
Los púlsares poseen un intenso campo magnético que induce la emisión de estos pulsos de radiación electromagnética a intervalos regulares relacionados con el periodo de rotación del objeto.


Todas estas opciones son las que pudieron dañar la nave en esta película, los neutrinos llegaron primero y después apareció la tremenda energía que lo dañó.




Espero que esta entrada os haya parecido interesante.
Si tenéis alguna duda, podéis dejarla en los comentarios.
Gracias.

lunes, 11 de septiembre de 2017

HOMOGENEIDAD E ISOTROPÍA EN EL UNIVERSO

Vamos a explicar qué significa que un universo es homogéneo o isótropo.

HOMOGENEIDAD:Partiendo de las tres dimensiones del espacio que un universo sea homogéneo significa que lo que vea un observador en un punto del espacio es lo mismo que lo que vea otro observador en otro punto del espacio.
Podemos, naturalmente, trasladar ese observador a otro punto de ese espacio homogéneo y eso nos hablaría de las traslaciones en el espacio de tres dimensiones.
Es decir, esto nos dice que el universo es homogéneo, o también hablando en jerga matemática, invariante bajo traslación.

ISOTROPÍA:Ahora supongamos un observador en el centro de un retículo de tres dimensiones y anillos concéntricos, es decir, esferas rodeándolo.
Si el observador, mirando en cualquier dirección, ve lo mismo, significa que el espacio es isótropo.

Si cualquier observador en cualquier punto ve el universo como isótropo, significa que ese espacio necesariamente es además homogéneo.
¿Por qué nuestro universo es homogéneo e isótropo?
Porque si nos desplazamos por él, estadisticamente en cualquier punto vemos lo mismo que en otro distinto y en cualquier dirección en la que miremos, veremos exactamente lo mismo.




Espero que esta entrada, aunque corta, haya servido para aclarar algunas dudas.
Si aun así, seguís teniendo dudas, ponedlas en los comentarios.

VISITA MI CANAL DE YOUTUBE PARA APRENDER MÁS:https://www.youtube.com/channel/UC8U7TP5fnc1jxGE3WzM_fEA

Gracias.

viernes, 8 de septiembre de 2017

FÍSICA MÁS ALLÁ DEL MODELO ESTÁNDAR

Hoy vamos a hablar de algunas teorías y conceptos alejados del modelo estándar de partículas.
Recordemos que el modelo estándar de partículas es uno de los modelos más exitosos del momento para entender las partículas elementales que forman la materia y sus interacciones.
Si quieres saber más sobre este modelo, a continuación te dejo un enlace a otra entrada que realicé anteriormente:MODELO ESTÁNDAR DE FÍSICA DE PARTÍCULAS
Antes de empezar y si no quieres echarle un vistazo, resumiré a continuación el modelo.


Su éxito se debe al descubrimiento teórico antes del experimental y la repercusión que tuvo en el mundo cuántico.
En él, encontramos los dos grupos básicos, los bosones, encargados de las interacciones de las partículas y en consecuencia de las fuerzas, y los fermiones, encargados de la formación de la materia.
Estas serían principalmente sus características.
Luego encontramos el bosón de Higgs, dentro de los bosones, que permite que algunas partículas tengan masa y sobre el que hablaremos más adelante.
Y encontramos, por supuesto, todas sus antipartículas.
Todos estos elementos son lo que forman el exitoso modelo estándar, predicho como hemos comentado, antes que confirmado.

Pero claro, no todo son luces en este modelo, existen unos problemas, que diremos a continuación, que nos obligan a ir más allá del modelo estándar.

El problema radica en que las partículas, aun estando solas no se encuentran quietas, es decir, una partícula como el Higgs podría desintegrarse en un par muón-antimuón que luego se volviese a unir en un Higgs, o podría incluso desintegrarse en un par de quarks, o incluso en un electrón-positrón, que uno de ellos emitiese un fotón, que diesen lugar a otro par de electrones, que luego se volviese a unir para formar un Higgs.
Y claro, como jugamos bajo las reglas de la mecánica cuántica, todo lo que pueda pasar, puede suceder a la vez.


Esta marabunta de partículas superpuestas tiene un efecto letal en el Higgs ya que el valor del campo de Higgs crecería de forma gigantesca lo que aumentaría enormemente la masa del resto de partículas (Quiero recordar que más adelante veremos el bosón de Higgs y sus repercusiones pero para que quede claro ahora mismo, el Higgs sería el que otorgaría las masas y las distinciones a las partículas, es decir, el que les daría un poco de "vida")
Resulta que el modelo estándar no es suficiente para explicar la física más allá de una cierta frontera de energía, lo que haría que todas las partículas tuviesen masas parecidas a esa energía, lo natural es q esa frontera sea la escala de Planck, la energía en la que la gravedad se vuelve tan intensa como el resto de interacciones, pero claro, esa energía tan elevada alimentaria tanto las masas de las partículas que todas ellas colapsarían formando agujeros negros.


De hecho cualquier frontera demasiado alta tiene consecuencias desastrosas, este es el problema de la naturalidad, un problema que, para resolverlo, es necesario suponer que el modelo estándar es valido hasta una determinada energía, pero más baja que la anteriormente propuesta.
Es decir, que el modelo estándar se rompa en una frontera de energía más baja.
En resumen, la marabunta de partículas hace que el valor del Higgs aumente, aumentando la energía de las partículas, como el modelo estándar tiene una frontera de energía muy alta, haría que las masas de las particulas fuesen todas iguales e iguales a esta energía, la solución radica en bajar la frontera del modelo estándar y buscar soluciones más allá de este modelo en energías más altas.

Así que vamos a ver nuevas soluciones más allá de este modelo:

SUPERSIMETRÍA:Es un concepto al que dedicaremos una entrada propia más adelante.
La supersimetría mas que un modelo es una propiedad de los modelos.
En el mundo las teorías tienen dos tipos de partículas, fermiones y bosones, pues imaginemos entonces que una teoría se transmuta y transforma los bosones en fermiones y los fermiones en bosones.
Se dice entonces que un modelo es supersimétrico cuando al haber realizado esas transmutaciones, las interacciones entre las partículas son iguales.


Bien, ocurre que nuestro modelo estándar de partículas, a priori no es supersimétrico, lo que significa que nuestro mundo no es supersimétrico, pero claro, he dicho a priori porque puede ocurrir que existan partículas que actualmente desconocemos.
Existen muchas maneras de hacer supersimétrico el modelo estándar, pero la más sencilla la denominamos: modelo estándar supersimétrico mínimo.
Este modelo de realizarse, pasaría por, primero añadir un Higgs más y después por duplicar todas las partículas cambiándolas el tipo, a las que denominaríamos supercompañeras.


Mezclas de estas nuevas partículas forman el neutralino, un candidato a la materia oscura.
¿Qué ocurriría con estas nuevas supercompañeras en el Higgs que hemos visto al inicio de la entrada?
Ocurriría que también se sumarían a la marabunta, de hecho cancelaría la anterior marabunta solucionando nuestros problemas.
Pero claro, para que esto pase esas nuevas partículas deben tener la misma masa que las ya descubiertas y por supuesto no sabemos que masa tienen porque no han sido descubiertas todavía, pero si que suponemos que tendrán más masa, eso implica que la cancelación de la marabunta que hemos dicho antes no es tan perfecta, dejándonos con una marabunta, no tan grande como la anterior, pero bastante grande, la cuestión es si este "bastante grande" es razonable.

ACOPLAMIENTO FUERTE: Bien, ya sabemos que las partículas elementales constituyen la materia.
La idea del acoplamiento fuerte radica en que se piensa que algunas partículas elementales están formadas por partículas aún más elementales y regidas por una nueva interacción mucho más intensa que las conocidas.
Uno de los puntos en los que se basa esta teoría es que, el Higgs podría estar formado por partículas más elementales, lo que nos haría calcular mal la marabunta del Higgs pues no estaríamos introduciendo las peculiaridades de estas nuevas partículas.

DIMENSIONES EXTRA:Hemos probado a cambiar el número de partículas, su integridad, sus interacciones...pero, ¿y si cambiamos el espacio en el que se mueven?, ¿y si hubiera direcciones que no viésemos pero las partículas sí?
Quizá las dimensiones sean muy pequeñas y se encuentren compactificadas, como pudimos ver en mi entrada sobre la teoría de cuerdas que dejo a continuación, TEORÍA DE CUERDAS, o quizá las dimensiones sean mucho más grandes y nuestro universo no es más que una rodaja en un espacio más amplio.
Quizá ahí las interacciones cambien por completo, quizá la gravedad, la gran olvidada y problemática del modelo estándar, sea más sensible a estas dimensiones y por eso no la detectamos a niveles cuánticos.
Solo lo podríamos detectar aplicando energía a las partículas en experimentos como los realizados en el LHC, pudiendo así saber si, al pasar con una determinada energía a otras dimensiones se rompe el modelo estándar o por el contrario si la energía al no tener que ser tan alta, resolverse por sí mismo el problema de la naturalidad.
Solo el tiempo nos dirá si existen más dimensiones.


Espero que esta entrada te haya servido y te haya parecido interesante.
Más adelante abordaremos muchos temas concretos que aquí se nombran.
Si tienes alguna duda, déjala en los comentarios.
Gracias. 

lunes, 4 de septiembre de 2017

HABLEMOS DE LA TEORÍA DE CUERDAS

Si estás más o menos interesado en el mundo de la física, habrás oído hablar de la teoría más reconocida mundialmente en este campo, la teoría de cuerdas.
La teoría de cuerdas o la teoría que intenta englobar todas las partículas elementales que rigen este universo bajo unas mismas leyes.
Por supuesto cuando hablamos de partículas elementales, estamos hablando tanto de las partículas que forman la materia (electrones, neutrinos y algunos quarks) como de las partículas que forman las fuerzas elementales, fuerza gravitatoria, electromagnética, nuclear fuerte y nuclear débil (gravitón, gluon, bosón W, bosón Z y fotón).
Si estás interesado en saber más sobre las partículas elementales, hice una entrada hace poco en mi blog, te dejo el enlace:PARTÍCULAS ELEMENTALES


Bien, dicho esto, voy a intentar hacer un pequeño repaso muy simple y rápido sobre esta teoría.

La teoría de cuerdas como acabamos de comentar intenta unificar todas las partículas elementales bajo unas mismas leyes que podamos estudiar para comprender más fácilmente toda la realidad, pero comenzó bajo un intento de englobar todas las fuerzas elementales bajo las mismas normas.
El problema radica en una partícula encargada de una fuerza elemental, esta fuerza es la gravedad y la partícula es denominada gravitón.


Mientras todas las demás partículas encargadas de las fuerzas elementales se pliegan a la mayoría de las leyes cuánticas, el gravitón, la partícula encargada de la gravedad, parece ir por libre, no acepta ninguna ley que le relacione con las demás partículas.
Esto, por supuesto, implica que la gravedad también decida ir por libre y trastocarnos la mayoría de las leyes cuánticas establecidas, el ejemplo claro es el de Einstein y su teoría de la relatividad.
Esta teoría de la relatividad tiene dos variantes, la teoría especial de la relatividad, siendo la más conocida por todos, y la teoría general de la relatividad, donde incorpora la gravedad a sus cálculos, esa gravedad que se escapa a todas las leyes normales cuánticas.

Teoría especial de la relatividad
Teoría general de la relatividad

Así que para intentar unir todas las fuerzas elementales bajo unos mismos criterios se propusieron diversas teorías, y una de ellas fue la que comentó que las partículas elementales no tenían porqué ser objetos puntuales, sino que podían ser objetos extensos, esta tomó protagonismo como la teoría del todo más importante del momento, pasemos a hablar más sobre ello.


Quiero decir, antes de seguir con la entrada, que esta teoría no se ha confirmado todavía experimentalmente, es una teoría sobre la que se está trabajando, que aporta además nuevos conocimientos sobre los que centrarse a expensas del trabajo global de la teoría.
También he de decir que la teoría de cuerdas no es una teoría única sino que existen 5 realizaciones de la misma, pero que sin embargo vienen a explicar lo mismo solo que de distintas maneras, cambiando alguna de sus características podemos pasar de una teoría a la otra.


Bien, dicho esto, vamos a pasar a ver los tres "ingredientes" fundamentales para entender esta teoría.

La cuerda: Un filamento diminuto que, dependiendo de su vibración, genera cada una de las partículas que conocemos.
Recordemos que en el mundo cuántico y gracias a la dualidad onda-corpúsculo de De Broglie, una onda con una frecuencia determinada puede existir también como partícula.
Así que todos los componentes de la realidad, saldrían del mismo objeto, la cuerda.
Además también explicamos cómo las partículas interaccionan, ya que en algún modelo, las partículas del modelo estándar, las que todos conocemos estarían hechas por cuerdas abiertas mientras que el gravitón, la ilusiva partícula encargada de la gravedad formaría una cuerda cerrada.
Dos cuerdas abiertas pueden combinarse para dar lugar a una cuerda abierta conjunta, o esta separarse en dos cuerdas abiertas. También una curda abierta puede plegarse de modo que emita una cuerda cerrada, así sería cómo la materia emite gravitones, cómo crea campos gravitacionales.


Las cuerdas son elementos muy muy pequeños, tan pequeños que ningún aparato actual ha logrado detectarlas, de hecho, quizá sean tan pequeñas que tengamos que buscar rastros de ellas en el universo primitivo, donde la energía era tan brutalmente alta, que podían manifestarse.

Las dimensiones extra: Si ponemos a las partículas a vibrar en las tres dimensiones originarán las distintas partículas y cómo estas interaccionan con la gravedad, el resultado es desastroso ya que la gravedad sigue sin comportarse bien a nivel cuántico cuando está con el resto.
Para arreglar esto se podría aumentar el número de dimensiones en el que vibran las cuerdas, así se llegó a tener hasta cuatro dimensiones, pero el resultado fue idéntico, desastroso.
Se necesitaron nueve dimensiones para que la gravedad se portase bien a nivel cuántico con el resto de partículas.


Pero claro, nuestro mundo, tal y cómo podemos observar sólo tiene tres dimensiones.
Aquí entra la idea de la compactificación, imaginemos que vemos un cable de un poste eléctrico de lejos, nos parecerá que sólo tiene una dimensión, ahora bien, si nos acercamos más a él y profundizamos, veremos que es cilíndrico, que podríamos movernos por su superficie.


Dicho esto, puede que a nuestro universo le ocurra lo mismo, que parezca tridimensional pero que a escalas pequeñas posea más dimensiones, dimensiones ocultas en diminutos espacios plegados, esta es la idea de la compactificación.


Las branas:Resulta que los físicos se dieron cuenta que las cuerdas tenían que acabar en algún sitio, tenían que estar ancladas en algún objeto que, además, llena todo el espacio.
Esto fue denominado como brana, así existirían, la 2-brana, con dos dimensiones, la 3-brana, con tres dimensiones y distintas branas de distintas dimensiones, que incluso se estirarían por las dimensiones extra.


Además estas branas tendrían la facultad de intersecar entre ellas, lo que otorgaría más movilidad a las cuerdas ancladas a ellas, es decir, podrían incluso tener un extremo amarrado a una brana y el otro a otra brana distinta.


Esto podría otorgar a la cuerda nuevas propiedades, es decir, el estaranclado a una brana podría otorgar carga eléctrica y el estar anclado a otra brana distinta, carga de color, formando así, un quark.
La idea es que cada partícula elemental estaría unida a distintas branas, otorgándoles estas, distintas características.

La cuestión es, que tanto la estructura de las branas como la forma en la que el espacio en estas dimensiones extra está compactificado va a afectar en cómo vibran las cuerdas.
Esto influirá en el número de partículas que haya, en su masa, o en la fuerza de su interacción.
La compactificación ayuda a determinar cuáles son las leyes de nuestro universo y es, precisamente eso en lo que están trabajando los físicos ahora, ya que no hay una sola manera de compactificar las seis dimensiones restantes, es decir, que tenemos millones y millones y millones de compactificaciones igualmente válidas, cada una de ellas generando sus propias leyes.
El landscape es, precisamente eso, un paisaje de todas las posibilidades, así que solo debemos encontrar nuestra compactifiación.


Mucha gente piensa que esto es más bien una maldición, pero podemos estar hablando de algo mucho más importante que, simplemente, buscar una secuencia concreta ya que, al igual que la astrofísica nos habla de las múltiples posibilidades de crear un sistema planetario, que de hecho todas esas posibilidades existen actualmente en nuestro universo, la teoría de cuerdas nos podría estar hablando de las múltiples posibilidades de crear un universo, cada uno con su compactificación concreta, cada uno con sus leyes concretas y además, todas igualmente válidas, conviviendo así, en un multiverso.




Espero que esta entrada os haya servido y os haya parecido interesante, seguiremos hablando de los nuevos descubrimientos o estudios en el campo de la física cuántica.
Si tenéis alguna duda, podéis dejarla en los comentarios.
Gracias.

VISITA MI CANAL DE YOUTUBE PARA APRENDER MÁS:https://www.youtube.com/channel/UC8U7TP5fnc1jxGE3WzM_fEA


La mayor parte de la información de esta entrada y algunas imágenes han sido tomadas del Instituto de Física Teórica que resumió perfectamente algo tan complejo como la teoría de cuerdas.
Gracias a ellos y a José Luis Crespo por hacer tan buen trabajo de divulgación científica.
INSTITUTO DE FÍSICA TEÓRICA

martes, 29 de agosto de 2017

ÓPTICA GEOMÉTRICA

La óptica geométrica analiza los cambios de dirección que experimentan los rayos luminosos durante los fenómenos de reflexión y refracción, utilizando para ello representaciones geométricas.

REFLEXIÓN: La reflexión de una onda se produce cuando, al chocar contra un obstáculo, experimenta un cambio de dirección o de sentido volviendo por el mismo medio que el de llegada.


La reflexión cumple dos leyes:
1-La dirección de propagación de la onda incidente, de la onda reflejada, y la recta normal a la superficie en el punto de contacto están en el mismo plano.
2-El ángulo que forma la dirección de propagación de la onda incidente con la recta normal es igual al ángulo que forma la dirección de propagación de la onda reflejada con la recta normal.

REFRACCIÓN: La refracción de una onda se produce cuando, al pasar de un medio a otro con distinto índice de refracción modifica su velocidad de propagación experimentando un cambio en la dirección de propagación.


La refracción también cumple dos leyes:
1-La dirección de propagación de la onda incidente, de la onda refractada y la recta normal a la superficie en el punto de contacto están en el mismo plano.
2-Es la ley de Snell: La relación que existe entre el seno del ángulo de incidencia y el seno del ángulo de refracción es la misma que existe entre las velocidades de propagación de la onda en los dos medios.


Bueno, antes de continuar con los fundamentos de la óptica geométrica comentemos que un rayo luminoso es una línea imaginaria, perpendicular a los frentes de onda, que indica la dirección de propagación de la luz.

SISTEMAS ÓPTICOS:Un sistema óptico está formado por un conjunto de superficies que  separan medios de distintos índices de refracción.
Encontramos tres sistemas ópticos, siendo estos, los dioptrios, los espejos y las lentes.

Hablemos, antes de profundizar en estos sistemas ópticos de los objetos y las imágenes que surgen de ellos:
-Las imágenes  reales son el resultado de la convergencia de los rayos a la salida de un sistema óptico y se pueden recoger en unas pantalla.
-Las imágenes virtuales se forman por la prolongación de los rayos que divergen a la salida de un sistema óptico, por eso no existen en realidad y no se pueden recoger en una pantalla.
-Una imagen se dice que es directa cuando tiene el mismo sentido que el objeto y está invertida cuando su sentido es el contrario al del objeto.


Antes de continuar, vamos a hablar de los convenios sobre los elementos geométricos que nos serán de utilidad a la hora de construir geométricamente las imágenes o seguir estudiando la óptica geométrica:
La esfera y las superficies esféricas son los sistemas ópticos de mayor interés por su simetría, sencillez geométrica para el trazado de los rayos luminosos y por su fácil construcción.
El centro de la superficie esférica se denomina centro de curvatura, C, y el radio, r, de dicha superficie es el radio de curvatura.
El eje principal de un sistema óptico es el eje del sistema, que en el caso de una esfera, se forma por la prolongación de la recta que pasa por el centro de curvatura y el centro geométrico, S, de la superficie óptica.
Para nombrar a los distintos elementos geométricos de los sistemas se utilizan un conjunto de normas aceptadas internacionalmente, que son:
-La luz se propaga de izquierda a derecha.
-Los puntos se representan con letras mayúsculas, las distancias con letras minúsculas y los ángulos con letras griegas.
-Los elementos que se refieren a las imágenes llevan las mismas letras que los correspondientes a los objetos, pero son apóstrofos.
-Las distancias del objeto y de la imagen se miden a partir del plano principal de la superficie óptica y se designan con s y s'.
-Las alturas del objeto y de la imagen se representan con y e y'.

Para terminar estas explicaciones antes de meternos con los sistemas ópticos, vamos a hablar del criterio de signos.
Los signos de las distancias son los mismos que en coordenadas cartesianas, tomando como origen del sistema de referencia el centro geométrico de la superficie óptica, punto S.
El eje de abscisas es el eje principal y el eje de ordenadas es la tangente al dioptrio en el punto S.
-El radio de curvatura, r, es positivo si el centro de curvatura está a la derecha de S y tiene signo negativo si está a su izquierda.
-Las distancias s y s' son positivas cuando se encuentran a la derecha del punto S y negativas cuando están a la izquierda del mismo.
Para deducir las relaciones entre las diferentes magnitudes se utilizan las aproximaciones de la óptica paraxial, que consiste en considerar los objetos de pequeño tamaño frente al resto de distancias, de forma que los ángulos que forman los rayos luminosos con el eje principal son muy pequeños.

DIOPTRIO ESFÉRICO
Un dioptrio esférico es una superficie esférica que separa dos medios de diferentes índices de refracción.
Los dioptrios esféricos pueden ser convexos y cóncavos.
En los dioptrios convexos el centro de curvatura está situado a la derecha del plano principal, por lo que su radio de curvatura es mayor que cero, r>0. En los dioptrios cóncavos el centro de curvatura está situado a la izquierda del plano principal y por tanto su radio de curvatura es menor que cero, r<0.


Veamos la ecuación fundamental del dioptrio, que relaciona la posición del objeto, s, con la posición de la imagen, s', el radio de curvatura, r, y los índices de refracción del primer medio, n, y del segundo medio, n', considerando, como hemos dicho antes, que la luz se propaga de izquierda a derecha.


Seguimos viendo a qué se denomina aumento lateral de un dioptrio, y es la relación entre el tamaño de la imagen, y', y del objeto, y.


Pasemos a estudiar los focos y distancias focales:
En los dioptrios esféricos hay dos puntos característicos, situados sobre el eje principal del sistema, que reciben el nombre de focos:foco objeto, F, y foco imagen, F'.
En un dioptrio convexo, r>0, el foco objeto, F, es un punto del eje principal tal que los rayos que pasan por él atraviesan el dioptrio y se refractan paralelamente al citado eje. Está situado a la izquierda del dioptrio.
En un dioptrio cóncavo, r<0, el foco objeto, F, es un punto del eje  principal por el que pasan las prolongaciones de los rayos que al refractarse salen paralelos al eje principal. Este punto está situado a la derecha del dioptrio.
A la distancia entre el centro geométrico, S, y el foco objeto, F, se denomina distancia focal objeto, f, y se obtiene aplicando la ecuación fundamental del dioptrio esférico, considerando que como los rayos salen paralelos al eje principal la imagen se forma en el infinito, s'→+∞.


En un dioptrio convexo es una cantidad negativa y en uno cóncavo positiva.
En un dioptrio convexo es una cantidad negativa y en uno cóncavo positiva.
En un dioptrio convexo, r>0, el foco imagen, F', es un punto del eje principal de forma que los rayos que llegan paralelos a ese eje, se refractan y se reúnen en ese punto, que está situado a la derecha del dioptrio..
En un dioptrio cóncavo, r<0, los rayos que vienen paralelos al eje principal se refractan en el dioptrio y divergen de forma que sus prolongaciones se reúnen en el foco imagen, F', que está situado a la izquierda del dioptrio.
A la distancia entre el centro geométrico, S, y el foco imagen, F', se denomina distancia focal imagen, f', y se obtiene aplicando la ecuación fundamental del dioptrio esférico, considerando que el objeto está situado en el infinito, s→-∞, ya que los rayos proceden paralelos al eje principal.

La suma de las distancias focales es igual al radio del dioptrio:
f+f'=r.
Alguna otra relación más entre las distancias focales, como la ecuación de Gauss, que relaciona las distancias focales con las distancias objeto e imagen.


DIOPTRIO PLANO
El dioptrio plano es toda superficie plana que separa dos medios de distinto índice de refracción.
El dioptrio plano podemos considerarlo como un dioptrio esférico de radio infinito.

ESPEJO PLANO
En un espejo plano, al observar una imagen, se descubre que es del mismo tamaño que el objeto, como si estuviese detrás del espejo.


Esto nos hace pensar que cuando apliquemos la ecuación del dioptrio plano podemos decir que n' es igual a -n, por lo que:


ESPEJO ESFÉRICO
Un espejo es esférico cuando la superficie reflectante tiene la geometría de una esfera.


Veamos algunas de las ecuaciones típicas de los espejos esféricos.

Recordemos que la ecuación fundamental de los dioptrios esféricos se puede aplicar a los espejos esféricos teniendo en cuenta que n'=-n.


Además operando, obtenemos una ecuación que relaciona la distancia objeto, s, la distancia imagen, s' y el radio de curvatura, r, del espejo.


Teniendo en cuenta la relación entre el radio del espejo y su distancia focal:
r=2f
Obtenemos otra expresión de la ecuación fundamental de los espejos esféricos:


 El tamaño de las imágenes se pueden deducir del aumento lateral del dioptrio esférico, teniendo en cuenta n'=-n.


LENTES
Una lente es un sistema óptico formado por la asociación de dos dioptrios, de los cuales al menos uno debe ser esférico, que limitan un medio transparente y en donde se produce la refracción de la luz.
Las lentes convergentes comprenderían desde la lente biconvexa hasta la plana convexa pasando el menisco convergente.


Las divergentes comprenderían desde la lente bicóncava hasta la plana cóncava pasando por el menisco divergente.


La ecuación fundamental de estas lentes sería:


Y su aumento lateral el siguiente:


Veamos ahora las ecuaciones para los focos y distancias focales:


Debo aclarar que si la lente, de índice de refracción n' se encuentra en el aire, el índice de refracción del mismo, n, es 1.

Respecto a las distancias focales, son iguales pero de signo contrario: f=-f'.

Hablemos ahora de la potencia óptica de una lente, que es la inversa de su distancia focal imagen.
Su unidad en el sistema internacional es la dioptría, estando la distancia focal imagen expresada en metros.




Y con esto, habríamos terminado los conceptos principales de la óptica geométrica.
Si tenéis alguna duda, podéis dejarla en los comentarios.
Gracias.

VISITA MI CANAL DE YOUTUBE PARA APRENDER MÁS:https://www.youtube.com/channel/UC8U7TP5fnc1jxGE3WzM_fEA