TARDÍGRADOS

Ciencia en español -ʟᴀ ʀᴀᴢóɴ ᴇsᴛá ᴀʜí ғᴜᴇʀᴀ-

Posts Tagged ‘Relatividad General’

LIGO pretende haber matado dos pájaros de un tiro

Posted by Albert Zotkin en febrero 13, 2016

En mi anterior post dejé claras mis sospechas de que este vez los del LIGO han ido demasiado lejos con sus jueguecitos con las inyecciones ciegas de señales simuladas.

black_hole_merger_940x704

Sólo tres personas del equipo directivo de LIGO son las que tienen acceso al software y todos los sistemas informátivos de las inyecciones ciegas . Esas señales simuladas son enviadas a todos los detectores de LIGO que estén en estado observacional. El software mejorado de inyecciones ciegas que tienen a su disposición desde 2015 no sólo es capaz de diseñar formas de ondas sino que, jugando con los tiempos, es capaz de simular la dirección en el cielo de la que procede la señal. ¿Cómo consiguen simular la dirección en el cielo de la supuesta fuente que emite esas ondas?. Muy fácil, si hay por ejemplo dos detectores operativos separados a una distancia D en la superficie de la Tierra, el software de simulación mejorado, fija unas coordenadas celestes para la fuente emisora, y con ese dato y asumiendo que las ondas emitidas han de viajar a la velocidad de la luz en el vacío (porque así lo dicta la Relatividad general), se calculan los retrasos de la señal simulada hacia cada detector. Es decir, la inyección ciega para dos detectores no se hace simultaneamente, sino que llegará a uno antes que al otro para así simular que la señal llega desde un punto en el cielo con cierto ángulo.

El 14 de Septiembre de 2015, cuando se recibió la supuesta señal real de ondas gravitacionales, estaban operativos los detectores de Livingston en Luisiana, y el de Hanford Site, en el estado de Washington. Existe una distancia entre estos dos detectores de 3002 km. La señal llegó antes al detector de Livingston en Luisiana, y 7 milisegundos más tarde llega al de Hanford Site. Si la supuesta fuente emisora de esas ondas y los dos detectores estuvieran situados en linea recta, la supuesta señal habría tenido un retraso mayor, de unos 10 milisegundos. Ese retraso de 7 ms indicaría que la señal viaja a la velocidad de la luz en el vacio, c, y que la fuente emisora está situada con cierto ángulo en el cielo de aproximadamente 45.6 grados.

O sea, LIGO pretende con todo esto matar dos pájaros de un tiro. Por un lado pretende afirmar que la señal es real y pertenece a dos agujeros negros que en ese preciso instante se fundieron en uno solo, y pretende por el mismo precio afirmar con rotundidad que la señal viajó a la velocidad de la luz. Es decir, ya tenemos la evidencia directa de que las ondas gravitacionales existen y la evidencia directa de que esas ondas se propagan a la velocidad de la luz, y todo con el mismo evento. ¡Genial! ¿no?.

¿Dónde está pues el trile en todo esto?. Supongamos que LIGO es un aparato capaz de detectar ondas gravitacionales, pero que estas se propagan a una velocidad superlumínica. Entonces las señales que se detectaron en Livingston y Hanford poseerían un desfase de tiempo significativamente menor a 7 ms. Las sospechas de fraude científico consisten en que todo lo supuestamente detectado es demasiado parecido a lo que dice un libro de texto respecto a cómo ha de ser una onda gravitacional, y además resulta una señal demasiado intensa como para venir de una distancia de 1.300 millones de años-luz. Miras al cielo hacia esa localización y no ves nada, ni un resplandor ni nada. Eligieron algo demasiado alejado para poder ser visto visualmente. Una colisión de dos agujeros negros produciría emisión de rayos X, ¿por qué no se ven esos rayos?. Todo es demasiado sospechoso.

Saludos

Posted in Astrofísica, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , , , | Leave a Comment »

Los trileros de LIGO atacan de nuevo: ¿en qué cubilete está la bolita de las ondas gravitacionales?

Posted by Albert Zotkin en febrero 12, 2016

Amigos incondicionales de Tardígrados, ayer asistimos a un patético show mediático en el que anunciaban a bombo y platillo el descubrimiento experimental de las famosas ondas gravitacionales que predice la Relatividad General de Einstein. Es decir, ayer un equipo de científicos anunció oficialmente haber conseguido evidencias directas de la existencia de esas ondas, después de 100 años desde la publicación de la Teoría General de la Relatividad. No voy a entrar a analizar el circo mediático para el que los americanos de USA son unos auténticos maestros. Quien se haya perdido ese show puede verlo en diferido en youtube:

Yo, no es que esté a favor o en contra de la existencia de dichas ondas gravitacionales, me da igual que existan o no, o que una teoría las prediga o no, pero no me da igual la verdad de su existencia o la falsedad de su inexistencia. Ya escribí un pequeño artículo sugiriendo que las ondas de materia (ondas de De Broglie) son en realidad esas famosas ondas gravitacionales, y su velocidad de fase es superlumínica, es decir, superior a la velocidad de la luz en el vació. El pequeño artículo que escribí está aquí.

Lo que me preocupa de este experimento de LIGO en concreto, en el que afirman con rotundidad tener esas pruebas directas, son tres puntos que paso a detallar.

1.Usaron inyección ciega de señal mediante software.
2. Usaron inyección ciega de señal mediante sistemas de vibración por contrapesos.

¿Qué significa una inyección ciega de señal?. Pues sencillamente una simulación de que una señal supuestamente real de la fuente emisora llega al detector. Un software especial en el superordenador se encarga de diseñar el tipo de señal que después inyecta en dectector como si fuera una señal real. La llaman inyección ciega porque el equipo encargado de advertir la posibles señales en el detector no sabe si la señal procede del simulador o es real, por la sencilla razón de que no le informan de eso.

Alguien podrá preguntar algo asi como “bueno. ¿y qué?. Esas señales simuladas se usan para calibrar los sistemas del detector, pero nunca pueden ser confundidas con posibles señales reales”. Yo ya no estaría tan seguro de que eso sea así. Cuando un programa de ordenador es programado para emitir aleatoriamente señales simuladas e inyectaralas como si fueran reales en el detector, se pierde control de la situación. Ya no sabes qué es real y qué es virtual, y eso me parece muy grave. Un equipo tan inmenso de científicos. En realidad el experimento LIGO es una colaboracion internacional de cientos de equipos con cientos de personas por equipo. Perfectamente puede haber más de 10.000 personas en ese experimento colaborando directa o indirectamente, y sin mencionar los contratos puntuales con empresas externas, y ciertas subcontratas. Todo ese entramado está diseñado fatalmente para que algo gordo se cuele y nadie sea capaz de advertirlo.

Cuando lees detenidamente el apéndice titulado “Appendix B: Analysis of Simulated Signals” de uno de los primeros documentos que se publicaron de ese experimento. el documento es este: GW150914: First results from the search for binary black hole coalescence with Advanced LIGO se te ponen los pelos como escarpias. Pero ¿cómo es posible que una señal simulada se haya colado en el sistema y haya sido tratada como si fuera una señal real?. Todo parece una pesadilla de un grupo de trileros que se engañan así mismos con sus propios cubiletes y sus propias bolitas. Esto es muy grave señores. Estamos ante algo que será un auténtico escándalo mundial cuando se descubra el pastel.

El tercer punto que tambíén me preocupa es este:

3. LIGO es el único detector existente para la deteción de ondas gravitacionales. Si ese experimento dice que ha descubierto algo, no hay otro experimento independiente que pueda hacerse para ver si es verdad. Estamos vendidos, señores. Lo mismo pasó con el famoso bosón de Higgs. Lo que nos quieran decir. Punto pelota.

Pero, volvamos a eso que llaman “inyección ciega”, porque ya me está dando mucha risa. Resulta que ese mismo equipo en 2010 ya nos la metió doblada con lo de la inyección ciega. Ese equipo de LIGO, o más exactamente, sus tres cabezas dirigentes, son muy dados a meter inyecciones ciegas en sus experimentos. Cuando la cuadrilla responsable de descubrir señales reales en el detector se excita ante la visión de alguna en sus pantallas de ordenador, lo comunican enloquecidos a sus superiores jerárquicos. Les llaman y dicen “tenemos algo”. Entonces llegan los de arriba al estudio donde los excitados científicos divisaron la señal en sus pantallas y con sus respectivas llaves abren la caja para ver la lista de inyecciones ciegas realizadas (los de LIGO usan más sobres sellados y lacrados en lugar de cajas para guardar el registro de su inyección ciega). Si la señal descubierta resulta estar en la lista de inyecciones ciegas entonces todo fue una falsa alarma. LIGO es bastante aficionado a abusar de las inyecciones ciegas en un grado que nadie podría sospechar. Algo brutal.

En 2010, cuando el experimento LIGO todavía no había sido mejorado hasta la sensibilidad actual, un chasquido llegó a las pantallas de los excitados científicos encargados de vigilar el detector. Ese chasquido se parecía mucho al que hay dibujado en muchos libros de textos para cuando dos agujeros negros colisionan y se funden en uno solo. El excitado equipo que detectó esa señal se puso rápidamente manos a la obra y escribieron un bonito documento científico explicando el sensacional hallazgo de las ondas gravitacionales. Un hito mundial, Einstein una vez más tenía razón, las ondas gravitacionales existían. El equipo descubridor de tan inmenso hallazgo científico ya se frotaba las manos. Eso era de Premio Nobel. Al año siguiente, en 2011, seguro que les darían merecidamente el Nobel de Física. Los excitados descubridores de tal evento astronómico enviaron un mapa a muchos telescopios del mundo, indicando las coordenadas desde donde llegaba la señal divina de las ondas gravitacionales descubiertas. Se esperaba que los colaboradores de esos telescopios vieran que efectivamente en esas coordenadas astronómicas habían dos agujeros negros mezclándose en uno.

Pero surgió un pequeño problema, sin importancia. La señal que se había detectado no era real, sino una inyección ciega que había sido realizada por el equipo responsable de las inyecciones ciegas. Cuando en la rueda de prensa que estaban dando los excitados descubridores de LIGO de las ondas gravitacionales, futuros premios Nobel de Fisica, se abrió el sobre lacrado de las inyecciones ciegas, los 300 científicos de los equipos se quedaron mudos con ojos como platos. La señal no era real. Se la habían metido doblada. Los 100 miembros más que seguían por videoconferencia el evento mundial cerraron abrúptamente sus respectivos streamings.

Atención pregunta. ¿Donde está el sobre lacrado esta vez de las inyecciones ciegas?. ¿Alguien que tenía que ir al evento mundial esta vez con el sobre sellado y lacrado no acudió y nunca sabremos si esa señal descubierta el 14 de Septiembre de 2015 era falsa, era una inyección ciega?

Yo, particularmenete ya no me fío de esa gente de LIGO, especialmente de sus jefes. Han demostrado más de una vez que son adictos a las inyecciones ciegas. Abusaron en el pasado de ellas, y posiblemente han estado abusando de ellas en este último experimento. Hasta que otros experimentos distintos e independientes descubran señales en otras partes del universo, yo ya no me voy acreer nada de esto.

Esta mañana en el programa de radio de Onda Cero “Más de uno”, escuché cómo Carlos Alsina entrevistó a Miquel Oliver, uno de los colaboradores de LIGO. Y Miquel decia: “Nos quedamos boquiabiertos cuando descubrimos las ondas gravitacionales. Al principio causó escepticismo de lo mucho que se parecía a lo esperado”. Es decir, la señal se parecía mucho a lo que dicen los libros de texto de cómo han de ser las ondas gravitacionales procedentes de la colisión de dos agujeros negros. ¿Como la falsa señal de 2010?. Joder, todo esto es muy fuerte, ¿no?. El evento actual “descubierto”, el llamado evento GW150914, es inmensamente parecido al evento simulado en 2010, el llamado evento GW100916. ¡Qué causalidad!, resulta que también es la colisión de dos agujeros negros. ¡Pero, qué suerte tienen estos científicos de LIGO, coño!, apuntan su detector a un punto del universo, y precisamente allí hay dos agujeros negros colisionando. Todo esto huele mal ¿verdad?.

Saludos

Posted in Astrofísica, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , | 2 Comments »

LISA Pathfinder: el enésimo intento de probar la existencia de ondas gravitacionales que fallará de nuevo

Posted by Albert Zotkin en diciembre 1, 2015

Hoy la ESA (Agencia Espacial Europea) ha lanzado desde la Guayana francesa el satélite LISA Pathfinder, llamado a abrir la vía a un futuro observatorio espacial capaz de detectar las famosas ondas gravitacionales teorizadas por Albert Einstein. Un cohete Vega ha puesto en órbita con éxito al LISA Pathfinder, construido por Airbus Defense & Space en el marco de un proyecto de la ESA.

Una vez más, todo ha sido un éxito, menos el hallazgo de la existencia de las ondas gravitacionales. El proyecto LISA (Laser Interferometer Space Antenna) es un proyecto conjunto de la ESA y la NASA para detectar ondas gravitacionales. Estas ondas son una predicción de la Relatividad General de Einstein, y sólo se tienen evidencias indirectas de su existencia. Pero, el método científico no admite las pruebas indirectas como válidas, requiere evidencias directas. El decaimiento orbital observado en pulsares binarios es simplemente una evidencia indirecta de esa predicción relativista, es indirecta porque ese decaimiento orbital podría tener otra causa muy distinta a las ondas gravitacionales. Y efectivamente ahí está el meollo de la cuestión. Nadie se atreve a cuestionar la Relatividad General. Nadie tiene lo que hay que tener para decir que las ondas gravitacionales son una predicción errónea de la Relatividad General. Ese decaimiento orbital observado en púlsares binarios es simplemente la evidencia directa de que existe pérdida de información cuántica en toda interacción gravitatoria. La naturaleza (aún no sabemos muy bien cómo) realiza inmensos cálculos cuánticos, pero esos cálculos no poseen una precisión infinita. Es pues esa pérdida de información cuántica la causa real de que exista decaimiento orbital. Esto se puede demostrar fácilmente programando una simulación de dos cuerpos orbitando entre sí. Si, por ejemplo, aplicamos frame a frame, como si de una cadena de Markov se tratara, unas ecuaciones para describir órbitas circulares, comprobaremos, con asombro que los círculos no serán exactos, y que a cada revolución los cuerpos estarán cada vez más próximos. Eso es así porque, en un proceso de Markov no existe memoria de los estados pasados del sistema. Para que una órbita fuera exactamente circular, la naturaleza debería guardar de alguna forma todo el número π con toda su precisión infinita, y eso es imposible.

Por lo tanto, la demostración de que no existen las ondas gravitacionales simplemente está en la constatación del hecho de que el número π es un número irracional, o la constatación de que la longitud de una órbita elíptica no puede ser calculada exactamente, por el hecho de que su cálculo requiere resolver una integral elíptica completa de segunda clase.

Cuando los físicos teóricos se den cuenta de que, aunque las leyes naturales obedezcan a formalismos matemáticos exactos que incluyan constantes numéricas irracionales o procesos no lineales, la naturaleza sólo puede computar discretamente con precisión finita los procesos naturales que resultan de esa aplicación de sus leyes, y eso se traduce inevitablemente en pérdida de información cuántica, entonces, y sólo entonces la física teórica empezará a resolver seriamente sus problemas.

Saludos

Posted in Astrofísica, Gravedad Cuántica, informática, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , | 8 Comments »

Un intento de investigar la profundidad computacional de nuestro universo

Posted by Albert Zotkin en septiembre 16, 2015

fractal-univser

Hace ya algún tiempo hice una pequeña animación en flash, en la que mostraba cómo una pequeña simulación de interacción gravitatoria entre dos cuerpos es suficiente para convencernos de que existe pérdida de información, y eso se traduce en decaimiento orbital (acortamiento del periodo orbital, estrechamiento de la órbita): Aquí os dejo una pequeña captura del programa SWF en acción, que he subido a youtube:

Esa animación está gobernada por un sencillo programa informático (escrito en actionscript). En dicho programa uso la clásica ecuación de Newton de la gravitación universal para el cálculo de la aceleración. Las coordenadas espaciales de los dos cuerpos, calculadas fotograma a fotograma, deberían de dar trayectorias elípticas estables según las leyes de Kepler, pero se observa cómo poco a poco los cuerpos aproximan sus periastros hasta llegar a colisionar. Lo curioso de todo eso es que esa aproximación progresiva, que se puede traducir como pérdida de energía gravitacional, no está programada en el actionscript, sino que emerge por la imprecisión de los registros informáticos que almacenan los datos de la computación. Es decir, aunque las ecuaciones matemáticas que expresan la ley de gravitación son exactas y dan órbitas estables, su ejecución en un ordenador con registros finitos deja de ser exacta para pasar a mostrar degeneración orbital a lo largo del periodo de evolución del sistema gravitacional binario que simula.

Para los incrédulos, mostraré sucintamente las rutinas que escribí en el actionscript de la animación. En primer lugar presento la función que actualiza las coordenadas espaciales de cada uno de los dos cuerpos del sistema binario (podría ser un pulsar binario, como el PSR B1913+16, por ejemplo). Esta rutina es llamada siempre antes de que el programa dibuje cada fotograma:

function update2(m)
{

var cm_x;
var cm_y;
if(_root.r_frame==null){
cm_x=Stage.width/2;
cm_y=Stage.height/2;
}else{
cm_x=_root.r_frame._x;
cm_y=_root.r_frame._y;
}

var r = Math.sqrt(Math.pow((m._x-m.target_body._x),2)+Math.pow((m._y-m.target_body._y),2));
var accel = 30*m.mass*m.target_body.mass/Math.pow(r,2);
var cosx=(m._x-m.target_body._x)/r;
var cosy=(m._y-m.target_body._y)/r;
var accel_x = accel*cosx;
var accel_y = accel*cosy;
var s=1;
m.speed.x-=accel_x;
m.speed.y-=accel_y;
m._x+=m.speed.x-cm_x+Stage.width/2;
m._y+=m.speed.y-cm_y+Stage.height/2;

s=(m._y-m.target_body._y)<0?-1:1;
m._rotation=s*Math.acos(cosx)*180/Math.PI-90;

}

y seguidamente, presento las rutinas de lo que tiene que hacer cada cuerpo en cada frame, así como sus condiciones iniciales:

onClipEvent (load) {
speed = new Object;
speed.x=0;
speed.y=0.1;
mass=3.0;
density =1;
_width=20*Math.pow((3/(4*Math.PI))*mass/density,1/3);
_height=_width;
/*
_width=mass*4;
_height=mass*4;
*/
target_body=_root.a2;
//_visible=false;
body_type=1;//2 star, 1 planet
gotoAndStop(body_type);
this.rx=this._x;
this.ry=this._y;

}

onClipEvent (enterFrame) {
if(this, hittest(this.target_body))
_root.pause=true;

if(_root.pause or !_visible)return;
_root.update2(this);
}

Señoras y señores, en otras palabras. Lo que hasta ahora se viene llamando ondas gravitacionales es simplemente una falacia más. Dichas ondas no existen en nuestro universo. El decaimiento de las órbitas de los sistemas binarios, y por extensión, de cualquier sistema gravitatorio, es simple y llanamente debido a una pérdida de información cuántica en la computación que la naturaleza hace. Aunque nuestro universo podría ser infinito y eterno, el aumento de entropía en él sería un signo inequívoco de esa pérdida de información cuántica. Nuestro universo es un holograma, un autómata celular, no es la última realidad profunda. Pero, alguien podría preguntarse : “¿cómo es posible que si el universo es infinito y eterno pueda ser al mismo tiempo un holograma, un autómata celular?. Esos automatas celulares requerirían unos registros cuánticos infinitos”. Esa pregunta es muy razonable, pero un universo infinito y eterno no está en contradicción con que sea una simulación ejecutada desde registros cuánticos finitos. Sólo se requiere que la simulación del universo sea un holograma fractal. Veamos, este video de Musicians With Guns en el que nos presenta un fractal infinito, pero obviamente ejecutado desde un ordenador (cuyos registros, sabemos sin duda, que son de capacidad finita):

Un fractal, como el que nos ha presentado Musicians With Guns, no es más que una sencillita ecuación matemática acompañada de una lista de condiciones de inclusividad, y todo ello define lo que es el conjunto fractal (es decir, un conjunto de elementos que cumplen ciertas condiciones). Cuando dibujamos el fractal, los pixeles pertenecientes al fondo (elementos que no pertenecen al conjunto fractal) se pintan con un color y los pixeles que representan a elementos del conjunto se pintan de otro color que contraste con el primero, de modo que podamos destacar con facilidad el fractal del fondo.

Saludos

Posted in Astrofísica, Autómatas celulares, Cosmología, Gravedad Cuántica, informática, Inteligencia artificial, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | Leave a Comment »

Algunas pistas para saber si nuestro universo es una simulación informática

Posted by Albert Zotkin en septiembre 13, 2015

Simulation-Theory

Nuestro universo podría ser una especie de Matrix, es decir, una gigantesca simulación por ordenador. El ordenador donde se estaría ejecutando la simulación de nuestro universo podría ser un ordenador cuántico con una memoria de al menos unos 1080 qubits activos.

¿Podemos investigar si nuestro universo es una simulación creada en un simple ordenador cuántico?. Hay varios caminos para saber si eso es así o no. Una forma, que se me ocurre, sería prestar atención a pulsares binarios. Un pulsar binario es un sistema estelar en el que a menudo un pulsar y una estrella enana blanca orbitan el uno alrededor del otro. Se ha observado que los pulsares binarios pierden energía gravitacional con el tiempo, y eso se ha identificado como una prueba de la existencia de ondas gravitacionales, tal y como predice la Teoría General de la Relatividad. Dicha pérdida de energía gravitacional se evidencia en que la pareja orbital se acerca lentamente, con lo cual el periodo de rotación es cada vez menor. Por ejemplo, para el pulsar binario PSR B1913+16 se ha observado que el periodo orbital decae según esta gráfica de una parábola:

orbital-decay

Veamos ahora si es posible explicar ese decaimiento orbital mediante la hipótesis de que la naturaleza realiza cálculos orbitales cuánticos. Para ello debemos saber cómo trabaja un ordenador cuando hace una computación clásica. Existen una serie de registros en los que el ordenador almacena los datos de entrada, y después cuando aplica unos algoritmos a esos datos obtiene unos datos de salida que también almacena en unos registros. Pero, los registros no poseen precisión infinita, sino que poseen un limite finito. Por ejemplo, el número π sólo podría ser almacenado numéricamente hasta cierta cifra. Y ya empezamos vislumbrar en qué consiste ese decaimiento orbital. Fijémonos en la ecuación clásica del periodo orbital de dos cuerpos de masas M1 y M2 que orbitan, según las leyes de Kepler, a lo largo de una elipse:

\displaystyle T = 2\pi\sqrt{\frac{a^3}{G(M_1+M_2)}} (1)

donde a es es semieje mayor de la trayectoria elíptica.

¿Por qué, a cada revolución, el periodo T se va acortando?. Por la sencilla razón de que los registros que usa la naturaleza no pueden almacenar toda la información con una precisión infinita. Una parte muy importante de esa imprecisión sucesiva la tiene el número π. Supongamos que por cada revolución completada, la naturaleza debe ajustar el valor del semieje mayor según el ultimo valor obtenido para el periodo orbital. Es decir, la naturaleza debe reajustar la órbita de forma recursiva a cada paso así:

\displaystyle a = \sqrt[3]{\cfrac{G(M_1+M_2)T^2}{4\pi^2}} (2)

gas

El problema es que no hay “registros naturales” que puedan almacenar el valor exacto del número π ni de cualquier otro número irracional, con lo cual la órbita elíptica se reajusta siempre a la baja (decaimiento orbital) en cada revolución.

Para el caso que tratamos, la ecuación recursiva sería la siguiente:

\displaystyle a_n = \sqrt[3]{a_{n-1}^3} (3)
Otra forma de interpretar esa pérdida de información cuántica, que produce decaimiento orbital, es considerar que en nuestro universo se produce siempre un aumento de la entropía. Por otro lado, la mecánica cuántica no admite como correcta ninguna solución que se base en la perdida de información cuántica.

La conclusión terrorífica es que nuestro universo podría ser una gigantesca simulación informática, un gigantesco autómata celular. Todo universo en el que exista aumento global de la entropía tiene bastantes papeletas para ser un universo simulado, un universo virtual.

Saludos

Posted in Astrofísica, Autómatas celulares, Cosmología, Gravedad Cuántica, informática, Inteligencia artificial, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , | 2 Comments »

¿Por qué existen sólo tres generaciones de leptones y quarks?

Posted by Albert Zotkin en agosto 7, 2015

Hola amigos de Tardígrados. Hoy voy a divagar sobre una cuestión aún no resuelta en física de partículas. Los experimentos (observación) nos dicen que sólo existen tres generaciones de quarks y leptones. ¿Por qué sólo tres?. Los quarks de la primera generación son el u (up) y el d (down), y el electrón (e), junto con el neutrino νe (electrón-neutrino) son los leptones de esta primera generación. Los quarks de la segunda generación son el c (charm) y el s (strange), mientras que los leptones de esta generación son el μ y su correspondiente neutrino νμ (muón-neutrino). Y por último, tenemos los quarks de la tercera generación el t (top) y b (bottom), y los leptones τ (tau-leptón) y su correspondiente neutrino ντ. Las masas de las partículas en una generación son siempre mayores que las correspondientes a las de la generación anterior. ¿Por qué ocurre eso?. No se sabe.

Eelementary particles

Esta jerarquía de las masas provoca que las partículas de generaciones más altas decaigan hacia partículas de generaciones más bajas, y esto explica por qué en el mundo ordinario que observamos, la materia esté configurada, en su mayor parte, por partículas de la primera generación. La segunda y tercera generación sólo son observadas excepcionalmente a altas energías (en ambientes con rayos cósmicos, o en colisionadores de partículas). Además, una cuarta generación parece estar descartada definitivamente con una probabilidad del 99.99999% (5.3 sigma). Por lo tanto, el descubrimiento de esa cuarta generación sería un acontecimiento tan fantástico y excepcional que necesitaría muchas y minuciosas comprobaciones teóricas y experimentales antes de darlo definitivamente por sentado. Quizás la naturaleza permita la existencia de quarks y leptones de cuarta o superiores generaciones, pero a tan alta energía y en tan cortos intervalos de tiempo que la tecnología actual nos impide su observación.

Hasta aquí todo lo dicho es información estándar (aunque escasa) de lo que hay sobre el tema. Lo que sigue son divagaciones mias a cerca de cual puede ser la causa de que sólo sea posible observar hasta tres generaciones.

La culpa de todo esto la tiene Don Albertito Einstein Koch, con sus celebérrimas teorías de la relatividad, o más exactamente, para ser algo más justo, la culpa la tienen quienes, a principio del siglo pasado, permitieron que la relatividad Einsteniana se instalara en el corazón de la física teórica, impregnándolo todo de absurdas correcciones relativistas, y fijando para siempre la invarianza de Lorentz como uno de los principios más inamovibles y sólidos de la física. Y es que la relatividad Einsteniana lo reescala todo. Por supuesto, lo primero que re-escala es la energía, por medio de sus formulitas y procedimientos. ¿Por qué re-escala la relatividad especial?. La respuesta es simplemente porque sus postulados son falsos, y para adecuarlo todo a lo observado, a la realidad misma de los fenómenos naturales, necesita usar una serie de ecuaciones y formalismos que lo distorsione todo de tal forma que al final la predicción teórica coincida con gran eficiencia con la realidad observada. Por ejemplo, cuando un postulado dice que la velocidad de la luz es una invariante en todo sistema inercial y que que no puede ser superada por ningún cuerpo con masa, la forma de conciliar esa falsedad con la realidad física es mediante una serie de fórmulas matemáticas que distorsionen el espacio y el tiempo en tal medida que al final obtengamos una predicción teórica indistinguible experimentalmente de la observación. Es decir, para que la relatividad Einsteniana sea verdadera para siempre, la ciencia física necesita crear un dogma, partiendo de unos modelos matemáticos, elevan su esencia de simples modelos para convertirlos en leyes naturales por decreto. Por eso hay mucho científico que cree a pies juntillas que la relatividad Einsteiniana (las dos teorías, la especial y la general) no son modelos inventados por el hombre para describir fenómenos naturales, sino que creen (con una fe religiosa) que son descubrimientos, leyes naturales descubiertas por Don Albertito Einstein Koch. Esa es la razón de que mucha gente se pregunte la absurda pregunta de por qué las leyes naturales están escritas con matemáticas. Cuando niegas que algo sea un invento y lo identificas con un descubrimiento luego pasa lo que pasa, que alucinas creyendo que la naturaleza usa las matemáticas para insuflar en el mundo su evolución conforme a esas ecuaciones “naturales”.

Es más que evidente que las leyes naturales no están escritas con matemáticas, sino que son estas matemáticas el instrumento usado por el científico para crear modelos que se aproximen a las leyes naturales. Cuando alguien cree que una ley natural se expresa mediante unas ecuaciones matemáticas está cometiendo un grave error de apreciación, el cual le puede llevar a callejones sin salida, o, en el peor de los casos, a desastres teoréticos que pongan en peligro el avance científico. ¿Por qué?. Muy sencillo, si alguien cree que una ley natural es matemáticas, entonces analizando exhaustivamente estas fórmulas matemáticas podría descubrir aspectos de esa ley natural que en principio no eran tan evidentes. Es decir, mediante la transformación matemáticas de esas ecuaciones, el científico podría afirmar que existen predicciones que deben de cumplirse si se realizan adecuadamente cierta clase de experimentos. Pero, como digo, una ley natural, nunca es una ecuación matemática, por lo tanto, las predicciones que se puedan extraer de una serie de ecuaciones nunca deben coincidir necesariamente con los efectos que emanan de la ley natural que dichas ecuaciones tratan de modelar. Esto es muy importante tenerlo en cuenta si no quieres ser tontamente engañado por el uso incorrecto del método científico.

Saludos

Posted in Cosmología, Física de partículas, Gravedad Cuántica, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | Leave a Comment »

La curvatura del espacio-tiempo contradice el Principio de Fermat

Posted by Albert Zotkin en julio 24, 2014

El Principio de Fermat establece que la luz sigue la trayectoria de tiempo mínimo entre la fuente emisora y el observador. La Teoría General de la Relatividad de Einstein predice la existencia del efecto de lente gravitacional, afirmando que ese efecto es causado por la curvatura del espacio-tiempo ante la presencia de materia y/o energía en las inmediaciones. Realmente, esos dos efectos son el mismo. Lo único que tenemos que hacer es repensar lo que entendemos por vacio y cómo es posible que un fotón pueda viajar en el vacio. refraccion
Si la velocidad de la luz es diferente en diferentes medios, ¿significa eso que hay un cuerpo masivo en la zona limítrofe de ambos medios que hace que el espacio-tiempo se curve ahí? La respuesta debe ser obviamente no. La respuesta correcta es que los átomos y moléculas en un medio deben de retransmitir la señal: si un medio es ópticamente más denso, la velocidad de la luz sería más pequeña. Por lo tanto, el concepto de curvatura del espacio-tiempo es sólo un pseudo-concepto que se refiere implícitamente a la variación de la velocidad de la luz. No se puede afirmar por un lado que el espacio-tiempo se curva y por otro lado que existe una velocidad de la luz localmente variable. Se debe elegir entre una afirmación o la otra, pero no ambas. El problema que nos produce la Relatividad General es que en ella coexisten ambas afirmaciones sin contradicción alguna. y eso es un absurdo.

lente

Está claro que si existe un cuerpo masivo intermedio entre la fuente de luz y el observador, el vacio (medio) se hace gradualmente denso e inhomogéneo, ofreciendo diferentes índices de refracción, no sólo en el sitio de la fuente y en el del observador, sino por todo el espacio. Por lo tanto, surge otra pregunta. ¿Cómo curvaría la antimateria la trayectoria de la luz?. Si la materia ordinaria curva dicha trayectoria hacia el centro del cuerpo masivo intermedio, la antimateria debería curvar la trayectoria de la luz en la dirección opuesta. La antimateria es por lo tanto un alias para referirnos a un medio que posee indices inversos de refracción graduada. Es decir, si un cuerpo masivo de materia ordinaria produce un indice de refracción graduada con la distancia r, n = N(r), entonces un cuerpo masivo de antimateria de la misma clase produciría , n’ = N’(r), de tal forma que el producto escalar de ambos debe dar la unidad, n n’ = 1. Si la función N(r) para el primero es

\displaystyle                N(r) = \exp \left ( -\frac{2V_r}{c^2} \right ), (1)

donde Vr es el potencial gravitatorio a la distancia r.

Entonces la función N’(r) para el segundo medio (antimateria) sería

\displaystyle       N'(r) = \exp \left ( \frac{2V_r}{c^2} \right ), (2)

y vemos que efectivamente N(r) N'(r) = 1

Ahora surge otra interesante pregunta. Si un medio homogeneo, donde la velocidad local de la luz que se mide como c, se está haciendo más denso hacia el centro de masas, ¿significa eso que se está creando un vacío rarificado en la zona de su límite exterior, que se comporta como materia oscura?. La respuesta a esa pregunta debe ser SÍ. Ese fenómeno se puede observar en la formación de galaxias. La región exterior de cualquier galaxia está llena de “materia oscura “. Las regiones exteriores de cúmulos de galaxias están también llenas de “materia oscura“. Incluso nuestro Sistema Solar tiene también una pequeña cantidad de “materia oscura” en sus regiones exteriores. Materia oscura es por lo tanto un alias para una región donde la velocidad local de la luz es más grande que la estandar c.

mo

El proceso de emergencia de materia oscura en la formación de una galaxia es muy parecido a cómo construimos un castillo de arena en una playa totalmente lisa en principio. Elegimos el punto donde construir nuestro castillo de arena, mediante una pala escabamos en la arena húmeda y la amontonamos. El resultado de amontonar la arena produce un foso alrededor del montón. Es decir, el foso es un valle que está por debajo del nivel medio de la superficie llana de la playa. La superficie llana de la playa es considerada como el vacío, y el montón central es considerado como materia ordinaria. Por lo tanto el foso alrededor del montón es considerado como materia oscura. Las ondas electromagnéticas que atraviesan ese foso de materia oscura, en las zonas exteriores de las galaxias, se propagan a una velocidad mayor que la estándar c.

Posted in Astrofísica, Cosmología, Gravedad Cuántica, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , | 10 Comments »

Demostración, mediante un reloj atómico de fuente de Cesio, de que la dilatación del tiempo predicha por la relatividad de Einstein es una falacia y por lo tanto no existe

Posted by Albert Zotkin en octubre 11, 2012

Definición de segundo:

Un segundo es igual a la duración de 9192631770 periodos de la radiación correspondiente a la transición entre dos niveles hiperfinos del estado fundamental del isótopo 133 del átomo de Cesio (\; \mathrm{{}^{133}Cs}\;) , a una temperatura de \mathrm{0^\circ\; K}“.

Pregunta. ¿Qué ocurre con esa definición si, por la causa que sea, se demuestra que los dos niveles hiperfinos se acercan o se alejan, resultando transiciones más cortas o más largas?. La respuesta es obvia, ocurrirá que un segundo, desde esa definición, podrá durar más o menos, dependiendo de si actuan o no esas causas o el grado en que actuan. Pues bien, es muy fácil demostrar experimentalmente que los niveles y subniveles hiperfnos se expanden o se contraen según estén situados los átomos respectivos dentro de un campo gravitatorio. Más concrétamente si el potencial gravitatorio es más pequeño (más cercano a cero), entonces las transiciones hiperfinas son más largas, y eso significa que la energía de los fotones emitidos es mayor, y por lo tanto la frecuencia de esos fotones. Ese ligero aumento de la frecuencia implica que, según la definición de segundo, un segundo durará más si es contado correctamente, pero si sólo cuentas 9192631770 periodos, los periodos restantes se acumularán en el siguiente segundo, así sucesivamente. Es decir la frecuencia de reloj aumenta cuando disminuye el potencial gravitatorio, y eso significa que un reloj atómico de esas características, adelantará respecto a otro situado a mayor potencial.
Resulta pues más que evidente que, por ejemplo, los relojes atómicos instalados en la constelación de satélites del sistema GPS, adelantan ligeramente, cuando están en órbita, y los relojes atómicos en la superficie terrestre atrasan respecto a ellos. Eso implica que la dilatación del tiempo predicha por la relatividad de Einstein es simplemente una falacia, no existe.
Pero, ¿cómo funciona un reloj atómico de fuente de Cesio?. Captura: Los átomos de Cesio son capturados y enfriados en una trampa magneto-óptica. Los átomos de Cesio están presentes en estado gaseoso dentro de la cámara de vacío. Cuando un átomo de Cesio es intersectado por los rayos laser, este átomo se enfría, que se evidencia reduciendo su velocidad, enfriándose hasta unos pocos µK (microkelvins).
Al mismo tiempo se aplica un gradiente de campo magnético mediante bobinas de anti-Helmholtz. El gradiente de campo magnético y los haces de laser enfriadores dan lugar a una fuerza de captura. Todas estas fuerzas y efectos son aplicados simultáneamente para retener a 109 átomos dentro de un volumen esférico de 2 mm de diámetro en el centro de la trampa.
Lanzamiento: Una vez capturados, los átomos son lanzados hacia arriba. Se desactiva el campo magnético, y la nube de átomos se lanza hacia arriba mediante dos pares de haces de rayos laser. Los átomos adquieren entonces velocidades de entre 2 a 5 metros por segundo. Durante el ascenso por los haces de rayos, los átomos son enfriados aún más, hasta aproximadamente unos 2 µK.
Preparación: Los átomos son bombeados hasta el nivel superior de la transición de reloj. Los átomos pueden cambiar niveles de energía mediante la absorción o emisión de luz con una frecuencia muy cercana a la propia de resonancia. En su vuelo hacia arriba, los átomos pasan a través de un haz de rayos laser con una frecuencia próxima a una de las frecuencias de resonancia del Cesio. Algunos átomos experimentarán una transición entre niveles de energía, ya que todos átomos estaban en el mismo nivel energético, f=4, m_F=0, antes de entrar en la cavidad de microonda.
Interrogación: Los átomos siguen trayectorias como las del agua de una fuente, pasando a través de la cavidad de microondas dos veces. Los átomos siguen y pasan a través de la cavidad de microondas en vuelo libre sobre ella unos 0.5 segundos, y después son atraídos hacia abajo por la fuerza de la gravedad. Durante una de las pasadas por la cavidad, los átomos interactúan con microondas de frecuencia 9192631770 Hz. Después de pasar por la cavidad por segunda vez (en su camino de caida hacia abajo), casi todos los átomos han hecho ya la transición hacia el estado f=3, m_F=0.
Detección: Por debajo de la cavidad de microondas, los átomos descendientes son guiados mediante varios rayos laser. Estos rayos laser provocan en los atomos cambios de estado y fluorescencia (emiten luz). Los fotones de la fluorescencia son detectados por un fotodiodo y se usan para construir la señal de reloj. Cuando todos los átomos han experimentado la transición hacia el estado requerido, la señal alcanza su máximo. La intensidad de la señal se usa para corregir la frecuencia de las microondas en la cavidad. Después, el ciclo de la fuente se repite.

Pero, volviendo al punto que nos interesa, a saber, el de las falacias de la relatividad de Einstein. Una vez que sabemos que no existe dilatación del tiempo, sino sólo dilatación o contracción de los niveles hiperfinos de energía. ¿Cómo podemos cuantificar dicho efecto desde la Relatividad Galileana Completa?. Veamos. A una altura h desde la superficie terrestre, el potencial gravitatorio vale

\displaystyle \phi' = -\frac{GM}{(r+h)}

donde r es el radio de la Tierra. Y el potencial en la superficie terrestre es, lógicamente

\displaystyle \phi = -\frac{GM}{r}

Por lo tanto, la diferencia de potencial será

\displaystyle \Delta \phi = \phi' - \phi = -\frac{GM}{(r+h)}+\frac{GM}{r} \\ \\ \\ \displaystyle \Delta \phi = \frac{GM}{\frac{r^2}{h} + r}

Por lo tanto, si la frecuencia de resonancia es \nu en la superficie terrestre, la frecuencia de resonancia a una altura h será ligeramente mayor,

\displaystyle \nu' = \nu \exp \left (\cfrac{GM}{c^2 (\frac{r^2}{h} + r)} \right )

Esta es la corrección que los defensores de la Relatividad General afirman que se debe a las correcciones de la dilatación relativista del tiempo en los relojes atómicos del GPS. Es decir, que un reloj atómico a una altitud estacionaria h correría más rápido que un reloj en la superficie terrestre. La disputa está en la causa de ese efecto, no en el hecho de que corra más rápido o no.

Si un reloj de Cesio tiene una frecuencia de resonancia de \nu=9192631770 \;\mathrm{Hz} en la superficie terrestre. A una altitud de h =20200 \; \mathrm{km}, siendo el radio de la Tierra r=6400 \;\mathrm{Km}, tendremos

\displaystyle \nu' = \nu \exp \left (\cfrac{GM}{c^2 (\frac{r^2}{h} + r)} \right ) = 9.19263177483756 \times 10^9 \; \mathrm{Hz}

Esto significa un desplazamiento de

\displaystyle z= \cfrac{\nu' -\nu}{\nu} = 5.26243 \time 10^{-10}

o lo que es lo mismo, 45 µs/día (microsegundos/día), que está en perfecto acuerdo con lo que se calcula desde la Relatividad General.
Todo esto implica, que podemos evitar usar la complicada Relatividad General para calcular esta clase de efectos y otros, y usar la menos complicada Relatividad Galileana Completa, la cual ofrece las mismas predicciones para las magnitudes medibles, y sus cálculos resultan incluso más precisos.

Posted in Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , | 6 Comments »

 
A %d blogueros les gusta esto: