TARDÍGRADOS

Ciencia en español -ʟᴀ ʀᴀᴢóɴ ᴇsᴛá ᴀʜí ғᴜᴇʀᴀ-

Archive for the ‘Relatividad’ Category

¿Pero, qué diablos es realmente la gravedad? : O ¿por qué la ciencia aceptó las ideas absurdas de Einstein, que desde hace ya más de un siglo nos han llevado a un callejón sin salida, del que sólo se podrá salir definitivamente dentro de mil años o más?

Posted by Albert Zotkin en noviembre 8, 2019

Cuando Albert Einstein se vio en la cima del éxito por su Relatividad General (todos sabemos que Einstein era un genio … un genio de marketing, de la auto promoción, por supuesto), con su vanagloria en alza, y su inmenso ego, más inflado que nunca, allá por los años treinta y pico, en una de las infinitas y cuidadas entrevistas que concedía a los medios, dijo algo asi como: “Newton, perdóname; tú encontraste el único camino que, en tus tiempos, era posible para un hombre de inteligencia y capacidad creadora supremas“. O sea, en su falsa modestia, Einstein nos estaba diciendo que su capacidad creadora e inteligencia eran superiores a las de Newton. La genialidad de Einstein fue que supo vendernos humo, y lo hizo en cantidades industriales.
En cuanto al tema de la gravedad (o gravitación), a estas alturas del siglo XXI, parece ser que Einstein sólo tuvo razón en una cosa al afirmar que la gravedad no era una verdadera fuerza. El problema es que la gravedad tampoco parece ser ya ese efecto de la curvatura del espacio-tiempo, tal como tan bellamente nos lo cantaba el “poema épico” de la Relatividad General con sus matemáticas trileras, elaboradas por prestigiosos masterchefs del axioma, como Hilbert y otros, en más de un siglo de autocomplacencia. Einstein casi tuvo razón en otra cosa, pero al final se retractó, porque el precio mediático a pagar era superior al de la corrección política. Einstein, junto con Nathan Rosen, llegó a afirmar en 1936, sin tapujos, que las ondas gravitacionales no existían. Aunque ese concepto de las ondas gravitationales lo había deducido él mismo de su misma Relatividad General, unos cuanto años antes, al final dio su brazo a torcer, desistió de su “descabellada idea”, porque la presión mediática era inmensa, y su prestigio, su reputación social y académica estaban en juego.
En este pequeño artículo que hoy os presento, veremos qué es realmente la gravedad, y por qué las ondas gravitacinales no pueden existir si la gravedad es lo que aquí voy a afirmar que es.
La gravedad es una fuerza entrópica. Si, ya sé que desde la física oficial, tratan de barrer toda hipótesis que afirme que la gravedad es una fuerza entrópica. Sobre todo, existen infinitos artículos (mainstreamófilcos = muy del consenso oficial) que aparentemente demuestran que la Gravedad Entrópica de Verlinde es inconsistente. El dogma oficial, cuando quiere sofocar algo que incomoda a la doctrina reinante, siempre se basa en demostrar aparentemente que ese algo es inconsistente. El problema es que al final todo se reduce a creer o no que la demostración de la inconsistencia es consistente. La gravedad entrópica de Verlinde, no es toda la verdad sobre la afirmación de que la gravedad es una fuerza entrópica. Los que intentan desacreditar a Verlinde por su teoría entrópica de la gravedad, siempre basan su armas en que dicha teoría posee errores que la reducen a una mera expresión de la teoría clásica de Newton, no ya siquiera a una MOND, y por lo tanto, como la teoría clásica de Newton es incorrecta según el consenso de los mainstreamófilos, porque la correcta es la de Einstein, asi de incorrecta debe ser la de Verlinde . Pero, examinando a fondo esta teoría de la Gravedad Entrópica de Verlinde, se llega a la conclusión de que basicamente es correcta, y en lo único que falla es en la elección de los modelos matemáticos y termodinámicos para deducirla desde primeros principios. En esencia, de lo que carece la Gravedad Entrópica de Verlinde es de la componente gravitomagnética, la cual hay que deducir también desde principios termodinámicos. Eso fue lo que yo hice hace tiempo en mi artículo: Gravedad Cuántica: Análisis pormenorizado de la componente entrópica de la gravedad. Pero veamos sucintamente en que consiste la Gravedad Entrópica de Verlinde, y por qué la atacaban tan furibondamente desde el consenso de los mainstreamófilos.
A estas alturas del siglo XXI, aún se pueden leer blogs de ciencia, donde supuestos científicos (y científicas) hacen afirmaciones sobre agujeros negros (hipotéticos objetos, de cuya existencia no tendremos nunca una prueba definitiva) tales como: Dos agujeros negros uniéndose no emiten radiación electromagnética, porque los agujeros negros no están hechos de materia que pueda emitir esa clase de radiación. Pueden estar rodeados de materia que sí la emite, pero es demasiado pequeña para ser observada.” Es decir, siguen tratando el espacio-tiempo como si fuera una sustancia, una especie de éter flexible que pueda ser estirado, retorcido o curvado. Que yo sepa, el espacio-tiempo no existe físicamente hasta que no se demuestre experimentalmente por separado que el espacio existe y que el tiempo existe. Pero mucho me temo que ambas entidades que tanto se emplean en física, son más axiomas o postulados que algo real existente en la naturaleza.

Hace ya algún tiempo un tal Erik Verlinde publicó un artículo en el que supuestamente deducía la ley de gravitación universal de Newton desde primeros principios, incluso dedujo las ecuaciones de campo de Einstein de la Relatividad General, concluyendo que la gravedad es una fuerza entrópica, es decir una fuerza que no es fundamental y que emerge naturalmente del aumento de entropía de los sistemas materiales. Verlinde usó el principio holográfico y las conocidas leyes de la termodinámica, junto con algunas cosillas más, para deducir dicha fuerza entrópica. Las fuerzas entrópicas emergen desde el microcosmos hacia el macrocosmos debido a que los sistemas materiales tienden a adoptar estados de máxima entropia. Cuando estiras una goma elástica debes de ejercer una fuerza para contrarrestar temporalmente su estado maximizado de entropía. Al estirar la goma estás rebajando su entropia, y por lo tanto la goma se opone a ese cambio ejerciendo una fuerza en sentido contrario que intenta restaurar su estado de máxima entropía.

Pero, como vamos a ver ahora, esa fuerza entrópica deducida por Verlinde desde primeros principios, y que emerge siendo la fuerza de gravitación de Newton, es sólo una componente de la gravedad total. En concreto vamos a ver cómo esa componente entrópica es engullida brutalmente por un tiburón cuántico que habita en las profundidades del microcosmos termodinámico.

Comencemos expresando la Primera Ley de la Termodinámica para sistemas homogeneos cerrados:

\displaystyle dU=TdS-PdV  (1)
donde dU es el cambio de energía interna, T es la temperatura, dV es el cambio de volumen, dS es el cambio de entropia, y P es la presión. Sabemos que PdV es el cambio de energía libre del sistema, por lo tanto puede ser expresada como suma de los cambios de energía de cada uno de los microestados

\displaystyle \langle PV\rangle=-\frac{\ln(\mathcal{Z})}{\beta} = -\frac{\epsilon_1\oplus\epsilon_2\oplus\epsilon_3\oplus\dots}{\beta}     (2)
Donde es representa la energía del microestado s, Z es la función de partición, y β es menos el inverso del producto de la temperatura por la constante de Boltzmann:

\displaystyle   \mathcal{Z} = \sum_{s} e^{\beta \epsilon_s}  \\ \\ \\  \beta = -\frac{1}{k_BT}
La ecuación (1) para un proceso con presión y temperatura constantes queda así:

\displaystyle U=TS-PV  (3)
por lo tanto sustituyendo (2) en (3) tenemos:

\displaystyle U=TS + \frac{\ln(\mathcal{Z})}{\beta} \\ \\  U=\frac{\beta}{\beta} \ln \exp(TS) + \frac{\ln(\mathcal{Z})}{\beta} \\ \\ \\  U=\frac{\ln \exp(\beta TS )}{\beta} + \frac{\ln(\mathcal{Z})}{\beta} \\ \\ \\  U=\frac{\ln \left (\mathcal{Z}\exp(\beta TS ) \right)}{\beta}  \\ \\ \\   (4)

Según el postulado fundamental de la mecánica estadística, la entropía S es directamente proporcional al logaritmo del número Ω de microestados:

\displaystyle S = k_B \ln \Omega

es decir

\displaystyle TS = Tk_B \ln \Omega= -\frac{\ln \Omega}{\beta}  (5)

por lo que (4) lo podemos calcular más fácilmente:

\displaystyle U=TS + \frac{\ln \mathcal{Z}}{\beta} \\ \\  U=-\frac{\ln \Omega}{\beta} + \frac{\ln \mathcal{Z}}{\beta} \\ \\ \\
\displaystyle \boxed{U=\cfrac{1}{\beta}\ln \left(\frac{\mathcal{Z}}{\Omega}\right)}  (6)
Esta energía interna U es lo que en gravedad debe identificarse como la energía potencial gravitatoria, la cual si es dividida por la masa m de una partícula de prueba tendremos el potencial gravitatorio (con todas sus componentes) en el punto espacial donde está localizada dicha partícula:

\displaystyle \boxed{V = \cfrac{U}{m}=\cfrac{1}{m \beta}\ln \left(\frac{\mathcal{Z}}{\Omega}\right)}  (7)
Recapitulemos. La componente entrópica debe ser identificada con la gravitación clásica de Newton, y la componente de energía libre (PV) debe ser identificada con lo que se llama gravitomagnetismo. O lo que es lo mismo, la función de partición Z mapea dicho gravitomagnetismo, mientras que el número Ω de microestados mapea la componente estática de gravitación Newtoniana.

Pongamos un pequeño ejemplo. Supongamos que queremos calcular el número Ω de microestados de un sistema gravitatorio binario, con masas M y m. Igualamos el potencial gravitatorio así:

\displaystyle     V =-\frac{\ln \Omega}{m\beta} = -\frac{GM}{r}  \\ \\  \Omega = \exp\left(\frac{GMm\beta}{r}\right)

pero en β está incluida la temperatura T, por lo tanto si igualamos esa temperatura con la temperatura de Unhru: ,

\displaystyle T = \frac{\hbar a}{2\pi c k_\text{B}} \\ \\ \\ \beta= -  \frac{2\pi c}{\hbar a} \\ \\ \\

y la aceleración a la igualamos a la aceleración del campo gravitatorio estático, a = g:

\displaystyle a = \frac{GM}{r^2}\\ \\ \\ \beta= -  \frac{2\pi c r^2}{\hbar GM} \\ \\ \\

Por lo que el número Ω de microestados para ese sistema gravitatorio será:

\displaystyle a = \frac{GM}{r^2}\\ \\ \\ \beta= -  \frac{2\pi c r^2}{\hbar GM} \\ \\ \\ \Omega = \exp \left(\frac{GMm\beta}{r}\right) = \exp\left(\frac{m c \ 2\pi r}{\hbar}\right)
Las fuerzas entrópicas están muy relacionadas con los paseos aleatorios

y por lo tanto, la gravedad es una interacción estrechamente relacionada con lo que se llama paseos aleatorios de máxima entropía.

Posted in Matemáticas, Mecánica Cuántica, Relatividad, termodinámica | Etiquetado: , , , , , , , , , , , , , , , , , , | 1 Comment »

Distancia al centro del universo. El tamaño del presente: ¿Por qué parece imposible superar la velocidad de la luz en el vacío, y por qué esa velocidad parece ser una constante universal aunque no lo sea?

Posted by Albert Zotkin en noviembre 7, 2019

La velocidad de la luz en el vacío es c = 299.792.458 m/s, la cual nos llevaría a las inmediaciones de la Luna desde la superficie terrestre en menos de 1 segundo. Dicen que dicha velocidad es una constante universal, y que además de ser constante no puede ser superada independientemente del sistema de referencia desde el que se considere. Pero, si tenemos en cuenta las inmensas escalas de espacio y tiempo de nuestro universo observable, esa supuesta constante universal resulta insufriblemente lenta. Para que un rayo laser pudiera atravesar el diámetro de nuestra galaxia, la Vía Láctea, se necesitarían más de cien mil años. Está claro que las ondas electromagnéticas no son el vehículo idóneo para comunicarnos a escalas intergalácticas. De hecho hay fuerzas titánicas, que la naturaleza puede desatar, que podrían, al menos teóricamente, impulsar partículas a velocidades superlumínicas (pero, la Dirección General de Tráfico, que algunos llaman Relatividad Especial, nos prohíbe viajar a más de 299.792.458 m/s por autopistas intergalácticas 😛 ).
Hace 65 millones de años, según cierta teoría, de la que parece que se están acumulando las evidencias a favor, los dinosaurios se extinguieron debido a que un meteorito de 15 kilómetros de ancho chocó contra la Tierra. Para saber si eso fue exactamente así, alguien podría sugerirnos lo siguiente: “bastaría viajar por el espacio a una velocidad superior a la de la luz hasta llegar a un punto clave situado a más de 65 millones de años-luz de la Tierra, y observar con un potente telescopio nuestro planeta. Es decir, estaríamos observando un evento muy remoto del pasado terrestre. Eso deberia ser así porque los fotones de la colisión del meteorito con la Tierra aún no habrían llegado a ese punto clave donde colocamos nuestro telescopio. Es decir, esos fotones aun no han sido absorbidos. Pero, ¿estamos seguros de que eso sería así?. Si viajamos al doble de la velocidad de la luz (v = 2c), nuestro punto clave para observar un evento de nuestro pasado de hace 65 millones de años, estaría exactamente a 130 millones de años-luz. Si viajamos a n veces la velocidad de la luz, nuestro punto clave estaría a 65 millones de años-luz más 65/(n-1) millones de años-luz. En general, para observar un evento que ocurrió hace un tiempo t, habría que viajar a un punto clave x a una velocidad de v = nc, tal que

\displaystyle  x = c\;t+\frac{c\;t}{n-1}\\\\\\

y la observación del evento sería inmediata, es decir, no tendríamos que esperar a que ocurriera. Si quisiéramos esperar cierto intervalo de tiempo Δt a que ocurriera el evento, tendríamos que incrementar la localización x a otra más distante x‘, o incrementar nuestra velocidad superlumínica:

\displaystyle  x' = x+\Delta x = x + c\; \Delta t

Pero, ¿estamos seguros de que fotones que fueron emitidos hace 65 millones de años, desde la Tierra, aún siguen por ahí revoloteando, esperando ser absorbidos por algún sistema material?. ¿Y si resulta que es imposible superar la velocidad de la luz c en el vacío por la sencilla razón de que el fotón emitido fue instantaneamente absordbido por algún sistema material, independientemente de la distancia que separó al emisor del receptor?. La hipótesis que planteo es simple. Existiría un desfase de tiempos presentes entre dos sistemas materiales distantes. Si Alicia está separada de Bob por una distancia x constante, entonces sus tiempos presentes están desfasados un intervalos Δt = x/c. Ese desfase es relativo, y significa que el presente del sistema remoto está siempre en algún tiempo pasado del sistema material localizado en el origen de nuestro sistema de referencia.

Tu presente está en mi pasado, y en tu pasado está mi presente, porque entre tú y yo existe la distancia“.

De esta forma tan poética, eliminamos las paradojas de la Relatividad Especial de Einstein. La luz no viaja, simplemente permanece estacionaria, hasta que el fotón es eventualmente alcanzado por un sistema material anclado en una expansión concéntrica relativa.

Posted in Astrofísica, Cosmología, curiosidades y analogías, lameculos, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | Leave a Comment »

Hola KATRIN, ¿sabes que los neutrinos viajan más rápido que la luz, y cuánto ridículo hace la ciencia actual negándolo?

Posted by Albert Zotkin en septiembre 25, 2019

Estos días se habla mucho en los foros científicos del experimento KATRIN, que ha publicado resultados estimando un valor máximo para la masa de los neutrinos. En este experimento científico se examina el espectro de la desintegración beta (emisión de electrones) del Tritio, mediante un potente y peculiar espectómetro

Transporte por las calles de Karlsruhe (Alemania) de parte del espectrómetro del experimento KATRIN


En esta desintegración beta del Tritio, además de electrones, se emiten trillones de anti-neutrinos electrónicos por segundo. La idea central del experimento KATRIN es muy simple: Si el neutrino tiene masa, entonces siempre debe corresponder a la cantidad equivalente de energía, según la ecuación E = m c², y el espectro del electrón debería reflejar un deficit en su energía total exactamente igual a esa cantidad, y mostrar una forma diferente en dicho espectro.

En el artículo científico que describe los resultados de las mediciones, titulado,An improved upper limit on the neutrino mass from a direct kinematic method by KATRIN, y cuyo preprint puede encontarse en arXiv, aqui, y donde firman más de 210 autores de más de 36 institutos, centros de investigación y universidades, se comete una de las tropelías más flagrantes y ridículas de la historia de la ciencia. Se trata del conocido sesgo cognitivo, pero esta vez se deja al descubierto con tal evidencia y desdén que más parece que lo hagan a propósito que un descuido. Veamos paso a paso en qué consiste ese sesgo y por qué los tontos del culo de los blogs que le siguen el juego a lo políticamente correcto del consenso oficial, hacen todo lo posible por obviar esa tropelía, mirando para otro lado y silbando, cuando no mintiendo.

En el apartado de resultados finales de dicho artículo, se dice que la mejor estimación para el cuadrado de la masa del neutrino es de

m_{\nu}^2=\left(-1.0^{+0.9}_{-1.1}\right)\;\text{eV}^2

es decir, para cualquiera que sepa leer estos resultados tenemos un valor medio que es un número real negativo de -1.0 electrovoltios al cuadrado, afectado con cierta incertidumbre de medida. Es decir, tenemos que el cuadrado de un número es un valor negativo. Eso solo es posible si la masa de un neutrino es un número imaginario puro. O sea un valor medio, expresado por el número complejo:

m_{\nu}=\left(1.0^{+0.94}_{-1.0}\right)i\;\text{eV}

Por su puesto, el valor central de -1.0 está a simplemente una desviación típica de cero. La pregunta es ¿por qué la región negativa de la masa al cuadrado está excluida, y considerada como no física, es decir, como algo que no puede darse físicamente?. Por lo tanto, el sesgo cognitivo está en que, a priori, se está diciendo que el valor negativo del cuadrado de una masa es algo físicamente imposible, cuando de hecho debería ser una cuestión a dilucidar experimentalmente, nunca a priori. ¿Cuantas tropelías más nos están metiendo dobladas?. Esta que apunto hoy aquí es descaradamente evidente.

Esta tropelía cometida en el artículo científico del experimento KATRIN, que ya he apuntado arriba, fue debidamente denunciada por Alan Chodos, el cual elevó un comentario suyo a arXiv, dejando en evidencia esa chapuza de artículo firmada por más de 210 autores de más de 36 institutos, centros de investigación y universidades.

Comentario de: Alan Chodos
Departamento de Física, Universidad de Texas, Arlington
alan.chodos@uta.edu

Sumario: Hacemos notar que el valor central del experimento KATRIN tiene masa al cuadrado negativa, y nos preguntamos por qué se excluye del análisis estadístico a priori.

Introducción, discusión y conclusiones: El nuevo límite superior para la masa del neutrino electrónico, que ha sido publicado recientemente del experimento KATRIN, no sólo merece ser destacado por su gran precisión de medida, sino también por el hecho de que el valor central de dicha medida resulta ser un valor negativo, representando una masa al cuadrado, lo cual viene siendo ya habitual en una larga tradición de medidas de las masas de los neutrinos, desde hace ya varias décadas.

Por su puesto, el valor central resulta estar a una desviación típica respecto a cero. Por lo tanto, resulta absolutamente adecuado decir que se trata de un límite superior, y no una medida de una masa no nula. Sin embargo, tal y como se indica en el informe, la región negativa de la masa al cuadrado está excluida a priori, y marginada (ignorada) como algo no físico (algo que no puede darse en la naturaleza) al realizar los análisis estadísticos, siguiendo la practica de muchos de los autores que firman el artículo.

El propósito de esta breve reseña es señalar que esa es una mala praxis, una restricción inapropiada. Que los neutrinos tengan o no una masa al cuadrado negativa, es una cuestión experimental. Al menos, los autores deberían incluir un análisis alternativo en el que la posibilidad de una masa al cuadrado negativa fuera permitida.

Los trabajos teóricos sobre neutrinos en espacio-tiempo superlumínico se remontan hasta la mitad de los años ochenta. Muchas ideas especulativas al respecto puede que no sean muy relevantes, pero a pesar de todo, la posibilidad de que el neutrino sea un taquión sigue abierta, y no debería ser descartada, y menos aún, descartada antes de iniciar cualquier análisis.

En conclusión: si los neutrinos poseen masa imaginaria cuando aplicamos los formalismos de la Relatividad Especial de Einstein, eso quiere decir que son taquiones (partículas que viajan a velocidades superiores a la de la luz). Con lo cual, tanto el Modelo Estándar de la Física Cuántica, como la Teoría de la Relatividad de Einstein, se pueden ir ya, sin demora, por el sumidero de la historia de la ciencia, a pesar de lo que nos diga la famosa ciencióloga (drag queen, y reina del chismorreo mainstreamófilo) la Mula Francis.

Saludos

Posted in Astrofísica, Física de partículas, lameculos, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 1 Comment »

Cienciología y ondas gravitacionales

Posted by Albert Zotkin en noviembre 3, 2018

Los que creen en la existencia de las ondas gravitacionales son llamados wavebudos (del inglés wave = onda, y del español embudo = objeto ancho por un lado y estrecho por el otro). Aquellos que creen que LIGO detectó realmente ondas gravitacionales, además de wavebudos, pertenecen a la secta de los LIGOrianos. Lo que LIGO nos viene presentando como “verdad absoluta” se llama pseudociencia. Cuando rara vez responden por escrito a las criticas o dudas de su “verdad absoluta“, siempre, en el mejor de los casos, empiezan y acaban diciendo que esos críticos no han entendido bien sus datos ni sus métodos, y sus creyentes LIGOrianos se lo creen.
ligo
¿Qué diferencias hay entre la secta llamada Iglesia de la Cienciología y LIGO?. Básicamente ninguna. Ambas sectas son un sistema de creencias que utilizan la ciencia como fundamento y justificación de su culto, pero en realidad, son solo eso, sectas religiosas. Aquellos que desde dentro o desde fuera, defienden esos credos, la única razón que les asiste es la fe, es decir, la anti-razón. Cuando alguien que posee prestigio científico (aunque, en muchos casos, no se sepa muy bien en qué consiste eso de tener prestigio, o por qué se llegó a tenerlo) le dice a los legos en la materia que han detectado ondas gravitacionales, esos legos en la materia tienen dos opciones, creérselo o no. Los que se lo creen quedan tachados como wavebudos y automáticamente son relegados al rincón de los LIGOrianos. Los que no se lo creen son tachados como tarados, magufos o crackpots, y automáticamente son comparados y asimilados con quienes creen que la Tierra es plana, o con quienes aseguran que el hombre nunca pisó la Luna. Leamos por ejemplo, el artículo pseudocientífico del bien conocido divulgador de cienciología La Mula Francis, titulado Las dudas infundadas sobre la observación de LIGO de las ondas gravitacionales. Ese artículo divulgativo (por llamarlo de alguna forma, deberia ser llamado artículo de apostolado de la fe) rezuma sectarismo y sesgo LIGOriano por todos los costados, y sugiere que todo aquel impío que no cree en los postulados de la Santa Iglesia LIGO debe ser quemado en la pira del ostracismo, silenciado, apartado, y sus escritos quemados también con él, mediante rito Fahrenheit-451. Este divulgador, cientólogo donde los haya, sugiere también que, puesto que ya están todos los LIGOrianos hartos de que se ponga en duda su fe, y que todo es ya tan cansino, a partir de ahora se dé carpetazo definitivo al asunto y que Pedro Sanchez redacte un Decreto de Ley por el que la existencia de las Ondas Gravitacionales quede oficialmente declarada como verdad absoluta e indiscutible.

boe-644x362

Una de las justificaciones más pueriles, para defender los resultados de LIGO, que hace este magufo de la cienciología en su lamentable artículo, es que, puesto que miles de estudiantes y fisicos de todo el mundo han conseguido obtener los mismos resultados que LIGO, usando sus datos y metodologías, entonces los científicos criticos daneses están equivocados, no han conseguido entender bien lo que miles de estudiantes si entendieron. Lo que no dice este magufo mainstreamófilo es que si aplicas el análisis estadístico y los métodos de esos científicos daneses sobre los miles de resultados de los estudiantes que, supuestamente coinciden con los oficiales de LIGO, obtienes ruido correlacionado inexplicable e inadmisible, es decir, obtienes unas dudas tremendas de que los resultados de LIGO sean correctos.

Posted in Astrofísica, Cosmología, curiosidades y analogías, Matemáticas, Relatividad | Etiquetado: , , , , | 7 Comments »

Regreso a Nueva Avalon

Posted by Albert Zotkin en octubre 14, 2018

new avalon2-5

Nuestro trabajo en Alteriona terminó. Recogimos todas las máquinas y equipos, y nos despedimos de John Hurt, el capataz, el cual se quedó el resto del año, hasta la siguiente temporada, en tareas de mantenimiento de los Xarebots. Nuestro transporter nos esperaba en el hangar 18 (cerca de los Altos PAKed-3), y allí nos recibió la tripulación del Boreas Delta, con el comandante Andre Lee al mando.

Abandonamos Kepler-452a, más conocido como Perdix, el planeta más cercano a la estrella Kepler-452, una enana amarilla de tipo G2, a unos ciento cuarenta años luz del Sistema Solar, y a sesenta y ocho de Aldebarán. La temperatura media de este planeta es de unos -3 ˚C, y su gravedad es de 7.4g. Su atmósfera está principalmente compuesta de metano y dióxido de carbono, (irrespirable), y sus principales recursos mineros son titanio y diamante. Posee tres lunas, Darkota, Landela y Kurtex. Básicamente es un desierto inerte, carente de vida.

Nuestro destino es Kepler-452b, más conocido como Dédalo I, es el segundo planeta que orbita la estrella Kepler-452. Es un planeta rocoso parecido a la Tierra, pero con un 98% de su superficie cubierta de agua liquida. Posee una luna, Creneis, y su gravedad superficial es ligeramente mayor a la terrestre, 10.2g. Su temperatura media es de 15 ˚C. Allí, los antiguos Estados Unidos de Eurasia construyeron Nueva Avalon, en el páramo Pektor, un núcleo residencial para reservistas y controladores de Adocs, que aún está en proceso de crecimiento modular.

new avalon2-4

new avalon2-3

Foliación transfinita de la conciencia de Ridley

Lo que pocos enterótidos saben es que en la marisma Pektor, donde se enclava Nueva Avalon, se encuentra el tercer defecto topológico del espacio-tiempo conocido de nuestro universo. Se llama Bucle Asimétrico Intersticial Ilion31. Este defecto topológico espaciotemporal fue aprovechado por los Antiguos para construir y testar su primera Stargate. La atracción turística más curiosa de Ilion31 es su formación en paralelo de tres espejos cuánticos, separados por dos interticios de treinta metros. Desde Ilion31 puedes ver tu propia nuca un número infinito de veces. Y lo curioso es que si dispararas con un arma de fuego a una de esas imágenes, la bala impactaría en tu nuca realmente.

Aún quedan muchos misterios y maravillas por descubrir cerca de Dédalo I

Me llamo Amadeus Wilder, y soy el capaz del equipo de mineros M65 de la empresa αTitanic Inc. Nuestro viaje de regreso a Nueva Avalon, a bordo del Boreas Delta, durará 4 meses, a una velocidad de crucero de doscientos cincuenta mil kilómetros por hora.

Posted in Cosmología, curiosidades y analogías, Exobiología, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , | Leave a Comment »

La velocidad de la luz no es una verdadera velocidad, es una latencia

Posted by Albert Zotkin en mayo 25, 2018

Hola amigos de Tardígrados. Hoy vamos a estudiar algunos aspectos de uno de los fenómenos más extraños y misteriosos de nuestro universo, la luz. Tambíén llamada fotones, ondas, energía o radiación electromagnética. La luz es, junto con la gravedad, uno de los misterios más grandes de la física. Aunque pudiera parecer que las ondas electromagnéticas ya no poseen ningún misterio para la Física, en realidad si los posee, y profundos. ¿Qué es la luz?, ¿Es una onda o es una partícula?. Depende (como diría un gallego). Depende, del instrumento y el experimento que realicemos, la luz nos aparecerá como partícula o como onda, pero nunca como una mezcla de las dos. En un experimento nos parecerá que es una partícula que llamamos fotón, y en otro bien distinto, como una onda electromagnética de cierta frecuencia y longitud de onda. Eso es ya bien conocido en la Física, y se llama dualidad onda-partícula. Sin embargo, independientemente del experimento que realicemos para saber si la luz es partícula o es onda, lo que sí parece ser invariante es que se nos manifiesta siempre como propagándose a cierta velocidad finita. Según el medio en que se propague, dicha velocidad tendrá un valor u otro, pero siempre el mismo si el medio es el mismo.

El vacío puede también ser considerado un medio. El realidad el vacío sería el único medio por el que puede propagarse la luz, y su velocidad sería la constante c. Sería pues una especie de éter, aunque la palabra éter es una palabra maldita para los maintreamófilos, ya que suplantaría al sacrosanto espacio-tiempo de la relatividad Einsteniana, y eso sería un sacrilegio (Einstein dijo: “no hay éter“, y eso es Verbum Dei). Cualquier otro medio distinto al vacío ya implica la existencia de materia intermedia entre emisor y receptor, con lo cual, la velocidad de propagación, en ese medio distinto al vacío, sería siempre menor a la original c. Pero, un fotón no debe ser nunca visto como una “pelotita” que revolotea por ahí, desde que es lanzada por el emisor hasta que es captada por el receptor. Los fotones, no son partículas libres, sino partículas virtuales. ¿Qué significa que una partícula sea virtual en lugar de libre?. La principal propiedad es que una partícula virtual parece haber sido emitida “hacia atrás en el tiempo” a la vez que “hacia adelante“. Existe una especie de transacción secreta entre el emisor del fotón y el receptor. Y esa transacción (“papeleo burocrático“) empieza a tener lugar mucho antes de que la partícula sea emitida realmente. ¿Por qué es eso así?. Imagina que una fuente emisora de fotones los lanzara al medio (el vacío), sin que existiera un receptor para cada una de esas partículas emitidas. Esos fotones, o algunos de ellos, nunca serían absorbidos. Y si un fotón no es absorbido no existe transferencia de energía, con lo cual, el fotón virtualmente nunca habría sido emitido. Esa es la razón por la cual, cuando un fotón es emitido, será con absoluta seguridad absorbido eventualmente por algún sistema material. ¿Qué ocurriría si una fuente emite realmente un fotón que nunca será absorbido?. Pues sencillamente que esa energía se perdería, y eso significaría, que el universo perdería energía, se enfriaría, sería un sistema termodinámico abierto. Seria un absurdo más. Pensemos por ejemplo, el caso contrario, un sistema material que absorbe un fotón, el cual nunca fue emitido por ninguna fuente. Señoras y señores, estamos ante la presencia de las famosas paradojas que tanto les gustan a los Einsteinianos y demás especímenes, mainstreamófilos. Esa energía, que salió del emisor, no llegaría a ninguna parte, sería como si la energía pudiera destruirse. Puesto que la energía no puede destruirse ni perderse para siempre, cuando un fotón es emitido es porque será absorbido con total seguridad tarde o temprano, y cuando un fotón es absorbido es porque antes fue emitido por una fuente. Ese es el realismo que hay que imponer en la física, el sentido común, nada de paradojas ni viajes en el tiempo.

Enfoquemos nuestra atención un poco más en el punto del que estamos hablando hoy: la velocidad de la luz en el vacío, c. De hecho, esa supuesta velocidad sería una velocidad de fase, c = vp, en contraposición a la velocidad de grupo, vg. Es decir, según el conocimiento de la Física oficial, la mainstreamófila, la del Libro Sagrado, toda onda posee una velocidad de fase y una velocidad de grupo, las cuales no siempre coinciden en un mismo valor. La velocidad de fase está definida como el cociente entre la longitud de onda y el periodo, vp = λ / T, o lo que es lo mismo, el cociente entre la frecuencia angular y el número de ondas, vp = ω / k. En cambio, en el Libro Sagrado de la Física Mainstreamófila, la velocidad de grupo se define como la derivada parcial de esa frecuencia angular respecto del número de ondas, es decir, vg = ∂ω / ∂k. Luego la información y la energía que transporta una onda electromagnética, viajarían por el espacio según la velocidad de grupo. Pero, si nada hay que disperse en el vacío a dicha onda electromagnética, entonces esa velocidad de grupo coincidiría con su velocidad de fase, vp = vg. Y eso siempre ocurre cuando la frecuencia angular, ω, es directamente proporcional al número de ondas, k.

Veamos ahora que significaría que esa velocidad de la luz en el vacío sea una constante c = 299792458 m/s, siempre la misma, independientemente del sistema de referencia desde el cual la midas. Imagina que viajas cómodamente en tu coche por la autopista, y cada cierto tiempo miras el velocímetro, (sobre todo para controlar que no te cace uno de esos radares ocultos y te pongan una multa por exceso de velocidad). Compruebas que tu velocidad es constante v = 90 km/h. Sin embargo, tu velocidad real podría ser otra muy distinta a esa que lees en el velocímetro del tu coche. Matemáticamente hablando, la velocidad que lees en tu velocimétrico es un residuo o resto. Imagina que tu velocímetro es como la esfera de un reloj, pero en lugar de tener 12 divisiones, una por cada hora, posee 299792458, una por cada metro por segundo. Cuando tu velocímetro marca el cero, entonces eso indicaría que tu coche está parado, o también que tu coche viaja a la velocidad de la luz, c. Pero, eso parece imposible, ¿no?. Si algo está parado, no puede estar viajando a la vez a otra velocidad distinta a cero, si se mide en el mismo sistema de referencia, ¿verdad?.

El problema es que el velocímetro de nuestro coche es circular, y sólo posee 299792458 divisiones, una por cada metro por segundo. Por lo tanto, toda velocidad v, superior a c, será matemáticamente truncada a su residuo:

\displaystyle v\equiv 0{\pmod {c}}
Hay una clase de partículas elementales llamadas leptones. Y nos preguntamos: ¿qué ocurriría si un electrón, que es un leptón, supera la velocidad de la luz, c?. Sí, ya sé que eso, en el libro gordo de los maintreamófilos, se dice que es imposible. Pero, ¿qué apariencia tendría en nuestro universo relativista tal “imposible fenómeno“?. Pues, si eso ocurriera, lo que veríamos sería un muón, viajando a una velocidad residual, es decir, una velocidad sublumínica. Y en contrapartida por truncar su velocidad superlumínica, su masa se incrementaría, de tal forma que la energía total de la partícula siguiera siendo la misma. Eso explicaría por qué vemos hasta tres generaciones de leptones, pero claro, esa explicación tan bizarra y estúpida está descartada por la sacrosanta verdad absoluta del libro gordo de los maintreamófilos.

Profundicemos un poco en esta idea de los leptones superlumínicos. Supongamos que un electrón supera la velocidad de la luz en el vacío, llegando hasta una

\displaystyle v_e = k c + \frac{c}{n}

Donde k y n son enteros positivos mayores que la unidad. Esto significa que el residuo es

\displaystyle \frac{c(k n + 1)}{n}\equiv 0{\pmod {c}} = \frac{c}{n}
Eso quiere decir que, en nuestro universo observable, lo que veríamos sería un muón viajando a una velocidad sublumínica, el residuo vμ = c/n. Luego la energía total del electrón superlumínico debe ser igual a la energía total del muón sublumínico (la energía total de una partícula es la suma de su energía potencial y su energía cinética):

\displaystyle m_e c^2 + K_e = m_{\mu}c^2 + K_{\mu}

Dividamos ambos lados de la ecuación por la energía potencial del electrón, m_e c^2:

\displaystyle 1+ \frac{K_e}{m_e c^2} = \frac{m_{\mu}}{m_e} + \frac{K_{\mu}}{m_e c^2}
Si aproximamos clásicamente la energía cinética del electrón y la del muón tendremos:

\displaystyle K_e=   \frac{m_e v_e^2}{2} = \frac{m_e c^2 (kn+1)^2}{2n^2}\\ \\ K_{\mu}=   \frac{m_{\mu} v_{\mu}^2}{2} =  \frac{m_{\mu} c^2}{2n^2}
Con lo cual, la relación entre la masa del electrón y la del muón sería:

\displaystyle 1+ \frac{(kn+1)^2}{2n^2}=  \frac{m_{\mu}}{m_e} + \frac{m_{\mu}}{m_e}\left(\frac{1}{2n^2}\right) \\ \\ \\  \frac{m_{\mu}}{m_e} = \frac{1+2 k n+2 n^2+k^2 n^2}{1+2 n^2}
Por otro lado, sabemos experimentalmente que la ratio entre la masa del muón y la del electron es:

\displaystyle  \frac{m_{\mu}}{m_e} = \frac{105.6583745}{0.510998928}=206.768
Eso significa que, desde la aproximación clásica, un electrón sólo podría superar la velocidad de la luz en el vacío (n = 1) a partir de cierto número de ciclos k de c, que serían:

\displaystyle k =-1\pm \sqrt{3\frac{m_{\mu}}{m_e} -2}=-1 \pm 24.8657
Luego, desde la aproximación clásica, para que un electrón emerja como un muón debe adquirir una velocidad superlumínica base de:

\displaystyle v_e = c(k + 1)= 25.8657 c
Pero, ¿por qué digo en el título de este artículo que “La velocidad de la luz no es una verdadera velocidad, es una latencia?. Pues lo digo, porque, no es la velocidad clásica con la que imaginamos a un objeto moverse en el espacio. Lo que llamamos luz no se mueve por ningún espacio, es simplemente una transacción cuántica no-local entre dos o más sistemas materiales. Es no-local porque se produce a distancia, sin que el intermediario, el fotón, tenga que pasar por todos los puntos intermedios del intervalo espacial que los separa. Por eso, esa transacción posee una latencia, es decir, un retardo. Al dividir el intervalo espacial por el retardo siempre obtendremos la constante c, si esa transacción es en el vacío. Y para que esa constante sea una verdadera constante, debe ocurrir que la latencia (el retardo) sea directamente proporcional al intervalo espacial. La implicación más interesante de que esto sea así es que esa transacción empieza instantaneamente, sin demora.

Por ejemplo, supongamos que hacemos un ping (eco) con un rayo láser sobre la superficie de la Luna.

Tardaremos aproximadamente 2.5 segundos en ver nuestro rayo Laser reflejado, es decir, que la transacción electromagnética duró (tuvo una latencia de) 1.25 segundos en la ida, y otros tantos 1.25 segundos en la vuelta (reflejo). Pero, la transacción en la ida comenzó instantaneamente desde el mismo momento en que el rayo láser es lanzado desde la superficie de la Tierra, y dicha transacción termina exactamente a los 1.25 segundos. ¿Qué significa esto?. Significa que si supiéramos y pudiéramos construir un detector de media transacción (ansible), nuestro ping lunar sería detectado en la mitad de tiempo. Sería como si el fotón emitido por el láser hubiera viajado a dos veces la velocidad de la luz en el vacío. Pero, esa tecnología de los detectores de submúltiplos de transacción electromagnética no parece que se vaya a hacer realidad pronto, sobre todo si tenemos en cuenta qué teorías físicas imperan en la actualidad, y cuánto tiempo queda aún para que sean desterradas definitivamente. Los detectores de submúltiplos no serán realidad al menos hasta dentro de 1000 años o más, si tenemos en cuenta el ritmo real al que avanza la ciencia y la tecnología humanas.

Pero, podemos entrever cómo funcionaría un detector de submúltiplos. Cuando hacemos ping sobre la Luna, sabemos que observaremos el fotón reflejado al cabo de 2.5 segundos, y ese sería un suceso seguro, es decir, existiría una probabilidad p = 1 de que al cabo de 2.5 detectaremos el reflejo. Con un detector de submúltiplos de media onda, esa probabilidad se reduciría a la mitad si queremos detectarlo al cabo 1.25 segundos. Supongamos que nuestro ping contiene la información de un bit, representado por un 1. Entonces para detectar el submúltiplo con probabilidad segura, p = 1, necesitaríamos más de una antena, separadas espacialmente cierta distancia, cuantas más mejor. Pero, el problema se complica, ya que al estar separadas las antenas, no podremos integrar clásicamente la información completa en tiempos inferiores al de la latencia de la transacción.

¿Qué sería básicamente un ansible de submúltiplos (detector)?. Básicamente sería una antena multibanda. Supongamos que una antena normal, estándar, emite un único fotón hacia un ansible que se encuentra a 299792458 metros en el vació, y lo sintonizamos a media onda. Entonces, ¿seremos capaces de detectar el fotón en la mitad de tiempo, es decir, en 0.5 segundos¿. El ansible conseguiría ver un submúltiplo de ese fotón, no el de la frecuencia principal, con lo cual, la información sería redundante en todos y cada uno de sus múltiplos y submúltiplos, y cada uno llegaría a su ansible detector (no necesariamente el mismo) a un tiempo distinto.

Posted in Astrofísica, Cosmología, Física de partículas, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 1 Comment »

¿Qué es el universo?, ¿por qué existe?, ¿tuvo realmente un principio?

Posted by Albert Zotkin en abril 24, 2018

Hola amigos de Tardigrados. Hoy os voy a regalar algunas pinceladas autobiográficas, no exentas de sorna.

Cuando nací, hace ya muchos años, tuve una sensación muy desagradable, y lo recuerdo perfectamente. Alguien me azotó con fuerza, me puse a llorar, abrí los ojos y me vi boca abajo cogido por los pies, con el cordón umbilical ya cortado, y me pregunté que coño era todo esto. Cuando me di cuenta, mi llanto se agudizó con rabia. Me había dado cuenta de que había nacido el universo y de que me esperaba un arduo camino lleno de vicisitudes, hasta llegar a comprender totalmente el sentido que tenía todo esto.

Cuando llegué a los tres años de vida, un día me encontré jugando, en la calle de tierra, con un juguete de madera que mi padre había fabricado para mí. En un descuido, cuando me aburrí del juguete, alguien me lo robó. Mi madre me preguntó dónde estaba el juguete, qué había hecho con él, pero no supe qué responder. Me quedé un rato más sentado en la calle de tierra, miré hacia el final de la calle y vi al hijo del vecino jugando en la puerta de su casa con mi juguete, que ahora era suyo, porque mi juguete al ser abandonado por mi, tuvo la suerte de conseguir ser adoptado por un nuevo dueño. Nunca lo recuperé, ni supe más de él. Pero, aquel mismo día tuve un pensamiento lleno de lucidez en el mismo sitio donde me robaron el juguete. Ese pensamiento tan lúcido era el siguiente: “todo lo que existe, (que ahora llamamos universo) nunca tuvo un principio y nunca tendrá un final. Y esa es la razón más simple que explica todo lo complejo. Algo que es eterno no tiene necesidad de ser creado“.

Amigo lector, te estarás preguntado, cómo es posible que a mi corta edad, yo pueda haberme preguntado esas cosas tan profundas o incluso recordar el momento de mi nacimiento. El momento de nuestro nacimiento constituye un cambio de medio muy brusco. Es como darse un chapuzón en agua helada, el auténtico bautismo. A esa sensación, tarde o temprano la vistes con elementos reconocibles para poder ser recordaba. En cambio, el pensamiento cosmogónico que elaboré a los tres años de edad, no es la típica clase de pensamientos que se suelen tener los niños de esa edad, lo reconozco. También puede ser que todo haya sido un cúmulo de falsos recuerdos, y yo esté alucinando con ellos, creyendo que fueron reales alguna vez en mi experiencia vital.

Nacimiento del Universo

Siguiendo este razonamiento cosmogónico, podemos afirmar que todo lo que existe en el universo, no es que esté conectado de alguna manera, sino que es la misma cosa, aunque observada parcialmente y desde puntos de vista diversos. Por lo tanto, no es extraño, que lo que en física cuántica se llama “entrelazamiento cuántico“, sea en realidad, no entrelazamiento, sino la constatación de que todo en este universo es parte de todo. Nada está conectado, porque el concepto de conexión implica la existencia previa de entidades separadas, aisladas. El nexo universal, es pues la interconexión necesaria de algo que nunca estuvo separado, sino que cualquier parte es necesariamente coherente con todas las demás.

¿Por qué existe el universo?. Existe una corriente de consenso oficial, que yo suelo llamar sarcásticamente “mainstreamófila“, en la cual algunos de sus gurús exponen con orgullo preguntas estúpidas a cerca del universo, como por ejemplo esta: ¿”Por qué hay algo donde no debería haber nada“?. Es más que evidente que toda pregunta estúpida tiene la interesante propiedad de contestarse a sí misma. “Mire usted, hay algo, porque si no hubiera nada, nadie tendría la posibilidad de hacerse esa pregunta estúpida, ¿ok, tonto del culo?“. Preguntas de este estilo se las he oído a muchos “gurús“, que van por ahí dando charlas, y participando en debates, entrevistas, etc, y cobrando dinero por todo ello, y haciéndose los interesantes y super-inteligentes gallitos que todo lo saben. Uno de esos gallitos, es Bryan Greene, y en youtube puedes encontrar miles de videos, como este que pongo de muestra,

mostrando lo super-inteligentes que son todos estos “gurús” del “universo de pacotilla” que nos explican. La lista de estos gurús mainstreamófilos, que están ahí para darnos lecciones a todos, se extiende casi hasta el infinito. Además de Bryan Green, están Sean Carroll, Max Tegmark, y miles más.

Básicamente, todos son “influencers” de la corriente yanqui de la posverdad, donde el multiverso, la teoría de cuerdas, la supersimetría, y las ondas gravitacionales son algunos de sus pilares de sustentación, de sus carteras repletas de billetes, por adoctrinar a las masas con sus mierdas. He elegido ese video de youtube, al azar. Entras en youtube, escribes en la barra de búsquedas el nombre de algunos de estos gurús y te salen miles de videos encontrados, todos hablando de la misma mierda ( el Big Bang, las materia oscura, la energía oscura, los agujeros, negros, el multiverso, las ondas gravitacionales, etc, etc, etc). Y lo más gracioso de todo es que te lo venden como si fuera la Verdad Absoluta e Indiscutible. Respecto a la inflación cosmica, lo único que está inflado realmente es el ego de todos estos gurús, y sus respectivas billeteras.

Transcribramos y analicemos brevemente ese video que he puesto de muestra, de todos estos “gurús tan geniales“:

“La ultima pregunta”: ¿Por qué hay algo en lugar de nada”. Por todos los países esta cuestión ha desconcertado e intrigado a muchos filósofos, científicos y teólogos. Si resulta que es un universo eterno, o es una deidad eterna, parece que nadie ha podido responder con coherencia por qué eso debe ser así, en un sentido u otro. Sin embargo, hay al menos algo que sí podemos saber, algo que tiene una existencia innata, algo que se deja capturar racionalmente.

Max Tegmark: Por su puesto, si dices que existimos porque algo nos creó, y que antes otra causa creó a esa, etc. Entonces, siempre estarás buscando la siguiente causa que creó la causa anterior, nunca acabarás de buscar. Pero, yo creo que hay una especie de objeto real ahí afuera que fue claramente no creado. Y hay objetos matemáticos, como el cubo, por ejemplo, y no estoy hablando de cubos como terrones de azúcar, o que sea una especie de combustible físico, sino de un objeto matemático, conocido por los matemáticos como el cubo sobre un dodecahedro, sobre una esfera, o un espacio vectorial. Todos estos objetos existen, independientemente del espacio y el tiempo, existen claramente fuera de ese universo espacio-temporal. Ese cubo no fue creado hace 14 millones de años en el Big Bang, ¿verdad?. Y sin embargo, ves que ese objeto ya existe ahí, inmutable, perfecto siempre. Existe, y tienes la impresión de que ese objeto ya existía antes de que pensáramos en él, que nosotros no hemos inventado ese cubo. La idea de que ese objeto es un cubo no es una idea arbitraria, una idea que pueda ser inventada.

Esto explica por qué los objetos matemáticos existen, pero ¿por qué existen los planetas, las mentes, las rocas?

Bryan Greene: El multiverso simulado, aunque viene con mucho razonamiento directo en la matriz cuyos cerebros están siendo estimulados para pensar que están en una determinada realidad, aunque no lo estén, sino que son entidades simplemente instaladas en receptáculos de hardware, conectadas a un computador central. Ese podría ser el caso. La razón por la que yo hablo de esta idea en mi libro, no es porque me la tome en serio. Pero hay una conclusión interesante: que esta clase de razonamiento te permite hacerte la siguiente: pregunta ¿son las matemáticas una descripción de la realidad, o son por sí mismas la misma realidad?. ¿Son las matemáticas algo inventado, o es algo descubierto, algo que ya estaba ahí antes de que se nos ocurriera pensar en ello? ¿Son algo preexistente que ya formaba parte del tejido del tapiz que es la realidad?. El multiverso simulado del que hablo en mi libro, te da la posibilidad de hacerte es pregunta. Porque si tu y yo, formamos parte ahora mismo de la misma simulación informática. Eso esta muy bien, siento que es real para mí, y es un buen disfraz con el que la realidad nos quiere hacer creer que no estamos en ninguna simulación informática. Pero, imagina que abrimos ese computador donde se está ejecutando la simulación, y miramos lo que hay dentro, ¿qué veremos?. Lo que veríamos sería algo muy parecido a infinidad de ceros y unos siendo manipulados mediante infinidad de ecuaciones matemáticas. Por lo tanto, si eso es lo que somos, entonces, seríamos sólo matemáticas. Seriamos solo el despliegue, el resultado de aplicar ecuaciones matemáticas sobre objetos matemáticos, para transformarlos o crear otros nuevos. Y eso significaría que las matemáticas serían la misma realidad, la realidad misma.

Max Tegmark: Una de las cosas mas interesantes que hemos descubierto, a lo largo de los siglos, es que las matemáticas están por todas partes. Ya Galileo nos explicaba que la naturaleza, el libro de la naturaleza, está escrito en el lenguaje de las matemáticas, y después de que él hiciera esa observación, la gente fue descubriendo más y más regularidades, más simetrías, maravillosas relaciones matemáticas. Descubrieron y se sorprendieron de ver cómo con las matemáticas se podía modelar tan bien la realidad. Después se descubrió el Modelo Estándar de la Física de Partículas, Y la razón por la que yo creo que la naturaleza puede ser descrita tan bien mediante las matemáticas es que, en una ultima y muy profunda instancia, la naturaleza son matemáticas.
Y ahí está la respuesta a tu pregunta.
No, ni la naturaleza es en sí misma matemáticas, ni estamos en una simulación informática. Por mucho que se empeñen Bryan Green, Max Tegmark, y muchos otros gurús de la posverdad, en adoctrinarnos con sus ideas, nuestro universo, es real, no es una simulación, y tampoco está hecho de matemáticas. Si el universo fuera matemáticas, entonces sí habrían muchas probabilidades de que todo fuera una simulación informática. La prueba de que nuestro universo no es matemáticas está en que hay cosas que las matemáticas no puede modelar. Por ejemplo, la emergencia de la consciencia humana, no puede ser simulada desde procesos y estructuras matemáticas.

La mente humana nunca podrá comprenderse totalmente a sí misma, siempre quedarán recintos psíquicos inaccesibles. Pero, no hace falta ejemplos tan rebuscados para darse cuenta que las matemáticas no pueden modelar perfectamente la naturaleza, y menos identificarse con ella. El ejemplo más simple que se me ocurre es la suma 1 + 1 = 2. En esa sencilla ecuación hay un ejemplo perfecto de pérdida de información. Si nos dan el resultado, 2, y nos piden que hallemos los números desde los que alguien realizó la suma, nunca podremos saber qué sumandos fueron utilizados. Esa información se pierde de forma irreversible cuando se realiza la suma. Luego, las matemáticas no tienen memoria. Si la naturaleza fuera sólo matemáticas, sería un ente sin memoria. Supongamos, ahora, que la naturaleza, el universo, fuera el continuo resultado de una simulación informática ejecutándose en una especie de super-ordenador. Lo más parecido a eso que podemos imaginar sería un fractal infinito, como el que realicé hace ya algunos años con el titulo de “fragmento de Arrenia II

Yo poseo todo el código fuente, y todas las ecuaciones matemáticas necesarias para generar esa clase de fractales infinitos. Navegar por un mundo infinito de esas características, un mundo sin bordes, es muy aburrido. Cualquier parte se parece a cualquier otra, nada es especialmente interesante, todo aparece básicamente inerte y estático. La tercera dimensión se confunde con la cuarta, es decir, con la escala. Los colores son falsos. En un fractal solo existe la información de qué puntos pertenecen al conjunto y cuales no. Un punto está dentro o fuera del conjunto que caracteriza al fractal si cumple una serie de propiedades al ser evaluado desde una ecuación matemática. El fractal infinito Arrenia II podría perfeccionarse, y conseguir que aparecieran estructuras dinámicas, transformándose, naciendo unas de otras, incluso se podría conseguir que el observador que lo navegue sienta las texturas, la dureza o blandura, de las superficies de ciertas estructuras, o si están más calientes o frías que su tacto. Incluso podríamos conseguir introducir leyes físicas como la de la gravedad. Pero, Arrenia II seguiría siendo un fractal, infinito, pero fractal. Eso sí, sería más interesante de navegar ahora que antes, porque podrían existir zonas sorprendentes dispuestas a ser descubiertas, muy distintas a las zonas más comunes. Incluso podrían existir zonas que quedarían inaccesibles, eterna o temporalmente, para cualquier navegante-observador. ¿Cual es el problema con Arrenia II y con todo fractal infinito que intente ser una simulación de la realidad?. El problema esencial es ontológico. ¿Qué ocurre si un navegante-observador de esa simulación se encuentra con otro navegador-observador?. ¿puede eso ocurrir?. Y en el caso de que si pudiera ocurrir, ¿podrían interactuar?.

La prueba de que nuestro universo no es una simulación informática, ni nada parecido, es que los navegantes-observadores pueden encontrarse realmente e interactuar. Seres con su propia conciencia, seres inteligentes que te observan, mientras tú les observas a ellos, que te saludan, que te hablan. En una simulación, sólo navega-observa el que está fuera de la simulación. nunca quien está dentro de ella. No se puede nadar y guardar la ropa al mismo tiempo.

Saludos

Posted in Astrofísica, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 27 Comments »

Primer siglo sin Einstein en la Era de Acuario: El origen de la inercia

Posted by Albert Zotkin en enero 26, 2018

¿Es pronto aún para evaluar los estragos causados por las teorías de Einstein (la general y la restringida) en el árbol de la ciencia y la tecnología?. En realidad, el señor Einstein no tuvo toda la culpa de que sus teorías se implantaran como paradigma actual de la física teórica, y más concretamente de la física de la gravitación universal. De hecho, aún estamos sin saber qué es realmente la gravedad, y una teoría cuántica de la gravedad parece aún algo utópico de alcanzar. Ningún avance tecnológico se ha producido basado en los dictados de la Teoría General de la Relatividad de Einstein, y menos en la Restringida o Especial. Por ejemplo, la cacareada afirmación de que el sistema de geolocalización global GPS funciona gracias a que tiene incorporadas rutinas para hacer correcciones relativistas basadas en las teoría de Einstein es falsa. Se ha demostrado, no sólo que el GPS puede funcionar correctamente sin esas correcciones relativistas, sino que son innecesarias, y lo único que consiguen es complicar todo el proceso computacional para al final dar el mismo resultado que da la física clásica de Newton, aunque, eso sí, con el efecto Sagnac debidamente calculado y tenido en cuenta. Por cierto, un efecto Sagnac que las teorías de la relatividad de Einstein no pueden explicar, por mucho que se empeñen sus santones en convencernos de lo contrario.

Efectivamente, la relatividad de Einstein tiene santones (defensores a ultranza de sus dogmas) como cualquier religión o secta. La enrevesada matemática de la Relatividad General hace casi imposible, no ya para un profano, sino para cualquiera que se llame experto en la materia, usarla con éxito para el cálculo práctico de algo en concreto. Con las ecuaciones de Newton para la gravitación se puede llegar hasta resolver analíticamente el problema de los dos cuerpos, y el problema de los tres cuerpos hasta se puede resolver para ciertos casos y condiciones iniciales sin dar soluciones caóticas. Con la Relatividad General de Einstein es prácticamente imposible resolver nada, y un problema de multi-cuerpo, como es el de la gravitación a nivel de galaxias y cúmulos, se hace intratable ad infinitum. De hecho el legado de Einstein consiste en que gozamos de una serie de anomalías y paradojas que lo único que consiguen es poner palos en la rueda del progreso científico, porque se dedica mucho esfuerzo intelectual, de recursos humanos y económicos a falsar temas teóricos que lo único que consiguen es bloquear más aún las mentes hacia el entendimiento y el avance científico real. Ejemplo de esas anomalías es la llamada materia oscura, un conundrum que consume grandes cantidades de recursos para ser esclarecido (intentan por todos los medios descubrir las partículas de materia oscura). Pero no quieren darse cuenta, que la única forma real de resolver ese enigma consiste en desechar la Relatividad General y proponer un modelo mejor, otra teoría de la gravitación que prediga el mismo efecto, pero sin materia oscura, y que sea capaz también de predecir otros efectos gravitacionales explicados y/o inexplicados por la teoría reinante actual. El problema de desechar la Relatividad General es que está demasiado integrada en los fundamentos de la física actual, y desecharla implicaría derribar todo el edificio, y nadie está dispuesto a derribar su casa ni su centro de trabajo sin tener garantizado otro mejor al que acudir a trabajar o a vivir, en eso consiste la definición de paradigma.

Pero, la cuestión que me ha movido hoy a escribir este pequeño artículo no es otra que el tema de qué es la inercia, y como encaja dentro de la gravitación universal. A nadie se le debe ocultar el hecho de que a la física clásica de Newton se le escapan muchas cosas, porque el diablo está en los detalles, aunque básicamente la podemos considerar correcta. Una de las cosas que se le escapa es por qué existe la inercia. A menudo se dice que la ciencia debe describir hechos. nunca explicar sus causas. Pero, me parece a mi que eso lo dicen siempre aquellos ignorantes que son incapaces de saber las causas científicas. ¿Por qué es más importante saber las causas que describir sus efectos?. Por la sencilla razón de que sabiendo la causa puedes explicar más de un efecto. Es decir, una única causa puede ser el origen de muchos efectos diferentes, que aparentemente parecían inconexos. Por ejemplo, la física de Newton no predice correctamente el funcionammiento de un giroscopio, aunque a primera vista pudiera parecer lo contrario. Observemos con atención cómo el siguiente giroscopio, cuando está en funcionamiento, parece que sea capaz hasta de levitar:

En un giroscopio no sólo existe inercia giroscópica, también existe la llamada precesión y la llamada nutación. Pero todo esos efectos tienen una única causa. Una causa que, simple y llanamente, nos está diciendo que la gravedad posee una velocidad finita de propagación, aunque es muchos miles de ves más grande que la velocidad de la luz en el vacío.

Veamos ahora un bonito ejemplo de cómo la velocidad de la gravedad es finita y más grande que la de la luz. Desde hace ya más de un siglo se viene afirmando que la Relatividad General de Einstein predice con pasmosa exactitud la precesión extra del perihelio del planeta Mercurio que la física clásica de newton es incapaz de predecir. Eso es correcto, esa predicción es muy exacta, pero lo que a menudo se olvida, o peor aún se ignora, es que antes que Einstein ya hubo alguien, un tal Paul Gerber, que pudo predecir con la misma precisión, si cabe, lo mismo, aunque desde planteamientos muy diferentes. En su documento histórico “Die Fortpflanzungsgeschwindigkeit der Gravitation” publicado en Annalen der Physik, Vol. 52.¡, nos detalla minuciosamente todos sus pasos y fundamentos hasta llegar a su famoso Potencial Gravitatorio de Gerber, FG, cuya ecuación posee el siguiente aspecto

\displaystyle  \Phi_G(r)=-{\frac {GM}{r\left(1-{\frac {1}{c}}{\frac {dr}{dt}}\right)^{2}}} (1)
donde M es la masa del cuerpo central, r es la distancia del cuerpo test (de masa insignificante comparada con M) al centro de M, c es la velocidad de la gravedad, que en este supuesto de Gerber, coincide con la velocidad de la luz, y donde dr/dt es la velocidad radial del cuerpo test que gravita alrededor del cuerpo principal (Mercurio alrededor del Sol, por ejemplo). Y si expresamos esa ecuación desde una expansión binomial tenemos esta otra:

\displaystyle  \Phi_G(r)=-{\frac {GM }{r}}\left[1+{\frac {2}{c}}{\frac {dr}{dt}}+{\frac {3}{c^{2}}}\left({\frac {dr}{dt}}\right)^{2}  + {\frac {4}{c^{3}}}\left({\frac {dr}{dt}}\right)^{3} \dots  \right] (2)
El problema del Potencial de Gerber es esencialmente que sólo puede explicar las anomalías de precesión, pero otras predicciones de gravitación quedan bastante desdibujadas si se aplican esas ecuaciones Gerberianas. ¿Por qué?. De hecho la Relatividad General tuvo un éxito tan rotundo porque ofrecía respuestas muy revolucionarias para la época a todos esos efectos que aún permanecían inexplicados por la teoría clásica. Pero en el fondo existe algo mucho peor que todo eso. La Relatividad General venia a sustituir definitivamente a la Gravitación de Newton, ofreciendo afirmaciones sobre algo muy extraordinario llamado espacio-tiempo, y cómo una supuesta curvatura del mismo podía predecir todos y cada uno de los fenómenos y efectos conocidos y por conocer del universo entero. La mente humana quedó definitivamente seducida por algo encantador y de una belleza matemática sin igual. Sin embargo, a pesar de esa obnubilación del ánimo y la mente racional debida a las artimañas relativistas, aun es posible recuperar la sensatez racional y entrever de qué va todo esto.

El potencial de Gerber es básicamente el potencial gravitatorio de Newton pero con un factor de retardo debido a que la velocidad de la gravedad es considerada finita. Gerber, y después Einstein, nos dice que esa velocidad de la gravedad es igual a la velocidad de la luz, c. En cambio, Newton quedó estupefacto al verse forzado a admitir que su gravitación universal solo podía funcionar si la velocidad de propagación de la gravedad era considerada infinita, es decir, instantánea. Pues mire usted por donde, que no va a ser ni una cosa ni la otra, sino que en el termino medio está la virtud. Es decir, ni infinita ni la velocidad de la luz c, sino una magnitud intermedia que podría ser miles de veces c, según los casos. Y la razón de todo esto la tiene el momento cuadrupolar del Sol. Se lanzó de una forma demasiado aventurera la Relatividad General de Einstein a explicar la precesión extra del perihelio de Mercurio, sin que en principio se supiera cual era el momento cuadrupolar del Sol. De hecho, aún hoy en día se desconoce el valor exacto de ese momento cuadrupolar del Sol, y esa ignorancia hay que “agradecérsela” al paradigma actual, que nos impide hacer sustituciones en fundamentos de física teórica. Aceptar que la precesión observada del perihelio de Mercurio se debe enteramente al momento cuadrupolar del Sol sería enterrar definitivamente la Relatividad de Einstein. Algo tan revoluoinario y escrito con matemáticas tan bellas, tirado a la papelera por algo que nadie quería mirar de frente y con los ojos bien abiertos, preferían la sopa boba del dogmatismo irracional, que es la que les da de comer. Al final, siempre queda la física de Newton, pero alterada con factores, que según los casos explican y predicen todos y cada uno de los efectos y anomalías. Este momento cuadrupolar nos dice que el Sol al girar deja de ser una esfera perfecta y presenta cierto achatamiento en los polos, adquiriendo una forma oblonga, lo mismo que le pasa al planeta Tierra, pero de forma aún más pronunciada.

Presentemos ahora el momento cuadrupolar del Sol como factor de corrección aplicado a un potencial Newtoniano F(r): La formula general para los distintos momentos es la siguiente

\displaystyle \Phi(r) = -\frac {G M }{r}\left[1- \sum_{n=1}^{\infty} \left(\frac{R_s}{r}\right)^2 J_n P_n (\cos \theta)\right] (3)
En coordenadas polares (r, ?, f), donde Rs es el radio del Sol, Pn son polinomios de Legendre de grado n, y Jn son los distintos coeficientes para modelar las distorsiones de la esfera en sus diferentes grados. El momento cuadrupolar de grado 2, el J2, es el que explica casi en tu totalidad la anomalía del perihelio de Mercurio.

Ya empezamos a vislumbrar ciertas similitudes entre el potencial de Gerber, FG, expresado en las ecuaciones (1) y (2) y el potencial gravitatorio Newtoniano corregido F(r). Efectivamente, lo que para Gerber era un retardo gravitacional de la propagación, aquí es ahora un simple momento cuadrupolar. Por lo tanto, lo que antes era una velocidad de la gravedad igual a la de la luz c, ahora es aquí una velocidad Newtoniana instantánea, como clásicamente se ha de considerar, o también como una velocidad superlumínica muy superior a c. Es más que evidente que en las ecuaciones (1) y (2), el factor que está entre corchetes es una corrección multipolar del campo gravitatorio, y dentro de ella se encuentra el sumando cuadroplar que es muy significativo para el caso del Sol como cuerpo central respecto de la órbita de Mercurio. Por esa razón, la llamada gravedad de Gerber no puede ser aplicada para predecir otros efectos distintos, como la deflexión de la luz, etc, ya que, como digo, el factor entre corchetes sólo corrige la precesión de satélites alrededor de cuerpo central, y el campo gravitatorio sigue siendo el clásico Newtoniano.

¿Cuál es el problema?. Si el valor exacto del momento cuadrupolar del Sol sigue siendo desconocido, y a fecha de hoy sabemos que sigue desconocido, ¿en qué lugar queda la Relatividad General, si toda la anomalía de la precesión del perihelio de Mercurio puede ser explicada desde el conocimiento exacto del momento cuadrupolar del Sol y con sólo la física clásica de Newton?.

APÉNDICE: Y para aquellos incrédulos que aún se resisten a admitir que la velocidad de la gravedad es miles de veces mayor que la velocidad de la luz en el vacío, aquí va un pequeño apéndice final: Demostraré que la velocidad de la gravedad se puede deducir incluso observando un péndulo simple batiendo segundos en la superficie terrestre:

1. El potencial gravitatorio clásico en la superficie de la Tierra viene dado por la ecuación F = – GM / R, y la de la intensidad de la gravedad por g = G M / R2

2. Por otro lado, sabemos ya que el potencial gravitatorio puede ser expresado asi:

\displaystyle  \Phi= -\cfrac{G\ M}{R}= -\cfrac{c^4}{c_g^2}    (4)
donde c es la velocidad de la luz, y cg es la velocidad de la gravedad, en el sistema gravitatorio terrestre. Y eso indica que la intensidad de la gravedad se puede expresar también así:

\displaystyle  g= \cfrac{G\ M}{R^2 }= \cfrac{c^4}{R c_g^2}    (5)
3· Dispongamos ahora de un péndulo simple, de longitud de hilo L, en la superficie terrestre, que bata segundos. Su periodo de oscilación será:

\displaystyle   T=2\pi {\sqrt  {L  \over g}}\,  (6)
4· Sustituyendo g de ecuación (5) en ecuación (6), y despejando cg tenemos:

\displaystyle  c_g=\frac{T c^2}{2 \pi  \sqrt{L R }}  (7)
5. Y como hemos dispuesto el péndulo para que bata segundos, su periodo será de T = 2 s, por lo que la longitud de su hilo será:

\displaystyle      L = g\left( \frac {T}{2\pi } \right)^2  = 0.994 \;\; \text{m}  (8)
6. Simplificando la ecuación (7), y sin perder de vista el correcto análisis dimensional:

\displaystyle  c_g=\frac{c^2}{\pi  \sqrt{0.994  R }}  (9)
7. Sólo resta introducir los valores de las magnitude de c y R (radio de la Tierra) para saber la velocidad de la gravedad en la superficie terrestre.

\displaystyle  c = 3 \times 10^8\;\; \text{m/s} \\ \\  R = 6.378  \times 10^6 \;\; \text{m} \\ \\ c_g=\frac{(3 \times 10^8)^2}{ \pi  \sqrt{0.994  (6.378  \times 10^6) }}= 1.13778\times 10^{16}\;\;  \text{m/s} \\ \\ \\  c_g=3.79259\times 10^7 c  (10)
Es decir, si mis cálculos no son incorrectos, obtenemos, en la superficie de la Tierra, una velocidad de la gravedad igual a casi 38 millones de veces la velocidad de la luz c.

Saludos

Posted in Astrofísica, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 24 Comments »

Aprendiendo a sombrear con gravitones en las cercanias del pulsar binario PSR 1913+16

Posted by Albert Zotkin en diciembre 3, 2017

A menudo se afirma que el decaimiento de las órbitas de los pulsares binarios constituye una prueba de la existencia de ondas gravitacionales tal y como predice la Teoría General de la Relatividad de Einstein. Y se conforman con admitir que eso sólo sería una prueba indirecta de tal existencia.

Hoy vamos a viajar hacia la constelación del Águila. aquilaDejaremos atrás a su estrella más brillante, Altair, que sólo se encuentra a 17 años-luz de nosotros, y nos adentraremos a una profundidad de unos 21 mil años-luz, pero sin salir de la Vía Láctea. Nos situaremos en las inmediaciones de un pulsar binario muy conocido, el PSR 1913+16, cuya localización exacta en el cielo es ascensión recta : 19h 13m 12.4655s declinación : 16° 01′ 08.189?. Este pulsar binario está formado por dos estrellas de neutrones, que orbitan en dos órbitas elípticas alrededor de un baricentro común (centro de masas) en el mismo plano.

Ese par de estrellas de neutrones se mueve cada una en su órbita elíptica según las leyes de Kepler. En cada instante las dos estrellas se encuentran en oposición, formando una linea recta junto con el baricentro (centro de masas). El periodo de cada órbita es de unas T = 7.75 horas, y se cree que ambas estrellas poseen casi la misma masa M = 1.4 masas solares. Sus dos órbitas son bastante excéntricas. La separación mínima cuando se encuentran en sus respectivos periastros es de d = 1.1 radios solares, y la separación máxima, cuando se encuentran en sus respectivos apastros es de D = 4.8 radios solares.

Ayer hice esta pequeña animación en flash que simula el pulsar binario PSR 1913+16. Usé un sencillo actionsscript y algunas figuras geométricas simples. Pero, lo más importante que cabe decir es que no programé el decaimiento de las dos órbitas. Ese decaimiento emerge naturalmente del cómputo de las posiciones de ambos cuerpos. La pregunta es ¿por qué emerge decaimiento orbital en esos dos cuerpos?. La respuesta está en la capacidad de los registros de las variables que usa el actionscript (programa informático de flash). Usando las leyes de Kepler para esos cómputos, resulta que a cada paso evolutivo del sistema se pierden algunos decimales de precisión en las variables resultantes que serian necesarios para mantener las órbitas estables en su tamaño original. Al cabo de unos cuantos pasos de evolución del sistema, obtenemos un notable decaimiento de las órbitas. El actionscript de flash nos ha proporcionado una idea muy intuitiva de en qué podría consistir la gravedad cuántica, o por lo menos un aspecto de la misma. Sí, la gravedad cuántica tendría mucho que ver con la pérdida de información que la naturaleza necesitaría para mantener la estabilidad de sus sistemas orbitales. Pero, si nos fijamos también en la precesión de los periastros de ambos cuerpos de ese sistema gravitatorio binario, vemos que esa precesión podria deberse al hecho, inadvertido en la astrofísica oficial, de que existe sombra gravitacional, la misma que explica la precesion total del perihelio del planeta Mercurio, la misma que explica lo que la astrofísia oficial se empeña en llamar materia oscura, la misma que explica la anomalía de flyby , la misma que explica la anomalía de las sondas Pioneer mejor que la explicación oficial.

En resumen:

  1. El decaimiento orbital en los sistemas gravitatorios se debe al hecho irrefutable de pérdida de información cuántica en sus procesos computacionales.
  2. La precesión total del periastro de las órbitas en los sistemas gravitatorios se debe a la sombra gravitacional que los cuerpos másicos producen al paso de los gravitones, de forma muy similar a cómo los cuerpos opacos producen las sombras tras ellos al paso de los fotones. La sombra gravitacional produce un acercamiento efectivo del centro de masas del sistema hacia el cuerpo orbital test, y por lo tanto, una aceleración extra de su velocidad orbital.

Ahora explicaré brevemente la pieza principal de código en actionscript que genera esa simulación:

function update(m) { var cm_x; var cm_y; if(_root.r_frame==null){ cm_x=Stage.width/2; cm_y=Stage.height/2; }else{ cm_x=_root.r_frame._x; cm_y=_root.r_frame._y; } var r = Math.sqrt(Math.pow((m._x-m.target_body._x),2)+Math.pow((m._y-m.target_body._y),2)); var accel = 30*target_body.mass/Math.pow(r,2); var cosx=(m._x-m.target_body._x)/r; var cosy=(m._y-m.target_body._y)/r; var accel_x = accel*cosx; var accel_y = accel*cosy; var s=1; m.speed.x-=accel_x; m.speed.y-=accel_y; m._x+=m.speed.x-cm_x+Stage.width/2; m._y+=m.speed.y-cm_y+Stage.height/2;

s=(m._y-m.target_body._y)<0?-1:1; m._rotation=s*Math.acos(cosx)*180/Math.PI90; }

La función update toma como único parámetro al clip m, que representa a uno de los dos astros del sistema, y que tiene una serie de propiedades predefinidas, como sus coordenadas espaciales _x, _y, o su su masa m. Cuando pasa por el render de flash un frame, la función update actua sobre cada uno de los dos clips que representan a las dos estrellas de neutrones del sistema y actualiza sus coordenadas relativas al centro de masas. Es importante resaltar que el movimiento de los dos cuerpos, aunque aparentemente parecen trazar movimientos elípticos que cumplen las leyes de Kepler, en realizad sus trayectorias no son elipses, porque decaen. Por lo tanto, no uso ecuaciones de elipses sino que todo nace la ecuación de Newton de la aceleración que es inversamente proporcional al cuadrado de la distancia y directamente proporcional a la masa del otro cuerpo. ¿Cómo se actualizan las coordenadas espaciales de cada astro?. La idea es simple. Desde cada frame a la coordenada _x hay que sumarle o restarle la componente de velocidad speed.x, y lo mismo para la coordenada _y. Vectorialmente hablando, sería obviamente, para cada frame, calculamos la aceleración de cada astro y la sumamos a la velocidad, y después sumamos la velocidad al vector posición. Estas sumas son coherentes dimensionalmente porque a cada frame se está considerando un paso diferencial muy pequeño de cada una de esas variables.

Por lo tanto la razón por la que esas órbitas decaen, no está escrita en la ley universal de gravitación, sino que es un artefacto del hardware que ha de ejecutar fisicamente el programa. Las variables de aceleración, velocidad, solo pueden ejecutarse fisicamente si poseen precisión limitada a su registro fisico. Si son registros que almacenan números de coma flotante, pueden llegar a una capacidad de hasta 64 bits por registro. Por lo tanto, puesto que la Ley Newtoniana implica, como mínimo, el cálculo de raíces cuadradas para hallar las coordenadas de posición, resultará siempre en una pérdida de precisión al ser almacenada en los registros finitos del hardware.

¿A dónde nos lleva todo esto?. Nos lleva al hecho de que la naturaleza no necesita ondas gravitacionales, ni materia oscura, ni energía oscura, ni nada que se le parezca para funcionar. Todo es cuestión de elegir los modelos teóricos que mejor la describen a cualquier escala. La naturaleza simplemente computa sus estados a partir de sus estados anteriores, pero eso sólo lo puede hacer si su precisión a cada paso (quizás a cada tiempo de Planck) no es infinita. Nuestro universo se parece mucho a una simulación informática, y eso significa que su fractalidad no es infinita a cualquier escala, sino que a partir de cierto nivel, dejan de tener sentido ciertas magnitudes físicas y emergen otras que aun desconocemos.

Saludos Keplerianos a todos 😛

Posted in Astrofísica, Gravedad Cuántica, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , | 3 Comments »

La fe en las ondas gravitacionales mueve montañas: Cuando confundes el cero con la indeterminación no apuntas a una kilonova sino a una cero-nova

Posted by Albert Zotkin en octubre 20, 2017

¿Qué ocurrió el 17 de Agosto de este año 2017?. Si leemos el interesante artículo del prestigioso divulgador científico Govert Schilling que escribió el otro día para la revista Sky & Telescope titulado “Astronomers Catch Gravitational Waves from Colliding Neutron Stars”, nos dice lo siguiente:
… El Jueves 17 de Agosto a las 12:41:05 horas UTC, LIGO cazó su quinta señal gravitacional confirmada, denominada ya la GW170817. Pero esta señal duró mucho más que las cuatro primeras: en lugar de una fracción de segundo, como en las anteriores detecciones, esta vez las ondulaciones del espaciotiempo duraron unos grandiosos noventa segundos, y la frecuencia se incrementó desde unas pocas decenas de hercios hasta un kilohercio – que es la máxima frecuencia que LIGO puede observar.
Esa señal gravitacional es la esperada por la teoría para dos estrellas de neutrones que orbitan estrechamente la una sobre la otra y con masas ligeramente inferiores a dos masas solares cada una. Daban cientos de vueltas por segundo, la una alrededor de la otra (mas rápido que la batidora que tienes en tu cocina), con lo que la velocidad tangencial de cada una de ellas era una fracción significativa de la velocidad de la luz. Las ondas que estaban siendo emitidas por ese par de masas acelerando centrífugamente vaciaban rápidamente el sistema binario de energía orbital, y al final las estrellas acabaron chocando. Esa colisión ocurrió a una distancia de la Tierra de unos 150 millones de años-luz.
Los astrónomos ya conocían la existencia de estas estrellas binarias de neutrones desde 1974, cuando Russell Hulse y Joseph Taylor descubrieron la primera, con una separación entre ellas de unos pocos millones de kilómetros y un periodo orbital de 1.75 horas. Pero, la separación y el periodo cambian con el tiempo. De hecho, para las estrellas binarias el periodo orbital decrece lentamente con el tiempo a lo largo de los años, y la Teoría General de la Relatividad de Einstein predice ese decrecimiento con mucha precisión afirmando que la energía orbital que pierde el sistema es la misma que poseen las ondas gravitacionales que emite. Dentro de unos 300 millones de años, según la teoría, la binaria Hulse-Taylor colapsará. …
Bien, ya sabemos cómo se comportan los sistemas binarios: decaen según la Teoría General de la Relatividad. Pero lo que a mi me interesa ahora es poner el énfasis en la fecha y hora de la supuesta observación de LIGO, que dicen que fue a las 12:41:04 horas UTC (Tiempo Universal Coordinado). Evidentemente, si vamos a los archivos de sus bases de datos, nos ofrecerán en bandeja los datos en crudo captados por los detectores a esa hora, que es siempre lo mismo, un ruido Gausiano de fondo, como el de un televisor encendido cuando no sintoniza ninguna emisora, sólo ruido que llega desde todas direcciones a la antena. Ese ruido, en cada uno de los detectores, pasa por una serie de filtros y plantillas de forma automática (o no), es decir, es procesado. A mí me da que ese procesado es muy parecido al que hacen los estadísticos con sus encuestas, lo cocinan al final de tal forma que hay sesgo para que salga más de lo que ellos esperan que otra cosa. Si pones un filtro rosa, el preparado saldrá rosado, si lo pones azul, el pájaro saldrá azulado, ahi está el sesgo, en las plantillas y filtros del procesado. Fijémonos ahora lo que dice nuestro divulgador científico Govert Schilling en el mismo artículo suyo respecto a la colaboración europea VIRGO, la cual, ya te lo digo yo, no vio el evento GW170817 de marras. Pero, se supone que LIGO necesitaba como agua de Mayo esa señal de VIRGO, que nunca le llegó, para poder triangular y localizar las coordenadas celestes del evento GW170817
… Encontrar contrapartidas ópticas, ya sea para las ondas gravitacionales de Einstein o para estallidos de rayos gamma, ayudaría bastante a la hora de dejar el asunto bien zanjado. Desgraciadamente, los astrónomos no siempre pueden localizar con precisión en el cielo las fuentes de las señales que observan. Por ejemplo, la franja de error del telescopio espacial Fermi mide un diámetro de unas pocas decenas de grados (la Luna llena en el cielo ocupa medio grado de diámetro a nuestro ojo). Y el satélite Swift de la NASA, que a veces capta eventos de Fermi con su telescopio de rayos-X, que es más preciso, no vio ninguna emisión de rayos-X trás la emisión GRB 170817A.

En cuanto a la señal de ondas gravitacionales se refiere, la situación aparecía incluso peor. El evento fué observado por los dos detector LIGO, el de Hanford en en el estado Washington y el de Livingston en Louisiana (aunque se tardó un poco más de tiempo en Livingston hasta que la señal pudo por fin ser recuperada después de un fallo técnico). De la pequeña diferencia de llegada de la señal en ambos detectores (unos pocos milisegundos) fue posible trazar el origen de las ondas gravitacionales, situándolo en el cielo dentro de una estrecha franja alargada en forma de banana. Pero aunque esa banana era extremadamente fina, en este caso particular, también era extremadamente larga.

Esa fina y alargada banana de LIGO atravesaba la franja de error de Fermi, en la constelación de La Virgen y La Hidra. Desgraciadamente, la región donde se solapaban era aún demasiado extensa como para poder enfocar una búsqueda exitosa para contrapartidas ópticas del evento, el cual podría ser extremadamente débil.

Pero, esperen un momento – ¿qué pasa con el tercer detector de ondas gravotacionales situado en Italia?. VIRGO ha estado funcionando en tandem con LIGO desde el 1 de Agosto. Las diferencias en los tiempos llegada de ondas para tres detectores hace posible que la triangulación de la localización de la fuente sea mucho más precisa. De hecho, eso fue exactamente lo que ocurrió tres días antes con el evento GW170817 de dos agujeros negros funciéndose. Por lo tanto, ¿no podrían las observaciones de VIRGO del GW170817 proporcionar alguna respuesta?.

Casi dos meses despés de los eventos, Vicky Kalogera aun está con la adrenalina alta cuando explica el papel que el observatorio europeo VIRGO tuvo en la resolución del caso. “En Agosto”, dice ella, “yo estaba de vacaciones con mi familia en Colorado y en Idaho, desde donde observaríamos el 21 de Agosto el eclipse total de Sol. Prometí que no estaría trabajando durante esos días. Entonces vino el GW170814 y tres días más tarde el evento de las estrella de neutrones. Desde entonces he estado trabajando con mi portatil y telecomunicada.

Sorpendentemente, nos cuenta, VIRGO, no se disparó con el GW180817. La señal de la onda de Einstein de 90 segundos de duración de las estrellas de neutrones fusionándose apenas si quedó registrada, aunque el instrumento europeo no habria tenido ningún problema para detectarla. “Lo nuevo de todo esto” dice Kalogera, ” es que la no detección de VIRGO se convirtió en la clave para localizar la fuente”

Los interferómetros laser como los de LIGO y VIRGO pueden detectar ondas gravitacionales desde casi cualquier dirección,. Pero, debido a su diseño, hay cuatro regiones en el cielo sobre el horizonte local del instrumento para las que la detección es mucho más debil que la media. En el mismo centro de esas regiones hay puntos ciegos. VIRGO no registró ninguna onda gravitacional intensa porque la fuente de esas ondas estaba localizada cerca de uno de sus puntos ciegos.

Resultó que ese punto coincidía con la región de solapamiento entre la banana de LIGO y la franja de error de Fermi. Dados los límites superiores en la seña de VIRGO, los astrónomos pudieron cercar más estrechamente esa región del cielo y definir un área de tan sólo unos 28 grados cuadrados.
Todo muy bonito ¿verdad, amables lectores?. Resulta, según nos cuentan, que debido a que VIRGO no observó onda alguna, se pudo definir con mayor precisión donde estaba la fuente. Es decir, la triangulación es como sigue: a la franja de error de Fermi se le intersecta la banana de LIGO, y después a la región que queda se le intersecta la de uno de los cuatro puntos ciegos de VIRGO, para definir al final la región donde esta la fuente, y por lo tanto hacia donde mirar para ver las contrapartidas ópticas.

Una pregunta muy capciosa: ¿Y si VIRGO sí hubiera visto la onda gravitacional, pero al trinagular con LIGO hubiera dado una región fuera de la franja de Fermi?.

Otra pregunta capciosa. VIRGO tiene cuatro puntos ciegos ¿por qué se elige aquel que coincide con la franja de solapamiento y se desechan los otros tres?

Otra pregunta capciosa: ¿Por que se asume que VIRGO detectó algo, siendo perfectamente posible que pudo no haber detectado nada? y en tal caso, ¿Por qué regla de tres, una no-detección que es una indeterminación se transforma por arte de magia en una si-detección?.

Para divertirme un poco, y comprobar el efecto de toda esta capciosidad, me pasé ayer por el blog de la Mula Francis en Naukas, en el que estoy vetado de por vida, por decirle las verdades. Asi que entré con el nombre y el correo de mi amiga Conchi en la sección de comentarios de su post Las alertas de las señales GW170817 (LIGO-Virgo) y GRB 170817A (Fermi/Integral), y dejé lo siguiente, con sus correspondientes réplica y contrarréplica:
Concha Cuetos Concha Cuetos

Hola queridísima Mula Francis. Tengo unas cuantas preguntillas capciosas para ti, porque sé que te gustan mucho, y siempre te hacen mucha gracia.

Los interferómetros tipo advanced-LIGO como el de Virgo tienen cuatro ángulos muertos, no uno, como pareces sugerir en tu artículo.:

1. ¿Por qué eligen, de los cuatro posibles ángulos muertos de Virgo, el que cae dentro de la franja de error del evento GRB 170817A que observó Fermi?.
2. ¿Es porque alguien cómodamente en su despacho intentaba cuadrar números?.
3. ¿No te parece la decisión de elegir el angulo muerto que más favorece la hipótesis un sesgo brutal que pasará a los anales de la historia?. Hay cuatro, pero elegimos el mejor, de los otros no nos vale ninguno.
4. ¿Convertir una no-detección de Virgo en una sí-detección de ángulo muerto no te parece algo tan elaborado como la más grosera de las cocinas estadísticas (a posteriori) para favorecer los resultados que más le gustan al cliente que hizo el pedido?.
5. ¿No te parece sospechoso que, como cuentas, “el sistema de detección automático rechazó la señal de L1 porque vino acompañada de un ruido espurio localizado (glitch) de origen instrumental”, pueda ser interpretado por algunas mentes retorcidas, conspiranoicas y espurias como algo muy similar al tiempo muerto que pide el Real Madrid de baloncesto cuando va perdiendo contra el Barcelona por 89 a 91 en el último minuto y necesitan un triple en el último segundo para ganar?.
6. ¿No será que ese tiempo muerto fue crucial para poder elegir el ángulo muerto que mejor cuadraba con lo que observó Fermi?.
7. ¿Si todo hubiera sido tan automático y tan en tiempo real como intentan vendernos, qué habría pasado si, contando todos los puntos muertos del sistema de la LVC, que ya te lo digo yo, suman doce, y todos equiprobables por definición, el sistema automático hubiera dado como resultado otro muy distinto al que dio la mano humana que manejó los datos finales?.
8. La fe mueve montañas, ¿verdad?. Cocina estadística, ocultismo, sesgos, ruidos correlacionados ignorados, mucho ruido mediático y pocas nueces cientificas serias. La LVC se ha metido en un callejón sin salida, y cuando se desinfle el suflé, todo quedará en una especie de BICEP 3.

Querida Mula Francis, me gusta mucho la ciencia, pero lo que nos cuenta la LVC no puedo admitirlo como ciencia seria, por muchos cientos de trillones de colaboradores que puedan tener en todas las universidades del mundo, ni por todo el crédito oficial que se le otorgue. No me creo la verdad que nos cuenta la LVC, lo siento mucho querida Mula Francis. Te admiro mucho, pero no soporto ese tufillo trilero que nos llega de la LVC. Para sacar conejos de la chistera, me gusta más la magia de David Copperfield. No soy tan ingenua, a mi los trucos de magia geniales y los “oh” de admiración me gusta verlos y oírlos en los escenarios de teatros y platós de television como algo frívolo que divierte al público en general, no en conferencias ni en ruedas de prensa donde supuestamente deben anunciarse asuntos científicos serios. Está claro que no soy muy partidaria … de todo este espectáculo mediático que han conseguido montar.

Saludos de una admiradora, que te lee siempre que puede

 

Francisco R. Villatoro Francisco R. Villatoro

Concha, puedes imaginar todas las conspiraciones que quieras, eres libre de ello, pero la ciencia no funciona así. En ciencia se aprovechan todos los datos disponibles para optimizar la toma de decisiones. Y por supuesto son los científicos quienes lo hacen, ese es su trabajo, mientras no tengamos máquinas o inteligencias artificiales que los sustituyan.

Las ondas gravitacionales son cuadripolares, luego H1, L1 y V1 tienen cuatro puntos ciegos (esta figura muestra los de V1), pero solo uno cae en la región localizada por H1 y L1 (o los otros tres están fuera). Mis respuestas: (1) esta figura lo aclara; (2) ver (1); (3) ver (1); (4) ver (1); (5) no; (6) no; (7) así no funciona LIGO-Virgo; (8) no, lo siento, la fe no mueve montañas.

 

Concha Cuetos Concha Cuetos

Querida Mula Francis, gracias por contestar a mis preguntillas capciosas. Pero, sigue habiendo algo que no me cuadra en la metodología usada por la LVC para encajar la localización de su supuesto evento GW170817 dentro de la localización del GRB 170817A visto por Fermi y por INTEGRAL (porque, no nos engañemos, LIGO se pone a trabajar manualmente sobre su evento GW170817 porque ya tenia la alerta de la localizacion celeste del Fermi, con su franja de error correspondiente, claro). Sigo viendo un sesgo brutal cuando asumen que por el observatorio VIRGO debieron pasar las mismas ondas gravitacionales que pasaron por los dos observatorios de LIGO, por que dan por sentado sin ninguna duda que lo que pasó por LIGO a esa hora fueron ondas gravitacionales. ¿Por qué veo tanto sesgo? Porque, además de la asunción anterior, la intención de quienes estaban al mando del análisis de datos en la LVC a esa hora, era ver de qué forma la localización celeste del evento GW170817 podía encajarse dentro de la del GRB 170817A. Eso no es ciencia. Afirmar tan rotundamente que puesto que en Hanford y Livingston se registraron señales del mismo evento GW170817, entonces necesiariamente por VIRGO debió pasar la misma perturbación gravitacional, y además asumir que, como no quedó registrada, debió pasar por uno de sus puntos ciegos, es mucho asumir, me parece a mí. Demasiadas asunciones, la ciencia no funciona así. Porque por la misma regla de tres, yo también tendría derecho a pensar lo siguiente, y también podría ser llamado ciencia de esa clase, asumiendo cosas:

En Livingston, alguien está estudiando cómo configurar los parámetros para una inyección hardware de señal, usando una plantilla de estrella binaria de neutrones que colapsa. El problema no es fácil en principio, ya que ha sido informado de que VIRGO no admite en esos momentos inyecciones hardware de señales, desde LIGO, por que está en modo unlock. La resolución del problema resulta ser sorprendentemente fácil: pones VIRGO en uno de sus puntos ciegos, y después juegas con los parámetros de desfase tenporales para inyectar por hardware la señal en L1 (livingston) y H1 (Hanford), de tal forma que la localizacion de la supuesta fuente esté dentro de la franja de error vista por Fermi. Incluso me atrevería a decir que el origen de ese glitch que se vio en L1 se debió a una inyección hardware de señal. Sí querida Mula Francis, el origen de esos glitches está, en su mayoría, en las inyecciones de hardware, ya que hay que mover mediante servos las masas-espejos, y eso nunca se hace de forma suave. Las inyecciones por software no tienen ese problema de los glitches, ya que van directamente a la base de datos de salida. Para quien quiera saber cómo se genera la mayoría de esos glitches, debido a inyecciones de hardware, puede consultar este paper:

https://dcc.ligo.org/public/0113/T14…%20Data.pdf

Por cierto, querida Mula Francis, ya hay científicos serios, independientes de LIGO, investigando el tema de las inyecciones en el seno de la LVC, y de qué forma los supuestos eventos descubiertos hasta ahora, que se han dado por válidos, se pudieron obtener de forma fraudulenta. Porque, afortunadamente todo no se hace mal en LIGO, y hay disponibles para el público los booklogs desde 2015 hasta hoy. He aquí un pequeño ejemplo, de alguien que se tomó la molestia de contar cuantas inyecciones de señal hay registradas en los logs de LIGO, y qué se puede hacer con ese Big Data:

http://www.academia.edu/25059961/Big…t_2010-2016

Saludos querida Mula Francis

 

Francisco R. Villatoro Francisco R. Villatoro

Concha, como es obvio, en un detector de ondas gravitacionales se detectan ondas gravitacionales y si se detecta la señal más intensa hasta ahora (en SNR) en un detector, los otros dos también tienen que haberla detectado sí o sí; esto no es opinable. ¿Quieres opinar en contra? Hazlo, pero no en un blog de ciencia. ¿Quieres montarte una conspiración? Hazlo, pero no en un blog de ciencia.

Concha, si quieres trolear, busca otro blog.

 

Es divertido este Francis, ¿verdad? 🙂 ya hacía tiempo que no me reía tanto. En su primera réplica dice: “Las ondas gravitacionales son cuadripolares, luego H1, L1 y V1 tienen cuatro puntos ciegos (esta figura muestra los de V1), pero solo uno cae en la región localizada por H1 y L1 (o los otros tres están fuera)“. Hay que decirle que no es que se elija uno de los cuatro puntos ciegos de VIRGO por que sea el cae en la región localizada por H1 y L1, sino que esencialmente se elige ese porque de lo que se trata es de que la región localizada por H1, L1 y V1 esté dentro de la localizada por Fermi. De eso se trata.

Y cuando dice “ … en un detector de ondas gravitacionales se detectan ondas gravitacionales y si se detecta la señal más intensa hasta ahora (en SNR) en un detector, los otros dos también tienen que haberla detectado sí o sí“. Parece muy obvio ¿no?, pues no. En un detector de ondas gravitacionales no se detectan ondas gravitacionales, en realidad se detecta de todo menos ondas gravitacionales, si tu fe en las ondas gravitacionales está baja. Lo gracioso de todo esto es que los detectores de ondas gravitacionales son los únicos instrumentos que detectan de todo menos de aquello para lo que fueron ideados. Pero, claro la obviedad de la lógica de este Francis es como la de decir “una tostadora de pan sólo tuesta rebanadas de pan“.

Es evidente que “la fe mueve montañas“, y la “la fe en las ondas gravitacionales” mueve los espejos de los interferómetros LIGO.

Saludos conspiranoicos a todos 😀

Posted in Astrofísica, corrupción, Cosmología, curiosidades y analogías, Matemáticas, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , | 2 Comments »

 
A %d blogueros les gusta esto: