TARDÍGRADOS

Ciencia en español -ʟᴀ ʀᴀᴢóɴ ᴇsᴛá ᴀʜí ғᴜᴇʀᴀ-

Archive for the ‘Mecánica Cuántica’ Category

¿Pero, qué diablos es realmente la gravedad? : O ¿por qué la ciencia aceptó las ideas absurdas de Einstein, que desde hace ya más de un siglo nos han llevado a un callejón sin salida, del que sólo se podrá salir definitivamente dentro de mil años o más?

Posted by Albert Zotkin en noviembre 8, 2019

Cuando Albert Einstein se vio en la cima del éxito por su Relatividad General (todos sabemos que Einstein era un genio … un genio de marketing, de la auto promoción, por supuesto), con su vanagloria en alza, y su inmenso ego, más inflado que nunca, allá por los años treinta y pico, en una de las infinitas y cuidadas entrevistas que concedía a los medios, dijo algo asi como: “Newton, perdóname; tú encontraste el único camino que, en tus tiempos, era posible para un hombre de inteligencia y capacidad creadora supremas“. O sea, en su falsa modestia, Einstein nos estaba diciendo que su capacidad creadora e inteligencia eran superiores a las de Newton. La genialidad de Einstein fue que supo vendernos humo, y lo hizo en cantidades industriales.
En cuanto al tema de la gravedad (o gravitación), a estas alturas del siglo XXI, parece ser que Einstein sólo tuvo razón en una cosa al afirmar que la gravedad no era una verdadera fuerza. El problema es que la gravedad tampoco parece ser ya ese efecto de la curvatura del espacio-tiempo, tal como tan bellamente nos lo cantaba el “poema épico” de la Relatividad General con sus matemáticas trileras, elaboradas por prestigiosos masterchefs del axioma, como Hilbert y otros, en más de un siglo de autocomplacencia. Einstein casi tuvo razón en otra cosa, pero al final se retractó, porque el precio mediático a pagar era superior al de la corrección política. Einstein, junto con Nathan Rosen, llegó a afirmar en 1936, sin tapujos, que las ondas gravitacionales no existían. Aunque ese concepto de las ondas gravitationales lo había deducido él mismo de su misma Relatividad General, unos cuanto años antes, al final dio su brazo a torcer, desistió de su “descabellada idea”, porque la presión mediática era inmensa, y su prestigio, su reputación social y académica estaban en juego.
En este pequeño artículo que hoy os presento, veremos qué es realmente la gravedad, y por qué las ondas gravitacinales no pueden existir si la gravedad es lo que aquí voy a afirmar que es.
La gravedad es una fuerza entrópica. Si, ya sé que desde la física oficial, tratan de barrer toda hipótesis que afirme que la gravedad es una fuerza entrópica. Sobre todo, existen infinitos artículos (mainstreamófilcos = muy del consenso oficial) que aparentemente demuestran que la Gravedad Entrópica de Verlinde es inconsistente. El dogma oficial, cuando quiere sofocar algo que incomoda a la doctrina reinante, siempre se basa en demostrar aparentemente que ese algo es inconsistente. El problema es que al final todo se reduce a creer o no que la demostración de la inconsistencia es consistente. La gravedad entrópica de Verlinde, no es toda la verdad sobre la afirmación de que la gravedad es una fuerza entrópica. Los que intentan desacreditar a Verlinde por su teoría entrópica de la gravedad, siempre basan su armas en que dicha teoría posee errores que la reducen a una mera expresión de la teoría clásica de Newton, no ya siquiera a una MOND, y por lo tanto, como la teoría clásica de Newton es incorrecta según el consenso de los mainstreamófilos, porque la correcta es la de Einstein, asi de incorrecta debe ser la de Verlinde . Pero, examinando a fondo esta teoría de la Gravedad Entrópica de Verlinde, se llega a la conclusión de que basicamente es correcta, y en lo único que falla es en la elección de los modelos matemáticos y termodinámicos para deducirla desde primeros principios. En esencia, de lo que carece la Gravedad Entrópica de Verlinde es de la componente gravitomagnética, la cual hay que deducir también desde principios termodinámicos. Eso fue lo que yo hice hace tiempo en mi artículo: Gravedad Cuántica: Análisis pormenorizado de la componente entrópica de la gravedad. Pero veamos sucintamente en que consiste la Gravedad Entrópica de Verlinde, y por qué la atacaban tan furibondamente desde el consenso de los mainstreamófilos.
A estas alturas del siglo XXI, aún se pueden leer blogs de ciencia, donde supuestos científicos (y científicas) hacen afirmaciones sobre agujeros negros (hipotéticos objetos, de cuya existencia no tendremos nunca una prueba definitiva) tales como: Dos agujeros negros uniéndose no emiten radiación electromagnética, porque los agujeros negros no están hechos de materia que pueda emitir esa clase de radiación. Pueden estar rodeados de materia que sí la emite, pero es demasiado pequeña para ser observada.” Es decir, siguen tratando el espacio-tiempo como si fuera una sustancia, una especie de éter flexible que pueda ser estirado, retorcido o curvado. Que yo sepa, el espacio-tiempo no existe físicamente hasta que no se demuestre experimentalmente por separado que el espacio existe y que el tiempo existe. Pero mucho me temo que ambas entidades que tanto se emplean en física, son más axiomas o postulados que algo real existente en la naturaleza.

Hace ya algún tiempo un tal Erik Verlinde publicó un artículo en el que supuestamente deducía la ley de gravitación universal de Newton desde primeros principios, incluso dedujo las ecuaciones de campo de Einstein de la Relatividad General, concluyendo que la gravedad es una fuerza entrópica, es decir una fuerza que no es fundamental y que emerge naturalmente del aumento de entropía de los sistemas materiales. Verlinde usó el principio holográfico y las conocidas leyes de la termodinámica, junto con algunas cosillas más, para deducir dicha fuerza entrópica. Las fuerzas entrópicas emergen desde el microcosmos hacia el macrocosmos debido a que los sistemas materiales tienden a adoptar estados de máxima entropia. Cuando estiras una goma elástica debes de ejercer una fuerza para contrarrestar temporalmente su estado maximizado de entropía. Al estirar la goma estás rebajando su entropia, y por lo tanto la goma se opone a ese cambio ejerciendo una fuerza en sentido contrario que intenta restaurar su estado de máxima entropía.

Pero, como vamos a ver ahora, esa fuerza entrópica deducida por Verlinde desde primeros principios, y que emerge siendo la fuerza de gravitación de Newton, es sólo una componente de la gravedad total. En concreto vamos a ver cómo esa componente entrópica es engullida brutalmente por un tiburón cuántico que habita en las profundidades del microcosmos termodinámico.

Comencemos expresando la Primera Ley de la Termodinámica para sistemas homogeneos cerrados:

\displaystyle dU=TdS-PdV  (1)
donde dU es el cambio de energía interna, T es la temperatura, dV es el cambio de volumen, dS es el cambio de entropia, y P es la presión. Sabemos que PdV es el cambio de energía libre del sistema, por lo tanto puede ser expresada como suma de los cambios de energía de cada uno de los microestados

\displaystyle \langle PV\rangle=-\frac{\ln(\mathcal{Z})}{\beta} = -\frac{\epsilon_1\oplus\epsilon_2\oplus\epsilon_3\oplus\dots}{\beta}     (2)
Donde es representa la energía del microestado s, Z es la función de partición, y β es menos el inverso del producto de la temperatura por la constante de Boltzmann:

\displaystyle   \mathcal{Z} = \sum_{s} e^{\beta \epsilon_s}  \\ \\ \\  \beta = -\frac{1}{k_BT}
La ecuación (1) para un proceso con presión y temperatura constantes queda así:

\displaystyle U=TS-PV  (3)
por lo tanto sustituyendo (2) en (3) tenemos:

\displaystyle U=TS + \frac{\ln(\mathcal{Z})}{\beta} \\ \\  U=\frac{\beta}{\beta} \ln \exp(TS) + \frac{\ln(\mathcal{Z})}{\beta} \\ \\ \\  U=\frac{\ln \exp(\beta TS )}{\beta} + \frac{\ln(\mathcal{Z})}{\beta} \\ \\ \\  U=\frac{\ln \left (\mathcal{Z}\exp(\beta TS ) \right)}{\beta}  \\ \\ \\   (4)

Según el postulado fundamental de la mecánica estadística, la entropía S es directamente proporcional al logaritmo del número Ω de microestados:

\displaystyle S = k_B \ln \Omega

es decir

\displaystyle TS = Tk_B \ln \Omega= -\frac{\ln \Omega}{\beta}  (5)

por lo que (4) lo podemos calcular más fácilmente:

\displaystyle U=TS + \frac{\ln \mathcal{Z}}{\beta} \\ \\  U=-\frac{\ln \Omega}{\beta} + \frac{\ln \mathcal{Z}}{\beta} \\ \\ \\
\displaystyle \boxed{U=\cfrac{1}{\beta}\ln \left(\frac{\mathcal{Z}}{\Omega}\right)}  (6)
Esta energía interna U es lo que en gravedad debe identificarse como la energía potencial gravitatoria, la cual si es dividida por la masa m de una partícula de prueba tendremos el potencial gravitatorio (con todas sus componentes) en el punto espacial donde está localizada dicha partícula:

\displaystyle \boxed{V = \cfrac{U}{m}=\cfrac{1}{m \beta}\ln \left(\frac{\mathcal{Z}}{\Omega}\right)}  (7)
Recapitulemos. La componente entrópica debe ser identificada con la gravitación clásica de Newton, y la componente de energía libre (PV) debe ser identificada con lo que se llama gravitomagnetismo. O lo que es lo mismo, la función de partición Z mapea dicho gravitomagnetismo, mientras que el número Ω de microestados mapea la componente estática de gravitación Newtoniana.

Pongamos un pequeño ejemplo. Supongamos que queremos calcular el número Ω de microestados de un sistema gravitatorio binario, con masas M y m. Igualamos el potencial gravitatorio así:

\displaystyle     V =-\frac{\ln \Omega}{m\beta} = -\frac{GM}{r}  \\ \\  \Omega = \exp\left(\frac{GMm\beta}{r}\right)

pero en β está incluida la temperatura T, por lo tanto si igualamos esa temperatura con la temperatura de Unhru: ,

\displaystyle T = \frac{\hbar a}{2\pi c k_\text{B}} \\ \\ \\ \beta= -  \frac{2\pi c}{\hbar a} \\ \\ \\

y la aceleración a la igualamos a la aceleración del campo gravitatorio estático, a = g:

\displaystyle a = \frac{GM}{r^2}\\ \\ \\ \beta= -  \frac{2\pi c r^2}{\hbar GM} \\ \\ \\

Por lo que el número Ω de microestados para ese sistema gravitatorio será:

\displaystyle a = \frac{GM}{r^2}\\ \\ \\ \beta= -  \frac{2\pi c r^2}{\hbar GM} \\ \\ \\ \Omega = \exp \left(\frac{GMm\beta}{r}\right) = \exp\left(\frac{m c \ 2\pi r}{\hbar}\right)
Las fuerzas entrópicas están muy relacionadas con los paseos aleatorios

y por lo tanto, la gravedad es una interacción estrechamente relacionada con lo que se llama paseos aleatorios de máxima entropía.

Posted in Matemáticas, Mecánica Cuántica, Relatividad, termodinámica | Etiquetado: , , , , , , , , , , , , , , , , , , | 1 Comment »

Supremacía cuéntica

Posted by Albert Zotkin en octubre 29, 2019

No, no me he equivocado en el título. He escrito cuéntica en lugar de cuántica a propósito, para resaltar que la supuesta supremacía cuántica es un cuento chino que nos están contando. Vamos, que “naranjas de la China“.

Cuando una computadora cuántica haga cosas que una computadora clásica no pueda hacer en tiempo y recursos razonables, entonces diremos que esa computadora ha alcanzado supremacia cuantica.

La revista Nature nos cuenta estos días que Google ha alcanzado oficialmente la supremacía cuántica. Hace poco, LIGO nos contó también que habían alcanzado la supremacía gravitacional, y lo anunciaron al mundo, como el gran hito científico del siglo XXI, y les concedieron hasta un Premio Nobel de Física, tú. “Naranjas de la China“, cuentos chinos. La única supremacía real que existe es la fanfarronería científica yanqui. Estamos asistiendo al triunfo de sofisticadas técnicas mediáticas para propagar ideas (supuestamente científicas), técnicas que Goebbels ya empleó con éxito para la propaganda Nazi.

Con la computación cuántica pasa lo mismo que con la fusión nuclear: son eternas promesas de hitos científico-técnicos que nunca llegan a ser una realidad. Los expertos ponen como excusa que es muy difícil evitar la decoherencia cuántica, para el primer caso, y conseguir un adecuado confinamiento de plasma, para el segundo. Pero, habría que empezar a pensar ya que el motivo por el que realmente no se han conseguido aún esos hitos científico-técnicos está más en la teoría científica, es decir, en los modelos teóricos, que en llevarlos a la práctica. Es muy probable que los modelos teóricos que predicen tanto la computación cuántica como la fusión termonuclear no sean correctos, o les falte algo insospechado. En cualquier caso, no parece razonable asistir a estos espectáculos de supuesta supremacía en no sé qué materias, como si fuera una competición olímpica donde todos los atletas estuvieran dopados.

Pero, ¿qué cuento chino nos está contando Google respecto a su supuesta supremacía cuántica conseguida, que dicen que ya es oficial y todo?: En el resumen del documento presentado nos dicen:

La esperanza en los computadores cuánticos es que ciertas tareas computacionales podrían ser realizadas exponencialmente más rápido con un procesador cuántico que con un procesador clásico. El reto fundamental consiste en construir un procesador de alta fidelidad capaz de ejecutar algoritmos cuánticos en un espacio computacional exponencialmente grande. En este documento presentamos un informe sobre el uso de un procesador cuántico con cubits programables de supercomputación para crear estados cuánticos en 53 cubits, representando un espacio computacional de dimensión 253 (aproximadamente 1016). Medidas de experimentos repetidos muchas veces proporcionan una muestra de la resultante distribución de probabilidad, la cual verificamos usando simulaciones clásicas. Nuestro procesador cuántico Sycamore tarda unos 200 segundos en muestrear una instancia de circuito cuántico, mientras que el mejor computador clásico actual tardaría en realizar esa misma tarea unos 10 mil años. Esta dramática mejora de la velocidad comprada con la de cualquier algoritmo clásico actual conocido resulta ser una realización experimental de supremacía cuántica, para esta tarea computacional específica, y presagia un cambio de paradigma en el campo de la computación.

O sea, que los chicos de Google han construido un procesador cuántico de 53 cubits (en principio eran 54, pero uno se estropeó), llamado Sycamore, y lo han programado para que ejecute un tarea específica, sabiendo de antemano que esa misma tarea, ejecutada en un procesador clásico, tardaría 10 mil años en ser completada.

Fig. 1: Procesador Sycamore.
a, Diseño del procesador, mostrando una matriz rectangular de 54 cubits (gris), cada uno conectado a sus cubits anejos mediando acopladores (azul). El cubit no operativo (estropeado), situado en la parte superior del esquema, está sólo perfilado (no relleno en color gris). b, fotografía del chip Sycamore.

Pero, ¿cómo construyen esos cubits?. Para provechar ciertas propiedades de los estados cuánticos, llamadas superposición y entrelazamiento, entre otras propiedades y efectos también bastante raritos, que describe la Mecánica Cuántica, usan átomos, y hay que conseguir, mediante temperaturas muy próximas al cero absoluto (-273,144 °C), que los electrones de esos átomos giren en un sentido y hacia el contrario al mismo tiempo. Ese sería el efecto de superposición cuántica. Es decir, no seria que unos electrones, dentro del mismo átomo, giraran en un sentido y otros en el contrario, sino que cada electrón girase en un sentido y el contrario a la vez. Algo impensable y absurdo para un cuerpo macroscópico, pero no tanto para las partículas subatómicas, que se rigen por reglas de la mecánica cuántica. El problema de la superposición está en que cuando se intenta medir el estado cuántico, aparece la decoherencia, el cubit de pronto se transforma en un simple bit clásico. Ese es el famoso quebradero de cabeza llamado problema de la medida

¿De verdad ha conseguido Google la supremacía cuántica?. Uno de los mayores expertos en computación cuántica es el murciano Dario Gil. Este murciano, director mundial de IBM Research, nada menos, opina que el procesador cuántico Sycamore de Google es una pieza especializada de hardware diseñada para resolver un solo problema y no un ordenador cuántico de propósito general, a diferencia de los desarrollados por IBM. Es decir, aunque podría ser cierto que habrían completado una tarea de muestreo en 200 segundos, mientras que el superordenador Summit de IBM habría tardado 10 mil años en completar esa misma tarea, el Sycamore sólo serviría para realizar esa tarea y ninguna otra más. Es como construir un ordenador que sólo supiera sumar 2+2, y nada más. Si Dario Gil tiene razón, que yo creo que la tiene, para resolver problemas reales mediante computación cuántica habría, no sólo que programar los algoritmos (software) cuánticos, sino construir físicamente el hardware especifico para ese problema en concreto. O sea, cada problema requeriría de un hardware especifico, y sólo valdría para ese problema. Por ejemplo, supongamos que queremos factorizar el número entero semiprimo RSA1024, que posee 1024 cifras binarias (309 cifras decimales). ¿Valdria la pena construir un procesador cuántico especifico para hallar, en un tiempo razonablemente corto, los dos números primos que multiplicados dan ese número RSA1024?. Si el premio es superior al coste, si valdría la pena 🙂 , pero hay que tener en cuenta que una vez factorizado ese número SRA concreto, nuestro costoso chip cuántico no valdría para nada más, y habría que tirarlo a la basura o aprovechar sus piezas para construir otro chip distinto para resolver otro problema distinto. Nuestro amigo murciano, Dario Gil, es un genio, y sabe muy bien de qué habla.

Pero, en mi opinión, lo que Google nos ha traído de momento, en lugar de supremacía cuántica, son naranjas de la China.

Saludos cordiales, y para nada supremacistas 😉

Posted in curiosidades y analogías, Física de partículas, Matemáticas, Mecánica Cuántica | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | Leave a Comment »

El misterioso rugido profundo del espacio exterior profundo

Posted by Albert Zotkin en octubre 20, 2019

Hola amigos de tardígrados. Hoy vamos a ver cómo un supuesto descubrimiento de la NASA, llamado “rugido espacial“, se convirtió en uno de los problemas sin resolver de la astrofísica. También veremos cómo la solución (propuesta por mi originalmente) es bastante prosaica, y me atrevería a decir que hasta divertida. Pero, ¿qué es ese “misterioso rugido espacial o siseo”, llamado space roar, hallado por la NASA?.

Desde 2001 hasta 2006, la NASA estuvo lanzando globos sonda con instrumentos, básicamente radiómetros, que llegaban hasta las capas más altas de la atmósfera, y allí median la radiación residual del espacio exterior.

Esos experimentos se llamaron ARCADE, rebuscadas siglas en inglés que significan Radiómetro Absoluto para la Cosmología, la Astrofísica y la Emisión Difusa. Se trataba de medir radiación electromagnética residual del espacio exterior en las longitudes de onda de unos pocos centímetros. Esas sondas llegaban hasta alturas de unos 37 km en la estratosfera. En 2011, la segunda generación de ARCADE, la ARCADE2, hizo las ultimas mediciones, y se descubrió algo misterioso, que ha quedado para los anales de la ciencia como un problema astrofísico sin resolver. El ruido electromagnético detectado proveniente del espacio exterior, era hasta seis veces mayor del que predecía la teoría. ¿Cuál era la causa de tan elevado nivel de ruido?. Nadie lo sabe.

Corregir los errores sistemáticos de medida en ARCADE2 es nuestra principal preocupación. Debemos destacar que hemos detectado emisión residual a 3 GHz en los datos de ARCADE2, pero ese mismo mismo resultado fue independientemente detectado por una combinación de datos de baja frecuencia y FIRAS

ARCADE vió hasta un 7% del cielo. La región observada aparece coloreada en este mapa esférico del cielo. El plano de nuestra galaxia, la Vía Láctea, cruza por centro

Intentemos averiguar cuál es la causa de que el ruido detectado sea hasta 6 veces más alto que el esperado teóricamente. Osea, vamos a resolver el misterioso problema número 13 listado en la sección de Problemas no resueltos de la Astrofísica y la Astronomía.

El revolucionario diseño de ARCADE lo hace super-sensible al ruido cósmico. Enfriados hasta los 2.7 grados por encima del cero absoluto, por inmersión en más de 500 galones (más de 1892 litros) de helio líquido, cada uno de los siete radiómetros de ARCADE exploró por su cuenta el cielo y objetivos de calibración.

Para resolver este misterioso problema astrofisico que nos planteó la NASA, degustemos primero este bonito video, donde podemos escuchar los extraños ruidos electromagnéticos que emiten algunos de los planetas del sistema solar, y los famosos anillos de Saturno, o los no tan famosos anillos de Urano. Evidentemente, el ruido electromagnético no se puede escuchar por un oído humano, por lo tanto lo que se hace es interpretar como sonido las ondas electromagnéticas, es decir, simular que esas longitudes de ondas electromagnéticas son de ondas sónicas:

Ahora centremos nuestra atención en los materiales y la forma de los globos sonda lanzados por la NASA para esas misiones de ARCADE.

Vemos que los globos sonda empleados en ARCADE son vulgares globos meteorológicos, hechos de latex o de cloropreno. Ahora ya empezamos a vislumbrar la causa de que los ruidos residuales detectados por las sondas ARCADE sea hasta 6 veces más altos que lo esperado. La razón es que el mismo globo sonda que campea a unos pocos metros por encima de los radiómetros, de alguna forma, actúa como antena amplificadora de esas señales electromagnéticas que se trata de detectar. Si, algo muy prosaico y ridículamente vulgar, que se les pasó desapercibido. Los globos sonda, ya completamente hinchados en la estratosfera, actúan como potentes antenas amplificadoras de señales electromagnéticas. De esta forma tan sencilla hemos resuelto el problema número 13 listado en la sección de Problemas no resueltos de la Astrofísica y la Astronomía.

Saludos estratosféricos a todos 😛

Posted in Astrofísica, Cosmología, curiosidades y analogías, Física de partículas, termodinámica | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , | Leave a Comment »

Hola KATRIN, ¿sabes que los neutrinos viajan más rápido que la luz, y cuánto ridículo hace la ciencia actual negándolo?

Posted by Albert Zotkin en septiembre 25, 2019

Estos días se habla mucho en los foros científicos del experimento KATRIN, que ha publicado resultados estimando un valor máximo para la masa de los neutrinos. En este experimento científico se examina el espectro de la desintegración beta (emisión de electrones) del Tritio, mediante un potente y peculiar espectómetro

Transporte por las calles de Karlsruhe (Alemania) de parte del espectrómetro del experimento KATRIN


En esta desintegración beta del Tritio, además de electrones, se emiten trillones de anti-neutrinos electrónicos por segundo. La idea central del experimento KATRIN es muy simple: Si el neutrino tiene masa, entonces siempre debe corresponder a la cantidad equivalente de energía, según la ecuación E = m c², y el espectro del electrón debería reflejar un deficit en su energía total exactamente igual a esa cantidad, y mostrar una forma diferente en dicho espectro.

En el artículo científico que describe los resultados de las mediciones, titulado,An improved upper limit on the neutrino mass from a direct kinematic method by KATRIN, y cuyo preprint puede encontarse en arXiv, aqui, y donde firman más de 210 autores de más de 36 institutos, centros de investigación y universidades, se comete una de las tropelías más flagrantes y ridículas de la historia de la ciencia. Se trata del conocido sesgo cognitivo, pero esta vez se deja al descubierto con tal evidencia y desdén que más parece que lo hagan a propósito que un descuido. Veamos paso a paso en qué consiste ese sesgo y por qué los tontos del culo de los blogs que le siguen el juego a lo políticamente correcto del consenso oficial, hacen todo lo posible por obviar esa tropelía, mirando para otro lado y silbando, cuando no mintiendo.

En el apartado de resultados finales de dicho artículo, se dice que la mejor estimación para el cuadrado de la masa del neutrino es de

m_{\nu}^2=\left(-1.0^{+0.9}_{-1.1}\right)\;\text{eV}^2

es decir, para cualquiera que sepa leer estos resultados tenemos un valor medio que es un número real negativo de -1.0 electrovoltios al cuadrado, afectado con cierta incertidumbre de medida. Es decir, tenemos que el cuadrado de un número es un valor negativo. Eso solo es posible si la masa de un neutrino es un número imaginario puro. O sea un valor medio, expresado por el número complejo:

m_{\nu}=\left(1.0^{+0.94}_{-1.0}\right)i\;\text{eV}

Por su puesto, el valor central de -1.0 está a simplemente una desviación típica de cero. La pregunta es ¿por qué la región negativa de la masa al cuadrado está excluida, y considerada como no física, es decir, como algo que no puede darse físicamente?. Por lo tanto, el sesgo cognitivo está en que, a priori, se está diciendo que el valor negativo del cuadrado de una masa es algo físicamente imposible, cuando de hecho debería ser una cuestión a dilucidar experimentalmente, nunca a priori. ¿Cuantas tropelías más nos están metiendo dobladas?. Esta que apunto hoy aquí es descaradamente evidente.

Esta tropelía cometida en el artículo científico del experimento KATRIN, que ya he apuntado arriba, fue debidamente denunciada por Alan Chodos, el cual elevó un comentario suyo a arXiv, dejando en evidencia esa chapuza de artículo firmada por más de 210 autores de más de 36 institutos, centros de investigación y universidades.

Comentario de: Alan Chodos
Departamento de Física, Universidad de Texas, Arlington
alan.chodos@uta.edu

Sumario: Hacemos notar que el valor central del experimento KATRIN tiene masa al cuadrado negativa, y nos preguntamos por qué se excluye del análisis estadístico a priori.

Introducción, discusión y conclusiones: El nuevo límite superior para la masa del neutrino electrónico, que ha sido publicado recientemente del experimento KATRIN, no sólo merece ser destacado por su gran precisión de medida, sino también por el hecho de que el valor central de dicha medida resulta ser un valor negativo, representando una masa al cuadrado, lo cual viene siendo ya habitual en una larga tradición de medidas de las masas de los neutrinos, desde hace ya varias décadas.

Por su puesto, el valor central resulta estar a una desviación típica respecto a cero. Por lo tanto, resulta absolutamente adecuado decir que se trata de un límite superior, y no una medida de una masa no nula. Sin embargo, tal y como se indica en el informe, la región negativa de la masa al cuadrado está excluida a priori, y marginada (ignorada) como algo no físico (algo que no puede darse en la naturaleza) al realizar los análisis estadísticos, siguiendo la practica de muchos de los autores que firman el artículo.

El propósito de esta breve reseña es señalar que esa es una mala praxis, una restricción inapropiada. Que los neutrinos tengan o no una masa al cuadrado negativa, es una cuestión experimental. Al menos, los autores deberían incluir un análisis alternativo en el que la posibilidad de una masa al cuadrado negativa fuera permitida.

Los trabajos teóricos sobre neutrinos en espacio-tiempo superlumínico se remontan hasta la mitad de los años ochenta. Muchas ideas especulativas al respecto puede que no sean muy relevantes, pero a pesar de todo, la posibilidad de que el neutrino sea un taquión sigue abierta, y no debería ser descartada, y menos aún, descartada antes de iniciar cualquier análisis.

En conclusión: si los neutrinos poseen masa imaginaria cuando aplicamos los formalismos de la Relatividad Especial de Einstein, eso quiere decir que son taquiones (partículas que viajan a velocidades superiores a la de la luz). Con lo cual, tanto el Modelo Estándar de la Física Cuántica, como la Teoría de la Relatividad de Einstein, se pueden ir ya, sin demora, por el sumidero de la historia de la ciencia, a pesar de lo que nos diga la famosa ciencióloga (drag queen, y reina del chismorreo mainstreamófilo) la Mula Francis.

Saludos

Posted in Astrofísica, Física de partículas, lameculos, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 1 Comment »

Regreso a Nueva Avalon

Posted by Albert Zotkin en octubre 14, 2018

new avalon2-5

Nuestro trabajo en Alteriona terminó. Recogimos todas las máquinas y equipos, y nos despedimos de John Hurt, el capataz, el cual se quedó el resto del año, hasta la siguiente temporada, en tareas de mantenimiento de los Xarebots. Nuestro transporter nos esperaba en el hangar 18 (cerca de los Altos PAKed-3), y allí nos recibió la tripulación del Boreas Delta, con el comandante Andre Lee al mando.

Abandonamos Kepler-452a, más conocido como Perdix, el planeta más cercano a la estrella Kepler-452, una enana amarilla de tipo G2, a unos ciento cuarenta años luz del Sistema Solar, y a sesenta y ocho de Aldebarán. La temperatura media de este planeta es de unos -3 ˚C, y su gravedad es de 7.4g. Su atmósfera está principalmente compuesta de metano y dióxido de carbono, (irrespirable), y sus principales recursos mineros son titanio y diamante. Posee tres lunas, Darkota, Landela y Kurtex. Básicamente es un desierto inerte, carente de vida.

Nuestro destino es Kepler-452b, más conocido como Dédalo I, es el segundo planeta que orbita la estrella Kepler-452. Es un planeta rocoso parecido a la Tierra, pero con un 98% de su superficie cubierta de agua liquida. Posee una luna, Creneis, y su gravedad superficial es ligeramente mayor a la terrestre, 10.2g. Su temperatura media es de 15 ˚C. Allí, los antiguos Estados Unidos de Eurasia construyeron Nueva Avalon, en el páramo Pektor, un núcleo residencial para reservistas y controladores de Adocs, que aún está en proceso de crecimiento modular.

new avalon2-4

new avalon2-3

Foliación transfinita de la conciencia de Ridley

Lo que pocos enterótidos saben es que en la marisma Pektor, donde se enclava Nueva Avalon, se encuentra el tercer defecto topológico del espacio-tiempo conocido de nuestro universo. Se llama Bucle Asimétrico Intersticial Ilion31. Este defecto topológico espaciotemporal fue aprovechado por los Antiguos para construir y testar su primera Stargate. La atracción turística más curiosa de Ilion31 es su formación en paralelo de tres espejos cuánticos, separados por dos interticios de treinta metros. Desde Ilion31 puedes ver tu propia nuca un número infinito de veces. Y lo curioso es que si dispararas con un arma de fuego a una de esas imágenes, la bala impactaría en tu nuca realmente.

Aún quedan muchos misterios y maravillas por descubrir cerca de Dédalo I

Me llamo Amadeus Wilder, y soy el capaz del equipo de mineros M65 de la empresa αTitanic Inc. Nuestro viaje de regreso a Nueva Avalon, a bordo del Boreas Delta, durará 4 meses, a una velocidad de crucero de doscientos cincuenta mil kilómetros por hora.

Posted in Cosmología, curiosidades y analogías, Exobiología, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , | Leave a Comment »

Tecnología alienígena: El proyecto Prometeo IA, o cómo hacer fuego en un desierto

Posted by Albert Zotkin en junio 14, 2018

Hola amigos de Tardígrados. Hoy voy a hablar de cómo hacer fuego en el desierto, pero no será un fuego ordinario, sino termonuclear de fusión. Efectivamente, las reacciones termonucleares de fusión se parecen mucho a esas reacciones químicas de combustión (oxidación-reducción) que llamamos fuego. La pregunta del millón es ¿porqué aún no se ha conseguido energía aprovechable de las reacciones termonucleares de fusión?. Las respuestas no son sólo de índole técnica o tecnológica, sino de fundamentos teóricos de la física y la química en relación al cuarto estado de la materia que llamamos plasma. Si la teoría ofreciera modelos muy concordantes con la realidad de la naturaleza del plasma, los problemas técnicos y tecnológicos a resolver serían menores. Por lo tanto, el problema principal radica en la teoría, o peor aún, en estar en la creencia absoluta de que la teoría actual es la correcta, y que todos los problemas son solo técnicos o tecnológicos.
Los primitivos seres humanos aprendieron a usar el fuego antes que a hacerlo partiendo de cero. Es decir, aprendieron a “robar fuego” natural, producido por rayos, y demás fenómenos naturales, y llevar ese fuego a otros lugares donde alimentar otros fuegos distintos al original, amontonando combustible (leña). Pero, hacer fuego desde cero es más complicado que el método del “robatorio“, y más si los materiales usados están húmedos. La dificultad actual que se presenta a la hora de iniciar una reacción termonuclear de fusión, que sea sostenible y aprovechable, se parece mucho a la dificultad de hacer fuego desde cero en un desierto helado, donde todos los materiales para la ignición y mantenimiento están húmedos o son inadecuados. Alguien podría pensar que si es posible iniciar una reacción termonuclear de fusión sostenible en el tiempo, se podría aplicar el método del “robatorio” para prender una especie de antorchas termonucleares con las que encender otros fuegos en otros sitios. Evidentemente, inyectando plasma, que está ardiendo termonuclearmente, en otras vasijas, se podrían multiplicar las hogueras, sin necesidad de encender desde cero cada una de ellas.

El Proyecto Prometeo IA: ¿En qué consiste muy esquemáticamente el Proyecto Prometeo?. Este proyecto tendría como misión, enviar una sonda espacial hacia el Sol, ponerla en una órbita excéntrica alrededor y muy próxima a él, para conseguir encender un reactor termonuclear (antorcha) y traerlo de vuelta a la Tierra, o dejarla en una órbita más accesible y cercana, una vez que arda de forma sostenible y segura. Sí, Prometeo era un titán que le robó fuego a los dioses para dárselo a la humanidad. La pregunta es ¿sería eso más fácil que iniciar en la Tierra una fusión termonuclear desde cero?. Si el problema que están intentando afrontar actualmente es cómo confinar plasma, sin que las paredes de las vasijas se fundan y hacer eso sostenible en el tiempo, en el Proyecto Prometeo IA el problema sería también el inverso, es decir, además de confinar plasma sería ver cómo evitar que el plasma del Sol destruya el reactor enviado a su atmósfera. El problema sería el inverso, es decir, cómo mantener controlado el plasma solar que rodea la sonda espacial, cuando esta se sumerge en su atmósfera, y dejar que sólo incidiera en ciertos puntos especiales donde la ignición podría tener lugar.
¿Sería viable el proyecto Prometeo IA, o sólo sería ciencia ficción?. De momento es sólo ciencia ficción. Muchas preguntas técnicas han de hacerse y responderse para empezar a vislumbrar la viabilidad de ese proyecto. Por ejemplo estas:
  • ¿Hasta qué profundidad en la atmósfera solar habría que sumergir la sonda para poder captar suficiente plasma, producir la reacción de su reactor interno, y una vez conseguido el fuego poder escapar intacta y regresar a órbitas más cercanas y amables para el ser humano?.
  • ¿Qué tipo de escudo plasma-dinámico podría evitar la destrucción total o parcial, o en el mejor de los casos, evitar averías técnicas al entrar en la atmósfera solar?.
  • ¿Sería suficiente sumergir la sonda hasta zonas puntuales de la corona solar, o habría que dejarla caer más abajo?.
  • ¿En su entrada, cómo soportaría la sonda las enormes presiones fotónicas que emanan de la fotosfera?. Para escapar gravitatoriamente del Sol, bastaría desplegar unas pequeñas velas solares.
  • ¿Para que la sonda pudiera escapar gravitatoriamente del Sol, bastaría desplegar unas pequeñas velas solares, o bastaría con la inercia de su trayectoria orbital hiper-elíptica?.

Saludos plasmáticos a todos

Posted in Energía renovables, Física de partículas | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , | 2 Comments »

La velocidad de la luz no es una verdadera velocidad, es una latencia

Posted by Albert Zotkin en mayo 25, 2018

Hola amigos de Tardígrados. Hoy vamos a estudiar algunos aspectos de uno de los fenómenos más extraños y misteriosos de nuestro universo, la luz. Tambíén llamada fotones, ondas, energía o radiación electromagnética. La luz es, junto con la gravedad, uno de los misterios más grandes de la física. Aunque pudiera parecer que las ondas electromagnéticas ya no poseen ningún misterio para la Física, en realidad si los posee, y profundos. ¿Qué es la luz?, ¿Es una onda o es una partícula?. Depende (como diría un gallego). Depende, del instrumento y el experimento que realicemos, la luz nos aparecerá como partícula o como onda, pero nunca como una mezcla de las dos. En un experimento nos parecerá que es una partícula que llamamos fotón, y en otro bien distinto, como una onda electromagnética de cierta frecuencia y longitud de onda. Eso es ya bien conocido en la Física, y se llama dualidad onda-partícula. Sin embargo, independientemente del experimento que realicemos para saber si la luz es partícula o es onda, lo que sí parece ser invariante es que se nos manifiesta siempre como propagándose a cierta velocidad finita. Según el medio en que se propague, dicha velocidad tendrá un valor u otro, pero siempre el mismo si el medio es el mismo.

El vacío puede también ser considerado un medio. El realidad el vacío sería el único medio por el que puede propagarse la luz, y su velocidad sería la constante c. Sería pues una especie de éter, aunque la palabra éter es una palabra maldita para los maintreamófilos, ya que suplantaría al sacrosanto espacio-tiempo de la relatividad Einsteniana, y eso sería un sacrilegio (Einstein dijo: “no hay éter“, y eso es Verbum Dei). Cualquier otro medio distinto al vacío ya implica la existencia de materia intermedia entre emisor y receptor, con lo cual, la velocidad de propagación, en ese medio distinto al vacío, sería siempre menor a la original c. Pero, un fotón no debe ser nunca visto como una “pelotita” que revolotea por ahí, desde que es lanzada por el emisor hasta que es captada por el receptor. Los fotones, no son partículas libres, sino partículas virtuales. ¿Qué significa que una partícula sea virtual en lugar de libre?. La principal propiedad es que una partícula virtual parece haber sido emitida “hacia atrás en el tiempo” a la vez que “hacia adelante“. Existe una especie de transacción secreta entre el emisor del fotón y el receptor. Y esa transacción (“papeleo burocrático“) empieza a tener lugar mucho antes de que la partícula sea emitida realmente. ¿Por qué es eso así?. Imagina que una fuente emisora de fotones los lanzara al medio (el vacío), sin que existiera un receptor para cada una de esas partículas emitidas. Esos fotones, o algunos de ellos, nunca serían absorbidos. Y si un fotón no es absorbido no existe transferencia de energía, con lo cual, el fotón virtualmente nunca habría sido emitido. Esa es la razón por la cual, cuando un fotón es emitido, será con absoluta seguridad absorbido eventualmente por algún sistema material. ¿Qué ocurriría si una fuente emite realmente un fotón que nunca será absorbido?. Pues sencillamente que esa energía se perdería, y eso significaría, que el universo perdería energía, se enfriaría, sería un sistema termodinámico abierto. Seria un absurdo más. Pensemos por ejemplo, el caso contrario, un sistema material que absorbe un fotón, el cual nunca fue emitido por ninguna fuente. Señoras y señores, estamos ante la presencia de las famosas paradojas que tanto les gustan a los Einsteinianos y demás especímenes, mainstreamófilos. Esa energía, que salió del emisor, no llegaría a ninguna parte, sería como si la energía pudiera destruirse. Puesto que la energía no puede destruirse ni perderse para siempre, cuando un fotón es emitido es porque será absorbido con total seguridad tarde o temprano, y cuando un fotón es absorbido es porque antes fue emitido por una fuente. Ese es el realismo que hay que imponer en la física, el sentido común, nada de paradojas ni viajes en el tiempo.

Enfoquemos nuestra atención un poco más en el punto del que estamos hablando hoy: la velocidad de la luz en el vacío, c. De hecho, esa supuesta velocidad sería una velocidad de fase, c = vp, en contraposición a la velocidad de grupo, vg. Es decir, según el conocimiento de la Física oficial, la mainstreamófila, la del Libro Sagrado, toda onda posee una velocidad de fase y una velocidad de grupo, las cuales no siempre coinciden en un mismo valor. La velocidad de fase está definida como el cociente entre la longitud de onda y el periodo, vp = λ / T, o lo que es lo mismo, el cociente entre la frecuencia angular y el número de ondas, vp = ω / k. En cambio, en el Libro Sagrado de la Física Mainstreamófila, la velocidad de grupo se define como la derivada parcial de esa frecuencia angular respecto del número de ondas, es decir, vg = ∂ω / ∂k. Luego la información y la energía que transporta una onda electromagnética, viajarían por el espacio según la velocidad de grupo. Pero, si nada hay que disperse en el vacío a dicha onda electromagnética, entonces esa velocidad de grupo coincidiría con su velocidad de fase, vp = vg. Y eso siempre ocurre cuando la frecuencia angular, ω, es directamente proporcional al número de ondas, k.

Veamos ahora que significaría que esa velocidad de la luz en el vacío sea una constante c = 299792458 m/s, siempre la misma, independientemente del sistema de referencia desde el cual la midas. Imagina que viajas cómodamente en tu coche por la autopista, y cada cierto tiempo miras el velocímetro, (sobre todo para controlar que no te cace uno de esos radares ocultos y te pongan una multa por exceso de velocidad). Compruebas que tu velocidad es constante v = 90 km/h. Sin embargo, tu velocidad real podría ser otra muy distinta a esa que lees en el velocímetro del tu coche. Matemáticamente hablando, la velocidad que lees en tu velocimétrico es un residuo o resto. Imagina que tu velocímetro es como la esfera de un reloj, pero en lugar de tener 12 divisiones, una por cada hora, posee 299792458, una por cada metro por segundo. Cuando tu velocímetro marca el cero, entonces eso indicaría que tu coche está parado, o también que tu coche viaja a la velocidad de la luz, c. Pero, eso parece imposible, ¿no?. Si algo está parado, no puede estar viajando a la vez a otra velocidad distinta a cero, si se mide en el mismo sistema de referencia, ¿verdad?.

El problema es que el velocímetro de nuestro coche es circular, y sólo posee 299792458 divisiones, una por cada metro por segundo. Por lo tanto, toda velocidad v, superior a c, será matemáticamente truncada a su residuo:

\displaystyle v\equiv 0{\pmod {c}}
Hay una clase de partículas elementales llamadas leptones. Y nos preguntamos: ¿qué ocurriría si un electrón, que es un leptón, supera la velocidad de la luz, c?. Sí, ya sé que eso, en el libro gordo de los maintreamófilos, se dice que es imposible. Pero, ¿qué apariencia tendría en nuestro universo relativista tal “imposible fenómeno“?. Pues, si eso ocurriera, lo que veríamos sería un muón, viajando a una velocidad residual, es decir, una velocidad sublumínica. Y en contrapartida por truncar su velocidad superlumínica, su masa se incrementaría, de tal forma que la energía total de la partícula siguiera siendo la misma. Eso explicaría por qué vemos hasta tres generaciones de leptones, pero claro, esa explicación tan bizarra y estúpida está descartada por la sacrosanta verdad absoluta del libro gordo de los maintreamófilos.

Profundicemos un poco en esta idea de los leptones superlumínicos. Supongamos que un electrón supera la velocidad de la luz en el vacío, llegando hasta una

\displaystyle v_e = k c + \frac{c}{n}

Donde k y n son enteros positivos mayores que la unidad. Esto significa que el residuo es

\displaystyle \frac{c(k n + 1)}{n}\equiv 0{\pmod {c}} = \frac{c}{n}
Eso quiere decir que, en nuestro universo observable, lo que veríamos sería un muón viajando a una velocidad sublumínica, el residuo vμ = c/n. Luego la energía total del electrón superlumínico debe ser igual a la energía total del muón sublumínico (la energía total de una partícula es la suma de su energía potencial y su energía cinética):

\displaystyle m_e c^2 + K_e = m_{\mu}c^2 + K_{\mu}

Dividamos ambos lados de la ecuación por la energía potencial del electrón, m_e c^2:

\displaystyle 1+ \frac{K_e}{m_e c^2} = \frac{m_{\mu}}{m_e} + \frac{K_{\mu}}{m_e c^2}
Si aproximamos clásicamente la energía cinética del electrón y la del muón tendremos:

\displaystyle K_e=   \frac{m_e v_e^2}{2} = \frac{m_e c^2 (kn+1)^2}{2n^2}\\ \\ K_{\mu}=   \frac{m_{\mu} v_{\mu}^2}{2} =  \frac{m_{\mu} c^2}{2n^2}
Con lo cual, la relación entre la masa del electrón y la del muón sería:

\displaystyle 1+ \frac{(kn+1)^2}{2n^2}=  \frac{m_{\mu}}{m_e} + \frac{m_{\mu}}{m_e}\left(\frac{1}{2n^2}\right) \\ \\ \\  \frac{m_{\mu}}{m_e} = \frac{1+2 k n+2 n^2+k^2 n^2}{1+2 n^2}
Por otro lado, sabemos experimentalmente que la ratio entre la masa del muón y la del electron es:

\displaystyle  \frac{m_{\mu}}{m_e} = \frac{105.6583745}{0.510998928}=206.768
Eso significa que, desde la aproximación clásica, un electrón sólo podría superar la velocidad de la luz en el vacío (n = 1) a partir de cierto número de ciclos k de c, que serían:

\displaystyle k =-1\pm \sqrt{3\frac{m_{\mu}}{m_e} -2}=-1 \pm 24.8657
Luego, desde la aproximación clásica, para que un electrón emerja como un muón debe adquirir una velocidad superlumínica base de:

\displaystyle v_e = c(k + 1)= 25.8657 c
Pero, ¿por qué digo en el título de este artículo que “La velocidad de la luz no es una verdadera velocidad, es una latencia?. Pues lo digo, porque, no es la velocidad clásica con la que imaginamos a un objeto moverse en el espacio. Lo que llamamos luz no se mueve por ningún espacio, es simplemente una transacción cuántica no-local entre dos o más sistemas materiales. Es no-local porque se produce a distancia, sin que el intermediario, el fotón, tenga que pasar por todos los puntos intermedios del intervalo espacial que los separa. Por eso, esa transacción posee una latencia, es decir, un retardo. Al dividir el intervalo espacial por el retardo siempre obtendremos la constante c, si esa transacción es en el vacío. Y para que esa constante sea una verdadera constante, debe ocurrir que la latencia (el retardo) sea directamente proporcional al intervalo espacial. La implicación más interesante de que esto sea así es que esa transacción empieza instantaneamente, sin demora.

Por ejemplo, supongamos que hacemos un ping (eco) con un rayo láser sobre la superficie de la Luna.

Tardaremos aproximadamente 2.5 segundos en ver nuestro rayo Laser reflejado, es decir, que la transacción electromagnética duró (tuvo una latencia de) 1.25 segundos en la ida, y otros tantos 1.25 segundos en la vuelta (reflejo). Pero, la transacción en la ida comenzó instantaneamente desde el mismo momento en que el rayo láser es lanzado desde la superficie de la Tierra, y dicha transacción termina exactamente a los 1.25 segundos. ¿Qué significa esto?. Significa que si supiéramos y pudiéramos construir un detector de media transacción (ansible), nuestro ping lunar sería detectado en la mitad de tiempo. Sería como si el fotón emitido por el láser hubiera viajado a dos veces la velocidad de la luz en el vacío. Pero, esa tecnología de los detectores de submúltiplos de transacción electromagnética no parece que se vaya a hacer realidad pronto, sobre todo si tenemos en cuenta qué teorías físicas imperan en la actualidad, y cuánto tiempo queda aún para que sean desterradas definitivamente. Los detectores de submúltiplos no serán realidad al menos hasta dentro de 1000 años o más, si tenemos en cuenta el ritmo real al que avanza la ciencia y la tecnología humanas.

Pero, podemos entrever cómo funcionaría un detector de submúltiplos. Cuando hacemos ping sobre la Luna, sabemos que observaremos el fotón reflejado al cabo de 2.5 segundos, y ese sería un suceso seguro, es decir, existiría una probabilidad p = 1 de que al cabo de 2.5 detectaremos el reflejo. Con un detector de submúltiplos de media onda, esa probabilidad se reduciría a la mitad si queremos detectarlo al cabo 1.25 segundos. Supongamos que nuestro ping contiene la información de un bit, representado por un 1. Entonces para detectar el submúltiplo con probabilidad segura, p = 1, necesitaríamos más de una antena, separadas espacialmente cierta distancia, cuantas más mejor. Pero, el problema se complica, ya que al estar separadas las antenas, no podremos integrar clásicamente la información completa en tiempos inferiores al de la latencia de la transacción.

¿Qué sería básicamente un ansible de submúltiplos (detector)?. Básicamente sería una antena multibanda. Supongamos que una antena normal, estándar, emite un único fotón hacia un ansible que se encuentra a 299792458 metros en el vació, y lo sintonizamos a media onda. Entonces, ¿seremos capaces de detectar el fotón en la mitad de tiempo, es decir, en 0.5 segundos¿. El ansible conseguiría ver un submúltiplo de ese fotón, no el de la frecuencia principal, con lo cual, la información sería redundante en todos y cada uno de sus múltiplos y submúltiplos, y cada uno llegaría a su ansible detector (no necesariamente el mismo) a un tiempo distinto.

Posted in Astrofísica, Cosmología, Física de partículas, Matemáticas, Mecánica Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 1 Comment »

¿Qué es el universo?, ¿por qué existe?, ¿tuvo realmente un principio?

Posted by Albert Zotkin en abril 24, 2018

Hola amigos de Tardigrados. Hoy os voy a regalar algunas pinceladas autobiográficas, no exentas de sorna.

Cuando nací, hace ya muchos años, tuve una sensación muy desagradable, y lo recuerdo perfectamente. Alguien me azotó con fuerza, me puse a llorar, abrí los ojos y me vi boca abajo cogido por los pies, con el cordón umbilical ya cortado, y me pregunté que coño era todo esto. Cuando me di cuenta, mi llanto se agudizó con rabia. Me había dado cuenta de que había nacido el universo y de que me esperaba un arduo camino lleno de vicisitudes, hasta llegar a comprender totalmente el sentido que tenía todo esto.

Cuando llegué a los tres años de vida, un día me encontré jugando, en la calle de tierra, con un juguete de madera que mi padre había fabricado para mí. En un descuido, cuando me aburrí del juguete, alguien me lo robó. Mi madre me preguntó dónde estaba el juguete, qué había hecho con él, pero no supe qué responder. Me quedé un rato más sentado en la calle de tierra, miré hacia el final de la calle y vi al hijo del vecino jugando en la puerta de su casa con mi juguete, que ahora era suyo, porque mi juguete al ser abandonado por mi, tuvo la suerte de conseguir ser adoptado por un nuevo dueño. Nunca lo recuperé, ni supe más de él. Pero, aquel mismo día tuve un pensamiento lleno de lucidez en el mismo sitio donde me robaron el juguete. Ese pensamiento tan lúcido era el siguiente: “todo lo que existe, (que ahora llamamos universo) nunca tuvo un principio y nunca tendrá un final. Y esa es la razón más simple que explica todo lo complejo. Algo que es eterno no tiene necesidad de ser creado“.

Amigo lector, te estarás preguntado, cómo es posible que a mi corta edad, yo pueda haberme preguntado esas cosas tan profundas o incluso recordar el momento de mi nacimiento. El momento de nuestro nacimiento constituye un cambio de medio muy brusco. Es como darse un chapuzón en agua helada, el auténtico bautismo. A esa sensación, tarde o temprano la vistes con elementos reconocibles para poder ser recordaba. En cambio, el pensamiento cosmogónico que elaboré a los tres años de edad, no es la típica clase de pensamientos que se suelen tener los niños de esa edad, lo reconozco. También puede ser que todo haya sido un cúmulo de falsos recuerdos, y yo esté alucinando con ellos, creyendo que fueron reales alguna vez en mi experiencia vital.

Nacimiento del Universo

Siguiendo este razonamiento cosmogónico, podemos afirmar que todo lo que existe en el universo, no es que esté conectado de alguna manera, sino que es la misma cosa, aunque observada parcialmente y desde puntos de vista diversos. Por lo tanto, no es extraño, que lo que en física cuántica se llama “entrelazamiento cuántico“, sea en realidad, no entrelazamiento, sino la constatación de que todo en este universo es parte de todo. Nada está conectado, porque el concepto de conexión implica la existencia previa de entidades separadas, aisladas. El nexo universal, es pues la interconexión necesaria de algo que nunca estuvo separado, sino que cualquier parte es necesariamente coherente con todas las demás.

¿Por qué existe el universo?. Existe una corriente de consenso oficial, que yo suelo llamar sarcásticamente “mainstreamófila“, en la cual algunos de sus gurús exponen con orgullo preguntas estúpidas a cerca del universo, como por ejemplo esta: ¿”Por qué hay algo donde no debería haber nada“?. Es más que evidente que toda pregunta estúpida tiene la interesante propiedad de contestarse a sí misma. “Mire usted, hay algo, porque si no hubiera nada, nadie tendría la posibilidad de hacerse esa pregunta estúpida, ¿ok, tonto del culo?“. Preguntas de este estilo se las he oído a muchos “gurús“, que van por ahí dando charlas, y participando en debates, entrevistas, etc, y cobrando dinero por todo ello, y haciéndose los interesantes y super-inteligentes gallitos que todo lo saben. Uno de esos gallitos, es Bryan Greene, y en youtube puedes encontrar miles de videos, como este que pongo de muestra,

mostrando lo super-inteligentes que son todos estos “gurús” del “universo de pacotilla” que nos explican. La lista de estos gurús mainstreamófilos, que están ahí para darnos lecciones a todos, se extiende casi hasta el infinito. Además de Bryan Green, están Sean Carroll, Max Tegmark, y miles más.

Básicamente, todos son “influencers” de la corriente yanqui de la posverdad, donde el multiverso, la teoría de cuerdas, la supersimetría, y las ondas gravitacionales son algunos de sus pilares de sustentación, de sus carteras repletas de billetes, por adoctrinar a las masas con sus mierdas. He elegido ese video de youtube, al azar. Entras en youtube, escribes en la barra de búsquedas el nombre de algunos de estos gurús y te salen miles de videos encontrados, todos hablando de la misma mierda ( el Big Bang, las materia oscura, la energía oscura, los agujeros, negros, el multiverso, las ondas gravitacionales, etc, etc, etc). Y lo más gracioso de todo es que te lo venden como si fuera la Verdad Absoluta e Indiscutible. Respecto a la inflación cosmica, lo único que está inflado realmente es el ego de todos estos gurús, y sus respectivas billeteras.

Transcribramos y analicemos brevemente ese video que he puesto de muestra, de todos estos “gurús tan geniales“:

“La ultima pregunta”: ¿Por qué hay algo en lugar de nada”. Por todos los países esta cuestión ha desconcertado e intrigado a muchos filósofos, científicos y teólogos. Si resulta que es un universo eterno, o es una deidad eterna, parece que nadie ha podido responder con coherencia por qué eso debe ser así, en un sentido u otro. Sin embargo, hay al menos algo que sí podemos saber, algo que tiene una existencia innata, algo que se deja capturar racionalmente.

Max Tegmark: Por su puesto, si dices que existimos porque algo nos creó, y que antes otra causa creó a esa, etc. Entonces, siempre estarás buscando la siguiente causa que creó la causa anterior, nunca acabarás de buscar. Pero, yo creo que hay una especie de objeto real ahí afuera que fue claramente no creado. Y hay objetos matemáticos, como el cubo, por ejemplo, y no estoy hablando de cubos como terrones de azúcar, o que sea una especie de combustible físico, sino de un objeto matemático, conocido por los matemáticos como el cubo sobre un dodecahedro, sobre una esfera, o un espacio vectorial. Todos estos objetos existen, independientemente del espacio y el tiempo, existen claramente fuera de ese universo espacio-temporal. Ese cubo no fue creado hace 14 millones de años en el Big Bang, ¿verdad?. Y sin embargo, ves que ese objeto ya existe ahí, inmutable, perfecto siempre. Existe, y tienes la impresión de que ese objeto ya existía antes de que pensáramos en él, que nosotros no hemos inventado ese cubo. La idea de que ese objeto es un cubo no es una idea arbitraria, una idea que pueda ser inventada.

Esto explica por qué los objetos matemáticos existen, pero ¿por qué existen los planetas, las mentes, las rocas?

Bryan Greene: El multiverso simulado, aunque viene con mucho razonamiento directo en la matriz cuyos cerebros están siendo estimulados para pensar que están en una determinada realidad, aunque no lo estén, sino que son entidades simplemente instaladas en receptáculos de hardware, conectadas a un computador central. Ese podría ser el caso. La razón por la que yo hablo de esta idea en mi libro, no es porque me la tome en serio. Pero hay una conclusión interesante: que esta clase de razonamiento te permite hacerte la siguiente: pregunta ¿son las matemáticas una descripción de la realidad, o son por sí mismas la misma realidad?. ¿Son las matemáticas algo inventado, o es algo descubierto, algo que ya estaba ahí antes de que se nos ocurriera pensar en ello? ¿Son algo preexistente que ya formaba parte del tejido del tapiz que es la realidad?. El multiverso simulado del que hablo en mi libro, te da la posibilidad de hacerte es pregunta. Porque si tu y yo, formamos parte ahora mismo de la misma simulación informática. Eso esta muy bien, siento que es real para mí, y es un buen disfraz con el que la realidad nos quiere hacer creer que no estamos en ninguna simulación informática. Pero, imagina que abrimos ese computador donde se está ejecutando la simulación, y miramos lo que hay dentro, ¿qué veremos?. Lo que veríamos sería algo muy parecido a infinidad de ceros y unos siendo manipulados mediante infinidad de ecuaciones matemáticas. Por lo tanto, si eso es lo que somos, entonces, seríamos sólo matemáticas. Seriamos solo el despliegue, el resultado de aplicar ecuaciones matemáticas sobre objetos matemáticos, para transformarlos o crear otros nuevos. Y eso significaría que las matemáticas serían la misma realidad, la realidad misma.

Max Tegmark: Una de las cosas mas interesantes que hemos descubierto, a lo largo de los siglos, es que las matemáticas están por todas partes. Ya Galileo nos explicaba que la naturaleza, el libro de la naturaleza, está escrito en el lenguaje de las matemáticas, y después de que él hiciera esa observación, la gente fue descubriendo más y más regularidades, más simetrías, maravillosas relaciones matemáticas. Descubrieron y se sorprendieron de ver cómo con las matemáticas se podía modelar tan bien la realidad. Después se descubrió el Modelo Estándar de la Física de Partículas, Y la razón por la que yo creo que la naturaleza puede ser descrita tan bien mediante las matemáticas es que, en una ultima y muy profunda instancia, la naturaleza son matemáticas.
Y ahí está la respuesta a tu pregunta.
No, ni la naturaleza es en sí misma matemáticas, ni estamos en una simulación informática. Por mucho que se empeñen Bryan Green, Max Tegmark, y muchos otros gurús de la posverdad, en adoctrinarnos con sus ideas, nuestro universo, es real, no es una simulación, y tampoco está hecho de matemáticas. Si el universo fuera matemáticas, entonces sí habrían muchas probabilidades de que todo fuera una simulación informática. La prueba de que nuestro universo no es matemáticas está en que hay cosas que las matemáticas no puede modelar. Por ejemplo, la emergencia de la consciencia humana, no puede ser simulada desde procesos y estructuras matemáticas.

La mente humana nunca podrá comprenderse totalmente a sí misma, siempre quedarán recintos psíquicos inaccesibles. Pero, no hace falta ejemplos tan rebuscados para darse cuenta que las matemáticas no pueden modelar perfectamente la naturaleza, y menos identificarse con ella. El ejemplo más simple que se me ocurre es la suma 1 + 1 = 2. En esa sencilla ecuación hay un ejemplo perfecto de pérdida de información. Si nos dan el resultado, 2, y nos piden que hallemos los números desde los que alguien realizó la suma, nunca podremos saber qué sumandos fueron utilizados. Esa información se pierde de forma irreversible cuando se realiza la suma. Luego, las matemáticas no tienen memoria. Si la naturaleza fuera sólo matemáticas, sería un ente sin memoria. Supongamos, ahora, que la naturaleza, el universo, fuera el continuo resultado de una simulación informática ejecutándose en una especie de super-ordenador. Lo más parecido a eso que podemos imaginar sería un fractal infinito, como el que realicé hace ya algunos años con el titulo de “fragmento de Arrenia II

Yo poseo todo el código fuente, y todas las ecuaciones matemáticas necesarias para generar esa clase de fractales infinitos. Navegar por un mundo infinito de esas características, un mundo sin bordes, es muy aburrido. Cualquier parte se parece a cualquier otra, nada es especialmente interesante, todo aparece básicamente inerte y estático. La tercera dimensión se confunde con la cuarta, es decir, con la escala. Los colores son falsos. En un fractal solo existe la información de qué puntos pertenecen al conjunto y cuales no. Un punto está dentro o fuera del conjunto que caracteriza al fractal si cumple una serie de propiedades al ser evaluado desde una ecuación matemática. El fractal infinito Arrenia II podría perfeccionarse, y conseguir que aparecieran estructuras dinámicas, transformándose, naciendo unas de otras, incluso se podría conseguir que el observador que lo navegue sienta las texturas, la dureza o blandura, de las superficies de ciertas estructuras, o si están más calientes o frías que su tacto. Incluso podríamos conseguir introducir leyes físicas como la de la gravedad. Pero, Arrenia II seguiría siendo un fractal, infinito, pero fractal. Eso sí, sería más interesante de navegar ahora que antes, porque podrían existir zonas sorprendentes dispuestas a ser descubiertas, muy distintas a las zonas más comunes. Incluso podrían existir zonas que quedarían inaccesibles, eterna o temporalmente, para cualquier navegante-observador. ¿Cual es el problema con Arrenia II y con todo fractal infinito que intente ser una simulación de la realidad?. El problema esencial es ontológico. ¿Qué ocurre si un navegante-observador de esa simulación se encuentra con otro navegador-observador?. ¿puede eso ocurrir?. Y en el caso de que si pudiera ocurrir, ¿podrían interactuar?.

La prueba de que nuestro universo no es una simulación informática, ni nada parecido, es que los navegantes-observadores pueden encontrarse realmente e interactuar. Seres con su propia conciencia, seres inteligentes que te observan, mientras tú les observas a ellos, que te saludan, que te hablan. En una simulación, sólo navega-observa el que está fuera de la simulación. nunca quien está dentro de ella. No se puede nadar y guardar la ropa al mismo tiempo.

Saludos

Posted in Astrofísica, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 27 Comments »

Supercomputación tetrádica: primera aproximación hacia una Teoría de la Super-Relativididad

Posted by Albert Zotkin en abril 22, 2018

En este pequeño artículo voy a definir una nueva clase de derivada de una función, y como corolario veremos cómo surge también una nueva variedad de superintegral indefinida.

La forma estándar de definir la derivada de una función f, para un valor x, es la siguiente

\displaystyle f'(x)=\lim _{h\to 0}{\frac {f(x+h)-f(x)}{h}} (1)
De esta forma, la derivada es una especie de medida de la rapidez con la que cambia esa función f. Lo que hemos hecho es incrementar la variable independiente x con un número infinitesimal h. Incrementar aquí es sumar. Pero también podríamos haber incrementado la x con otras operaciones, no sólo con una suma. Por ejemplo, podemos incrementarla mediante la multiplicación por un número muy próximo a la unidad. Definamos la superderivada de la función f de x de la siguiente forma:

\displaystyle \text{SD}(f(x))=\lim _{h\to 0} { \sqrt[h]{ \frac{ f(x(1+h)) }{f(x)} }} (2)
Esta superderivada, al definirla de esta forma, también es una especie de medida de la rapidez con la que cambia esa función f. Se puede demostrar fácilmente que esta superderivada está relacionada con la derivada estándar de esta forma:

\displaystyle \text{SD}(f(x))= \exp\left({ x \frac{f'(x)}{f(x)}}\right) (3)

Por lo tanto es posible hallar la superintegral indefinida de una función f(x), si podemos resolver para y la ecuación diferencial siguiente:

\displaystyle x y' = y \log f(x) (4)
Es decir, tenemos la exponencial siguiente y resolvemos para y:
\displaystyle f(x) = \exp\left(\frac{x y'}{y} \right) (5)
Pongamos un pequeño y simple ejemplo: Sea la función:

\displaystyle f(x) = x^2
Hallemos su superderivada primera:
\displaystyle \text{SD}(f(x))= \exp\left(\frac{x y'}{y} \right) = \\ \\   =\exp\left(\frac{2x^2}{x^2} \right) =  e^2   (6)
y vemos que es la constante e elevada al cuadrado. Hallemos ahora la superintegral indefinida de esa constante e2 (se trata de hallar la función y desde la ecuación diferencial:
\displaystyle  e^2  = \exp\left(\frac{x y'}{y} \right)  \\ \\  y = x^2 \\ \\  y =\text{SI}(e^2)=x^2 (7)
Igualmente, la superintegral indefinida de x2 es:
\displaystyle \text{SI}(x^2)=e^{\frac{1}{4} \log \left(x^2\right)^2} (8)

Las representaciones gráficas de estas tres funciones son así:

Alguien siempre puede decir,”muy bien, todo eso es muy bonito, pero ¿qué aplicaciones nos propones para esa supuesta teoría de la super-relatividad de la que hablas?“.

La primera, y más intuitiva, de las aplicaciones de la supercomputacion, en el terreno del modelado de fenómenos físicos, es el cálculo del efecto Doppler, de la luz que observamos, emitida por un objeto que se mueve respecto a nosotros con una velocidad constante, v, y en un entorno inercial. Acostumbramos a pensar que esa velocidad v es simplemente la primera derivada del espacio respecto al tiempo, y para calcular cómo varía la frecuencia de la luz observada, que fue emitida por ese objeto, debemos aplicar una teoría. pero, ninguna teoría nos estaba diciendo hasta ahora que la frecuencia Doppler observada es simplemente directamente proporcional a la primera superderivada del espacio respecto al tiempo. Es decir:

\displaystyle f= f_0 \;SD(r(x))= f_0 \; e^{\frac{x r'(x)}{r(x)}}
donde f0 es la frecuencia de la luz en el marco de referencia de la fuente y r(x) es la función desplazamiento, es decir, un vector que nos indica la posición de la fuente en nuestro marco de referencia. Veamos más específicamente cómo es este cálculo en un entorno inercial. En tal entorno inercial, la función desplazamiento r(x) es simplemente la función identidad. Es decir, r(x) = x. Por lo tanto la frecuencia Doppler, f, observada es directamente proporcional a la superderivada:

\displaystyle f=  f_0 \; e^{r'(x)} \\ \\  \text{\small donde obviamente } \\ \\  r'(x)= \frac{v}{c}=\beta, \; \text{\small es la beta de la velocidad inercial del objeto}
y c es la velocidad de la luz en el vacío. Más exactamente, se puede afirmar que, en un entorno inercial, se cumple la identidad diferencial:

\displaystyle \frac{x r'(x)}{r(x)} = \frac{v}{c} (9)
Es evidente, que todo esto tiene que ver con las hiperoperaciones y la función de Ackermann. Pero, sigamos con nuestras aplicaciones en el modelado de los fenómenos físicos. ¿Cuál sería nuestra ecuación diferencial equivalente a la (9) de movimiento en un entorno no-inercial?. Un entorno no-inercial, quiere decir, una región espacio-temporal donde la influencia de la gravedad es significativa respecto al movimiento de los objetos. Por ejemplo, en un entorno donde existe un campo gravitatorio significativamente grande, entre objeto que emite la luz y el observador pueden existir una diferencia significativa de potencial gravitatorio. En tal caso la ecuación diferencial de nuestra superderivada se hace “cuadrática”, es decir:

\displaystyle \frac{x r'(x)}{r(x)} = \frac{v^2}{c^2}= \frac{\phi}{c^2} (10)
donde es más que obvio que v2 se identifica con la diferencia de potencial gravitatorio, f, entre objeto y observador.

Posted in Gravedad Cuántica, Matemáticas, Mecánica Cuántica | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 4 Comments »

Primer siglo sin Einstein en la Era de Acuario: El origen de la inercia

Posted by Albert Zotkin en enero 26, 2018

¿Es pronto aún para evaluar los estragos causados por las teorías de Einstein (la general y la restringida) en el árbol de la ciencia y la tecnología?. En realidad, el señor Einstein no tuvo toda la culpa de que sus teorías se implantaran como paradigma actual de la física teórica, y más concretamente de la física de la gravitación universal. De hecho, aún estamos sin saber qué es realmente la gravedad, y una teoría cuántica de la gravedad parece aún algo utópico de alcanzar. Ningún avance tecnológico se ha producido basado en los dictados de la Teoría General de la Relatividad de Einstein, y menos en la Restringida o Especial. Por ejemplo, la cacareada afirmación de que el sistema de geolocalización global GPS funciona gracias a que tiene incorporadas rutinas para hacer correcciones relativistas basadas en las teoría de Einstein es falsa. Se ha demostrado, no sólo que el GPS puede funcionar correctamente sin esas correcciones relativistas, sino que son innecesarias, y lo único que consiguen es complicar todo el proceso computacional para al final dar el mismo resultado que da la física clásica de Newton, aunque, eso sí, con el efecto Sagnac debidamente calculado y tenido en cuenta. Por cierto, un efecto Sagnac que las teorías de la relatividad de Einstein no pueden explicar, por mucho que se empeñen sus santones en convencernos de lo contrario.

Efectivamente, la relatividad de Einstein tiene santones (defensores a ultranza de sus dogmas) como cualquier religión o secta. La enrevesada matemática de la Relatividad General hace casi imposible, no ya para un profano, sino para cualquiera que se llame experto en la materia, usarla con éxito para el cálculo práctico de algo en concreto. Con las ecuaciones de Newton para la gravitación se puede llegar hasta resolver analíticamente el problema de los dos cuerpos, y el problema de los tres cuerpos hasta se puede resolver para ciertos casos y condiciones iniciales sin dar soluciones caóticas. Con la Relatividad General de Einstein es prácticamente imposible resolver nada, y un problema de multi-cuerpo, como es el de la gravitación a nivel de galaxias y cúmulos, se hace intratable ad infinitum. De hecho el legado de Einstein consiste en que gozamos de una serie de anomalías y paradojas que lo único que consiguen es poner palos en la rueda del progreso científico, porque se dedica mucho esfuerzo intelectual, de recursos humanos y económicos a falsar temas teóricos que lo único que consiguen es bloquear más aún las mentes hacia el entendimiento y el avance científico real. Ejemplo de esas anomalías es la llamada materia oscura, un conundrum que consume grandes cantidades de recursos para ser esclarecido (intentan por todos los medios descubrir las partículas de materia oscura). Pero no quieren darse cuenta, que la única forma real de resolver ese enigma consiste en desechar la Relatividad General y proponer un modelo mejor, otra teoría de la gravitación que prediga el mismo efecto, pero sin materia oscura, y que sea capaz también de predecir otros efectos gravitacionales explicados y/o inexplicados por la teoría reinante actual. El problema de desechar la Relatividad General es que está demasiado integrada en los fundamentos de la física actual, y desecharla implicaría derribar todo el edificio, y nadie está dispuesto a derribar su casa ni su centro de trabajo sin tener garantizado otro mejor al que acudir a trabajar o a vivir, en eso consiste la definición de paradigma.

Pero, la cuestión que me ha movido hoy a escribir este pequeño artículo no es otra que el tema de qué es la inercia, y como encaja dentro de la gravitación universal. A nadie se le debe ocultar el hecho de que a la física clásica de Newton se le escapan muchas cosas, porque el diablo está en los detalles, aunque básicamente la podemos considerar correcta. Una de las cosas que se le escapa es por qué existe la inercia. A menudo se dice que la ciencia debe describir hechos. nunca explicar sus causas. Pero, me parece a mi que eso lo dicen siempre aquellos ignorantes que son incapaces de saber las causas científicas. ¿Por qué es más importante saber las causas que describir sus efectos?. Por la sencilla razón de que sabiendo la causa puedes explicar más de un efecto. Es decir, una única causa puede ser el origen de muchos efectos diferentes, que aparentemente parecían inconexos. Por ejemplo, la física de Newton no predice correctamente el funcionammiento de un giroscopio, aunque a primera vista pudiera parecer lo contrario. Observemos con atención cómo el siguiente giroscopio, cuando está en funcionamiento, parece que sea capaz hasta de levitar:

En un giroscopio no sólo existe inercia giroscópica, también existe la llamada precesión y la llamada nutación. Pero todo esos efectos tienen una única causa. Una causa que, simple y llanamente, nos está diciendo que la gravedad posee una velocidad finita de propagación, aunque es muchos miles de ves más grande que la velocidad de la luz en el vacío.

Veamos ahora un bonito ejemplo de cómo la velocidad de la gravedad es finita y más grande que la de la luz. Desde hace ya más de un siglo se viene afirmando que la Relatividad General de Einstein predice con pasmosa exactitud la precesión extra del perihelio del planeta Mercurio que la física clásica de newton es incapaz de predecir. Eso es correcto, esa predicción es muy exacta, pero lo que a menudo se olvida, o peor aún se ignora, es que antes que Einstein ya hubo alguien, un tal Paul Gerber, que pudo predecir con la misma precisión, si cabe, lo mismo, aunque desde planteamientos muy diferentes. En su documento histórico “Die Fortpflanzungsgeschwindigkeit der Gravitation” publicado en Annalen der Physik, Vol. 52.¡, nos detalla minuciosamente todos sus pasos y fundamentos hasta llegar a su famoso Potencial Gravitatorio de Gerber, FG, cuya ecuación posee el siguiente aspecto

\displaystyle  \Phi_G(r)=-{\frac {GM}{r\left(1-{\frac {1}{c}}{\frac {dr}{dt}}\right)^{2}}} (1)
donde M es la masa del cuerpo central, r es la distancia del cuerpo test (de masa insignificante comparada con M) al centro de M, c es la velocidad de la gravedad, que en este supuesto de Gerber, coincide con la velocidad de la luz, y donde dr/dt es la velocidad radial del cuerpo test que gravita alrededor del cuerpo principal (Mercurio alrededor del Sol, por ejemplo). Y si expresamos esa ecuación desde una expansión binomial tenemos esta otra:

\displaystyle  \Phi_G(r)=-{\frac {GM }{r}}\left[1+{\frac {2}{c}}{\frac {dr}{dt}}+{\frac {3}{c^{2}}}\left({\frac {dr}{dt}}\right)^{2}  + {\frac {4}{c^{3}}}\left({\frac {dr}{dt}}\right)^{3} \dots  \right] (2)
El problema del Potencial de Gerber es esencialmente que sólo puede explicar las anomalías de precesión, pero otras predicciones de gravitación quedan bastante desdibujadas si se aplican esas ecuaciones Gerberianas. ¿Por qué?. De hecho la Relatividad General tuvo un éxito tan rotundo porque ofrecía respuestas muy revolucionarias para la época a todos esos efectos que aún permanecían inexplicados por la teoría clásica. Pero en el fondo existe algo mucho peor que todo eso. La Relatividad General venia a sustituir definitivamente a la Gravitación de Newton, ofreciendo afirmaciones sobre algo muy extraordinario llamado espacio-tiempo, y cómo una supuesta curvatura del mismo podía predecir todos y cada uno de los fenómenos y efectos conocidos y por conocer del universo entero. La mente humana quedó definitivamente seducida por algo encantador y de una belleza matemática sin igual. Sin embargo, a pesar de esa obnubilación del ánimo y la mente racional debida a las artimañas relativistas, aun es posible recuperar la sensatez racional y entrever de qué va todo esto.

El potencial de Gerber es básicamente el potencial gravitatorio de Newton pero con un factor de retardo debido a que la velocidad de la gravedad es considerada finita. Gerber, y después Einstein, nos dice que esa velocidad de la gravedad es igual a la velocidad de la luz, c. En cambio, Newton quedó estupefacto al verse forzado a admitir que su gravitación universal solo podía funcionar si la velocidad de propagación de la gravedad era considerada infinita, es decir, instantánea. Pues mire usted por donde, que no va a ser ni una cosa ni la otra, sino que en el termino medio está la virtud. Es decir, ni infinita ni la velocidad de la luz c, sino una magnitud intermedia que podría ser miles de veces c, según los casos. Y la razón de todo esto la tiene el momento cuadrupolar del Sol. Se lanzó de una forma demasiado aventurera la Relatividad General de Einstein a explicar la precesión extra del perihelio de Mercurio, sin que en principio se supiera cual era el momento cuadrupolar del Sol. De hecho, aún hoy en día se desconoce el valor exacto de ese momento cuadrupolar del Sol, y esa ignorancia hay que “agradecérsela” al paradigma actual, que nos impide hacer sustituciones en fundamentos de física teórica. Aceptar que la precesión observada del perihelio de Mercurio se debe enteramente al momento cuadrupolar del Sol sería enterrar definitivamente la Relatividad de Einstein. Algo tan revoluoinario y escrito con matemáticas tan bellas, tirado a la papelera por algo que nadie quería mirar de frente y con los ojos bien abiertos, preferían la sopa boba del dogmatismo irracional, que es la que les da de comer. Al final, siempre queda la física de Newton, pero alterada con factores, que según los casos explican y predicen todos y cada uno de los efectos y anomalías. Este momento cuadrupolar nos dice que el Sol al girar deja de ser una esfera perfecta y presenta cierto achatamiento en los polos, adquiriendo una forma oblonga, lo mismo que le pasa al planeta Tierra, pero de forma aún más pronunciada.

Presentemos ahora el momento cuadrupolar del Sol como factor de corrección aplicado a un potencial Newtoniano F(r): La formula general para los distintos momentos es la siguiente

\displaystyle \Phi(r) = -\frac {G M }{r}\left[1- \sum_{n=1}^{\infty} \left(\frac{R_s}{r}\right)^2 J_n P_n (\cos \theta)\right] (3)
En coordenadas polares (r, ?, f), donde Rs es el radio del Sol, Pn son polinomios de Legendre de grado n, y Jn son los distintos coeficientes para modelar las distorsiones de la esfera en sus diferentes grados. El momento cuadrupolar de grado 2, el J2, es el que explica casi en tu totalidad la anomalía del perihelio de Mercurio.

Ya empezamos a vislumbrar ciertas similitudes entre el potencial de Gerber, FG, expresado en las ecuaciones (1) y (2) y el potencial gravitatorio Newtoniano corregido F(r). Efectivamente, lo que para Gerber era un retardo gravitacional de la propagación, aquí es ahora un simple momento cuadrupolar. Por lo tanto, lo que antes era una velocidad de la gravedad igual a la de la luz c, ahora es aquí una velocidad Newtoniana instantánea, como clásicamente se ha de considerar, o también como una velocidad superlumínica muy superior a c. Es más que evidente que en las ecuaciones (1) y (2), el factor que está entre corchetes es una corrección multipolar del campo gravitatorio, y dentro de ella se encuentra el sumando cuadroplar que es muy significativo para el caso del Sol como cuerpo central respecto de la órbita de Mercurio. Por esa razón, la llamada gravedad de Gerber no puede ser aplicada para predecir otros efectos distintos, como la deflexión de la luz, etc, ya que, como digo, el factor entre corchetes sólo corrige la precesión de satélites alrededor de cuerpo central, y el campo gravitatorio sigue siendo el clásico Newtoniano.

¿Cuál es el problema?. Si el valor exacto del momento cuadrupolar del Sol sigue siendo desconocido, y a fecha de hoy sabemos que sigue desconocido, ¿en qué lugar queda la Relatividad General, si toda la anomalía de la precesión del perihelio de Mercurio puede ser explicada desde el conocimiento exacto del momento cuadrupolar del Sol y con sólo la física clásica de Newton?.

APÉNDICE: Y para aquellos incrédulos que aún se resisten a admitir que la velocidad de la gravedad es miles de veces mayor que la velocidad de la luz en el vacío, aquí va un pequeño apéndice final: Demostraré que la velocidad de la gravedad se puede deducir incluso observando un péndulo simple batiendo segundos en la superficie terrestre:

1. El potencial gravitatorio clásico en la superficie de la Tierra viene dado por la ecuación F = – GM / R, y la de la intensidad de la gravedad por g = G M / R2

2. Por otro lado, sabemos ya que el potencial gravitatorio puede ser expresado asi:

\displaystyle  \Phi= -\cfrac{G\ M}{R}= -\cfrac{c^4}{c_g^2}    (4)
donde c es la velocidad de la luz, y cg es la velocidad de la gravedad, en el sistema gravitatorio terrestre. Y eso indica que la intensidad de la gravedad se puede expresar también así:

\displaystyle  g= \cfrac{G\ M}{R^2 }= \cfrac{c^4}{R c_g^2}    (5)
3· Dispongamos ahora de un péndulo simple, de longitud de hilo L, en la superficie terrestre, que bata segundos. Su periodo de oscilación será:

\displaystyle   T=2\pi {\sqrt  {L  \over g}}\,  (6)
4· Sustituyendo g de ecuación (5) en ecuación (6), y despejando cg tenemos:

\displaystyle  c_g=\frac{T c^2}{2 \pi  \sqrt{L R }}  (7)
5. Y como hemos dispuesto el péndulo para que bata segundos, su periodo será de T = 2 s, por lo que la longitud de su hilo será:

\displaystyle      L = g\left( \frac {T}{2\pi } \right)^2  = 0.994 \;\; \text{m}  (8)
6. Simplificando la ecuación (7), y sin perder de vista el correcto análisis dimensional:

\displaystyle  c_g=\frac{c^2}{\pi  \sqrt{0.994  R }}  (9)
7. Sólo resta introducir los valores de las magnitude de c y R (radio de la Tierra) para saber la velocidad de la gravedad en la superficie terrestre.

\displaystyle  c = 3 \times 10^8\;\; \text{m/s} \\ \\  R = 6.378  \times 10^6 \;\; \text{m} \\ \\ c_g=\frac{(3 \times 10^8)^2}{ \pi  \sqrt{0.994  (6.378  \times 10^6) }}= 1.13778\times 10^{16}\;\;  \text{m/s} \\ \\ \\  c_g=3.79259\times 10^7 c  (10)
Es decir, si mis cálculos no son incorrectos, obtenemos, en la superficie de la Tierra, una velocidad de la gravedad igual a casi 38 millones de veces la velocidad de la luz c.

Saludos

Posted in Astrofísica, Gravedad Cuántica, Relatividad | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 24 Comments »

 
A %d blogueros les gusta esto: