stars

Welcome my dear friends. Enjoy your visit and share your thoughts. Thank you, much love

Friday, 7 February 2025

 

Quantum information science & spooky actions

From Wikipedia, the free encyclopedia
QUANTUM MECHANICS
.Quantum information: science is a field that combines the principles of quantum mechanics with information theory to study the processing, analysis, and transmission of information. It covers both theoretical and experimental aspects of quantum physics, including the limits of what can be achieved with quantum information.
  • The term quantum information theory: is sometimes used. Still, it does not include experimental research and can be confused with a subfield of quantum information science that deals with the processing of quantum information.
  • Information theory: is the mathematical study of the quantification, storage, and communication of information.*
  • Entropy:
A key measure in information theory is entropy. Entropy quantifies the amount of uncertainty involved in the value of a random variable or the outcome of a random process. For example, identifying the result of a fair coin flip (which has two equally likely outcomes) provides less information (lower entropy, less uncertainty) than determining the outcome from a roll of a die (which has six equally likely outcomes). Some other important measures in information theory.
Information theory studies the transmission, processing, extraction, and utilization of information. Abstractly, information can be thought of as the resolution of uncertainty. In the case of communication of information over a noisy channel, this abstract concept was formalized in 1948 by Claude Shannon in a paper entitled A Mathematical Theory of Communication, in which information is thought of as a set of possible messages, and the goal is to send these messages over a noisy channel, and to have the receiver reconstruct the message with low probability of error, in spite of the channel noise.
Shannon's main result, the noisy-channel coding theorem, showed that, in the limit of many channel uses, the rate of information that is asymptotically achievable is equal to the channel capacity, a quantity dependent merely on the statistics of the channel over which the messages are sent.
This reminds me a little like when we went from solid-state copper wires and vacuum tubes to fiber optics, with tiny beams of light packets of information you can transmit through plastic or glass fibers not much thicker than human hair. Then we have the nanotech chip, which can fit in a much smaller conduit space than the wires, old semiconductors, connectors, and even transistors we used to have, which were the rage of the age in the 1960s and 1970s.
Is this mathematically calculated information constant or variable? How safe is the variable information one would require to make a hologram? Or how about transporters? Information and Einstein's spooky actions, quantum entanglement.
In simple terms, spooky action is like a thousand people at all points in the universe flipping a coin at the same time. The coin has a heads-and-tails side, so what are the chances of all of them landing with tails up? Now, that would be spooky if they did turn up all tails. I would have to say that it didn't happen by chance; it was planned that way.
Thank you for reading.
The Fairy lady
__________________________________________

Ciencia de la información cuántica & acciones Espeluznante

De Wikipedia, la enciclopedia libre
MECÁNICA CUÁNTICA
  • Información cuántica: la ciencia es un campo que combina los principios de la mecánica cuántica con la teoría de la información para estudiar el procesamiento, análisis y transmisión de información. Abarca tanto los aspectos teóricos como experimentales de la física cuántica, incluidos los límites de lo que se puede lograr con la información cuántica.
  • El término teoría de la información cuántica: se utiliza a veces. Sin embargo, no incluye la investigación experimental y puede confundirse con un subcampo de la ciencia de la información cuántica que se ocupa del procesamiento de la información cuántica.
  • Teoría de la información: es el estudio matemático de la cuantificación, el almacenamiento y la comunicación de la información.
  • Entropía:
Una medida clave en la teoría de la información es la entropía. La entropía cuantifica la cantidad de incertidumbre involucrada en el valor de una variable aleatoria o el resultado de un proceso aleatorio. Por ejemplo, identificar el resultado de un lanzamiento de moneda justo (que tiene dos resultados igualmente probables) proporciona menos información (menor entropía, menor incertidumbre) que determinar el resultado de un lanzamiento de dado (que tiene seis resultados igualmente probables). Otras medidas importantes en la teoría de la información.
La teoría de la información estudia la transmisión, el procesamiento, la extracción y la utilización de la información. De manera abstracta, la información puede considerarse como la resolución de la incertidumbre. En el caso de la comunicación de información a través de un canal ruidoso, este concepto abstracto fue formalizado en 1948 por Claude Shannon en un artículo titulado Una teoría matemática de la comunicación, en el que la información se considera como un conjunto de mensajes posibles, y el objetivo es enviar estos mensajes a través de un canal ruidoso y hacer que el receptor reconstruya el mensaje con baja probabilidad de error, a pesar del ruido del canal.
El principal resultado de Shannon, el teorema de codificación de canal ruidoso, mostró que, en el límite de muchos usos de canal, la tasa de información que se puede alcanzar asintóticamente es igual a la capacidad del canal, una cantidad que depende meramente de las estadísticas del canal por el que se envían los mensajes.
Esto me recuerda un poco como cuando pasamos de los cables de cobre de estado sólido y los tubos de vacío a la fibra óptica, con diminutos haces de luz, paquetes de información que se pueden transmitir a través de fibras de plástico o vidrio no mucho más gruesas que un cabello humano. Luego tenemos el chip nanotecnológico, que puede caber en un espacio de conducto mucho más pequeño que los cables, los viejos semiconductores, los conectores e incluso los transistores que solíamos tener, que eran el indicador de la era en los años 1960 y 1970.
¿Esta información calculada matemáticamente es constante o variable? ¿Qué tan segura es la información variable que se necesitaría para hacer un holograma? ¿O qué hay de los transportadores? La información y las acciones fantasmales de Einstein, el entrelazamiento cuántico.
En términos simples, la acción espeluznante es como si mil personas en todos los puntos del universo lanzaran una moneda al mismo tiempo. La moneda tiene un lado cara y otro cruz, así que ¿cuáles son las probabilidades de que todas ellas caigan con cruz hacia arriba? Ahora bien, sería espeluznante si salieran todas cruz. Yo diría que no sucedió por casualidad; fue planeado de esa manera.
Gracias por leer.
La Dama de Hadas


2 comments:

  1. Comment by, Paula Koval:
    I seldom see a comment as informative and stimulating as this, Cindy. We don't realize it, but we seek the lowest entropy in our daily lives. Entropy is more than a measure of chaos or uncertainty; it is the Second Law of Thermodynamics.
    Entropy is present in any system that produces energy to do work. Entropy measures the energy an engine or system produces that cannot be captured and used for work. A car's engine converts about 17% of the energy from its fuel, gasoline, into useful work. The balance, 83%, is dissipated as heat. A car's engine is a high entropy system.

    The present administration in America is a high entropy system. It is all chaos.
    When we buy a car, we often seek one with the greatest fuel economy. That's what we believe to be the optimal entropy for our needs.

    Major electrical appliances are sold with power consumption information provided by their manufacturer. Refrigerators, freezers, stoves, washers, dryers, air conditioners, heat pumps, and other consumer products have tags affixed to them, giving their expected power consumption in kWh for a year, helping buyers to find the lowest entropy system to suit their needs. Improvement of these systems is at the same rate as described in Claude Shannon's paper on communications over a noisy channel. It can be done, but it will reach a maximum asymptotic value.

    Thanks again for a fine post, Cindy.

    Reply by, The Fairy Lady

    Paula Koval, thank you for your enlightening thoughts on entropy. Entrope being the maximum or highest output from the source of least resistance.
    Energy follows the path of least resistance in its transition to a higher entropy state. Or more compacted information with less resistance?😄

    ReplyDelete
  2. After visualizing the words of the first paragraph of your reply, yes, I agree.

    I'm not sure about the second paragraph.

    Thank you for your response, Cindy.

    ReplyDelete