Физик утверждает, что нашел доказательство нового закона физики: Живем ли мы в смоделированной Вселенной?
В своем новаторском исследовании физик доктор Мелвин Вопсон выдвинул предположение о существовании нового закона физики, который он назвал "вторым законом инфодинамики".
Этот новый закон предполагает, что мы, возможно, живем в смоделированной вселенной, и ставит под сомнение традиционную теорию эволюции, указывая на то, что мутации не являются полностью случайными. Хотя эти утверждения, безусловно, необычны, для их подтверждения требуются столь же необычные доказательства.
Исследование Вопсона посвящено мутациям в вирусе SARS-CoV-2 с точки зрения информационной энтропии - термина, отличающегося от обычного понятия энтропии.
Информационная энтропия измеряет количество возможных микросостояний в системе, которые совместимы с данным макросостоянием.
По мнению Вопсона, в то время как физическая энтропия имеет тенденцию к увеличению с течением времени, информационная энтропия имеет тенденцию к уменьшению.
Это означает, что по мере приближения Вселенной к состоянию теплового равновесия, когда энтропия достигает своего максимального значения, информационная энтропия уменьшается, так как становится возможным меньшее количество событий.
Последствия этого нового закона далеко идущие и потенциально могут произвести революцию в нашем понимании генетики, эволюции и даже самой Вселенной.
Комментарии 10
0
Проводник
19.04.2024 21:44
[Материал]
Да, мы живем в смоделированной Вселенной и смоделирована она Высшим Космическим разумом. Мы же когда что-то исследуем, тоже моделируем те или иные процессы под конкретные задачи. А откуда это понимание у нас? Поскольку мы частицы Его, то...
Люди всё время пытаются доказать, что они сами по-себе свои собственные, как дядя Фёдор из известного мультфильма. А там, если помните, он "дошёл до ручки" сам по-себе. Параллели очевидны, но не всем... |
0
Rosto
19.04.2024 09:56
[Материал]
Как я понял, снижение информационной энтропии - это процесс стандартизации, унификации. Жизнь становится более предсказуемой. В мире снижается количество биологических видов, уменьшается число используемых языков, и в таком духе. С другой стороны, возрастает комфорт. Можно всё делать и вообще жить "на автомате".
Рассуждения этого Мелвина напоминают "конец истории" Фукуямы. Потом Фукуяма и иже с ним поняли, что ошибались. И со "снижением информационной энтропии" то же самое. |
0
maikl2m
19.04.2024 12:33
[Материал]
В широком смысле энтропия - это процесс перехода любых существующих процессов к их равновесному состоянию, когда любые изменения в ту или иную сторону становятся невозможны. Так что стандартизация и унификация приводит не к снижению, а к увеличению информационной энтропии, поскольку уменьшение числа степеней свободы к 1 исключает возможность дальнейшего развития тех или иных систем.
|
0
Rosto
19.04.2024 13:23
[Материал]
Ну, не знаю, я тупо читал Википедию.
https://ru.wikipedia.org/wiki/Информационная_энтропия Определение: «Информацио́нная энтропи́я — мера неопределённости некоторой системы (в статистической физике или теории информации), в частности, непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.» То есть, чем выше неопределённость, тем выше энтропия, а чем более предсказуемо, тем энтропия ниже. Видеофайл с белым шумом особо не оптимизируешь, там будет большой объём, в какой кодек ни переводи. Информационная энтропия высокая. А видео со статичным изображением будет весить мало, информационная энтропия низкая. |
0
maikl2m
19.04.2024 13:33
[Материал]
Увы, но я давно перестал доверять информации из Википедии... Любая энтропия - это состояние, когда число степеней свободы для существующих процессов стремиться к единице. И поэтому Природа в борьбе с энтропией стремиться достичь максимально возможного числа степеней свободы для того, что бы иметь возможность выйти из энтропийного "тупика".
|
0
Rosto
19.04.2024 13:56
[Материал]
Тогда... Большая Российская Энциклопедия.
https://bigenc.ru/c/entropiia-v-teorii-informatsii-8e42df Энтропия в теории информации «Свойства энтропии: энтропия равна нулю в том случае... когда исход опыта достоверен; энтропия достигает максимального значения ... когда все исходы равновероятны» |
0
maikl2m
19.04.2024 15:03
[Материал]
Не буду спорить со столь "авторитетным" изданием. В Средние века весьма авторитетные мужи в подобных академических изданиях безаппеляционно утверждали, что Солнце и другие планеты вращается вокруг Земли, а тех, кто сомневался в этом, могли досрочно отправить в "мир иной", как "еретиков"...
|
0
Rosto
19.04.2024 16:09
[Материал]
Майкл, ты ведь по-своему прав. В статье же так и написано:
«Исследование Вопсона... с точки зрения информационной энтропии - термина, отличающегося от обычного понятия энтропии.» Это мне напоминает, скажем, такую примерно ситуацию. У мужа отдельный рабочий кабинет. Жена решила, что там беспорядок и решила прибраться. Муж приходит и хватается за голову: "Я теперь ничего не могу найти." В природе тоже могут быть разные силы, у которых разный подход к энтропии. Это диалектика, блин. Вон, СМЕРШ даже картинку к статье подобрал: типа инь и ян, две стороны природы, информационная и физическая. |
0
Проводник
19.04.2024 22:56
[Материал]
Позволю дополнить. Подобная история в рабочем кабинете была, если верить интернету, в кабинете Эйнштейна, когда у него прибралась домработница и всё разложила по своему усмотрению. На что хозяин возмутился и выгнал перфекционистку. Ему же приписывают цитату «Порядок потребен лишь глупцу, гений властвует над хаосом».
Но вот Инь и Ян - это символ женского и мужского начала - две части целого одной природы, противоположности. Информация и материя не являются противоположностями, это как причина и следствие. Вроде так. |