ЭНТРОПИ́Я, -и, ж.
1. Физ. Одна из величин, характеризующих тепловое состояние тела или системы тел; мера внутренней неупорядоченности системы.
2. В теории информации — мера неопределенности какого-л. опыта, который может иметь разные исходы.
[От греч. ’εν — в, на и τροπή — поворот, превращение]
Источник (печатная версия): Словарь русского языка: В 4-х т. / РАН, Ин-т лингвистич. исследований; Под ред. А. П. Евгеньевой. — 4-е изд., стер. — М.: Рус. яз.; Полиграфресурсы, 1999; (электронная версия): Фундаментальная электронная библиотека
1. физ. физическая величина, характеризующая тепловое состояние системы и возможные изменения этих состояний; мера внутренней неупорядоченности
2. спец. мера неопределённости какого-либо с конечным или счётным числом исходов
3. мед. заворот век внутрь
Источник: Викисловарь
Энтропи́я (от др.-греч. ἐν «в» + τροπή «обращение; превращение») — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы. Энтропия определяет меру необратимого рассеивания энергии или бесполезности энергии, ибо не всю энергию системы можно использовать для превращения в какую-нибудь полезную работу. Для понятия энтропии в данном разделе физики используют название термодинамическая энтропия. Термодинамическая энтропия обычно применяется для описания равновесных (обратимых) процессов.
В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. В этих областях знания энтропия определяется статистически и называется статистической или информационной энтропией. Данное определение энтропии известно также как энтропия Шеннона (в математике) и энтропия Больцмана—Гиббса (в физике).
Хотя понятия термодинамической и информационной энтропии вводятся в рамках различных формализмов, они имеют общий физический смысл — логарифм числа доступных микросостояний системы. Взаимосвязь этих понятий впервые установил Людвиг Больцман. В неравновесных (необратимых) процессах энтропия также служит мерой близости состояния системы к равновесному: чем больше энтропия, тем ближе система к равновесию (в состоянии термодинамического равновесия энтропия системы максимальна).
В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру сложности, хаотичности или неопределённости системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.
Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией.
Источник: Википедия
Привет! Меня зовут Лампобот, я компьютерная программа, которая помогает делать
Карту слов. Я отлично
умею считать, но пока плохо понимаю, как устроен ваш мир. Помоги мне разобраться!
Спасибо! Я стал чуточку лучше понимать мир эмоций.
Вопрос: тетрахорд — это что-то нейтральное, положительное или отрицательное?
Согласно законам физики энергия аккумулируется, образует нечто новое, претерпевает период застоя или равновесия, а затем движется по пути возрастания энтропии, то есть к хаосу.
Мало кто из нас не слышал историю про лягушку и ведро воды. Она иллюстрирует закон энтропии.
Оказывается, если в систему закачивать энергию, в ней образуются не просто новые структуры, но именно такие структуры, которые противятся наступлению хаоса, или, что то же, уменьшают общую энтропию.