Энтропия
(от греч. entropia – поворот, превращение) – это функция состояния
термодинамической системы, изменение которой в равновесном процессе равно
отношению количества теплоты, сообщенного системе или отведенного от нее, к
термодинамической температуре системы. Равновесным называют процесс перехода
термодинамической системы из одного равновесного состояния в другое, столь
медленный, что все промежуточные состояния можно рассматривать как равновесные.
Всякий равновесный процесс является обратимым, то есть его возможно осуществить
в обратном направлении, последовательно повторяя в обратном порядке все
промежуточные состояния прямого процесса. В равновесном (идеальном обратимом)
процессе энтропия не изменяется. Неравновесные процессы в изолированной системе
сопровождаются ростом энтропии.
Энтропия всех веществ при абсолютном нуле
температуры равна нулю, именно это значение энтропии принимают за начальную
точку ее отсчета. Максимального (равного единице) значения энтропия достигает
тогда, когда термодинамическая система приходит в состояние равновесия.
Понятие
энтропии ввел в 1865 году немецкий физик Рудольф Клаузиус (1822–1888), он же
показал, что абсолютное значение энтропии остается неопределенным, определены
(и имеют физический смысл) лишь ее изменения в термически изолированных
необратимых системах, а в идеальном случае обратимых процессов энтропия
остается постоянной. Поэтому энтропию можно также считать мерой отклонения
реального процесса от идеального.
Введению энтропии физики вначале весьма
энергично противодействовали, особенно из-за ее таинственного характера,
обусловленного главным образом тем, что она не действует на наши органы чувств.
Это не помешало энтропии сыграть фундаментальную роль в развитии термодинамики.
В наши дни понятием энтропии широко пользуются в физике, химии, биологии и
теории информации. |