Энтропия открытой системы: производство энтропии в системе, входящий и выходящий потоки энтропии
Реферат, 04 Октября 2012, автор: пользователь скрыл имя
Описание работы
В работе поставлены и рассмотрены следующие задачи: понятия энтропии, статистического смысла данного понятия, энтропии как меры степени неопределенности, понятия об информации, теоремы Шеннона о кодировании при наличии помех, использования энтропии в прогнозировании и применения энтропии к рискам.
Содержание работы
Введение
1. Понятие энтропии. Энтропия как мера степени неопределенности
2. Эволюция человека
3. Понятие глобального эволюционизма
Заключение
Список литературы
Файлы: 1 файл
реферат по ксе.docx
— 32.29 Кб (Скачать файл)МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ
РОССИЙСКОЙ ФЕДЕРАЦИИ
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ
АВТОНОМНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ
ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО
«КАЗАНСКИЙ (ПРИВОЛЖСКИЙ) ФЕДЕРАЛЬНЫЙ УНИВЕРСИТЕТ»
Кафедра статистики, эконометрики и естествознания
По дисциплине "Концепции современного естествознания"
по теме
«Энтропия открытой системы: производство энтропии в системе, входящий и выходящий потоки энтропии»
Казань 2012
Оглавление
Введение…………………………………………………………
- Понятие энтропии.
- Энтропия как мера степени неопределенности…… 5
2. Эволюция человека…………………………………………………………
3. Понятие глобального эволюционизма…………………………………… 18
Заключение……………………………………………………
Список литературы…………………………………
Введение
Введение
Предметом работы является энтропия открытой системы. Целью данной работы является изучение энтропии. Поставленная цель ставит решение следующих задач: рассмотрения понятия энтропии, статистического смысла данного понятия, энтропии как меры степени неопределенности, понятия об информации, теоремы Шеннона о кодировании при наличии помех, использования энтропии в прогнозировании и применения энтропии к рискам.
Данная тема актуальна,
так как трудно найти понятия
более общие для всех наук (не
только естественных) и, вместе
с тем, иногда носящих оттенок
загадочности, чем энтропия и
информация. Отчасти это связано
с самими названиями. Если бы
не звучное название “энтропия”
Термин “информация”
замечателен тем, что,
Работа изложена на 26 страниц и состоит из четырех параграфов. В работе 1 таблица и 7 примеров.
§1. Понятие энтропии. Статистический смысл понятия энтропии. Энтропия как мера степени неопределенности
Энтропия (от греч. entropia - поворот, превращение) - мера неупорядоченности больших систем. Впервые понятие "энтропия" введено в XIX в. в результате анализа работы тепловых машин, где энтропия характеризует ту часть энергии, которая рассеивается в пространстве, не совершая полезной работы (отсюда определение: энтропия - мера обесценивания энергии). Затем было установлено, что энтропия характеризует вероятность определенного состояния любой физической системы среди множества возможных ее состояний. В закрытых физических системах все самопроизвольные процессы направлены к достижению более вероятных состояний, т. е. к максимуму энтропии . В равновесном состоянии, когда этот максимум достигается, никакие направленные процессы невозможны. Отсюда возникла гипотеза о тепловой смерти Вселенной. Однако распространение на всю Вселенную законов, установленных для закрытых систем, не имеет убедительных научных оснований. В XX в. понятие " энтропия " оказалось плодотворным для исследования биосистем, а также процессов передачи и обработки информации. Эволюция в целом и развитие каждого организма происходит благодаря тому, что биосистемы, будучи открытыми, питаются энергией из окружающего мира. Но при этом биопроцессы протекают таким образом, что связанные с ними "производство энтропии " минимально. Это служит важным руководящим принципом и при разработке современных технологических процессов, при проектировании технических систем. Количественная мера информации формально совпадает с "отрицательно определенной " энтропией. Но глубокое понимание соответствия энтропии физической и информационной остается одной из кардинальных недостаточно исследованных проблем современной науки. Ее решение послужит одним из важных факторов становления нового научно-технического мышления.
Энтропия широко применяется
и в других областях науки:
в статистической физике как
мера вероятности
Теория информации
возникла для описания
В силу определения
информации как устранённой
Существование
Первая удачная попытка
реализовать определение
При математическом описании неопределённости (например способом Хартли) в случае равновероятных результатов можно перейти от их числа n к обратной величине - вероятности р одного из них. В терминах связи конкретно говорят о вероятности переданного сообщения р0 у приёмника до приёма сообщения. Устранение неопределённости выражается тем, что вероятность переданного сообщения у приёмника после приёма сигнала возрастает и становится р1 . Тогда количественная мера s полученной информации (устранённой неопределённости) выражается логарифмом отношения вероятностей:
Оно равноправно по отношению к любому конкретному сообщению и имеет разную величину в зависимости от величин p0 и p1 для него. В частном случае, когда при передаче полностью отсутствую шумы и сбои, искажающие сигнал, вероятность p0 равна единице.
Недостаток этого определения в том, что оно справедливо в приближении равновероятности всех исходов. Это выполняется далеко не всегда. В пределе в этом определении невероятному исходу приравнивается неизбежный. В 1948 г. это исправил К. Шеннон, который определил в качестве меры неопределённости выражение:
где
есть вероятности отдельных исходов. Он предложил называть эту величину "энтропией", не поясняя связей и различий этого термина с общеизвестой энтропией в физике. Знак минус в предыдущей формуле отражает тот факт, что вероятности всегда меньше единицы, а энтропия знакопостоянная функция, для которой привычно задан положительный знак. Определение Шеннона сокращённо зависывают в виде:
подразумевая как очевидное, что признаки (аргументы), по отношению к которым определены события и их вероятности, могут быть существенно разными, а в эта формула (суммирование в ней) справедлива только для однородных признаков.