Понятие «информация»
Творческая работа, 23 Сентября 2013, автор: пользователь скрыл имя
Описание работы
Энтропия – хаос, отсутствие информации
Антиэнтропия – мера упорядоченности и сложности системы.
Увеличивается сложность системы – энтропия уменьшается, т.е. величина информации увеличивается.
Пример: Открытые, обменивающиеся с окружающей средой системы живой природы.
Файлы: 1 файл
93697.ppt
— 2.87 Мб (Скачать файл)
2 i = N
N
i
Количество равновероятных возможных событий
Количество информации в сообщении о том, что произошло одно из N равновероятных событий.
СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ
Сообщение о том, что произошло одно событие из двух равновероятных (неопределенность знания уменьшилась в два раза), несет 1 бит информации.
СОДЕРЖАТЕЛЬНЫЙ ПОДХОД к измерению информации заключается в том, что количество информации связывается с содержанием (смыслом) полученного человеком сообщения. Количество информации, заключенное в сообщении, тем больше, чем более оно пополняет наши знания (уменьшает неопределенность наших знаний).
8 цветных шаров в корзине – 8 равновероятных событий
Неопределенность знания о том, что из корзины может быть извлечен шар красного цвета, равна 8.
Вероятность
- пусть при бросании несимметричной четырёхгранной пирамидки вероятность отдельных событий будет:
- Р1= 1/2 (0,5), Р2= 1/4(0,25), Р3= 1/8(0,125), Р4= 1/8(0,125)
- Тогда количество информации после реализации каждого можно рассчитать по:
2 i = 1/Р – или через логарифмическую функцию: i = log2(1/Р)
- i 1= log2(1/0.5) = log22 = 1бит
- i 2= log2(1/0.25) = log24= 2бита
- i 3= log2(1/0.125) = log28= 3бита
- i 4= log2(1/0.125) = log28= 3бита
- Воспользуемся формулой Шеннона, чтобы посчитать среднюю информативность сообщения: Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)
- Н= 0,5*1+0,25*2+0,125*3+0,125*3=
1.75 бита - Количество информации в сообщении зависит от вероятности этого события. Чем меньше вероятность, тем больше информации несёт сообщение о нём.
- При равновероятностных события
х формула Шеннона переходит в формулу Хартли: т.к. Р1=Р2=Р3…=1/N - i = log2(1/N)= log24= 2 бита т.е.
при бросании симметричной
МЕТОД БИНАРНОГО ПОИСКА
Правила игры: Требуется угадать задуманное число из данного диапазона целых чисел. Игрок, отгадывающий число, задает вопросы, на которые можно ответить только «да» или «нет». Если каждый ответ отсекает половину вариантов (уменьшает выбор в 2 раза), то он несет 1 бит информации. Тогда общее количество информации (в битах), полученной при угадывании числа, равно количеству заданных вопросов.
Игра, использующая метод бинарного поиска
Требуется угадать задуманное число из диапазона чисел от 1 до 8
Это число равно 5 ?
Число меньше 7 ?
Число меньше 5 ?
Вопросы
3
2
1
нет
да
№ вопроса
8 вариантов возможных событий 3 вопроса 3 бита информации
1
2
3
4
5
6
7
8
5
6
7
8
5
6
3