Меры и единицы количества и объема информации. Формула Хартли. Формулы Шеннона

Автор работы: Пользователь скрыл имя, 28 Октября 2013 в 13:18, контрольная работа

Описание работы

В любой науке основные понятия определить достаточно сложно. Так и понятие «информация» невозможно определить через другие, более «простые» понятия. В каждой науке оно связано с различными системами понятий. В зависимости от области знания существуют различные подходы к определению понятия «информация».
Впервые как научное понятие термин «информация» стал применяться в теории журналистики в 30-х годах ХХ века, хотя в исследованиях по библиотечному делу он появился еще раньше. Под информацией понимались различные сведения, сообщения. Что соответствует переводу с латинского языка informatio – сведение, разъяснение, ознакомление.

Содержание работы

1 Меры и единицы количества и объема информации.
Формула Хартли. Формулы Шеннона.


1.1 Понятие информация

1.2 Свойства информации.

1.3 Виды (классификация) информации

1.4 Общая характеристика процессов сбора, передачи, обработки и накопления информации.

1.5 Количество информации: формулы Хартли и Шеннона.




2 Антивирусные программы. Назначение, классификация. Принцип работы. Базы антивирусов.


2.1 Определение антивирусная программа ( антивирус ).

2.2 Антивирусные программы, их назначение и классификация.

2.3 Принцип работы.

2.4 Основные базы данных антивирусов.

Файлы: 1 файл

КОНТРОЛЬНАЯ РАБОТА № 1 ПО ИНФОРМАТИКЕ..doc

— 117.00 Кб (Скачать файл)

Министерство  образования и науки Российской Федерации

Федеральное государственное  бюджетное образовательное учреждение

высшего профессионального  образования

 

 

 

«Сибирский  государственный индустриальный университет»

Кафедра прикладной информатики

 

 

 

 

 

 

 

 

 

КОНТРОЛЬНАЯ РАБОТА № 1

 

Вариант № 5

 

 

 

 

                                                                                                               

 

 

 

 

 

 

 

 

Выполнил:

                                                                     ст.гр. ЗСП - 12

  Песков П.  А.

                                                                                  Шифр: ЗСП - 12123

                 

 

 

 

 

 

Новокузнецк

2012

Содержание

 

 

1 Меры и единицы количества и объема информации.  
Формула Хартли.  Формулы Шеннона.

 

 

1.1 Понятие информация

 

1.2  Свойства информации.

 

1.3  Виды (классификация)  информации

 

1.4  Общая характеристика  процессов сбора, передачи, обработки и накопления информации.

 

1.5  Количество информации: формулы Хартли и Шеннона.

 

 

 

 

2 Антивирусные программы. Назначение, классификация. Принцип работы. Базы антивирусов.

 

 

2.1  Определение антивирусная программа ( антивирус ).

 

2.2  Антивирусные программы, их назначение и классификация.

 

2.3  Принцип работы.

 

2.4 Основные базы данных антивирусов.

 

 

 

 

 

 

 

 

 

 

1. Меры и  единицы количества и объема информации 
Формула Хартли  Формулы Шеннона

 

1.1 Понятие  информации с точки зрения различных наук

 

В любой науке  основные понятия определить достаточно сложно. Так и понятие «информация» невозможно определить через другие, более «простые» понятия. В каждой науке оно связано с различными системами понятий. В зависимости от области знания существуют различные подходы к определению понятия «информация».

 Впервые  как научное понятие термин  «информация» стал применяться  в теории журналистики в 30-х годах ХХ века, хотя в исследованиях по библиотечному делу он появился еще раньше. Под информацией понимались различные сведения, сообщения. Что соответствует переводу с латинского языка informatio – сведение, разъяснение,  ознакомление.

В физике понятие информация рассматривается как антиэнтропия или энтропия с обратным знаком. Поскольку мерой беспорядка  термодинамической системы является энтропия системы, то информация (антиэнтропия) является мерой упорядоченности и сложности системы.

В неживой природе понятие информация связано с понятием отражения, отображения. В некоторых физических и химических теориях информация определяется как отраженное многообразие.

Под информацией  в технике понимают сообщение, передаваемое с помощью знаков и символов. В теории связи, например, под информацией принято понимать любую последовательность символов, не учитывая их смысл. В основанной американским ученым Клодом Шенноном математической теории информации под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность).

 Понятие  информация используется в связи  с исследованием механизмов наследственности. В генетике сформулировано понятие генетической информации, которое определяется как программа (код) биосинтеза белков, представленных цепочками ДНК.

 Под информацией  в документолистике понимают все то, что так или иначе зафиксировано в знаковой форме в виде документов.

 В биологии, которая изучает живую природу, понятие «информация» связано с целесообразным поведением живых организмов. С точки зрения индивидуального человеческого сознания информация – это то, что поступает в наш мозг из многих источников в разных формах и, взаимодействуя там, образует структуру нашего знания. 

Под информацией в быту (житейский аспект) понимают сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами.

1.2  Свойства информации

 

Все знания об окружающем мире человек получает с помощью органов чувств. Насколько мы им можем доверять?

Информация  нам нужна для того, чтобы принимать  правильные решения. Поэтому необходимо, чтобы она обладала следующими свойствами или качественными признаками:

1. Объективность информации. Информация объективна, если она не зависит от чьего-либо мнения. 

2. Достоверность. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Недостоверной информация может быть по следующим причинам:

1)    преднамеренное искажение (дезинформация);

2)    искажение в результате действия помех;

3)    когда значение отдельного факта или ряда фактов преуменьшается или преувеличивается (слухи, рыбацкие истории).

3.     Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решения. Неполная информация может привести к ошибочному выводу или решению. (Русская пословица «Недоученный хуже неученого»).

4.     Актуальность (своевременность) информации – важность, существенность для настоящего времени. Неактуальной может быть информация по двум причинам: 
   а)    она может быть устаревшей (прошлогодняя газета); 
    б)    незначимой, ненужной (сообщение: цены в Италии снижены на 5% ).

5.     Ценность (полезность или бесполезность) информации оценивается  применительно к задачам, которые можно решить с ее помощью. Самая ценная информация – это достаточно полезная, полная, объективная, достоверная и новая. Самая достоверная информация не может быть новой.

6.     Ясность, понятность. Информация понятна, если она выражена на языке, доступном для получателя.

 

1.3  Виды ( классификация ) информации

 

Некоторые представления  о разнообразии информации может  дать следующее определение (энциклопедический словарь).

Информация  – общенаучное понятие, включающее обмен сведениями между людьми, человеком  и автоматом, обмен сигналами  в животном и растительном мире; передачу признаков от клетки к клетки, от организма к организму. Из этого определения  следует существование 4 видов информации:

1. социальная (человек-человек);

2. техническая (человек-автомат, автомат-автомат);

3. биологическая (информация в живом и растительном мире);

4. генетическая (передача признаков от клетки к клетке, от организма к организму).

Другие основания  классификации информации:

· по способам и формам получения (восприятия);

· по характеру носителя;

· по характеру источника;

· по сфере применения;

· по общественному значению.

Около 90% всей информации человек получает при помощи органов зрения (визуальный), около 9% - при помощи органов слуха (аудиальный) и только около 1% - при помощи всех остальных органов чувств. Органы чувств получили название анализаторов, поскольку именно через это органы информация попадает в головной мозг.

 
Таблица 1 – Основные виды информации

 

информация

по способу  восприятия

по форме  представления

по общественному  значению

Визуальная 
       Аудиальная 
       Тактильная 
       Обонятельная           Вкусовая

Текстовая 
        Числовая 
       Графическая 
        Звуковая 
   Комбинированная

Массовая: 1.обыденная;                  
2. общественно-   политическая. 
 3.эстетическая. 
Специальная:  
1. научная; 
2.производственная; 
3. техническая; 
4. управленческая. 
Личная:  
1.знания; 
2. умения; 
3. интуиция.


 

1.4  Общая характеристика процессов  сбора, передачи, обработки 

и накопления информации

 

Сбор  информации – это процесс получения информации из внешнего мира и приведение ее к стандарту для данной информационной системы. Обмен информацией между воспринимающей ее системой и окружающей средой осуществляется посредством сигналов. Сигнал – средство передачи информации в пространстве и времени.

Передача  информации осуществляется различными способами: с помощью курьера, пересылка по почте, доставка транспортными средствами, дистанционная передача по каналам связи. Для осуществления последней, необходимы специальные технические средства.

Преобразование (обработка) информации – внесение изменений в набор данных, вычисления, информационный поиск, сортировка, построение графиков и тому подобное.

В современных  развитых информационных системах машинная обработка информации предполагает последовательно-параллельное во времени решение вычислительных задач. Это возможно при наличии определенной организации вычислительного процесса. Вычислительная задача по мере необходимости обращается с запросами в вычислительную систему. Организация процесса предполагает определение последовательности решения задач и реализацию вычислений.

Технология  электронной обработки информации – человеко-машинный процесс исполнения взаимосвязанных операций, протекающих в установленной последовательности с целью преобразования исходной информации (первичной) в результатную. Операция представляет собой комплекс совершаемых технологических действий, в результате которых информация преобразуется. Технологические операции разнообразны по сложности, назначению, технике реализации, выполняются на различном оборудовании разными исполнителями.

Хранение и накопление информации вызвано многократным ее использованием, применением постоянной информации, необходимостью комплектации первичных данных до их обработки. Хранение осуществляется на машинных носителях в виде информационных массивов, где данные располагаются по установленному в процессе проектирования группировочному признаку.

 

1.5  Количество информации: формулы Хартли и Шеннона

 

Какое количество информации содержится, к примеру, в  тексте романа "Война и мир", во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы  наука не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить количество информации?

В теории информации количеством информации называют числовую характеристику сигнала, не зависящую  от его формы и содержания, и  характеризующую неопределенность, которая исчезнет после получения  сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также  сравнить количество информации, содержащейся в различных группах данных. В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.   Эти подходы используют математические понятия вероятности и логарифма.

 

Подходы к определению количества информации  Формулы Хартли и Шеннона

 

Американский  инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула  Хартли:   I = log2N

 

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 > 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются.

Для задач такого рода американский учёный Клод Шеннон предложил в1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона : I = — (  p1log2 p1 +p2 log2 p2 + . . . + pN log2 pN  ),

где   pi —  вероятность того, что именно i-е  сообщение выделено в наборе   из N cообщений.

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них 
равна 1 / N, и формула Шеннона превращается в формулу Хартли. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы информации Клод Шеннон предложил принять 
один  бит    (англ. bit — binary digit — двоичная цифра). Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений   (типа "орел" —"решка", "чет"—"нечет" и т.п.). В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица —  байт,  равная  восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Информация о работе Меры и единицы количества и объема информации. Формула Хартли. Формулы Шеннона