Управление информационными потоками

Автор работы: Пользователь скрыл имя, 09 Октября 2014 в 11:46, доклад

Описание работы

Количественные и качественные характеристики информации и проблема их отражения в теориях информации (К. Шеннон,А.Колмогоров, Развитие средств связи (телефон, телеграф, радио) и в начале XX в. потребовало численных методов исследования характеристик трактов передачи сообщений, отвлекаясь от смысла сообщений - количественно-вероятностный подход. Понятия неопределенности и вероятности взаимно обратимы. Выбор одного или нескольких вариантов из множества уменьшает неопределенность. Хартлипредложил считать количество информации, приходящееся на одно сообщение, равным логарифму общего числа возможных сообщений (тут все равновероятно).

Файлы: 1 файл

УПРАВЛЕНИЕ информационными потоками.docx

— 18.29 Кб (Скачать файл)

Количественные и качественные характеристики информации и проблема их отражения в теориях информации (К. Шеннон,А.Колмогоров,

Развитие средств связи (телефон, телеграф, радио) и в начале XX в. потребовало численных методов исследования характеристик трактов передачи сообщений, отвлекаясь от смысла сообщений - количественно-вероятностный подход. 
Понятия неопределенности и вероятности взаимно обратимы. Выбор одного или нескольких вариантов из множества уменьшает неопределенность. Хартлипредложил считать количество информации, приходящееся на одно сообщение, равным логарифму общего числа возможных сообщений (тут все равновероятно).

На практике при определении количества информации необходимо учитывать как количество различных сообщений от источника, так и разную вероятность их получения (Шеннон).

Р. Эшби считал, что информация есть там, где есть неоднородность (разнообразие) и единицей измерения может быть различие между объектами в одном определенном свойстве. Чем больше различий, тем больше информации. Под разнообразием следует подразумевать характеристику степени несовпадения элементов некоторого множества.

Близка к разнообразностной идея алгоритмического измерения количества информации, выдвинутая в 1965 г. А.Н. Колмогоровым. Количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому.

Если понятие информации связывать с разнообразием, то причиной существующего в природе разнообразия, по мнению академика В.М. Глушкова, можно считать неоднородность в распределении энергии или вещества, в пространстве и во времени. Информация же есть мера этой неоднородности. Информация существует постольку, поскольку существуют сами материальные тела. С понятием информации в кибернетике не связано свойство ее осмысленности. Звезды существуют независимо от того, имеют люди информацию о них или нет. Объективное существование объекта создает неоднородность в распределении вещества и поэтому является источником информации для когнитивной системы. Таким образом, по В.М. Глушкову, информация независима от нашего сознания.

Рассмотренные выше определения и толкования понятия информации в принципе не могут учесть ее содержательного и ценностного аспектов. Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию семантической (смысловой) теории информации. Исследования в этой области теснее всего связаны с семиотикой - теорией знаковых систем.

Одним из важнейших свойств информации, которое мы можем наблюдать, является ее неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками. Семиотика исследует знаки как особый вид носителей информации. Рассуждая о количестве, содержании и ценности информации, содержащейся в сообщении, можно исходить из возможностей соответствующего анализа знаковых систем, таких как естественные и искусственные языки, системы сигнализации, логические, математические и химические символы.

Знаковые системы рассматриваются с позиций синтактики, семантики и прагматики.

  • Синтактика изучает синтаксис знаковых структур - способы сочетаний знаков, правила образования сочетаний и преобразований безотносительно к их значениям.
  • Семантика изучает знаковые системы как средства выражения смысла, определенного содержания.
  • Прагматика концентрируется на изучении практической полезности сообщений для потребителя.

Основная идея семантической концепции информации заключается в возможности измерения содержания (предметного значения) суждений. Но содержание всегда связано с формой, хотя и не взаимно однозначно. Поэтому и исследования семантики базировались на понятии информации как уменьшении или устранении неопределенности.

Первую попытку построения теории семантической информации предприняли Р. Карнап и И. Бар-Хиллел. Они предложили определять величину семантической информации посредством так называемой логической вероятности, представляющей собой степень подтверждения той или иной гипотезы. При этом количество семантической информации, содержащейся в сообщении, возрастает по мере уменьшения степени подтверждения априорной гипотезы. Если вся гипотеза построена на эмпирических данных, полностью подтверждаемых сообщением, то такое сообщение не приносит получателю никаких новых сведений. Логическая вероятность гипотезы при этом равна единице, а семантическая информация оказывается равной нулю. Наоборот, по мере уменьшения степени подтверждения гипотезы, количество семантической информации, доставляемой сообщением, возрастает.

Для всех прагматических подходов характерно стремление связать понятие информации с целенаправленным поведением и выдвинуть те или иные количественные меры ценности информации.

http://philosophy2008.wikidot.com/2-18

Качественные и количественные характеристики информации. Свойства информации (новизна, актуальность, достоверность и др.). Единицы измерения количества информации

 

Информация в биологии. В биологии понятие информация связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования информации об окружающей среде.

 Понятие информация  в биологии применяется также  в связи с исследованиями механизмов  наследственности. Генетическая информация  передается по наследству и  хранится во всех клетках живых  организмов. Гены представляют собой  сложные молекулярные структуры, содержащие информацию о строении  живых организмов. Последнее обстоятельство  позволило проводить научные  эксперименты по клонированию, т. е. созданию точных копий организмов  из одной клетки.

 Информация в кибернетике. В кибернетике (науке об управлении) понятие информация используется  для описания процессов управления  в сложных системах (живых организмах  или технических устройствах). Жизнедеятельность  любого организма или нормальное  функционирование технического  устройства связано с процессами  управления. Процессы управления  включают в себя получение, хранение, преобразование и передачу информации.

 Информация и знания. Человек получает информацию  из окружающего мира с помощью  органов чувств, анализирует ее  и выявляет существенные закономерности  посредством мышления, хранит полученную  информацию в памяти. Процесс  систематического научного познания  окружающего мира приводит к  накоплению информации в форме  знаний (фактов, научных теорий и  т. д.).

Только при условии, что информация полезна, дискуссия приобретает практическую ценность. Бесполезная информация создает информационный шум, который затрудняет восприятие полезной информации. Примерами передачи и получения бесполезной информации могут служить некоторые конференции и чаты в Интернете.

 Широко известен термин  «средства массовой информации» (газеты, радио, телевидение), которые  доводят информацию до каждого  члена общества. Обязательно, чтобы  такая информация была достоверной  и актуальной. Недостоверная информация  вводит членов общества в заблуждение  и может стать причиной возникновения  социальных потрясений. Неактуальная  информация бесполезна, и поэтому  никто, кроме историков, не читает  прошлогодних газет.

 Чтобы человек мог  правильно ориентироваться в  окружающем мире, ему нужна полная  и точная информация. Задача получения  полной и точной информации  стоит перед наукой. Человек получает  полную и точную информацию  о природе, обществе и технике  в процессе обучения.

 Единицы измерения  количества информации. За единицу  количества информации принимается  такое количество информации, которое  содержит сообщение, уменьшающее  неопределенность знаний т два  раза. Такая единица названа бит.

 Следующей по величине  единицей измерения количества  информации является байт, причем

1 байт = 2^3 бит = 8 бит.

 Кратные байту единицы  измерения количества информации  вводятся следующим образом:

 

     

 

 


Информация о работе Управление информационными потоками