Различные подходы к измерению количества информации


The Presentation inside:

Slide 0

Различные подходы к измерению количества информации © Максимовская М.А., 2011 год


Slide 1

1. Информация и её свойства Информация (informatio) – сведение, разъяснение, ознакомление. Информация – общенаучное понятие. Используется в различных науках (информатике, кибернетике, биологии, физике, химии и других областях человеческой деятельности). В каждой науке понятие «информация» связано с различными системами понятий. Например: в кибернетике (науке об управлении) понятие «информация» связано с процессами управления в сложных системах, т.к. процессы управления включают в себя получение, хранение, преобразование и передачу информации.


Slide 2

1. Информация и её свойства Информация должна быть:


Slide 3

2. Различные подходы к измерению количества информации ИЗМЕРЕНИЕ ИНФОРМАЦИИ СОДЕРЖАТЕЛЬНЫЙ АЛФАВИТНЫЙ ВЕРОЯТНОСТНЫЙ


Slide 4

3. Содержательный знание Можно количественно измерить, во сколько раз уменьшилась НЕОПРЕДЕЛЁННОСТЬ ЗНАНИЙ


Slide 5

3. Содержательный 2 события 1 событие 1 БИТ – количество информации, которое уменьшает неопределённость знания в два раза N = 2I N – количество возможных событий I – количество информации (бит)


Slide 6

4. Алфавитный При использовании технических устройств при хранении, обработке и передаче информации невозможно учитывать СОДЕРЖАНИЕ ИНФОРМАЦИИ. ИНФОРМАЦИЮ РАССМАТРИВАЮТ КАК ПОСЛЕДОВАТЕЛЬНОСТЬ ЗНАКОВ (СИМВОЛОВ АЛФАВИТА) КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ ЗАВИСИТ ОТ ИНФОРМАЦИОННОЙ ЕМКОСТИ ЗНАКА АЛФАВИТА Определить информационную ёмкость буквы русского алфавита (без учёта буквы «ё»). Решение. В русском алфавите 32 буквы (N = 32). Тогда по формуле (N = 2I) 32 = 2I, следовательно I1 = 5 бит. n – число знаков в сообщении, I – количество информации, которое несёт один знак, тогда Io = n ? I – количество информации в сообщении


Slide 7

5. Вероятностный I – количество информации; N – количество возможных событий; Все события – равновероятны. Ральф Хартли 1928 год N = 2I


Slide 8

5. Вероятностный I – количество информации; N – количество возможных событий; pi - вероятность i-го события. Клод Шеннон 1948 год


×

HTML:





Ссылка: