Информация. Меры инфы.
Информация это предмет передачи и преображения в вычислительных системах. Словечко информация проистекает от латинского informatio, значащего сведения, объяснения, объяснения. С содержательной точки зрения информация - это сведения о ком-то либо о чем-то, а с формальной точки зрения - комплект символов и сигналов.
В этом значении вычислительную систему разрешено именовать информационной, в различие от энергетической системы, в каком месте объект передачи и преображения энергия. Все процессы, происходящие в вычислительной системе, соединены конкретно с разными физиологическими носителями информационных извещений, и все узлы и блоки данной системы являются физиологической средой, в которой исполняются информационные процессы. Специфика информационных действий состоит не лишь в передаче определённых информационных извещений средством данной информационной среды, однако и в преображении, переработке и хранении инфы.
Термин «информация» владеет немало определений. В широком значении информация отображение настоящего решетка. Есть определение термина в узеньком значении: всевозможные сведения, являющиеся объектом сохранения, преображения и передачи. Пара определения главны для осмысливания действий функционирования вычислительной машинки.
Принципиальный вопросец теории передачи и преображения инфы введение меры, численности и свойства инфы.
Информационные меры, как верховодило, рассматриваются в трёх качествах: структурном, статистическом и семантическом.
В структурном нюансе рассматривается здание массивов инфы, и их обмеривание обычным подсчётом информационных частей либо комбинаторным способом. Скелетный подъезд используется для оценки способностей информационных систем за пределами зависимости от критерий их внедрения.
Информационные аспекты Тезисы
Структурный Массив, комбинаторные методы
Статистический Энтропия как мерка неопределенности
Семантический Различение общественно полезного
Матрица 1. Информационные аспекты
При статистическом подходе употребляется мнение энтропии как меры неопределённости, учитывающей возможность появления и информативность такого либо другого известия. Статистический подъезд учитывает конкретные условия внедрения информационных систем.
Смысловой подъезд дозволяет отметить полезность либо важность информационного известия.
Структурная мерка информации
Информация постоянно видется в облике известия. Простая единичка извещений знак. Знаки, собранные в группы слова. Известие, оформленное в облике группы знаков либо слов, постоянно передаётся в материально-энергетической форме( электрической, световой, звуковые сигналы).
Распознают информацию постоянную и дискретную.
Постоянная функция Дискретная функция
В постоянном облике(слева)функция может воспринимать всевозможные вещественные смысла в указанном спектре, то имеется очень много значений постоянной функции нескончаемо. В дискретном облике функция моет воспринимать вещественные смысла лишь при определённых значениях довода. Какой-никакой бы миниатюрный перерыв дискретности(то имеется отдаление меж соседними значениями довода)не выбирался, очень много значений для данного спектра конфигураций аргумента( ежели он не нескончаемый)станет конечно( ограничено).
Меры структурной инфы:
- геометрическая
- аддитивная
- комбинаторная
При применении структурных мер инфы учитывается лишь дискретное здание известия, численность содержащихся в нём информационных частей, связей меж ними. При структурном подходе отличаются геометрическая, комбинаторная и аддитивная меры инфы.
Геометрическая мерка подразумевает обмеривание параметра геометрической модели информационного сообщения( длины, площади, объёма и т. п. )в дискретных единицах. К примеру, геометрической моделью инфы может существовать линия единичной длины, квадрат либо куб. Очень вероятное численность инфы в данных структурах описывает информационную ёмкость модели(системы), которая определяется как сумма значений сообразно всем измерениям(координатам). геомет. модель информации
В комбинаторной мерке численность инфы определяется как количество композиций элементов( знаков). Вероятное численность информация совпадает с числом вероятных сочетаний, перестановок и размещений частей. Комбинирование знаков в словах, состоящих лишь из нулей и единиц, меняет смысл слов. Осмотрим две пары слов 110010 и 011001, 011101 и 101110. В их проведена перестановка последних разрядов в числе(изменено положение знакового ряда в числе перенесен слева вправо).
Аддитивная мерка(мерка Хартли) мерка, в согласовании с которой информация измеряется в двоичных единицах битах более распространена. Вводятся мнения глубины q и длины n числа.
Бездна q числа численность символов( частей), принятых для представления инфы. В любой момент времени реализуется лишь один какой-нибудь знак.
Длина n числа численность позиций, нужных и достаточных для представления чисел данной величины.
Статистическая мерка инфы.
В статистической теории инфы вводится наиболее общественная мерка численности инфы, в согласовании с которой рассматривается не само явление, а информация о нём. Этот вопросец углубленно отработан К. Шенионом в работе «Избранные труды сообразно теории информации». Ежели возникает известие о нередко встречающемся событии, возможность появления которого недалека к штуке, то такое известие для получателя малоинформативно. Настолько же малоинформативно известие, что возможность действия недалека к нулю.
Действия разрешено разглядывать как вполне возможные финалы некого эксперимента, при этом все финалы этого эксперимента сочиняют ансамбль, либо совершенную группу событий. К. Шенион ввёл мнение неопределённости ситуации, возникающей в ходе эксперимента, назвав ее энтропией. Энтропия ансамбля имеется количественная мерка его неопределённости и, следственно, информативности, количественно выражаемая как средняя функция всякого из потенциальных исходов эксперимента.
Пусть имеется N разных исходов эксперимента, из их k различных типов, а i сход повторяется ni раз, численность которой оценивается как Ii. Тогда средняя информация, доставляемая одним экспериментом:
( 1. 3)
Формула 1. 3
Однако численность инфы в каждом финале соединено с его вероятностью p и выражается в двоичных единицах(битах)как l=log2( 1/p)=-log2p. Тогда
(1. 4)равноценно(1. 5)
Формулы 1. 4, 1. 5
Однако дела n/N представляют собой частоты возобновления исходов, а следственно, имеют все шансы существовать изменены их вероятностями: n/N=p, потому средняя информация в битах
( 1. 6)
Литература
Перечень использованной литературы:
1. Базы информатики, Савельев А. Я. 2001
2. Энергоинформатика. Базисный курс, Симонович 2005
Наружные источники:
1. http://shkola. lv/index. php ?mode=chtchtid=453 раздел информатики на учебном сайте «школа. lv»
2. http://help-inform. ru/Meri_informatsii. htm - другая классифицирование мер инфы на сайте help-inform. ru
Информация. Меры информации.
Информация это объект передачи и преобразования в вычислительных системах. Слово информация происходит от латинского informatio, о