Пятница, 17.05.2024
My homepage
Менюшка
Мини-чат
Наш опрос
Оцените мой сайт
Всего ответов: 30

11. Статистические меры информации. Вероятность и информация. Понятие энтропии. Соотношение энтропии и количества информации.

При статистическом подходе И рассматривается как сообщение о некот. исходе нескольких событий, кот. носят случайный х-ер или реализуются случайной величиной или ф-ией. При этом кол-во И ставится в зависимость от априорных вероятностей этих событий, величин, ф-ий.

Когда появляется сообщ. о часто встречающемся событии, вероятность кот. стремится к 1, т.е. к показателю полной достоверности, такое событие мало информативно равно как и противоположное событие, вероятность кот. стремится к 0, т.е. оно невозможно.

Большинство видов И можно свести к паре «событие - антисобытие». Именно эта пара явл. простым и неделимым квантом И. (p – успех, q – неуспех, q=1-p).

Когда p=q=0,5, мы имеем наибольшую неопр-ть в событиях. События можно рассматривать как исходы некоторого опыта, причем они составляют ансамбль или полную группу событий.

В кач-ве опыта может быть измерение некот. случайной величины, принимающей некот. случайные значения. Тогда каждое определенное значение имеют смысл исхода или элемент события.

В простом случае события явл. несовместимыми. Они образуют полную группу событий, в кот. обязательно реализуется одно из событий.

В общем случае вер-ти исходов явл. const, но они могут изменяться во времени в зависимости от условий и обстоятельств, тогда они становятся переменными, а события, кот. они описывают – нестационарными.

Чтобы измерить кол-во И, человек ставит себя на место приемника. В этом случае конкретное кол-во И он рассматривает как рез-тат выбора среди мн-ва возможных вариантов сообщ, причем выбор осуществляется по заранее определенному правилу.

Понятие «выбор» несет в себе важный смысл: кол-во И связано с неопр-тью или неправдоподобием конкретной И безотносительно к ее структуре.

Шеннон взглянул на все виды И совершенно с новой позиции. И несет уменьшение неопр-ти в наших знаниях. Принимая решение «Да» или «Нет» мы уменьшаем неопр-ть в 2 раза. Если неопр-ть такова, что вероятности «Да» и «Нет» равны, то мы говорим, что наше решение несет И в 1 бит.

Шеннон доказал, что количественная оценка И, кот. несет 1 символ, требует неожиданности его появления, т.е. вероятности. Чем реже появляется символ или чем реже происходит некот. событие, тем меньше его вер-ть и тем больше несет кол-во И.

Неопр-ть каждой ситуации х-ся энтропией.

В физике:


В ТИ:





Таким образом, энтропия, полученная разными способами может отличаться коэффициентами перед знаком суммы.

Информация есть отрицание энтропии.

Форма входа
Поиск
Друзья сайта
Статистика
Copyright Bulatow Albert © 2024
Сделать бесплатный сайт с uCoz