Чтобы определить количество информации, содержащееся в сообщениях о том, что из мешка случайным образом были последовательно взяты банан , слива , апельсин и абрикос , нужно воспользоваться формулой для расчета информационной энтропии.
Энтропия для события рассчитывается по формуле:
где ) — вероятность события .
Посчитаем вероятность каждого фрукта:
- Вероятность взять банан ) =
- Вероятность взять сливу ) =
- Вероятность взять апельсин ) =
- Вероятность взять абрикос ) =
Теперь применим формулу энтропии для каждого фрукта:
- = - \log_2 = - \log_2 = - = 2 ) бита
- = - \log_2 = - \log_2 = - = 1 ) бит
- = - \log_2 = - \log_2 = - = 3 ) бита
- = - \log_2 = - \log_2 = - = 3 ) бита
Суммируем количество информации для всех четырёх сообщений:
[ H{\text{total}} = H + H + H + H ]
[ H{\text{total}} = 2 + 1 + 3 + 3 = 9 \text{ бит} ]
Таким образом, количество информации, содержащееся в сообщениях о том, что из мешка случайным образом были последовательно взяты банан, слива, апельсин и абрикос, составляет 9 бит.