Чтобы определить количество информации, содержащееся в сообщении о том, что Иванов получил четвёрку, мы можем использовать концепцию информационной энтропии, предложенную Клодом Шенноном. Информационная энтропия измеряет количество неопределённости в системе и, следовательно, количество информации, которое устраняет конкретное сообщение.
Для начала, вычислим вероятности получения каждой оценки:
- Вероятность получить пятёрку = \frac{5}{24} ).
- Вероятность получить четвёрку = \frac{15}{24} ).
- Вероятность получить тройку = \frac{3}{24} ).
- Вероятность получить двойку = \frac{1}{24} ).
Количество информации в сообщении, которое сообщает о конкретном исходе, определяется формулой:
где — это вероятность события.
Подставим вероятность получения четвёрки:
Сначала упростим дробь:
Теперь вычислим:
Используя логарифмическую таблицу или калькулятор, найдём значение:
Таким образом, количество информации в сообщении о том, что Иванов получил четвёрку, составляет приблизительно 0.678 бит. Это означает, что такое сообщение уменьшает неопределённость относительно оценки Иванова на 0.678 бит.