Для того чтобы определить количество информации, которое получил Петя, узнав свою оценку, необходимо использовать основные понятия теории информации, а именно понятие количества информации в битах, которое определяется через энтропию.
Энтропия — это мера неопределенности или случайности в системе. Для дискретной случайной величины, которая может принимать одно из ( n ) возможных значений, энтропия ( H ) определяется следующим образом:
[ H = - \sum_{i=1}^{n} p_i \log_2 p_i ]
где ( p_i ) — вероятность ( i )-го события.
В данном случае ученик может получить одну из четырёх оценок: 2, 3, 4 или 5. Если предположить, что каждая оценка равновероятна (то есть вероятность получения каждой оценки равна ( \frac{1}{4} )), то энтропия системы будет:
[ H = - \left( \frac{1}{4} \log_2 \frac{1}{4} + \frac{1}{4} \log_2 \frac{1}{4} + \frac{1}{4} \log_2 \frac{1}{4} + \frac{1}{4} \log_2 \frac{1}{4} \right) ]
Поскольку ( \log_2 \frac{1}{4} = -2 ), то выражение упрощается:
[ H = - \left( 4 \cdot \frac{1}{4} \cdot (-2) \right) = - \left( 4 \cdot \frac{1}{4} \cdot -2 \right) = -(-2) = 2 \text{ бита} ]
Таким образом, энтропия системы, то есть неопределенность, связанная с результатом контрольной работы, составляет 2 бита.
Когда Петя узнаёт свою оценку, неопределенность полностью устраняется. Он получает одну конкретную оценку (в данном случае оценку 2), что означает, что вся информация, связанная с результатом, теперь известна. Поэтому количество информации, которое Петя получил, равно энтропии системы до того, как он узнал результат.
Следовательно, Петя получил 2 бита информации, узнав, что написал работу на оценку 2.