Для определения количества информации, которую получили школьники из сообщения тренера, используем понятие информационной энтропии, введенное Клодом Шенноном. Информационная энтропия измеряет неопределенность или количество информации, содержащееся в сообщении.
Информационное содержание события измеряется в битах и вычисляется по формуле:
где — количество возможных исходов.
В данном случае у нас 8 дорожек в бассейне, и тренер сообщил, что плавать будут на дорожке номер 5. Это означает, что из 8 возможных исходов теперь известен один конкретный исход .
Подставим значение в формулу:
Известно, что , поэтому:
Таким образом, количество информации, которое получили школьники из сообщения тренера, составляет 3 бита. Это означает, что сообщение тренера устранило неопределенность, связанную с выбором одной из 8 дорожек, и предоставило 3 бита информации.