Для расчета объема информации, которую несет сообщение, нужно воспользоваться формулой Шеннона:
I = -log2(P)
где I - объем информации в битах, P - вероятность появления сообщения.
В данном случае вероятность появления каждого символа равна 1/32, так как у нас 32 символа в алфавите.
Тогда вероятность появления сообщения из 49 символов будет равна (1/32)^49.
Подставим это значение в формулу Шеннона:
I = -log2((1/32)^49) ≈ 196 бит
Таким образом, сообщение из 49 символов, состоящее из символов алфавита из 32 символов, несет около 196 бит информации.