Для определения количества информации в сообщении необходимо использовать понятие энтропии. Энтропия - это мера неопределенности или неожиданности сообщения. Чем больше энтропия, тем больше информации содержится в сообщении.
В данном случае сообщение "Я изучаю информатику-науку об информации!" состоит из 48 символов, включая пробелы и знаки препинания. Однако, так как сообщение содержит только буквы и пробелы, то можно предположить, что каждый символ представляет собой одну байт информации.
Следовательно, общее количество информации в сообщении можно вычислить, умножив количество символов на количество байтов, то есть 48 символов * 1 байт = 48 байт.
Таким образом, сообщение "Я изучаю информатику-науку об информации!" содержит 48 байт информации.