Сообщение из 80 символов, изначально записанное в 8-битной кодировке Windows-1251, занимает определенное количество памяти. Каждый символ в этой кодировке занимает 1 байт , так как Windows-1251 — это однобайтовая кодировка, использующая 256 возможных символов.
Итак, для 80 символов в Windows-1251 потребуется:
Затем сообщение было перекодировано в 16-битный код UNICODE. В этом контексте, скорее всего, подразумевается UTF-16, который является одной из форм Unicode, где каждый символ занимает 2 байта в базовой плоскости . В UTF-16 символы, требующие более 16 бит , могут занимать 4 байта, но для обычной перекодировки из Windows-1251 все символы будут занимать по 2 байта.
Таким образом, после перекодировки в UTF-16 сообщение будет занимать:
Теперь можно рассчитать, на сколько увеличилось количество памяти, занимаемое сообщением:
Таким образом, количество памяти, занимаемое сообщением, увеличилось на 80 байт. Это удвоение связано с переходом от 8-битной кодировки к 16-битной, где каждый символ занимает вдвое больше места.