При дискретизации напряжения, которое принимает значения от 0 до 12 вольт, весь диапазон разбивается на 100 равных интервалов. Это означает, что каждый интервал имеет длину:
[ \Delta U = \frac{12 \text{ В}}{100} = 0.12 \text{ В} ]
Измеренное напряжение округляется до ближайшего меньшего значения, которое попадает на границу интервала. Это значит, что максимальная ошибка, вызванная дискретизацией, будет равна величине одного интервала, то есть (0.12 \text{ В}).
Чтобы определить, сколько процентов от максимального значения составляет эта наибольшая ошибка, нужно выразить ошибку в процентах от максимального напряжения (12 В):
[ \text{Ошибка (в процентах)} = \frac{\Delta U}{U_{\text{max}}} \times 100\% ]
Подставим значения:
[ \text{Ошибка (в процентах)} = \frac{0.12 \text{ В}}{12 \text{ В}} \times 100\% ]
[ \text{Ошибка (в процентах)} = \frac{0.12}{12} \times 100\% ]
[ \text{Ошибка (в процентах)} = 0.01 \times 100\% ]
[ \text{Ошибка (в процентах)} = 1\% ]
Таким образом, наибольшая ошибка, вызванная дискретизацией, составляет 1% от максимального значения напряжения.