Поскольку преобладающий объём исследований лунного блефа NASA осуществляется с использованием в качестве объектов анализа изображений "лунных" снимков, представленных в оцифрованном виде, то каждому, кто занимается этим увлекательным делом - весьма важно отчётливо представлять себе влияние цифрового формата снимков на их информативность.
Данное исследование не будет касаться потерь информации при сжатии цифровых файлов изображений алгоритмом компрессии JPG ( эта тема будет освещена позже ), а сосредоточится на потерях, которые наносит информативности снимков само их представление в виде массива числовых значений.
Также будет тщательно рассмотрен вопрос, ответ на который (на первый взгляд) кажется очевидным: возможно ли и если да, то до каких пределов
определение размеров изображения ВНУТРИ ПИКСЕЛА.
Сначала немного теории.
Цифровое представление аналоговых сигналов ( будь то звук или изображение ) обычно имеет два независимых параметра
дискретизации и
квантования. В случае со звуковыми файлами это будет частота отсчётов дискретизации ( например - 16 КГц ) и разрядность квантования ( например - 8 бит ). При оцифровке изображений дискретизируется площадь снимка и квантуются цвето-яркостные параметры каждого из полученных таким образом пикселов.
Поэтому, для оцифрованного изображения указывают не только его разрешение ( например - 1024х1024 пиксела ), но и разрядность цвета
каждого пиксела ( например - 24 бит ).
Поскольку разрядность 24 бит на пиксел применяется в подавляющем большинстве цифровых изображений, то большинство людей даже не задумываются, что это значит.
Однако, как ни парадоксально это может выглядеть на первый взгляд - большая разрядность цвета даёт теоретическую возможность
измерять на изображении СУБПИКСЕЛЬНЫЕ РАЗМЕРЫ.
Математическая основа этой возможности кроется в применяемых алгоритмах оцифровки изображений. Если предмет по одному из цветовых каналов имеет яркость = 0, а фон яркость = 255, то при оцифровке границы между предметом и фоном, попадающей между пикселами - яркость этих граничных пикселов (по этому каналу) будет зависеть от пропорции площадей, занимаемых предметом и фоном в пределах области пиксела.
Это даёт теоретическую возможность опредления размеров предметов, изображённых на снимках - с субпиксельной точностью.
В теории всё звучит прекрасно. Теперь проверим на практике.
Для простоты используем чёрно-белые изображения. Яркость объектов = 0, яркость фона = 255.
Построим 10 прямоугольников с толщиной линий от 1 до 10
Сожмём в 10 раз по ширине
И вновь растянем (для удобства измерений)
Теперь, точно зная параметры яркости объекта и фона - вычислим субпиксельные размеры для сжатой картинки.
Яркости сжатых линий:
1. - 229
2. - 204
3. - 178
4. - 153
5. - 127
6. - 102
7. - 76
8. - 51
9. - 25
10 - 0
Пропорция яркости объекта в яркости пиксела:
1. - 10.2%
2. - 20.0%
3. - 30.2%
4. - 40.0%
5. - 50.2%
6. - 60.0%
7. - 70.2%
8. - 80.0%
9. - 90.2%
10 - 100%
Восстановленные значения толщины линий на сжатой в 10 раз картинке (по
яркости единственного пиксела ):
1. - 0.102
2. - 0.200
3. - 0.302
4. - 0.400
5. - 0.502
6. - 0.600
7. - 0.702
8. - 0.800
9. - 0.902
10 - 1.000
Восстановленные значения толщины линий на исходной картинке ( до сжатия в 10 раз ):
1. - 1.02
2. - 2.00
3. - 3.02
4. - 4.00
5. - 5.02
6. - 6.00
7. - 7.02
8. - 8.00
9. - 9.02
10 - 10.0
Как видим - чем больше контраст между объектом и фоном по каждому из трёх цветовых каналов - тем большая информация об истинных размерах объекта может быть получена при анализе оцифрованных изображений.