在显微成像领域,视野大小(FOV)和标尺(Scale bar)是衡量图像信息的关键要素。不同的成像参数调整方式,如像素裁剪、像素合并,以及图像在显示屏上的缩放显示,都会对它们产生影响。下面就为你详细解析这些原理和计算方法。
一、FOV的计算原理
相机 FOV (视野大小)取决于两个因素:相机传感器的大小和总放大倍率。传感器尺寸可以通过多种方式测量,但常用的测量方法是传感器对角线的大小,因为有些传感器是方形的,有些是矩形的。
FOV指的是显微镜通过相机成像时,能够观察到的样本区域大小。它的计算与多个参数相关,公式为:
在显微镜领域,我们通常以横向尺寸来计算FOV,横向传感器尺寸 = 最大分辨率的宽度 × 像元尺寸 ,像元尺寸即相机传感器上单个像素的物理尺寸,如1.55μm * 1.55μm、2.4μm * 2.4μm 。
假设某相机分辨率为3840×2160,像素尺寸为2.4μm * 2.4μm,物镜放大倍率为10X,相机接口放大倍率为0.55X 。
先计算芯片横向尺寸:
再根据公式可得横向FOV:
视野随着放大倍率的增加而减小,从而限制了在更高放大倍率下成像的区域。
二、像素裁剪与像素合并对FOV的影响
(一)像素裁剪(Cropping )
当使用像素裁剪功能时,相机舍弃CMOS上的部分像素区域,仅用剩余像素成像。由于实际参与成像的区域变小,所以FOV也会相应减小 。比如原本能捕捉较大范围样本的相机,在裁剪后只能呈现样本的局部区域。
ROI功能允许用户从相机CMOS传感器的全视野中选取特定的感兴趣区域进行成像。与像素裁剪类似,选取ROI后,实际参与成像的区域变小,因此FOV也会相应减小。计算使用ROI区域的尺寸,例如选取的ROI为1280×720,计算时需使用该区域大小 。在计算FOV时,将ROI区域的长或宽乘以像元尺寸得到芯片尺寸,再代入FOV公式。
(二)像素合并(Binning)
像素合并是将相邻的多个像素合并为一个大像素。例如2×2 binning,会把4个相邻像素合并成1个,虽然图像分辨率降低,但CMOS芯片感知光线的物理区域没有变化,因此FOV保持不变 。只是每个合并后的像素包含了原来多个像素的信息,图像细节分辨率下降,单位像素代表的实际面积增大。
三、Scale bar在不同场景下的像素长度计算
Scale bar用于表示图像中物体的实际物理尺寸,是图像分析的重要参照。但在不同分辨率或显示尺寸下,同样长度的Scale bar对应的像素宽度会受到系统总放大倍率的影响。
(一)拍摄照片中的Scale bar
在原始拍摄的照片中,Scale bar对应的像素宽度计算需要考虑相机像元尺寸与整个光学系统的总放大倍率。以3840×2160分辨率、像元尺寸2.4μm的相机为例,物镜放大倍率为10X,相机接口放大倍率为0.55X ,则系统总放大倍率为 10×0.55 = 5.5倍。
这里需要特别说明为何是乘以总放大倍率。在显微镜成像系统中,放大倍率的本质是将样本的实际尺寸在图像上进行“放大展示”。当不考虑放大倍率时,1微米对应的像素数量为 ,这表示在相机传感器直接成像(无光学放大)的情况下,1微米的物理长度对应
个像素。而当引入显微镜的物镜和相机接口的放大功能后,原本1微米的物理长度在图像上会被“拉伸”得更长,也就是占据更多的像素。
换句话说,放大倍率为5.5倍意味着样本上实际1微米的长度,在最终图像上看起来相当于原本的5.5倍长,自然也就会占据更多的像素数量。所以,考虑总放大倍率后,1微米对应的像素数量应该是 ,那么10微米对应的像素宽度就是:
个像素。
(二)显示屏上的Scale bar
当原始照片在显示屏上显示时,若从3840×2160变为1975×1010 ,相当于图像在横纵方向均缩放了约倍 。
由于Scale bar代表的实际物理尺寸不变,在显示屏上对应的Scale bar像素宽度变为 个像素 。这意味着在缩放后的显示图像中,相同物理尺寸的标尺占据的像素更少,直观表现为标尺在屏幕上看起来变窄了,但它所代表的实际长度始终是10微米。
在显微成像过程中:
- FOV由相机和显微镜的硬件参数决定,像素裁剪会改变FOV,像素合并则通常保持FOV不变;
- Scale bar代表固定的物理尺寸,但在不同分辨率图像和显示状态下,其对应的像素宽度会因系统总放大倍率和图像缩放而有所差异。
了解这些原理和计算方法,有助于我们更准确地分析和解读显微图像。