自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

一只特立独行的zhu..

isp tuning从业者,力求总结分析自己的所学所思,期望可以和志同道和者共同进步,也能帮助到有需要的人。

  • 博客(103)
  • 资源 (1)
  • 收藏
  • 关注

原创 同样分辨率的图像, 怎么评判清晰度

因为对于 sensor 而言,决定清晰度的就是像素数,经过降低像素输出后的 sensor,和原生200万 sensor 的像素数相同,只是 pixel size 存在差异,但pixel size 对清晰度不会有影响,它只是决定感光度。所以如果 downscaler 处理的好,他就能从 sensor 输出的数据上保留更多的细节信息,清晰度肯定是优与原生的 200万的。也就是 sensor 原始输出的像素数就是 200万了,和原生 200万像素的 sensor 像素数相同,所以清晰度应该是差不多的,

2024-03-16 20:43:04 404

原创 关于Camera出图,有竖线问题的排查步骤

我这里的 raw 是在进入 ISP 后 dump 的,那就可以排除是 ISP core 的问题了,所以也就没必要去一个一个 bypass isp core 中的模块去看了,所以有可能就是 ISP 最前面这个做 raw 数据转换的模块出的问题。但就现在此问题来说,第一步做交换模组的排查时,就已经排除了是 sensor 的问题,所以要搞清楚在出流的 pipeline 中,raw 图是从哪里 dump 出来的;1)首先要从客户那边收集一些关于此问题的基本信息,由此来判断问题的严重程度,才好做下一步的计划和安排;

2024-03-16 20:38:34 921

原创 关于图像做 mirror 和 flip 的问题总结

1)做 mirror/flip 前先确定摄像头模组的具体物理位置;2)要保证sensor 输出是正的,可以通过sensor 去做 mirror/flip,保证输出要和24色卡色块顺序保持一致;3)有 mirror/flip 的功能需求时,必须要通过isp、或者其他后处理模块去做,否则会影响tuning的效果。

2024-03-03 15:22:41 547

原创 打开 Camera app 出图,前几帧图像偏暗、偏色该怎样去避免?

启流做初始化时,直接写到相应的 sensor、isp 寄存器中,这样用初始化参数输出的图像给到算法时,因为本身就是曝光正常,白平衡准确的,所以 ae, awb 几乎不存在收敛的时间。但对一些机器识别的应用,他是需要逐帧分析的,对稳定出图的速度是有要求的,如果是25fps内才能收敛完成,那对于识别的性能就要差很多了,也是不可接受的。1)最直接的就是优化 ae、awb 的算法性能,即使场景再突变,也可以在2-3帧内就能收敛完成,而不带来任何的副作用,比如震荡,闪烁等等。

2024-02-24 17:26:11 827

原创 图像从暗到亮收敛完成后,会闪烁一下的问题分析

之前的想法是,肯定是和AE算法有关的,当帧率发生变化时,曝光时间和增益都会发生变化,AE会重新计算、重新收敛,所以图像出现闪烁。切换帧率导致的亮度闪烁,算法那边回复应该是曝光和增益写给 sensor 的时间不同步导致的,和AE没有关系,是驱动要保证的。有发现是和开启了降帧有关系,当关闭降帧后,就看不到闪烁了,这里主要分析一下开启降帧后,导致图像闪一下的原因是什么。整个过程是手捂住画面,图像先变暗(会达到降帧阈值,开启降帧),然后手放开,画面亮度恢复,AE收敛完成(降帧恢复)。

2024-02-05 14:46:22 492

原创 关于镜头选型时的一些注意事项

假如镜头的靶面范围无法涵盖整个 sensor,则成像圈会被看见,实际成像的图像四周会伴随严重的边缘暗角,在这个状态下,视角会被成像范围所限制(如下图左边的情况)。一般我们是先根据产品具体的应用场景,去定义一个合适的景深范围,然后再去对应的景深表上,找到满足景深范围的对焦距离,以此距离来对焦,然后点胶即可。GC4653上,中心:220线清晰,为什么4M 的镜头比2M 的镜头解析力还要小?景深范围是指摄像头在纵向距离上,能看清楚的最远点,和能看清楚的最近点之间的范围,它是可变的,由点胶距离决定。

2024-01-13 15:03:44 1171

原创 关于日夜不共焦的问题

有咨询镜头厂,需要告诉镜头厂镜头型号和用的 IR_CUT型号, 如果 IR_CUT是等厚的,可以用不等厚的去做补偿,也就是使 IR_CUT的白片与黑片补偿后达到焦距一致。不然调试过程当中遇到许多乱七八糟的问题,如果是镜头,IRCUT,Sensor 不匹配导致的,那就很麻烦。之前觉得是和镜头,及光的波长没有关系,是因为滤光片的折射导致,这两天调试时发现一个问题,改变了这种看法, 当我调试黑白夜视模式时,此时是透光片,无可见光,对焦是清晰的。不能在调试一款 Sensor时,随便在网上买一个镜头调试就可以了。

2024-01-13 14:59:51 504

原创 sensor 点亮出图后,画面全黑是为什么?

关键是应该先提供模组的 spec ,或者先了解一下他这个产品的应用,或者拍个产品的图片看看,也就大概有个了解了,这是欠考虑的地方。对于这种补红外的摄像头来说,主要是滤光片的差异,他是把可见光给过滤掉了,所以在可见光下面看,出图肯定就是黑了。这里要注意,如果是红外补光,那就没必要需要颜色了,要在效果参数中将饱和度,色彩相关的参数都置 0 才是。后面他突然反馈,问是不是出图就是这样的,他是带红外补光的,这是我没有考虑到的。后面让他试了下,打个红外灯看下,画面就亮了,但出图是紫的,

2024-01-06 20:56:02 501

原创 关于 bringup sensor 时,曝光时间异常的问题排查

见下图是 sensor datasheet 中关于曝光寄存器的说明,所以我读出的 3e00, 3e01, 3e02的寄存器的值,正常的应该是在 1-2390 之间,下图定义了最小曝光行是1,最大曝光行是 2*vts-10 = 2390。后面检查看到,这颗 sensor 是半行曝光,但我配置给算法的 vts(帧长)的值,是默认的1200,实际应该乘以2,配置2400行才对,所以导致曝光时间增加了1倍。因为同样的环境我用接其他sensor 是没问题的,那应该就还是我驱动中返回给算法的曝光参数的配置有问题。

2024-01-01 21:18:02 911

原创 关于镜头景深的计算

比如之前调试的一款化妆镜的设备,客户反馈了一个运动模糊的问题,后面才知道,他搭配模组的景深范围只要10cm,3)弥散圆直径,是 pixel size x 2,我的理解是这就是容许弥散圆直径,根据奈奎斯特采样定理,弥散圆,在焦点前后,光线开始聚集和扩散,点的影像变成模糊的,形成一个扩大的圆,这个圆就叫做弥散圆。4)入瞳直径,是 f / Fno,就是有效通光孔径 D,光圈的计算公式是,Fno = f /D。容许弥散圆,如果弥散圆的直径大于人眼的鉴别能力,在一定范围内实际影像产生的模糊是不能辨认的,

2024-01-01 21:10:10 516

原创 exposure_line 是如何曝光的 ?

实际调试过程中,在室外高亮的场景下我们看当前曝光行可能就几行,但暗环境下曝光行会走满,曝光不够了,还会接着走 sensor gain。第一行先reset,接着就开始曝光,当一直曝光11行后(看示意图可以理解成曝光11次,每次1行),不知道怎么理解,是曝光到1500行,然后继续在1501,继续曝光,一直循环,是这样理解的嘛?曝光行是一个相对时间,他就是一个时间单位,和秒,毫秒一样的,都是用来表示曝光时间的单位。1帧图像用积分时间11行完成了10ms的曝光,这里假设1行的曝光时间是0.91ms。

2024-01-01 21:05:34 480

原创 关于图像清晰度、通透度的描述

分辨率(Resolution)描述的是对空间细节分辨的能力,又称分辨力、鉴别率、鉴别力、分析力、解像力和分辨本领,下面是一组通透度的场景对比,这个场景是在相同照度下,相同镜头,使用 IMX334 抓取的图像。造成不通透的原因虽然多种多样,但是表现的形式是一样的,表现为:照片发灰、发朦。比较显而易见的就是图像的清晰度和通透度,他们决定了评判者对画质的第一印象。清晰度是分辨率和锐度的综合表现,也就是,清晰度 = 锐度+分辨率。这是本文要描述的内容。左边的图像发灰、发朦,右边的图像相比就要通透许多。

2023-12-10 21:30:59 617

原创 关于 raw 图像的理解

但遇到过有些 raw, 用工具打不开或者出图不对的情况,那可能是因为 raw 的存储格式不同导致,本文主要对 raw 的格式做下介绍说明。这个主要看平台厂商对数据处理有什么要求,我司用的是高位对齐的数据,所以读取时,要有相应的移位操作才行。raw 一般分为 plain raw 和 mipi raw,主要是存储方式上的区别,如下图所示是 Plain raw10 的示意图。那就会空出 6位用不到,因为有空余,这里就涉及到一个高位/低位对齐的问题,也就是存储数据时,右移6位低位对齐(如下图1所示),

2023-11-26 21:27:45 848 1

原创 拍照打闪光灯,图片出现亮度分层的原因分析

所以当限制了最小曝光行后,sensor 曝光一帧完成的时间就变短了,这时应该就小于打闪光灯闪的时间了,此时 sensor 在闪光灯闪的这个时间段内就可以完成一帧图像的曝光,所以出图就正常了。所以第一次1-2s的常亮状态,这个时间段就可以计算出正确的3a信息,到第二次闪时,直接把保存的正确的3a信息写入就好了,所以这样就不会存在曝光没完成的情况了。而拍照打闪光灯时,如果闪光灯闪的时间太短了,小于了 sensor 曝光一帧完成的时间,那就会导致图片上曝光完成的部分是亮的,未曝光的部分则是暗的。

2023-11-11 13:20:40 277 1

原创 Sensor 点亮出图后,颜色偏红或者偏绿是为什么?

而不同 sensor 的 balck level 的值是不一样的,所以导致图像偏红是因为 balck level 扣的少了,偏绿则是 black level 扣的多了。这是因为 sensor balck level 的值配置的不正确导致,black level 的值一般在效果参数的 calibration 参数里面。对应的 balck level 十进制的值是50,12bit 输出时,对应的 balck level 十进制的值是200。

2023-11-11 13:12:31 414

原创 镜头边缘的解析力通常比中心差很多的原因是什么?

就是实际像与理想像之间的差异。对于理想的成像系统,是点物成点像,从物体的一点发出的光,通过透镜后,在一点汇聚而成像。但实际对于普通的透镜而言,光是不能汇聚于一点的,这种现象叫做像差。

2023-10-21 11:53:18 345

原创 使用不同尺寸的传感器拍照时,怎么保证拍出同样视场范围的照片?

这是本文要分析的问题。胶片时代,我们使用最多的是编号为135型胶卷底片(感光区域范围36*24mm),摄影厂商就以此为规范设计镜头和机身,数码相机的感光元器件,面积的大小成本差异很大,和135胶卷面积相同的ccd或者cmos为全画幅。如下图所示,物高实际分轴上和轴下,所以上式要乘以2,得到:Y = x * D/f(基于实际应用,物体在无限远处,焦距的长度忽略不计,光心到传感器的距离就是焦距),Y就是最大像高,也就是视场范围。这时焦距决定了拍照时的视场范围,焦距越大,视场范围越小,焦距越小,视场范围越大。

2023-09-29 09:43:01 811

原创 关于 Resolution(分辨率、解析力)各单位的意义及相互之间的换算

比如一个 sensor 是10 * 20mm的画幅, 如果纵向可以填进去1000根线, 横向可以填进去2000线,垂直分辨率就是:2000线,也就是 2000lw/ph, 水平分辨率就是1000线,也就是 1000lw/ph(由于 lw/ph 在不同方向上不能保证线条数目一样, 所以测试要分横向和纵向)。最近在调试的项目,有关于对解析力的要求,用 imatest 软件测试 MTF50 的值,如下图所示,可以看到他有不同的单位表示,LW/PH、Cycles/pixel。这是本文要说清楚的主要内容。

2023-09-14 08:07:38 963

原创 关于 Camera 预览和录像画质不一样的问题分析

我这里的验证方式是用我们自己的开发板+Camera 模组来分析问题的,通过HDMI接到1080P 的显示器上出图,通过截屏比较预览的效果和录制的效果;对于这个问题,我花了太多时间,去验证我们自己开发板上 4K UI导致的预览清晰度差的问题,而客户明明反馈的是预览正常,播放录像时锐化高。,而录像是直接1080P显示的,所以视觉上看起来预览的清晰度度是要差一点的,是正常的。但客户那边的设备用的是mipi 屏,UI的分辨率是1920x1200,所以并不是4K UI的预览导致的差异。

2023-08-27 17:33:00 1195

原创 使用zoom预览出图和系统相机预览出图,画质不一样的问题分析

对于基于Android 平台调试 Camera 来说,客户通常会使用到很多第三方的Camera app, 对于不同app 出图效果不一致的问题,可以参考上述过程来做相应排查。

2023-08-20 22:17:25 225

原创 关于坏点问题的调试总结

关于项目调试过程中遇到的坏点问题,一般按如下步骤去进行排查:a. 先判断遇到的是不是坏点,通过抓取raw图去看,及利用相应raw图工具去做分析。b. 从模组厂或 sensor 厂了解坏点的管控标准,确认是否满足坏点的管控标准,排查生产品质问题。c. 通过查 sensor datasheet 及咨询该 sensor 厂的fae来了解该 sensor 是否有 dpc 处理的控制。d. 通过后端isp中的dpc模块去做处理,但调试时要注意可以通过dpc模块后的降噪及锐化的各个模块去平衡清晰度的效果。

2023-07-23 17:46:06 444

原创 关于 Camera 产品的功能分析

关于4:3、16:9 尺寸的 crop,需注意的是,从4:3到16:9会保证左右的 fov, 而去 crop 上下的部分,因为平常人们会更关注的是水平方向的 fov。比如13M的 sensor ,拍照的最大尺寸就是13M,也有拍照的小尺寸可供用户选择,这一般都是从全尺寸 crop 出来的,常见的一般有4:3和16:9两种尺寸。要注意的是,如果要烧录 OTP 的话,就要提前确认好尺寸的问题,关于小尺寸的分辨率建议一般是后端的模块去做 crop 的处理,而不是通过 sensor 来处理,

2023-07-02 20:03:01 449 1

原创 关于运动模糊问题的分析及处理方法

因为当曝光时间走到最大,还达不到ae target值时,AE 就会通过增加 sensor 增益来达到目标亮度,一方面增益增加了,会带来更多噪声,另一方面 ISP 是根据不同增益等级去做去噪的,所以增益变大了,去噪强度就会增加,导致清晰度损失。调试一款产品前,我们要考虑其实际的应用场景,10cm的景深范围肯定是不满足实际使用要求的,根据我们平常照镜子的需求近焦端距离10cm(像平常我们挤痘痘是需要的靠这么近的),远焦端距离100cm,所以建议景深范围10-100cm,也就是90cm内为好。

2023-06-23 15:13:17 1370

原创 关于镜头畸变问题的总结

用画图工具打开后,就可以得到每个点的像素位置,如下图的坐标所示,先算出左侧的像素差(2944-176=2768),右侧的像素差(2937-169=2768),中间的像素差为3120,可以计算出畸变值为:((2768+2768)/2 - 3120)/3120 = -11.2%),结果有点误差,但也不大,实际测试一般都是用 imatest 软件去计算,能了解一下具体是怎么计算的就可以了。畸变是对应所拍摄出的图片而言的,体现图像的变形程度,我们平常用 imatest 软件所测试的就是TV畸变的值。

2023-04-09 20:18:02 3398 3

原创 什么是星光级 Sensor ?

当光电二极管的材质为硅(Si)时,蓝色等波长较短的光线将在光电二极管的表面附近被吸收,而绿色、红色等波长较长的光线,则在光电二极管的深处被吸收。如下是索尼部分 statvis sensor 的信息,我们可以通过SNR1s 的值来判断其低照度下的性能,另外我上面提到的思特威的 SC880SL SNR1s 的值是0.18lux,对比下表来看,效果也是相当好的。星光级 sensor 是有的,也是各家 sensor 的一个卖点,它最主要的优势就是低照度场景下性能好,即星光下可见。

2023-03-18 11:14:35 1587 1

原创 宽动态场景下,暗处偏黄/偏绿的问题排查

在调试 sc301IoT 这款 sensor 时,有遇到在宽动态场景下,图像暗部偏黄/偏绿色/偏蓝色,画面再挪一下还会整个偏绿。如下图所示,是开着一个立式灯箱,灯箱左边很亮,右边的暗部有明显的偏色现象,本文主要记录下关于此问题的排查过程。

2023-03-05 18:51:41 673

原创 关于 ISP Tuning的学习,分享几点看法

这么说可能会有点谬误,我的理解是学习是需要方式方法,但也必须要有死磕下去的决心,比如学英语要背单词,学编程要多敲代码,道理很简单谁也都懂,但能一直执行下去的有多少呢,说这么多,其实我自己做到的也有限,大家共勉。可以把 ISP Tuning 的学习分成三个阶段,对于刚入行的同学,建议可以先了解下整个 isp pipeline,知道有哪些模块,每个模块的作用是什么,基于这些就可以修改参数,调试效果了(当然每个平台开放的参数都不一样,需要对着调试指南有个熟悉的过程)。3、有总结性的,输出式学习。

2023-02-19 13:34:08 2065

原创 相机出图画面一半清晰,一半模糊的原因是什么?

理想情况下模组的成像状态如下示意图,成像的结果是图像中心最清晰,四周的清晰度稍差一点(这是正常现象,因为相机用的是凸透镜,越往边缘光的折射率就会越大,会使光线的传播轨迹变化越大, 因此光线不再准确地投影到图像传感器上,从而导致图像边缘的解析力变差 )。出现这种问题的原因,主要是在摄像头封装过程中,涉及到图像传感器、镜座、马达、镜头、线路板等零件的多次组装,因此零配件的叠加公差越来越大,最终表现在摄像头上的效果是拍照画面最清晰位置可能偏离画面中心、四角的清晰度不均匀等。如下是导致这种问题的,两种现象示意图。

2023-02-12 19:09:03 2222

原创 Sensor setting 用的是30fps ,但最后输出是15fps,是怎么回事儿 ?

在 sensor 驱动中注释掉所有关于 sensor 寄存器的修改,直接用默认的 setting 出图,判断是否是 sensor 厂给的 setting 就是15fps的,这么试了,sensor 输出的打印是30fps, 录制的视频流也是30fps了,画面也流畅了,那就不是 sensor setting 问题。但后面配置 0x320e,0x320f 时(也就是设置帧长的函数里面),我是直接用前面得到的帧长来计算的,没有除以2,所有实际写入寄存器的值就增大了1倍,导致帧率就从30fps 降到了15fps。

2023-02-05 13:10:23 1059 1

原创 关于入职 ISP Tuning 岗位的几个问题及解答

对于没这方面相关工作经验的同学,我的建议是了解一下 Camera 的工作原理、镜头相关的一些基本知识、sensor 的基本工作原理、ISP当中有哪些模块,具体每个模块的工作原理/功能,我觉得这些基本就可以了。上面只是列了几家有代表性的企业,具体去哪家公司哪个行业,我也给不出具体的答案,这个要看你自身的情况,以及对自己的规划来做选择了,这里就不多说了。另外要有所提高,isp 中的算法代码也是要研究的,这样可以更好的理解每个模块的处理原理、流程,做到更有效的去调试相关参数。对于入职以后该怎么学习,学什么?

2023-01-27 15:41:42 1820

原创 白平衡一直标定不准的原因是什么?

确保不是因为你调试的awb参数,导致的算法判色温判错了(减小或关闭影响色温判定的参数看看),或者是你其他模块(比如awb之前的亮度,颜色处理的模块)影响到awb的色温统计或者计算了,依次bypass 看看。4、或者本身就是标定算法的问题,我们也有遇到过标定色温和算法判出来的色温差别很大,算法分析的结果是,标定的色温表格精准度不够,需要通过改进标定算法解。2、要用色温计去测量每个光源下的色温,不是D65的光源就一定是6500k,因为光源的损耗及色温计摆放位置、方向的不同,都会有测量误差。

2023-01-27 15:40:21 667

原创 关于 sensor hdr 模式下不出图/出图异常的排查方法

接着就是找 sensor 厂介入一起排查了,首先怀疑是和 mipi lane 数或者 mipi 速率太大相关,因为我们平台上接的其他 HDR 的 sensor 都是用的 4lane 的,而这个 sensor 设计的是只支持2lane 的,所以也没办法重新申请 4lane 的 ov02k10 的 setting 去验证,后面是申请了一个 2lane ov08a10 的 HDR 的 setting 去验证了下,可以正常出图,说明那就不是我们平台不支持 2lane 的 hdr 模式。后面查是长帧正常,短帧异常。

2023-01-14 14:37:27 1214

原创 关于 Camera 开始 Tuning 时的一些注意事项

反馈给到模组厂,得出的结论是镜头和 sensor 的 CRA 不匹配导致的,后面了解到 ov13b10 是一款商用级的 sensor (也就是用在手机用的比较多),但现在是搭配的一款数码多媒体的镜头(如图3),重新拿到 ov13b10 的模组点亮后,依然看到有和 ov13855 一样的现象(图像偏红、网格纹、pd点),但旧平台上点同样的 sensor 是好的,就有点怀疑是我们新平台的硬件问题了,那这就是模组的问题了。图像就会有 pd 点存在,另一方面 PD 点其实就是坏点,他造成了像素损失,会影响清晰度。

2022-12-25 13:07:05 2061

原创 关于影响编码效果的画质调优总结

1、背景:调试一个新项目,要求视频帧率为20fps、码率1.5m下,和竞品机对比效果。发现动态场景下的效果比竞品机差距比较明显(做的是安防类的监控相机,比较关注视频的效果),比如对着运动的车流时,出现模糊/马赛克的范围比较大、运动模糊的收敛速度慢、运动模糊/马赛克的形态显眼难看,如下图所示:2、ISP 方面的调试总结:从上图中明显可以知道是和编码相关的图像问题,编码会导致的图像质量问题具体可看这篇:Encoder 相关的图像质量问题编码器同事那边的建议是让先基本对齐ISP的效果后,再去谈优化编码。他解释决定

2022-12-07 07:23:24 866

转载 IQ_Tuning_Overview

开发 C model 的目的,一方面是做一个在PC 上可以参考的模型,因为 C 语言和开发硬件的语言、描述逻辑上比较接近,通过 C model 给硬件工程师,硬件工程师写出RTL,做出真正的硬件 ISP 的设计。对于ISP 与 IQ tuning 的开发流程,不同的公司有不同的开发流程,从做 ISP 的公司来说,会先做算法IP,会基于一个模块比如 shading correction 去做算法的开发,后面 IQ 工程师会参与进来帮验证算法设计的结果是否符合要求,属于IP 级的 IQ Tuning。

2022-11-06 19:14:46 1111

原创 A光下拍摄 24色块 ,raw 图异常问题

如下图所示,人眼可见光的光谱范围,约是400-700nm ,所以要符合人眼视觉的相机,也就是审美型的相机(如监控、手机、单反相机等),其光谱的响应范围都必须是400-700nm,否则呈现的颜色人眼就不可接受。如下是 imx335 sensor 的光谱响应图,可以看到 700nm 以后不可见光部分,sensor 也是有响应的,所以为了避免颜色失真,就会通过 IR 去过滤掉近红外部分的光线。回到上面的问题,为什么D65光源下拍摄的 raw 图正常,而 A 光下拍摄的 raw 图颜色会不正常呢?

2022-10-31 07:18:46 682

转载 Encoder 相关的图像质量问题

不管是 ISP 的图像质量问题,还是编码导致的图像质量问题,我们在遇到问题时,首先要做的就是缩小范围。

2022-10-23 20:40:05 640

原创 关于同色异谱的问题

之前有用同样的模组在 LED 光源及 标准光源灯箱下都做过色温的标定,标定出来的普朗克曲线如下图所示,从标定的曲线结果来看还是标准光源灯箱标定出来的比较符合一些,LED 光源下的普朗克曲线完全呈线性的了,所以建议有条件的还是使用标准光源的灯箱去标定白点会比较符合预期,因为我们一些色彩的标准都是基于CIE定义的标准光源来的。A光源是一个蓝很低,红很高的光谱特征,D50,D65的光谱比较平稳,一般是用作校正白平衡、shading的标准光源,F1是荧光灯光谱,蓝色的成分比较高,出来的颜色会偏蓝。

2022-10-17 21:27:34 1311

原创 锐化调试总结

b、接着将黑白边的控制,调到最高,避免被截止(这里是 overshoot 的控制,是将前面的亮度、运动、梯度的锐化处理后的数据再次做了一个限制,处理后的数据和原始数据的差值大于设定的 overshoot 的值,就用这个设定值)。以我目前调试的平台为例,锐化模块主要分为 raw域+yuv域的锐化,raw域的锐化主要是保证更多的弱细节不受损失,在经过 demosaic 模块之前,将弱边界先进行一个增强,使之后模块的处理,弱边界可以被看到。h、再接着去慢慢按步长去降低,overshoot 的值,到一个临界值。

2022-10-08 22:48:08 1208

原创 光圈相关概念总结

无论是动物还是我们人类都有瞳孔,瞳孔在光线强的时候会缩小,以防太刺眼,而夜晚的时候会放大,增加通光量以看清夜间环境,光圈就是这样一个控制进光量的装置。但光圈也不仅仅只有控制进光量的作用,本文主要是讲解下光圈的相关概念,及在相机当中的作用。

2022-09-26 23:53:28 3253

图像质量客观测试标准.docx

用imatest工具测试摄像机图像效果的客观测试标准,包含色彩还原,自动白平衡,信噪比,亮度均匀性,解析度等指标的测试标准

2019-12-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除