ImageVerifierCode 换一换
格式:DOCX , 页数:36 ,大小:1.03MB ,
资源ID:23868417      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/23868417.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(从硬件上讨论iPhone4s的拍照能力手机拍摄功能全解析.docx)为本站会员(b****8)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

从硬件上讨论iPhone4s的拍照能力手机拍摄功能全解析.docx

1、从硬件上讨论iPhone4s的拍照能力手机拍摄功能全解析iPhone4拍照性能分析以及iPhone4S拍照性能展望一楼:手机拍摄功能详解,用最简单的语言全面介绍和讨论手机的拍摄功能二楼:历史上的拍照强机=关于手机的拍摄功能,我早想写点什么。手机作为唯一需要时时携带的电子产品,大概从诞生起,人们就没有停止过在其身体内塞入尽可能多功能的想法(这句话稍显邪恶)。这其中拍照功能一直被人所瞩目。直到目前为之,不管一部手机采用什么芯片组,采用什么开放系统,但是于硬件来说,LCM和Camera还是最被人关注度的硬件配置之一。一部手机,卖点大抵分为屏幕素质,外型设计,系统功能,外设功能等。而在外设中,拍摄能力

2、一直是消费者最为关注的。其实这么说是有根据的,手机的拍摄功能确实给我们带来了很多快乐,典型的比如摄影大师陈冠希,成功的用一组写实风格的记录照片,让全球的男性都沉浸在撸管的乐趣中。从此以后广大男性们除了收集AV后,也养成了收集各种“门”之片片的习惯。你瞧,这不就是用手机拍摄改变了世人习惯的证据吗?iPhone4拍照性能分析以及iPhone4S拍照性能展望一 iPhone4的拍照性能同学们,朋友们,老师们,阿姨们你们拿着iPhone4,戴上美瞳,嘟着嘴巴,摆好姿势,喀嚓一下拍了一张照片。然后要干什么?废话,当然是发微博啊,发开心网啊,发米聊啊,传彩信给男朋友啊。这就是我要说的,iPhone的拍摄理

3、念,和之前的手机以及相机的拍摄理念不尽相同。iPhone的拍照,之所以关注度这么高,其实和iOS上众多的后期工具以及社交工具关联性极大。在前面的介绍中,我们知道,对原片进行进一步后期,会极大的影响画质,而且,手机上的图像后期处理工具,多功能简单,特效化较多,处理效果模块化。这会比在电脑上用Photoshop慢慢的后期,对图像画质的影响更加大。So what?大家不在乎啊,一般人也很少将iPhone拍摄的照片打印出来,甚至导入电脑保存的都比较少。 大家要的只是在iPhone的Retina上屏幕上,能显示出清晰的好玩的图像而已,并且还能把这个图像发到各种社交网络上。大家对于手机拍照,本来就不希望有

4、多大的后期空间,谁用手机拍出来原片,放到电脑上100%缩放去看细节呢?所以,对于拍照后的JPG原片的后期,我们这里不讨论。因为毕竟相机也内置很多特效,其他手机也可以简单的编辑图像。我们就来从硬件着手iPhone4的拍照能力。iPhone4的拍照硬件配置摄像头(Camera模组):OminiVision OV5650镜头(Lens模组):大立光电9457F改进型音圈对焦马达(VCM模组):Mitsumi VCMISP:AP处理器(A4)内置1 OminiVision OV5650OV5650是OminiVision公司专供苹果的一款Camera模组。OV5650的基本参数如下图:可以看到基本的信

5、息:1/3.2英寸的背照式CMOS传感器,最大采样分辨率25921944;模组直接输出Raw-RGB原始数据,不进行ISP处理;模组最大的输出速率是25921944分辨率下15帧每秒;快门类型为卷帘快门(Rolling Shutter);分析一下,世界上比较通用的小型摄像头模组厂商,有美光,OV,三星等。OV的市场占有率比较高,技术很成熟,而且驱动工程师最熟悉OV的方案,优化起来游刃有余啊呵呵,优化好了还能指望公司发点股票涨点工资呢哦呵呵。所以,这个专供苹果的500万像素背照式CMOS,素质在手机摄像头模组中,是排列中上等的。然后是曝光类型,卷帘快门就是CMOS行曝光的一种,可以提高输出速率,

6、所以带来的效果就是1080P摄像可以轻松实现。当然,首先要解决取景时曝光不均匀,斜坡和晃动等缺点。这个不用担心苹果工程师。另外一点,OV5650是简化过的摄像头模组,它没有ISP的过程,输出Raw-RGB原始数据。也许苹果对于自己的图像处理能力比较放心,所以这么对OV说:给我Raw数据,不要YUV数据,我TM自己处理。OV一听,心想这位爷我惹不起啊,我就去掉ISP吧,给您慢慢玩去吧OV5650的框图如下,可以看到,ISP完全被省略,只有一个坏点校正功能。OV5650模组体现了苹果的对自我技术能力的自信,完全制定化,一个手机商,如同一个相机厂商去实行自己的ISP算法,是蛮了不起的。 对于这个模组

7、,我评价是上等,因为部件结构简化了,越简化的东西缺点越少。2 大立光电9457F改进型9457F是台湾大立光电的一款手机定焦镜头模组,苹果同样定制了9457F的改进型,使其光圈达到F2.4。9457F的参数如下:成像圈适用的传感器尺寸:1/3.2英寸镜头的最大光学分辨率:800万像素光圈:F2.8(定制后F2.4)镜头出舍视角(至CMOS):,Thks!);2.确定的是Lens模组中,台湾大立和玉晶成为了供应商。5片镜片结构(当然有一片是聚焦镜),加了个什么IR滤镜,宣传中说是降低CMOS对红外线的敏感性,其实就是个噱头,的确CMOS硅结构对红外线敏感,不过本身CMOS相对于CCD的抗红外干扰

8、性就好一点,再加上CMOS表层有一层红外滤膜,这个估计是镜头供应商给Apple的一个宣传建议。不过,孔径增大成像圈增大,更好的光学素质是可以期待的;3.依旧是白光LED,有消息是说Apple抛弃了飞利浦,选用了台湾某厂家的LED颗粒,具体如何咱们看效果吧;4.A5的ISP模块必然会针对8M像素图像进行进一步的算法优化,本已相当完美的ISP算法进一步优化,对于非Raw直出照片的画质,可以大大的期待一下;以上,iPhone4s的拍照性能在稳步前进中,画质方面是不是能媲美卡片DC呢,同样让我们一边用IP4自拍,一边拭目以待吧。:手机拍摄功能详解拍摄功能硬件一 Camera模组大家都知道,手机背面的那

9、个小小的孔,就叫摄像头。这个小孔幽幽的泛着光泽,深邃又迷人,如同一个含苞待放的小萝莉一样,这个小萝莉还是个傲娇娘,像零之使魔的614一样惹人怜爱,而且在小萝莉身体里面,不对,是在小孔的里面,还有层膜.哦,这是镀膜。看了上面一段大家别惊慌,我不是we1琐的宅男,我也有女朋友的她叫姐崎宁宁囧!回到正题来吧。虽然Camera的构成大家都知道很简单,就是镜头+感光芯片而已。不过大家也都知道光学成像是一门非常深奥且尖端的科学,这其中消费者可以拿来讨论的话题非常之多。我们现在就来谈谈摄像头,从camera的构成开始。Camera最概念性的结构框图,就是镜头+图像传感器+DSP。如果图像传感器类型是CCD,

10、那么在图像传感器采光后还需要一个A/D转换的过程。下面具体介绍。Camera结构一 图像传感器(Sensor)一 感光二极管阵列图像传感器(image sensor),这个大家都耳熟能详了,目前买个相机或手机,一般都会标注sensor的参数,人们也都知道了,sensor是相机中最重要的器件之一,没错,是之一,不是唯一。Sensor的作用通俗点讲就等效于胶片相机的底片。两者的作用都是保存曝光时间内的光线数据,这些原始数据就含有基色/亮度等成像的全部要素。区别在于胶片要在暗房里面慢慢用光显影液和定影液冲洗出影像,而sensor要经过数字信号处理和数据转换才能成为通用的影像格式。大家也知道,Sens

11、or的类型,按照工作原理可分为两类CCD和CMOS。CCD: 电荷耦合元件CMOS: 互补型金属氧化物半导体这两个名字非常拗口,咱们略过,来说说他们的工作原理吧。其实我觉得,我们能记住这些专业名词的,还是要记住。如果连名字都记不住,就去研究原理的话,总觉得好像有什么奇怪的怨念混进来了。这就好比你看上个姑娘,追的死去活来,终于追到手了,然后海誓山盟,各种美好,结果到领证登记时,登记员问你:未婚妻名字?你才拍脑袋:我艹我老婆叫什么来着? 对!就是这种感觉。首先要说明,图像sensor既然要保存光线,首先要做的就是能感应光线,即不同的光线照射到材料上,可以输出不同的信号电平。 CCD和CMOS就是对

12、应两种感光二级管的类型。以此带入后,大家都将这两种感光二极管所构成的sensor,简称为CCD和CMOS。下面是CCD和CMOS的感光二极管排列,看图也能看出来,因为感光二极管的构造不同,所以CCD和CMOS的感光阵列结构也不同。CCD的阵列,是在一根总线后加A/D转换,而CMOS在每个感光二极管旁都加入了A/D转换(红色的二极管标注)。 大家把视线焦点聚集在阵列图的总线上,CMOS结构的阵列有水平和竖直两条传输总线,而CCD只有水平或者竖直一条传输总线。那么大家就有疑问了,CMOS有两条总线,可以以坐标方式直接读取总线的电平来保存每个像素的电平值,而CCD只有一条总线,怎么输出数据呢?很简单

13、,大学学过数电吧,CCD传出数据就是在时钟信号同步下,一步一步的移位读出对应二极管的电平值。这也就带出CCD和CMOS采集信息的不同点了。 CMOS是主动式输出采集的数据信息,CCD是在同步电路控制下被动式的输出采集的数据。至此,CCD和CMOS的大多数特性就可以解释了。第一, CCD保存图像速度慢,不适合快速连拍。 你瞧,CCD传感器需在同步时钟的控制下以行为单位一位一位的输出信息,速度当然慢,不慢不舒服斯基。第二, CMOS保存图像速度快,适合快速连拍。你瞧,CMOS阵列有坐标嘛,传感器采集光信号的同时就可以取出电信号,还能同时处理各单元的图像信息,速度当然比CMOS快,不快不舒服斯基。第

14、三, CCD耗电大。本来CCD感光二极管工作就需要多个源极,所需要施加源极的电平很高(见图),加上CCD的阵列要在同步信号控制下一位一位的实施转移后读取,所以需要时钟控制电源和三组电源供电,耗电当然大了。不大不舒服斯基。第四, CMOS耗电小。CMOS传感器经光电转换后直接产生电流或电压信号,信号读取十分简单,而且感光二极管所需的电压,直接由晶体放大输出,所以需要施加在源极的电平很小(见图)。不小不舒服斯基。另外,大家还记得上面的摄像头结构框图吗?为什么CCD传感器后面会有个A/D转换电路,而CMOS却没有?现在知道原因了吧?OK,再来说下一个话题。CMOS之于CCD的弱点和优势。在几年前,大

15、家普遍存在一种说法,就是CCD画质比CMOS好。时至今日,这个说法越来越站不住脚了,当然是CMOS传感技术在高速发展的结果。说CMOS画质弱于CCD,其实也就是采集的数据完整性不同罢了。1. CMOS是主动式输出数据,阵列上每个点都要经过两条传输总线,路程长,虽然经过了放大,但传输时的噪声引入多。2. CMOS阵列的每个二极管旁边都有A/D,光电传感元件与电路之间距离很近,相互之间的光电磁干扰较为严重,放大的同时可能带入的噪声也大。3. 如上一点,CMOS因为二极管旁带有A/D电路,所以同样尺寸的sensor,CMOS的二极管能受到的光线面积就小(其他的面积留给A/D电路),所以一部分光线被浪

16、费了,受光弱于CCD的感光二极管,所以带入的一点小噪声就会被放大。4. CCD传感器制作技术起步较早,技术比较成熟,采用PN结和二氧化硅隔离层隔离噪声。不过,近年来,CMOS技术发展是一日千里,在中小尺寸传感器上,CMOS和CCD的画质区别已经很小了。CMOS可以通过改善微透镜,在硅表面上掺入杂质等来减小噪声信号。(什么是微透镜?下面慢慢介绍)这时候,大家又有疑问了,为什么CMOS在发展,而CCD却没有技术更新了呢?这个我只能说,CCD成本高又耗电,结构设计又复杂,谁TM闲着没事去钻研它啊。而且CCD技术起步很早,发展的已经很成熟了,可改善的余地真的不算大。感慨一下,说起CCD和CMOS的发展

17、,就好像猎人和海贼王一样。猎人就是CCD啊,神作啊,可惜它是被富奸这个2B给画出来的。于是可怜的猎人Fans等了八年,还没等到主角再次登场二 微透镜和滤光层再来,就是微透镜了。微透镜是什么?是镜头吗?错!给你打个叉。微透镜不是镜头,微透镜是CCD/CMOS传感器表面的一层小透镜阵列。光线不是经由镜头,然后直接照射到CCD/CMOS的感光二极管阵列上的。在光线射到感光阵列前,还要经过传感器表层的微透镜和滤光层。在感光二极管之上,有很多微型的透镜。这些透镜按照二极管的阵列排列,也就是每个感光二极管的上面都有附着一个微型透镜,即一个透镜对应一个像素来排列。下图为CCD传感器的纵向结构图。为什么这种结

18、构?聪明的读者已经猜到了。猜到的同学请举手,叔叔要奖励你一个轻轻的吻,不伸出舌头的那种哦微透镜的作用:初中物理老师都会告诉你,凸透镜用来聚集透射光线的。微透镜当然是用来聚集光线的。 在阵列中,感光二极管的感光面有限,对应一格像素内的大部分面积是无效受光区域,所以要把阵列中每格二极管前的光线集中起来,射到二极管的受光面上。滤光层的作用:注意了,不是孙燕姿的绿光,是滤光。滤光就是把色彩滤掉。保证每个二极管感受到的光是单色的。为什么要滤成单色光?把你生锈的脑袋转动起来。前面说了感光二极管只能输出不同的电平,也就是只能表示光的强度而已,没办法表示颜色信息。也就是黄色光和红色光,只要对应的亮度相同,二极

19、管都会输出一样的电平信息。所以,聪明的开发者就在二极管阵列前面,加个滤光层,指定这个二极管感受一种颜色的光强,光线中其他的颜色就去掉。这样每个二极管的输出信号就对应为一种颜色的强度了。这种做法的缺点是每个像素点得不到真正的信息,只能通过相邻像素的其他颜色强度,来猜测自己这一格内的其他颜色强度,再把颜色组合起来,算出真正的颜色。这就是所谓的马赛克结构。目前市面上手机和相机传感器总数的99%是马赛克结构,也就是有先天缺点的。最常见的马赛克结构就是RGB三个基色相错排列,如下图。相机将每个像素格的基色信息综合起来,猜出每个像素的实际颜色和强度。现在还有一种sensor,可以完美解决马赛克的这种先天缺

20、点。就是适马开发的FOVEON X3传感器,其实就是每个格子的感光电路,可以感受RGB三种基色的信息,缺点是在感光阵列上要加三层滤光层,光线强度会有损失。适马X3传感器也是被誉为最接近胶片原理的传感器,成像效果比常用的CCD/CMOS确实好很多。这个好理解嘛,因为每格像素记录的都是全部的基色,不用靠相邻像素去猜了嘛。不过很可惜,这种传感器目前只用在适马自己的单反和专业DC上,而且卖的很贵。另外同样的尺寸下,X3传感器比较难以提高总像素数。三 传感器尺寸和画质的关系传感器尺寸大小对于画质的影响,其实跟之前一样,就是采集的光线数据的正确性和完整性的不同。在像素相同的情况下:1. 传感器面积越大,感

21、光阵列的面积就越大,相邻感光电路的距离就越大,加电时产生的电磁干扰就越小。2. 传感器面积越大,感光阵列的面积就越大,对应单个像素的透镜就能做的越大,聚集到的光线就越多,感光二极管受光后产生的输出电平就越高。假设噪声大小不变,那么更大的有用输出电平,带来更高的信噪比,转换后的信息处理时正确率就越高。3. 为什么在光线非常好的时候,传感器尺寸大小间的差异会缩小? 因为即使传感器尺寸小,但是光线强度足够,每个感光二极管都能受到足够的光线,产生的信噪比就大,噪点也就缩小了。这就是为什么画幅大的单反和单电,比画幅小的手机和卡片DC成像好的本质原因,当然也有镜头素质等其他原因。下图是各种画幅的大小对比。

22、(小知识:3224mm之所以被称为全画幅,是因为这个尺寸和135胶片的尺寸很接近)好了,关于传感器就说到这儿。这里是个浅显的原理讨论,深入的半导体材料特性,驱动电路设计等不是我们关心的了。另外,关于CCD和CMOS的优劣,被人争论的太多太频繁了。无忌有个帖子讨论的比较深入,感兴趣的话可以搜索一下。Camera结构二 数字信号处理(DSP)一 图像信号处理的目的你像我一样,假期宅在家里,肚子饿了想吃碗泡面,然后打开冰箱拿出泡面,这个泡面就是原始数据,是不能吃的。你要打开桶,撕开调味袋和酱袋,倒进桶中,再倒热水冲泡数分钟,然后才能吃。这个过程就叫对数据进行处理。这时候有人大叫:我吃泡面都是直接吃干

23、面饼的。对于这种喜欢吐槽的魂淡,我是不会理会的关于图像信号的处理,我们先从需求上去探讨。前文说过了,传感器一般为马赛克结构,阵列输出的信号,在每个像素上都只是单色的,需要用相邻像素的色彩去猜测本像素的其他色彩。这个由传感器直接输出的,每个像素只有单色信息的数据,叫做Raw RGB数据。而DSP的目的,就是把Raw RGB数据,去通过计算和后期加工,变成真正的RGB或YUV格式的数据。简而言之,DSP的主要工作,就是把Raw RGB格式转换成RGB格式或者是YUV格式。介绍一下各种颜色的数据格式吧。1. RGB数据: 通用数据格式,因为理论上任何颜色都可以用红绿蓝三种基本颜色混合而成,所以RGB

24、格式的一个数据位由RGB(红绿蓝)三种颜色的比特位组来表示。RGB格式有RGB565,RGB24,ARGB32等几种标准。大家都知道,数据传输中,一个字节是8个比特RGB565:共16比特,占两个字节。其中5个比特表示R,6个比特表示G,剩下来5个比特表示B,所以一共可以表示的颜色数为216 = 65536色,其中红色R和蓝色B可表示为32种不同值,而绿色G可以表示为64种不同值;RGB24: 共24比特,占三个字节。其中RGB三种颜色各种8个比特位,所以一共可以表示的颜色数为224 = 1677万色,每种颜色可表示成256种不同值;ARGB32:共32比特,占四个字节。其中RGB三种颜色各占

25、8比特,剩下来8比特表示Alpha通道值,所以一共可以表示的颜色数为224 = 1677万色,每种颜色可表示成256种不同值。但是因为加了Alpha值,所以每种颜色还可以另外显示为256种不同的透明度;好,说到这里,大家知道了屏幕参数中6万5千色,26万色,1670万色是怎么来的了吧?另外RGB颜色在寄存器中的比特位顺序是BGR,所以写驱动时,定义的话是这么定义的:typedef struct tagRGBTRIPLE BYTE rgbtBlue; / 蓝色分量BYTE rgbtGreen; / 绿色分量BYTE rgbtRed; / 红色分量 RGBTRIPLE;2. YUV数据: 说白了就

26、是色差分量。大家的电视机上都有色差端口吧?色差端口传输的数据格式就是YUV422。 YUV中,Y表示亮度信号,U和V表示色差信号。以前的黑白电视,是只有Y信号而没有UV信号,所以只能表示灰度而不能表示色彩。YUV数据和标准RGB数据互相转换公式:Y = 0.299R + 0.587G + 0.114BU = 0.147R - 0.289G + 0.436BV = 0.615R - 0.515G - 0.100BR = Y + 1.14VG = Y - 0.39U - 0.58VB = Y + 2.03U3. Raw-RGB数据:前文所说,马赛克结构的CCD/CMOS,其感受光线后输出的原始数据

27、只有灰度数据,因为滤光层关系每个灰度数据只表示一种颜色的强度,所以Raw-RGB数据就是传感器输出的原始图像数据,其中的颜色信息是不完整的,不通过计算插值出其他颜色信息的话,是还原不出完整图像的。了解了图像处理的目的之后,我们来看看DSP的简单框图。下面一步步的来拆分。1.图像传感器部分:前面已经说过了,没记住的把鼠标往上面滚动,慢慢看。ASP/AFE就是感光阵列的辅助电路,控制信号抽样,感光时间长短(也就是曝光)等功能,跟模拟信号的处理相关。A/D部分前文也有说明,所以这部分带过。最后一点最重要:图像传感器输出的就是Raw RGB原始数据。2.DSP部分:基本上信号处理模块中,90%的功能由

28、ISP完成。ISP是什么?Image Signal Processing,图像信号处理。 故名思忆就是处理图像的。ISP将由Sensor输出的原始信号处理成通用的成像数据,这些处理过的成像数据可以直接被AP处理器或者基带芯片来使用,至于这些通用的图像格式数据,是再处理还是显示还是保存,这就看应用需求了。二 Pre-ISP大家辛辛苦苦工作了一年了,准备带着家人去普吉岛度个假。难得出国嘛,总觉得不带个好点儿的相机会有遗憾。于是赶早儿带着女儿去摄影城买相机去了。到了摄影城门口有人发传单,起手接过一张,佳能小马四,双Digic高速数字图像处理引擎,倍儿牛逼。没走两步又有人塞了张传单,索尼A77,双Bionz图像处理引擎,忒专业了。于是您女儿就好奇了,拽着您的衣角问起来了,把拔把拔,这个图像

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1