从硬件上讨论iPhone4s的拍照能力手机拍摄功能全解析.docx
《从硬件上讨论iPhone4s的拍照能力手机拍摄功能全解析.docx》由会员分享,可在线阅读,更多相关《从硬件上讨论iPhone4s的拍照能力手机拍摄功能全解析.docx(36页珍藏版)》请在冰豆网上搜索。
从硬件上讨论iPhone4s的拍照能力手机拍摄功能全解析
iPhone4拍照性能分析以及iPhone4S拍照性能展望
一楼:
手机拍摄功能详解,用最简单的语言全面介绍和讨论手机的拍摄功能
二楼:
历史上的拍照强机
===============================================================
关于手机的拍摄功能,我早想写点什么。
手机作为唯一需要时时携带的电子产品,大概从诞生起,人们就没有停止过在其身体内塞入尽可能多功能的想法(这句话稍显邪恶)。
这其中拍照功能一直被人所瞩目。
直到目前为之,不管一部手机采用什么芯片组,采用什么开放系统,但是于硬件来说,LCM和Camera还是最被人关注度的硬件配置之一。
一部手机,卖点大抵分为屏幕素质,外型设计,系统功能,外设功能等。
而在外设中,拍摄能力一直是消费者最为关注的。
其实这么说是有根据的,手机的拍摄功能确实给我们带来了很多快乐,典型的比如摄影大师陈冠希,成功的用一组写实风格的记录照片,让全球的男性都沉浸在撸管的乐趣中。
从此以后广大男性们除了收集AV后,也养成了收集各种“门”之片片的习惯。
你瞧,这不就是用手机拍摄改变了世人习惯的证据吗?
iPhone4拍照性能分析以及iPhone4S拍照性能展望
一iPhone4的拍照性能
同学们,朋友们,老师们,阿姨们…
你们拿着iPhone4,戴上美瞳,嘟着嘴巴,摆好姿势,喀嚓一下拍了一张照片。
然后要干什么?
废话,当然是发微博啊,发开心网啊,发米聊啊,传彩信给男朋友啊。
这就是我要说的,iPhone的拍摄理念,和之前的手机以及相机的拍摄理念不尽相同。
iPhone的拍照,之所以关注度这么高,其实和iOS上众多的后期工具以及社交工具关联性极大。
在前面的介绍中,我们知道,对原片进行进一步后期,会极大的影响画质,而且,手机上的图像后期处理工具,多功能简单,特效化较多,处理效果模块化。
这会比在电脑上用Photoshop慢慢的后期,对图像画质的影响更加大。
Sowhat?
大家不在乎啊,一般人也很少将iPhone拍摄的照片打印出来,甚至导入电脑保存的都比较少。
大家要的只是在iPhone的Retina上屏幕上,能显示出清晰的好玩的图像而已,并且还能把这个图像发到各种社交网络上。
大家对于手机拍照,本来就不希望有多大的后期空间,谁用手机拍出来原片,放到电脑上100%缩放去看细节呢?
所以,对于拍照后的JPG原片的后期,我们这里不讨论。
因为毕竟相机也内置很多特效,其他手机也可以简单的编辑图像。
我们就来从硬件着手iPhone4的拍照能力。
iPhone4的拍照硬件配置
摄像头(Camera模组):
OminiVisionOV5650
镜头(Lens模组):
大立光电9457F改进型
音圈对焦马达(VCM模组):
MitsumiVCM
ISP:
AP处理器(A4)内置
1OminiVisionOV5650
OV5650是OminiVision公司专供苹果的一款Camera模组。
OV5650的基本参数如下图:
可以看到基本的信息:
1/3.2英寸的背照式CMOS传感器,最大采样分辨率2592×1944;
模组直接输出Raw-RGB原始数据,不进行ISP处理;
模组最大的输出速率是2592×1944分辨率下15帧每秒;
快门类型为卷帘快门(RollingShutter);
分析一下,世界上比较通用的小型摄像头模组厂商,有美光,OV,三星等。
OV的市场占有率比较高,技术很成熟,而且驱动工程师最熟悉OV的方案,优化起来游刃有余啊呵呵,优化好了还能指望公司发点股票涨点工资呢哦呵呵。
所以,这个专供苹果的500万像素背照式CMOS,素质在手机摄像头模组中,是排列中上等的。
然后是曝光类型,卷帘快门就是CMOS行曝光的一种,可以提高输出速率,所以带来的效果就是1080P摄像可以轻松实现。
当然,首先要解决取景时曝光不均匀,斜坡和晃动等缺点。
这个不用担心苹果工程师。
另外一点,OV5650是简化过的摄像头模组,它没有ISP的过程,输出Raw-RGB原始数据。
也许苹果对于自己的图像处理能力比较放心,所以这么对OV说:
给我Raw数据,不要YUV数据,我TM自己处理。
OV一听,心想这位爷我惹不起啊,我就去掉ISP吧,给您慢慢玩去吧……
OV5650的框图如下,可以看到,ISP完全被省略,只有一个坏点校正功能。
OV5650模组体现了苹果的对自我技术能力的自信,完全制定化,一个手机商,如同一个相机厂商去实行自己的ISP算法,是蛮了不起的。
对于这个模组,我评价是上等,因为部件结构简化了,越简化的东西缺点越少。
2大立光电9457F改进型
9457F是台湾大立光电的一款手机定焦镜头模组,苹果同样定制了9457F的改进型,使其光圈达到F2.4。
9457F的参数如下:
成像圈适用的传感器尺寸:
1/3.2英寸
镜头的最大光学分辨率:
800万像素
光圈:
F2.8(定制后F2.4)
镜头出舍视角(至CMOS):
<27度
有效焦距(非焦点):
4.28mm
大立光电提供的一般为性价比较高的定焦镜头,采用大立的定制镜头是基于成本和光学性能的折中考虑。
9457F是大立的高端定焦镜头,适用于手机和NB。
9457F的定制信号具体比9457F有哪些改进我尚不清楚,对于此镜头模组,我评价是中等。
不过基于手机镜头的通光口径,其实像N8那样的蔡司认证镜头,对成像提升并没有想象中的大。
在保持光学分辨率的情况下,大光圈带来一些浅景深的实现,对于手机成像来说还是不错的。
而且在小Sensor尺寸的条件下,光学性能的小缺点可以大部分通过ISP来补正。
3MitsumiVCM
VCM的作用,就是控制镜头中聚焦镜片的移动,以此来在物理上实现对焦的过程。
位移的步进越小,位移的速度越快,VCM的性能越好,摄像头的AF自动对焦性能就好。
主流VCM厂家有SHICOH和TDK,MWT,以及Mitsumi(三美),iPhone4就是采用三美的VCM。
相比MWT,三美的VCM也许displacement与lilt性能并不是最好的,但三美的VCM一直是高性价比的代名词,且其耗电和尺寸方面也同样有优势,苹果选用的供应商也基本基于此出发点。
对于iPhone4的VCM,我的评价是中上等。
4ISP及其他
iPhone4的camera模组使用了飞利浦的白光LED颗粒,集成了LED驱动IC。
具体参数不详。
从效果来看还不错,亮度和频闪时间应该都是白光LED中的上级,给中上评价。
上面已经说了,苹果的ISP直接集成在AP处理器中,接口开放直出JPG/PNG/GIF等格式。
从自带拍照软件直出PNG的画质来看,苹果的ISP算法在手机和DC中是非常不错的,属于严重讨好人眼的算法。
这里我评价也是上等。
Well,Well,Well,最后让我们来总结一下。
硬件基础配置85分,ISP优化90分。
现实就是这样,我们拿着iPhone4到处拍照,得益于拍照理念的更迭,以及算不错的硬件配备,iPhone4的拍照功能越来越被发扬光大了。
二iPhone4s的拍照性能展望
1.iPhone4s的Camera模组是OV还是传闻中的Sony,还不得而知,看对比图中好像iPhone4s的摄像头孔径大了一点,可能是成像圈变大了,那么是否采用了大于1/3.2英寸的CMOS?
如果是的话,基本上可以确定是Sony的模组了,成像么当然有很大的期待(有回复说已证实是Sony的模组,:
>,Thks!
);
2.确定的是Lens模组中,台湾大立和玉晶成为了供应商。
5片镜片结构(当然有一片是聚焦镜),加了个什么IR滤镜,宣传中说是降低CMOS对红外线的敏感性,其实就是个噱头,的确CMOS硅结构对红外线敏感,不过本身CMOS相对于CCD的抗红外干扰性就好一点,再加上CMOS表层有一层红外滤膜,这个估计是镜头供应商给Apple的一个宣传建议。
不过,孔径增大成像圈增大,更好的光学素质是可以期待的;
3.依旧是白光LED,有消息是说Apple抛弃了飞利浦,选用了台湾某厂家的LED颗粒,具体如何咱们看效果吧;
4.A5的ISP模块必然会针对8M像素图像进行进一步的算法优化,本已相当完美的ISP算法进一步优化,对于非Raw直出照片的画质,可以大大的期待一下;
以上,iPhone4s的拍照性能在稳步前进中,画质方面是不是能媲美卡片DC呢,同样让我们一边用IP4自拍,一边拭目以待吧。
:
>
手机拍摄功能详解
拍摄功能硬件一Camera模组
大家都知道,手机背面的那个小小的孔,就叫摄像头。
这个小孔幽幽的泛着光泽,深邃又迷人,如同一个含苞待放的小萝莉一样,这个小萝莉还是个傲娇娘,像零之使魔的614一样惹人怜爱,而且在小萝莉身体里面,不对,是在小孔的里面,还有层膜…..哦,这是镀膜。
看了上面一段大家别惊慌,我不是we1琐的宅男,我也有女朋友的……她叫姐崎宁宁……囧!
回到正题来吧。
虽然Camera的构成大家都知道很简单,就是镜头+感光芯片而已。
不过大家也都知道光学成像是一门非常深奥且尖端的科学,这其中消费者可以拿来讨论的话题非常之多。
我们现在就来谈谈摄像头,从camera的构成开始。
Camera最概念性的结构框图,就是镜头+图像传感器+DSP。
如果图像传感器类型是CCD,那么在图像传感器采光后还需要一个A/D转换的过程。
下面具体介绍。
Camera结构一图像传感器(Sensor)
一感光二极管阵列
图像传感器(imagesensor),这个大家都耳熟能详了,目前买个相机或手机,一般都会标注sensor的参数,人们也都知道了,sensor是相机中最重要的器件之一,没错,是之一,不是唯一。
Sensor的作用通俗点讲就等效于胶片相机的底片。
两者的作用都是保存曝光时间内的光线数据,这些原始数据就含有基色/亮度等成像的全部要素。
区别在于胶片要在暗房里面慢慢用光显影液和定影液冲洗出影像,而sensor要经过数字信号处理和数据转换才能成为通用的影像格式。
大家也知道,Sensor的类型,按照工作原理可分为两类CCD和CMOS。
CCD:
电荷耦合元件
CMOS:
互补型金属氧化物半导体
这两个名字非常拗口,咱们略过,来说说他们的工作原理吧。
其实我觉得,我们能记住这些专业名词的,还是要记住。
如果连名字都记不住,就去研究原理的话,总觉得好像有什么奇怪的怨念混进来了。
这就好比你看上个姑娘,追的死去活来,终于追到手了,然后海誓山盟,各种美好,结果到领证登记时,登记员问你:
未婚妻名字?
你才拍脑袋:
我艹我老婆叫什么来着…?
对!
就是这种感觉。
首先要说明,图像sensor既然要保存光线,首先要做的就是能感应光线,即不同的光线照射到材料上,可以输出不同的信号电平。
CCD和CMOS就是对应两种感光二级管的类型。
以此带入后,大家都将这两种感光二极管所构成的sensor,简称为CCD和CMOS。
下面是CCD和CMOS的感光二极管排列,看图也能看出来,因为感光二极管的构造不同,所以CCD和CMOS的感光阵列结构也不同。
CCD的阵列,是在一根总线后加A/D转换,而CMOS在每个感光二极管旁都加入了A/D转换(红色的二极管标注)。
大家把视线焦点聚集在阵列图的总线上,CMOS结构的阵列有水平和竖直两条传输总线,而CCD只有水平或者竖直一条传输总线。
那么大家就有疑问了,CMOS有两条总线,可以以坐标方式直接读取总线的电平来保存每个像素的电平值,而CCD只有一条总线,怎么输出数据呢?
很简单,大学学过数电吧,CCD传出数据就是在时钟信号同步下,一步一步的移位读出对应二极管的电平值。
这也就带出CCD和CMOS采集信息的不同点了。
CMOS是主动式输出采集的数据信息,CCD是在同步电路控制下被动式的输出采集的数据。
至此,CCD和CMOS的大多数特性就可以解释了。
第一,CCD保存图像速度慢,不适合快速连拍。
你瞧,CCD传感器需在同步时钟的控制下以行为单位一位一位的输出信息,速度当然慢,不慢不舒服斯基。
第二,CMOS保存图像速度快,适合快速连拍。
你瞧,CMOS阵列有坐标嘛,传感器采集光信号的同时就可以取出电信号,还能同时处理各单元的图像信息,速度当然比CMOS快,不快不舒服斯基。
第三,CCD耗电大。
本来CCD感光二极管工作就需要多个源极,所需要施加源极的电平很高(见图),加上CCD的阵列要在同步信号控制下一位一位的实施转移后读取,所以需要时钟控制电源和三组电源供电,耗电当然大了。
不大不舒服斯基。
第四,CMOS耗电小。
CMOS传感器经光电转换后直接产生电流或电压信号,信号读取十分简单,而且感光二极管所需的电压,直接由晶体放大输出,所以需要施加在源极的电平很小(见图)。
不小不舒服斯基。
另外,大家还记得上面的摄像头结构框图吗?
为什么CCD传感器后面会有个A/D转换电路,而CMOS却没有?
现在知道原因了吧?
OK,再来说下一个话题。
CMOS之于CCD的弱点和优势。
在几年前,大家普遍存在一种说法,就是CCD画质比CMOS好。
时至今日,这个说法越来越站不住脚了,当然是CMOS传感技术在高速发展的结果。
说CMOS画质弱于CCD,其实也就是采集的数据完整性不同罢了。
1.CMOS是主动式输出数据,阵列上每个点都要经过两条传输总线,路程长,虽然经过了放大,但传输时的噪声引入多。
2.CMOS阵列的每个二极管旁边都有A/D,光电传感元件与电路之间距离很近,相互之间的光电磁干扰较为严重,放大的同时可能带入的噪声也大。
3.如上一点,CMOS因为二极管旁带有A/D电路,所以同样尺寸的sensor,CMOS的二极管能受到的光线面积就小(其他的面积留给A/D电路),所以一部分光线被浪费了,受光弱于CCD的感光二极管,所以带入的一点小噪声就会被放大。
4.CCD传感器制作技术起步较早,技术比较成熟,采用PN结和二氧化硅隔离层隔离噪声。
不过,近年来,CMOS技术发展是一日千里,在中小尺寸传感器上,CMOS和CCD的画质区别已经很小了。
CMOS可以通过改善微透镜,在硅表面上掺入杂质等来减小噪声信号。
(什么是微透镜?
下面慢慢介绍)
这时候,大家又有疑问了,为什么CMOS在发展,而CCD却没有技术更新了呢?
这个我只能说,CCD成本高又耗电,结构设计又复杂,谁TM闲着没事去钻研它啊。
而且CCD技术起步很早,发展的已经很成熟了,可改善的余地真的不算大。
感慨一下,说起CCD和CMOS的发展,就好像猎人和海贼王一样。
猎人就是CCD啊,神作啊,可惜它是被富奸这个2B给画出来的。
于是可怜的猎人Fans等了八年,还没等到主角再次登场…
二微透镜和滤光层
再来,就是微透镜了。
微透镜是什么?
是镜头吗?
错!
给你打个叉。
微透镜不是镜头,微透镜是CCD/CMOS传感器表面的一层小透镜阵列。
光线不是经由镜头,然后直接照射到CCD/CMOS的感光二极管阵列上的。
在光线射到感光阵列前,还要经过传感器表层的微透镜和滤光层。
在感光二极管之上,有很多微型的透镜。
这些透镜按照二极管的阵列排列,也就是每个感光二极管的上面都有附着一个微型透镜,即一个透镜对应一个像素来排列。
下图为CCD传感器的纵向结构图。
为什么这种结构?
聪明的读者已经猜到了。
猜到的同学请举手,叔叔要奖励你一个轻轻的吻,不伸出舌头的那种哦~~~
微透镜的作用:
初中物理老师都会告诉你,凸透镜用来聚集透射光线的。
微透镜当然是用来聚集光线的。
在阵列中,感光二极管的感光面有限,对应一格像素内的大部分面积是无效受光区域,所以要把阵列中每格二极管前的光线集中起来,射到二极管的受光面上。
滤光层的作用:
注意了,不是孙燕姿的绿光,是滤光。
滤光就是把色彩滤掉。
保证每个二极管感受到的光是单色的。
为什么要滤成单色光?
把你生锈的脑袋转动起来。
前面说了感光二极管只能输出不同的电平,也就是只能表示光的强度而已,没办法表示颜色信息。
也就是黄色光和红色光,只要对应的亮度相同,二极管都会输出一样的电平信息。
所以,聪明的开发者就在二极管阵列前面,加个滤光层,指定这个二极管感受一种颜色的光强,光线中其他的颜色就去掉。
这样每个二极管的输出信号就对应为一种颜色的强度了。
这种做法的缺点是每个像素点得不到真正的信息,只能通过相邻像素的其他颜色强度,来猜测自己这一格内的其他颜色强度,再把颜色组合起来,算出真正的颜色。
这就是所谓的马赛克结构。
目前市面上手机和相机传感器总数的99%是马赛克结构,也就是有先天缺点的。
最常见的马赛克结构就是RGB三个基色相错排列,如下图。
相机将每个像素格的基色信息综合起来,猜出每个像素的实际颜色和强度。
现在还有一种sensor,可以完美解决马赛克的这种先天缺点。
就是适马开发的FOVEONX3传感器,其实就是每个格子的感光电路,可以感受RGB三种基色的信息,缺点是在感光阵列上要加三层滤光层,光线强度会有损失。
适马X3传感器也是被誉为最接近胶片原理的传感器,成像效果比常用的CCD/CMOS确实好很多。
这个好理解嘛,因为每格像素记录的都是全部的基色,不用靠相邻像素去猜了嘛。
不过很可惜,这种传感器目前只用在适马自己的单反和专业DC上,而且卖的很贵。
另外同样的尺寸下,X3传感器比较难以提高总像素数。
三传感器尺寸和画质的关系
传感器尺寸大小对于画质的影响,其实跟之前一样,就是采集的光线数据的正确性和完整性的不同。
在像素相同的情况下:
1.传感器面积越大,感光阵列的面积就越大,相邻感光电路的距离就越大,加电时产生的电磁干扰就越小。
2.传感器面积越大,感光阵列的面积就越大,对应单个像素的透镜就能做的越大,聚集到的光线就越多,感光二极管受光后产生的输出电平就越高。
假设噪声大小不变,那么更大的有用输出电平,带来更高的信噪比,转换后的信息处理时正确率就越高。
3.为什么在光线非常好的时候,传感器尺寸大小间的差异会缩小?
因为即使传感器尺寸小,但是光线强度足够,每个感光二极管都能受到足够的光线,产生的信噪比就大,噪点也就缩小了。
这就是为什么画幅大的单反和单电,比画幅小的手机和卡片DC成像好的本质原因,当然也有镜头素质等其他原因。
下图是各种画幅的大小对比。
(小知识:
32×24mm之所以被称为全画幅,是因为这个尺寸和135胶片的尺寸很接近)
好了,关于传感器就说到这儿。
这里是个浅显的原理讨论,深入的半导体材料特性,驱动电路设计等不是我们关心的了。
另外,关于CCD和CMOS的优劣,被人争论的太多太频繁了。
无忌有个帖子讨论的比较深入,感兴趣的话可以搜索一下。
Camera结构二数字信号处理(DSP)
一图像信号处理的目的
你像我一样,假期宅在家里,肚子饿了想吃碗泡面,然后打开冰箱拿出泡面,这个泡面就是原始数据,是不能吃的。
你要打开桶,撕开调味袋和酱袋,倒进桶中,再倒热水冲泡数分钟,然后才能吃。
这个过程就叫对数据进行处理。
这时候有人大叫:
我吃泡面都是直接吃干面饼的。
对于这种喜欢吐槽的魂淡,我是不会理会的……
关于图像信号的处理,我们先从需求上去探讨。
前文说过了,传感器一般为马赛克结构,阵列输出的信号,在每个像素上都只是单色的,需要用相邻像素的色彩去猜测本像素的其他色彩。
这个由传感器直接输出的,每个像素只有单色信息的数据,叫做RawRGB数据。
而DSP的目的,就是把RawRGB数据,去通过计算和后期加工,变成真正的RGB或YUV格式的数据。
简而言之,DSP的主要工作,就是把RawRGB格式转换成RGB格式或者是YUV格式。
介绍一下各种颜色的数据格式吧。
1.RGB数据:
通用数据格式,因为理论上任何颜色都可以用红绿蓝三种基本颜色混合而成,所以RGB格式的一个数据位由RGB(红绿蓝)三种颜色的比特位组来表示。
RGB格式有RGB565,RGB24,ARGB32等几种标准。
大家都知道,数据传输中,一个字节是8个比特
RGB565:
共16比特,占两个字节。
其中5个比特表示R,6个比特表示G,剩下来5个比特表示B,所以一共可以表示的颜色数为2^16=65536色,
其中红色R和蓝色B可表示为32种不同值,而绿色G可以表示为64种不同值;
RGB24:
共24比特,占三个字节。
其中RGB三种颜色各种8个比特位,
所以一共可以表示的颜色数为2^24=1677万色,每种颜色可表示成256种不同值;
ARGB32:
共32比特,占四个字节。
其中RGB三种颜色各占8比特,剩下来8比特表示Alpha通道值,
所以一共可以表示的颜色数为2^24=1677万色,每种颜色可表示成256种不同值。
但是因为加了Alpha值,所以每种颜色还可以另外显示为256种不同的透明度;
好,说到这里,大家知道了屏幕参数中6万5千色,26万色,1670万色是怎么来的了吧?
另外RGB颜色在寄存器中的比特位顺序是BGR,所以写驱动时,定义的话是这么定义的:
typedefstructtagRGBTRIPLE{
BYTErgbtBlue;//蓝色分量
BYTErgbtGreen;//绿色分量
BYTErgbtRed;//红色分量
}RGBTRIPLE;
2.YUV数据:
说白了就是色差分量。
大家的电视机上都有色差端口吧?
色差端口传输的数据格式就是YUV422。
YUV中,Y表示亮度信号,U和V表示色差信号。
以前的黑白电视,是只有Y信号而没有UV信号,所以只能表示灰度而不能表示色彩。
YUV数据和标准RGB数据互相转换公式:
Y=0.299R+0.587G+0.114B
U=0.147R-0.289G+0.436B
V=0.615R-0.515G-0.100B
R=Y+1.14V
G=Y-0.39U-0.58V
B=Y+2.03U
3.Raw-RGB数据:
前文所说,马赛克结构的CCD/CMOS,其感受光线后输出的原始数据只有灰度数据,因为滤光层关系每个灰度数据只表示一种颜色的强度,所以Raw-RGB数据就是传感器输出的原始图像数据,其中的颜色信息是不完整的,不通过计算插值出其他颜色信息的话,是还原不出完整图像的。
了解了图像处理的目的之后,我们来看看DSP的简单框图。
下面一步步的来拆分。
1.图像传感器部分:
前面已经说过了,没记住的把鼠标往上面滚动,慢慢看。
ASP/AFE就是感光阵列的辅助电路,控制信号抽样,感光时间长短(也就是曝光)等功能,跟模拟信号的处理相关。
A/D部分前文也有说明,所以这部分带过。
最后一点最重要:
图像传感器输出的就是RawRGB原始数据。
2.DSP部分:
基本上信号处理模块中,90%的功能由ISP完成。
ISP是什么?
ImageSignalProcessing,图像信号处理。
故名思忆就是处理图像的。
ISP将由Sensor输出的原始信号处理成通用的成像数据,这些处理过的成像数据可以直接被AP处理器或者基带芯片来使用,至于这些通用的图像格式数据,是再处理还是显示还是保存,这就看应用需求了。
二Pre-ISP
大家辛辛苦苦工作了一年了,准备带着家人去普吉岛度个假。
难得出国嘛,总觉得不带个好点儿的相机会有遗憾。
于是赶早儿带着女儿去摄影城买相机去了。
到了摄影城门口有人发传单,起手接过一张,佳能小马四,双Digic高速数字图像处理引擎,倍儿牛逼。
没走两步又有人塞了张传单,索尼A77,双Bionz图像处理引擎,忒专业了。
于是您女儿就好奇了,拽着您的衣角问起来了,把拔把拔,这个图像