iphone各代iphone6s摄像头传感器器尺寸是多少

普通智能手机摄像头感光元件尺寸是多少?
最好能上个图对比一下。我仅知道,诺基亚PureView 808的感光元件尺寸为1/1.2'。——历史上大部分手机摄像头感光元件的尺寸又是多少呢?例如iPhone、Galaxy S系列等。能否列举一些在过往设备中一些与众不同的智能手机产品,像808这种感光元件比普通智能机大很多的手机。——又例如当年的NOKIA N93i的感光元件有多大,NOKIA N8呢?
诺基亚N8的感光器尺寸是1/1.83英寸诺基亚N8的感光器尺寸是1/1.83英寸诺基亚808的感光器尺寸1/1.2英寸说的都是传感器的对角线长度……嗯又找到一张更为直观的对比图嗯又找到一张更为直观的对比图大概主流的旗舰手机传感器就红色区域那么大(当然上面提到的几款都是拍照概念机),主流消费级卡片机大多是1/2.3英寸的,最外面灰色区域所谓全画幅是相当于35mm胶卷的尺寸,出去两遍的小孔实际使用的曝光面积宽度是24mm,目前相机CCD/CMOS使用这个尺寸的只有极少数高端单反,多数单反使用的是APS-C和DX画幅,部分微单和单电使用3/4英寸live cmos和1.5英寸的传感器大概主流的旗舰手机传感器就红色区域那么大(当然上面提到的几款都是拍照概念机),主流消费级卡片机大多是1/2.3英寸的,最外面灰色区域所谓全画幅是相当于35mm胶卷的尺寸,出去两遍的小孔实际使用的曝光面积宽度是24mm,目前相机CCD/CMOS使用这个尺寸的只有极少数高端单反,多数单反使用的是APS-C和DX画幅,部分微单和单电使用3/4英寸live cmos和1.5英寸的传感器主流旗舰手机的传感器尺寸都基本保持在1/3英寸上下,注意这个说的是对角长度,实际的面积比卡片机的1/2.3英寸感光器面积小一半左右……
Apple iPhone 4S, iPhone 4, HTC One X, Galaxy S III手机感光元件大小都是1/3.2英寸, 很明显比808小得多,这也是808有好得多的画质表现的原因。而Lumia 920感光元件大小为1/3英寸,HTC One也标榜自己的感光元件和Lumia 920相同,不过可以看出其实相比808,还是弱爆了。
N8-00是1/1.83",N93i这种老古董问了也没意义
已有帐号?
无法登录?
社交帐号登录iphone各代摄像头传感器尺寸是多少啊_wp7吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:185,552贴子:
iphone各代摄像头传感器尺寸是多少啊收藏
是不是从哪一代开始就没怎么变过,6s的1/3是多少*多少啊
wp7手机-来「天猫手机馆」,低价享好礼,好货不限量,分期免息,超值实惠,买的放心!「天猫手机馆」正品手机,全国联保,支持花呗分期付款,7天无理由退换货!
有人知道吗?
7变大了。。 不再是换汤不换药的变个像素数了。。
4 4s 5是3.2从5s开始是1/36s好像持平5s,还是是1/2.8?忘了
就5到5S提升一次
13级了,5s,6,6s都是1/3
苹果历代感觉6plus大过其他
登录百度帐号推荐应用
为兴趣而生,贴吧更懂你。或iPhone 6/Plus内部构造揭秘:摄像头来自索尼
[摘要]iPhone 6 Plus添加了光学图像稳定(OIS)系统,其摄像头模块的尺寸为10.6×9.3×5.6毫米,由索尼制造。
腾讯数码讯(水蓝)随着专业拆解机构iFixit对iPhone6和iPhone 6 Plus的完全拆解,新一代iPhone的内部构造已经大白于天下。而现在,国外专业网站ChipWorks则又照例开始了他们对iPhone 6和iPhone 6 Plus内部芯片的剖析图,并为我们逐一解密了两款iPhone 6所使用的芯片型号和特色。NFC芯片揭秘NFC功能是此次两款iPhone 6加入的新功能,并且从此次拆解的图片来看,确实是采用了NXP的方案。至于芯片表面上的编号“65V10”,则可以完全确定是NXP PN548,据称是NXP专为苹果设计的型号。同时从内核上的编号来看,这块芯片在2012年便已经设计完成,而且在第二层模具上方出现了一些神秘的密集金属层,但是否为NFC芯片的安全元素装置,目前还没有确切的信息。不过,此次两款iPhone 6的加速计和陀螺仪并未如过去那样采用法半导体的芯片,而是使用了InvenSense公司的解决方案,具体的型号为MP67B。此外,两款iPhone 6并未发现电子罗盘,并且苹果似乎采用了两个加速计。具体来说,就是在InvenSense MPU7传感器旁边还装载了一个2×2毫米的博士传感器,但目前同样不清楚苹果此举的目的所在。A8处理器而在大家最关注的处理器方面,两款iPhone 6所采用的A8芯片按照官方的说法,内置20亿个晶体管(是A7的两倍),并采用了台积电的20纳米制程,但体积大小要比A7芯片缩小了13%。同时A8芯片在CPU处理速度图形性能上都有大幅的提升,并且能耗方面的表现也较之A7有50%的提升。与以往iPhone的SOC部分一样,两款iPhone 6也是由处理器、内存PoP封装在一起,上面为内存,下面则为A8芯片。而从拆解后得到的信息来看,A8的零件编号为APL 1011,改变了以往“98”为后缀的传统模式(A4 APL0398、A5 APL0498、A6 APL0598、A7 APL0698)。而封装在上面部分的DRAM确实为1GB,整个芯片的日期代码为1434,所代表的含义是今年八月份制造出品。除此之外,由于A8芯片的芯片的图形处理能力增强,产生的热量更多,所以此次采用了三排焊接技术。iSight和FaceTime 摄像头而摄像头模块方面,此次iPhone 6 和iPhone 6 Plus所配的800万像素iSight摄像头存在一定的差异,但都采用相位检测自动对焦(AF)系统,据称自动对焦速度要比上一代快两倍,并且还能够录制30/60fps的1080p视频,甚至慢速录像能达到240帧。此外,iPhone 6 Plus还添加了光学图像稳定(OIS)系统,其摄像头模块的尺寸为10.6×9.3×5.6毫米,由索尼制造,采用 Exmor RS背照式CMOS图像传感器,具有1.5μm的像素面积,传感器部分的尺寸为4.8×6.1mm。不过,两款iPhone 6的FaceTime摄像头仍然为120万像素,但镜头光圈增大了,可增加80%的进光量。至于其他芯片方面,iPhone 6和iPhone 6 Plus都采用的是德州仪器DRV2604触觉驱动器,也就是俗称的振动马达。而两款机型上所使用的包络追踪芯片QFE1100则已经有超过16款机型采用,其中还包括三星GALAXY系列。
[责任编辑:honestsun]
您认为这篇文章与"新一网(08008.HK)"相关度高吗?
Copyright & 1998 - 2016 Tencent. All Rights Reserved
还能输入140字&主题:iphone6摄像头的CMOS尺寸和焦距是多少?
泡网分: 0.196
注册: 2014年06月
始终也没找到具体的规格参数,不知道它的具体CMOS尺寸,还有焦距到底是多少?
作者相关热贴:
微信扫一扫分享
&浏览:1109&&回帖:11 &&
泡网分: 13.402
帖子: 2589
注册: 2010年06月
j10s30 发表于
真的有这么大?跟S6的一样大?听说索尼新出1/2.6寸传感器,大概用在爱疯6上面了。
另外网上看到数据疯6单个像素大小是1.5微米,800万像素4比3长宽大约是像素,乘以1.5是微米,合4.896x3.672毫米,从镜头数据估算为4.95x3.72,差不多,差的这点大概是外围冗余像素。 本帖最后由 123sss 于
11:49 编辑
泡网分: 38.573
帖子: 4926
注册: 2002年06月
这个简单,随便给你贴个照片不就好了。 本帖最后由 zoomer 于
11:48 编辑
泡网分: 13.402
帖子: 2589
注册: 2010年06月
hawk3412 发表于
这个尺寸靠谱是你的数据靠谱
泡网分: 13.402
帖子: 2589
注册: 2010年06月
笨笨小兔子 发表于
恰好,我搬家到自己主题中,谢了兔兄好,重新上传传感器尺寸示意图,添加3种手机规格。
泡网分: 0.07
注册: 2014年05月
<font color="#3sss 发表于
按此数据,焦距倍率是29/4.15≈6.988
全幅对角线是43.2666mm
那么IP6CMOS对角线是43.≈6.192mm
4比3比例,长≈4.9536mm,宽≈3.7152mm
16/6.192≈2.58,大约是1/2.6寸。真的有这么大?跟S6的一样大?
泡网分: 81.789
精华: 1帖子: 33591
注册: 2010年02月
<font color="#3sss 发表于
按此数据,焦距倍率是29/4.15≈6.988
全幅对角线是43.2666mm
那么IP6CMOS对角线是43.≈6.192mm
4比3比例,长≈4.9536mm,宽≈3.7152mm
16/6.192≈2.58,大约是1/2.6寸。恰好,我搬家到自己主题中,谢了
泡网分: 19.775
帖子: 10057
注册: 2007年12月
<font color="#3sss 发表于
按此数据,焦距倍率是29/4.15≈6.988
全幅对角线是43.2666mm
那么IP6CMOS对角线是43.≈6...这个尺寸靠谱
本帖由安卓客户端发布
泡网分: 0.68
注册: 2015年06月
这么高大上的宇宙无敌摄像头,最起码也会是美国人当年做弹道导弹研究的望远镜那焦距:60米到几毫米啊。
本帖由Windows 8客户端发布
泡网分: 13.402
帖子: 2589
注册: 2010年06月
walkman20 发表于
修正一下,iphone6 实际焦距4.15mm,等效135焦距29mm,opanda exif 显示的数据。按此数据,焦距倍率是29/4.15≈6.988
全幅对角线是43.2666mm
那么IP6CMOS对角线是43.≈6.192mm
4比3比例,长≈4.9536mm,宽≈3.7152mm
16/6.192≈2.58,大约是1/2.6寸。
泡网分: 27.741
帖子: 24032
注册: 2007年09月
walkman20 发表于
更5s一样的,1/3左右,焦距大概32~35修正一下,iphone6 实际焦距4.15mm,等效135焦距29mm,opanda exif 显示的数据。
泡网分: 27.741
帖子: 24032
注册: 2007年09月
更5s一样的,1/3左右,焦距大概32~35
&版权所有:&&桂ICP备号&增值电信业务经营许可证iPhone 6 后置摄像头使用什么传感器,为什么仍保持 800 万像素?
主流旗舰手机像素 1300W、1600W、2000W 层出不穷,技术瓶颈应该是没有的。技术瓶颈尚未达到的情况下,如果仅是说 800W 像素够用,恐怕不能令人信服,尼康当年的 600W 够用论,1200W 够用论就曾经被打脸。
一直想写篇文章纠正一些数码影像领域一般用户常见的误解,解答一些问题,但确实这个话题涉及的知识比较多并且还比较困难,好多专业性的资料我的水平根本看不懂,所以总是在等知乎有一些内行出来科普。但既然这么久以来都没什么专业人士发言,我就以我目前能掌握的知识尽可能就这方面的问题做些科普吧。首先纠正一个几乎所有普通用户都会搞错,也曾困扰我多年的误解:绝大部分数字成像设备的传感器是拜耳阵列传感器。这种传感器的基础形态如下:拜耳阵列传感器的每一个像素都是单色像素,相邻的2x2共四个像素组成一个基本阵列,每个阵列有二绿一蓝一红像素。拜耳阵列传感器的像素数量即是所有负责成像的单色像素数量之和。典型地,一个1000万像素传感器会有500万个绿色、250万个红色和250万个蓝色像素。但是几乎所有的数字显示设备,包括显示器、投影仪等,其像素数量是所有彩色成像单元的总数量。每一个显示器的“像素”都是由红绿蓝三个子像素组成的,一些特殊的显示设备如三星的Pentile屏幕,每一个像素由一个绿色和一个红或者蓝色像素,共两个像素组成。换句话说,一般的显示设备的单色像素数量是其标称的像素数量的3倍或2倍。如果像成像设备一样以单色像素计算像素总数,那么典型的1080p显示器就有,大约620万的单色像素。大部分的显示屏都是这样的形态,每个像素由红绿蓝三个子像素组成。常说的“24bit色彩”指的就是红绿蓝三色各有8bit深度,加起来就是24bit。但是大家都知道,大多数的数字成像设备拍摄出来的图像都是以三色像素计数的。例如800万像素的相机输出的jpg照片,在浏览器里看属性一定是800万像素,每个像素都是24bit彩色。可既然传感器每个像素都是单色,为什么输出的却是彩色的信息呢?这就涉及到拜耳阵列传感器输出图像的关键步骤——反拜耳运算了。所谓反拜耳运算属于数字插值技术的一种。具体来说就是传感器生成图像时,每一个单色像素参考同阵列的其他三个像素捕捉的光学信息,“猜”出本像素接收的其他两种光线的数据,并以此生成包含三色光谱信息的像素。换句话说,反拜耳运算是一种三倍插值运算。与普通用户的常识不同,绝大多数拍摄设备所生成的图像从一开始就是这样插值出来的,所谓“没做任何插值运算”的图像除了少量专业设备外一般是不存在的。接下来进入主题:成像设备像素数量、感光面积和图像质量的关系。首先,既然我们已经知道拜耳传感器生成的图像都是经过插值的,那么该如何计算图像的清晰度呢?倘若没有这个插值过程,比较好理解的就是理想状况下图像的清晰度=图像的像素数量,亦即每一个像素都真实地还原了其捕捉到的场景的某一点的光线信息。但是既然存在这样的插值,就有可能出现生成图像的信息并不是真实的场景信息的情况。这方面有一些对应的数学研究,其结论是在理想状况下,拜耳传感器生成图像的实际清晰度在每个方向都等于传感器像素数的约78%。例如某个传感器的分辨率是,则纵向上其实际清晰度是3120条垂直线;横向上其清晰度是2340条水平线。理想状况下如果用它拍摄一组密集排列的黑白相间的细条纹,生成的图像上可以数出横向最多2340条黑色/白色的条纹。测试设备分辨率时,用设备拍摄类似这样的测试卡,输出图像后看看能看清哪个等级的线条组,则设备分辨率就是什么等级。而医学上经过研究发现,人眼的分辨率同样是有限的。我们常说某人视力是1.0、1.5,指的就是眼睛分辨场景细节的能力。典型1.0的视力下,在30cm的距离上人眼最多分辨每英寸300条水平线。物体距离人眼越远,人眼能分辨物体的细节就越少(亦即“越远越看不清楚”);同时,距离越近人眼聚焦的范围越小,越远范围越大,30cm距离上人眼只能关注一小块屏幕,3m距离上人眼可以关注一个60寸的电视。进一步就可以推导出,人眼不动时对于某一张图像的细节分辨能力是有极限的。比如一幅清明上河图,无论是放大到原始大小还是缩小到A4纸尺寸,人们都不可能一眼就看清整幅图像的全部细节——尺寸太大,一次看不过来;尺寸太小,过小的细节又不可能看得清楚。这个极限经过研究,大约是在水平线左右。那么结合上面拜耳传感器的清晰度计算方法我们可以知道,理想状况下大约的传感器生成的图像就足以让人一眼看上去觉得足够清晰了。无论是在7寸照片上打印还是在100寸屏幕上投影,这样精度的图像不细看是看不出细节的不足的。然而现实总是比理想残酷很多。上面所说的这种情况仅仅是最佳条件下的状况。实际情况远比这要复杂许多。首先,拜耳传感器生成图像的清晰度受算法的影响。虽然理想状况下其能达到像素数78%的清晰度,但当场景颜色排布较为复杂时,生成的图像往往会出现物体边缘伪彩、条纹物体摩尔纹、边缘锯齿等状况。这些状况降低了图像的实际清晰度。更为严重的状况出现在场景明暗反差过大时。传感器捕捉场景信息时,场景的明暗反差很有可能超过传感器性能极限。场景的明暗反差程度被称为动态范围,传感器承受场景明暗反差的范围被称为宽容度,单位是ev。某个场景的动态范围是1档,意味着场景最亮点的亮度是最暗点亮度的2倍;如果是两档就是2^2=4倍,以此类推。晴天中午,太阳与树荫下的亮度差异可以达到近20档。当场景的动态范围超过传感器的宽容度时,记录下的图像中超过宽容度的部分就会变成相同的亮度,且细节基本丢失。可以看出,第一张图片明亮部分的细节以及男性身体阴影部分的细节几乎完全丢失。很显然,传感器的宽容度会在明暗反差较大的场景中影响图像的细节还原能力。另一种情况出现在场景过暗时。绝大多数用户都很熟悉“噪点”这个词汇。当设定的传感器灵敏度过高(亦即ISO设定过高)时,接收较少光线照射的传感器像素的自身电流会掩盖接收光线所产生的电流,生成无规则色彩的像素点,亦即噪点。黑暗场景下为了拍出亮度正常的照片,用户往往需要设定较高的ISO值,结果就会在图像上发现大量噪点。很显然,这些噪点会严重影响图像的清晰度。传感器抑制噪点的性能被称为信噪比,信噪比越高则噪点出现的越少。哪些是星星,分得清吗?讲了这么多宽容度和噪点的东西,这些又和传感器像素有什么关系呢?非常不幸的是由于数字成像设备的技术原理限制,在其他条件都相同的情况下,一定尺寸的传感器的像素数量与宽容度和信噪比都成反比。想要同时增加像素数量、宽容度和信噪比,只有提高传感器整体技术水平或缩减色彩表现力(很少使用的手段)、降低像素刷新速度等(会影响连拍、摄像性能,所以也很少用)。换句话说如果技术水平没有提升,传感器尺寸不变,那么提升像素数量几乎必然会影响到宽容度和信噪比。而宽容度和信噪比的下降,反过来又会在很多场景中严重影响成像清晰度。本来增加像素是为了提高清晰度,可是这样一来增加的清晰度又被抵消很多,甚至于下降了。可是很少有成像设备能够经常在理想的场景下拍摄图像,尤其是通常没有任何辅助拍摄器材,又需要随时记录生活的普通消费者最容易碰上上面这个尴尬的矛盾。专业的摄影场景通常都会使用遮光、反光设备和灯光来降低整个场景的明暗比,增加场景的亮度。为了尽可能获得理想的成像,专业设备通常使用尺寸较大、耗电较多的高性能传感器以及沉重、巨大、高精度的镜头;结果经常需要面临更加严苛拍摄场景的用户却只能拿着小体积的手机拍照,简直就是痛苦的考验。在这样的事实面前,消费级成像设备就必须做出艰难的选择和取舍。一方面,成像单元的体积、重量、能耗往往受到严格的限制;另一方面,用户拍摄的场景却是千变万化。寻找应对这样情况的最佳策略是非常困难的。最理想的情况是技术迅速进步,使得小尺寸设备达到如今高性能摄影机的性能水平——但多年的经验证明这方面的进步速度相当缓慢。那么在种种限制下,选择成像器件的像素数量指标就成了很重要的一环。前面我们已经知道,当像素数达到千万级别时理想状况下生成的图像只要不做裁剪就已经足够绝大多数用户使用了。但是当宽容度和信噪比过低时,图像清晰度会受到严重的影响。如今典型的1000万像素级别手机摄像头的宽容度只有5档甚至更低,而信噪比与高级单反的差距可达数十倍。由于这两项指标的巨大差距,一颗2000万像素手机摄像头在较为严苛的场景下生成图像的清晰度,甚至比不上一部467万像素摄影机。片面提高像素只能在一部分场景中产生正面作用,在另外很多场景中反而会有严重的负面效果。事实上,在手机常用的1/2-1/3寸的传感器上,像素数超过5-600万(这是拍摄《复仇者联盟》使用的摄影机的传感器像素水平)后负面作用就会越来越明显。传感器厂商如果完全为用户考虑,提高产品整体技术水平的时候不应该把改进后的技术用来增加像素,而是应该保持较大像素尺寸并提高宽容度与信噪比指标。小尺寸传感器的像素提升道路早在一两年前就应该终止了。遗憾的是,增加像素数量指标的市场效果是如此之好,以至于厂商都热衷于提升设备的像素数,而对其他指标有意避而不谈。多年来的宣传让消费者形成了“像素数量=画质”的印象,结果到头来损失最大的还是消费者自身。苹果在专业图像处理领域的技术积累是很深的,拥有较好的图像和视频处理算法。现在新款iPhone又拥有性能较好的芯片,因此手机整体的图像处理性能在业界是数一数二的。苹果选择手机图像传感器的标准重心并不是像素数量,其首先考虑的其实是传感器的体积、重量和耗电。这几个指标大致确定之后传感器的感光面积自然也就确定了。接下来,苹果是选择这个尺寸下使用最新技术,但像素数最少的传感器产品。苹果的传感器供应商现在是Sony,iP6选择的传感器尺寸约是1/3英寸(实际要更大些)。800万像素应该是Sony在这个尺寸下能供货的单像素面积最大的传感器了。如果Sony肯以最新的技术生产600万甚至500万像素的传感器,其综合画质会更佳——但是Sony自然不会这样做,恐怕消费者也难以认可。因此,800万像素算是苹果的一种妥协:尽可能地在这样的尺寸下提高宽容度、信噪比指标,提高摄像头在复杂环境中的成像品质,同时还能保证产品的供货量。那么为什么苹果不换用尺寸更大的传感器?一方面是手机整体设计的考虑,另一方面,Sony能提供的大底传感器因为像素数量太多,单个像素的尺寸反而比现在的800万像素版本要小不少。增加的像素带来的效果被减少的宽容度、信噪比抵消后也就所剩无几,甚至可能有反效果。既然如此还不如继续使用体积较小的800万像素传感器,还能减少电力损耗。讽刺的是,当大量专业拍摄设备的像素数量还停留在2000万以下,甚至1000万以下时,普通消费者使用的小小的手机的摄像头却普遍有了千万甚至两千万的像素数。苹果作为少有的坚持较少像素数量的厂商却招来很多无知的嘲弄与讥笑。希望这篇文章能够帮助一般用户更好地理解相机像素、尺寸与画质的关系,在选择和评价设备时多一点理性,少一些盲从。
首先声明,这是一个纯粹的技术问题。而且我这里讲的将是800w像素的摄像头成像质量也会如此巨大,这里面有多少可以play的空间,而不是讲apple如何做,因为这是谁也不可能知道或者讲出来的绝对商业机密。我们先来看看Imaging Sensor(图像传感器)如何工作。毫不客气的说,手机和单反里面的Imaging Sensor是设计难度最低的Imaging Sensor,核心技术几乎完全是工艺的问题。因为手机的Imaging Sensor全部采用4T结构的设计。什么是4T结构?一张图解决问题:首先,这个是日本和美国发明的,所以现在行业内做的最好的依然是日本和美国公司。首先,这个是日本和美国发明的,所以现在行业内做的最好的依然是日本和美国公司。几乎所有的手机相机,低到200w,高到2300W,几乎无一例外全部是这样的结构。因为这样的结构相比较6T,7T的结构,Fill Factor(感光率)高很多,而且支持Global Reset(全局重置)并且如果使用一些特殊技术,也可以实现Global Shutter(全局快门),从而很好的保证了拍照的速度。那么什么决定了一个Imaging Sensor的好坏呢?那就是感光器件的核心——Photo Diode(感光二极管),Photo Diode的工作原理是利用特殊掺杂的硅,让照射进来的光子激发出电子空穴对,然后利用Transfer Gate(传输门TX)读出。工作原理是很简单的,但是说起来容易,做起来就难了。首先,具体到硅基上的Photo Diode尺寸,究竟该如何设计?设计成什么形状?这几乎没有任何设计工具可以依赖,完全是一次次的实验,而这种实验是以千万美金计算的研发费用。除了Photo Diode的设计之外,感光部分的硅基如何掺杂,Transfer Gate如何平衡传输电子的势能差,这都十分影响一个Imaging Sensor的功能。感光质量的好坏,最基本地可以用以下三个指标来衡量:解析力,线性度,和 Dynamic Range。我们经常谈及的所谓800W像素,可以影响的就是解析力,但是解析力并不只依赖于有多少的pixel(像素点)。现在pixel已经小到1-2um的时代,Cross Talk(串扰)和Micro lens的质量才是解析力的关键。而且如果在面积一定的情况下,1300W像素的成像质量很可能差于800W。线性度的问题,很大程度上取决于器件的工艺和读取电路的设计。Dynamic Range影响了我们究竟可以拍出多亮的白色和多暗的黑色,最好的体现就是夜间和强光下拍摄的质量。这一项,首先取决于Charge Well的面积,越大则越好。所以小的感光芯片,比如说手机,是没有任何可能拍出好夜景的,这也就是为什么全幅单反都那么大。除了Charge Well的面积,Dynamic Range很大程度上也受工艺和使用时温度的影响,比如说有没有使用SOI,有没有使用Local sensor来校准。所以暗光拍摄的质量和像素的多少,没有很大的关系。如此可以继续得出,发热大的手机,也部分影响成像质量。说了这么多,回到问题,iphone的800w像素为什么牛逼?首先,iphone的摄像头,历来是Sony为其定制的,Sony最好的工艺(也就是全世界最好的工艺)一定会用在这上面,而我私以为,Apple和Sony在这一部分上是有排他协议的。也就是说,Apple的摄像头,用的工艺就比别人的好,起点就比较高。其次,由于高度保密,我们无法知道iphone的pixel究竟是如何设计,Micro lens是什么排布。虽然官网上很笼统的标注了pixel的大小是1.5um,但是pixel里Photo Diode的形状和面积,尤其是在面积一定的情况下,如何和Charge Well进行trade off,所有这些关键参数,我们根本无法知道。同样是1.5um的pixel,因为设计的不同,表现出的成像特性也会千差万别。Appple的800w像素是精心定制的,和其他厂商用的800w,完全不是一个概念。所以用Apple的800w和其他手机的800w相比较,是很业余的做法。综上所述,根本原因就是Apple用的800w是专业量身定制的,不可以和其他的所谓800w,1300w拿来比较。除了Imaging Sensor,影响相机成像的还有DSP,而Apple在这一方面,是领域内的专家,如何做一个好的ISP(Image Signal Processing) ,Apple是很有信心的。甚至我认为Sensor部分和ISP的设计是一体的,这个概念是法国人提出的可计算电路,就是在电路层面实现一部分固定的算法,这个技术现状主要使用在核成像上。除了这个,在硬件上,一个良好的读取电路对保证成像的线性度是很重要的,而这一部分,Apple也下了大工夫。几年前ISSCC做ADC的best paper得主现在就在Apple工作。而且在整机设计,比如说消除串扰,散热方面,Apple也做到了业界最好。Apple把提升成像质量的工作都做在了消费者不容易看见的地方,而不是一味提高像素这种噱头上,这是一种认真,求实的工程态度。所以,iphone 800w像素的高成像质量是事实,这背后体现的是Apple整个公司超高的工程实力和品质把控,是一个多因素影响的复杂工程。这是真正的硬实力!-------------------------------------------------------------------------------------------------------------------------------------------最后,鉴于有些朋友略微捉急的阅读理解能力,我强调一下,我没说apple 800w是最好的,但是和其他普通的800w还有部分1300w比起来,还是有优势的。而且,我说了,ISP很重要的。。。你让我具体说说?我想就算是入门的讲出来非技术人员也听不懂,不想听。。。至于Sony为啥不用这个,IP啊,IP啊,这是一个customized design啊。Apple也不是不升级,你看6 plus不也上浮动镜组了嘛。。。
14.09.12 20:58编辑----------我看此问题的时候,回答不过十数个。现在回答越来越多,删掉攻击性言语。------------先来看单反的两个例子:Nikon D5300,像素2416wNikon D4,像素1625w你觉得哪个好?前者入门级,报价4200左右;后者专业级,报价3.8w左右。难道花3.8w买D4的人都是冤大头吗?当然不是。------------同样的,在手机有限的空间内,只能塞得下有限的镜头模组的情况下CMOS的尺寸显然已经是固定了的,那么在有限尺寸内,如何保证每一个像素都记录准确和记录尽可能多的像素,就成了一个难题。举个简单的例子,你有一张A4纸,如果让你在这张纸上写10个字,你可以保证每个字都写的很清晰。但如果让你在这张纸上写100个字,1000个字,10000个字,乃至更多个字的时候呢?你还能保证每个字的质量和清晰度都有保证?很多高像素论者只考虑了“当像素越高,解析力就越强,毛刺越少,锐度越高”,但恰恰忽略了他们的显示设备,包括他们自己本身的输入设备(眼睛)真的有与之配套的解析力?目前民用最好的显示设备,所谓的full 4k分辨率,分辨率为,也就是1270w个像素点而已。在摄影上,更高的分辨率和解析度,是为了方便后期的裁剪和创作,有些是因为专业需要比如需要印制一个200米*150米的巨幅海报,而绝大多数手机用户会做到这些事情?因此,在每一个像素质量,和更多的像素之间,必须有一个权衡,而不是刻意的去追高,因此互相制约的双方,必须要寻找一个帕累托最优。这才是光学模组的意义,也是摄影本身的一些基本原理。-------------大家都不是专家,我也无意为苹果洗地,资本逐利,控制利润率无可厚非。但我相信AAPL的是有对应的专家的,他们会去根据最最优的体验,来调教这个镜头模组和拍摄效果。因为在这摄影方面,AAPL不需要像素这样毫无意义的”非核心竞争力”。我只是觉得,在知乎这样的平台,能不能做的知之为知之,不知为不知?至少去搞明白其中的一些原理,而不是单纯的“节约成本”“多赚点钱”这样的答案吧,贴吧即视感太强了。
CMOS太小。塞800万还可以。塞1300万解析力上去,暗光就不行了。苹果是均衡派。
一年一度的媒体人春晚过去了,iPhone 6 叒一次采用了 800W 像素摄像头,像素尺寸仍旧为 1.5μm,但我们仍看见了其在其他方面的改变与进步,且看煮机为你简单评析……Focus Pixels 自动对焦苹果把这个名字叫的很高大上,直接翻译就是福克斯皮克斯,两大公司名字都在这里了。但根据苹果的视频现场演示,这个自动对焦其实就是加入了摄影界耳熟能详的相位对焦。目前市面上除了即将上市的 iPhone 6 和为数不多几款采用三星 ISOCELL 技术 CMOS 的手机以外,其他的手机都是反差式对焦,或者叫做对比对焦。(单反在使用光学取景器取景时,对焦方式为相位对焦)对于这两个名词,我们仅稍加解释,因为相关内容在网上也有很多。通俗点讲反差对焦就是对焦过程中,对焦镜片来回移动,移动过程中,ISP每秒对几十张到几百张图像进行分析,找出对比度最高的那张,对焦结束。而相位对焦则是通过相位对焦模块直接判断物距,然后将镜片移动到相应位置,对焦结束。看起来还是比较复杂,对吧?我们来做一个实验简单说明一下:拿两支笔,取下笔盖,两手各拿一支,笔尖相向,闭上一只眼睛,讲两支笔由远及近,并让笔尖对上笔尖。再睁开你刚才闭上的眼睛,再次让笔尖对笔尖。多试几次,看看成功率。两只眼睛能够通过视觉上的不同判断距离,即可理解为相位对焦;一只眼睛的情况下只能通过与旁边对比判断距离,即可理解为反差式对焦;笔尖对上,其实就是对焦对上了。当然,iPhone 这次的对焦并不像单反,而是 CMOS 内嵌相位对焦点的方式。对焦速度方面,手机中可以参考三星 S5;而如果想要感受区别,可以去试试索尼 NEX-7 和 A6000,同样一块 CMOS,有无相位对焦点的区别。最后,我们简单粗暴的给出结论:iPhone6 比以前 iPhone 对焦更快。(诶诶诶,你们别打我啊)能带来什么好处?拍照方面我们就不说了,这里我们说说拍摄视频。由于反差式对焦需要反复比对,因此不管是在拍照还是在拍视频方面,都会出现「呼吸效应」,也就是模糊-清晰-模糊反复几次,而加入了相位对焦,可以直接对焦对上,对于拍摄视频中主体的来回移动,不易出现「呼吸效应」,从而使视频看起来更舒服,实际效果也更好。光学防抖关于光学防抖,技术方面笔者已经在中简单粗暴的给大家讲述了。但如果我们把目光放的更大一点,我们会发现,这么有用的技术,在手机上用的并不多。近年来,在手机上大规模使用并宣传光学防抖的是诺基亚的 lumia 系列的一部分机型,但由于刚上市那段时间诺基亚的算法和优化问题,导致 lumia920 的成像当时被戏称为「晚上一条龙,白天一条虫」,也让不少人对手机上的光学防抖第一印象不太好。事实上,对于大多数人来说,手机拍照的最重要性质是记录。在这个前提下,夜景拍摄中,光学防抖远比大光圈来的实在得多,其他条件相同情况下,费尽心思做到 F1.8 光圈很可能还不如 F2.4 光圈带光学防抖夜景效果好。但由于种种原因,搭载光学防抖的机器,并不算多。iPhone 6 plus 的光学防抖,将带来的是手机界高端机器的全面光学防抖,小编认为原因有二:一是「苹果800W光学防抖,我们1300W光学防抖」;二是「苹果都摄像头突出了,我们摄像头突出也没关系,反正王自如和老罗都认为苹果是地球最好的手机。」这样对于各方都有利,手机厂商多了一个卖点,也不担心被批外形;消费者能够在实际使用中有更好的效果。其他简述:720P 下的 240FPS 主要和 CMOS 特性有关,苹果有这个需求索尼就做得出来。未加入 4k 视频拍摄可能也与苹果要求有关,目前来看 1080p 也暂时够用,苹果暂时有魄力拒绝索尼 4k 方面的推广。800W 像素是槽点,预计白天画质与 iPhone 5s 甚至 iPhone 5 区别不大,精细程度不一定比得上其他厂家一票高像素旗舰机型。延时摄影主要需要担心的是手机被盗。以下是小编继续简单粗暴的总结:更快的对焦速度,更好的夜景效果,iPhone 6 依然是这个世界上拍照最易用的手机之一,但如果仅论画质,将有不少手机超越 iPhone 6,我们有了更丰富的选择。而在 iPhone 6 的推动下,光学防抖会在接下来的一年时间里,在各品牌中高端手机中慢慢普及,对厂商和消费者都是利好消息。部分图片来自参考:
从理论上讲:光圈实际直径的大小,决定了镜头分辨率的理论极限光圈实际直径越小衍射越严重,理论分辨率极限越低手机这么小的镜头非要配上千万像素的传感器,实在多余传感器尺寸不变的条件下,像素越高,像元面积越小,信噪比越差、噪点也就越多从实际使用来讲:就算是135顶级数码单反配上专业镜头,像素也是掺水分的哦!3900万像素的中画幅数码后背,抠出800万像素的部分画面,分辨率完虐1200万像素的135专业单反的完整画面,毫无压力。。。追求分辨率?先把CCD/CMOS前面的那层低通去了再说------------------------------补充:假设上面讲的都不是问题手机用的成像传感器和镜头都老NB了。。。所谓的实验室客观评测也证明像素的增加确实大大提高分辨率了。。。(客观的话,一定是固定在支架上拍咯)但是,手机拍照不是99%都手持的吗?手的稳定度支持那么高像素么?抖动的危害有多大?还是以使用相机的风景摄影(追求分辨率、清晰度)举例子:认真一点的,相机一定要上三脚架讲究一点的,三脚架+云台不能低于2000人民币,单反机反光镜要预升高端大气的。。。帘幕快门的相机一边儿去,镜间快门才是正道------------------------------手机拍照,白平衡可靠、颜色与反差悦眼足已
某相声演员的手机发布会上说过,现今调较水平最高的手机摄像头是800w像素的,调好了比1000w以上的拍摄效果都要好,不过消费者喜欢看参数,所以我们还是用了1300w的。
火腿肠m7还400万...虽然她容易大姨妈...不过依然是枚好镜头
单反也就1300左右的像素。其实应该去问那些高像素手机厂商,为什么不做好调教优化,而只是简单粗暴的拼像素。高像素带来的问题,成像速度慢,文件过大,储存困难。手机拍照就是为了简单方便快捷。那么麻烦,为什么不用单反?苹果用低像素,就能拍好照片,为什么要用高像素自己找麻烦
已有帐号?
无法登录?
社交帐号登录}

我要回帖

更多关于 iphone6传感器尺寸 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信