9月11日,苹果在加利福尼 亚州库比蒂诺发布了三款新的智能手机:iPhone11、iPhone11Pro和iPhoneProMax。
可以看出,苹果更加重视如何在移动设备商打造机器学习平台。
相机及图像处理:
新款iPhone11Pro背面有三个摄像头,包括长焦镜头、广角镜头和超广角镜头。新出的超广角镜头在CameraApp中显示一个0.5x的按钮。超广角镜头光圈为f/2.4,视角为120度。
苹果声称,它正在iPhone11的摄像头中使用机器学习功能来帮助处理图像,并表示,该芯片的速度允许它在启用HDR的情况下,以每秒60帧的速度拍摄4K视频。
为做到这一点,苹果正在使用一种名为“深度融合”(DeepFusion)的技术,将所有三个镜头的图像结合起来,并在后台中运行神经网络,以像素级别拼接图像,从而在不牺牲图像质量的情况下保持一致性。
QuickTake是一项新出的视频录制功能,通过长按相机快门,可以更轻松地拍摄视频。拍摄的视频质量为4K,60fps,以及慢动作、延迟并扩大动态范围。
iPhone11的前置镜头已经升级到1200万像素,支持广角自拍。你还可以拍摄60fps的4K视频,以及慢动作视频。
如果一台设备允许一次拍摄两段4K视频,同时电池续航时间可达5个小时,那就是一个重大升级。
高性能A13仿生芯片:
iPhone11采用了苹果新推出的A13仿生芯片,苹果标榜该芯片是该公司有史以来速度最快的处理器。至于电池续航方面,iPhone11的续航时间比iPhoneXS长一个小时。
“我们在整个iPhone中使用机器学习。”在解释A13仿生芯片的机器学习和低功耗设计如何使其成为智能手机中速度最快的芯片时,SriSanthanam如此说。
CPU、GPU和神经引擎都经过优化,可运行不同的机器学习工作负载,而A13仿生芯片使机器学习操作更快。
总体而言,A13的CPU具有每秒1万亿次运算的能力。
它配有一个机器学习控制器,允许机器学习模型在CPU、GPU和神经引擎之间进行调度。它可用于设备上的自然语言处理,图片和视频中的图像分类,增强现实应用中的角色动画等等
A13仿生芯片还配备了苹果设计的64位ARMv8.3-A六核CPU,其中,有两个高性能内核,运行频率为2.65GHz,称为Lightning;四个节能内核,称为Thunder。
两个高性能内核的速度提高了20%,功耗降低了30%;四个高效内核的速度提高了20%,功耗降低了40%。
尽管内置了创纪录的85亿个晶体管,整体性能也提升了大约20%,但这种效率提升还是存在的。
CoreML 3:
今年早些时候,在WWDC大会上,苹果宣布了一些优秀的机器学习更新,并演示了开发者如何从定制中获益。
当时,苹果为机器学习社区发布了CoreML3和其他让人兴奋的工具升级。CoreML构成了特定领域的框架和功能的基础。CoreML支持视觉图像分析、自然语言处理。此框架可与CreateML一起使用,来训练和部署自定义自然语言处理模型。
然而,有了CreateML,开发者就可以构建对象检测、活动和声音分类的模型,并提供建议。利用词嵌入和迁移学习进行文本分类。
随着CoreML现在支持100多个模型层,苹果的机器学习团队相信,应用程序现在就可以使用最先进的模型来提供前所未有的对视觉的深刻理解以及自然语言和语音处理的体验。
【来源:Techweb】【作者:行者崟涛】
网友评论