至顶网个人商用频道 01月19日 北京消息(文/黄当当):在智能手机“风向标”苹果的带动下,iPhone X用上了刷脸解锁的Face ID,一时间人脸识别成为AI在手机上最火的应用,3D视觉也顺势成为机器视觉赛道的一大风口。
这一趋势也蔓延至CES,在这个标志全球电子科技走向的舞台,你可能会诧异各种美妆品牌欧莱雅,SK-II,甚至美宝莲为何来参展,但你没有看错,在这些实时美妆,颜值检测的APP应用背后,正是3D视觉技术掀起的波澜。
就像建筑一幢高楼,人们在感概华丽外壳的同时,更应该注意到它打下的牢固地基。目前市面上基于3D视觉的应用千姿百态,而如何从“同质化”中获取独树一帜的体验,还得看核心功底,即背后的算法了。
盎锐科技就是这样一家公司,今年是他们第一次登上CES舞台,作为新生面孔,它却带来了3D视觉方面的一项独家专利,嗯,是CES舞台唯一的出现。
你想成为“吴彦祖”,还差几步?这一款App会用1-100%的可视化距离告诉你,所有的经历与变化,并且用3D任意拖拽的方式。
这是盎锐科技独家的算法。不出意料,这一应用受到美容医疗行业大赞,尤其是脸部的微调,可是方便美容医师与客户的沟通,以及调整方案的制定。
盎锐科技COO李辉表示,这项技术目前在大美医美行业非常受热捧,并且属于盎锐科技一家独有,是一项行业等待很久才出现的技术,同时医美行业也是盎锐科技3D人工智能视觉技术首先落地的领域,他表示,公司会先从医美行业开拓市场,进而继续向安防、教育等领域深耕。
那么,3D人工智能视觉技术与传统3D有何不同?李辉进一步解读,3D人工智能视觉技术是一种融合技术的概念,融合了AI、计算机视觉以及计算机图形学,以进行数字化真实的三维世界信息。
事实上,盎锐科技的目标是将3D人工智能视觉技术应用在所有需要将真实三维世界信息数字化的场景,比如人脸支付, 远程医疗, 全息视讯,空间建模,逆向工程建模等等。
“未来手机里的照片可能都是3D的,就像现在2D照片取代了黑白,这是一种进程。”李辉说道,未来社交App上的照片都会是3D方式呈现。
这或许与公司创始人的经历有关。盎锐科技创始人孙燕生,为3D智能视觉技术专家,创办了三家公司在纳斯达克上市(WEITEK、C-CUBE、DVS),被DVD Forum授予终身成就奖,被称为“MPEG之父”,是世界第一台VCD的主要发明人之一。
对于图像的演进,盎锐科技这家公司认为未来将是3D的世界,为了让真实三维世界与数字化三维世界的融合更加自然,让实与虚之间切换更加快速,所以要让这个“虚”变得更高效,更简单,更真实,透过3D人工智能视觉技术的力量, 连接人与世界是盎锐研发3D人工智能视觉技术的愿景。
“其实,3D世界离我们并不远,或者说它已经到来。”李辉举了两个例子。
比如人脸支付,人脸相较于二维码,是更接近于真实的自己,然而,我们目前还停留在使用手机出示绑定自己个人信息的二维码进行支付,是极不符合人性的。而人脸支付的核心问题就是如何把真实三维世界的人像数字化提供给到机器,进行判定并核可一笔交易。
比如远程医疗或医疗美容,将真实三维世界的人像进行数字化处理,并且在数字化三维世界的人像处理结果最真实的对应到真实三维世界人像,这对手术模拟以及远程看诊都有极大的帮助。
作为一家Focus on3D视觉的初创公司,盎锐科技目前已实现3D视觉技术算法的成型,除了技术授权的商业模式,它还在做落地产品。
盎锐科技拥有自主研发的3D人工智能人像处理技术和4D人像视频直播技术, 并且已经推出可商用化的软件SDK, 软硬件解决方案, 以及嵌入式运算加速解决方案等产品可被广泛应用于医疗、安防、教育等领域。
在盎锐科技位于LVCC的展台,就展示了4D视频直播技术,不需要任何外挂特殊摄像头,使用带3D摄像头的iPad即可实现。
当然,对于3D图片的处理,存储问题是一大考验,不过盎锐科技首席营销官李韦睿表示,盎锐科技已经研发出3D人像数据压缩及加密技术, 可以将3D人像进行1000倍压缩并且解压缩后可达到99%的解压缩无损率。
李辉表示,搭载盎锐的技术的产品,会出现在云端、嵌入式设备以及PC端,接下来还将与客户合作推出大美业智能3D人像处理及分析设备,智能家居3D人像处理及分析设备,嵌入式3D人像处理及分析移动终端,3D视频录制设备,高精度人像及人体扫描设备等等。
关于未来更广阔的布局,他表示,会考虑去做芯片,如果体量上来,会去在专属芯片上优化盎锐AI算法,并移植到现有设备端,不过这太长远了,眼下他更希望盎锐成为3D人工智能视觉技术领域的新独角兽级别的全球型企业。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。