至顶网个人商用频道 05月24日 北京消息(文/陶婧婕)昨日,暴风集团在北京举办了题为“好好看一场电影”的暴风小魔投新品发布会。本场发布会的演讲环节设计呼应主题,暴风集团CEO冯鑫大部分时间都是坐在沙发上讲述小魔投的产品参数、功能,发布会现场俨然变成由冯鑫配音、小魔投主演的一部“电影”。
冯鑫表示,(小魔投)是一个惦记很久,又差点被放弃掉的产品。为什么这么说?当初做这款产品时,暴风内部争执很多,例如在产品规划上,APP首页到底放多少部电影、是否真的彻底舍弃遥控器等等,冯鑫自己也犹豫过。但,他最后还是选择要做小魔投。“毕业25年,我要为自己做一个产品,并且,为它代言。”
绕不过的硬件参数
小魔投的定位是“便携式投影”,用户无论在何地,只要找一面墙或者天花板,就能静下心来看电影。
说到便携,首当其冲的就是产品尺寸。小魔投的机身设计为圆形,直径为13厘米,360克的重量也方便携带,出门时可随手塞到裤子口袋。
便携式投影虽然方便,但是一般产品设计相对局限,亮度不够大。小魔投在设计之初就考虑到了这种情况,其搭载了13厘米机身内能装下的最好光机,亮度高达220流明,比目前同尺寸微投的最大流明提升2倍还多。小魔投还采用了三项过往只在高端投影设备上使用的顶级画质技术,包括三千元价位高清投影仪才应用的HDR10技术、DLP影院级技术、6层镧系玻璃镜片,通过暴风TV30余项专业画质技术加持,大幅优化小魔投的画质细节、色彩饱和度和清晰度,让画面更真实。并通过独有的暴风左眼引擎技术,将亮度提升30%以上,让画面更亮更清晰。
“选片困难症”被治愈
传统的电视/投影仪界面,想要找到心仪的电影往往要花费好长的时间,翻着翻着也容易产生疲倦心理。冯鑫作为资深影迷,也被这种情况所困扰。
小魔投根据痛点做出了相应调整,首页仅有12部影片,以极简的呈现方式缩短用户在观影前无效的选择时间。
另外,为了解决找片难的困扰,小魔投推出了全新的“1994电影引擎”。基于极致片单、可互动、人与片单及行为协同过滤的魔性推荐四个设计思想,小魔投第一次实现了看片和选片分离的极致观影模式,基于小魔投APP,以最简单的滑动操作实现日常找片。用户可通过 “1994电影引擎”随时随地选好电影。在小魔投APP里,左右滑动浏览电影智能推荐信息流,上滑即可实现同类电影的原地换片推荐,下滑即可加入待看片单。让用户轻松滑到喜爱的电影,想找随时找,想看随时看。
没有遥控器,“咔哒”一声的操作体验
暴风小魔投就是要给投影仪“做减法”。
为了彻底做到找片和看片分离,小魔投是第一款没有遥控器的随身影院。用户在平时找片时,通过小魔投APP完成。使用小魔投时,小魔投APP即可完成播放和控制的所有功能。摆脱遥控器,指点屏幕,随时随地享受影院级观影。
小魔投还采用了Macbook同款航空级铝镁合金纯金属外壳,用42元的成本为每个小魔投产品设计了旋转开机。冯鑫希望“咔哒”一声的旋转开机,变成小魔投观影的专属标志,让每次观影都充满仪式感。
多种形态的小魔投,打造互联网放映厅
为了让用户轻松找到看电影的那面墙,小魔投特地为用户打造了一款“神奇支架”。采用了航空级铝镁合金和磁吸底座,可360度自由视角随意旋转,轻轻一放即可稳定投影。同时还设计了一款24000毫安时超大容量的电池,可轻松连续播放两部电影。不仅可携带乘机,还能变身为支架,侧身90度调节,投射天花板。
暴风小魔投不止于观影,还是一款新型的互联网放映厅。小魔投发布即开始测试放映厅功能,用户可以开设线上放映厅,挑选钟爱的电影与其他用户分享,并组织映前介绍、映中彩蛋和映后聊天讨论。普通用户也能随时参加一场由电影大V、朋友或普通用户发起的放映。
暴风小魔投将在天猫商城、京东商城、暴风商城(mall.baofeng.com)、暴风TV官网(bftv.com)首发售卖。将于5月23日开启预售,并于6月1日0点正式发售。用户在天猫预约抢购可立减200元,并享50元购物津贴。预约前10名将获得618元购机机会,前1000名即返100元红包。首发福利标准版低至1799元、火版低至1299元。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。