《科创板日报》4月18日讯(编辑 宋子乔)上周,OpenAI创始人阿尔特曼(Sam Altman)确认,现阶段并没有在训练GPT-5,“只是在GPT-4的基础上进行更多的工作”。
“更多的工作”有哪些?布局移动端或是重要一环。
(资料图片仅供参考)
其公司招聘页显示,OpenAI正招募ChatGPT移动终端工程经理,“我们正在寻找一位经验丰富的工程师来帮助建立和领导ChatGPT移动团队。”该领导岗位的年薪在30万美元至50万美元间,还包括“慷慨”的股权赠与和员工福利。OpenAI的移动端布局跨iOS和安卓,将招募安卓软件工程师和iOS软件工程师等。
此前,ChatGPT已经试水移动端。微软于2月份宣布,iOS和安卓端的必应搜索和Edge浏览器均已接入ChatGPT。
ChatGPT登陆移动端无疑有利于触达更多用户。正如微软所说,“如今有64%的搜索都发生在手机上。” 据调研机构Gartner统计,2022年全球电脑出货2.862亿台,手机出货12.8亿部。
另一方面,移动设备厂商也有意引入AI应用为硬件产品增加亮点。据纽约时报消息,三星电子考虑将其设备上的默认搜索引擎由谷歌改为必应。三星是目前全球出货量第一的手机厂商,据估计,谷歌与三星的合同关系到前者近30亿美元的年收入。
不过,以ChatGPT为代表的大模型应用登陆移动端将面临计算资源、网络资源、电量、储存空间和信息安全受限等技术问题。
以大模型的计算需求为例,GPT等模型庞大且计算资源要求高,而手机上没有用来加速AI运算的专业GPU,计算速度远不及电脑,且在移动端运行AI模型需要的大量计算也会迅速耗尽设备电量。
产业端已着手解决这些技术难题,高通、华为致力于实现 AI 大模型在终端的轻量化部署,谷歌、腾讯、百度等已将模型压缩技术紧密结合移动端模型部署框架/工具。
3月2日,高通在MWC2023大会发布全球首个运行在安卓手机上的Stable Diffusion终端侧演示,Stable Diffusion模型参数超过10亿,高通利用其AI软件栈对模型进行量化、编译和硬件加速优化,使其成功在搭载第二代骁龙8移动平台的手机上运行。
华为新一代P60系列手机将于5月上线智慧搜图功能,该功能通过对模型进行小型化处理,实现其在端侧轻量化应用。
谷歌在2018年推出MLKit,核心功能Learn2Compress模型压缩技术结合网络剪枝、量化以及知识蒸馏三项技术,可实现在CIFAR-10图像分类测试任务中生成较NASNet尺寸缩小94倍的轻量化模型,且仍保持90%以上精度。
2018年腾讯推出全球首款自动化深度学习模型压缩框架PocketFlow,2022年百度开源的文心ERNIE-Tiny在线蒸馏方案可得到参数规模仅为原模型0.02%且效果相当的轻量级模型。
华泰证券分析师黄乐平认为,模型压缩技术可在保有大模型原有性能和精度基本不变前提下降低对推理算力的需求,是实现AI大模型在边/端部署的核心技术。伴随模型压缩技术发展,AI将加速与终端设备融合应用。
标签: