展会信息港展会大全

一场脑机接口的大赛,看到时代需要的「AI超级底座」
来源:互联网   发布日期:2023-08-23 18:11:16   浏览:12217次  

导读:机器之心原创 作者:蛋酱 「AI 超级底座」有什么价值?小到一场竞赛,大到整个产业。 从 2022 年开始,大模型就成为了最热门的技术关键词,这种热度显然辐射到了多个相关领域。比如,在近日召开的 2023 世界机器人大会上,「大模型 + 机器人」就成为现场讨论...

机器之心原创

作者:蛋酱

「AI 超级底座」有什么价值?小到一场竞赛,大到整个产业。

从 2022 年开始,大模型就成为了最热门的技术关键词,这种热度显然辐射到了多个相关领域。比如,在近日召开的 2023 世界机器人大会上,「大模型 + 机器人」就成为现场讨论最多的话题。

这几天,不管是后空翻的四足机器狗,还是吟诗互动的人形机器人,都给到场的观众留下了深刻的印象。如果你也在现场,一定还会关注到这掣热火朝天」的技术大赛:戴上脑电帽,双手平放只靠「意念」打字、控制机械臂,甚至指挥无人机,即使是在这掣黑科技」众多的机器人盛会中也格外吸睛。

一场脑机接口的大赛,看到时代需要的「AI超级底座」

这是「世界机器人大赛 BCI 脑控机器人大赛」连续举办的第七年。很多人可能不知道,在 2022 年之前,由于赛事系统只能同时支撑十几支队伍本地参赛,所以比赛的举办规模一直受到限制。

而从去年开始,比赛报名、赛题发布、数据建模、算法训练、算法验证等流程成功上云,使得报名规模一下子提升了超过 50%。今年,大家的参赛热情不减:共有 67 所高校的 200 + 支队伍参与,其中,来自机械科学、人工智能、计算机科学专业的参赛者数量最多。

在赛事上云之前,选手们无法在赛场上使用需要 GPU 算力进行深度学习训练与推理的创新算法。但现在,每一位参赛选手都拥有充足的计算资源在比赛中去验证自己的技术设想。

这几百支队伍的每一次算法更改、调试,背后都是腾讯云在提供算力支持。

支撑一场 200 支队伍的赛事

需要怎样的云端算力?

脑机接口是通过生物电信号实现直接人机交互的方法,是一门涉及计算机科学、神经科学的前沿技术,在医疗、养老、助残、康复等领域具备巨大前景和广阔市场应用基矗比如,医院可通过脑机接口识别情绪后即时提供心理健康建议、残疾人士可利用脑机接口控制轮椅完成意念打字进行日常交流等。

在这些方向上,也已经出现了一些产业化落地的探索。比如马斯克成立的 Neuralink 就希望借助这项技术帮助视障和行动不便人士,恢复视力和行动能力。今年 5 月,Neuralink 获准进行脑机接口人体试验,意味着脑机接口技术进入了一个新的阶段。

不过,目前的脑机接口技术进展距离大规模产业化仍有一定距离。很多实验室都在投入脑机接口项目的研究,但暂时仅用于基础科研。中国十分注重脑机接口的产业化发展,2023 年 5 月底,工信部宣布,将把脑机接口作为培育未来产业发展的重要方向,加强脑机接口应用场景探索,加速推动脑机接口产业发展。

想要推动这项技术的产业化落地,除了政策上的重视之外,培养脑机接口人才也是重要的途径之一。这也是「BCI 脑控机器人大赛技术赛」举办的初衷。

今年,大赛以脑机接口实用系统为背景,围绕 SSVEP、P300、运动想象三个主要范式及脑机接口技术应用方向设置了技术赛及技能赛,希望从准确度、速度、实用性、技术性等多维度提高脑机接口技术在信号识别、医疗康复、心理健康等各领域的技术与产业发展。

经过激烈比拼,来自香港大学和澳门大学的港澳联队获得了本次 BCI 脑控机器人大赛「腾讯云杯」技术赛枕叶脑机赛题、脑机对抗安全赛题等的多项冠军。

一场脑机接口的大赛,看到时代需要的「AI超级底座」

「比赛中对于算力的需求是动态的,线上赛阶段对算法的时间要求比较宽泛,而线下赛阶段需要对数据做实时处理,所以我们对高性能算力有很强的需求,有很多深度学习的模型都非常消耗算力。」斩获多项赛题冠军的港澳联队表示。

在赛事中,腾讯云异构计算所提供的公有云服务 ,让参赛者们感觉「如虎添翼」。腾讯云为比赛提供了强大稳定的算力支持,选手能够使用基于 GPU 算力的深度学习算法对比赛中的大量数据进行训练。

想要探索场景应用,还需要真实的场景数据。有赖于腾讯云的加持,2023BCI 脑控机器人大赛中首次引入了真实病人脑电科研数据,让参赛者们能够真正接触到大量科研级别的数据资源。

正在这样的支持下,很多参赛队员能够将更具创意的想法在比赛中尝试去实现,「BCI 脑控机器人大赛技术赛」也从一场十几支队伍的小规模比赛走向了大平台模式,实现了对接科研与产业的价值。脑机接口技术的上云,进一步降低了科研与产业融合的门槛,未来将极大推动在医疗、养老、助残、康复等领域的产业应用。

另外,这一次的官方竞赛数据将作为我国脑机接口领域重要研究成果全程保留记录,技术赛的决赛数据和有关算法分析文章也将收录在清华大学的 Brain Science Advances 专刊中,推动脑机接口技术未来通过高性能云服务在医疗场景甚至日常生活中更快地实现应用转化。

竞赛同期还举办了 2023 世界机器人大会脑控机器人挑战活动,并创造了本年度的脑控打字、脑控无人机赛会纪录。来自天津大学的选手实现了 10.049bits/min 的键盘手控无人机效率,与手控无人机效率相当;来自清华大学的选手在触屏 - 脑机输入速度桃战中获得了平均 1.43 字符 / 秒的成绩,接近现场观众手机触屏打字速度。

大算力时代,需要怎样的 AI 超级底座?

像这样为一场两百支队伍规模的机器人比赛提供服务,仅是腾讯云的众多「微型实践」之一。

在 IDC 近日发布的《中国人工智能公有云服务市场份额 2022》报告中,腾讯云凭借其 2022 年在计算机视觉、对话式 AI 等领域的领先优势,营收增速达到 124.6%,成为国内收入增速最快的公有云厂商。

同时,作为拥有产品品类最多的云服务商之一,腾讯云所提供计算服务的客户目前已遍布全球。与一线客户群体需求的密切接触,让腾讯云更早洞察到云计算服务领域的每一个变化趋势。

显然,变化的速度近年来不断加快:通用大模型时代到来了,AI 正在从 1.0 时代过渡到 2.0 时代。大模型的共同特点是:数据量巨大,模型参数量巨大,所需算力也是巨大的。当 AI 产业落地大规模铺开,这对传统的云计算基础设施是不可回避的考验。

一场脑机接口的大赛,看到时代需要的「AI超级底座」

众所周知的 AI 三要素中,算力平台是核心基矗几年前,单卡或者单机就能完成模型的训练,但在今天,大模型的参数动辄几十上百亿,训练大模型的算力标配是千卡甚至万卡,很多人只能感叹一句「玩不起」。同时,单体服务器提供的算力也很有限,大规模、分布式的高性能计算集群成为「刚需」。

另一方面,在大模型技术的推动下,数据量呈爆炸式增长,然而很多数据都是非结构化的,想要高效率、低成本地处理数据,面临着很多困难。

曾经的云计算,重视的是单机单卡的性能、标量数据的结构化精准检索以及云原生带来的自动调度。今后,关注点已经转移到了集群性能的提升、向量数据的存储与检索以及自动容错能力。

在这样的需求下,云基础设施底座的设计范式必须随之进化。

全球的科技公司都在加码布局新一代的算力基础设施,腾讯云的技术底座也在不断升级和变革。大模型时代,数据、网络、算力构成了底层基础设施的三要素,而HCC 高性能计算集群、星脉高性能计算网络以及向量数据库,就组成了腾讯云的「AI 超级底座」。

首先就是打造云上算力集群的问题。今年 4 月,腾讯云正式推出了高性能计算集群产品 HCC。该集群采用腾讯云星星海自研服务器,搭载最新代次 GPU,服务器之间采用 3.2T 互联带宽,通过对单机算力、网络架构和存储性能进行协同优化,提供高性能、高带宽和低延迟的集群算力。

在非稀疏规格条件下,新一代集群单 GPU 卡支持输出最高 495 TFlops(TF32)、989 TFlops (FP16/BF16)、1979 TFlops(FP8)的算力。

一场脑机接口的大赛,看到时代需要的「AI超级底座」

实测显示,腾讯云新一代集群的算力性能较前代提升高达 3 倍。去年 10 月,腾讯完成了万亿参数混元 NLP 大模型的训练,在同等数据集下,上一代腾讯云 HCC 集群将训练时间由 50 天缩短到了 11 天。如果是在基于新一代集群的情况下,训练时间将进一步缩短至 4 天。

一场脑机接口的大赛,看到时代需要的「AI超级底座」

随着集群规模扩大,通信性能会直接影响训练效率。特别是参数达到千亿、万亿级别的 AI 大模型,需要大带宽、高利用率、无损的网络来帮助其高效地完成训练任务。

腾讯自研的星脉高性能计算网络利用自研交换机构建了超大规模网络架构,具备业界最高的 3.2T 通信带宽,能提升 40% 的 GPU 利用率,节省 30%~60% 的模型训练成本,为 AI 大模型带来 10 倍通信性能提升。基于腾讯云新一代算力集群 HCC,可支持 10 万卡的超大计算规模。

实测结果显示,搭载同样的 GPU,最新的 3.2T 星脉网络相较 1.6T 网络,能让集群整体算力提升 20%。

一场脑机接口的大赛,看到时代需要的「AI超级底座」

此外,今年 7 月,腾讯云推出了向量数据库 ( Tencent Cloud VectorDB),这是国内首个从接入层、计算层、到存储层提供全生命周期 AI 化的向量数据库。

随着人工智能技术的快速发展,传统的关系型数据库在处理向量数据时存在一些瓶颈,而向量数据库则能够更好地满足这些应用的需求。腾讯云向量数据库具备强大的性能和规模优势:不仅支持高达 10 亿级的向量检索规模,并将延迟控制在毫秒级,相比传统的单机插件式数据库检索规模提升了 10 倍。同时,腾讯云向量数据库还具备百万级每秒查询(QPS)的峰值能力。经过腾讯内部海量场景的实践,数据接入 AI 的效率也比传统方案提升 10 倍,运行稳定性高达 99.99%。

从前沿科技到真正的生产力

很多科技厂商都选择从 MaaS(Model-as-a-Service)模式切入大模型之战,这也是腾讯云选择的道路。在「AI 超级底座」之上,腾讯云搭建了行业大模型 MaaS 服务,包括金融、政府、文旅、传媒、教育等。基于这些基础模型,腾讯云的客户只要加入自己的场景数据,就可以生成契合自身业务需要的专属模型。

与其造出自己的大模型,对于很多厂商来说,不如构建一套自上而下的大模型生态工具,助力行业用户释放大模型的生产力,加速产业落地。MaaS 可以帮助更多中小客户更轻松地接入大模型,并在此基础上发挥自身长处,从实际需求出发高效利用大模型能力。

正如这场比赛,脑机接口是一门关于计算机科学、神经科学的前沿技术,研究成果很容易被限于实验室之内,但在上云之后,一些创意和灵感就能真正转化为大规模的医疗、养老、助残、康复等领域的产业应用。

腾讯云的「AI 超级底座」所提供的大模型高性能计算集群、计算网络以及向量数据库,都是技术转化为生产力的基矗

或许在不久的将来,我们就能在腾讯云的服务中看到来自这场比赛的算法成果。脑机接口走进普通人生活,还会远吗?

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港