展会信息港展会大全

机器视觉领域迎来GPT-3时刻!新模型接连炸场 图像识别门槛大幅降低
来源:互联网   发布日期:2023-04-11 08:19:22   浏览:9041次  

导读:《科创板日报》4月10日讯(编辑 郑远方) 短短一周不到, 视觉领域接连迎来新模型炸场,图像识别门槛大幅降低 这场AI热潮中鲜见动静的Meta终于出手,推出Segment Anything工具,可准确识别图像中的对象, 模型和数据全部开源 ; 国内智源研究院视觉团队也提...

《科创板日报》4月10日讯(编辑 郑远方)短短一周不到,视觉领域接连迎来新模型“炸场”,图像识别门槛大幅降低

这场AI热潮中鲜见动静的Meta终于出手,推出Segment Anything工具,可准确识别图像中的对象,模型和数据全部开源

国内智源研究院视觉团队也提出了通用分割模型SegGPT(Segment Everything in Context),这也是首个利用视觉上下文完成各种分割任务的通用视觉模型

其中,Meta的项目包括模型Segment Anything Model(SAM)、数据集Segment Anything 1-Billion mask dataset(SA-1B),公司称后者是有史以来最大的分割数据集。

引起业内轰动的便是这一SAM模型:

1. 正如名字“Segment Anything”一样,该模型可以用于分割图像中的一切对象,包括训练数据中没有的内容;

2. 交互方面,SAM可使用点击、框癣文字等各种输入提示(prompt),指定要在图像中分割的内容,这也意味着,用于自然语言处理的Prompt模式也开始被应用在计算机视觉领域

3. 对于视频中物体,SAM也能准确识别并快速标记物品的种类、名字、大小,并自动用ID为这些物品进行记录和分类。

机器视觉领域迎来GPT-3时刻!新模型接连炸场 图像识别门槛大幅降低

英伟达人工智能科学家Jim Fan将Meta的这项研究称作计算机视觉领域的“GPT-3时刻”之一其分割方法可以通用,可对不熟悉的物体和图像进行零样本泛化,初步验证了多模态技术路径及其泛化能力

进一步来说,SAM可以灵活集成于更大的AI系统。例如,理解网页的视觉和文本内容;在AR/VR领域,将头显用户视线作为提示来选择对象,然后将其“提升”到3D中;对于内容创作者,SAM可提取图像区域以进行拼贴或视频编辑;SAM还可通过定位动物或物体在视频中进行研究和跟踪。

另一方面,智源研究院视觉团队的SegGPT模型则更偏重于批量化标注分割能力。无论是在图像还是视频环境,用户在画面上标注识别一类物体,即可批量化识别分割出其他所有同类物体。

例如,若在一张图像中标注彩虹,便可将其他图像中的彩虹也一同批量识别分割出来。

机器视觉领域迎来GPT-3时刻!新模型接连炸场 图像识别门槛大幅降低

西部证券指出,Meta此次推出SAM,预示着大模型在多模态发展方面更进一步,布局计算机视觉/视频的厂商有望持续受;还有券商补充称,SAM模型突破了机器视觉底层技术

国盛证券预计,预计1-5年内,多模态发展将带来AI泛化能力提升,通用视觉、通用机械臂、通用物流搬运机器人、行业服务机器人、真正的智能家居会进入生活;5-10年内,结合复杂多模态方案的大模型有望具备完备的与世界交互的能力,在通用机器人、虚拟现实等领域得到应用。

据《科创板日报》不完全统计,A股中有望受益于多模态发展的公司有:

机器视觉领域迎来GPT-3时刻!新模型接连炸场 图像识别门槛大幅降低

(科创板日报 郑远方)

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港