(相关资料图)
编程客栈()4月6日 消息:Meta在人工智能方面有很大的野心,但却一直追不上OpenAI、微软甚至是谷歌的步伐。现在,这家公司发布了最新AI模型,可从图像中识别单个python物体。
当地时间周三,Meta发布了其新的基于 AI 的 Segment Anything Model (SAM) ,该模型具有识别和分离图像和视频中的特定对象的功能。
目前,市面上已经有不少工具具备从图像中删除不需要的物体的功能,并且使用人工智能模型来查找和替换照片中的物体。从Segment Anything Model演示的测试中,Meta的产品更进了一步。比如,通过使用SAM,用户可以通过点击物体或输入文字提示选中编辑的物体。在测试演示中,输入“猫”这个词后,该工具在一张照片中的几只猫周围绘制了方框。
更让人意外的是,Meta开源了SAM模型,并进一步提供了其10亿掩码数据集的完整细节,该公司声称这是“有史以来最大的分段数据集”。这个SA-1B是一个语义分割数据集,它对图像中的每个像素进行分类,从而更容易对照片进行风格化或删除对象。根据Meta的说法,该系统本身在1100万编程客栈张图像上进行训练,平均每张图像有1js00个掩码。
根据Meta关于SAM的研究论文指出,数据集使用了“来自与摄影师直接合作的提供商”的图像,但并没有具体说明是哪个提供商。系统训练的一些图像包括人脸和车牌等等。
SAM可以用于AR或VR功能,通过用户的注视来识别物体,这对Meta的AR耳机和眼镜的发展来说非常重要。
据了解,Meta已经在内部使用与SAM类似的技术,用于标记照片、审核违禁内容以及确定向Facebookjavascript和Instagram用户推荐哪些帖子等。公司表示,SAM的发布将扩大对这类技术的应用。
Segment Anything Model 网址:https://segment-anything.com/
标签: