简易的yolo半自动标注工具,目前只支持单目标。
1.LabelSAM:项目源码,请到segment-anything(https://github.com/facebookresearch/segment-anything)
2.segment_anything:segment-anything code
3.images:存放待处理的图片文件,同labelimg的open dir路径。
4.labels:存放生成的标注的标签
5.model:存放SAM的模型文件,去https://github.com/facebookresearch/segment-anything#model-checkpoints下载对应的模型文件。
6.result:存放分割后的图像
7.main.py:项目的示例代码,只需要调整模型的参数达到符合自己任务的需求即可。
vit_h
: ViT-H SAM model.vit_l
: ViT-L SAM model.vit_b
: ViT-B SAM model.
python>=3.8, as well as pytorch>=1.7 and torchvision>=0.8,opencv-python>=4.6.0
用法很简单,源码也加满了注释。直接使用的话可以将待处理图片放入
images/train
标注文件的默认路径在
labels/train
然后运行main.py文件
save_crop=True
resize_img=False
LABEL_NAME="object"
imgDir = r'./images/train'
labelDir = r'./labels/train'
cropDir = r'./result/main'
resizeDir=r'./images/temp'
修改main.py中resize_img=False 更改为 resize_img=True, 并设置降低分辨率倍数factor
main.py中device = 'cuda' 更改为 device = 'cpu'
可以的话能给我个小⭐⭐吗....