当先锋百科网

首页 1 2 3 4 5 6 7

一、使用说明

模型:YOLOv5

软件:pycharm

python版本:3.7

opencv版本:4.7.0.68

是否使用了GPU版本:是

二、美化框角

  1. 我们打开yolo项目下的plots.py文件

yolov5-master/utils/plots.py

2、我们首先在第96行代码下进行添加一些内容

corner_color = (0, 255, 0)
# Top Left
cv2.line(self.im, (int(box[0]), int(box[1])), (int(box[0]) + 20, int(box[1])), corner_color, thickness=3)
cv2.line(self.im, (int(box[0]), int(box[1])), (int(box[0]), int(box[1]) + 20), corner_color, thickness=3)
# Top Right
cv2.line(self.im, (int(box[2]), int(box[1])), (int(box[2]) - 20, int(box[1])), corner_color, thickness=3)
cv2.line(self.im, (int(box[2]), int(box[1])), (int(box[2]), int(box[1]) + 20), corner_color, thickness=3)
# Bottom Left
cv2.line(self.im, (int(box[0]), int(box[3])), (int(box[0]) + 20, int(box[3])), corner_color, thickness=3)
cv2.line(self.im, (int(box[0]), int(box[3])), (int(box[0]), int(box[3]) - 20), corner_color, thickness=3)
# Bottom Right
cv2.line(self.im, (int(box[2]), int(box[3])), (int(box[2]) - 20, int(box[3])), corner_color, thickness=3)
cv2.line(self.im, (int(box[2]), int(box[3])), (int(box[2]), int(box[3]) - 20), corner_color, thickness=3)

3、我们对代码的细节进行说明一下

corner_color = (0, 255, 0)#这是根据RGB的值进行设置的绿色
cv2.line()#这里用的是opencv里面的划线函数,并带有以下五个参数
#img:要划的线所在的图像;
#pt1:直线起点
#pt2:直线终点  (坐标分别为宽、高,opencv中图像的坐标原点在左上角)
#color:直线的颜色
#thickness=1:线条粗细,默认是1.如果一个闭合图形设置为-1,那么整个图形就会被填充

4、我们运行一下detect.py看一下效果,我这里是使用的一个对猫识别的模型进行的测试。

5、效果说明:我们对边框的四个角进行了添加绿色标定。

三、美化标签

  1. 对YOLO标签进行透明化处理

我们还是打开刚刚的plots.py文件,找到116行,然后我们直接给他注释掉。

  1. 运行detect.py展示一下效果

  1. 效果说明,透明化标签处理,显得比原版的模型标签更清晰一点。

四、美化线条

  1. 对YOLO的线条框进行美化

我们还是打开刚刚的plots.py文件,找到96行,然后改成以下内容

cv2.rectangle(self.im, p1, p2, color, 1, lineType=cv2.LINE_AA)#thickness=self.lw

原理就是无视掉YOLO的划线规则,我们直接对线条框的粗细进行设置(我这里直接改成默认值1)

  1. 看一下效果

五、美化准星

1.在plots.py文件的第109行,我们再接着插入以下代码

#Aim
p5 = (int((int(box[0])+int(box[2]))/2)-10, int((int(box[1])+int(box[3]))/2))
p6 = (int((int(box[0])+int(box[2]))/2)+10, int((int(box[1])+int(box[3]))/2))
p7 = (int((int(box[0]) + int(box[2])) / 2) , int((int(box[1]) + int(box[3])) / 2)+10)
p8 = (int((int(box[0]) + int(box[2])) / 2) , int((int(box[1]) + int(box[3])) / 2)-10)
cv2.line(self.im, p5, p6, corner_color, thickness=2)
cv2.line(self.im, p7, p8, corner_color, thickness=2)

2.看一下运行效果

六、显示统计

1.如何对YOLO识别到的物体进行计数,这部分需要进行修改一下detect.py部分的代码

找到第239行,在下面加上以下代码。

cv2.putText(im0, 'Find_Stream:'f"{n} {names[int(c)]}{'s' * (n > 1)}", (5, 25), cv2.FONT_HERSHEY_SIMPLEX, 1,(0, 0, 255), 2)

2.展示一下效果

3.说明,上述代码只是适用于只有一个物体的目标检测模型。

4.接着,如果是多个物体的检测,我们可以这样修改

# Process predictions
        for i, det in enumerate(pred):  # per image
            seen += 1
            if webcam:  # batch_size >= 1
                p, s, im0, frame = path[i], f'{i}: ', im0s[i].copy(), dataset.count
            else:
                p, s, im0, frame = path, '', im0s.copy(), getattr(dataset, 'frame', 0)

            p = Path(p)  # to Path
            save_path = str(save_dir / p.name)  # img.jpg
            txt_path = str(save_dir / 'labels' / p.stem) + ('' if dataset.mode == 'image' else f'_{frame}')  # img.txt
            s += '%gx%g ' % img.shape[2:]  # print string
            gn = torch.tensor(im0.shape)[[1, 0, 1, 0]]  # normalization gain whwh
            imc = im0.copy() if save_crop else im0  # for save_crop
            annotator = Annotator(im0, line_width=line_thickness, example=str(names))
            if len(det):
                # Rescale boxes from img_size to im0 size
                det[:, :4] = scale_coords(img.shape[2:], det[:, :4], im0.shape).round()
                Results = "Find_Stream:"

                # Print results
                for c in det[:, -1].unique():
                    n = (det[:, -1] == c).sum()  # detections per class
                    s += f"{n} {names[int(c)]}{'s' * (n > 1)}, "  # add to string
                    Results += '\n' +f"{n}{names[int(c)]}"

                # Write results
                for *xyxy, conf, cls in reversed(det):
                    if save_txt:  # Write to file
                        xywh = (xyxy2xywh(torch.tensor(xyxy).view(1, 4)) / gn).view(-1).tolist()  # normalized xywh
                        line = (cls, *xywh, conf) if save_conf else (cls, *xywh)  # label format
                        with open(txt_path + '.txt', 'a') as f:
                            f.write(('%g ' * len(line)).rstrip() % line + '\n')

                    if save_img or save_crop or view_img:  # Add bbox to image
                        c = int(cls)  # integer class
                        label = None if hide_labels else (names[c] if hide_conf else f'{names[c]} {conf:.2f}')
                        annotator.box_label(xyxy, label, color=colors(c, True))
                        if save_crop:
                            save_one_box(xyxy, imc, file=save_dir / 'crops' / names[c] / f'{p.stem}.jpg', BGR=True)

            # Print time (inference-only)
            print(f'{s}Done. ({t3 - t2:.3f}s)')

            # Stream results
            im0 = annotator.result()
            if view_img:
                cv2.imshow(str(p), im0)
                cv2.waitKey(1)  # 1 millisecond

            # Save results (image with detections)
            if save_img:
                #cv2.putText(im0, 'Find_Stream:'f"{n} {names[int(c)]}{'s' * (n > 1)}", (5, 25), cv2.FONT_HERSHEY_SIMPLEX, 1,(0, 0, 255), 2)  # 检测一个类别就用这个
                y0,dy=50,40
                for i,txt in enumerate(Results.split('\n')):
                    y = y0 +dy*i
                    cv2.putText(im0,txt,(5,y),cv2.FONT_HERSHEY_SIMPLEX,0.8,(0,0,0),2)
                if dataset.mode == 'image':
                    cv2.imwrite(save_path, im0)

就是在下面两处这样修改。

5.我们看一下效果,因为手上没有了其他模型,我就先用原来的猫模型再跑一下。

七、透明方框

1.我们在plots.py文件下再加入下面这三行代码

            blk = np.zeros(self.im.shape, np.uint8)
            cv2.rectangle(blk, p1, p2, color, -1)
            self.im = cv2.addWeighted(self.im, 1.0, blk, 0.5, 1)

2.效果展示

八、置信收缩

1.我们对置信度的大小进行对框的线条粗细进行修改

我们在plots.py的第97行左右的代码修改一行

cv2.rectangle(self.im, p1, p2, color,int(label[-2:-1]), lineType=cv2.LINE_AA)#thickness=self.lw

2.效果图如下

我们接下来在测试一下多只不同置信度的猫。