YOLOV8识别物体,并返回物体的像素坐标
唐豆豆* 2024-10-04 09:05:02 阅读 78
一、YOLOV8的相关文件修改
1. 进入路径文件:
C:\Users\82370\.conda\envs\Ayolo8\Lib\site-packages\ultralytics\engine\result.py(此处路径为你的anacod安装的虚拟环境Ayolo8位置)
<code>conda create -n Ayolo8 python=3.11 # 虚拟环境安装代码
conda activate Ayolo8 # 激活虚拟环境
pip install ultralytics # 安装相应的ultralytics
2. 打开result.py,补充绘制中心点和标注中心点位置代码
找到相应的函数:annotator.box_label(),右击——转到定义,进入定义函数的文件plotting.py
补充相应的代码
补充代码内容如下,可以直接复制过去:
<code> # 补充代码:
# 在预测图中绘制一个中心坐标红点
# self.im表示圆点绘制的位置,((p1[0]+p2[0])//2,(p1[1]+p2[1])//2)表示坐标位置//表示取整除法
# self.lw表示线宽和半径,(0,0,225)表示颜色
cv2.circle(self.im,((p1[0]+p2[0])//2,(p1[1]+p2[1])//2),self.lw,(0,0,225),self.lw)
# 创建中心点坐标变量
Center = (((p1[0]+p2[0])/2+p1[0]),((p1[1]+p2[1])/2+p1[1]))
# 用于在图像上添加文本
# str(Center)表示要添加的文本内容,
# ((p1[0]+p2[0])//2,(p1[1]+p2[1])//2)表示文本起始点坐标
# 0代表字体类型, self.lw/3表示字体大小,txt.color表示文本颜色
# 4表示线宽,lineType表示线型
cv2.putText(self.im, str(Center),((p1[0]+p2[0])//2,(p1[1]+p2[1])//2),0,
self.lw/3,txt_color,thickness=4,lineType=cv2.LINE_AA)
# # 打印坐标信息
print("左上点的坐标为:(" + str(p1[0]) + "," + str(p1[1]) + "),右上点的坐标为(" + str(p2[0]) + "," + str(
p1[1]) + ")")
print("左下点的坐标为:(" + str(p1[0]) + "," + str(p2[1]) + "),右下点的坐标为(" + str(p2[0]) + "," + str(
p2[1]) + ")")
print("中心点的坐标为:(" + str((p2[0] - p1[0]) / 2 + p1[0]) + "," + str((p2[1] - p1[1]) / 2 + p1[1]) + ")")
二、获取像素坐标示例
运行test.py文件
# 导入openCV库,实现相应的图片读写
import cv2 # 导入openCV库的代码
# 下载图片
import numpy as np # 使用np作为numpy库的别名
import urllib.request # 通过导入request模块,我们可以使用它提供的功能来发送HTTP请求、获取网页内容等。
from ultralytics import YOLO # 将YOLOv8导入到该py文件中
# 加载官方或自定义模型
model = YOLO(r"E:\Deep learning\YOLOv8\yolov8n.pt") # 加载一个官方的检测模型
color_3 = cv2.imread('3.jpeg')
source=[color_3]
results = model.predict(source, save=True, show_conf=False)
color_3 = results[0].plot() # 在图像上添加色彩帧(追踪结果)
cv2.imshow('my_img_name_3', color_3)
参考博文:(博文写的非常详细,参考价值高👍)
YOLOv8、YOLOv8_OBB输出detect检测到的目标坐标信息_yolov8输出预测框的坐标-CSDN博客
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。