본문 바로가기

프로젝트 기록176

[YOLOv5] 학습된 모델파일(best.pt) 파이참에서 불러와서 관심영역 객체 detect 보호되어 있는 글 입니다. 2023. 5. 16.
[YOLOv5] 창문 밖 머리, 손 탐지(관심영역 밖 라벨링, 그냥 라벨링)/ 코랩 학습파일 내보내기 [1] 그냥 라벨링 (전체) 학습환경: COLAB !git clone https://github.com/ultralytics/yolov5 %cd yolov5 !pip install -r requirements.txt 실행 -> yolov5 폴더 생김 from google.colab import drive drive.mount('/content/drive') 구글 드라이브와 연동 (코랩은 yolov5 - data 폴더에 새로운 폴더 만들고(폴더명: 230516_test) roboflow에서 이렇게 export한 데이터셋 압축본 넣기 !unzip ./data/230516_test/head-hands.zip -d ./data/230516_test/ 압축 해제 체크한 곳: 데이터 압축파일 넣은 곳 위 코드 실행.. 2023. 5. 16.
overfitting방지 정규화 기법- 데이터증강, dropout, 가중치 감 보호되어 있는 글 입니다. 2023. 5. 16.
[YOLOv5] 좌표 구하고, 관심 영역 설정하고, 해당 영역 yolov5 탐지 한번에 여러개를 감지할려면, 각각 학습시킨 다음 병렬로 처리해서? 우리도 정상상태를 학습시키고 \, 튕너ㅏ올수있는것들을 각각 학습시켜서 뭔지 판별한다? 정상상태 자체를 학습시키고, 뭐가 창밖으로 튀어나왔 1. 이미지에서 관심영역 설정할 좌표를 찾기 ver1.(x,y)형식, 초록 점 화면에 찍힘 아래 코드 실행시키고, 이미지 찍으면 콘솔 결과창에 좌표가 표시됨 import cv2 ref_points = [] def click_event(event, x, y, flags, param): if event == cv2.EVENT_LBUTTONDOWN: ref_points.append((x, y)) print(f"좌표: ({x}, {y})") cv2.circle(image, (x, y), 5, (0, 255, 0.. 2023. 5. 15.
[YOLOv5] 모델 학습/평가 후 얻는것, 과정 요약 보호되어 있는 글 입니다. 2023. 5. 15.
[YOLOv5] 코랩 GPU가속으로 학습시키기 가장 먼저 파일> 새 노트북 만들기 런타임> 런타임 유형 변경>GPU선택 을 해야한다. 0. 파일 바로 코랩 디렉토리에 넣기 content > yolov5 > data > test01_custom 폴더에 YOLOv5용 데이터셋 압축파일을 넣은 다음, 시작했다. 1. YOLO v5 설치 !git clone https://github.com/ultralytics/yolov5 %cd yolov5 !pip install -r requirements.txt 2. 업로드한 파일 압축 해제 !unzip ./data/test01_custom/test01_custom.zip -d ./data/test01_custom/ 3. yaml파일 경로를 코랩 환경에 맞게 변경 (원래는 로컬 파일 경로였음) import yaml w.. 2023. 5. 14.