반응형

2023/02/26 3

YOLOv8 imagesegmentation

Ultralytics YOLOv8은Ultralytics 에서 개발한 YOLO(You Only Look Once) 객체 감지 및 이미지 분할 모델의 최신 버전입니다. YOLOv8은 이전 YOLO 버전의 성공을 바탕으로 새로운 기능과 개선 사항을 도입하여 성능과 유연성을 더욱 향상시키는 최첨단 SOTA(최신 기술) 모델입니다. https://docs.ultralytics.com/ YOLOv8 Docs Home Welcome to the Ultralytics YOLOv8 documentation landing page! Ultralytics YOLOv8 is the latest version of the YOLO (You Only Look Once) object detection and image segmen..

영상처리/기초 2023.02.26

영상 요약해주는 Vision Transformer 모델

22분 짜리 영상을 1분으로 요약하는 ViT모델 데이터 데이터 분야 - AI 데이터찾기 - AI-Hub (aihub.or.kr) AI-Hub 샘플 데이터 ? ※샘플데이터는 데이터의 이해를 돕기 위해 별도로 가공하여 제공하는 정보로써 원본 데이터와 차이가 있을 수 있으며, 데이터에 따라서 민감한 정보는 일부 마스킹(*) 처리가 되 aihub.or.kr 학습모델 영상요약모델 - Google Drive 영상요약모델 - Google Drive 이 폴더에 파일이 없습니다.이 폴더에 파일을 추가하려면 로그인하세요. drive.google.com run import torch from training.summary.datamodule import SummaryDataset from transformers import..

영상처리/기초 2023.02.26

Vision Transformer(ViT) 리뷰

Transformer 기존 sequence transduction model들은 인코더와 디코더를 포함한 복잡한 recurrent 나 cnn에 기반함 가장 성능이 좋은 모델 또한 attention mechanism으로 인코더와 디코더를 연결한 구조임 "Transformer" : 온전히 attention mechanism에만 기반한 구조. (recurrence 나 convolution은 사용하지 않음) - 더 parallelizable하고, 훨씬 적은 학습 시간이 걸림 Vision Transformer Transformer 가 원래는 언어 모델인데 언어모델에 이미지를 분할해서 input으로 넣어준게 Vision Transformer입니다. 줄여서 ViT라고 합니다. ViT의 특징 - 기존 CNN 기반 SO..

영상처리/기초 2023.02.26