본문 바로가기

분류 전체보기

(12)
이미지&객체탐지관련 알고리즘 조사 Mask RCNN: Mask RCNN은 이미지 내 개별 객체를 분리하고 분류하는 데 효과적인 알고리즘입니다. 이는 Faster R-CNN을 기반으로 하며, ResNeXt-101과 FPN을 사용하여 특징 추출을 강화합니다. 또한, Mask RCNN은 객체의 정확한 영역을 예측하기 위해 ROIAlign 레이어를 도입했습니다. 이 레이어는 정확도를 높이는 데 중요한 역할을 합니다 객체 감지 영역에서 딥 러닝을 최초로 적용한 사례입니다. 알고리즘의 핵심 아이디어는 간단합니다. 모든 이미지에 대해 RCNN은 초기에 선택적 검색 알고리즘을 사용하여 약 2000개의 후보 영역을 생성합니다. 이러한 영역은 일관된 차원으로 크기가 조정되고 이후 CNN(Convolutional Neural Network)을 사용하여 해당..
AI에 대한 자신의 생각 정리 인공지능, 또는 AI는 오늘날 우리 생활의 필수적인 부분이 되었습니다. 처음에 1950년대에 소개된 이 용어는 기계가 인간의 지능을 모방하는 기술을 의미합니다. AI는 학습, 추론, 인식, 문제 해결 등 인간의 지능을 모방하고 실행하는 컴퓨터 기술입니다. 이 기술은 빠르게 발전하고 있으며, 다양한 분야에서 중요한 역할을 하고 있습니다. 자동차부터 의료 분야에 이르기까지, AI는 우리의 생활을 더 편리하고 효율적이며 안전하게 만들고 있습니다. 스마트폰의 음성 인식 기능부터 자율 주행 자동차까지, AI 기술은 일상의 많은 부분을 혁신하고 있습니다. AI는 대규모 데이터 분석과 예측에서 인간의 능력을 초월하여 비즈니스 의사결정과 과학 연구에도 중요한 역할을 합니다. AI 기술은 규칙 기반 시스템에서 시작해 머..
Fine-tuning Fine-tuning 기존에 학습되어져 있는 모델을 기반으로 아키텍처를 새로운 목적(나의 이미지 데이터에 맞게)변형하고 이미 학습된 모델 Weights로 부터 학습을 업데이트하는 방법 Strategy 1 - 모델 전체를 활용하는 전략: 이 전략에서는 사전 학습된 CNN 모델(예: VGG, ResNet 등)의 모든 층을 사용한다. 모델의 합성곱 기반 층(Conv Base)과 분류기(Classifier) 모두를 새 데이터셋에 맞게 파인 튜닝한다. 이 방법은 데이터셋이 크고 복잡할 때 유용하며, 모델이 새로운 데이터에 맞춰 완전히 재학습한다. Strategy 2 - 일부만 학습시키는 전략: 사전 학습된 CNN의 첫 번째 부분(Conv Base1)은 그대로 유지하고, 두 번째 부분(Conv Base2)와 분류기..
인공지능개론 - 성능지표(F1-score/ mAP/ IoU) 오차 행렬 (Confusion Matrix) Accuracy(정확도) 균형 데이터(balanced) → accuracy를 평가 척도로 사용해도 괜찮음 불균형 데이터(imbalanced) → accuracy 만으로 성능 판단 하지 못하기때문에 Precision(정밀도)과 Recall(재현율) 사용 Precision(정밀도) 긍정으로 예측한 것 중 실제로 맞춘 비율 Recall(재현도) Recall 값으로, 실제 정답을 얼마나 잘 예측했는지를 나타내는 지표 예시 A(200)B(10)C(10)D(10) 정확도=모델1(0.547)/모델2(0.87) F1-score = 모델1(0.601)/모델2(0.34) 다중 class에서 f1-score이 구하는법 mAP mAP는 AP(Average Precision)의 평균..
인공지능개론 - 자연어 및 자연어 처리 task 조사하기 발전 과정 NLP 발전 RNN (1986): 순환 신경망(Recurrent Neural Network)을 의미하며, 시퀀스 데이터 처리에 유용하게 사용되는 신경망의 한 형태입니다. LSTM (1997): 장단기 메모리(Long Short-Term Memory)를 의미하며, RNN의 한 변형으로, 시퀀스 데이터에서 장기 의존성 문제를 해결하기 위해 고안되었습니다. Seq2Seq (NIPS 2014): 시퀀스-투-시퀀스 모델로, 두 개의 RNN을 연결하여 하나는 입력 시퀀스를 처리하고 다른 하나는 출력 시퀀스를 생성하는 구조입니다. Attention (ICLR 2015): 어텐션 메커니즘은 주어진 문맥에서 중요한 부분에 '주목'하여 처리하는 기법으로, 시퀀스 모델의 성능을 향상시키는 데 도움을 줍니다. Tr..
AI기초프로젝트 3주차 과제 - Naver Shopping Review Sentiment Analysis 1. Colab에 Mecab 설치 여기서는 형태소 분석기 Mecab을 사용합니다. 저자의 경우 Mecab을 편하게 사용하기 위해서 구글의 Colab을 사용하였습니다. 참고로 Colab에서 실습하는 경우가 아니라면 아래의 방법으로 Mecab이 설치되지 않습니다. 이 경우 해당 환경에 맞게 Mecab을 설치하시거나 다른 형태소 분석기를 사용하시기 바랍니다. # Colab에 Mecab 설치/ 형태소 분석기 Mecab을 사용 !pip install konlpy !pip install mecab-python !bash
기말 프로젝트 주제: 뉴스 데이터의 감성 분석을 이용한 모델 성능 비교 방법: 소비자들의 기업에 대한 인식과 같은 기업에 대한 감성을 분석하고 주가 예측 모델에 적용. n기업에 대한 감성 지표를 알 수 있는 뉴스 데이터를 수집하고 여러 모델에 성능 비교. >뉴스 데이터를 벡터화 SVM (Support Vector Machine) : 분류와 회귀 분석에 사용되는 지도 학습 모델이다. 데이터를 분류하기 위해 결정 경계(하이퍼플레인)을 찾으며, 이 경계는 서로 다른 클래스의 데이터를 최대한 멀리 떨어지게 하는 방식으로 설정한다. 입력 변수로 뉴스 데이터 전문을 벡터화하여 사용하는 것보다 summarization하여 사용하는 것이 더 좋은 성능을 끌어낸다 RNN: 시간에 따라 변하는 주가 데이터와 뉴스 기사 내용을 분석하는 ..
Attention Is All You Need 참조:https://arxiv.org/pdf/1706.03762.pdf HISTORY 1. RNN (Recurrent Neural Networks, 1986): 시퀀스 모델링의 초기 형태로 순환 신경망(RNN)이 등장했습니다. 시간적 의존성을 모델링할 수 있어 다양한 응용 분야에서 활용되었으나, 긴 시퀀스를 다루거나 장기 의존성(Long-Term Dependencies)을 처리하는 데 어려움이 있었습니다. 2. LSTM (Long Short-Term Memory, 1997): LSTM은 RNN의 한계를 극복하기 위해 제안된 모델로, 장기 의존성 모델링이 가능합니다. 주가 예측 및 주기 함수 예측과 같은 시계열 데이터 예측 문제에 적용되며 많은 응용 분야에서 좋은 성과를 얻었습니다. 3. Seq2Seq (..
AI기초프로젝트 5주차 과제 - 감성Fine-tuning 감성분석 Fine-tuning해보기 AI기초 프로잭트 5주차 과제 -1 코랩에서 PyTorch와 Hugging Face Transformers 라이브러리를 사용하여 학습하였습니다.(GPU사용) 학습 과정 (데이터 전처리, 모델 구성, 학습) 1.데이터셋 다운로 !pip install transformers !wget https://raw.githubusercontent.com/e9t/nsmc/master/ratings_test.txt !wget https://raw.githubusercontent.com/e9t/nsmc/master/ratings_train.txt 먼저 HuggingFace Transformers 패키지를 설치한 다음, NSMC 데이터셋을 다운로드합니다. 데이터셋은 "ratings_tra..
AI기초프로젝트 4주차 과제 - Transfer Learning for Computer Vision Tutorial ConvNet 미세조정(Finetuning) 사전 훈련된 네트워크로 초기화: 무작위 초기화 대신, ImageNet 1000 데이터셋과 같은 사전 훈련된 네트워크를 사용하여 네트워크를 초기화합니다. 통상적인 훈련 수행: 네트워크의 나머지 부분은 보통 훈련 과정을 거칩니다. 이는 사전 훈련된 네트워크의 가중치를 조정하여 새로운 데이터셋에 더 잘 맞도록 하는 과정을 포함합니다. ConvNet을 고정된 특징 추출기로 사용 네트워크의 대부분의 가중치 고정: 네트워크의 마지막 완전 연결 계층을 제외한 모든 계층의 가중치를 고정합니다. 마지막 완전 연결 계층 교체 및 훈련: 마지막 완전 연결 계층을 새로운 계층으로 교체하고, 이 새로운 계층의 가중치만 무작위로 초기화하여 훈련합니다. 이 계층은 새로운 데이터셋에 특화..