반응형

[매틀랩 예제] vehicle cost map이란 무엇인가

 

1. Vehicle Cost map

- matlab에서는 autonomous driving toolbox에는 vehicle cost map이라는 함수가 존재함
- 차량 주위의 장애물, 환경 정보를 내포하고 있는 2d cost map
- 0에서 1 사이의 값으로 표현되며, cost 값에 따라 Obstacle, Inflated Area, Unkown, Free 공간으로 구분됨
- RRT 알고리즘으로 충돌하지 않는 경로를 생성할 때 활용할 수 있음

2. Vehicle Cost Map 알고리즘 4단계

2.1 충돌반경 선정

- 충돌반경은 일반적으로 차량의 중심에서부터 차량을 완전히 둘러싸는데 필요한 반지름 길이를 선택함
- 경우에 따라 차량의 종방향 부근에 원의 중심을 여러개 나열하고 반지름 길이를 줄여 정확한 충돌 검사를 수행하기도 함

2.2 팽창 반경 그리드셀 변환

- 팽창 반경을 그리드 셀에 표현하게 될 그리드를 완전히 포함하지 않는 영역이 발생함.
- 팽창 반경이 그리드 셀을 조금이라도 지나게 될경우 팽창 반경으로 고려함

 2.3 장애물 팽창반경 확장

- 차량의 제원으로 선정된 팽창반경을 장애물에 반영하여 그리드셀로 표현

2.4 출동 감지

- 차량의 중심 점이 장애물의 충돌반경 안에 들어오면 checkedoccupied =1
- 차량의 중심 점이 장애물의 충돌반경 밖에 있지만, grid cell의 cost값이  Freethreshold 값보다 작으면 free  
- 차량의 중심 점이 장애물의 충돌반경 밖에 있지만, grid cell의 cost값이  Freethreshold 값보다 크면 unkown

3. 응용

- 주변 지형의 높낮이에 따라 vehicle cost map의 값을 높게 선정할 수 있음
- 높게 선정한 cost map  부근에서는 속도가 느리도로 profile을  설계할 수 있음

4. 참조

kr.mathworks.com/help/driving/ref/vehiclecostmap.html

 

Costmap representing planning space around vehicle - MATLAB - MathWorks 한국

귀하의 시스템에 이 예제의 수정된 버전이 있습니다. 이 버전을 대신 여시겠습니까?

kr.mathworks.com

 

반응형
반응형

[유튜브 논문 리뷰] You only look once: Unified, real-time object detection(2015.06)

 

1. 논문의 특징

1.1 Look Only Once
- 이미지 전체를 한번에 봄
- R-CNN은 Region Proposal을 통하여 부분을 보지만 YOLO는 전체를 봄
- 전체를 보기 때문에 예술과 같은 다른 도메인에서 더 성능이 잘 나온다.

1.2  Unified object Detection
- DPM, R-CNN은 localization 과 detection을 각각 학습시킴
- YOLO는 localization과 detection능력을 한번에 regression으로 학습 가능
- YOLO는 한번의 feedfoward로 예측도 수행함 (Only One Feedfoward 한다고 함)

1.3. Real Time
- Fast RCNN  : 7 FPS -> (ROI 추출 시 Region Proposal 을 사용함)
- Yolo : 45 FPS(Pascal VOC 2007로 평가함)
- Fast YOLO : 155FPS

2. 다른 논문과의 차이점

- 이전 DPM, R-CNN의 경우 classification, post processing 을 수행하지만 YOLO는 한번에 추론을 수행함 

2.1 DPM(Deformable Parts Models)
-  sliding window

2.2 R-CNN
- Generate Boudning Boxes : 박스를 무작위로 생성
- Classification :  분류를 수행함
- Post-Processing(refinement, elimentation, rescore) : 후처리를 수행

2.3 YOLO
- Resize Image : 이미지 크기 줄임
- Run Convolutional Network : 추론
- Nonmax suppression : 이미지를 그리드 셀로 분할한 후, 각 그리드 셀은 object detection을 수행함, 이 때, 경계선에서 겹치는 object는 nonmax suppression으로 걸러냄

3. YOLO 특징

3.1. grid cell 생성
-> sxs 개의 grid cell을 생성하며, 논문에서는 7x7 로 나눔
3.2 bounding box (x,y,w,h)
-> 각 cell은 b개의 bounding box를 생성하며, 논문에서는 각 cell 당 2개의 bounding box 를 생성함
-> 학습으로 출력되는 x,y,w,h는 이미지 크기로 나눈 0~1 사이의 값임
3.3 confidence
-> 물체가 많이 포함되어 있는지 비율/ Pr(object) * IOU
->그림에서 confidence 가 높은 bounding box는 진하게 표시를 함 
3.4 class probablity (클례쓰 확률)
-> pr(Class | Object)
-> 각셀은 하나의  class 를 갖고 있다고 판단하므로 각 셀에서 나오는 bounding box는 같은 class를 갖고 있다고 판단
3.5 학습 기법
- 1000 class갖는 image net 데이터로 pretrain으로 학습
- classifier 부분에 fully connected layer 와 CNN을 결합하여 추가 학습  
- input size를 224x224 -> 448x448로 늘려서 학습을 학습
3.6 YOLO Model
- googleLeNet (inception v1) 을 따르고 있음
3.7 tiny YOLO
-  일반 YOLO는 - 24개의 convolution layer + 2 fully connected layer, 1X1 reduction layer 사용
- 최종적으로 confidence 와 class probablity를 곱하여  pr(class) * IOU 를 스코어로 사용함

4.  TRAIN 전략

- epochs = 135
- batch size = 64
- momentum = 0.9
- decay = 0.0005
- learning rate = [0.0001,0.001,0.0001,0.00001]
- dropout rate = 0.5
- argumentation = [scaling, translation, exposure, saturation]

5. NMS(Non Maximum Suppression)

- confidence 와 class probablity 를 곱하여 값이 큰 순서대로 나열함
- 가장 큰 값의 bounding box와 그 다음으로 큰 bounding box를 비교하여 큰 값의 bounding box를 기준으로 IOU가 0.5 이상 겹치면 지워나가는 방식으로 bounding box를 없앰
- 각 class 별로 모두 수행하여 나온 bounding box만 추려냄

6. Loss 함수

- 물체가 있는 bounding box와 없는 bounding box 를 나누어 cost 함수를 구성함
- width 와 hedight는 큰 bounding box의 변화보다  작은 bounding box의 변화에 민감하게 반응하는 것을 없애고자 루트를 씌워서 해결함 

7. YOLO 한계

- 물체의 중심이 같은 경우, 한 그리드 셀은 한가지  class 만 분류하기 때문에 오차가 발생할 수 있음
- 같은 셀 안에 여러개의 물체가 동시에 나타마녀 성능이 좋지 않으므로 이럴 경우 grid cell을 작게할 필요가 있음
- Localization 에러를 항상 포함하고 있음

8. 정리

- 빠름
- end to end learning
- false positive 가 덜 나옴
- 최신 모델보다는 정확도는 떨어짐
- 다른 모델과 결합하였을 때 성능이 더 좋게 나옴을 확인함
- 예술 작품과 같은 다른 도메인에서 성능이 잘 나옴을 확인함


9 Reference

1] 유튜브 내용 :  www.youtube.com/watch?v=eTDcoeqj1_w&t=1057s

2) 논문 원본 : arxiv.org/abs/1506.02640

 

You Only Look Once: Unified, Real-Time Object Detection

We present YOLO, a new approach to object detection. Prior work on object detection repurposes classifiers to perform detection. Instead, we frame object detection as a regression problem to spatially separated bounding boxes and associated class probabili

arxiv.org

 

반응형
반응형

[개념 설명]  Object Detection 평가 방법[2](IOU, AP, mAP)

1. IOU(Intersection Over Union)

의미 그대로 합집합 분에 교집합이며, ground truth bounding box와 predict bounding box의 교집합/합집합으로 평가함

2. mAP(mean Average Precision)

AP는 Precision Recall 그래프를 그리고 Precision값을 평균낸 값이며,mAP는 각 클래스의 Average Precision을 평균낸 값이다.

Precision과 Recall설명은 이전 글에서 자세히 설명하였다.  

 

'AI 유튜브 소개/CNN(Convolutional Neural Network)' 카테고리의 글 목록

Autonomous Vehicle Algorithm & Deep Learning Algorithm (이 블로그는 쿠팡파트너스활동으로 소정의 수수료를 받습니다.)

autonomous-vehicle.tistory.com

2.1. Pascal VOC

- Pascal VOC 대회에서는 IOU가 0.5 이상이면, Positive , 미만이면 Negative라고 판단한다.  
- 이를 기반으로 Precision과 Recall이 계산하며, 이를 그래프에 나열하여 선을 그으면 Precision-Recall그래프가 된다. 

- precision recall 그래프를 그릴 경우 계단 형태가 나오게 되는데, 아래 그림과 같이 직사각형의 모양이 나오도록 max precision 기준으로 interpolation을 수행 후, 0부터 1까지 0.1 Recall 당 Precision값들의 평균을 구하여 AP를 계산할 수 있다.   

- 각 클래스별 구한 Average Precision값을 통합하여 평균 낸 것이 Mean Average Precision이다. 

2.2. COCO dataset

IOU 값이 높은 것은 구분할 필요가 있다고 하여, IOU 가 0.5 이상일 때만 True인 것이 아니라, 0.5~0.95 사이에서 0.05 단위로 threshold값을 높여가며 mAP를 계산한 후 한번 더 평균을 내어 mAP를 계산하는 것을 제안하고 있다. 

3. Obejct Detection 주요 대회

3.1 Pascal VOC란?

a. Pattern Analysis, Statical Modeling and Computational Learning Visual Object Classes Challenge의 약자
b. 2005~2012년 까지 8년에 걸쳐 매년 진행
c. 20가지 물체 분류
d. mark 라는 사람이 주도하여 개최되어 왔는데, 그의 사망으로 인하여 2012년을 마지막으로 종
e. Average Precision 기반으로 평가하는 것이 업계 표준(de facto)이 됨
f.최근에는 벤치마크용으로는 사용되지만, 학습용으론 잘 사용하지 않는다.
g. IOU threshold가 0.5 이상이면 true, 아래면 false 이다.

3.2 ILSVRC 란?

a.  Image Net Large Scale Visual Recognition Challenge 의 약자
b. 2010년~2017년 까지 8년에 걸쳐 매년 진행
c. 2012년 alexnet이후로 Deep Learning 기반 알고리즘이 나오게 됐으며, 2015년 ResNet이후 사람의 능력을 뛰어넘음
d. Alex Net(2012), ZFNet(2013), GoogLeNet(2014), VGG(2014), ResNet(2015), GoogLeNetv4(2016), SENet(2017)

3.3 MS COCO 데이터 셋이란?

a. ImageNet의 문제점인 object가 크고, 중앙에 밀집해 있으며, 이미지당 object 수가 적은 무제를 해결하고자 2014년에 제안

 

4. SOTA(state-of-the-art)란?

- 현시대의 최고의 성능을 가진 기법을 의미함
- SOTA 논문과 코드는 아래 링크에서 확인 가능  paperswithcode.com/task/visual-odometry

 

Reference

[1]. maP 소개(영어), kharshit.github.io/blog/2019/09/20/evaluation-metrics-for-object-detection-and-segmentation 

 

Evaluation metrics for object detection and segmentation: mAP

Read about semantic segmentation, and instance segmentation. The different evaluation metrics are used for different datasets/competitions. Most common are Pascal VOC metric and MS COCO evaluation metric. IoU (Intersection over Union) To decide whether a p

kharshit.github.io

[2]. map에 대한 해석, darkpgmr.tistory.com/179 

 

YOLO와 성능지표(mAP, AP50)

최근에 YOLO 논문들을 보다 보니 저자가 2018년 YOLOv3를 마지막으로 YOLO 연구를 중단한 것을 알게 되었다. ☞ 그리고 올해 2020년 2월 자신의 twitter를 통해 컴퓨터비전 연구를 중단한다고 선언한다. YO

darkpgmr.tistory.com

[3], ms coco 평가 지표, cocodataset.org/#detection-eval 

 

COCO - Common Objects in Context

 

cocodataset.org

 

반응형
반응형

[개념 설명]  Object Detection 평가 방법[1]

 

오분류에 대한 추정치

  Condition Positive Condition Negative  
Predict Positive True Poisitive(TP) False Positive(FP) Precision(정확도)
Predict Negative False Negative(TN) True Negative(TN) x
  Sensitive,Recall(민감도, 재현율) Specificity(특이도)  

 

내용

- Accuracy(정분류율)
a. 있는 건 있고 없는 건 없다고 할 확률, 있는거과 없는 것 모두 맞출 확률
b. (TP+TN)/(TP+TN+FP+FN)

- Error Rate 오 분류율)

a. 없는 걸 있다고 하고 있는 걸 없다고 할 확률, 다 틀릴 확률
b. (FP+FN)/(TP+TN+FP+FN)

- Specificity(특이도)
a.물체가 없는 상황에서  물체가 없는데 없다고 할 확률 (True Negative Rate)
b. (TN)/(FP+TN)

 

- 민감도(Sensitivity), 재현율(Recall)  (True Positive Rate)
a.  물체가 있는 상황에서 물체가 있는데 있다고 할 확률
b. (TP)/(TP+FN)

- Precision(정확도)
a. 물체가 있든 없든 있다고 할 롹률
b. TP/(TP+FP)

- F1 Score
a. 2 x (Precision x Recall) / (Precision+Recall)

 느낀점

- 오분류에 대한 추정치의 이름으로 TP,TN,FP,FN 로 나눈다. 앞의 True,Faslse는 예측과 정답이 일치하는지를 판단하는 것이며 뒤의 Positivie와 Negative는 예측값이 무엇인지를 의미한다.
- YOLO의 경우 RCNN에 비하여 mAP는 떨어지지만 False Positive 의 성능은 좋다고 하는데 이는 예측했다고 하지만 실제로는 없는 경우를 의미하며, YOLO는 전체 이미지를 보고 예측을 하기 때문에 아닌데 맞다고 하는 것이 적다는 것을 의미한다.
- 이에, Object Detection 을 단순히 정확도만을 보고 비교하면 안되며, 틀렸는데 맞다고 한 비율 등 모든 것을 고려할 필요가 있다.
- 정확도를 Accuracy 로 생각하고 있었다. 하지만 정확도란 Precision을 의미하며 Accuracy와 Precision은 어면히 의미가 다르다.

 

 

 

반응형
반응형

[ADsp 정리] 3-4-2. 회귀 분석

1. 개념
1-1. 정의
- 독립변수가 종속변수에 영향을 미치는지 추정하는 통계 기법
- 독립변수가 한개이면 독립선형회귀, 여러개이면 다중선형회귀 사용

1-2. 변수
출력(y): 반응형 변수, 종속 변수, 결과 변수
입력(x) : 설명 변수, 독립 변수, 예측 변수

1-3. 선형회귀분석의 가정
A)선형성
- 입력 변수와 출력 변수가 선형 관계이다

B) 등분산성
- 오차와 분산이 일정하다

C) 독립성
- 입력변수와 오차는 관련이 없다. 

D) 비상관성
- 오차들끼리 상관 없음

E) 정상성(정규성)
- 오차의 분포가 정규분포를 따름
- Q-Q Plot을 그렸을 떄, 대각 방향으로 정규분포를 따름

1-4. 검증 방법
A) 단순 선형 회귀 분석
- 입려 변수와 출력 변수의 산점도 
- 독립 변수가 종속 변수에 미치는 영향을 추정할 수 있는 통계 기법

B) 다중 선형 회귀 분석
- 선형성, 등분산성, 독립성, 정상성 모두 확인
2. 단순 선형회귀 분석
2-1. 개념
-독립 변수가 종속 변수에 미치는 영향을 추정하는 통계 기법

2-2. 회귀분석 검토사항
- T 통계량의 P Value 값이 0.05 보다 작으면, 통계적으로 유의
- 결정 계수(Multiple R-squared)가 0~1을 갖으며, 높은 값이면 회귀식의 설명력이 높음
- 잔차 그래프를 통한 회귀진단을 하여 적합성 판단

2-3. 회구분석의 검정
- 회기 계수가 0이면 입력변수와 출력변수 사이에 인과관계가 없음
- 회기 계수가 0이면, 추정식은 의미가 없음 
3. 다중선형회귀분석
3-1. 유익성 
- 통계의 유익성은 F통계량의 P Value 값이 0.05보다 작으면, 통계적으로 유의함

3-2.설명성
- 결정계수를 보고 확인

3-3. 적합성
- 잔차와 종속변수의 산점도로 확인

3-4. 가정
- 선형, 독립, 등분산성, 비상관성, 정상성

3-5. 다중공선성(Multicollinearity)
- 설명 변수들 간의 선형 관계가 존재하면 회귀계수의 정확한 추정이 힘듬
- 분산팽창요인(VIF) 가 4보다 크면 다중공선성 존재, 10보다크면 심각
- 상태 지수 10이상 이면 문제 존재, 30 보다 크면 심각
- 문제가 발생하면, 변수를 제거하거나 주성분회귀, 능형회귀 모형으로 문제 해결
4. 회귀분석종류
4-1. 회귀 분석 종류
- 단순 회귀 : 독립 변수 1개
- 다중회귀 : 독립 변수가 K개
- 로지스틱회귀 : 종속 변수가 범주형(2진)
- 다항회귀 : 독립과 종속이 1차함수 이상일 경우
- 곡선회귀 : 독립 변수가 1개이며 곡선의 관계
- 비선형회귀 : 선형으로 이뤄지지 않은 모형 

4-2. 용어
A) 오차(Error)
- 모집단에서 실제 값과 회귀선과의 차이

B) 잔차(Residual)
- 표본 집단에서 관측 값과 회귀선과의 차이 
반응형
반응형

[ADsp 정리] 3-4.1  통계 분석 

1.방법
1-1 표본 조사
- 모집단(Population): 전체
- 원소(Element) : 모집단을 구성하는 개체
- 표본(Sample) : 모집단의 일부 
- 모수(Parameter) : 표본 관측에 의해 구하고자 하는 모집단의 정보
- 확률 변수(Random Variable) : 특정값이 나타날 가능성을 확률적으로 주어지는 변수

1-2. 표본 추출 방법
- 단순 랜덤 추출 법(Simple Random Sampling) : 단순 추출
- 계통 추출법(Systematic Sampling) : 나열하여 k개씩 n 개 구간으로 나누고 매 k번째 항목 추출
- 집략 추출법(Cluster Random Sampling) : 군집 구분 후, 샘플링 (지역표본추출, 다단계표본추출)
- 층화추출법(Stratified Random Sampling) : 층(Stratum)을 나눈 후, 랜덤 추출 (비례층화추출법, 불비례층화추출법)

1-3 측정 방법
- 명목 척도 : 이름 과 같이 집단에 속하는지 분류
- 순서 척도 : 학년과 같이 서열 관계
- 구간 척도(등간 척도) : 온도나 싸이즈와 같이 속성의 양
- 비율 척도 : 절대 기누이 있는 0이 있는 시간, 무게, 거리 등 
2. 통계 분석 정의
1 정의
통계 분석 : 통계 방법을 이용하여 의사결정을 하는 과정 
기술 통계(Descriptive Statistic) : 객관화 하여 통계분석

통계 추론(Inference Statistics)
A) 모수 추정 - 표본으로 모집단의 평균 분산 추정
B) 가설 검정 - 가설 설정 후 옮은지 아닌지 채택
C) 예측  - 불확실성을 해결해 효율적인 의사결정
3. 확률 분포
1. 이산형 확률 변수
베르누이 확률분포 : 결과가 2개만 나오는 경우 
이항 분포 : n번중 k번 성공할 확률
기하 분포 : 성공 확률이 p인 베루누이 시행에서 첫번째 성공때까지 x번 실패할 확률
다항 분포 : 3가지 이상의 결과를 가지는 반복실행에서 확률분포
포아송분포 : 시간과 공간 내에서 발생하는 사건의 발생횟수에 대한 확률분포

2. 연속형 확률변수
균일 분포 : 일정한 균일한 확률을 가지는 확률분포
정규 분포 : 평균과 표준편차를 갖는 종모양의 확률밀도 함수 
표준 정규분포 : 평균이 0, 표준편차가 1인 정규분포
지수 분포 : 어떤 사건이 발생할 때까지 경과 시간에 대한 연속확률 분포 
t 분포 : 두 집단의 평균이 동일한지 알고자 할 때, 검정통계량으로 활용하며, 정규분포보다 더 퍼져있고 자유도가 커지면 정규분포와 가까워짐
카이제곱분포 : 모평균, 모부난이 알려지지 않은 모집단의 모분산에 대한 가설 검정에 사용되는 분포로 두 집단간의 동질성 검정에 활용 
F분포 : 두 집단간 분산의 동일성 검정에 사용되는 검정 통계량의 분포로 확률변수는 항상 양의 값, 카이제곱과 달리 2개의 자유도 갖고 있으며 자유도가 커지면 정규분포에 가까워짐
4. 추정
4.1 추정 방법
A) 점추정(Point Estimation)
모수가 특정 값일 것이라고 추정하는 것으로 평균, 중위수, 최빈 값 활용


B) 구간 추정(Interval Estimation)
모수가 특정 구간 안에 있을 것이라고 선언

* 모 분산을 알면 분자에 시그마를 넣으며 모르면 s를 넣는다. 

4.2 가설 방법
- 가설을 설정한 뒤, 가설의 채택 여부 설정
- 표본 관찰 후 귀무가설ㄹ과 대립 가설 중 하나를 선택 
A) 귀무가설(Null Hypothesis) - 비교하는 값과 차이가 없다
B) 대립가설(Alternative Hypothesis) - 차이가 있다(증거가 있을 떄)
C) 검정 통계량(Test Statistic) - 진위 판단 기준
D) 유의 수준(Significance Level) - 귀무가설을 기각하는 확률의 크기
E) 기각역(Critical Region) - 귀무가설이 옳다고 전제

  가검정결과 사실 가검정결과 거짓
사실 옳음 제 1종 오류
거짓 2종 오류  옳음

1종 오류와 2종 오류는 서로 상충 관계가 있으므로 1종을 고정시킨 후, 2종 오류를 최소화 시키도록 기각역을 설정

5. 검정
5-1. 모수 검정
- 모집단의 분포 가정
- 표준평균과 표준 분산을 이용하여 검증

5-2. 비모수 검정
- 관측값들의 순위나 차이의 분포를 이용해 검증
6. 인간관계
6-1 용어. 
1) 종속 변수(반응 변수, y) 
- 다른 변수에 영향을 받는 변수

2) 독립 변수(설명 변수, x)
- 영향을 주는 변수

3) 산점도(Scatter Plot)
- 점으로 표현한 그래프 

 

7. 상관분석
1) 공분산
- 공분산이란 두 변수간의 방향성을 확인하는 것
- 두 변수간의 관계가 없으면 0

2) 상관 분석
- 상관계수를 보고 판단 
0.7~1.0 : 큰 상관성
0.3~0.7 : 약한 상관성 
0~0.3 : 거의 없음

3) 상관 분석의 가설 검정
- 상관 계수 0 : x와 y 간의 차이 없음, 귀무 가설 =0, 대립 가설은 0 아님
- t 검정을 통해 얻은 p value 값이 0.05 이하인 경우, 대립가설이 채택 -> 상관관계 사용 가능
  피어슨 상관관계 분석 스피어만 상관관계 분석
개념 등간척도 이상으로 측정된 변수의 상관관계 측정 방식 서열 척도 변수의 상관관계 측정
특징 연속형, 정규성  순서형 변수, 비모수적 방법,
상관계수 피어슨 순위상관계수

 

 

반응형
반응형

[ADsp 정리] 3-4-3. 시계열 분석

1. 정의
1-1 시계열 자료
- 시간의 흐름에 따라 관찰된 값들을 정의함

1-2 종류
A) 비정상 시계열
- 다루기 어려운 시계열 자료

B) 정상 시계열
-> 평균, 분산, 특정한 시기의 공분산 모두 동일
-> 정상 시계열이 아니면 다른 시기로 일반화 할 수 없음
-> 평균 값으로 회귀하려는 경향 존재 , 분산도 일정

B-1 - 평균 일정
- 평균이 일정하지 않은 시계열 데이터는차분을 통해 정상화 가능

B-2 - 분산 일정
- 분산이 일정하지 않으면, 변환(Transformation)을 통해 정상화 가능

B-3 - 공분산이 시차에 의존, 특정 시점에 의존하지 안흔 경우 

2. 시계열 분석 방법
2.1 방법
- 회귀 분석, BOX Jenkins, 지수 평활법, 시계열 분해법

2.2 형태에 따른 방법
a) 일변량 시계열
- 하나의 변수에 관심을 갖는 시계열 분석 : Box-Jenkins(ARMA), 지수 평활법, 시계열 분해법

b) 다중 시계열분석
- 여러개의 시간에 따른 시계열 분석 : 계량 경제 모형, 전이함수 모형, 개입 분석, 상태공간 분석, 다변량 ARIMA

2.3 이동 평균 법
- 계절 변동, 불규칙 변동을 제거하고 순환변동만 가져오는 것으로 N 시계열 데이터를 M기간 이동하여 N-M+1 데이터 생성

2.4 지수평활법
- 최근 시계열에 가중치를 두는 것으로 중기 예측에 적합 (장기 X) 
3. 시계열 모형
3-1. 자기회귀 모형(AR모형)
- P 시점 전의 자료가 현재 자료에 영향을 주는 모델

3-2 이동평균 모형(MA 모형)
- 언제나 정상성을 만족하는 모델

3-3 자기회귀누적이동평균 모형(ARIMA)
- 비 정상시계열 모형

3-4 분해 시계열
- 시계열에서 분리해 분석하는 방법, 회귀 분석 방법을 주로 사용
반응형
반응형

[ADsp 정리] 3-4-4. 다차원척도,주성분 분석

 

1. 다차원 척도법(MDS)
1-1 정의
- 다차원 척도법(MDS/Multi Dimensional Scaling) 은 개체들의 유사성을 2차워/3차원으로 표현하는 방법
- 근접성(Proximity)을 시각화하는 방법

1.2 다차원 척도 방법
- 유클리드 거리행렬 활용

1.3 다차원척도법 종류
- 계량적 MDS(Metric MDS)
- 비계량적 MDS(nonmetric MDS)
2. 주성분 분석(PCA)
2-1. 개념
- 상관성이 높은 변수들의 선형 결합으로 상관성이 높은 변수들을 요약, 축소하는 기법
- 상관이 없는 주성분으로 차원 축소 
- 다중공선성(multicollinearity)가 존재하면 모형이 잘못 만들어질 수 있으므로, 차원을 축소하여야 함

2-2 주성분 선택 방법
- 누적기여율(Cumulative Proportion)이 85%이면 주성분의 수로 결정
- Screen Plot을 하여 eigen value 값이 수평을 유지하기 전 단계로 주성 분 선택
3. 요인 분석(Factor Analysis)
3-1.  개념
- 등간 척도로 측정한 두 개 이상의 변수들에 있는 공동인자를 찾는 방법

3.2 PCA와 FA의 공통점
- 두개 모두 데이터 축소 및 새로운 변수 생성에 활용 가능

3.3 PCA와 FA의 차이점
- PCA는 보통 3개, FA는 제한이 없다.
- PCA는 제 1주성분, 제 2주성분으로 표현하며, FA는 없다
- PCA는 제 1주성분이 가장 중요하지만, FA는 없다
- PCA는 목표 변수를 고려하여 변수들의 선형 결합으로 이루어지지만, FA는 없다. 
반응형

+ Recent posts