반응형

Segment Anything 요약

Facebook에서 2023년에 야심차게 만든 초거대 Segment AI 모델

Language Model은 웹 크롤링으로 수많은 데이터를 긁어올 수 있지만, 이미지는 그러할 수 없었음. 이러한 한계를 극복하고자, Facebook에서 오픈된 Segement 데이터 셋을 활용하여 초거대 데이터 셋을 구축하고 모델을 학습하여 이미지용 Segment Anything 모델을 만듦

PromptMask로 줄 수 도 있으며, 점으로 줄수도 있으며, Text로도 줄 수 있음, Text로 주는 모델은 성능이 좋지 않아 공개하지는 않았으며, 최근 Grounded SAM이라고 하는 모델이 Text 기반 Segmnetation 이 잘 됨을 보여주고 있음

 

2. Segment Anything 내용

2.1 Task

, Mask, Text를 입력으로 받아 Segmentation 되도록 설계함

 

2.2 Model

실시간성 : Image Encoding에서 만든 EmbeddingPrompt Encoder에서 만든 EmbeddingLifgt Mask Decoder에서 결합하여 예측 수행

Image Encoding : Vision Transform 모델 사용함

3개의 Mask에는 각 Confidence Score와 같이 출력됨

Dense Prompt(Mask)일 경우 Convolution을 거치고 Element wise를 수행

sparse Prompt(, Text) 일 경우, Prompt Encoder를 통해 Mask Decoder로 들어감

 

2.3 Dataset

Assisted Manual Stage 6, Semi AUtomatic Stage 5, Fully Automatic Stage1.1 billion mask를 획득 함

 

2.3.1 Assisted Manual Stage

- 공개된 Segmentation dataset으로 SAM을 초기학습

- SAM에서 나온 Segmentation 데이터에 추가로 Annotate를 하여 6회 재학습

- 120 k 이미지에서 5.8M Mask 취득

 

2.3.2 Semi Automatic Stage

- SAM 출력 값 외의 ObjectAnnoate 5회 추가

- 180 k 이미지에서 5.9 Mask 취득

 

2.3.3. Fully Automatic Stage

2단계에서 나온 SAM Model 32x32 Grid Point를 입력하여 mask 취득

IoU가 높은 것에 Mask 남김

중복된 MASK를 제거

11M 이미지에서 1.1B Mask취득

 

 

SAM 논문리뷰.pptx
10.71MB

 

 

3. 용어

 

3.1 Embedding이란?

단어의 의미를 벡터로 표현하는 것을 의미함

단어간의 관계를 파악하기에 유용함

 

3.2 앙상블이란?

딥러닝 모델을 결합하여 성능을 개선시키는 것

과적합 방지하고, 예측 성능 향상시킴

보팅, 배깅, 부스팅, 스태킹 기법이 존재함

보팅 : 가장 성능이 좋은 것을 투표하여 사용

배깅 : 동일한 모델을 동시에 학습 후, 평균 등을 내어 예측 값으로 사용함

부스팅 : 각 모델의 예측 값을 순차적으로 활용

스태킹 : 각 모델을 독립적으로 학습 후 결합하여 새로운 모델 만들기

 

3.3 과적합(Overfitting)이란?

데이터에 너무 과하게 학습되어 새로운 데이터의 예측 성능이 떨어지는 것

과적합 방지를 위해, L1규제, L2규제, 드롭아웃 등의 기법을 사용함

 

3.4 UnderFitting이란?

모델이 데이터 셋을 충분히 학습하지 않아 적합하지 않은 것

데이터 양을 늘리거나, 모델 복잡도를 늘리거나, 규제를 사용하면 해결할 수 있음

 

3.5 Foundation Model

zero shot 성능이 좋은 초거대 모델

 

3.6 zero shot

1 shotTransfer Learning을 한번 한 것을 의미함

zero shot은 한번도 학습하지 않았지만 성능이 일반화를 잘 하는 것을 의미함

 

3.8 LLM

- Large Language Model : 언어 관련 초거대 모델을 의미하며 LLM이라고 줄여서 부르며, Zero shot, few shot에도 높은 Generation 성능을 보이는 모델임

 

3.9 shot

- SHOT : zero shot : 학습 x, one shot : 파인튜닝 1, few shot : 파인튜닝 조금

 

3.10 Down Stream Task

프리 트레인된 모델을 활용하여 원하는 테스크로 파인튜닝 하는 것

 

 

3.11 Promptable Segmentation Task

이미지와 함께 입력 Prompt가 주어졌을 때 segmentation을 출력으로 보냄

 

3.12 Prompt

이미지 분할할 대상을 지정하는 것으로 point, points, bounding box, mask 등이 있음

 

 

 

4. 출처

[1]. Segment Anything 사이트, https://segment-anything.com/

[2]. Segmen Anything git, https://github.com/facebookresearch/segment-anything

 

 
반응형
반응형

 

1.모델 관점

- DINO(Differentiable Image Noise Optimisation)에서 업그레이드 된 모델로, 더욱 선명하게 이미지와 텍스트를 만들어 내는 모델

 

2. 특징

2.1 Grounding DINO

DINO의 업그레이드 버전으로 DINO보다 더 사실적으로 이미지와 언어를 생성함

이미지의 특정 부분에 집중하여 이미지를 생성하는 기법

고양이가 앉아있어 라고 말하면, 고양이 부분에 집중하여 이미지를 생성함

 

2.2 DINO(Differentiable Image Noise Optimisation)

DINO(Differentiable Image Noise Optimisation) 이란 이미지와 텍스트 간의 관계를 학습하여 이미지 생성 및 텍스트를 설명할 수 있는 모델임

이미지와 텍스트의 관계를 학습시키기 위해 이미지에 노이즈를 섞어 모델에 넣은 후 나온 텍스트 결과가 노이즈가 섞이지 않은 이미지를 설명하는 텍스트와 일치하도록 학습하는 것

 

2. 특징

2.1 Grounding DINO

DINO의 업그레이드 버전으로 DINO보다 더 사실적으로 이미지와 언어를 생성함

이미지의 특정 부분에 집중하여 이미지를 생성하는 기법

고양이가 앉아있어 라고 말하면, 고양이 부분에 집중하여 이미지를 생성함

 

2.2 DINO(Differentiable Image Noise Optimisation)

DINO(Differentiable Image Noise Optimisation) 이란 이미지와 텍스트 간의 관계를 학습하여 이미지 생성 및 텍스트를 설명할 수 있는 모델임

이미지와 텍스트의 관계를 학습시키기 위해 이미지에 노이즈를 섞어 모델에 넣은 후 나온 텍스트 결과가 노이즈가 섞이지 않은 이미지를 설명하는 텍스트와 일치하도록 학습하는 것

 

 

 

3. 용어 설명

3.1. 대조 손실이란?

이미지의 특징을 학습하는데 사용되는 손실함수.

두 그룹의 이미지의 차이가 최소가 되도록 학습하여 특징 추출 모델을 만들면 이미지 분류, 이미지 생성에 활용 가능함

 

3.2. Feature Fusion 이란 ?

특징 벡터를 결합하는 것으로 Concatenateattention 방법이 존재함

Concatenate는 일렬로 만들어 결합하기 떄문에 특징 벡터를 잘 보존하지 못하지만, Attention 기법은 중요도를 조정하기 때문에 특징 벡터의 보존이 잘 됨

 

3.3. Backbone, Neck, Head?

Backbone : 특징 추출기로, 이미지에서는 주로 CNN이 활용됨

Neck : Fully Connected Layer를 많이 사용하며, Backbone에서 추출한 특징을 재조합

Head : SoftMax와 같은 엑티베이션 함수로 분류할 때 사용됨

 

3.4 Open-Set Object Detector

- 학습된 데이터가 아닌 것도 추론할 수 있는 것

 

3.5 Closed - Set Object Detector

학습된 라벨만 추론할 수 있는 것

 

3.6 Grounded Pre-Training

이미지와 언어의 관계를 학습하는 것으로, 이미지를 주었을 때 설명할 수 있고, 설명하면 이미지를 표현할 수 있음

 

3.7 Stable Diffusion이란?

텍스트 설명을 기반으로 고품질 이미지를 생성하는 모델

이미지 번역, 인페인팅, 아웃페인팅 모두 가능함

Variational Autodncoder(VAE)Diffusion Model을 결합함

 

 

3.8 VAE?

Variational Autodencoder란 데이터를 생성하는것에 주로 사용함

인코더와 디코더로 구성되어 있으며, 데이터를 생성하기 위해 데이터의 특성을 보존하기 위해 인코더를 통해 들어온 데이터를 잠재공간에 보관하고, 잠재공간에서 생성된 데이터는 디코더는 입력데이터와 유사하게 데이터를 생성함

 

3.9 Diffusion Model이란?

2015년에 Google Brain 연구원이 개발함

점진적으로 이미지를 생성하는 딥러닝 모델임

 

 

4. 어휘

- Differentiable : 구별할 수 있는, 미분 가능한

 

 

 

 

논문 의견

Grouding DINO를 접하게 된 이유는 Grounded SAM 때문임

Grounded SAM이란 Grounding DINOSAM을 결합한 것

SAM은 어떠한 것이든 Segmentation을 할 수 있는 것을 의미함

Grounding DINO란 말을 하면 그에 맞게 Boudnding box를 치는 것을 의미함

grounding dino에서 나온 bounding box의 가운데 점을 SAMPrompt로 사용하면 자동 라벨링 기능을 갖는 Grounded SAM이 나오게 됨

(prompt란 어떠한 것을 segmentation할지 결정하기 위해 마우스 클릭을 하는 것이라고 보면 

 

 

참조

[1]. 논문 리뷰, https://ostin.tistory.com/212

[2]. 깃허프, https://github.com/IDEA-Research/GroundingDINO

[3]. 논문, https://arxiv.org/abs/2303.05499

반응형
반응형

KIDNEY RECOGNITION IN CT USING YOLOV3

YOLO v3를 활용한 CT 안의 신장인식

 

ABSTRACT 

 

Organ Localization can be challenging considering the heterogeneity of medical images and the biological diversity from one individual to another.

의료 이미지의 불균형함과 사람들간의 생물학적 다양성을 고려하였을 때 신장 위치 찾는 것은 도전적이다. 

 

The contribution of this paper is to overview the performance of the object detection model, YOLO v3, on kidney localization in 2D and in 3D from CT scans. 

이 논문의 기여는 CT 스캔으로 부터 신장의 위치를 2D 및 3D 관점에서 찾았으며, 객체 감지 모델의 성능을 간략하게 설명한다. 

 

 The model obtained a 0.851 Dice score in 2D and 0.742 in 3D. The SSD, a similar state of the art object detection model, showed similar scores on the test set. 

이 모델은 2D에서 0.851 Dice 점수를 얻었으며, 3D에서 0.742를 얻었다. 비슷한 객체 인지 최신 알고리즘인 SSD도 test set에 대하여 비슷한 점수가 나왔다.

 

YOLO v3 and SSD demonstrated the ability to detect kidneys on a wide variety of CT scans including patients suffering from different renal conditions.

YOLO v3와 SSD는 다른 신장 조건을 갖고있는 환자의 다양한 CT 스캔으로 부터 신장 검출 능력을 보여줬다. 



1.Introduction

Organ detection is useful for various medical applications, whether it is to plan surgeries or to find pathologies.

이것이 수술을 계획하든지 병리학을 발견하든지 간에 기관 인지는 다양한 의료의 응용에 유용하다. 

 

Adding bounding boxes to organs can also be the first step before applying other image processing methods like segmentations. 

장기에 경계 박스를 더하는 것은 segmentation과 같은 다른 이미지 처리 방법에 적용하기 전에 가장 첫번째로 적용하는 단계이다. 

 

Real-time organ tracking can be profitable for adaptive radiotherapy or laparoscopic surgery

실시간 장기 추적은 적응형 방사선 치료와 복강경 수술에 이익이 있다. 

 

Object detection models could help with these tasks.

객체 인지 모델은 이러한 일에 도움을 줄 수 있다. 

 

This article focuses on 2D and 3D kidney detection.

이 기사는 신장의 2D 및 3D 객체 인지에 중점을 둔다.

 

Recognition of kidneys can be challenging considering the variety of forms, textures, positionings and contrasts found in CT scans (Figure 1)

신장 인지는 CT장면 안의 다양한 형태, 질감, 위치, 발견된 대조를 고려하였을 때 도전적이다. (사진 1)

 

Figure1 : 2D kidney detection by YOLO v3 

사진1 : YOLO v3를 활용한 2D 신장 감지

 

A-B : Normal kidneys with different CT scan mean intensities.

서로 다른 일반 신장 CT 스캔은 강도가 다름을 의미함

 

C-D : cystic kidney 

C-D : 포낭의 신장

 

E : Failed detection of hypertrophied kidney

E : 비대한 신장의 인지 실패

 

F : Tumoral kidney

F : 종양의 신장



Alongside with SSD(Single Shot Detector) and Faster R-CNN, YOLO has proven to be a state-of-the-art and robust object detection system. 

SSD와 Faster-RCNN과 함께 YOLO는 최신의 강건한 객체인지 시스템임을 증명되어왔다.

 

SSD and YOLO have the advantage to be real-time model compared to the Faster R-CNN. 

SSD와 YOLO는 Faster R-CNN에 비하여 실시간성의 이득이 있다.

 

YOLO begins to appear in the medical field.

YOLO는 의료계에 나타나기 시작했다.

 

The usage of YOLO based models was recently explored for localization of normal active organs in 3D PET scans, for lung nodules detection for lung 

cancer prevention and for automatic nasal cavities in CT scans. 

 

YOLO 기반 모델은 최근에 3D PET 스캔에서 활동적인 장기의 위치를 찾는 것에 활발히 사용되고 이으며, 허파 암을 방지하기 위해 허파의 혹 그리고 반사적 비강을 CT 스캔에서 감지한다. 

 

Considering its robustness, its speed and its accuracy on other medical images, YOLO was retained as kidney detection model. 

의료이미지에서 이것의 강건함, 속도, 정확도를 고려하였을 때, YOLO 는 신장 감지 모델로 유지되었다. 

 

2. Methods

YOLO takes as input 2D images which is the first challenge with its adaptation to 3D medical images.

YOLO는 2D 이미지를 입력으로 취하며 3D 의료 이미지를 적용하는 것은 첫 시도이다. 

 

Every CT scan slice is used a single image for inference and training.

모든 CT 스캔 조각은 추론과 학습을 위해서 단일 이미지로 사용된다. 

 

Once the bounding boxes are found on every 2D image, a 3D generalization of the non-maximum suppression algorithm was performed.

일단 경계 박스가 모든 2D 이미지에서 발견되며 3D 생성 NMS 알고리즘이 수행된다. 

 

This post-processing step groups the 2D boxes with a threshold criteria corresponding to their intersection over Union(IoU) to generate 3D bounding Boxes. 

이러한 후처리 스텝은 그들의 IoU와 일치하는 한계점을 기반으로 2D 박스를 그룹화 하고 3D 경계박스를 생성한다. 



The model was trained on 14 CT scans, including 2911 512x512 2D images where 1200 contained kidneys.

이 모델은 14개의 CT스캔으로 학습하였으며, 2911개(512x512)의 2D 이미지가 있으며 1200개의 신장이 포함되어 있습니다. 

 

The data come from the public Kit2019 dataset composed of healthy and tumoral kidneys and from another dataset containing normal and cystic kidneys.

kit 2019 데이터셋으로 부터 얻은 데이터는 건강하고 종양의 신장 데이터와 정상 그리고 포낭의 신장 데이터를 포함하고 있다. 

 

The code from the following github was adapted and implemented in the image processing software dragonfly from ORS.

깃허브에 올린 코드는 ORS로 부터 얻은 이미지 처리 소프트웨어 드래곤 플라이로 적용하였다. 

 

Histogram equalization was applied on every slice to increase the contrast.

대조를 증가시키기 위하여 막대그래프 동등화를 매 슬라이스에 적용하였다. 

 

This step improves the detection for a broad spectrum of CT intensities.

이 과정은 넓은 범위의 CT 강도의 감지를 증가시킨다. 

 

The results are compared with the SSD using the MobileNet architecture for feature extraction.

이 결과는 특징 추출을 위해 MobileNet 구조를 활용한 SSD와 비교를 하였다. 

 

Like YOLO v3, SSD has a one-step framework.

YOLO v3와 같이 SSD 원 스텝 프레임워크이다. 

 

The two models have the same accuracy, but YOLO v3 is about three times faster. 

이 두 모델은 비슷한 정확도 이지만, Yolo v3는 3배 더 빠르다. 

 

Then Tensorflow Objection Detection API was used with Google Colaboratory to train and apply the model.

텐서플로 Object Detection API를 사용하였으며, 구글의 코랩으로 학습하고 적용했다. 



3. 결과 

3.1 2D Detection

 

YOLO showed high detection scores for the training and test sets in 2D(Dice score >0.85) as seen in Table 1.

YOLO는 Table 1과같이 2D의 학습과 테스트 셋에서 높은 점수(Dics score >0.85)를 보인다. 

 

The presence of artifacts caused by metal stents did not affect the performance of the model.

 금속 스텐트에 의한 인공유물의 존재는 모델의 성능에는 영향을 끼치지 않는다. 

 

DIfficulty with unknown ratios. 

잘모르는 주파수의 어려움 

 

 The drop in performance from the training to the test set is mainly due to the failed recognition of kidney morphology unknown to the model. 

학습과 테스트 셋의 성능을 떨어뜨리는 주요 이유는 모델이 알지 못하는 신장 형태의 인지를 실패하는 것이다. 

 

For instance, in Figure 1E, the kidney presented on the right has an unusual size and shape.

예를 들어 사진 1E에서 오른쪽에 있는 신장은 평범하지 않는 크기와 보양이다. 

 

The model only recognizes and locates the other kidney. 

이 모델은 오직 인지하고 다른 신장의 위치를 찾는다. 

 

In fact, it is known that YOLO struggles to generalize to new or unknown ratio configurations.

사실 욜로는 새롭거나 잘 모르는 비율의 배열을 일반화 하기 위해서 분투한다고 알려져 있다.

 

The model did well on regular looking kidneys even with tumors or cysts(Figure 1C, 1D and 1F) as long as the general morphology is preserved.

신장에 종양이나 포낭이 있다고 하더라도 일반적인 모형이 보존되는한 이 모델은 신장을 잘 본다. 



Coarseness of bounding boxes. Another factor affecting the scores is the coarseness of the boxes generated .

경계 박스의 거침. 점수에 영향을 미치는 다른 요소는 박스 생성의 거침이다. 

 

When an object is localized, the box might not be properly framed or fitted(Figure 1F).

객체가 위치가 찾아졌을 떄, 박스는 적절하게 테를 두르거나 정확하게 맞지 않는다. 

 

It is reported that YOLO v3 struggles with perfectly aligning boxes with the detected objects.

YOLO v3 는 인지된 객체와 박스가 나란히 되도록 고군분투한다고 보고되었다. 

 

Inaccuracy with kidney extremities.

신장 끝단의 부정확함 

 

Detection of the kidney extremities is challenging for the model possibly because of its smaller size of the decrease in characteristic features.

신장 끝단을 감지하는 것에 있어서 신장 특유의 특징점이 더 작은 사이즈로의 감소하는 것은 아마 모델에게 큰 도전일 것이다. 

 

These parts are more likely to fall under the radar as seen in Figure 2C where the lower section of the kidneys was not detected.

이러한 파트는 사진 2c와 같이 레이더의 영향을 받는 경향이 있으며, 여기서 낮은 부분의 신장은 감지가 잘 되지 않는다. 



The SSD and YOLO v3 have similar performance for 2D detection on the test set(Table1).

SSD와 YOLOv3는 2D 객체 인지에서 비슷한 성능을 보인다(Table 1)

 

YOLO v3 has the speed adavantage, taking only third of SSD’s time for inference.

YOLO v3는 속도 이점이 있으며, SSD에 비해 ⅓ 의 추론 속도가 나온다. 

 

For an image of approximately 320x320 pixels, SSD takes 60ms while YOLO v3 take only 22 ms.

예를 들어 320x320 픽셀에 있어서, SSD는 60 ms이지만 YOLO v3는 22ms 이다. 

 

For non-time sensitive applications, SSD performs similarly to YOLO v3.

(Dice : 0.851 vs 0.855 and IoU : 0.759 vs 0.747).

시간이 없는 응용에서 SSD는 YOLO v3와 비슷한 성능을 보인다. 



3.2 3D detection

As seen in Figure2, the 3D boxing is successful, but coarse.

사진 2를 보면 3d boxing은 성공적이지만 거칠다.

 

The boxes frame the majority of the kidney, but does not fit the organ perfectly.

박스는 신장의 주요 부분을 테두리 치지만, 완벽하게 맞추지는 못한다. 

 

When transferring the results from 2D to 3D, the algorithm usually fails to contain the whole organ as shown in Figure 2B.

2D에서 3D로 전환할 때, 알고리즘은 사진 2B와 같이 전체를 다 포함하지는 않는다. 

 

Post Processing step unsuited for objects misaligned with axes. 

축이 어긋난 객체의 부적합성을 맞추는 후처리 단계

 

One element causing this imprecision is the poor performance of the non-maximum suppression algorithm with non-axis aligned objects.

부정확함을 야기하는 이러한 요소는 축이 없는 객체의 NMS 알고리즘 적용 관점에서 안좋은 성능을 야기한다.

 

When the kidney is misaligned with the Z axis, the organ overflow the bounding.

신장이 z 축으로 부터 어긋날 경우, 기관은 경계박스를 넘어간다.



Propagation of error .

에러의 증식

 

Another factor leading to reduced performance in 3D detection is the propagation of error from 2D to 3D.

 

3D detection에서 성능을 제한시키는 다른 요소는 2D에서 3D로 넘어갈때 발생하는 에러의 증식이다. 

 

If the 2D boxes are not representative of the kidneys, the error will propagate to the 3D boxes.

만약 2D 상자가 신장을 대표하지 않는다며, 이러한 에러는 3D 박스로 증식된다. 

 

This leads to lower similarity scores for 3D detection.

이러한 것은 3D 감지에도 낮은 성능을 보인다.







Figure2 : 3D kidney detection of normal and cystic kidneys .

사진2 : 일반적 그리고 포낭의 신장의 3D 감지

 

A: Bounding Box properly frames the kidneys.

A: 경계박스는 신장을 두르고 있다.

 

B-C : overflow by the cystic (B) and healthy kidneys(C).

포낭의 신장과 건강한 시장이지만 경계박스를 넘어간 것

 

4. Discussion

Real- time object detection models like YOLO v3 or SSD showed promising results for kidney detection, suggesting that it could do well in organ recognition even with few CT scans as training set.

YOLO v3나 SSD와 같은 객체인지 모델은 신장 감지 결과에 이어서 전도유망한 결과를 보여주며, 학습을 위한 CT scan datasets이 몇개 없음애도 불구하고 기관을 잘 인지함을 알려준다. 

 

The results demonstrate the capacity of the model to generalize to a broad range of kidney morphology.

이러한 결과는 다양한 신장의 형태를 일반화할 수 있는 모델의 수용능력을 증명한다. 

 

For real-time applications, YOLO v3 is more appropriate than SSD considering that, on larger images, SSD loses its real-time advantage.

실시간 응용분야에서, YOLO v3는 SSD에 비하여 더 적절하며, 큰 이미지에서 SSD는 실시간성의 이점을 잃어버린다. 

 

YOLO did show some limitations. 

YOLO는 몇몇의 제약을 보여준다. 

 

Firstly, it is a detection model for 2D images.

첫번째로 이것은 2D 이미지 모델을 위한 감지이다. 

 

Generalizing the 2D detection in 3D adds error to the kidney localization.

3D에서 2D를 감지하여 일반화 하는 것은 신장의 위치 인지의 에러를 증가시킨다. 

 

Also, heavily cystic or pathological kidney slices were not classified properly.

또한, 무거운 종양과 병든 신장의 사진은 잘 구분하지 못함 

 

Finally, the boxes generated are not perfectly aligned with the objects of interset.

마지막으로 생성된 박스는 완벽하게 객체와 일치하지 않음

 

YOLO is a fast and robust object detection model that can also benefit the medical field for applications not requiring fine organ localization.

YOLO는 객체 인지에 있어서 빠르고 강건하며 정밀한 위치를 찾는 것이 아닌 의료 분야의 응용에 이점이 있다. 

 

These tasks could include detection of other organs or tumors from different modalities or real-time tracking of anatomical structures during medical procedures like radiotherapy or laparoscopic surgeries. 

이러한 일은 다른 기관의 감지, 또는 다른 양식으로 부터 오는 종양의 감지, 복강격 수술, 방사선 치료와 같은 의료 수술에 있어서 해부학 구조의 실시간 추적에 활용할 수 있다. 




궁금한 것

Dice score : Localization을 평가하는 Score 인데 어떻게 평가하는 것인지 확인 필요

3D Bounding Box : 2D bounding box에서 NMS를 통해 어떻게 3d bounding box?

Histogram equalization : 어떻게 대조를 증가?



단어

kidney : 신장, 콩팥

organ : 장기, 기관

heterogeneity : 이질성, 불균형

contribution : 기여 

overview : 간략한 개요, 개관, 간략하게 설명하다. 

renal : 신장의 

whether a or b : a 이든 b 이든 

pathology : 병리학

bounding box : 경계 박스

segmentation : 분할, 세분화 

adaptive radiotherapy : 적응형 방사선 치료법

profitable : 수익성 있는, 이득이 있는

laparoscopic surgery : 복강경 수술

cystic : 포낭의 

hypertrophied : 비대한

tumoral : 종양의

explore : 탐사하다, 탐험하다. 

lung : 폐, 혀파 

nodule : 혹, 뿌리 

nasal cavity : 비강 

retain : 유지되다. 

slice : 조각 

criteria : 기준 

threshold : 한계점을 넘다.

histogram : 막대그래프 

equalization : 동등화 

broad spectrum : 넓은 범위 

artifacts : 인공유물

stent : 혈관폐색을 막기 위해 혈관에 넣는 것

morphology : 형태학

configuration : 환경설정, 배열, 배치 

as long as : ~ 하는 한 

coarseness : 거침 

frame : 테를 두르다. 

aligning : 일직선으로 하다. 

extremities :사지, 맨끝, 극한 

characteristic : 특유의 

fall under : ~의 영향을 받다.

misaligned : 어긋난

unsuited : 부적합한, 어긋난

imprecision : 부정확

propagation : 번식, 증식, 선전, 보급

promising : 전도유망한 

modality : 양식

anatomical : 해부학의

laparoscopic : 복강경 검사의 

 

반응형
반응형

[AI 논문 번역 및 리뷰]  (2) -Abstract  YOLO, 욜로, You Only Look Once: Unified, Real-Time Object Detection 

 

1.Introduction

Humans glance at an image and instantly know what objects are in the image, where they are, and how they interact.

인간은 한번 흙낏 보는 것만으로도 이미지 안에 객체가 무엇인지, 어디에 있는지 어떻게 상호작용하는지 알 수 있다.

(설명 : YOLO는 객체 인지 성능 뿐만 아니라 실시간성에 초점을 둔 논문이다. 이미지 대회의 경우 일반적으로 classification 성능과 localization 성능만을 기준으로 순위를 매기기 때문에 실시간성을 고려하지 않는 경우가 많다. 하지만 YOLO의 경우 실시간성까지 고려하였다.)

 

The human visual system is fast and accurate, allowing us to perform complex tasks like driving with little conscious thought.

운전과 같이 의식을 덜 하면서복잡한 일을 수행할 만큼 인간의 시각 시스템은 정확하고 빠르다.

 

Fast, accurate algorithms for object detection would allow computers to drive cars without specialized sensors, enable assistive devices to convey real-time scene information to human users, and unlock the potential for general purpose, responsive robotic systems.

빠르고 정확한 객체 감지 알고리즘은 특별한 센서 없이 컴퓨터가 차량을 운전할 수 있도록 허락하며, 도움을 주는 장치들이 실시간 장면 정보를 사람에게 전달할 수 있게 한다. 반응로봇시스템과 같은 곳에서 가능성을 열리게 한다. 

 

Current detection systems repurpose classifiers to perform detection.

현재 감지 시스템은 분류기를 객체를 감지하도록 변경하여 사용한다. 

 

To detect an object, these systems take classifier for that object and evaluate it at various locations and scales in a test image. 

객체감지를 위하여, 이러한 감지 시스템들은 분류기를 객체감지에 사용하고 테스트 이미지 안의 다양한 위치와 다양한 크기에서 평가한다. 

(RCNN에서는 Region Proposal 이라고 하여 Localization으로 Bounding Box를 찾고 그 안에 있는 객체를 분류하는 2 단계로 나뉘어 있다. 여기서 다양한 위치와 크기는 Bounding Box를 의미한다.)

 

Systems like deformable parts models(DPM) use a sliding window approach where the classifier is run at evenly spaced locations over the entire image.

DPM 시스템은 전체 이미지에 대하여 고르게 공간을 두며 구분지가 작동하는 스라이딩 윈도우 방식을 사용했다. 



단어

glance : 흘낏보다.

repurpose : 다른 목적에 맞게 만들다. 

deformable : 변형할 수 있는 

space : 공간을 두다 

evenly : 고르게 



참조

[1]. https://arxiv.org/abs/1506.02640

 

#AI논문리뷰 #AI논문번역 #딥러닝논문리뷰 #딥러닝논문번역 #논문번역 #논문리뷰 #머신러닝논문리뷰 #머신런닝논문번역  #인공지능논문리뷰 #인공지능논문번역

반응형
반응형

[AI 논문 번역 및 리뷰]  (1) -Abstract  YOLO, 욜로, You Only Look Once: Unified, Real-Time Object Detection 

 

내용 - Abstract

We Present YOLO, a new approach to object detection.

우리는 새로운 Object Detection 방식인 YOLO를 제안한다.

(설명 : RCNN 저자가 2저자 이며, YOLO는 RCNN과 다른 새로운 객체 인지 알고리즘임을 설명하고 있다.)

 

Prior Work on object detection repurposes classifiers to perform detection.

이전 객체인지 알고리즘은  분류기를 인지를 수행할 수 있도록 바꿨다. 

(설명 : 이전 객체인지 알고리즘은 RCNN을 의미하며, fully connected layer와 softmax를 사용하여 Bounding Box 안의 객체가 무엇인지 구분하도록 구성을 하였다.)

 

Instead, we frame object detection as a regression problem to spatially separated bounding boxes and associated class probabilities.

대신에, 우리는 객체 인지 문제를  넓게 나뉜 경계 박스와 이와 관련된 클래스 확률의 회귀 문제로 간주했다. 

(설명 : RCNN에서는  객체를 구분하는 Classification 문제와 Bounding Box의 위치를 추론하는 Regression 문제로 나뉘는 2 stage 계열이지만, YOLO는 어떤  객체일 확률과  Bounding Box의 위치를 추론하는 것을 모두 회귀 문제로 간주하기고 동시에 처리가 되기 때문에 1-stage 계열이라고 한다. )

 

A single neural network predicts bounding boxes and class probabilities directly from full images in one evaluation. 

단일 뉴럴 네트워크는 경계 박스와 클래스 확률을 전체 이미지의 한번에 평가로 바로 예측한다.

(설명 : RCNN은 Boiundindg Box와 Classification을 각각 수행하기 때문에 2-stage 계열이라고 하며, 그러기 때문에 속도가 1-stage 계열인 YOLO에 비해 느리다. )

 

Since the whole detection pipeline is a single network, it can be optimized end-to-end directly on detection performance.

전체의 객체 인지 파이프라인이 단일 네트워크이기 떄문에, 감지 성능을 한번에 최적화 할 수 있다. 

(설명 : RCNN은 경계박스 예측과 클래스 예측 뉴럴 네트워크가 각각 존재하므로 각각 최적화를 시켜야 한다. )



Our unified architecture is extremely fast.

우리의 통합된 구조는 굉장히 빠르다.

(설명 : YOLO란 You Only Look Once의 약자이며, 한번에 빠르게 인지한다는 의미를 내포하고 있다.. )

 

Our base YOLO model processes images in real-time at 45 frames per second.

우리의 기본 욜로 모델은 초당 45 프레임의 실시간성을 갖고 이미지 프로세싱을 한다.

(설명 : 자율주행에서 1초에 30번 인지하면 실시간 성이 보장되었다 라고 한다. 그러므로 45 fps는 실시간성이 보장된 것이라고 해석할 수 있다.)

 

A smaller version of the network, Fast YOLO processes an astounding 155 frames per second while still achieving double the mAP of other real-time detectors.

네트워크가 작은 버전인 Fast YOLO는 155FPS가 나오며, 다른 실시간성이 보장되는 감지기에 비하면 map가 두배가 된다. 

(설명 : YOLO는 매번 일반 버전과 모델의 크기가 작은 버전을 동시에 출시하며, 작은 버전인 Fast YOLO는 155 frame per second가 나온다.  YOLO를 사용하는 사람들은 정확도 보다 실시간성을 원하여 사용하는 사람들이 많으므로 Fast 버전의 YOLO도 많이 사용하는 편이다 그리고 mAP란 정확도를 나타내는 성능이며  Fast YOLO는 다른 실시간성이 보장되는 Object Detection 알고리즘의  정확도 보다 2배 더 높다고 한다.)

 

Compared to state-of-the art detection systems, YOLO makes more localization errors but is less likely to predict false positives on background.

다른 최신 객체 인지 시스템과 비교하였을 떄, YOLO는 더 큰 Localization 에러를 갖고 있지만 배경에 대한 False Positives가 낮은 편이다. 

(설명 : state of the art란 최신의 기술을 의미하며, 본 논문에서는 최근에 나온 Object Detection 알고리즘을 가리킨다.Object Detection 성능은 Bounding Box의 위치가 잘 추론되었는지  Localization 성능과 객체를 구분하는 Classification 성능이 모두 만족되어야 한다. YOLO는 안타깝게도 Localization 성능이 많이 떨어지지만, False Positive가 많이 낮은 편이다. False Positive 는  Confusion Matrix 설명 편에서 자세히 설명할 것이다. 분류에 있어서 정확도를 판별할 때 맞는 것을 맞다고 하거나 아닌 것을 아니라고 하는 것 뿐만 아니라 맞는걸 아니라고 하는 것과 아닌 것을 맞다고 할 확률도 고려해야 한다. 만약 고려하지 않고 자율주행 차량에 적용하게 된다면 오인지로 인하여 시도때도 없이 자율주행 차량이 멈추게 될 것이다. )

 

Finally, YOLO learns very general representations of objects.

마지막으로 YOLO는 매우 일반화된 객체의 대표성을 배운다.

(설명 : YOLO 알고리즘 메커니즘 상, 전체 이미지를 보기 때문에 일반화를 잘 한다는 것이다. 예를 들어 그림 속에 사람을 그렸다고 해서 그것이 사람이 아닌 것은 아니다. 대부분의 객체인지 알고리즘들은 그림속 사람을 그림으로 인지하기 때문에 사람이라고 구분을 하지는 못한다. 이는 메커니즘의 차이이다. RCNN의 경우 Bounding Box를 그리고 각 Bounding Box안의 객체를 구분하다보니 전체적인 맥락을 해석하지 못하는 경우가 있다. 하지만 YOLO의 경우 전체 이미지를 입력으로 받아 바로 Object Detection을 하므로, 맥락적으로 사람이라고 인지하는 경우가 많다는 것이다. 이를 일반화를 잘한다고 논문에서는 표현하고 있다. )

 

It outperforms other detection methods, including DPM and R-CNN, when generalizing from neural images to other domains like artwork.

신경망 이미지로에서부터 예술작품과 같은 다른 도메인으로 일반화 할 떄, DPM과 R-CNN과 객체인지 방법을 능가한다. 

(설명 : YOLO 논문 마지막에서는 예술작품을 예로 들며, 다른 객체 인지 알고리즘에 비해서 YOLO가 예술작품에서 객체를 더 잘 인지함을 보여준다. 이는 일반화를 잘한다고 논문에서는 해석을 하고 있다.)




단어

repurpose : 다른 목적에 맞게 만들다. 

frame : 틀에 넣다

spatially : 공간적으로, 우주적으로

separated : 헤어진, 갈라선

associated : 연관된

astounding : 경악스러운, 믿기 어려운 

glance : 흘낏보다.

 

 

참조

[1]. https://arxiv.org/abs/1506.02640

 

#AI논문리뷰 #AI논문번역 #딥러닝논문리뷰 #딥러닝논문번역 #논문번역 #논문리뷰 #머신러닝논문리뷰 #머신런닝논문번역  #인공지능논문리뷰 #인공지능논문번역

반응형
반응형

[빅데이터기사3회] 빅데이터기사 3회 객관식 답 70문제 복원

 

후기

- 전반적으로 3단원이 매우 어려웠습니다.
- adsp와 adp를 기준으로 보았을 때 3안원은 어려웠지만 나머지는 공부를 하지 않아도 절반정도는 맞출 수 있는 수준이였습니다.(adsp 자격증 이 있다면)
- adsp 보다 부담은 덜 한 것이 주관식이 없다는 것이며, adp는 70점이 컷이기 때문에 60점 컷이라고 한다면 절반만 아는 것 풀고 나머지는 잘 찍었을 경우 합격할 가능성이 있다는 것으로 보아 빅데이터기사가 그래도 adp나 adsp보다는 쉽지 않았나 합니다.
- 다만 열심히 공부해도 점수가 잘 나오지 않을수밖에 없는 것이 3회밖에 되지 않았으며, 1회는 코로나로 인하여 취소됐기 때문에 이번이 2회인 시험입니다. 그래서 난이도가 계속 조정이 되고 있는 시점이고 어떠한 문제집이 괜찮은지에 대한 데이터도 없을 뿐더러 문제집 또한 대충 adsp를 기반으로 만들었기 때문에 용어가 시험문제와 다르다는 차이가 있어 공부해도 잘 나오지 않는 시험이라고 할 수 있습니다.

총평

- 일단 adsp 부터 공부하라고 전해드립니다. 빅데이터기사는 열심히 공부해도 잘 나오지 않으며 공부를 하지 않아도 잘 나오는 시험입니다. (adsp 자격증 소유자에 한하여) 그러므로 취업을 고려하시는 분들께서는 adsp부터 따고 그 다음 빅데이터 기사에 도전하시는 것을 권해드립니다. 

 

1. 분석문제정의 vs 프로젝트 기획 vs 도메인 ?
- 분석 문제정의


2. 익명화 vs 최대한 개인정보보호?
- 익명화
> 개인정보보호법 3조 7항 확인 가능


3. 최신 인공지능 vs 기존 인공지능
->  기존 인공지능은 사람이 하나하나 지정함


4. 하둡 - Hbase vs Pig?
-> Pig

5. 카산드라, 비정규데이터 ?
- NoSQL

6. 데이터 사이언티스트 vs 데이터 전문가 차이x?
- 데이터 자동화
-> 차이는 비지니스 관점임

7. EU, 개인정보보호?
- GDPR

8. 비식별 조치 방법 마스킹vs 값대체?
- 값 대체

9. 빅데이터 분석 절차
-> 기획 준비 분석 구현 평가전개

10. 데이터 수집, 분석주기 필요 x?
- 필요함

11. ETL 개념
-?

12. 민감정보 x?
-> 취미

13. 데이터 전처리
->?

14. 3V 개념
- 바리에이션

15. 데이터웨어하우스 특성
- ?

16 비지니스 효과X
-> 재택근무X

17. 아파치 하둡을 관리하는 워크플로우
- OOZIZE




18  군집 추출


19 표본평균 분산 모평균 분산 n값(정보 양 어쩌고 나온)

20 로지스틱 회귀분석
-?

21 이산형에 쓸 수 없는 거
- F 검정

22 신경망 계산
-19


23 과적합 처리법 잘못된것
- 웨이트 합 1

24 커널
- ?

25 활성함수
- ?
- 활성함수 선형이면 의미x

26 프리드먼 검정
- 4개

27 박스콕스변환
=?





28 우측꼬리 그래프
- 왜도 >0,  평균 최빈값<중앙값<평균값 양수


29 전수조사
- 우주선

30 주성분분석
- 음수미포함 행렬분해

31 박스콕스 변환
- 파생변수(?)

32 불균형데이터
- 1번 답
- 2번: 데이터 양많은 카테고리만 정확도가 높아져 검증애매

33 차원축소 요인분석
- 비슷한것 없애기

34 상관계수 기본개념
- 4번  -1이면 음의 상관관계

35 왜도 모양
- 우꼬리-> 왜도>0, 평균 > 중앙값 > 최빈값

36 E(aX+bY) Var(aX+bY)
-> 6,2

37 중심극한정리
- 1번 표본평균의 분산은 n 관계없이 모평균 분산을 따름 x

38 점추정
-  편이성 x
-  불편성, 효율성, 일치성, 충분성

39 유의 수준의 개념
- 1종오류 개념
- 귀무가설이 참인데 대립가설 선택

​40 중심극한
- 왜도X


41 집락추출

42 로지스틱 회귀분석
- 종속변수 정규분포

43. 지니vs카이vs F
-> F

44. 신경망 활성함수의 출력물
- 19

45. RNN-CNN-CNN+RNN-강화학습

46. 초매개변수와 일반매개변수
-?
47. 비모수검정
- 부호검정

48. 가중치를 이용
- 부스팅

49. 마이데이터

50. 평균, 최빈값, 중앙값, 범위
- 범위

51. MAPE수식
- 분모있는 것 답

52. 카이제곱 수식
- ?

53. 경사하강법
- Adaboost X

54. 과대적합 해소방법 X
- 가중치 합1X

55. AUC 설명
- 기준선 X

56. 소프트맥스 함수
- 분산 1 X

57. 시계열
- 자기상관

58. 시계열 성분
-  규칙 X

59. ARIMA 개념
- p, d, q

60. 커널
- ?

61.버블차트

62. 선형과 로지스틱 회귀분석
- ?

63. k-폴드 VS 홀드아웃
- 홀드아웃

64. 연관분석모델 지지도 신뢰도
- 지지도 1/3, 신뢰도 2/3

65. 데이터 시각화
- ?
66. PCA
- 0.956

67. 스펙티비티, 프레시젼, 리콜, 어큐러시
- ?

반응형
반응형

[ADSP 30회] 전공자 ADSP 30회 객관식 주관식 답 복원

 

친구한테 들은 문제를 정리해서 올려보았습니다. 현업에서 일하고 있으므로 아마  90%는 맞지 않을까 생각합니다.  간접적으로 푼 것이기에 완벽하지는 않지만 전공자가 풀어본 답은 다음과 같습니다. 혹시 제가 작성한 답이 아니거나 제가 미쳐 작성하지 못한 답은 답글로 남겨주시면 감사하겠습니다.  

 

해설

전공자가 푼 정답 30개 정도 복원했습니다. 60점 이상이면 합격이니 제가 작성한 것 30개가 있다면 합격이실 것 같습니다. 
마지막 문제가 듣기로는 Machine Learning 인지 Deep Learning인지 논란이 많던데요.
문제가 새로운 데이터를 넣어서 실시간으로 다시 학습해서 사용한다고? 들었습니다. 
모델만 가져와서 사용한다고 했다면 Transfer Learning이고요. 음.. 

제대로 문제를 본 것이 아니라 틀릴 순 있지만 전공자 입장에서는 Online Learning 입니다.
아닐 순 있지만, 현업에서는 그렇게 부르고 사용하고 있습니다. 
Machine Learning이나 Deep learning 정의를 저런식으로 하지는 않습니다.(직접 문제를 본 것이 아니라 100% 확신은 아닙니다)

후기

현업에 적용하고 있기에 매번 공부를 하고 있는데요. 후기와 문제들을 들어보니 이번 ADSP 가 가장 어려웠던 것 같습니다. 전공자인 저도 모르는 문제들이 많이 보였어요. 아마 adsp가 물 시험이라는 소문으로 인하여 난이도를 조금씩 올리고 있는 것 같습니다. 단순히 문제은행으로는 이제 힘들것 같습니다. 

 

 

정답

1단원 :DATA  
1 비정형 정형
2 정형화 데이터
3 단순화
4 천재적
5 unchanged
6 가치창출
7 분석을 통해 가치 창출
8 주관 : information
9 주관:crm
2단원 : 분석 과제  
10 method
11 데이터 중요성
12 accuracy&deploy
13 거버넌스 체계 : 분석, 진단
14 주관:마스터 데이터, 메타 데이터, 데이터 사전
15 주관 : 시급성
3단원 : 데이터 마이닝  
16 시계열 : 안정성 시계열
17 데이터 정규성 : durvbin waston
18 민코우스키 : m 있는 것
19 k평균 : 초기값
20 stdent : income 통계적 유의
21 독립성, 등분산성, 정규성
22 구간 = 이산형
23 som : 경쟁층
24 1종오류 : h0사실, 아니라고 판정
25 그래프 해석 : 중앙값 , 평균 선택
26 주관 : 4개
27 주관: 앙상블
28 주관:25%
29 주관: 포와송 분포
30 주관:0.8
31 online learning

 

반응형
반응형

[adp/adsp] 교차 분석이란

 

1. 교차 분석
- 범주형(명목 척도, 순서 척도) 자료에서 두 변수간의 관계를 알아보기 위하여 사용함
- 적합도 검정, 독립성 검정, 동질성검정에 활용됨
- 카이제곱통계량을 활용함

2. 적합도 검정
- 관측도수와 범주의 기대 도수가 적합한지 확인하기 위한 검정
ex) 귀무가설 : 남자일 확률 50%, 여자일 확률 50%이다. , pvalue 값이 5% 미만이면, 기각

3. 독립성 검정
- 두 변수간의 상관성이 있는지 없는지를 확인하기 위한 검정
ex) 귀무가설 : 두 변수 사이에는 연관이 없다, pvalue 값이 5% 미만이면 연관있음 

4. 동질성 검정
- 모집단에서 표본을 뽑았을 때, 모집단의 분포와 표본 집단의 분포가 동질성을 갖는지 확인하기 위한 검정
ex) 모집단에서 추출한 표본과 모집단의 분포는 동질성이 있다. pvalue 값이 5% 미만이면 연관없음 

결론 
교차 분석은 두 집단간의 동질성을 판단하는 분석 방법으로, 기대 했던 값과의 적합도 검정, 변수들간의 적합도 검정, 모집단과 표본간의 동질성 검정에 활용된다. 

반응형

+ Recent posts