전체 글
-
[cs231n] 11강 탐지와 분리 (Detection and Segmentation) (3/4, 물체 탐지 (Object Detection))AI 2021. 4. 26. 20:38
다음으로 얘기하고 싶은 작업은 물체 탐지입니다. 이건 정말 내용이 많은 주제죠. 이건 컴퓨터 시각 (computer vision)에 있어서 핵심 문제와 같은 것이라서 아마도 여러분은 전체 세미나 강좌를 물체 탐지 역서와 여기에 적용된 다양한 기법들로만으로도 가르칠 수 있을 겁니다. 저는 짦게 할거고, 지난 2년간 사용되었던 물체 탐지 더하기 딥러닝 (deep learning)의 주요한 큰 아이디어에 대해서만 볼겁니다. 그러나 물체 탐지에서의 아이디어는 우리가 신경쓰는 어떤 정해진 카테고리 집합을 가지고 시작한다는 겁니다. 아마도 고양이와 개, 물고기 혹은 뭐든지, 우리가 관심있는 어떤 정해진 카테고리 집합이죠. 이제 우리의 작업은 입력 이미지가 주어지고, 이미지에 저 카테고리 중 하나가 나타날 때마다, ..
-
[cs231n] 11강 탐지와 분리 (Detection and Segmentation) (2/4, 분류 + 위치찾기 (classification + localization))AI 2021. 4. 26. 17:39
다음 작업으로 얘기하고 싶은 것은 이 분류 더하기 위치 찾기 (classification plus localization)아이디어입니다. 이미지 분류에 대해서 많이 얘기했는데, 여기서 우리는 그냥 입력 이미지에 어떤 카테고리 레이블 (category label)을 붙이고 싶었죠. 그러나 가끔 여러분은 이미지에 대해서 좀 더 알고 싶을 수도 있죠. 카테고리가 뭔지 예측하는 것 뿐만 아니라, 이 고양이의 경우에서, 여러분은 이미지에서 그 객체가 어디 있는지 알고 싶을 겁니다. 고양이 카테고리 레이블을 예측하는 것 뿐 아니라, 그 이미지에서 고양이 영역 주변에 경계 상자 (bounding box)를 그리고 싶을 수도 있죠. 분류 더하기 위치 찾기를 여기서 객체 탐지 (object detection)와 구별하는..
-
[cs231n] 11강 탐지와 분리 (Detection and Segmentation) (1/4, 의미적 분리와 전치 합성곱 (semantic segmentation & transpose convolution))AI 2021. 4. 24. 16:30
안녕하세요. 시작하겠습니다. cs23n 11강에 오신 것을 환영합니다. 오늘 우리는 탐지 (detection), 분리 (segementation)와 핵심 컴퓨터 시각 (computer vision) 작업들을 둘러싼 여러 많은 정말 흥분되는 주제들에 대해서 얘기하겠습니다. (HyperQuest에 대한 내용은 현재 서비스가 되지 않는 것 같아서 건너뛰겠습니다.) 지난시간을 약간 복습해 보죠. 우리는 순환 신경망에 대해서 얘기했죠. 순환 신경망은 다양한 종류의 문제들에 사용될 수 있죠. 일대일 뿐만아니라, 우리는 일대다, 다대일, 다대다도 할 수 있습니다. 우리는 이것이 언어 모델링에 적용될 수 있다는 걸 봤죠. 우리는 몇 가지 멋진 예제들을 봤는데 신경망을 다양한 종류의 언어에 문자 수준 (character..
-
[cs231n] 10강 순환 신경망 (Recurrent Neural Network) (4/4, LSTM)AI 2021. 4. 13. 17:48
지금까지 우리는 이 단일 순환 망 계층에 대해서 얘기했는데, 하나의 숨겨진 상태 (hidden state)만 있는 거죠. 앞으로 꽤 자주 보게 될 또하나는 이 다층 순환망 (multi-layer recurrent network) 아이디어입니다. 여기서 이건 3계층 순환 신경망인데, 입력이 들어가고 일련의 숨겨진 상태가 첫번째 신경망 계층으로부터 만들어 집니다. 그리고 이제, 하나의 순환 신경망 계층을 실행시키고 나면, 이런 숨겨진 상태의 전체 순열을 가지게 됩니다. 그리고 그 숨겨진 상태의 순열을 다른 순환 신경망 계층의 입력 순열로 사용할 수 있습니다. 그럼 두번째 RNN계층으로부터 또다른 숨겨진 상태의 순열을 만들어 내는 것을 생각해 볼 수 있죠. 그리고 이런 것들을 서로서로 쌓아올리는 것을 생각할 ..
-
[cs231n] 10강 순환 신경망 (Recurrent Neural Network) (3/4, 이미지 캡셔닝 (image captioning))AI 2021. 4. 13. 15:36
저는 안드레이 (Andrej)와 이 논문을 몇 년전에 썼는데, 많은 이런 모델을 훈련시켰고 이 모델들의 브레인으로 들어가서 그것들이 무엇을 하고 있는지, 왜 그것들이 동작하는 지에 대해서 알아내려고 했죠. 그래서 우리는 이 순환 신경망 (recurrent neural network)들이 이 숨겨진 벡터들을 가지고 있고, 그 벡터는 매 시점마다 업데이트 되는 어떤 벡터라는 것을 알았죠. 그다음 우리는 이 벡터의 어떤 요소가 어떤 구문론적 해석가능한 의미를 가지고 있는 지를 알아 내려고 했습니다. 우리는 신경망 언어 모델을 훈련시켰는데, 이 문자 수준 (character level) 모델 중 하나를 이 데이타 셋 (data set)중의 하나에 대해서 했죠. 그리고 그 숨겨진 벡터 (vector) 내의 요소 ..
-
[cs231n] 10강 순환 신경망 (Recurrent Neural Network) (2/4, 계산 그래프 (computational graph))AI 2021. 4. 13. 11:50
구체적인 예로, 우리가 순환 신경망을 자주 사용하는 대상은 언어 모델링 (language modeling)이라고 부르는 문제입니다. 언어 모델링 문제에서는, 어떤 순열을 읽는 건데, 망이 어떻게 자연어 (natural language)를 만들어 내는 지를 이해하는 거죠. 그래서 이건 문자 단위로 (character level) 벌어지는 일이라서, 우리의 모델은 한번에 하나씩 문자를 만들어 냅니다. 이건 또 단어 수준으로 (word level) 할 수 있죠. 모델이 한번에 하나씩 단어를 만들어 내는 겁니다. 그러나, 매우 간단한 예에서, 여러분은 이 문자 단위 언어 모델을 상상해 볼 수있고, 거기서는 망이 어떤 순서의 문자들을 읽고 텍스트의 흐름에서 다음 문자가 어떤 것이 될 지를 예측할 필요가 있는거죠...
-
[cs231n] 10강 순환 신경망 (Recurrent Neural Network) (1/4, 계산 그래프 (computational graph))AI 2021. 4. 12. 19:10
기억을 되살려보면, 지난시간에 우리는 CNN 아키텍처에 대해 이야기 했죠. 우리는 이미지넷 (ImageNet) 분류 대회의 여러 우승자들 중 몇개를 시간 순서로 봤습니다. 돌파구가 발견된 결과였던 것 같죠. 봤듯이 2012년에는 알렉스넷 (AlexNet) 아키텍처였죠, 9개 계층의 합성곱 신경망이었습니다. 그건 놀랍게 잘 했고, 그것이 컴퓨터 비전에 있어서 이 전체 딥러닝 혁명을 시작한 거죠. 그리고 이 많은 모델들을 주류 (mainstream)로 끌어올렸죠. 그리고 나서 우리는 2년 정도 건너 뛰어서 2014년 이미지넷 대회에서 2개의 매우 재미있는 모델인 VGG와 구글넷 (GoogLeNet)을 봤습니다. 그것들은 훨씬 더 깊었죠. VGG는 16과 19 계층 모델이 있었고 구글넷은 22 계층 모델이었던..
-
[cs231n] 9강 CNN 아키텍처 (architecture) (4/4, 다른 아키텍처들)AI 2021. 4. 1. 15:50
빠르게 관련된 복잡도에 대해 좀 더 감을 잡아 보도록 이걸 보죠. 여기에 플롯 (plot)들이 있는데, 성능으로 정렬된 건데, 상위 1개 (top 1) 정확도로 정렬된거죠. 그래서 더 높은게 더 좋은 거죠. 우리가 얘기했던 이 모델 중 많은 것들을 보게 될거고 뿐만 아니라 그것들의 다른 버전도 보게 될 겁니다. 이 구글넷 인셉션은, v2, v3도 있었던 것 같은데요. 가장 좋은 것은 v4인데, 이건 사실 레즈넷 더하기 인셉션의 조합이죠. 그래서 이것들은 그것들 위에 만든 일종의 점진적이고, 좀 더 작은 변화들입니다. 그래서 그게 여기서 가장 잘 동작하는 모델이죠. 오른쪽을 보면, 이 계산 복잡도에 대한 플롯들은 정렬이 되어 있는데요. Y축은 상위 1개 정확도라서 더 높은 것이 더 좋은 거죠. X축은 연산..