cs '개발/UC Berkely CS182' 카테고리의 글 목록
본문 바로가기
  • 매일 한걸음씩
  • 매일 한걸음씩

개발/UC Berkely CS18211

[Lecture 12] Transformers Lecture 11에서는 어텐션 메커니즘을 이용하여 long term dependency를 어떻게 다루었는지에 대해 배웠다. 이번 강의에서는 이를 응용한 Transformer에 대해 배우는데 이는 근 몇년간 NLP분야에서 계속해서 SOTA 모델에 적용됐으며 비전쪽에서도 적용하는 추세다. 시작해보자! https://www.youtube.com/watch?v=Oqf7uJdKbjs Part 1 : Is Attention All We Need? 지난 시간 마지막즈음 어텐션을 배우며 어텐션이 정말 RNN이나 다른 기존의 모델의 단점을 커버할정도로 대단하다는 것은 알았으니 자연스럽게 이러한 질문이 떠오를 것이다. Q. 만약 우리가 attention를 사용한다면 굳이 recurrent connections이 필요할까.. 2021. 6. 7.
[Lecture 10] Recurrent Neural Networks https://www.youtube.com/watch?v=PyZvbaC5oQY Part 1 오늘은 sequential data를 다루는데에 많이 사용되는 RNN에 대해 알아보자. 만약 우리가 사용하는 input의 사이즈가 변한다면 어떻게 될까? 예를 들어, 문장과 같은 인풋을 사용한다면 문장에 따라 길이가 계속해서 달라지게 된다. 아니면 비디오나 사운드와 같은 데이터인 경우에도 데이터에 따라 길이가 계속해서 다르다. 간단하게 생각해보면 max 길이가 5개라고 하면 5개미만의 데이터는 0으로 채우거나 이런 형태로 디자인을 할 수도 있다. 하지만 당연히 0으로 그냥 채워버리는 것이 최선의 아이디어는 아니다. 그럼 한 레이어에 한 개의 인풋이 들어간다고 하면 어떨까? 하나씩 레이어에 넣어주는 형태말이다. 각 .. 2021. 5. 23.
[Lecture 9] Visualization and Style Transfer https://www.youtube.com/watch?v=VKPkM6jt_P0 Part 1 : Generating Images from CNNs 전까지 네트워크의 작동원리, 배치, 정규화와 같은 방법론에 대해 배웠다. 그럼 CNN와 같은 convolutional network같은 경우에 층을 거치면서 어떠한 데이터, 이미지를 "보는" 것일까? 이를 시각화해보고 확인해보고 싶은 생각이 자연스럽게 들 것이다. 이러한 확인을 통해 네트워크를 이해하고 좀 더 발전시킬 수 있기 때문이다. 이번 파트에서는 이러한 시각화에 대해 배운다. 어떤 것을 시각화해볼 수 있을까?/ 시각해보고 싶을까? 첫번째로는 filter 그 자체이다. weight라고도 말할 수 있다. 어떤 이미지 feature가 필터를 통해 나오는 것일까.. 2021. 5. 19.
[Lecture 8] Computer Vision 이번 강의는 Computer vision분야에서 어떤식으로 딥러닝을 사용하는 지에 대해 대략적으로 소개하는 파트들로 구성되어 있다. 2018년에 대학원 강의를 들으며 딥러닝이 어떻게 쓰이는지에 대해 구체적인 소개를 듣고 정말 무서움과 놀라움을 금치못했는데 최신 강의에서는, 그것도 미국에서는 어떻게 흐름을 소개하는지가 궁금하다. (Lecture 6, 7은 보완해야할 부분이 많아 보완 후 다음주 주말 업로드 예정) Part 1 이제까지는 딥러닝에 대한 core idea, 예를 들어 convolutoin, normalization등에 대해 다뤘다. 이번 강의에서는 어떻게 딥러닝이 쓰이는지, 특히 컴퓨터비전 분야에서 어떻게 쓰이는 지에 대해 다룬다. 앞서 본 내용들은 이미지가 들어가서 output value가 .. 2021. 5. 9.
728x90