cs 매일 한걸음씩
본문 바로가기
  • 매일 한걸음씩
  • 매일 한걸음씩

전체 글100

[2019 KAKAO BLIND RECRUITMENT] 블록 (python) (95%) 와우 넘 어려웠다. 테스트케이스14번이 안풀리는데 반례 계속 생각해봐도 안풀린다ㅠㅠ 한시간넘게 걸려서 푼듯... 역시 코테는 꾸준히 해야해 programmers.co.kr/learn/courses/30/lessons/42894# 코딩테스트 연습 - 블록 게임 [[0,0,0,0,0,0,0,0,0,0],[0,0,0,0,0,0,0,0,0,0],[0,0,0,0,0,0,0,0,0,0],[0,0,0,0,0,0,0,0,0,0],[0,0,0,0,0,0,4,0,0,0],[0,0,0,0,0,4,4,0,0,0],[0,0,0,0,3,0,4,0,0,0],[0,0,0,2,3,0,0,0,5,5],[1,2,2,2,3,3,0,0,0,5],[1,1,1,0,0,0,0,0,0,5]] 2 programmers.co.kr import nump.. 2021. 5. 5.
[카카오 2020 인턴] 동굴 탐험 (python) programmers.co.kr/learn/challenges 코딩테스트 연습 기초부터 차근차근, 직접 코드를 작성해 보세요. programmers.co.kr [본 문제는 정확성과 효율성 테스트 각각 점수가 있는 문제입니다.] 오지 탐험가인 프로도는 탐험 도중 n개의 방으로 이루어진 지하 동굴을 탐험하게 되었습니다. 모든 방에는 0부터 n - 1 까지 번호가 붙어있고, 이 동굴에 들어갈 수 있는 유일한 입구는 0번 방과 연결되어 있습니다. 각 방들은 양방향으로 통행이 가능한 통로로 서로 연결되어 있는데, 서로 다른 두 방을 직접 연결하는 통로는 오직 하나입니다. 임의의 서로 다른 두 방 사이의 최단경로는 딱 한 가지만 있으며, 또한 임의의 두 방 사이에 이동이 불가능한 경우는 없습니다. 탐험에 앞서 이 .. 2021. 5. 5.
[Lecture 7] Initialization, Batch Normalization 이번 강의에서는 어떻게 모델을 "잘" 학습시킬지에 대한 전략들에 대해 다룬다. (마지막 파트에 대한 보충설명이 곧 추가될 예정) Part 1 : Batch Normalization 만약 모델을 학습시키는데 학습이 잘 안되는 경우에 어떻게 해야할까? Neural Net은 복잡하기에 다양한 전략을 사용해서 훈련시켜야한다.(이전 강의들에서 봤듯이, local minima등에 빠질 가능성이 너무 높다!!) 이에 사용할 수 있는 방법들로는 다음이 있다. 만약 데이터가 다음의 두 상황이라면 어떨까? 오른쪽의 경우가 왜 어려운 경우일까? 그래프로 확인할 수 있듯이 오른쪽에서는 첫번째 차원이 훨씬 크다. 이러한 경우에 왜 문제가 될 지 이전에 배운 back propagation으로 확인해보자. Loss function.. 2021. 5. 2.
[논문 리뷰] Everybody Dance Now 오늘은 비디오 합성 분야의 논문인 Everybody Dance Now에 대해 리뷰를 해보겠습니다. 비디오 합성은 처음이라 조금 복잡한 내용이 많을 줄 알았는데 아주 간단하게 기존의 모델을 사용한 논문이라 이해하기가 쉬웠습니다.ㅎㅎ 실제 demo영상도 보니 간단한 모델에 비해 성능이 대단한 것을 확인할 수 있었습니다. www.youtube.com/watch?v=PCBTZh41Ris Abstract 이 논문은 "do as I do"라는 motion transfer방법에 대해 다룬다. 간단하게 flow를 설명하자면 source subject(ex. 발레리나 비디오)로부터 포즈를 뽑아내고 학습을 통해 이러한 포즈를 target subject로 매핑시키는 방법이다. Introduction 위와 같이 발레리나의 비.. 2021. 4. 28.
Text Classification에서 class imbalance 해결 방법 텍스트 분류를 BERT와 같은 언어모델로 풀고자 할 때 흔하게 발생하는 이슈는 특정 클래스들의 데이터 수가 상대적으로 적은 Imbalance 문제이다. 이를 어떤 방법으로 해결할 수 있을 지 살펴보자. 참고 : www.researchgate.net/publication/336538175_Dealing_with_Data_Imbalance_in_Text_Classification (PDF) Dealing with Data Imbalance in Text Classification PDF | Many real world datasets don’t offer enough training input for regular classifiers: some classes are more represented than .. 2021. 4. 28.
[Lecture 5] Backpropagation www.youtube.com/watch?v=lKRatcD9hEg 이번 강의에서는 기본적인 Neural Network의 구조와 파라미터를 업데이트하는 방법인 BACK PROPAGATION에 대해 다룬다. Part 1 파라미터 업데이트 과정을 그레프로 봐보자. 이러한 flow를 생각해볼 때 Loss function은 다음과 같이 정의할 수 있다. 이러한 Loss를 MSE loss라고 한다. 또한, 모델을 Linear regression이라 칭할 수 있다. 이제 하나의 원소가 아닌 벡터단위에서 생각해보자. 여기서 X는 dot product가 된다. 보통 모델에서는 원소단위가 아니라 Matrix, Vector 단위이기에 벡터단위는 앞으로 생략하도록 한다. 다음으로는 Negative log-likelihood l.. 2021. 4. 18.
728x90