cs 매일 한걸음씩
본문 바로가기
  • 매일 한걸음씩
  • 매일 한걸음씩

전체 글100

일기) 2021년 7월 회고 7월엔 정말 많은 일이 있었다. 여기에 하나하나 나열할 수는 없지만,,,,너무 급변하게 무언가가 진행되어 블로그도 제대로 못했고 원하는 계획도 달성못했는데.. 일단 회고해보자. 회고해봐야 8월을 어떻게 살아갈지 감이 생길 것 같다. ✔️✔️: 만족스러울 정도로 달성하고 있음. ✔️ : 달성은 했으나 만족스럽지 않음. ❌ : 달성 안함. 1. 운동 (일주일에 4번 이상) 👉🏻 요즘 러닝이랑 빠르게 걷기로 달성하고 있다.✔️✔️ 2. 핸드폰 줄이기 (스크린 타임 2시간 이하) 👉🏻 확실히 통근시간이 줄어 핸드폰 사용량은 줄었다. 하지만, 2시간 이하는 아직 먼 것 같다. ✔️ 3. 아침 기상 👉🏻 출근시간이 빨라져서 6시 30분쯤 매일 일어난다. 사실 5시에 일어나는 미라클 모닝을 해보고 싶은데 8월까지는 .. 2021. 8. 3.
[programmers] 동적계획법(Dynamic Programming) - 정수 삼각형 (python) DP의 정석과도 같은 문제 아닐까 싶다 정말 빨리 푼듯.. 혼자 풀고 내 실력이 늘었나 싶었는데 근데 다른 분이 푼 풀이를 봤는데 정말 .... 털썩이였다. 진정한 파이썬인가저게... 많이 배워야겠다 ㅎㅎ 정수 삼각형 문제 설명 위와 같은 삼각형의 꼭대기에서 바닥까지 이어지는 경로 중, 거쳐간 숫자의 합이 가장 큰 경우를 찾아보려고 합니다. 아래 칸으로 이동할 때는 대각선 방향으로 한 칸 오른쪽 또는 왼쪽으로만 이동 가능합니다. 예를 들어 3에서는 그 아래칸의 8 또는 1로만 이동이 가능합니다. 삼각형의 정보가 담긴 배열 triangle이 매개변수로 주어질 때, 거쳐간 숫자의 최댓값을 return 하도록 solution 함수를 완성하세요. 제한사항 삼각형의 높이는 1 이상 500 이하입니다. 삼각형을 이.. 2021. 7. 3.
[Programmers] 동적계획법(Dynamic Programming) - N으로 표현 (python) 점심 약속이 취소돼서 저녁 약속 전 오랜만에 코테 문제 2개만 풀어봐야겠다. N으로 표현 문제 설명 아래와 같이 5와 사칙연산만으로 12를 표현할 수 있습니다. 12 = 5 + 5 + (5 / 5) + (5 / 5) 12 = 55 / 5 + 5 / 5 12 = (55 + 5) / 5 5를 사용한 횟수는 각각 6,5,4 입니다. 그리고 이중 가장 작은 경우는 4입니다. 이처럼 숫자 N과 number가 주어질 때, N과 사칙연산만 사용해서 표현 할 수 있는 방법 중 N 사용횟수의 최솟값을 return 하도록 solution 함수를 작성하세요. 제한사항 N은 1 이상 9 이하입니다. number는 1 이상 32,000 이하입니다. 수식에는 괄호와 사칙연산만 가능하며 나누기 연산에서 나머지는 무시합니다. 최솟값.. 2021. 7. 3.
일기) 2021년 5,6월 회고 벌써 7월이다아아 지난 달 회고를 안해서 5, 6월 회고를 같이 해보려고 한다. 사랑니빼고 개인적인 일도 있고 약간 5, 6월은 절전모드로 살았는데 7월부터 다시 달려보고자 한다 화이팅팅 ✔️✔️: 만족스러울 정도로 달성하고 있음. ✔️ : 달성은 했으나 만족스럽지 않음. ❌ : 달성 안함. 1. 운동 (일주일에 4번 이상) 👉🏻 필라테스랑 자전거/달리기로 달성 ✔️✔️ 2. 핸드폰 줄이기 (스크린 타임 2시간 이하) 👉🏻 아침 지하철에서 핸드폰대신 책읽는 습관을 들였더니 많이 줄어든 것 같다. ✔️ 3. 아침 7시반 기상 👉🏻 전화영어를 6시40분으로 시작해서 요즘 6시 30분쯤 거의 일어나는 것 같다. ✔️✔️ 4. 논문 리뷰 일주일에 1번 👉🏻 논문 스터디에서 진행중. ✔️✔️ 5. Github 관.. 2021. 7. 2.
[Lecture 12] Transformers Lecture 11에서는 어텐션 메커니즘을 이용하여 long term dependency를 어떻게 다루었는지에 대해 배웠다. 이번 강의에서는 이를 응용한 Transformer에 대해 배우는데 이는 근 몇년간 NLP분야에서 계속해서 SOTA 모델에 적용됐으며 비전쪽에서도 적용하는 추세다. 시작해보자! https://www.youtube.com/watch?v=Oqf7uJdKbjs Part 1 : Is Attention All We Need? 지난 시간 마지막즈음 어텐션을 배우며 어텐션이 정말 RNN이나 다른 기존의 모델의 단점을 커버할정도로 대단하다는 것은 알았으니 자연스럽게 이러한 질문이 떠오를 것이다. Q. 만약 우리가 attention를 사용한다면 굳이 recurrent connections이 필요할까.. 2021. 6. 7.
[논문 리뷰] Siamese Neural Networks for One-shot Image Recognition 회사에서 모델을 만들기 위해 고민하다가 클래스당 이미지 수가 적어 어떻게 분류할 지 검색해보다가 가장 클래식(?)한 방법인 샴 네트워크를 사용해보는 게 어떨까 싶어 논문을 이 기회에 한 번 리뷰해보고자 한다. Abstract 보통의 이미지 분류 문제에서는 뉴럴 네트워크를 이용해서 이미지로부터 feature를 뽑아내어 예측하는 방식인데, 이는 계산량이 클뿐만 아니라 데이터가 부족할 때 해결하기가 어렵다. 이러한 경우에 사용되는 것이 "One-shot learning"인데, 이 분야는 새로운 클래스의 예시가 하나 주어졌을 때 예측하는 것이 가능하다. 이 논문에서는 샴 뉴럴 네트워크를 학습하는 방법에 대해 다루는데, 말그대로 쌍둥이처럼 닮은 네트워크 구조를 가진다. 인풋간의 유사도를 rank하는 방법으로 기존.. 2021. 5. 27.
728x90