전체 글

인생이란 그저 기차를 타는 일
인생이란 게 꼭 커다란 이념이나 지고지순한 사랑, 엄청난 부와 명예 같은 걸 이루어야 제대로 산 게 아니라는 생각이 드는 것이다. 그냥 즐거운 음악이나 듣고, 맛있는 와인과 파스타를 먹으며, 틈틈이 여행이나 다니는 인생도 나쁘지 않다는 것이다. 대학원에 오고 나서, 어쩌다 선배랑 나눈 얘기 중에 기억에 남는 내용이 있다. "졸업하고 어떻게 살지 진짜 모르겠어요. 여기까지 온 것도 진짜 생각도 못했던 거라서." "기대 돼?" "오...(생각하다) 네!" "그럼 됐지." 블랙박스 같던 졸업 이후의 내 모습이 기대감 하나로 꽉 채워지는 느낌이었다. 더 나은 사람이 되고, 더 큰 꿈을 꿀 수 있을 것 같아서 기대가 되는 게 아니라 그 때는 또 어떤 모험을 하고 있을까가 진심으로 궁금해졌다. 뭘 즐거워하고 있을지..
Restart..!
석사과정에 입학하면서 새로운 환경에 적응 + 많아진 공부량을 소화하는라 기록에 소홀해졌다. 원래 사진보다는 글, 글보다는 영상으로 기록하는 게 더 오래 남는다고 생각해서 영상 기록을 조금씩 남겼었는데, 편집을 할 여유는 도저히 안난다는 생각이 들어서 거의 포기했었다. 영상이 안되면 글이라도 남겨놓자는 생각+일상보다는 뭔가 나한테 도움이 되는 걸 남기고 싶어서 테크블로그를 만들고 싶다는 생각만 계속하다가, github blog를 한 이틀정도 시도했는데, 생각하지 못한 에러들과의 만남, 트러블 슈팅을 위한 시간을 더 쓴다는 결론이 났고, 그 길로 티스토리로 돌아왔다.. :) 글을 쓰겠다는 마음을 먹고 실행에 옮기기까지 드는 노력은 오직 "글을 쓰는 것"이 되어야 한다는 가정이라면 이 곳만큼 괜찮은 곳도 없다..
[DL] 좋은 초기화 방법💡
[문제] 우리는 AI모델 학습을 위해 학습 파라미터의 초기값을 설정해야 합니다. 사실 학습 과정에서 변경될 값이기 때문에 그리 중요하지 않다고 생각하실지도 모르지만, 피어세션에서 언급된 것처럼 이러한 초기값 설정은 gradent descent 상황에서 출발 위치를 선정하는 것과도 같습니다. 다른 건 몰라도, 극소 값과 가까운 위치에서 초기화 된다면 학습이 빨리 끝나겠죠?! 물론 비용 함수가 극소 값이 되는 가중치 조합을 알고 학습을 시작하지는 않으니 이런 방법을 초기값 설정에 적용할 수는 없습니다만, 분명한 것은 초기값을 잘 설정하면 학습 비용을 줄일 수 있고, 이를 잘 설정하기 위한 연구들도 다양하게 존재합니다 (●'◡'●) **그렇다면, 다음 중 초기값을 가장 잘 설정한 Case는 어떤..
![[github] 관련 명령어](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FcaqTAx%2FbtqNQa9bDid%2FAAAAAAAAAAAAAAAAAAAAAONk5sXs0jHeTrB8qlRE2yiUS73CBe7DS0Kxz-Bg0vXU%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1753973999%26allow_ip%3D%26allow_referer%3D%26signature%3Dk%252BHjgGoQ6hSEQ3m67swcrLYiflw%253D)
[github] 관련 명령어
먼저 github.com에서 레파지토리 생성 git init git add * git commit -m "message" git remote add origin 주소 git push origin master local repository : 내 로컬 컴퓨터 레파지토리 .git : 버전들이 저장됨 commit : 버전을 생성함 History : 버전에 대한 설명들이 들어있음 remote repository : 원격 저장소. 깃헙 서버에 있는 저장소. push origin : 내 컴터에서 원격저장소(github.com)로 전송함. pull : 원격저장소에서 내 컴터로 땡겨옴. 협업 방법: 작업->commit->push origin pull origin -> 작업 -> commit -> push->....
![[컴퓨터네트워킹 : 하향식 접근] delay, loss, throughput](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2Fb0N7Fn%2FbtqNU3novrL%2FAAAAAAAAAAAAAAAAAAAAAKtROV3HA9lAxAMfbuMjGJ4Fbk95iFkzGz5LLalSPRZ2%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1753973999%26allow_ip%3D%26allow_referer%3D%26signature%3DOvdrDcgWBK3DSKwMDE%252B0pmpS9vc%253D)
[컴퓨터네트워킹 : 하향식 접근] delay, loss, throughput
1.4.1 패킷 교환 네트워크에서의 지연 개요 ■ 노드처리지연(processing delay) : 패킷 헤더를 조사하고 그 패킷을 어디로 보낼지를 결정하는 시간(일반적으로 수 msec) ■ 큐잉지연(Queuing delay) : 큐에서 링크로 전송되기를 기다리는 시간, 특정 패킷 큐잉 지연 길이는 큐에 앞서 도착한 패킷의 수에 의해 결정됨 - 큐가 비어 있고 다른 패킷이 전송중인 상태가 아니라면 큐잉지연은 0, 트래픽이 많고 다른 많은 패킷이 전송 대기 중이면 큐잉 지연은 매우 길어짐 - 큐잉 지연은 수 마이크로초~수 밀리초 ■ 전송지연(transmission delay) : 패킷의 모든 비트를 전송하는 데 필요한 시간 - 패킷의 길이를 L, 라우터 A에서 B까지 링크 전송률을 R bps라 할 때, ..
![[Research] 문헌조사① : Face Mask Detection](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FWLn5S%2FbtqI7w9efch%2FAAAAAAAAAAAAAAAAAAAAAAZ8nG1xesjsYMVqaxDhn0X0tDmXNdo90cxquu7gDs_V%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1753973999%26allow_ip%3D%26allow_referer%3D%26signature%3DWq2t5LCXLGAzk44fPWiC8hRKNfw%253D)
[Research] 문헌조사① : Face Mask Detection
Face Mask Detection using Transfer Learning of InceptionV3 Authors G. Jignesh Chowdary 1 , Narinder Singh Punn 2 , Sanjay Kumar Sonbhadra 2 , and Sonali Agarwal 2 Abstract According to WHO, the most effective preventive measure against COVID-19 is wearing a mask in public places and crowded areas. In this paper, a transfer learning model is proposed to automate the process of identifying the peo..
![[확률 및 통계] 상관 분석(Correlation Analysis)](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FcNFc8p%2FbtqGsn3dPst%2FAAAAAAAAAAAAAAAAAAAAAPGWGlVBbscdmQ0sJ8WsQFF36bvz1L5-IrfCUHhvroaF%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1753973999%26allow_ip%3D%26allow_referer%3D%26signature%3DMOFPEDJ5zZxctAvoeO4vTgxJFvE%253D)
[확률 및 통계] 상관 분석(Correlation Analysis)
산점도(Scatter plot) (x1,y1), (x2,y2), …, (xn, yn)평면좌표에 표시한 도표 시각적으로 두 변수의 관계를 쉽게 알 수 있게 해줌 변수간 관계의 방향, 형태, 관계의 강도를 알 수 있음 공분산(Covariance) 두 확률변수 X와 Y의 선형적 상관관계를 측정할 수 있는 척도 X와 Y가 각각의 평균을 중심으로 하여 같은 방향으로 변화하는 정도를 나타냄 σxy=Cov[X, Y] = E[(X- E[X])(Y- E[Y])] = E[XY] - E[X]E[Y] 공분산 값의 크기가 단위 등에 따라 달라짐 표본 공분산(Sample Covariance) σxy 의 추정량으로 Sxy 로 표현 상관계수 공분산을 단위와 무관하게 표준화시킴 -1 에서 1까지의 값을 가짐 표본상관계수 상관계수의 추..
![[확률 및 통계] 분산 분석(Analysis of Variance : ANOVA)](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2Fduc4tF%2FbtqGuxD8E4J%2FAAAAAAAAAAAAAAAAAAAAAA8Q5yrA5BIa3eAK1UnuEYbILh-9yKIg6R5ENH5sEyk6%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1753973999%26allow_ip%3D%26allow_referer%3D%26signature%3DlHIiDaGXZNmq0q3zjPdb%252BYbQZU0%253D)
[확률 및 통계] 분산 분석(Analysis of Variance : ANOVA)
분산분석 세 집단 이상의 평균 비교 : 분산분석(Analysis of Variance; ANOVA) 두 집단 평균 비교 : 2 sample t or z test 검정 통계량의 구성 판정 : 검정 통계량 F0가 기각역에 포함되면 H0 기각 실험계획법 실험계획법 용어 입력변수(X, input variable) 종속변수에 영향을 주는 변수로 인자라고도 함 제어가능한 변수와 제어가 불가능한 변수가 있음 반응변수(Y, response variable) 입력변수에 영향을 받는 변수 수준(level) 입력변수를 양적 또는 질적으로 변화시킬 경우의 단계 처리조건(treatment) 입력변수의 각 수준들의 조합 교호작용(interaction) 한 입력변수의 수준에 따른 반응변수의 변화가 다른 입력 변수의 수준에 따라 다..