제목 그대로다. 오늘 막상 스스로에게 뉴럴 네트워크에 대해 설명을 해보려고 했으나..공식을 계산할 줄만 알았지. 왜이렇게 됐는지는 몰랐다. 알고 있는 줄 알았다. 사진을 픽셀별로 촤르륵 1자로 쪼개서, 그것들을 합친다면 어떻게 계산하는 거야??? 퍼셉트론 : 임계값 활성화 기능을 가진 유런의 구조를 차용한 아키텍쳐. 이 단순한 걸로 그 복잡하고 정교한 신경망을 만드는 것이다. 결국 픽셀 별로 숫자화 (0~1) 시키고, 그 숫자들을 은닉층에서 잘개 부수고 조합해서 총 n개의 출력층에서 출력을 하고, 그 평균으로 답을 구하는 것임... (세세한 부분은 틀릴수도) 근데 여기서 구한 답이 항상 맞겠어? ㄴㄴ 차이가 있겠지. 그 차이를 다 더한 함수가 '손실함수(cost)' 임 . 손실함수의 최소.곧 , 이 결과..
!wget 이 뭐야? - Wget은 웹에서 파일을 다운로드하기 위한 명령줄 유틸리티입니다. Wget을 사용하면 HTTP, HTTPS 및 FTP 프로토콜을 사용하여 파일을 다운로드할 수 있습니다. Wget은 여러 파일을 다운로드하고, 다운로드를 재개하고, 대역폭을 제한하고, 반복 다운로드하고, 백그라운드에서 다운로드하고, 웹 사이트를 미러링할 수 있는 다양한 옵션을 제공합니다. -출처 : https://jjeongil.tistory.com/1291 Linux : Wget 명령어 사용하는 방법, 예제 GNU Wget은 웹에서 파일을 다운로드하기 위한 명령줄 유틸리티입니다. Wget을 사용하면 HTTP, HTTPS 및 FTP 프로토콜을 사용하여 파일을 다운로드할 수 있습니다. Wget은 여러 파일을 다운로드하..
엔트로피 : 내가 코딩을 짧게 만들어도 사람들이 다 알아먹었으면 좋겠어! 그럼 자주 쓰는 변수는 짧은 비트 사용하고, 자주 안쓰는 변수를 긴 비트로 코딩하면 되겠네 ! 교차 엔트로피 : 제일 좋은 경우가 있는데 굳이 딴 경우를 써서 좀 더 힘들게 코딩 KL-divergence : 교차엔트로피 - 엔트로피 Mutual Infomation : 원래는 p(x,y) 로 한거의 평균을 구해야하는데, x 와 y가 독립이라고 생각하고 코딩함. 유튜브 대박이야... 😭😂 혁펜하임 너무 잘가르쳐...😭😍
경사 하강법: 어떤 손실 함수가 정의되었을 때, 손실 함수의 값이 최소가 되는 지점을 찾아가는 방법입니다. SSE 오차제곱합 : 1/2 * sum_k ( 실제y_k - 예측y_k )^2 -1/2가 왜 곱해졌을까? : 델타규칙 때문임. ->최적의 가중치를 찾아가는 최적화(Optimizer)에서 사용되는 경사하강법은 기울기를 기반으로 실시되며 이 과정에서 발생할 수 있는 오류를 최소화 하기 위해 1/2를 곱하는 것이다. what is 델타규칙 ? : 단층 신경망 학습에서 가중치를 체계적으로 변경하는 방법 어떤 입력 노드가 출력 노드의 오차에 기여했다면, 두 노드의 연결 가중치는 해당 입력 노드의 출력과 출력 노드의 오차에 비례해 조절한다. '가중치의 변화량' : W_ij = 학습률 * ( 타겟 출력 - 실제..
통계를 위한 수학 사이트 - http://savanna.korea.ac.kr/wp/?page_id=605 Mathematics for Machine Learning – SaVAnNA Lab 소개 – 본 포스트는 Mathematics for Machine Learning(Deisenroth, M. P., Faisal, A. A., & Ong, C. S. (2018))을 한글로 정리해놓은 자료로, 머신러닝의 기초가 되는 수리적인 부분(1~7)과 이를 기반으로 이루어지는 savanna.korea.ac.kr https://angeloyeo.github.io/ 여기 쫌 지림 홈 - 공돌이의 수학정리노트 ※ 섀넌-나이퀴스트의 샘플링 이론의 증명은 이 포스팅을 확인하세요. 샘플링 전 연속 신호(흰색)와 샘플링하여 복..
로지스틱 회귀분석 -> 이진분류 학습임 -> 0-1사이의 함숫값으로 존재하는 것들을 미분 가능하게 그래프 만들어보자 -> 시그모이드 함수 활용 -> 그게뭐노? -> 오즈(odds)에 로그를 취한 것을 이용하여 확률 식을 만듦 -> 식에서 성공확률(p)이 종속변수임 -> p= ~~로 식정리 -> 저 식이 나옴. 타 블로그 발췌 - Sigmoid 함수는 마이너스 값을 0에 가깝게 표현하기 때문에 입력값이 최종 계층에서 미치는 영향이 적어지는 Vanishing gradient problem 이 발생한다고 함. 오늘의 감동적인 순간 1. 로그를 왜 취하는지 알게됨. -큰 수를 작게 만들기 위해서 -복잡한 식을 간단하게 만들기 위해서 2. 자연상수 e 의 의미를 알게됨. - 성장률 100%를 n번으로..