Home
highcloud100
Cancel

Schedule

Process State Active status 프로세스의 상태를 정리해보자. 생성, 준비, 실행, 대기, 완료 -> 5가지 상태 Ready cpu 스케줄러의 호출을 기다리는 상태 Running cpu를 사용하고 있는 상태 I/O 요청 시 cpu를 뺏김 -> I/O까지 wait timeslice를 모두 소모하면 뺏...

Optimization

Problem 목적은 loss, error function을 최소화하는 θ\thetaθ값을 구하는 것이다. Gradient Descent 간단한 정리 역전파에서 간단히 다루었다. 최적화 기법에서 가장 기본적이고 중요한 방법이다. 제약 조건이 없는 convex, differentiable한 함수의 최적화 문제의 해결책이다. ...

Thread

PCB Consists PCB는 다음과 같이 c의 struct으로 만들어져 있다. 6개로 나눌 수 있다. task basic info files : 프로세스가 오픈한 파일들의 정보 fs : 접근중인 파일 정보 tty : 사용중인 터미널 정보 mm : 사용중인 메인 메모리 정보 signals PCB 구조체에서는 포인터를 이용해서...

Backpropagation

Backpropagation Gradient Descent 최적화 기법에서 가장 기본적이고 중요한 방법이다. 제약 조건이 없는 convex, differentiable한 함수의 최적화 문제의 해결책이다. 기준을 만족할 때까지 다음 식을 반복한다. xk+1=xk−tk∇f(xk) x^{k+1} = x^{k} - t_k\nabla f...

MLP

Multi-Layer Perceptron (MLP) XOR 문제 앞서 이야기했던 XOR문제를 어떻게 풀어야 할까? 해답은 그림 그대로 선을 하나 더 긋는 것이다. 두 직선 안과 밖으로 나눌 수 있게 된다. 이를 신경망으로 다음과 같이 나타낼 수 있다. 이를 이용해 xor 문제를 풀어보면 xor문제를 해결할 수 있다. N...

Perceptron

Artificial Neuron 매컬러와 피츠가 제안한 매우 단순한 신경망 모델 입력이 일정 개수만큼 활성화되면 출력을 내보냄 논문에서 어떤 논리 명제도 계산할 수 있다는 것을 증명함 MCP뉴런이라 부른다. 뉴런은 행렬 계산의 일부이다. 특별하거나 심오한걸로 생각하지 말자. Perceptron 1957년 로젠블라트(Frank Rosen...

Loss & Cost Function

손실함수와 비용함수 개념 Loss function은 모델이 실제 값과 어느 정도 차이가 나는지 수치화하는 함수이다. 차이를 손실이라 부른다. Cost function은 Loss function과 달리 데이터 셋 전체를 대상으로 손실을 구한다. Loss function은 특정 데이터에 대해 손실을 구한다. L1 손실함수 L1&nbs...

Logistic Regression

Logistic Regression Classification Linear regression은 값을 예측하는 모델이다. 추정 값이 −∞<y^<∞-\infin < \hat y <\infin−∞<y^​<∞ 의 범위를 가진다. Logistic Regression은 이진 분류 모델이다. 추정 값이 0 혹은 1...

Regularization

Regularization Overfitting 좋은 모델의 조건 학습 데이터를 잘 설명하는 모델 미래 데이터 또한 잘 예측하는 모델 만약 위 사진처럼 과적합이 된다면 학습 데이터를 잘 설명하지만 실제 데이터에서는 오차가 증가하게 된다. 고로 generalization이 필요하다. Concept 어떻게 규제할 것인가? ...

linear model

Linear models Linear regression linear equations m = equations n = unkowns m > n over-determined : 부정식 under complete 주로 Lidge를 사용한다함 거의 대부분의 머신러닝 문제 m = n 흔히 학교에서 풀었던 방정식 unique ...