머신러닝/CV5 하이퍼 파라미터 정의 모델 구조나 학습 알고리즘 자체에 의해 학습되는 것이 아니라, 사전에 사용자에 의해 설정되는 매개변수 ResNet의 하이퍼 파라미터 1. 깊이 ResNet의 깊이는 네트워크의 레이어 수를 나타낸다. 더 깊은 네트워크는 더 복잡한 패턴을 학습할 수 있지만, 과적합의 위험이 증가할 수 있다. 2. 블록구조 ResNet은 여러 개의 블록을 쌓아 만든다. 각 블록 안에는 여러개의 레이어가 들어갈 수 있고, 이 블록 구조를 조절할 수 있다. 3. 필터 크기와 개수 Convolutional 레이어에서 사용되는 필터 크기와 개수를 조절할 수 있다. 더 작은 필터 크기는 더 세부적인 특징을 학습할 수 있다. 4. 스트라이드와 패딩 Convolutional 레이어에서 사용되는 스트라이드와 패딩 값을 조절하여 출력 .. 2024. 3. 30. 딥러닝 cv - VGG 깊이가 깊어짐에 따라 성능에 어떤 영향을 미치는지 확인하기 위해 만든 모델 특징 3x3 필터만을 사용하여 컨볼루션 한다. 활성화 함수는 ReLU 함수를 사용한다. layer1 (convolution) 224x224x3 이미지를 224x224x64 특징맵으로 바꿔주는 레이어 64개의 3x3x3 필터를 사용하여 컨볼루션 한다. (padding=1, stride=1) 1개의 3x3x3 필터를 사용하면 224x224x1 특징맵이 나온다. 64개의 필터를 사용했기 때문에 224x224x64 특징맵이 나온다. layer2 (convolution) 224x224x64 특징맵을 224x224x64 동일한 크기의 특징맵으로 만든다. (정보 손실을 최소화하면서 더 깊은 레이어 구성하기 위해) 64개의 3x3x64 필터를 .. 2024. 3. 30. 딥러닝 cv - Filter Filter 필터는 입력 이미지에 적용되어 특정한 특징이나 패턴을 감지하는 작은 윈도우이다. 이미지를 스캔하면서 특정한 패턴이나 엣지, 질감등을 찾아낸다. 이미지의 여러 부분에서 특징을 추출하는 역할을 한다. Kernel 필터의 수학적인 표현으로 필터를 정의하는 가중치를 포함한 작은 행렬이나 행렬 모양의 구조를 의미한다. (필터와 커널을 동일한 개념으로 이해해도 무방) Filter의 크기와 깊이 사이의 상관관계 ex1) 7x7 사이즈의 이미지가 있다고 가정하자. 그 이미지에 3x3 필터로 컨볼루션 하면 5x5 사이즈가 된다. 5x5 사이즈의 이미지에 3x3 필터로 컨볼루션 하면 3x3 사이즈의 이미지가 된다. ex2) 7x7 사이즈의 이미지에 5x5 필터로 컨볼루션 하면 3x3 사이즈의 이미지가 된다. .. 2024. 3. 30. 밑바닥부터 시작하는 딥러닝 - chapter3 신경망 1. 다층 퍼셉트론의 한계 선형함수로 층을 깊게 쌓아도 선형함수이며 1층인 선형함수와 다를바가 없음 2. 활성화 함수 도입 입력 신호의 총합이 활성화를 일으킬지 말지를 결정하는 역할 3. 활성화함수 종류 ① 시그모이드 함수 장점: 출력값의 범위가 0~1 사이로, 출력값에 따라 어느 분류에 속하는지 확인 가능 단점: 입력값이 커도 출력값이 매우 작으므로 기울기 소실 문제가 생김 ② ReLU 함수 장점: 다른 활성화 함수보다 학습속도가 빠름, 은닉층에서 기울기 소실 문제 발생하지 않음 단점: 입력값이 음수인 경우 기울기가 0이 되어 가중치 업데이트가 안될 가능성 존재 4. 3층 신경망 구현 1층계산: A=X1@W1+B1 A=[a1,a2,a3] W1=[[w11,w12,w13], [w21,w22,w23]] X=.. 2024. 3. 30. 밑바닥부터 시작하는 딥러닝 - chapter2 퍼셉트론 1. 퍼셉트론 다수의 신호를 입력으로 받아 하나의 신호 출력 x1, x2 : 입력신호 y: 출력신호 w1, w2: 가중치 θ: 한계(임계값) 2. 퍼셉트론의 동작원리 ① 입력신호가 뉴런에 보내질 때는 가중치가 곱해진다. ② 뉴런에서 보내온 신호의 총합이 정해진 한계를 넘어설 때만 1을 출력한다. 3. 단순한 논리회로 1)AND 게이트 AND게이트 수식표현 (w1 =0.7, w2=0.7) 2)NAND 게이트 NAND게이트 수식표현 (w1=-0.7, w2=-0.7) 3)OR 게이트 OR게이트 수식표현 (w1=0.7, w2=0.7) 4. θ대신 bias(편향) 가중치: 각 입력 신호가 결과에 주는 영향력을 조절 편향: 뉴런이 얼마나 쉽게 활성화 될지를 조절 5. XOR 게이트 기존의 퍼셉트론으로는 구현 불.. 2024. 3. 30. 이전 1 다음