활성화함수2 활성화 함수 2 3. 렐루 함수(Rectifid Linear Unit, ReLU) ReLU(Rectifid Linear Unit) 함수는 인공 신경망에서 주로 사용되는 비선형 활성화 함수 중 하나로, 입력이 양수인 경우에는 입력 값을 그대로 출력하고, 음수인 경우에는 0으로 변환하는 함수입니다. 수식적으로는 다음과 같이 표현됩니다. f(x) = max(0, x) 여기서, f(x)는 입력 x에 대한 ReLU 함수의 출력값을 의미합니다. max(a, b)는 a와 b 중에서 큰 값을 반환하는 함수입니다. ReLU 함수는 입력이 0보다 작을 때 출력이 0이 되므로, 비선형적인 특성을 가집니다. 이러한 비선형성은 인공 신경망의 은닉층에서 주로 사용되는 활성화 함수로서 매우 중요합니다. 왜냐하면 선형 활성화 함수를 사용하면 여러 .. 2023. 7. 18. 활성화 함수1 화성화 함수(Activation Function)는 신경망에서 뉴런의 출력을 결정하는 함수로, 입력값의 가중치 합과 편향에 대한 비선형 변환을 수행합니다. 활성화 함수는 신경망의 비선형성을 표현하며, 모델의 표현력과 학습 능력에 큰 영향을 미칩니다. 1. 시그모이드 함수(Sigmoid Function) 시그모이드 함수는 주로 인공 신경망에서 사용되는 비선형 활성화 함수 중 하나입니다. 시그모이드 함수는 입력값을 받아서 0과 1 사이의 값으로 변환하는 함수로, S- 모양의 곡선을 가지기 때문에 "시그모이드"라는 이름이 붙었습니다. 시그모이드 함수는 다음과 같이 표현됩니다. f(x)=1 / (1 + exp( -x ) ) 여기서, f(x)는 입력 x에 대한 시그모이드 함수의 출력값을 의미합니다. exp( -x.. 2023. 7. 17. 이전 1 다음