기계학습 반지도 학습
레이블이 지정된 데이터와 레이블이 지정되지 않은 데이터를 모두 사용하여 학습하지만 대부분 레이블이 지정되지 않은 많은 데이터를 일부 레이블이 지정된 데이터로 보충하여 학습되는 문제 유형을 처리합니다.
기계학습 강화 학습
이 두 가지 문제는 지도가 있느냐 없느냐에 따라 분류되었지만, 강화학습은 조금 다르다: 현재 상태에서 어떤 행동을 하는 것이 최선인지를 배우는 것이다. 행동을 취할 때마다 외부 환경에 의해 보상을 받고, 학습은 보상을 극대화하는 방향으로 진행되며, 행동을 취한 직후(지연된 보상) 항상 보상을 받는 것은 아니다. 결과적으로, 문제의 난이도는 이전 두 가지에 비해 많이 증가했으며 시스템을 적절하게 보상하는 것과 관련된 신뢰 할당 문제의 어려움은 여전히 연구자들을 괴롭히고 있습니다. 체스에서는 나와 상대방의 현재 위치가 상태가 됩니다. 여기서 행동은 어떤 조각을 움직이는 방법입니다. 말을 잡으면 보상을 받을 수도 있지만, 말을 잡으면 말에서 멀어지는 시간이 필요할 수도 있기 때문에 당장 보상을 받지 못할 수도 있다. 말을 잡는 것은 전술적으로 유리하지만, 형태상으로는 불리하여 끝나면 손해를 볼 수도 있다(지연 보상). 따라서 강화학습에서는 현재의 보상 값이 아무리 조금이라도 나중에 얻게 될 값을 포함한 보상 값의 합이 최대가 되도록 행동을 선택해야 하며, 더 나아가 행동하는 플레이어가 어떠한 행동을 하더라도 낮은 보상 값의 합이 최대가 될 수 없어서 다양한 방법으로 행동을 수행하고, 미래를 생각하면서 제일 나은 선택이 무엇인지 고민해야 한다. 좋은 선택이 무엇인지 탐구하고, 행동을 찾고, 지금까지 생성된 지식을 활용하여 최선의 행동을 찾아 실행하는 강화 학습을 해결하는 알고리즘은 두 가지 사이의 균형을 유지하는 방법에 중점을 둡니다. 위의 방법과 달리 실시간으로 학습을 진행하는 것이 일반적입니다.
기계학습 알고리즘
이 논문은 기계 학습의 일반적인 알고리즘을 설명합니다. 컴퓨터 과학이 아닌 통계의 다변량 분석과 관련된 과목을 수강하더라도 링 지도학습, 강화학습 등지도/비지도 학습과 관련된 기본적인 기술을 익힐 수 있다. 컴퓨터 과학에서만 가르칠 수 있으며, 그 중 관련 석사 / 의사를 위한 특별 과목이 있습니다. 마르코프 모델, 은닉 마르코프 모델 등이 있다. 컴퓨터 과학뿐만 아니라 통계학에서도 관련 과목을 다루기 때문에 언급됩니다.
베이스 정리 자체는 통계학 1~2학년 때부터 있었지만, 이를 사용하는 분류 알고리즘은 대개 따로 기계 러닝 과정을 밟아야 한다.
기계학습 학습 알고리즘 : 기울기 / 기울기 강하
특히 교수학습에서는 단어가 학습이기 때문에 과장되지만, 자료에 따른 오차 값을 최소화하면서 회귀 식을 만드는 것이 원칙이다. 오차함수가 오목/볼록이라는 가정하에 항상 최소 점이 존재하므로 이를 구하는 알고리즘이 구매하강법이다.
그라디언트는 매우 특별한 의미가 있는 벡터장이지만, 방향성 함수가 가장 큰 변화를 하는 방향은 정확히 그라디언트가 가리키는 방향이다. [11] 따라서 오차 함수가 볼록-볼록 함수라고 가정하면 시작 위치를 잘 고르고 기울기의 반대 방향으로 계속 떨어지면 결국 최소 점을 찾을 수 있다.
기존에는 인공신경망 학습에 경사하강을 적용할 때 다양한 장애물이 존재했다.
Vanishing Gradient Problem에는 문제가 있습니다. 각 노드는 일반적으로 비선형성을 추가하기 위해 활성 함수를 사용하지만, 일반적으로 S 자형 함수를 사용합니다. 이 함수의 특징은 임의의 x값이 0과 1 사이의 값을 갖지만, 체인 규칙을 사용하여 역 전파를 사용하여 각 노드에 대한 편미분 값을 얻을 때 문제가 발생한다는 것입니다.즉, 1보다 작은 값들이 계속해서 곱해져서 전송되기 때문에 어느 순간 0에 매우 가까워지고, 그 결과 컴퓨터의 부동소수점 연산, 즉 0에 의해 기울기 값이 사라진다.그러면 그 노드 이전에 0만 노드에 전달되기 때문에 더 이상의 업데이트, 즉 학습할 수 없지만 최근에는 이러한 문제를 완화하는 많은 액티브 함수들이 개발되어 큰 문제가 되지 않는다.