기계 학습 알고리즘 매운, 작은 화이트 나, 지속적으로 기울이기 혼동에 대 한, 특별 한 일부 마무리 신속 하 게 그림을 이해 도와
기계 학습 알고리즘 하위-1. 많은 알고리즘은 알고리즘의 클래스와 알고리즘의 일부 다른 알고리즘-2에서 확장 됩니다. 분류-2.1 학습 방법의 두 가지 측면에서 감독된 학습 분류 및 회귀 문제 일반적인 알고리즘 등 일반적인 응용 프로그램 시나리오는 로지스틱 회귀 (물류 회귀)와 역 전이 신경 네트워크 (다시 전파 신경망) 자율 학습 시나리오 학습 및 클러스터링 알고리즘 Apriori 알고리즘 등 K-평균 알고리즘 반 감독된 협회 규칙을 포함 하 여 분류 및 회귀를 포함 한 응용 프로그램 시나리오를 학습 알고리즘 식별 없이 데이터 모델을 먼저 시도 하 고 다음 확인 된 데이터를 예측 일반적으로 사용 되 감독된 학습 알고리즘을 몇 가지 확장을 포함 합니다. 그래프 이론 유추 알고리즘 (그래프 유추) 또는 라플라스 지원 벡터 기계 (Laplacian SVM.) 다른 보강 학습 시나리오 등을 포함 한 동적 시스템 및 로봇 제어 일반적인 알고리즘 질문 학습 및 시간 지연 학습 (시간을 포함 하 여 차이 학습 2.2 알고리즘의 유사성 회귀 알고리즘 알고리즘 최소 자승법 (일반 적어도 광장) Scatterplot 스무 딩의 일종 이다) 하는 오류를 측정 하 여 변수 사이의 관계를 탐구 하려고. 로지스틱 회귀 분석 (로지스틱 회귀) 단계적 회귀 (stepwise 회귀) 여러 적응 회귀 스플라인 (복수 적응형 회귀) 지역 분산형 스무 딩 추정 (로컬로 추정 알고리즘은 종종 사용 모델 결정 문제, 자주 선택 같은 모델 샘플 데이터의 일괄 일부 근사에 따라 샘플 데이터와 새 데이터 비교. 최고의 일치 k-인접 이웃 (KNN) 벡터 양자화 (학습 벡터 양자화, LVQ) 학습을 찾을 수이 방법에서 자가 구성 매핑 알고리즘 (자체 조직 지도, 솜) 조정 방법 다른 알고리즘 (일반적으로 회귀 알고리즘)의 확장 알고리즘 알고리즘의 복잡성에 따라 조정합니다. 조정 방법 일반적으로 간단한 모델을 보상 하 고 처벌 하는 복잡 한 알고리즘 릿지 회귀 적어도 절대 수축 및 선택 연산자 (올가미) 탄력 네트워크 (탄력 있는 그물) 의사 결정 트리 학습 의사 결정 트리 모델은 자주 하는 데 사용 됩니다.해상도 분류 및 회귀 문제 분류와 회귀 나무 (분류 및 회귀 트리, 카트) ID3 (반복 Dichotomiser 3) C4.5 카이 제곱 자동 인터 액션 감지 (Chaid) 결정 그 루터 기 (임의 숲) 복수 적응형 회귀 스플라인 (화성) 그라데이션 (그라데이션 증폭 기계, GBM) 추진 베이지안 방법을 주로 사용 분류 및 회귀 문제 순진한 Bayesian 알고리즘 평균 단일 종속성 추정 (평균된 한 의존 estimators, Aode)을 해결 하기 위해 베이지안 믿음 (네트워크) 기반 커널 알고리즘 입력된 데이터는 상위 벡터 공간에 더 높은 순서 벡터 공간에 매핑됩니다 커널 알고리즘을 바탕으로, 일부 분류 또는 회귀 문제 그것 지원 벡터 기계 (지원 벡터 기계, SVM)의 방사형으로 기능을 해결 하기 위해 쉽게 만들 수 있습니다 (방사형 기본 기능, RBF) 선형 줄이기 위해서는 판별식 분석 (선형 판별 분석, LDA) 클러스터링 알고리즘 모두 가장 큰 공통 분모에 따라 데이터를 분류 하기 위하여 데이터의 본질적인 구조를 찾으려고 시도 k-평균 기대 최대화 알고리즘 (기대 극대화, EM) 협회 규칙 데이터 변수 사이의 관계를 설명할 수 있는 규칙을 밖으로 찾을 수 학습 패턴 일치 변수 데이터 생물학 신경 네트워크를 시뮬레이션 하기 위해 Apriori Eclat 인공 신경망 알고리즘에에서 유용한 협회 규칙의 많은 식별 하는 알고리즘의 종류 이다. 분류 및 회귀 문제를 해결 하기 위해 자주 사용 한다. 인공 신경망은 기계 학습의 거 대 한 분기, 다른 알고리즘 계층 퍼셉트론 신경망 (계층 퍼셉트론 신경망) 역방향 전송 (다시 전파) Hopfield 네트워크의 수백이 있다 자동 매핑 (자기 조직의 지도, 솜) 조직 학습 벡터 양자화 (학습 벡터 양자화, LVQ) 깊이 학습 알고리즘은 인공 신경 네트워크. A 많이 깊이 학습 알고리즘의 개발은 반 감독 학습 알고리즘. 제한 볼츠만 기계 (제한 볼츠만 기계, RBN) 깊은 믿음 네트워크 (DBN) 회선 (네트워크길 쌈 네트워크) 스태킹 자동 인코더 (스택된 자동-인코더) 감소 차원 클러스터링 알고리즘, 같은 알고리즘 차원 알고리즘 데이터의 본질적인 구조를 분석 하려고 하는 것을 감소 그러나, 차원 감소 알고리즘 적은 정보를 사용 하 여 유도 또는 데이터 자율 학습 (부분 최소 제곱 회귀, PCA (원리 구성 요소 분석, PCA) 부분 최소 제곱 회귀를 해석 하려고 PLS) Sammon 다차원 매핑 프로젝션 (투영 추구) 통합 알고리즘 일부 상대적으로 약한 학습 추적 같은 샘플 훈련은 별도로 모델 (다차원 스케일링, MDS) 스케일링 결과 전반적으로 누적 집계 (감싸는) AdaBoost 일반화 부트스트랩 예측 증폭에 대 한 통합 (스택 일반화, 혼합) 그라데이션 추진 (그라데이션 기계, GBM 증폭) 무작위 숲 (임의 숲)-3. 빠른 알고리즘-3.1 당신이 관심이 정말로 있다면 정확도 속도 대 한 선택 하는 방법 이 작업을 수행 하는 가장 좋은 방법은 왕 다른 알고리즘 테스트 (와 또한 각 알고리즘에 매개 변수를 테스트 하는 있는지 확인) 하는 것입니다. 크로스-유효성 검사-3.2 학습 집합에 최고를 수행 하는 마지막 선택은 크기 학습 집합, 낮은 편차 보다 높은 편차/낮은 분산 분류자 (와 같은 치 졸 한 베이스 정리) / Gaofang (가장 가까운 이웃 K) 같은 분류자 장점이, 후자는 학습 집합의 증가 함께 맞게 쉽게 하기 때문에, 낮은 편차/Gaofang 차이 분류자 (들은 낮은 점근 오류) 이점을 있는 높은 편차 분류자는 적은 힘을 제공 하는 정확한 모델-3.3 장점의 몇 가지 일반적인 알고리즘 및 단순 베이즈의 단점 때문에 시작 됩니다. Ganima 간단한, 당신은 단지 몇 가지 산술 할 필요가. 조건부 독립 가정 true 이면 적은 학습 데이터를 필요 그래서 치 졸 한 베이스 정리 비밀 분류자는 줄이기 위해서는 판별식 모델, 로지스틱 회귀, 보다 빠르게 수렴 됩니다. 가정을 유지할 수 없는 경우에 실제로 순진한 베이지안 분류자는 여전히 괜찮은 성능이 있다. 신속 하 고 간단 하 고 잘 수행 해야 할 경우이 좋은 선택 것입니다. 주요 단점은 그것 기능 사이의 상호 작용을 배울 하지 않습니다 (예를 들면, 그것은 배울 수 없다 견 장 영화를 좋아하지만 싫어 "가까운 구름 긴" 그들의 공동 영화 논리 회귀의 조정의 많은 방법이 있다 그리고 순진한 처럼 될 필요가 없습니다 당신의 특성에 대 한 걱정을 베이지안 관련. 당신은 또한 좋은 확율 설명의 얻을 것 이다, 빛 조차 수 결정 트리, 지원 벡터 기계와 비교,(온라인 그라데이션 하강 알고리즘을 사용 하 여) 모델을 새 데이터 느슨하게 사용 여. 확률 스키마를 필요로 하는 경우 (단순히 분류 임계값 조정 불확실성, 표시 또는 신뢰 구간, 또는 모델에 더 많은 학습 데이터를 신속 하 게 통합 하려면, 의사 결정 트리를 보다 쉽게 설명 하기 그것을 사용 (어떤 사람들을 위해-확신 하지 난 여기). 그것은 압력 없이 기능 간의 상호 작용을 처리할 수 및 매개 변수화 되지, outliers 또는 데이터 선형 인지 여부에 대해 걱정할 필요가 없습니다 그래서 (예를 들어 의사 결정 트리 기능 차원 X, 중간에 카테고리 B의 끝에 A 클래스를 쉽게 처리할 수 및 다음 카테고리 기능 프런트 엔드 x 차원에에서 표시 됩니다). 하나의 단점은 그것 지원 하지 않으므로 온라인 학습, 의사 결정 트리 새로운 샘플 도착 후 다시 작성 하는 데 필요한. 또 다른 단점은 그것은 맞게, 쉽게 하지만 이것이 임의 숲 (또는 오름차순 나무) 통합 방법에 대 한 진입점입니다. 또한, 임의의 숲은 종종 많은 분류 문제 (보통 보다 지원 벡터 기계)의 수 상자, 난 그것은 빠르고, 조정 가능한 매개 변수 지원 벡터 기계 처럼 잔뜩 튜닝에 대해 걱정할 필요가 없습니다 그래서 요즘 꽤 보인다. 좋은 이론적인 보장을 제공 하는 지원 벡터 기계 피팅 피하기 위해 높은 정확도 그리고 경우에 데이터 원본 기능 공간에 선형으로 적절 한 커널 함수는 주어진, 그것은 잘 작동 합니다. 텍스트 분류 하이퍼 높은 차원에서 특히 대중적 이다. 불행 하 게도, 메모리 소비는 큰, 설명 하기 어려운, 실행 하 고 튜닝은 또한 약간 성가신, 임의의 숲-3.4 그러 대체, 좋은 데이터가 좋은 알고리즘 보다 낫다, 디자인 좋은 기능 유용 기억 하기 시작 것 같아요. 만약 당신이 큰 데이터 집합, 어느 알고리즘 사용 없을 수도 있습니다 많은 영향 (이 시점에서 속도 및 가용성에 따라) 분류의 성능에. 데이터 분석 생활 FAQ 카테고리
이 페이지의 내용은 인터넷에서 가져온 것이므로 Alibaba Cloud의 공식 의견이 아닙니다.이 페이지에서 언급 된 제품 및 서비스는 Alibaba Cloud와는 관련이 없으므로이
페이지의 내용이 골칫거리 인 경우 저희에게 알려주십시오. 우리는 5 일 근무일 이내에 이메일을 처리 할 것입니다.
커뮤니티에서 표절 사례를 발견한 경우
info-contact@alibabacloud.com
으로 관련 증거를 첨부하여 이메일을 보내주시기 바랍니다. 당사 직원이 영업일 기준 5일 내에 연락 드리도록 하겠습니다.