지금까지, Hadoop 및 큰 데이터가 실제로 동의어입니다. 하지만 상승 하는 큰 데이터의과 대 광고, Hadoop 큰 데이터에 적용 하는 방법에 대 한 오해를 많이 하고있다.
둡 저장 하 고 여러 기존 서버에 분산 하는 데이터를 처리할 수 있는 큰 데이터 집합을 분석 하는 오픈 소스 소프트웨어 프레임 워크 이다. Hadoop은 휴대 전화, 전자 메일, 소셜 미디어, 센서 네트워크, 및 기타 다른 채널에서 데이터를 다양 한, 큰 부하를 처리 하도록 설계 되었습니다 그리고 종종 큰 데이터 운영 체제 간주 됩니다. 그리고 그 오해의 첫 번째 소스:
1, Hadoop 완벽 한 솔루션입니다.
그 경우가 아니라면
든 "프레임" 또는 "플랫폼" 당신이 그것을 전화, 그것 불가능 그냥 모든 큰 데이터 문제에 해결책으로 Hadoop의 생각 합니다.
"표준 Hadoop 제품 시장에," 말한다 Fille 사이먼, "큰 데이터 비즈니스 사례"의 저자 말했다: "다른 것과 달리 얻을 수 있습니다 표준 데이터베이스 IBM 또는 SAP에서." "
그러나
사이먼이 장기적인 문제는 생각 하지 않습니다. 첫째, Hadoop는 오픈 소스 프로젝트, 많은 다른 Hadoop 관련 프로젝트 카산드라와 http://www.aliyun.com/zixun/aggregation/13713.html와 같은 "> hbase, 특정 요구를 충족 수 있습니다. HBase는 구조화 된 데이터를 지 원하는 분산된 데이터베이스를 제공 합니다 대규모 데이터 테이블에 대 한 저장소.
또한, 레드햇, IBM 및 다른 공급 업체와 마찬가지로
다양 한 사용자 친화적인 제품으로 리눅스 패키지, Hadoop과 같은 일을 하는 많은 큰 데이터 신생. 그래서, Hadoop 자체는 완벽 한 솔루션은 아니지만, 대부분의 조직에서는 실제로 발생 합니다 그것 비교적 완전 한 큰 데이터 솔루션.
2, Hadoop 데이터베이스입니다.
Hadoop은 데이터베이스로 자주 사용 하지만 그건 사실이 아닙니다. 마샬 Bockrath-vandegrift, Damballa 보안 소프트웨어 엔지니어는 말했다: "아무 핵심 플랫폼 쿼리 또는 인덱싱 Hadoop 코어에 있다." "Damballa 회사 실시간 보안 위험을 분석 하 둡을 사용 합니다.
"우리가 우리의 위험 분석 수동 DNS 데이터에 대 한 실시간 쿼리를 실행할 수 있도록 HBase를 사용 합니다." HBase와 다른 실시간 기술만이 아니라, 하 둡을 보완 하지만 대부분 Hadoop 코어 분산 스토리지 기술 (HDFS)-고성능 분산된 데이터 집합 액세스를 달성 하기에 의존. "그는 덧붙였다.
"Hadoop 데이터베이스 시스템을 대체 하는 내장 되지 않습니다 하지만 데이터베이스 시스템을 구축 사용할 수 있습니다" Prateek 굽타, 꽃 도달 데이터 마케팅 분석 회사
에서 과학자를 말했다. "
3, Hadoop 엔터 프 라이즈-클래스 응용 프로그램은 너무 위험해.
많은 기업 Hadoop Tainu, 테스트 및 엔터프라이즈 응용 프로그램에 적합 하지 않은 걱정합니다. 모르고 이것 보다 더 잘못입니다. 잊지 마세요, Hadoop은 Google의 파일 시스템 및 Googlemapreduce 데이터 분석 도구는 파일 시스템에서 실행에 따라 분산된 스토리지 플랫폼에 내장. 야 후는 돈과 Hadoop에 에너지를 투자 하 고 "사이트 맵"에 대 한 첫 번째 대형 Hadoop 응용 프로그램 2008 년에 검색을 시작 모든 알려진된 페이지 및 해당 페이지에서 검색을 완료 하려면 해당 메타 데이터 색인을.
이제 Hadoop 넷 플 릭 스, 트위터,이 베이 등 회사와 마이크로소프트, IBM과 오라클 등 기업에 의해 사용 되 고
판매 하 둡 도구를가지고. 그것은 아직도 너무 일찍 전화 하 둡 "성숙" 기술, 대용량 데이터 플랫폼 비슷합니다 하지만 채택 및 대기업의 유효성 검사에는.
그것은 플랫폼 없이 위험, 보안 문제 자체가 더 어려운 문제는 아닙니다. 하지만 기업 Hadoop 플랫폼의 젊음에 의해 멀리 위협 되 고 멀리.
4, Hadoop을 사용 하 여 프로그래머의 무리에 게 물어 해야 합니다.
당신이 뭘 하려고에 따라,이 사실 수 있습니다. 우수한 다음 세대 Hadoop 큰 데이터 스위트를 개발 하려는 경우에 전문 자바와 mapreduce 프로그래머 할 수 있습니다. 반대로, 프로그래밍 다른 사람들의 업적을 활용 하고자 하는 경우는 문제가 되지 않습니다. 데이터 통합 업체 Syncsort 권고 분석가 어떤 코딩 노력 없이 고급 쿼리를 실행 하 둡 호환 데이터 통합 도구를 사용 합니다.
대부분 데이터 통합 도구 MapReduce 프로그래밍, 많은 미리 설정 된 서식 파일의 복잡성을 마스크 하는 그래픽 인터페이스를가지고. 또한, 창업 기업, 연구소, Continuuity 및 Hortonworks, 고산 데이터를 포함 하 여 또한 큰 데이터 및 Hadoop 응용 프로그램을 단순화할 수 있는 도구를 제공 합니다.
5, Hadoop은 중소 기업에 적합.
많은 중소 기업에 대 한 걱정은
"빅 데이터" 추세의 밖으로 종료. IBM과 오라클 등 대형 제조업체 자연스럽 게 크고 비싼 솔루션을 판매 하기 위하여 경사 된다. 이것은 시장에서 중소 기업 위한 관련 도구 아무는 것은 아닙니다.
클라우드 컴퓨팅는 급속 하 게 추진 하 고 일부 첨단 기술의 인기 있는 응용 프로그램. "클라우드 컴퓨팅으로 운영 비용, 자본 지출 변화 는" Fille 사이먼, 큰 데이터의 저자. "넷 플 릭 스로 같은 클라우드 서비스를 사용할 수 있습니다. 똑같은은 Kaggle를 사용할 수 있습니다 큰 데이터 필드 5 직원과 사업에에서 일을 시작 했다. "
Kaggle 라는 자체 "데이터 문제 및 데이터 솔루션 사이의 다리." "예를 들어 시작이 회사는 가장 매력적인 휴가 사진을 찾으려면 Jetpac 알고리즘에 대 한 5000 달러 보상. 대부분 휴가 사진, 되지 않으며 심사 지루한, 시간이 걸리는 과정 이다.
Jetpac는 30000, 사진 그리고 메타 데이터 (사진 크기, 캡션, 설명 정보)를 분석 하면 수동 메서드와 비슷한 수 있는 알고리즘을 찾습니다. 회사 자체에이 알고리즘 개발, 그것은 이상 5000 달러를 요할 것 이다. 그리고 그들은 하나의 솔루션으로, 대안의 선택 하지를 얻을 수 있습니다. Jetpac의 이미지 처리 도구는 결국 바람 투자에 2.4 백만 달러를 얻을 그것을 왔다.
6, Hadoop은 저렴 합니다.
가이 오해는 어떤 오픈 소스 소프트웨어에 적용 됩니다. 저장 초기 구입 비용 돈을 저장할 것 이다 의미 하지 않는다. 클라우드 컴퓨팅에 대 한 문제 중 하나는 예를 들면, 너무 쉽게 많은 사람들이 계속 지불 하는 동안 스스로 프로젝트를 잊고 aws, 그들의 자신의 프로젝트를 구축 했습니다 아마존 플랫폼에 연구 프로젝트를 구축 하는 것입니다.
가상 서버의 맹인 확장은 증가 물리적 서버에 비하면 정말 왜소. Hadoop 수 저장 하 고 데이터를 분석, 하는 동안 가져오려면 어떻게 해야 당신이 오래 된 데이터를 새로운 시스템으로? 어떻게 데이터를 시각화 할? 더 공유 되는 데이터를 어떻게 보호 합니까?
Hadoop은 실제로 패치워크 솔루션입니다. Cloudera, 같은 회사에서 완벽 한 엔터프라이즈 솔루션을 얻을 수 있습니다 또는 당신의 자신의 고도로 사용자 지정 된 솔루션을 설정할 수 있습니다. 아무리 자유 소프트웨어는 결코 정말 무료 있기 때문에 어떤 경로 선택 하면 당신의 예산으로 주의 해야 합니다.
이 페이지의 내용은 인터넷에서 가져온 것이므로 Alibaba Cloud의 공식 의견이 아닙니다.이 페이지에서 언급 된 제품 및 서비스는 Alibaba Cloud와는 관련이 없으므로이
페이지의 내용이 골칫거리 인 경우 저희에게 알려주십시오. 우리는 5 일 근무일 이내에 이메일을 처리 할 것입니다.
커뮤니티에서 표절 사례를 발견한 경우
info-contact@alibabacloud.com
으로 관련 증거를 첨부하여 이메일을 보내주시기 바랍니다. 당사 직원이 영업일 기준 5일 내에 연락 드리도록 하겠습니다.