우리가 우리가 큰 데이터에 대 한 이야기에 대해 얘기 합니까?
일반적으로 Hadoop 그리고 큰 데이타 베이스입니다.
그러나 인간의 두뇌는 멀리에서 신속 하 게 데이터를 받을, 분석 하 고, 처리 결과 사용 하 여 현실 세계에서 수 진화. 인터넷 우리에 게 이러한 문제를 해결 하는 데 도움이 수, 있지만 그것은 또한 등 우리 게으른 완전히 컴퓨터에 작업을 나눠 주고 몇 가지 단점을 가져온다.
하지만 편의 제공 하는 데이터 저장소에 컴퓨터. 하지만 인간의 두뇌는 데이터를 분석 하기 위한 최고의 도구.
과학의 가장 큰 발전 중 하나 컴퓨터는 인간의 뇌를 시뮬레이션 하도록 해야 합니다. 일본 슈퍼 K 컴퓨터는 인간 두뇌를 시뮬레이션할 수 있습니다 유일한 컴퓨터가입니다. 82000 프로세서 있다.
인간의 뇌를 시뮬레이션 하 고 인간의 형태로 데이터 분석은 대용량 데이터 개발의 방향입니다. 오늘날의 큰 데이터 또는 하자 컴퓨터 정기적으로 분명히이 정적 데이터의 분석 충분히 멀리 이다. 매초 마다 세계 많은 데이터를 생성 하 고 큰 데이터 마찬가지로 인간이 실시간으로 수집 하 고 이러한 동적 데이터를 분석할 수 있어야.
기술에 대 한 우리의 희망, 더 높은 지 고 있다 그리고 지금 기술에 대 한 내 기대는 인간의 뇌 처럼 작동 합니다. 가장 중요 한 것은, 큰 데이터 해야 하지만 처리할 수 실시간 정보, 하지만 정보 분석의 결과에 따라 최적의 솔루션을 제공할 수 또한. 그리고 아니라 우리에 게 결과 보여줍니다.
큰 데이터 인간의 얼굴 특징, 다양 한 소스, 그리고 큰 데이터 자체 기능으로는 뇌의 정보에 대 한 액세스 같은 장치 있어야 합니다. 실시간으로 수집 된 정보를 분석 하 고 마지막으로 응답.
큰 데이터의 개발은 인터넷 거 인, 트위터, 페이 스 북, 야 후 등의 노력에서. 그들은 실시간 데이터 처리 및 통신 시스템을 개발 하는 자원과 시간을 많이 지출. 예를 들어 페이스 북의 벌레 구멍, 야 후의 폭풍 원사 및 트위터와 링크 드 인 오픈 소스 데이터.
이러한 회사의 노력의 큰 데이터를 개발 주도 그리고 사용자의 서비스에 의해 생성 된 데이터는 대용량 데이터의 초석. 우리는 명확 하 게 그 큰 데이터 미래에 인도 할 것 더 넓은 시장에서 볼 수 있습니다.
내일의 큰 데이터 모니터링, 수집 하 고 데이터를 실시간으로 분석, 더 복잡 한 작업을 처리할 더 많은 산업에 사용 될 수 있어야 합니다. 대형 데이터는 데이터에 가장 강력한 도구로 서 효율적으로 될 것입니다 그리고이 도구는 인간의 두뇌.
주의: 인터넷 뉴스 http://www.joelde.com/