MIT 기술 검토, 타이거 스니핑 컴파일러에서에서 타이거 냄새: 기존.
몇 년 전, 나는 사업을 시작 했다 친구와 커피를가지고 있었다. 그는 그냥 통과 했다 그의 40 생일, 그의 아버지는, 그리고 그 종종 요 통, 그리고 그 생명에 의해 자신을 느꼈다. "날 웃게 하지 않습니다," 그는 말했다, 나에 게 "나 야 앞으로 찾고 날 구해 특이점." "
기술 업계에서 작동 하는, 내 친구, 마이크로프로세서의 급속 한 발전과 인터넷의 증가 목격 했다. 심지어 중 년의 위기 오기 전에, 그 기계 정보는 미래 라는 특이점 인류는 순간을 초월한 설득 열심히 아니었다. 슈퍼 지혜의 클럽 부 인류의 영원한 젊음의 비밀을 인간의 유전자 코드의 분석 속도 신속 하 게 수 있습니다. 경우에 당신이 하지 않으면, 당신은 적어도 허리 통증의 문제를 해결 하는 방법을 알아낼 수 있습니다.
하지만 만약 그것은 너무 친절? 옥스포드 대학 (옥스포드 대학에 인류의 미래) 닉 Bostem (Nick Bostrom)에서 인간의 미래 연구소의 감독 그의 새 책 슈퍼 지혜 (초월적)에서 다음을 설명 합니다. 한 경우, 콘텐츠는 또한 미래의 인공 지능에 대 한 활기찬 토론을 촉발. 우리가 "종이 클립 최대" 호출할 수 있는 기계를 상상 (종이 클립 극대화), 프로그램 가능한 많은 종이 클립을 생산으로 설정 됩니다. 지금이 기계 슈퍼 스마트 되고있다 가정해 보겠습니다. 목표를 설정 하기 때문에 그것은 다음 새로운, 보다 효율적인 종이 클립을 만드는 기계를 생산 하는 자신의 결정을 결정할 수 있습니다-어느 날, 마 이다 스 (Midas 왕), 같은 때까지 본질적으로 밝혀졌습니다 다 종이 클립으로.
걱정 하지 마세요, 당신은 말할 수 있습니다: 우리는 그냥 프로그램을 1 백만 클립을 생성 하 고 즉시 중지 설정 해야. 하지만 만일 기계 종이 클립을 만들고 제조 제품을 확인 하기로 결정? 만일 확인 수는 정확한가? 이 기계는 이러한 문제를 확인 하는 지적 될 것 이다. 이 슈퍼 지능형 기계 생성 일부 거친 계산 자료를 호출 되지 않았습니다 아직 발명-"전산 품질" (Computronium)를 사용 하 여 각 질문을 판단 합니다. 그러나 모든 새로운 문제가 따른다, 그래서 반복 해 서, 전체 지구 "전산 품질."로 변환 될 때까지 물론 1 백만 종이 클립을 제외 하.
Bostem는 "종이 클립 최대"는 상기와 같은 상황으로 개발할 것입니다 생각 하지 않습니다 이것은 단지 생각 실험 이다. 실험은 시스템 설계 기계 지능의 극단에 영향을 미치지 수 있습니다도 주의 표시를 실시 했다. 하지만 그는 믿고, 슈퍼 정보 양식 것 지능의이 이런 큰 역할을 재생할 수 없습니다 하지만 또한 더 이상 필요 주변 인간을 결정할 것 이다.
만약 당신에 게 어리석은 소리, 당신은 혼자가 아니에요. 로드 니 브룩스 로드 니 브룩스, 로봇 전문가, 누가 AI 통제 받을 수 두려워 하는 사람들이 생각 하는 컴퓨터 또는 컴퓨터 똑 똑 해지고 우리가 부르는 오해 비평가 중 하나입니다. 이 관점에서 Bostem 설명 소위 날이 슈퍼 지능형 오기 불가능 아직까지, 심지어 아마 달성.
하지만 많은 현명 하 고 사려깊은 학자 Bostem와 동의 하 고 우려를 표시 하 고 있습니다. 왜일까요?
완고 (의 지)
"컴퓨터 생각할 수 있습니까"? "이이 문제는 처음부터 컴퓨터 과학을 무시 했다. 1950 앨런 (앨런 튜링)는 기계, 아이 처럼 생각할 수 있는 그리고 그 존 맥 카시, LISP, 프로그래밍 언어의 발명가 "인공 지능" 필드를 정의 하기 위해 1955 년에 제안 제안. 인공 지능 연구자는 1960과 1970 년에 시작으로 컴퓨터를 사용 하 여 이미지를 차별, 언어, 번역 및 정 맥을 넘어 자연 언어 지시문 이해, 컴퓨터 얘기 하 고 생각 하 고 나쁜 일을 할 능력 개발 결국 것 보기 주류 대량 문화에 등장 하기 시작 했다. 영화 2001 공간 로버 (HAL 2001에서:는 오디세이)와 1970 거: 푸 빈 호스텔 계획 (거상: Forbin 프로젝트) 핵 종말 직전에 세계를 가져온 큰 컴퓨터를 보였다. 같은 작도에 나타난 전쟁 게임 (Wargames) 13 년 후, 1973 서쪽 세계 (Westworld)에서 로봇을 통제할 인간을 죽 일 하기 시작 했다.
인공 지능 연구 야심찬 목표까지 때 재정 지원 건조 하기 시작 하 고 "인공 지능 겨울" 온다. 그럼에도 불구 하 고, 스마트 기계는 1980 년의 과학 소설 작가와 90, 여전히 인기가 있었고 그것은 공상 과학 소설 작가 Vina Winge (Vernor 사조) 인기 특이점의 개념을 만든. 또한 로봇 연구자 한스 Molavic (Hans Moravec) 엔지니어/기업 레이 Couzville (레이 Kurzweil), 그 때 컴퓨터는 다른 목표에 독립적으로 생각할 수 있는, 그것은 자기-반사-그래서 소프트웨어를 변경할 수 있습니다 수 가능성이 생각 하는 세 사람이 있다 똑 똑 하 게 되기 위해서는. 곧, 컴퓨터 자체 하드웨어를 디자인 하 수 있을 것 이다.
설명 하는 Couzville로이 상황 아름 다운 새로운 세계를 시작 합니다. 이 기계는 통찰력과 인 내 (1 0 초) 나노기술과 우주 비행에 문제를 해결 하는 것입니다 그들은 인간의 조건을 향상 시킬 수, 우리가 우리의 식을 불멸의 디지털 형식으로 업로드. 지혜는 우주에 자유롭게 확산 된다.
또한 햇빛 낙천 주의의이 종류의 반대를 찾을 수 있습니다. 호킹, 스티븐 호킹 특이점 "수 있다는 인간의 말과 동의어" 경고 때문에 인간은 고급 AI와 경쟁할 수 없습니다. "슈퍼 지혜" 책을 읽고, 후 Ilon Masc (엘 론 머 스크) 후 그는 미래 생활 연구소 (미래, 연구소)에 달러의 10 백만 기증 했다 세계를 경고 하기 위해 지 저 귐 메시지를 보냈습니다. 기관의 목표는 "인류를 직면 하는 현재의 위기를 제거 하는 작업" (인류를 직면 하는 실존 적 위험을 완화 하기 위해 노력).
아무도 아직이 슈퍼 지능 같은 것 이미 존재 했다. 사실, 우리는이 일반적인 인공 지능 기술을, 경로 계획을 달성 하는 명확한 기술도 없다. 구글의 무인 자동차, 애플의 자동화 도우미 Siri에서에서 인공 지능의 분야에서 최근의 진보 모두 과학 및 기술에 심각한 결함이 노출: 두 제품 모두 만난 적이 없는 상황에 있습니다. 인공 신경 네트워크, 사진에 있는 고양이 판단을 배울 수 있습니다 하지만 그들은 수백 개의 사진, 보고 있고 고양이 판단의 정확도 아이 보다 낮습니다.
브룩스 같은 비판의 원천입니다 또한, 비록 인공 지능 인상적-에 비해 어떤 이전 컴퓨터 수 있습니다 할 같은 그림, 하지만 기계에 고양이 판단 하는 능력은 더 자치 것 이다 (의 지), 그리고 그것은 하지 않습니다 무엇 인지 같은 고양이, 그림에 설명 된 것은 인간으로 그들의 통찰력을 계산 하지 않은 상황의 종류입니다. 이런이 의미에서 AI 스마트 컴퓨터에서 가져올 수 있습니다 하지만 Bostem의 상상된 시나리오를 달성 하기 위해 너무 많은 일 걸립니다. 그 날 나타나지 경우에 정보 지 각 능력에 대해 반드시가지고 하지 않습니다. 인공 지능의 현재 개발에 따라, 추측 되는 슈퍼 지능 올 것 이다, 마치 "워프 드라이브 것입니다 곧 판단 보다 효율적인 내부 연소 엔진의 존재에 의해." "절대적으로 대해 걱정할 필요가 없습니다" 악마 아이 "(악의 ai), 그 말한다, 적어도 다음 수백 년 동안.
보호 대책
경우에 나타나는 슈퍼 지능에 대 한 오랜 시간이 걸립니다, 그것 수 있습니다 조치를 취할 책임. Bostem, 누가 공동 저술 피터 Novig, 동료 구글 인공에 노르와 Couzville와 같은 우려를 공유 하는 Strester 라가 스튜어트, 버클리, 캘리포니아 대학에서 컴퓨터 과학 교수 : 현대 접근 책, 20 년 동안 인공 지능의 표준 교과서.
"매우 영리 하 고 무슨 일인지 아무 생각이 지금 해야하는 많은 공공 지식인 있다" 러셀 줬 어. 그는 인공 지능의 분야에서 진행 지난 10 년간 매우 인상적 되었습니다, 그것의 대중의 이해는 또한 무어의 법칙, 어디 오늘날의 인공 지능 기술은 이미 기본, 이며 컴퓨터에 깊은 학습 등의 기술 사용 하 여 세계의 그들의 이해를 증가 있도록 제한 밖으로 지적 했다.
구글, 페이스 북과 다른 회사는 적극적으로 개발 지능형 "학습 지향" 기계, 그는 설명, 그 "난 인간으로 하지 말아야 할 것 들 중 하나 잠재적인 위험을 고려 하기 전에 슈퍼 스마트 기계를 만들기 위해 아무것도 할 것입니다." 이것은 조금 현명입니다. 러셀 비교 했다: "그것은 합성 실험 처럼." 만약 당신이 그가 무엇을 하 고는 연구원 요청, 그들은 그들이 컨테이너 반응 하고있다 말할 것 이다. 원한다 면 무제한 에너지, 더 나은 합성 반응을 제어할 것 이다. "같은 방식으로, 그는 말한다, 하려면 무제한 지능형 기술, 당신은 더 나은 방법을 알아낼 것 이다 인간의 필요와 컴퓨터를 정렬."
Bostem의 책은 연구 보고서 이다. 슈퍼 AI 전 능 되며 전적으로 우리에 게 (즉, 엔지니어)은 그것이 무엇. 어떤 부모 처럼 우리는 우리의 아이 들에 대 한 특정 값을 설정 해야 합니다. 그냥 어떤 값 하지만 인류에 대 한 최대 관심사를 기반으로 하는 그. 우리가 기본적으로 하나님 우리를 치료 하는 방법을 말하고 있다. 그래서 어떻게 작동 합니까?
Bostem Lizey Judkauski (Elizer Yudkowsky)는 "의 지의 일관 된 추론"의 아이디어 좋은 정도로 (일관 된 추정된 지)-즉, 모든 관점에서 사람들 ( 합의-파생)는 "최고의 자기"에서. 우리는 인공 지능 우리 부자, 행복, 성취 생활을 가져올 수 있는 희망: 치료에 대 한 허리 통증 및 화성에 이주 하는 데 도움이. 인류는 결코 전혀 아무것도에 동의 그 우리 모든 인류에 대 한 하나의 하루에 최고의 결정 자신을 위해 결정을 내리는 데 필요 합니다. 우리는 어떻게 슈퍼 스마트 되는 프로그램으로 이러한 값을 설정? 어떤 수학 그들을 정의할 수 있습니다? 이러한 문제, 그리고 Bostem 믿고 연구원은 지금 그들을 해결 하기 위해 시작 한다. 그는 "우리 시대의 본질" 알았는데.
평범한 사람들에 대 한 무서운 로봇에 대해 걱정할 이유가 있다. 우리는 아직 슈퍼 지능에 접근 하는 기술도 조금을 달성 하지 않았습니다. 하지만 세계에서 가장 큰 기술 회사의 많은 자원의 컴퓨터 똑 똑 투자는 강조 한다; 진정한 인공 지능 기술이이 회사 놀라운 이점을 줄 수 있습니다. 그들은 또한 기술의 잠재적인 단점을 고려 하 고 그들을 피하기 위해 시도 한다.
미래 생활 연구소의 웹사이트에 공개 서 한 있다. 가능한 재해에 대 한 경고, 대신 편지는 더 많은 연구 잠재적인 문제를 방지"동안" 인공 지능 기술의 혜택을 얻을에 대 한 호출 합니다. 편지는 호킹, 사향 및 Bostem, 그리고 일부 유명한 컴퓨터 과학자 (를 포함 하 여 최고의 인공 지능 학자 Demmis 싹) 등 인공 지능 분야 외부 사람들에 게 또한 서명 되었다.
모든 후,이 학자가 인공 지능 디자인 최고의 인간 가치를 달성 하기 위해 실패 하는 경우 다음은 아닙니다 충분히 그들의 자신의 작업을 제어 하는 스마트.