人工智慧會威脅人類?五位頂尖人工智慧研究者均持謹慎樂觀態度

來源:互聯網
上載者:User
關鍵字 人工智慧

在未來,到底會不會出現有完全意識的機器人? 在今天舉行的「人工智慧與人類的未來:魔鬼,還是天使」博鼇亞洲論壇分論壇上,五位世界頂尖人工智慧研究者均持謹慎樂觀態度,雖然已議論了幾年,但「沒有任何證據證明計算模式能夠產生情感」。

「擔心人工智慧的威脅,就好像擔心火星上人滿為患,完全是不切實際的。 」百度深度學習研究院常務副院長余凱認為,人工智慧對於人類社會可以有很大貢獻,沒必要刻意強調帶來的一些風險,因為人工智慧剛剛處於起步發展階段,遠不夠先進。

論壇主持人、格靈深瞳創始人趙勇說自己經常會被人問到,「你們做人工智慧會不會毀了我們? 」趙勇的答案是:「對不起,我不知道怎麼做這件事,我們還是挺弱的,只是把生活改進一點點。 」

以色列科技創業之父尤西·瓦爾迪稱,目前我們看到的人工智慧只是嵌入式的人工智慧,就是有一些演算法可以類比人腦部分的功能,比如對於語言、翻譯,還有對於語音、圖像的識別,這些都是非常基礎性的。 而要讓機器能夠自主決策,需要有更深層的研究,瞭解人腦的構造。

「我們還沒有進入人工智慧時代,還是增強現實的時代,只是剛剛開始人機交互。 」Aidyia首席科學家、人工智慧學會主席本·戈爾策爾認為,未來十年人工智慧可能會介入金融服務、醫藥和生物領域,因為這方面的很多資料完全由人來讀是不可能的;同時期待通過物聯網方式,讓機器人在家政服務、兒童教育、 老人護理等方面實現突破。

本·戈爾策爾介紹,他們正在香港理工大學做一個開放語言的專案,目標是搞一個跟人腦一樣有思維性的機器,要用幾千頁的內容來解釋架構。 他進而解釋說,這只是一個研發專案,並沒有足夠的證據表明一定會成功。

微軟亞太研發集團主席洪小文認為,在過去15年裡,人工智慧在預測人的行為方面已取得長足進步,現在所謂的機器人「意識」,其實都是基於大資料基礎上的分析預判,是通過各種複雜體系和演算法後得出的最合理選擇。

趙勇表示,雖然人工智慧技術還沒有發展到能夠主觀危害人類那一天,但是必須要謹慎預防技術引起道德的問題。 今天的技術還非常原始,但已經可以用在有可能會對我們造成危害的領域,比如軍事領域,甚至恐怖主義。

洪小文慶倖,他所認識的從事人工智慧的工作人員都有非常高的道德標準,在人工智慧運用方面確實需要政策道德框架。

論壇最後,尤西·瓦爾迪也表示了自己的擔憂:如果真能夠把價值觀、意識、情感都植入機器的話,那將真會給人類帶來風險和威脅,因為人類本來就是很複雜的。 記者 任明超

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.