在未來,到底會不會出現有完全意識的機器人? 在今天舉行的「人工智慧與人類的未來:魔鬼,還是天使」博鼇亞洲論壇分論壇上,五位世界頂尖人工智慧研究者均持謹慎樂觀態度,雖然已議論了幾年,但「沒有任何證據證明計算模式能夠產生情感」。
「擔心人工智慧的威脅,就好像擔心火星上人滿為患,完全是不切實際的。 」百度深度學習研究院常務副院長余凱認為,人工智慧對於人類社會可以有很大貢獻,沒必要刻意強調帶來的一些風險,因為人工智慧剛剛處於起步發展階段,遠不夠先進。
論壇主持人、格靈深瞳創始人趙勇說自己經常會被人問到,「你們做人工智慧會不會毀了我們? 」趙勇的答案是:「對不起,我不知道怎麼做這件事,我們還是挺弱的,只是把生活改進一點點。 」
以色列科技創業之父尤西·瓦爾迪稱,目前我們看到的人工智慧只是嵌入式的人工智慧,就是有一些演算法可以類比人腦部分的功能,比如對於語言、翻譯,還有對於語音、圖像的識別,這些都是非常基礎性的。 而要讓機器能夠自主決策,需要有更深層的研究,瞭解人腦的構造。
「我們還沒有進入人工智慧時代,還是增強現實的時代,只是剛剛開始人機交互。 」Aidyia首席科學家、人工智慧學會主席本·戈爾策爾認為,未來十年人工智慧可能會介入金融服務、醫藥和生物領域,因為這方面的很多資料完全由人來讀是不可能的;同時期待通過物聯網方式,讓機器人在家政服務、兒童教育、 老人護理等方面實現突破。
本·戈爾策爾介紹,他們正在香港理工大學做一個開放語言的專案,目標是搞一個跟人腦一樣有思維性的機器,要用幾千頁的內容來解釋架構。 他進而解釋說,這只是一個研發專案,並沒有足夠的證據表明一定會成功。
微軟亞太研發集團主席洪小文認為,在過去15年裡,人工智慧在預測人的行為方面已取得長足進步,現在所謂的機器人「意識」,其實都是基於大資料基礎上的分析預判,是通過各種複雜體系和演算法後得出的最合理選擇。
趙勇表示,雖然人工智慧技術還沒有發展到能夠主觀危害人類那一天,但是必須要謹慎預防技術引起道德的問題。 今天的技術還非常原始,但已經可以用在有可能會對我們造成危害的領域,比如軍事領域,甚至恐怖主義。
洪小文慶倖,他所認識的從事人工智慧的工作人員都有非常高的道德標準,在人工智慧運用方面確實需要政策道德框架。
論壇最後,尤西·瓦爾迪也表示了自己的擔憂:如果真能夠把價值觀、意識、情感都植入機器的話,那將真會給人類帶來風險和威脅,因為人類本來就是很複雜的。 記者 任明超