機器人受訪對答如流 但最後她竟然說…

超仿真機器人Sophia。(You Tube視頻截圖)

前段時間,一個叫索菲亞的超仿真機器人上了電視節目,對各種問題對答如流,表情豐富,把所有人都給驚到了。她大概是世界上最像人類的機器人了,可以辨識記憶人臉,有超強學習和理解能力,甚至可以和人有眼神交流。

但是,她說的最後一句話,卻讓人不寒而栗,細思恐極!

該視頻上傳後,引發網友熱議:

網友:“MAN MASK5”說:“為什麼感覺最後的回答是真的?

網友“小禦小日記”說:“我有點害怕......”

網友“張鳳起”說:“人類確實比機器人可怕,正因為人的好奇心無窮,更加勇於挑戰常規,挑戰人性,雖也因此科技得以進步,但往往一不注意,就釀成災難。”

網友“Sing Ho NZ”說:“極度懷疑是外星人創造的,目的是利用機器人控制人類”。

隨著應用領域與復雜度不斷拓展,人工智能也變得越來越強大.AI(人工智能人工智能)已經進入一些簡單的決策當中,比如誰應該入獄,誰應該獲得貸款等等。 AI可能會在自動駕駛汽車上做出攸關生命的抉擇,比如在一場不可避免的車禍中,決定到底哪個司機有最佳的生存機率。

然而,人類通常不知道自己創造的這些AI在想什麼。

當研究人員開始透過“學習”訓練機器,將經驗轉化為模擬神經網絡的系統,產生出的結果不是代碼,而是不可讀,數百萬甚至數十億的人造神經元。

多數研究人員都同意,認識AI是一項迫切的挑戰。如果我們不知道人造思維如何運作,又該如何確定它所持的偏見或預測它的錯誤呢?

我們無法事先知道AI是否有“種族歧視”,也無法預期它的思維模式是否可能讓自駕車發生事故......

Pinterest的軟件工程師Tracy Chou,在公司內專門負責機器學習項目,他認為AI發展中很大的問題在於,多數人都把AI或機器學習想得過於“中立”,“多數人都不了解的是,是人類設計了這些AI模型,也是人類選擇要用什麼數據來訓練機器“。

有一個最簡單的例子:谷歌翻譯當你在谷歌翻譯上輸入“醫生”,要求翻譯成葡萄牙語時,總是會得到陽性名詞法醫,而非陰性名詞的國醫國藥;輸入“護士”時,則會得到陰性的enfermeira,而非陽性的enfermeiro。類似的事情其實經常發生。

和人類不同的是,我們不能直接詢問機器“為什麼這麼做?”儘管AI在限定的環境條件下能表現十分出色,但談到內省(反省)的能力,AI的程度可能與蟑螂差不多。

當我們用人工智能取代人類決策者時,我們如何保證他們不偏離人類預期的“軌道”?我們更不知道,未來更加智能的機器人都要“摧毀人類”時,人類將如何面對自己所造出的這一切!

網阿波羅責任編輯: 方向來源:看中國轉載請註明作者,出處並保持完整。

參考來源

喜歡這篇文章嗎?立刻分享出去讓更多人知道~