當(dāng)人們還在擔(dān)心越來越聰明的機(jī)器人或許會在某天搶走自己飯碗時,卻有人進(jìn)行了一個作大死,如果他進(jìn)展足夠順利的話,你可能更需要愁的是,這些家伙會不會要了你的小命。
日前,據(jù)外媒快公司報(bào)道,一位來自加州的機(jī)器人專家、藝術(shù)家,嗯,叫 Alexander Reben,打造了一款機(jī)器人,長下面這個樣子。

然后,這款機(jī)器人的作用,注意,是唯一的作用,就是對人進(jìn)行一個傷害。 #此處自帶黑人問號臉
好啦,倒也不是讓你缺胳膊斷腿的傷害,至少它現(xiàn)在能做的,不過是當(dāng)你將手指頭放在某一范圍內(nèi),它會突然地給你的指頭扎上一針。而有意思的是,這位名叫Alexander 的設(shè)計(jì)者故意將傷害的指令進(jìn)行了隨機(jī)設(shè)置,因而,當(dāng)你將手指置于這機(jī)器人的地盤之下,你也不知道這位機(jī)器人版的容嬤嬤會不會突然地給你來一下 。 #玩的就是心跳
所以為什么要打造這樣一款應(yīng)該沒人會買也著實(shí)不希望量產(chǎn)的機(jī)器人呢?
Alexander表示, “此前,沒有人想過真的去打造一款為傷害人類而誕生的機(jī)器人,(但機(jī)器人傷害人的隱患是切實(shí)存在的),我要把人們腦海中的隱憂化為現(xiàn)實(shí),因?yàn)橹挥挟?dāng)它真正以某種實(shí)體存在的時候,人們才會更迫切直白地去面對它,而不是安慰自己不過是假想敵,就不會只是單純地發(fā)表一些高談闊論了。”
似乎,這一看似反人類的行為,卻恰恰是一番用心良苦,不知道這個腦回路你能不能理解。反正,來自麻省理工學(xué)院媒體實(shí)驗(yàn)室的 Kate Darling,一位 “機(jī)器人技術(shù)對于社會的短期影響”課題的研究人士對于Alexander的實(shí)驗(yàn)性發(fā)明表示贊賞,不過,她才不會把手放在機(jī)器人的案板上呢。
在畫風(fēng)突變之前,Alexander的得意之作,是一款叫做 BlabDroid的機(jī)器人。它小巧無害的造型,能激發(fā)人們向它傾訴。而多年以來,Alexander一直在探索人與科技之間的關(guān)系,以及科技如何幫助我們更好地去理解人性。

他已經(jīng)敏銳地意識到,人們正變得越來越害怕機(jī)器人,要么是擔(dān)心它們會給自己帶來生理上的傷害,要么是看到了在某些領(lǐng)域可能被取代的悲催未來。 “機(jī)器人會干掉人類”或者 “機(jī)器人會搶走我們的飯碗”已經(jīng)是近來談到類似話題時的常用句型了。
Alexander想要迫使人們在這些可能發(fā)生的問題、威脅到來之前,認(rèn)真地去尋求解決方案。通常來說,這是所謂學(xué)者專家們應(yīng)該考慮的問題,但是Alexander認(rèn)為,沒有哪一家研究機(jī)構(gòu)能夠打包票說,自己打造的機(jī)器人不會在未來的某一天傷害到人類。同樣的,也沒有哪家公司會刻意地去打造一款以傷害人為目的的機(jī)器人。 “沒人會想稱為「首家害人機(jī)器人公司」”。

鑒于Alexander的機(jī)器人殺傷力著實(shí)有限,并不至于讓人缺胳膊少腿,更不可能將你碾軋成肉末,似乎倒也不會引起太強(qiáng)烈的反對聲。不過Alexander希望更多法學(xué)、哲學(xué)、工程學(xué)、倫理學(xué)領(lǐng)域的學(xué)者專家能注意到他所打造的這個怪家伙,“我希望這些跨學(xué)科的人們能走到一起來解決這個問題,因?yàn)檫@不是依靠單一某領(lǐng)域的力量就能搞得定的。”他想,律師會就如何界定對人類造成傷害的機(jī)器人的責(zé)任問題展開辯論,而倫理學(xué)家會思考這樣一個實(shí)驗(yàn)是否是合理的,哲學(xué)家會問為什么會有這樣一臺機(jī)器人存在。
1942年,美國著名的科幻小說家艾薩克·阿西莫夫(Isaac Asimov,1920 - 1992)曾在《我,機(jī)器人》這本小說中,提出了著名的“機(jī)器人三定律”,即
第一,機(jī)器人不得傷害人類,或坐視人類受到傷害;
第二,除非違背第一法則,機(jī)器人必須服從人類的命令;
第三,在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。
這三條定理不僅成了后續(xù)科幻作品所遵從的定理,對機(jī)器人學(xué)也影響重大。然而,我們也有充分的理由相信,艾薩克的這三條鐵律并不能真的保護(hù)人類免于來自機(jī)器人的傷害。
即使是對這一實(shí)驗(yàn)表示青睞的Darling教授也指出,不管是不是在實(shí)驗(yàn)狀態(tài)下,Alexander的機(jī)器人只要是傷害到了任何人,那Alexander,作為這臺機(jī)器人的制造者都要為此承擔(dān)道德上的責(zé)任。
“當(dāng)自主機(jī)器人傷人時,我們可能會漸漸地覺得自己不需要承擔(dān)傷人的道德責(zé)任。當(dāng)然啦,法律上的責(zé)任是跑不掉的。我們越能預(yù)期機(jī)器人的行為時,我們就越不會受到來自機(jī)器人的“故意”傷害?”同時,她還認(rèn)為隨著科技的不斷進(jìn)步,我們也要以新的目光去審視機(jī)器。
“從責(zé)任這個立足點(diǎn)來說,機(jī)器人將不會僅僅只是工具,而是我們本身的一個外延拓展,而隨著它們自主技術(shù)的不斷提高,從某種角度上說,我們應(yīng)該像對待動物般對待它們,畢竟我們也不能總是預(yù)期它們的行為。”
而對于Alexander而言,他希望人們能正視這些問題。“我想要人們來對抗這種危險(xiǎn)的實(shí)體,這也許能提高人們的這種意識,而不僅僅再停留于哲學(xué)層面的討論。總會有不可預(yù)料的情形出現(xiàn),而我們要走在更前面一些。”