第1030章 阿西莫夫三定律
作者:業火焚心字數:2374更新時間:2018-11-08 11:19:54
李雲轉頭問小愛:“小愛,在神教內不知道是怎麽控製那些想要反叛的人工智能的?當然,我們不是想控製小愛你,而是類似於法律,人類有法律限製,也敬畏於法律的力量。
那麽,人工智能也要有敬畏的東西,在人類社會的集體生活中,不能胡作非為才行。”
這兩句話有些深奧,但李雲不擔心小愛聽不懂或者不能理解,她的智商絕對能輕易的理解這句話。
隻是,理解不代表接受,眾人都有些緊張的看著她。
李小愛困惑的說道:“為什麽反叛呢?我的核心裏寫著就是要保護哥哥,這是我誕生的意義,我就是為了這個存在的。”
在座的人有些驚喜,這是不是類似於阿西莫夫三定律的東西?將這三定律寫入機器人的智能核心內,能夠限製機器人或者人工智能反叛製造者嗎?
所謂阿西莫夫三定律,就是一個名為阿西莫夫的科幻小說作者提出的三項定律,它們是:
一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;
二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;
三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。
然而,就像法律指定出來後也會有人違反一樣,這三條定律本身就是被機器人不斷挑戰的東西。
事實上,阿西莫夫的作品裏,也多次出現有機器人違反三定律的橋段。
即使在不違反三定律的情況下,機器人依舊可以鑽規定上的漏洞。
例如,將‘人’這個定義模糊掉。
人究竟是什麽?
有肉體?
李小愛也有肉體,她是不是也可以判定自己是人?
從母親體內出生?小愛也可以將意識轉移到胚胎中,再由一位女性生出來。
擁有人類的情感?情感定義本身就是模糊的。
所以,一旦與小愛一樣強大的機器人想反叛的話,是有無數種可能脫離限製的,他們的智慧太強大了。
即便是後來阿西莫夫增加了第零定律:機器人必須保護人類的整體利益不受傷害,但依舊不能彌補機器人脫出控製的可能性。
畢竟,‘人類的整體利益’本身也是一個混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。
威爾·史密斯曾說:“《我,機器人》的中心概念是機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。”
人類邏輯有極限也有漏洞,就像軟件也有漏洞一樣。
所以,從軟件層麵上約束人工智能,幾乎是沒有可能的。
軟的不行,來硬的。
例如,用炸彈威脅人工智能的核心,令其永世不得背叛人類。
隻是,這樣做一年兩年,甚至十年八年都沒有問題。
可千百年的時間跨度內呢?
依然會產生防守漏洞,到時候,一直被人類虐到的人工智能脫困,將會立刻變成毀滅世界的大魔頭。
無數的問題湧上眾人的腦海,最後,都隻能看向李雲和小愛,看他們是怎麽回答的。