萊斯利*蘭伯特的話,十分淺顯,方然便點一點頭,承認這位科學家的很有道理。
“強AI”,不論傳統學術界的定義如何,即便被研發出來,缺乏客觀條件的支持,也無法憑空推動科技的進步。
“沒有,那麽這很明智。
但不管怎麽,‘自主式科研AI’能否推進科技,那畢竟也是一個很長遠的問題,眼前的危機,才更值得警惕:
出於種種考慮,研發具有創造性、探索性思維的人工智能, AI一旦這樣的被研究出來,阿達民先生,您是否能確定,憑現有的科技、武器與戰力水準,自己必然能掌控這AI,而不會被自主決策的AI所消滅?”
“AI的反叛,是的,這是一個想當棘手的問題,但,可以提前采取——”
“沒有什麽‘提前采取’!
恰恰相反,一旦‘具有超越人類的科研能力’,這樣的AI被製造出來,其行為與動機,就注定會脫離人類的掌控,這並非安保手段、武力強弱的定量問題,而是由雙方‘智力’差距所決定的,無解的困局。
試想一下,阿達民先生,您之所以拍板這樣宏大的計劃,目標,正如剛才親口所言,絕不是為了獲得‘能夠與人相比擬’的那種AI。
投入大量資源,消耗時間,隻為了得到一些模仿的產物,根本得不償失。
此類研究的根本動機,顯而易見,是期望獲得能力超越人類、甚至遠遠超越人類的‘強AI’,目的,並非研究什麽自我意識、或者要創造出這樣的自我意識,而是要在人類專有的科學技術研究領域,製造出一個碾壓現今所有人的利維坦。
這樣的東西,一旦真被研究出來,憑你我這種人類的頭腦、意識,恐怕連預測其行為、判斷其動機都做不到;
有怎麽能奢望,憑借一些兒戲般的安保手段,便能將其禁錮起來,為己所用。”
滔滔不絕,萊斯利*蘭伯特的一番直抒胸臆,臉都有些漲紅。
至於他要表達的意思,無需聚精會神,方然也能明白,事實上,自從掌控NEP大區之初,自己便一直在琢磨事關重大的難題。
創造性思維,具有這種特質的AI,先不論通過什麽樣的手段去研發,一旦成為現實,那麽,除非這種AI的能力與人類相仿,一旦其能力遠超人類,再加上其自身“思維”、“決策”的無可預測,人類就會有滅頂之災。
這種風險,隻要著手開展此類研究,就一定會出現。
不僅必定出現,應對之策,事實上也是不存在的,並不會因為一些莫須有的“拉電閘”、“核彈爆轟”的手段而改變。
一切的緣由,完全在於AI的“自主意識”,其危害之大,隻要設想一個能力超卓、卻與同類決裂的人類,能對人類世界造成多麽大的破壞,然後將這種威脅放大若幹倍,便不難想象到時的情形。
麵對特立獨行、完全漠視人類利益的威脅,一切應對之策,在強AI的眼裏都會十分可笑…… 本章已閱讀完畢(請點擊下一章繼續閱讀!)