默認冷灰
24號文字
方正啟體

裁員(三)

作者:superpanda字數:3002更新時間:2019-10-20 22:53:12
對於AI來說, 讓結果從“不準”到“準”, 不是十分容易, 與傳統的“找bug修bug”模式全然不同。 目前在對AI的爭論當中, 一個常常被提起的問題就是“算法黑箱”。也就是說, 人類不能解釋它的工作原理。 人工智能的核心是“神經網絡”。科學家們模仿人類神經係統, 讓機器進行學習。“神經元”們一層一層分布下來, 每個單元都能接收部分數據,再將結果向上傳給其他單元。 還是用“貓”來打比方。在主要用於圖像識別的卷積神經網絡(CNN)中,第一層可以將圖片切割、降維, 得到許多小圖,第二層在每個維度利用色差尋找邊緣,三四五層根據勾勒出的邊緣確定各個器官形狀, 六七八層通過各個部分顏色判斷毛色、花紋, 瞳色……最後頂層得出答案:這是貓、狗、兔子、其他。 2006年多層神經網絡出現以前,機器學習都隻處於初級階段, 需要人工提取特征。而2006年後, 它進入到“深度學習”的大時代。人類不監督、半監督, 機器自己分析特征、獨立思考。給一萬張貓的圖片, 說“這都是貓”, 它就懂了, 再給一張它沒見過的,問“是不是貓”,它會說是。人們給它正確答案的數據集, 它便可以進行學習, “看”的越多會的越多,不斷優化自身能力。因此,“人工智能”定義十分清晰,區別是真·人工智能還是噱頭隻需要看它有沒有模仿人腦。 然而,對每一層都在提取什麽特征,以及機器為何要做這些事情、為什麽能得出結論,人類無法解釋。根據輸出,有些提取簡單易懂,比如勾勒邊緣、模糊圖片、突出重點、銳化圖片……可是,在很多時候,人類完全get不到!看著某層下來以後圖片所變成的樣子,隻能叫一聲“什麽鬼!”有時人類隻能提出幾個特征,AI分出好幾百層! 它給了人空前的可能,也給了人無盡的困惑。 就像人類無法摸清大腦的工作原理一樣,他們同樣無法摸清AI的工作原理。 訓練AI這種方式為何能行?它是如何學的?信息存在哪裏?為何下此判斷?不知道。 它好像在玄幻境界。碼工時常覺得自己正在養蠱,賊刺激,給蠱蟲喂個這個、喂個那個,一掀蓋子,謔,出來一個超厲害的東東! 有人說,讓AI向人解釋一個東西,相當於讓人向狗解釋一個東西,聽著so sad。 人類曆史充分表明,隻有一個決策可以解釋、分析,人才可以了解它的優點缺陷,評估風險,知道它在多大程度能被信賴。 很多專家說過“必須質疑人工智能為何做出一個決定……”“難道,無人汽車每回出事,企業都說不知原因、AI讓它這麽幹的?” 何況,不幸的是,如同大腦會出錯,AI也會出錯。
上一章 回目錄 標記書簽 下一章