西班牙《國(guó)家報(bào)》指出,當(dāng)AI神經(jīng)網(wǎng)絡(luò)運(yùn)行時(shí),即便是最資深的研究人員也對(duì)其內(nèi)部運(yùn)作一無(wú)所知。這里討論的無(wú)關(guān)生物學(xué),而是AI算法,特別是那些基于深度學(xué)習(xí)、模仿神經(jīng)元之間連接的算法。這些系統(tǒng)宛如黑匣子,數(shù)據(jù)科學(xué)家、學(xué)術(shù)界頂尖人才,以及榮獲諾貝爾獎(jiǎng)的OpenAI和谷歌的工程師們,也難以窺探其內(nèi)部奧秘。
圖片來(lái)源:西班牙《國(guó)家報(bào)》網(wǎng)站
模型與數(shù)據(jù)具有不透明性
《科學(xué)美國(guó)人》雜志報(bào)道稱(chēng),AI黑匣子指的是內(nèi)部運(yùn)作方式對(duì)用戶(hù)完全不可見(jiàn)的AI系統(tǒng)。用戶(hù)可以向這些系統(tǒng)輸入信息并獲得輸出,但無(wú)法檢查其代碼或了解產(chǎn)生輸出的邏輯。
機(jī)器學(xué)習(xí)作為AI的主要分支,是ChatGPT等生成式AI系統(tǒng)的基石。機(jī)器學(xué)習(xí)包含算法、訓(xùn)練數(shù)據(jù)和模型3個(gè)核心部分。算法是一系列程序指令,在機(jī)器學(xué)習(xí)中,算法通過(guò)大量訓(xùn)練數(shù)據(jù),學(xué)會(huì)識(shí)別數(shù)據(jù)中的模式。當(dāng)機(jī)器學(xué)習(xí)算法完成訓(xùn)練,其產(chǎn)物便是機(jī)器學(xué)習(xí)模型,這也是用戶(hù)實(shí)際使用的部分。
機(jī)器學(xué)習(xí)系統(tǒng)這3個(gè)部分中,任何一個(gè)都可能被隱藏起來(lái),即被置于黑匣子中。通常情況下,算法是公開(kāi)的。但為了保護(hù)知識(shí)產(chǎn)權(quán),AI軟件開(kāi)發(fā)者通常會(huì)將模型或訓(xùn)練數(shù)據(jù)放進(jìn)黑匣子。
模型架構(gòu)復(fù)雜到難以解釋
盡管許多AI算法背后的數(shù)學(xué)原理已被人們充分理解,但由這些算法構(gòu)成的網(wǎng)絡(luò)所產(chǎn)生的行為,卻難以捉摸。
ChatGPT、Gemini、Claude、Llama以及任何如DALL-E這樣的圖像生成器,以及任何依賴(lài)神經(jīng)網(wǎng)絡(luò)的系統(tǒng),包括面部識(shí)別應(yīng)用和內(nèi)容推薦引擎,都面臨這樣的問(wèn)題。
相比之下,其他AI算法,如決策樹(shù)或線(xiàn)性回歸(常用于醫(yī)學(xué)和經(jīng)濟(jì)等領(lǐng)域),則更具可解釋性。它們的決策過(guò)程易于理解和可視化。工程師可順著決策樹(shù)的分支,清晰地看到特定結(jié)果是如何得出的。
這種清晰性至關(guān)重要,因?yàn)樗鼮锳I注入了透明度,并向算法的使用者提供了安全保障。值得注意的是,歐盟《人工智能法案》強(qiáng)調(diào)了擁有透明且可解釋系統(tǒng)的重要性。然而,神經(jīng)網(wǎng)絡(luò)本身的架構(gòu)卻阻礙了這種透明性。要理解這些算法的黑匣子問(wèn)題,人們必須想象一個(gè)由相互連接的神經(jīng)元或節(jié)點(diǎn)構(gòu)成的網(wǎng)絡(luò)。
西班牙國(guó)家研究委員會(huì)AI研究所教授胡安·安東尼奧解釋道,當(dāng)你把數(shù)據(jù)輸入網(wǎng)絡(luò),節(jié)點(diǎn)中的值會(huì)觸發(fā)一系列計(jì)算。信息從第一批節(jié)點(diǎn)開(kāi)始傳播,以數(shù)值形式傳遞到后續(xù)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)都會(huì)計(jì)算一個(gè)數(shù)字,并將其發(fā)送到所有連接,同時(shí)考慮每個(gè)連接的權(quán)重(即數(shù)值)。接收到這些信息的新節(jié)點(diǎn)會(huì)再計(jì)算另一個(gè)數(shù)字。
值得注意的是,當(dāng)前深度學(xué)習(xí)模型包含數(shù)千到數(shù)百萬(wàn)個(gè)參數(shù)。這些參數(shù)代表了訓(xùn)練后的節(jié)點(diǎn)和連接數(shù)量,數(shù)量龐大且變化多端,因此很難手動(dòng)得出有意義的方程。
據(jù)業(yè)內(nèi)人士估計(jì),GPT-4擁有近1.8萬(wàn)億個(gè)參數(shù)。根據(jù)這一分析,每個(gè)語(yǔ)言模型將使用約2200億個(gè)參數(shù)。這意味著,每當(dāng)提出一個(gè)問(wèn)題時(shí),就有2200億個(gè)變量可能影響算法的回應(yīng)。
科技公司嘗試打開(kāi)黑匣子
系統(tǒng)不透明性讓糾正偏見(jiàn)變得更難,也加劇了不信任感。目前,AI領(lǐng)域的主要參與者意識(shí)到了這一局限性,并正在積極開(kāi)展研究,以更好地了解其模型的工作原理。例如,OpenAI用神經(jīng)網(wǎng)絡(luò)觀察分析另一神經(jīng)網(wǎng)絡(luò),Anthropic研究節(jié)點(diǎn)連接和信息傳播電路等。
解碼黑匣子對(duì)語(yǔ)言模型大有裨益,能避免錯(cuò)誤推理和AI產(chǎn)生誤導(dǎo)信息,解決答案不一致問(wèn)題。然而,由于不了解網(wǎng)絡(luò)內(nèi)部機(jī)制,科技公司通常會(huì)讓模型進(jìn)行大量訓(xùn)練,通過(guò)測(cè)試后即發(fā)布產(chǎn)品。這種方法也可能會(huì)存在問(wèn)題,如谷歌Gemini在初發(fā)布時(shí)就生成了錯(cuò)誤的圖像。
與黑匣子相對(duì)的一個(gè)概念是玻璃盒。AI玻璃盒是指它的算法、訓(xùn)練數(shù)據(jù)和模型都可以被任何人看到。解碼黑匣子的最終目標(biāo)是保持對(duì)AI的控制,特別是將其部署在敏感領(lǐng)域時(shí)。假設(shè)一個(gè)機(jī)器學(xué)習(xí)模型已經(jīng)對(duì)人類(lèi)的健康狀況或財(cái)務(wù)狀況做出了診斷,人們會(huì)希望該模型是黑匣子還是玻璃盒呢?答案顯而易見(jiàn)。這不僅是對(duì)算法內(nèi)部工作原理的高度關(guān)注,也不僅是出于科學(xué)的好奇心,更有對(duì)用戶(hù)隱私的保護(hù)。
標(biāo)簽: