這兩天,“80后死亡率已超70后”一說熱傳。據(jù)溯源,這一說法查無實據(jù),最初來源很可能是與AI的對話。盡管AI明確標(biāo)注了數(shù)據(jù)存在間接推算及估算的情況,但這條假消息還是被加上各種駭人標(biāo)題在網(wǎng)上流布。這場烏龍再次引出一個問題:AI真的那么靠譜嗎?
學(xué)界頻頻提及的“AI幻覺”與“機器欺騙”,指的就是“AI會胡亂拼湊或虛構(gòu)一些事實,讓其生成的內(nèi)容顯得合理、自洽”。查閱相關(guān)公開資料不難發(fā)現(xiàn),全球最先進的大模型,在試驗中也會出現(xiàn)一定的“幻覺率”。更關(guān)鍵的是,AI在呈現(xiàn)錯誤答案時仍看上去“非常自信且具有說服力”,很容易讓人信以為真。至于出現(xiàn)“AI幻覺”的原因,目前尚無定論,既有可能是AI在轉(zhuǎn)錄和翻譯海量數(shù)據(jù)時出現(xiàn)了偏差,也可能是其在“數(shù)據(jù)不足”時“急中生智”。
AI的能力確實在不斷超越人類的想象,但遠(yuǎn)不能視之為“萬能”。除了生成內(nèi)容的真實性、可靠性常常存疑,AI在創(chuàng)造力、想象力方面也相對“拉胯”。耶魯大學(xué)計算機科學(xué)家戴維·格勒恩特爾曾言:“除非能模擬人類情感的所有細(xì)微差別,否則任何計算機都不會有創(chuàng)造力。”從現(xiàn)實來看,AI在處理社會尚未形成共識的話題,或在預(yù)測某件事情的走向時會陷入困難。因而,在使用生成式AI這一工具時,我們不僅要對其生成信息多加辨別,更不能放棄思考,倘若指望其給觀點、定決策、下結(jié)論,很可能會被帶進溝里。
“就像一臺車沒有汽油走不了,數(shù)據(jù)就是AI發(fā)展的燃料”。確實,AI大模型的迭代發(fā)展離不開大體量優(yōu)質(zhì)數(shù)據(jù)“喂養(yǎng)”。數(shù)據(jù)從何而來?顯然是由人來生產(chǎn)與創(chuàng)造。據(jù)統(tǒng)計,“現(xiàn)實世界所能提供的用于訓(xùn)練AI模型的數(shù)據(jù)幾乎已消耗殆盡”,且未來人類對高質(zhì)量文本的需求量,遠(yuǎn)超數(shù)據(jù)產(chǎn)生的速度。如若人類的大腦就此“躺平”,“訓(xùn)練數(shù)據(jù)枯竭”的情況就會不斷加劇,最終要么是AI發(fā)展陷入停滯,要么是AI開始大規(guī)模自說自話,拿自己生成的似是而非的內(nèi)容訓(xùn)練自己,導(dǎo)致整條信息河流被持續(xù)污染。
人類從來都是在思考中迸發(fā)靈感,在試錯中革新向前,不少偉大的發(fā)明都是研究的“副產(chǎn)品”。可當(dāng)AI提供了前往“正確答案”的“直通車”,不僅可能“挖空學(xué)習(xí)資源”,形成更加厚重的“信息繭房”,還可能反噬創(chuàng)新。近來,“腦腐”一詞頗為流行,當(dāng)AI讓各類信息更加唾手可得,我們的內(nèi)心世界是否會經(jīng)歷一場更猛烈的“水土流失”?
未來已來,我們當(dāng)然不能抱著“AI末日論”抵抗浪潮,但也不能盲目樂觀。相關(guān)方面應(yīng)在遵從科技倫理、人本主義、法治理念等基礎(chǔ)上,不斷完善AI相關(guān)法規(guī),力求價值引領(lǐng)與技術(shù)“糾錯”并行,最大程度爭取科技向善。于個人而言,也當(dāng)保持好奇心,提升思辨力,讓AI成為我們最有力的工具之一而非“替代者”。(晁星)
編輯:譚鵬