亚洲精品无码乱码成人|最近中文字幕免费大全|日韩欧美卡一卡二卡新区|熟妇性饥渴一区二区三区|久久久久无码精品国产AV|欧美日韩国产va在线观看|久久精品一本到99热动态图|99国产精品欧美一区二区三区

您現(xiàn)在的位置是: 創(chuàng)投 > > 正文

構(gòu)建大模型幻覺(jué)及其價(jià)值風(fēng)險(xiǎn)的預(yù)防治理體系

時(shí)間:2025-04-12 11:43:52 來(lái)源:光明日?qǐng)?bào) 發(fā)布者:DN032
 當(dāng)前,大模型正以日新月異的速度變革人類社會(huì),其以強(qiáng)大的文字、圖像與視頻生成能力,帶給人們學(xué)習(xí)工作的效率革命與范式創(chuàng)新。越來(lái)越多人將大模型應(yīng)用于日常實(shí)踐活動(dòng),然而在此過(guò)程中,部分用戶由于缺乏必要的媒介素養(yǎng)和信息驗(yàn)證習(xí)慣,很容易被表面嚴(yán)絲合縫的人工智能幻覺(jué)蒙蔽欺騙,無(wú)條件信任大模型輸出的所有答案,進(jìn)而對(duì)生活、學(xué)習(xí)或工作產(chǎn)生不良影響,引發(fā)決策誤導(dǎo)、認(rèn)知偏差等風(fēng)險(xiǎn)。在推動(dòng)大模型廣泛應(yīng)用過(guò)程中,必須警惕與治理大模型幻覺(jué)問(wèn)題及其價(jià)值風(fēng)險(xiǎn),加快構(gòu)建集技術(shù)優(yōu)化、法律規(guī)制與倫理調(diào)適于一體的預(yù)防治理體系。

大模型幻覺(jué)的生成原因

  在人工智能領(lǐng)域,幻覺(jué)特指大模型生成的內(nèi)容看似語(yǔ)法正確、邏輯嚴(yán)謹(jǐn),但實(shí)際上存在著事實(shí)錯(cuò)誤或無(wú)法驗(yàn)證事實(shí)的現(xiàn)象,具有“一本正經(jīng)胡說(shuō)八道”、無(wú)法確認(rèn)現(xiàn)實(shí)依據(jù)等特征。大模型的幻覺(jué)包括事實(shí)性幻覺(jué)與忠實(shí)性幻覺(jué)兩種類型,前者指的是與事實(shí)不一致或存在事實(shí)捏造,后者指的是生成內(nèi)容與用戶指令不一致、上下文不一致或邏輯不一致。

  在本質(zhì)上,大模型的幻覺(jué)問(wèn)題是其技術(shù)架構(gòu)、訓(xùn)練和生成模式共同作用的產(chǎn)物,具有一般性、偶然性、隨機(jī)性、難以避免或克服等特征。在生成機(jī)制上,大模型幻覺(jué)的核心成因來(lái)自概率驅(qū)動(dòng)的技術(shù)架構(gòu)、訓(xùn)練數(shù)據(jù)局限性以及人機(jī)互動(dòng)生成邏輯的多重耦合。

  首先是技術(shù)架構(gòu)的能力短板。目前大模型主要采取基于轉(zhuǎn)換器結(jié)構(gòu)的GPT范式,這種技術(shù)架構(gòu)確能大幅度提高自然語(yǔ)言處理的精度與效率,但在預(yù)訓(xùn)練、監(jiān)督微調(diào)、推理等環(huán)節(jié)都可能存在能力短板,產(chǎn)生與事實(shí)、指令或上下文不一致的幻覺(jué)問(wèn)題。例如在預(yù)訓(xùn)練階段,大模型通過(guò)自回歸生成方式,基于歷史標(biāo)記的概率分布逐詞預(yù)測(cè)輸出。這種機(jī)制天然缺乏對(duì)上下文語(yǔ)義一致性的把控能力,容易優(yōu)先選擇概率更高但與事實(shí)、邏輯不一致的詞匯組合,輸出形成“語(yǔ)法正確但內(nèi)容失真”的幻覺(jué)。

  其次是訓(xùn)練數(shù)據(jù)的天然缺陷。大模型基于互聯(lián)網(wǎng)海量數(shù)據(jù)進(jìn)行深度學(xué)習(xí),但由于互聯(lián)網(wǎng)語(yǔ)料并未經(jīng)過(guò)嚴(yán)格檢驗(yàn)處理,或者由于錯(cuò)誤標(biāo)注,不可避免存在事實(shí)錯(cuò)誤或邏輯矛盾,大模型缺乏對(duì)數(shù)據(jù)真實(shí)性的鑒別能力,容易抓取或根據(jù)錯(cuò)誤數(shù)據(jù)生成回答。例如,當(dāng)要求GPT4大模型講述“林黛玉倒拔垂楊柳”的故事時(shí),大模型并不能辨析其中的陷阱,而是未經(jīng)事實(shí)驗(yàn)證直接從海量文本數(shù)據(jù)中進(jìn)行內(nèi)容拼接,編造出一段荒謬情節(jié)。

  最后是人機(jī)互動(dòng)的刻板誤傷。大模型采取的人類反饋強(qiáng)化學(xué)習(xí),容易導(dǎo)致大模型在刻意逢迎人類需求過(guò)程中出現(xiàn)信口開(kāi)河、事實(shí)偽造等問(wèn)題。如加拿大航空聊天機(jī)器人在錯(cuò)誤理解“特殊退款”概念后,連續(xù)生成虛構(gòu)的退款條件與時(shí)限,最終釀成法律糾紛。大模型特有的技術(shù)架構(gòu)和生成邏輯,導(dǎo)致幻覺(jué)具有自我強(qiáng)化的危險(xiǎn)性。

大模型幻覺(jué)的價(jià)值風(fēng)險(xiǎn)

  大模型幻覺(jué)的隨機(jī)出現(xiàn)和難以避免,還存在著削弱人機(jī)信任、導(dǎo)向信息極化、沖擊社會(huì)秩序甚至引發(fā)意識(shí)形態(tài)安全危機(jī)等價(jià)值風(fēng)險(xiǎn),亟待加強(qiáng)預(yù)防與治理。

  大模型幻覺(jué)最直接的危害就是對(duì)用戶決策的誤導(dǎo),特別是在醫(yī)療、健康、金融等領(lǐng)域。大模型的權(quán)威性表達(dá)風(fēng)格與流暢的敘事邏輯,使得錯(cuò)誤信息具有極強(qiáng)的迷惑性。如果用戶過(guò)于依賴大模型生成信息輔助決策,很有可能被誤導(dǎo)進(jìn)而產(chǎn)生嚴(yán)重后果。例如,相信大模型提供的錯(cuò)誤治療方案,可能導(dǎo)致疾病無(wú)法控制甚至進(jìn)一步惡化。長(zhǎng)此以往,恐將削弱人機(jī)信任關(guān)系。

  更令人擔(dān)憂的是,大模型幻覺(jué)引發(fā)的價(jià)值風(fēng)險(xiǎn)呈現(xiàn)出從個(gè)人決策誤導(dǎo)向群體認(rèn)知偏差、社會(huì)秩序沖擊的擴(kuò)散路徑。在公共決策領(lǐng)域,幻覺(jué)可能扭曲政策認(rèn)知,如果不加強(qiáng)對(duì)大模型輸出信息的甄別與把關(guān),很有可能出現(xiàn)誤讀政策、發(fā)表歧視言論等幻覺(jué)問(wèn)題,不僅會(huì)削弱政府公信力,甚至?xí)<吧鐣?huì)公共安全。

  在意識(shí)形態(tài)安全領(lǐng)域,相關(guān)威脅更加隱蔽。例如,相關(guān)研究監(jiān)測(cè)到,某些境外大模型帶著意識(shí)形態(tài)的有色眼鏡看待中國(guó)特色社會(huì)主義發(fā)展成就與制度優(yōu)勢(shì),刻意混入虛假事實(shí)或錯(cuò)誤評(píng)價(jià),形成與主流話語(yǔ)不同的輸出。這種經(jīng)過(guò)意識(shí)形態(tài)包裝的幻覺(jué)內(nèi)容,通過(guò)知識(shí)問(wèn)答形式進(jìn)行價(jià)值滲透,其誤導(dǎo)性遠(yuǎn)超傳統(tǒng)虛假信息。

大模型幻覺(jué)的治理對(duì)策

  預(yù)防與治理大模型幻覺(jué),應(yīng)構(gòu)建技術(shù)糾偏、法律規(guī)制與倫理調(diào)適的三維治理體系,通過(guò)技術(shù)優(yōu)化消除幻覺(jué)問(wèn)題,借助法律規(guī)制明確責(zé)任邊界,依托倫理調(diào)適培育價(jià)值理性,使大模型成為人類更可靠的合作伙伴。

  構(gòu)建多層次防治體系。“以技治技”是解決大模型幻覺(jué)問(wèn)題的首選路徑。人工智能倫理的“價(jià)值敏感設(shè)計(jì)”或價(jià)值對(duì)齊策略,也有賴于技術(shù)層面創(chuàng)新與突破。這不僅需要人工智能企業(yè)與專家通過(guò)提高訓(xùn)練數(shù)據(jù)質(zhì)量、加強(qiáng)外部驗(yàn)證與事實(shí)檢查、改進(jìn)模型推理能力、增強(qiáng)透明度與可解釋性等途徑提升大模型性能,而且鼓勵(lì)哲學(xué)社會(huì)科學(xué)專家與人工智能專家攜手合作,通過(guò)知識(shí)庫(kù)優(yōu)化、訓(xùn)練語(yǔ)料糾錯(cuò)、價(jià)值對(duì)齊監(jiān)測(cè)等途徑,幫助大模型提高問(wèn)答正確率,消除潛在的幻覺(jué)問(wèn)題與價(jià)值風(fēng)險(xiǎn)。

  建立適應(yīng)性治理框架。面對(duì)大模型的普及化應(yīng)用,敏捷、柔性、規(guī)范的立法治理勢(shì)在必行。國(guó)家網(wǎng)信辦等七部門頒布實(shí)施《生成式人工智能服務(wù)管理暫行辦法》,對(duì)訓(xùn)練數(shù)據(jù)選擇、模型生成與優(yōu)化、服務(wù)提供等提出明確的法律規(guī)制與風(fēng)險(xiǎn)防范要求,有利于推動(dòng)“智能向善”,促進(jìn)大模型的合規(guī)應(yīng)用。歐盟《人工智能法案》要求大模型履行告知義務(wù)、確保技術(shù)方案的穩(wěn)健性和可靠性等規(guī)范要求,對(duì)大模型的應(yīng)用形成有效的制度約束和問(wèn)責(zé)框架,值得參考借鑒。

  提高技術(shù)開(kāi)發(fā)應(yīng)用的價(jià)值基準(zhǔn)。對(duì)大模型幻覺(jué)更有意義的治理創(chuàng)新在于建立技術(shù)價(jià)值觀,將負(fù)責(zé)任創(chuàng)新、可控創(chuàng)造性等倫理價(jià)值融入工程師的頭腦、植入大模型的代碼。例如,倡導(dǎo)存在爭(zhēng)議結(jié)論不生成、無(wú)法溯源的信息不生成、超出模型認(rèn)知邊界的內(nèi)容不生成等原則,推動(dòng)大模型從追求生成流暢度向確保內(nèi)容可靠性轉(zhuǎn)型;又如,建立大模型回答事實(shí)性問(wèn)題分級(jí)置信提示制度,按照高可信、需核實(shí)、推測(cè)性結(jié)論等進(jìn)行分類標(biāo)注,加強(qiáng)輸出內(nèi)容的透明度與可解釋性。

  對(duì)用戶而言,應(yīng)進(jìn)一步提高科學(xué)正確應(yīng)用大模型的信息素養(yǎng),進(jìn)而成為引導(dǎo)內(nèi)容生成的指揮官、幻覺(jué)問(wèn)題的甄別者。研究表明,經(jīng)過(guò)人工智能交叉驗(yàn)證等使用習(xí)慣培訓(xùn),能夠顯著降低用戶被幻覺(jué)誤導(dǎo)的概率。人們需要與時(shí)俱進(jìn)地提升自身辨析幻覺(jué)、掌握常識(shí)、批判思考的綜合能力,在利用大模型檢索信息、生成內(nèi)容的過(guò)程中遵守履行事實(shí)核查、邏輯驗(yàn)證、專業(yè)甄別、最小必要、場(chǎng)景控制等價(jià)值原則,最大限度消除幻覺(jué)問(wèn)題和價(jià)值風(fēng)險(xiǎn)。

  人工智能的可靠性建設(shè)往往滯后于其能力擴(kuò)展。治理大模型幻覺(jué)的終極目標(biāo)不是完全消滅技術(shù)的不確定性,而是要建立風(fēng)險(xiǎn)可控的人機(jī)協(xié)同機(jī)制。在這場(chǎng)人機(jī)協(xié)同的賽博進(jìn)化中,始終保持技術(shù)的謙遜與倫理的清醒,是破除大模型幻覺(jué)迷霧的應(yīng)有之義。

標(biāo)簽:

搶先讀

相關(guān)文章

熱文推薦

精彩放送

關(guān)于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

版權(quán)所有© 2011-2023  產(chǎn)業(yè)研究網(wǎng)  www.www-332159.com

所載文章、數(shù)據(jù)僅供參考.本站不作任何非法律允許范圍內(nèi)服務(wù)!

聯(lián)系我們:39 60 29 14 2 @qq.com

皖I(lǐng)CP備2022009963號(hào)-13