電子產(chǎn)業(yè)一站式賦能平臺

PCB聯(lián)盟網(wǎng)

搜索
查看: 24|回復(fù): 0
收起左側(cè)

ChatGPT為什么會“胡說八道”?

[復(fù)制鏈接]

528

主題

528

帖子

3006

積分

四級會員

Rank: 4

積分
3006
跳轉(zhuǎn)到指定樓層
樓主
發(fā)表于 2024-9-13 11:25:00 | 只看該作者 |只看大圖 回帖獎勵 |倒序瀏覽 |閱讀模式
AI幻覺,簡單來說,是指人工智能系統(tǒng)(自然語言處理模型)生成的內(nèi)容與真實數(shù)據(jù)不符,或偏離用戶指令的現(xiàn)象,就像人類說“夢話”一樣~- W6 w  O$ e) Y' v! u
5 p& G. n: e" o3 H4 P

6 N2 v1 y1 z* M0 u" ~3 c% }那么AI幻覺有哪些?是什么原因產(chǎn)生的?我們該如何避免AI幻覺呢?
. u( h) a% x2 p- i5 Z2 s
* n3 u: f+ @) N7 ?; x# i18 d4 @9 M5 ~9 _1 Q% Z! {
AI會產(chǎn)生什么樣的幻覺?
# @2 h1 p! X/ C# G. L9 \! a- H- M5 U& f  \
可能有的小伙伴說:“我知道了!AI‘胡說八道’就是AI幻覺唄?”其實也沒這么簡單,AI幻覺主要有兩類。
. c3 ~7 G0 G7 [: C6 V事實幻覺:“假新聞制造機”9 {( ^4 L3 Q) W/ p, E6 \
A:事實不一致:AI生成的內(nèi)容與現(xiàn)實世界事實相矛盾/ N. u2 O/ u  F$ q

4 D: v" |5 \3 Q當被問及“世界上最高的山峰是哪座?”,如果AI回答“深圳塘朗山是世界上最高的山峰!边@就是一個事實不一致的例子,因為塘朗山坐落于廣東省深圳市,海拔430米遠低于珠穆朗瑪峰8848.86米,這個回答與現(xiàn)實世界的事實相矛盾。
! n- D( H" m' xB:事實捏造:AI生成完全虛構(gòu)的內(nèi)容" P( ^" [- b) u& [  t
4 c4 z" E2 m- c% \5 @- Z& r

9 W0 K( g. _$ e3 [5 p9 W如果AI描述說“2024年,考古學(xué)家在埃及金字塔內(nèi)發(fā)現(xiàn)了一座隱藏的密室,里面藏有古代法老的寶藏和未知的高科技裝置。”這就是完全虛構(gòu)的信息,截至目前沒有考古發(fā)現(xiàn)或科學(xué)證據(jù)表明埃及金字塔內(nèi)存在未被發(fā)現(xiàn)的密室,更不用說藏有古代法老的寶藏或未知的高科技裝置了。' b; `8 U  P9 ?
忠誠度幻覺:“指令迷失”& S$ J" A* W6 w* W% a* F
A:指令不一致:AI的回答偏離用戶的要求
2 o6 L3 l) @; @8 w" v& ~* o! c. F  a
) m3 Y4 E- D4 \7 Z4 x) z% N6 A
( R; P6 ?4 v0 S; o+ W& A% k6 Q2 D
如果用戶要求AI“講解一下龍飛鳳舞”,但AI回答了“老鐵,我給你搜了幾段舞蹈教學(xué)” ,這就完全偏離了原始的問題。
: c( @0 h8 {2 P. c3 U# gB:上下文不一致:AI生成的內(nèi)容與提供的背景信息不符
9 }! A1 H  d  B0 ^# S7 r; c: v  m
. s  `$ r0 v! {0 ^2 ?# t7 |假設(shè)在一個討論中國傳統(tǒng)節(jié)日的上下文中,用戶問:“春節(jié)是什么時候?”AI回答:“春節(jié)是中國農(nóng)歷新年,通常在每年的1月或2月慶祝!边@個回答是正確的,符合春節(jié)的基本情況。
2 L3 G7 p) p1 l然而,如果AI接著說:“春節(jié)是紀念屈原的節(jié)日,人們會吃粽子和賽龍舟!边@就是上下文不一致的例子,因為AI的回答與春節(jié)的背景信息不符。
; K& @  f/ u; _; Z4 o; m- B- YC. 邏輯不一致:AI的輸出存在內(nèi)在邏輯矛盾/ _: c* S* M, `+ j* k; W/ y+ V
開頭的9.11大于9.9就是一個典型的數(shù)值計算邏輯混亂的例子……,AI把自己繞蒙了~
9 I( ]3 \0 m7 M) K2 J2 M- x0 w" B$ }& H" n) e' Q3 d
2
+ k4 b: h# m9 x* xAI幻覺有哪些特點
4 }2 D2 R5 l1 A0 n* x/ g1 I  y! R( e: P( u+ M3 e+ B& |+ _+ U
  • 內(nèi)容流暢性:盡管內(nèi)容可能有誤,AI生成的文本通常仍然連貫流暢。
  • 表面合理性 :生成的內(nèi)容表面上看起來可信,給人以“這看起來很對”的第一印象,非專業(yè)人士難以辨別。
  • 上下文相關(guān) :AI的幻覺內(nèi)容并非憑空出現(xiàn),它們通常與特定的上下文情境緊密相關(guān)。
  • 不可預(yù)測性 :很難預(yù)測AI何時會產(chǎn)生幻覺,可能幻覺也很難復(fù)現(xiàn),就像人很難在今天做一個與昨天相同的夢。, \( p. J4 X0 I7 d0 w
    3
    ( w4 V' T) ?, z/ o) h+ K% h" R  @7 [AI幻覺的“幕后黑手”- c5 Y# t: L# j8 T/ {

    3 S( x: J" o/ I3 g" IAI幻覺主要來自以下方面:數(shù)據(jù)里的“坑”
    & \( E4 M: V+ V, O- I+ b
    ! x! j0 P5 O/ {% R" ~4 `6 z
  • 訓(xùn)練數(shù)據(jù)局限:AI訓(xùn)練數(shù)據(jù)可能包含錯誤、偏見或過時信息。就像教小朋友學(xué)習(xí),課本是錯的,考試自然無法答對。
  • 缺乏實時更新:AI通常基于靜態(tài)數(shù)據(jù)訓(xùn)練,無法及時獲取最新信息?荚囈鶕(jù)最新的資料復(fù)習(xí),拿一本82年的教材是考不了24年的高考的~4 W! a! t3 ?: ^! ?. G# T; N
    6 l7 z% r8 Q& s8 d9 q1 ?7 n
    ( U% m9 u7 f( Z' v) E: F( r
    訓(xùn)練過程的“小插曲”! [$ z+ r1 J- r9 G
    & z& c; K' g: m

    , y- L% E! E. f0 B; C! B
  • 過度泛化 :模型可能過于依賴某些模式,導(dǎo)致在新情況下推導(dǎo)錯誤。就像我們學(xué)習(xí)時候只記住了公式,卻不會靈活變通。
  • 上下文理解不足:AI可能無法完全把握復(fù)雜的上下文關(guān)系。在處理多個復(fù)雜信息點,或者在推理時容易出錯。就像我們的大腦有時也會短路一樣。! J0 c$ p% b5 p2 \- \( M: r
    3 v  p# T9 y# [8 g2 V
    模型本身的“小缺陷”" n  ~$ o1 V$ `! f9 r

    , R/ q( g) s: [7 l; x  Y
    ' z- B1 ?$ W$ P, X, w3 j; b6 u模型結(jié)構(gòu)限制:AI通過統(tǒng)計模式預(yù)測,但可能無法真正理解信息。“你以為他真的懂你,其實也不過是基于復(fù)雜算法的數(shù)學(xué)而已~”
    : m. J' j& L1 B% d8 q3 F4& h. G0 s! V: w, n

    + A' y& I7 J$ y9 b* @如何避免AI幻覺?
    1 T; T0 x2 }4 r* S4 T" L2 E6 C1 i5 h+ Z- |  c$ S8 ]2 t/ m/ o
    避免AI幻覺有以下幾個“絕招”,各位少俠看“自身功力”,酌情修煉~一. 提示工程有策略提示工程通過優(yōu)化AI的輸入提示,使生成的內(nèi)容更準確。2 O, ]8 B; ~  {: M: Q- r
    A. 檢索增強生成(RAG)技術(shù)
    " w3 I  J1 W, P, m' i# O . F/ l7 U: S7 A( y0 r9 L$ d
    RAG技術(shù)通過引入外部知識來幫助AI生成更準確的內(nèi)容。主要方法包括:* K; {/ T0 ^  E: m. t  N
    生成前檢索:在內(nèi)容生成前,系統(tǒng)會預(yù)檢索相關(guān)背景信息,為生成過程打下堅實的基礎(chǔ)。
    # K5 B$ @9 e3 `( u" I; D; M2 D5 h生成過程中檢索:在生成過程中,系統(tǒng)實時檢索并整合外部知識,確保內(nèi)容的時效性和深度。( ~* `' F1 `; _0 B6 H
    生成后檢索 :生成后,系統(tǒng)再次檢索,與現(xiàn)有證據(jù)進行對比,驗證生成內(nèi)容的準確性。2 o' y) L: G* }/ ~0 u

    4 {+ {8 x& U3 H3 z& S3 h- W5 f! ~/ v9 i5 S例如,當AI被問到“2024年登月的宇航員有哪些?“時,RAG系統(tǒng)會先檢索最新的新聞信息,然后基于檢索到的準確信息生成回答。
    9 j7 W, \2 x- v- P2 e
      R5 T+ g0 A* Y; L7 b, j9 [3 dB. 基于反饋和推理的自我改進機制, U4 e  ]1 ]9 Q6 {5 w3 R
    這種方法賦予AI自我反思的能力,使其能夠不斷優(yōu)化生成的內(nèi)容。
    + s( ?: C! _8 Q4 H( o% Z6 b3 A. y' `. z: f

    $ X2 s# b. J" H2 c* c8 P" VAI在生成答案后,會進行自我審視,提出疑問:“這個答案是否全面?是否有關(guān)鍵信息被忽略?”
    - S0 ]3 @' w8 w, [9 a3 @: tC. 提示詞的精細化調(diào)優(yōu)
    # W4 J* N. @3 t$ N8 f+ @% g" d- l通過精心設(shè)計的提示詞,引導(dǎo)AI生成更可靠、更精確的內(nèi)容。
    $ s+ Q4 o( ?" ]$ \0 |& B) O4 q* o) C( y  G- }! y/ b8 [
    ; Z3 e2 T+ O" F% o' p
    例如,在地圖導(dǎo)航的AI應(yīng)用中,使用“請根據(jù)最新的交通管制政策、路況信息、天氣情況,提供明天上午九點到深圳灣公園的路線推薦,分別提供駕車與公共交通的路線信息,用時推薦等”具體提示,代替籠統(tǒng)的“如何去深圳灣公園”。
    ; G* H: m# I: T# ]0 K" X這種方法不僅提升了信息的全面性,也增強了AI回答的針對性。(這不僅是我們最容易實現(xiàn)的策略,也是最直觀有效的方法,能夠顯著改善內(nèi)容生成的質(zhì)量和深度。8 T4 q: u. ?; ?" j7 Q+ b

    8 m( i  y2 q+ N1 J6 o& ~9 p: a- ^  H* j# G3 u; G: p/ v/ q) X
    二. 模型開發(fā)不能停AI模型與訓(xùn)練過程的不斷進化是減少幻覺產(chǎn)生的關(guān)鍵。
    . W4 p; O" R, w5 e% E* ]% {+ b9 I0 F: q/ d1 H
    A. 創(chuàng)新解碼技術(shù)/ J6 \% J1 O" p2 G' c: V
    采用新的解碼策略,以便更精準地處理語言上下文,例如上下文感知解碼(CAD)。. N' H- B8 }; g% \; E. q; v

    * s, S2 ]( I, Y) a  n  `7 t這種方法通過在解碼過程中引入上下文信息,鼓勵模型更多地關(guān)注所提供的上下文,而不是僅僅依賴于模型在預(yù)訓(xùn)練階段學(xué)到的知識。& b; j( I9 A0 x( e7 I& A+ z2 Y
    0 h4 ^4 ]* C) i! k' H, s  @
    例子:在翻譯一部科幻小說時,傳統(tǒng)模型可能會直譯“Beam me up”為“把我光束上去”,而應(yīng)用CAD的模型會理解這是一句要求傳送的指令,正確翻譯為“把我傳送上去”。
    # q) S8 b' ]) O6 ~  @7 D( }( _$ G* x+ _( s

    6 n( b- r/ |! M9 z& Y/ CB. 知識圖譜的應(yīng)用
    - V. R1 q: m% K# F+ L( H/ F# N通過知識圖譜,我們能夠豐富AI的知識庫,讓生成的內(nèi)容更加準確和有深度。
    3 t3 I' I2 W4 E4 K
    ; \# T+ ]) A0 u6 T9 J( A0 z" m想象一下,知識圖譜就像一個巨大的、互聯(lián)的“社交網(wǎng)絡(luò)”,但它不是連接人,而是連接各種信息和概念。每個“用戶”在這個網(wǎng)絡(luò)中都是一個實體,比如人、地點、事物或者概念。/ u  j: o8 N- z* L. X9 ^% c
    . z, M" ]" i& c7 ^5 }4 Y: Q+ ?
    它們通過各種“關(guān)系”相互連接,就像社交軟件上的好友關(guān)系一樣。知識圖譜通過這種方式組織信息,就像一個超級學(xué)霸幫助AI快速找到信息,并且理解不同信息之間的聯(lián)系。
    5 c, k/ {& s; e7 e, J. P
    $ E, L" ^0 l$ j' K( g舉個例子,如果你在知識圖譜中查找“蘋果”,它不僅會告訴你蘋果是一種水果,還可能告訴你蘋果公司是一家科技公司,甚至還會告訴你牛頓被蘋果啟發(fā)發(fā)現(xiàn)了萬有引力。. Z1 d$ g; D, w0 ]% K) t' e) r

    0 y0 @. p( S, x: W/ K

    " F; l1 f. z% WC. 基于忠實度的損失函數(shù)5 G/ \$ a' y: n; m7 c6 d: Q; L
    引入新的損失函數(shù),對偏離原始數(shù)據(jù)的生成內(nèi)容進行懲罰,以減少不準確的信息,從而把AI從幻覺中“掐醒”。4 I+ D5 w$ Y3 q: t, H

    % }' m- H/ p' K5 W% `  x 0 y; R3 x- |3 ^9 [
    舉個例子,AI在生成文章摘要時,如果回答中添加了原文中未提及的內(nèi)容,損失函數(shù)會提高懲罰,確保模型學(xué)習(xí)到生成與原文相符的內(nèi)容。
    : ~2 \9 I5 v% v' s# V- Y2 ?9 p5 c
    ' l' X3 F0 \' t+ [. G( ^
    D. 監(jiān)督微調(diào)3 G0 r# k1 n2 @- T6 x& z
    通過特定領(lǐng)域的數(shù)據(jù)進行微調(diào),提升模型在特定任務(wù)上的準確性。2 y4 R$ N0 C8 Q. D4 Z5 c0 a
    / n* k! P& r5 k% W
      f8 N' F! ?  k( i& r% C0 ]6 I
    舉個例子,一個通用的語言模型可能對通信術(shù)語理解有限。通過使用大量通信行業(yè)資料進行訓(xùn)練微調(diào),可以顯著提高模型在通信領(lǐng)域的準確性。, T! r" s2 H) {. U4 p* E
    比如,它可以更準確地區(qū)分相似通信術(shù)語的區(qū)別,如EBGP和IBGP。- u3 Z- r5 X1 U$ t
    1 F2 {- Y, J' v0 x% t
    三. AI Agent為模型加BuffAI Agent有特定的能力可以提高模型的可靠性,通過這種方式,AI Agent能夠更好地理解和處理復(fù)雜的任務(wù),減少在生成文本時出現(xiàn)的錯誤或不準確的信息。
    ! z/ {4 \( \& BA. PAL(Program-Aided Language Models,程序輔助語言模型):PAL技術(shù)通過將程序化邏輯嵌入到語言模型中,使得AI能夠執(zhí)行特定的程序或算法來完成任務(wù)。
    ; I0 V) V7 ^+ s( [7 j' c6 sPAL技術(shù)像是一個“自動化工具”,它通過內(nèi)置的程序邏輯來指導(dǎo)AI系統(tǒng)如何完成任務(wù)。這種技術(shù)的優(yōu)勢在于能夠處理那些規(guī)則明確、步驟固定的任務(wù)。. Z' D' H8 {- Z0 W

    - t. s) B! D6 X! U* k/ h8 ^2 _" g0 G, k舉個例子,如果你告訴基于PAL技術(shù)的AI系統(tǒng):“我需要在每天下午3點提醒我喝水!毕到y(tǒng)會設(shè)置一個自動化的日程提醒,每天按時提醒你,而不需要進一步的交互。
    . q6 P$ U  S3 E; w* x: f# H9 ?% r  a$ p- G6 J

    7 M! k( a* e* m8 ]B. ReAct(Reasoning and Acting,推理與行動):
    : x0 C1 |  X4 d" x) E% EReAct技術(shù)強調(diào)AI對上下文的理解,以及基于這種理解進行的推理和決策。
    & o8 w6 w4 Q9 [# H' A, }0 Z! i' r0 f& V0 p
    ReAct技術(shù)更像是一個“智能助手”,它不僅理解用戶的請求,還能夠根據(jù)請求的內(nèi)容進行推理,并采取相應(yīng)的行動。這種技術(shù)的優(yōu)勢在于能夠處理那些需要靈活推理和決策的任務(wù)。
    1 f+ t' d- V% g% S" o8 V# @1 Z* I# Y' l) Z+ \
    舉個例子,如果你告訴基于ReAct算法的AI系統(tǒng):“我明天有個會議,需要準備一份報告!盧eAct系統(tǒng)會理解你的請求,然后推理出你需要的信息類型,可能會詢問你報告的具體內(nèi)容和格式,然后根據(jù)這些信息來幫助你準備報告。
    . O& p( P) G0 h
      i7 n+ [$ A2 b2 ^4 a. u
    4 k* r8 |/ y" |$ a  c: \  _$ L; }. \( e. {7 p* p  R
    END/ d" ?. @! n; p1 i
    文檔君的AI幻覺就介紹到這啦!是不是秒懂了“AI幻覺”?; D& n7 ~4 B: W+ \

    ! e0 j( U# W( I9 @5 y# x- w# Q所以下次當你的AI應(yīng)用開始“夢話連篇”,不要“嘲笑”它,也不要急于按下“重啟”鍵。
    % h$ F# F" V- a3 a! [$ o其實,AI也是在學(xué)習(xí)中成長的“小朋友”,它們在努力成長,可能偶爾也會開個小差,做個“白日夢”。只要我們用正確的方法引導(dǎo)它,多用一點耐心教導(dǎo)它,它就能從“夢游”中醒來,為我們提供準確、可靠的服務(wù)
    8 `8 N0 p+ e5 H& ~8 x* A6 y% S& l2 L4 ], Q4 p) H/ \7 [& d
    ~~~9 j! x' U$ I! J  J& P

    7 D( H/ l" h! d1 H" z( D9 v! {9 N" c, x小問答
      X5 |. d/ i# H6 l! F請問“林黛玉倒拔垂楊柳”屬于AI的哪一種幻覺呢
    , l# ~$ m" O; N4 }- t0 W
    ( t" I/ q' T) ]4 d?還有沒有什么典型的AI幻覺的例子?評論區(qū)跟大家分享一下吧~
    + A/ \5 {. ]$ v) j
    7 ~' _" Z4 r. l9 _
    7 Z7 N3 j) U; n* j* l; j
  • 回復(fù)

    使用道具 舉報

    發(fā)表回復(fù)

    您需要登錄后才可以回帖 登錄 | 立即注冊

    本版積分規(guī)則

    關(guān)閉

    站長推薦上一條 /1 下一條


    聯(lián)系客服 關(guān)注微信 下載APP 返回頂部 返回列表