電子產(chǎn)業(yè)一站式賦能平臺

PCB聯(lián)盟網(wǎng)

搜索
查看: 39|回復: 0
收起左側

ChatGPT為什么會“胡說八道”?

[復制鏈接]

528

主題

528

帖子

3006

積分

四級會員

Rank: 4

積分
3006
跳轉到指定樓層
樓主
發(fā)表于 2024-9-13 11:25:00 | 只看該作者 |只看大圖 回帖獎勵 |正序瀏覽 |閱讀模式
AI幻覺,簡單來說,是指人工智能系統(tǒng)(自然語言處理模型)生成的內容與真實數(shù)據(jù)不符,或偏離用戶指令的現(xiàn)象,就像人類說“夢話”一樣~
! D. ]( N6 l: ^2 B$ x4 T! O. R! d% S; u  n

: n, O1 L) k1 D; W那么AI幻覺有哪些?是什么原因產(chǎn)生的?我們該如何避免AI幻覺呢?
. j5 d& P5 ]$ J! S% I; M  q3 l
3 \# J6 O5 t& I0 o2 {1
% ~# f4 L% K" ^  K, ]/ v! HAI會產(chǎn)生什么樣的幻覺?
# T6 `" ?  @6 k' q" K$ R) c5 b3 U, d; @- G
可能有的小伙伴說:“我知道了!AI‘胡說八道’就是AI幻覺唄?”其實也沒這么簡單,AI幻覺主要有兩類。
) c# O3 G- C$ o; v事實幻覺:“假新聞制造機”& g' u  n1 O. y" q' |
A:事實不一致:AI生成的內容與現(xiàn)實世界事實相矛盾
9 H+ \2 E: d/ O8 [4 c$ y
& n" k3 h  _: [" g3 G7 F當被問及“世界上最高的山峰是哪座?”,如果AI回答“深圳塘朗山是世界上最高的山峰!边@就是一個事實不一致的例子,因為塘朗山坐落于廣東省深圳市,海拔430米遠低于珠穆朗瑪峰8848.86米,這個回答與現(xiàn)實世界的事實相矛盾。$ x3 e! c0 ~- J; U+ q7 h/ w/ ?' M
B:事實捏造:AI生成完全虛構的內容- ~* e5 C8 [8 i5 ^

, V( _8 ?7 F! ^- K
& q9 _" v: V' _7 L+ a: ?1 o5 B6 I如果AI描述說“2024年,考古學家在埃及金字塔內發(fā)現(xiàn)了一座隱藏的密室,里面藏有古代法老的寶藏和未知的高科技裝置!边@就是完全虛構的信息,截至目前沒有考古發(fā)現(xiàn)或科學證據(jù)表明埃及金字塔內存在未被發(fā)現(xiàn)的密室,更不用說藏有古代法老的寶藏或未知的高科技裝置了。! l) A! d1 ~5 g/ f# N" O
忠誠度幻覺:“指令迷失”  b& I9 i/ N6 Z9 [4 C3 g/ \
A:指令不一致:AI的回答偏離用戶的要求" C; O. p8 u8 j* _6 z2 o

; j8 }# c) p" ]4 E2 `# q0 z # }/ {& p! G  @; o
如果用戶要求AI“講解一下龍飛鳳舞”,但AI回答了“老鐵,我給你搜了幾段舞蹈教學” ,這就完全偏離了原始的問題。
' t& l; b- y( y5 ~4 }2 r" ?B:上下文不一致:AI生成的內容與提供的背景信息不符2 M/ l4 x) |/ y- f7 N1 h

8 a- J' }+ G2 U6 E# G( N假設在一個討論中國傳統(tǒng)節(jié)日的上下文中,用戶問:“春節(jié)是什么時候?”AI回答:“春節(jié)是中國農歷新年,通常在每年的1月或2月慶祝!边@個回答是正確的,符合春節(jié)的基本情況。
& ^0 b+ L0 q; H1 \$ N) b然而,如果AI接著說:“春節(jié)是紀念屈原的節(jié)日,人們會吃粽子和賽龍舟!边@就是上下文不一致的例子,因為AI的回答與春節(jié)的背景信息不符。
7 B" q8 b2 e  G- O$ \3 fC. 邏輯不一致:AI的輸出存在內在邏輯矛盾. C" j7 n! }# }$ U* m
開頭的9.11大于9.9就是一個典型的數(shù)值計算邏輯混亂的例子……,AI把自己繞蒙了~
1 K4 i6 ~7 P# w% [( i; F9 ]
& j7 E3 \4 |9 o. \0 ?21 P5 \6 l  g" @0 |
AI幻覺有哪些特點2 s+ K) H9 U1 I+ b- ~& i
6 o7 C+ {0 E9 }+ ~
  • 內容流暢性:盡管內容可能有誤,AI生成的文本通常仍然連貫流暢。
  • 表面合理性 :生成的內容表面上看起來可信,給人以“這看起來很對”的第一印象,非專業(yè)人士難以辨別。
  • 上下文相關 :AI的幻覺內容并非憑空出現(xiàn),它們通常與特定的上下文情境緊密相關。
  • 不可預測性 :很難預測AI何時會產(chǎn)生幻覺,可能幻覺也很難復現(xiàn),就像人很難在今天做一個與昨天相同的夢。
    ' L0 R% y5 d4 j4 x$ @% y( l
    3
    ! ~: e+ Z& Q3 s1 @) PAI幻覺的“幕后黑手”3 S- c$ L0 u8 d/ m" A
    . h+ y' Z* [/ e3 ?
    AI幻覺主要來自以下方面:數(shù)據(jù)里的“坑”4 j& U! w. n( V& A" n2 M
    8 U! ~; A1 b' s5 n
  • 訓練數(shù)據(jù)局限:AI訓練數(shù)據(jù)可能包含錯誤、偏見或過時信息。就像教小朋友學習,課本是錯的,考試自然無法答對。
  • 缺乏實時更新:AI通常基于靜態(tài)數(shù)據(jù)訓練,無法及時獲取最新信息?荚囈鶕(jù)最新的資料復習,拿一本82年的教材是考不了24年的高考的~5 m  ~$ B' @4 B6 x# N3 t
    9 ?+ {2 x& C' F

    7 q& c" F5 Y3 m' p6 l訓練過程的“小插曲”. D) w: Q( N; @. ~5 ?4 |
    ) o+ d# |- g( M8 x0 x# Q& f

    $ d0 e  v  l0 G0 M2 x- v
  • 過度泛化 :模型可能過于依賴某些模式,導致在新情況下推導錯誤。就像我們學習時候只記住了公式,卻不會靈活變通。
  • 上下文理解不足:AI可能無法完全把握復雜的上下文關系。在處理多個復雜信息點,或者在推理時容易出錯。就像我們的大腦有時也會短路一樣。1 \" `* u# m; q( P

    2 a1 I0 l8 f4 o% Y% ~/ X; R7 u模型本身的“小缺陷”
      d* X: l/ @6 E" i' I# c+ h% s+ A

    2 c) t& y% W8 f/ [+ S5 B' `模型結構限制:AI通過統(tǒng)計模式預測,但可能無法真正理解信息!澳阋詾樗娴亩,其實也不過是基于復雜算法的數(shù)學而已~”- S! @' v5 u% @( _! a4 \$ M& j9 f
    47 e. q6 N1 h* U. ?  H
    - Q; H7 a7 l% n) D% V  `
    如何避免AI幻覺?
    2 j1 `* F. ?) Q: o. u: c3 P7 {4 `0 n/ [1 M
    避免AI幻覺有以下幾個“絕招”,各位少俠看“自身功力”,酌情修煉~一. 提示工程有策略提示工程通過優(yōu)化AI的輸入提示,使生成的內容更準確。' m  i" K/ P2 k
    A. 檢索增強生成(RAG)技術0 `' u2 o0 T& p  }& Y
    . X" _' x/ W' k$ }; q
    RAG技術通過引入外部知識來幫助AI生成更準確的內容。主要方法包括:
    * i# X1 l4 ?4 h  _& D生成前檢索:在內容生成前,系統(tǒng)會預檢索相關背景信息,為生成過程打下堅實的基礎。
    - c* [6 G1 m+ S- X生成過程中檢索:在生成過程中,系統(tǒng)實時檢索并整合外部知識,確保內容的時效性和深度。$ ]1 ~0 A$ _9 q! o6 W& {7 {
    生成后檢索 :生成后,系統(tǒng)再次檢索,與現(xiàn)有證據(jù)進行對比,驗證生成內容的準確性。
    1 y# [! l( W0 ~6 n1 N
    " g. |* a: W) v6 @' E
    例如,當AI被問到“2024年登月的宇航員有哪些?“時,RAG系統(tǒng)會先檢索最新的新聞信息,然后基于檢索到的準確信息生成回答。, {/ |5 j- R$ X2 M5 _( u& V

    # T+ T5 _4 Q2 j- r; d2 gB. 基于反饋和推理的自我改進機制9 S9 ?) f$ J) C' D1 j
    這種方法賦予AI自我反思的能力,使其能夠不斷優(yōu)化生成的內容。
    * H9 B& h0 s$ f* F( t  U  G2 f2 C  r) v' {

    ! L' G7 N+ E5 n9 o" T! y7 HAI在生成答案后,會進行自我審視,提出疑問:“這個答案是否全面?是否有關鍵信息被忽略?”
    3 K. D% c7 e; [! G+ i0 i# tC. 提示詞的精細化調優(yōu)' V- m: F; m) M
    通過精心設計的提示詞,引導AI生成更可靠、更精確的內容。
    5 m3 L1 L* D$ Y0 i$ E- W& g7 q) V9 p3 z5 `; o" K+ P* q

    & S$ Q, z9 v2 S% F$ {* b例如,在地圖導航的AI應用中,使用“請根據(jù)最新的交通管制政策、路況信息、天氣情況,提供明天上午九點到深圳灣公園的路線推薦,分別提供駕車與公共交通的路線信息,用時推薦等”具體提示,代替籠統(tǒng)的“如何去深圳灣公園”。
    . w7 D/ g4 `" ^1 O1 z這種方法不僅提升了信息的全面性,也增強了AI回答的針對性。(這不僅是我們最容易實現(xiàn)的策略,也是最直觀有效的方法,能夠顯著改善內容生成的質量和深度。
    - [1 q4 e# y) M5 k: C: B
    + n7 q) ^. e7 O# X0 l  j* [( c' i. f2 _) W' Y
    二. 模型開發(fā)不能停AI模型與訓練過程的不斷進化是減少幻覺產(chǎn)生的關鍵。
    1 A& e/ a/ v$ m9 G& X6 Z7 J! L; F
    A. 創(chuàng)新解碼技術0 R; _) ~! h7 e/ U/ Z8 K  ^5 A
    采用新的解碼策略,以便更精準地處理語言上下文,例如上下文感知解碼(CAD)。
    # v$ G( b9 d9 r+ d4 H! [
    & p7 J" T) A* {$ h7 p0 ~5 d這種方法通過在解碼過程中引入上下文信息,鼓勵模型更多地關注所提供的上下文,而不是僅僅依賴于模型在預訓練階段學到的知識。+ K/ s& w) M" {2 I7 }0 G" `
    - m  ]5 C3 S' l- d; D
    例子:在翻譯一部科幻小說時,傳統(tǒng)模型可能會直譯“Beam me up”為“把我光束上去”,而應用CAD的模型會理解這是一句要求傳送的指令,正確翻譯為“把我傳送上去”。
    $ ?( }4 A* K% @4 N" U# h  i
    2 s0 R$ g9 h0 K* d% E+ C
    , H& @" r+ Y6 v% l( f$ k  ]: L
    B. 知識圖譜的應用& e& |4 u0 @' r" q4 L- A
    通過知識圖譜,我們能夠豐富AI的知識庫,讓生成的內容更加準確和有深度。# H+ T# i. b  T) q6 X6 n

    1 F, E0 Z% w3 O, z2 \: k想象一下,知識圖譜就像一個巨大的、互聯(lián)的“社交網(wǎng)絡”,但它不是連接人,而是連接各種信息和概念。每個“用戶”在這個網(wǎng)絡中都是一個實體,比如人、地點、事物或者概念。2 y  C  q2 z" n/ B* {2 v
    % {( X2 `) [1 A1 G$ d: h
    它們通過各種“關系”相互連接,就像社交軟件上的好友關系一樣。知識圖譜通過這種方式組織信息,就像一個超級學霸幫助AI快速找到信息,并且理解不同信息之間的聯(lián)系。
    : m/ {) p9 Z* \7 W  `+ t$ T
      r4 K' I. v+ q! O* ?舉個例子,如果你在知識圖譜中查找“蘋果”,它不僅會告訴你蘋果是一種水果,還可能告訴你蘋果公司是一家科技公司,甚至還會告訴你牛頓被蘋果啟發(fā)發(fā)現(xiàn)了萬有引力。3 K" N$ B" X" `) D, e9 }  t
    7 x+ N& F1 v- _. b  A

    2 k& Q8 X  M" i" s5 NC. 基于忠實度的損失函數(shù)4 ]! G3 f* l5 i4 |) y7 G0 @' f
    引入新的損失函數(shù),對偏離原始數(shù)據(jù)的生成內容進行懲罰,以減少不準確的信息,從而把AI從幻覺中“掐醒”。
    ( G. f* ~. N9 C1 M: u# X
    7 Y  ~( F: `5 h8 F1 V 6 @8 O) A5 U% ^1 N
    舉個例子,AI在生成文章摘要時,如果回答中添加了原文中未提及的內容,損失函數(shù)會提高懲罰,確保模型學習到生成與原文相符的內容。) O) b/ Y/ T& c, n

    + G# @! ]! E* K* H# i6 L1 P

    , J- }! I) l5 P: D  g! n' }D. 監(jiān)督微調" b1 i% `& S( Q. z$ T, x( t8 j
    通過特定領域的數(shù)據(jù)進行微調,提升模型在特定任務上的準確性。) f! E# r) V: U. _
    2 `" i/ R$ `$ \! y& y
      w% H7 b1 Q( O! h5 G3 }: v1 J
    舉個例子,一個通用的語言模型可能對通信術語理解有限。通過使用大量通信行業(yè)資料進行訓練微調,可以顯著提高模型在通信領域的準確性。
    1 B  c7 I0 [+ y2 x' U; j+ ~比如,它可以更準確地區(qū)分相似通信術語的區(qū)別,如EBGP和IBGP。
    * x% I7 p8 P8 @7 \  s) U; Y# k4 h
    8 S; H! F: S7 `; o1 _三. AI Agent為模型加BuffAI Agent有特定的能力可以提高模型的可靠性,通過這種方式,AI Agent能夠更好地理解和處理復雜的任務,減少在生成文本時出現(xiàn)的錯誤或不準確的信息。
    4 D5 t4 P# E5 e+ r3 Z8 }A. PAL(Program-Aided Language Models,程序輔助語言模型):PAL技術通過將程序化邏輯嵌入到語言模型中,使得AI能夠執(zhí)行特定的程序或算法來完成任務。. L  n# Q, f4 B" w
    PAL技術像是一個“自動化工具”,它通過內置的程序邏輯來指導AI系統(tǒng)如何完成任務。這種技術的優(yōu)勢在于能夠處理那些規(guī)則明確、步驟固定的任務。8 B% o( l% \; s( n! B
    # W- L2 x$ m( d+ g& m1 ]. E' j
    舉個例子,如果你告訴基于PAL技術的AI系統(tǒng):“我需要在每天下午3點提醒我喝水。”系統(tǒng)會設置一個自動化的日程提醒,每天按時提醒你,而不需要進一步的交互。
    3 B+ N* b2 B1 {2 `
    4 d& k9 P1 g, u) R3 F # L- ]3 A8 U! V2 h
    B. ReAct(Reasoning and Acting,推理與行動):
    + c; i  T7 i2 eReAct技術強調AI對上下文的理解,以及基于這種理解進行的推理和決策。
    - A7 N  ]8 h6 u; u" k) ]  Q
    " J6 g, c0 B4 ?) {3 e  U; GReAct技術更像是一個“智能助手”,它不僅理解用戶的請求,還能夠根據(jù)請求的內容進行推理,并采取相應的行動。這種技術的優(yōu)勢在于能夠處理那些需要靈活推理和決策的任務。
    4 x2 {" {  G; L# o
    & d0 e' \& a; Y3 H3 }! o8 v! E2 _舉個例子,如果你告訴基于ReAct算法的AI系統(tǒng):“我明天有個會議,需要準備一份報告!盧eAct系統(tǒng)會理解你的請求,然后推理出你需要的信息類型,可能會詢問你報告的具體內容和格式,然后根據(jù)這些信息來幫助你準備報告。' Y/ ?. s9 a  N9 q7 H+ E
    / e' x- ]8 h7 X% ~8 r$ a
    2 |% `# {  A0 a

    * {, h8 Z. x2 Z) \' d; Y. d: bEND1 P/ @! V- m0 \) M/ x
    文檔君的AI幻覺就介紹到這啦!是不是秒懂了“AI幻覺”?
    . ~, c' }7 R' t8 M5 B5 o& H* t5 n9 R% o: E4 b( y9 k! h. C, F
    所以下次當你的AI應用開始“夢話連篇”,不要“嘲笑”它,也不要急于按下“重啟”鍵。
    8 p, y8 J- ~, E+ J/ R9 m6 g+ p6 v其實,AI也是在學習中成長的“小朋友”,它們在努力成長,可能偶爾也會開個小差,做個“白日夢”。只要我們用正確的方法引導它,多用一點耐心教導它,它就能從“夢游”中醒來,為我們提供準確、可靠的服務
    2 Z6 ?7 `- o# _9 W$ @
    5 u4 y2 F  d5 s4 }( H( q~~~
    1 v$ c0 X2 X. [# Z) v: w' P2 C1 V0 J! O- i( d  R
    小問答
    & a8 w" `3 ^. ^. U1 }: v: ~請問“林黛玉倒拔垂楊柳”屬于AI的哪一種幻覺呢: J6 C) d: ~# D# [+ x  ~

    - J9 q6 X! s: r5 d?還有沒有什么典型的AI幻覺的例子?評論區(qū)跟大家分享一下吧~. e! M, P; l- \! g5 V( ]  u
    ; x4 c0 i" c9 a7 R
    ; c) Y0 ]2 c0 k+ y' u: N
  • 回復

    使用道具 舉報

    發(fā)表回復

    您需要登錄后才可以回帖 登錄 | 立即注冊

    本版積分規(guī)則

    關閉

    站長推薦上一條 /1 下一條


    聯(lián)系客服 關注微信 下載APP 返回頂部 返回列表