|
引言9 o8 x: f7 w$ i; n& [( ~
本文旨在幫助讀者了解大型語言模型(LLMs)和檢索增強(qiáng)生成(RAG)技術(shù)的基礎(chǔ)知識。這些技術(shù)正在電子設(shè)計(jì)自動(dòng)化(EDA)領(lǐng)域產(chǎn)生重大影響,正在改變芯片設(shè)計(jì)和驗(yàn)證的方式[1]。4 F6 V0 ~, |' e) U) S0 U
4 p+ g4 O8 k! C! X$ Z' }/ P什么是大型語言模型?& P1 ~) g# T4 e0 ^
大型語言模型是設(shè)計(jì)用于理解和生成類人文本的先進(jìn)神經(jīng)網(wǎng)絡(luò)。這些模型經(jīng)過海量數(shù)據(jù)訓(xùn)練,能夠執(zhí)行從簡單的文本補(bǔ)全到復(fù)雜推理和代碼生成等各種語言任務(wù)。: V3 C2 q O( U n- W$ g+ O9 p
xgwwqjp40hv64041748243.png (189.85 KB, 下載次數(shù): 2)
下載附件
保存到相冊
xgwwqjp40hv64041748243.png
2024-10-4 01:32 上傳
c' I% h/ t |, ]& W) R
圖1:AI概念層次結(jié)構(gòu),顯示了LLMs在人工智能廣泛領(lǐng)域中的位置。' x0 Z) C& `7 A* l! }
) J5 p9 D1 e' x; XLLMs建立在復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu)之上,通常包含數(shù)十億個(gè)參數(shù)。這些參數(shù)在訓(xùn)練過程中不斷調(diào)整,模型需要接觸大量文本數(shù)據(jù)。例如,Meta的Llama 3.1模型在訓(xùn)練過程中處理了超過10萬億個(gè)單詞,需要約60天的訓(xùn)練時(shí)間和20,000多個(gè)Nvidia H100 GPU。
% f1 b7 a5 A; i& n7 } J3 K% o! p" Q# S
這些模型的規(guī)模差異很大,從約70億參數(shù)到超過1萬億參數(shù)不等。開放和封閉模型的選擇取決于架構(gòu)和權(quán)重的公開可用性。通常使用量化技術(shù)來壓縮權(quán)重,在模型大小和準(zhǔn)確性之間取得平衡。
3 \) R1 V- O! I) l$ x, _6 s6 R L) z/ [) Z" E
LLM架構(gòu)和功能
! M8 g6 U" ?7 c e: A% ]現(xiàn)代LLMs的核心是Transformer架構(gòu),由Google DeepMind在2017年的論文"Attention is All You Need"中首次提出。這種架構(gòu)通過引入自注意力機(jī)制徹底改變了該領(lǐng)域,使模型能夠同時(shí)處理整個(gè)文本序列,而不是按順序處理。+ {) O6 S$ V* | N! m s+ ]$ q% A' ^
" r" k7 v6 p- ?: r2 x# q
r34a2zpttk464041748344.png (212.02 KB, 下載次數(shù): 4)
下載附件
保存到相冊
r34a2zpttk464041748344.png
2024-10-4 01:32 上傳
+ A9 m7 @/ e5 N* Q/ Z, s圖2:原始Transformer架構(gòu),展示了編碼器和解碼器組件。7 v" N& \) g H- \9 H
) ]* \5 W, l# _; `8 x' t6 _LLM的關(guān)鍵組件包括:分詞:將輸入文本分解成可管理的單元(稱為標(biāo)記)。嵌入:將標(biāo)記轉(zhuǎn)換為數(shù)值向量表示,捕捉語義含義和單詞之間的關(guān)系。注意力機(jī)制:從嵌入中計(jì)算上下文相關(guān)的權(quán)重,關(guān)注輸入的相關(guān)部分。Transformer層:通過多層自注意力和前饋神經(jīng)網(wǎng)絡(luò)處理嵌入。( g- e9 @. y7 T& Z( N; [
[/ol]! H) D t8 G' k( c
LLM訓(xùn)練和局限性, \! e' [% ?; f# z6 B
訓(xùn)練LLM是復(fù)雜且資源密集的過程,通常包括三個(gè)階段:預(yù)訓(xùn)練:模型接觸大量文本數(shù)據(jù),學(xué)習(xí)一般語言模式和知識。微調(diào):預(yù)訓(xùn)練模型在特定任務(wù)數(shù)據(jù)上進(jìn)行進(jìn)一步訓(xùn)練,以專門化其能力。人類反饋強(qiáng)化學(xué)習(xí)(RLHF):可選階段,根據(jù)人類偏好優(yōu)化模型輸出。% n% W) S; c" t# D
[/ol]
8 ^( _2 @* H$ i$ z6 H3 f盡管LLMs具有令人印象深刻的能力,但也存在幾個(gè)局限性:) P5 _4 y- [" m, T# A; e0 c) Y
在復(fù)雜的數(shù)學(xué)和邏輯推理方面存在困難基于訓(xùn)練數(shù)據(jù)可能產(chǎn)生有偏見的輸出知識截止于訓(xùn)練時(shí)間可能產(chǎn)生幻覺或自信地陳述錯(cuò)誤信息訓(xùn)練和推理需要高昂的計(jì)算和能源成本關(guān)于數(shù)據(jù)使用和潛在濫用的倫理問題
( P+ A! S( N5 l l/ p d0 R# z6 H9 ^+ m: k- B/ H0 n5 X# {' x" q
檢索增強(qiáng)生成(RAG)+ J/ a/ x0 X/ S7 E
為了解決一些限制,特別是知識截止問題,檢索增強(qiáng)生成(RAG)技術(shù)應(yīng)運(yùn)而生。RAG使LLMs能夠在生成過程中訪問和整合外部信息。, F# Y8 ?& F) L" H5 q
4 ~+ c; G& s, u" ]
xuq1qy2qrj064041748444.png (110.44 KB, 下載次數(shù): 3)
下載附件
保存到相冊
xuq1qy2qrj064041748444.png
2024-10-4 01:32 上傳
$ V+ W$ ?% o2 h& B
圖3:RAG架構(gòu),顯示了從原始數(shù)據(jù)到LLM響應(yīng)的流程。
3 |% P2 W O( W9 [5 w* x# \3 U) o- T1 K B9 p' Y
RAG過程包括:索引:將原始數(shù)據(jù)轉(zhuǎn)換為嵌入并存儲(chǔ)在向量數(shù)據(jù)庫中。檢索:接收查詢時(shí),從向量數(shù)據(jù)庫中檢索相關(guān)信息。增強(qiáng):將檢索到的信息與用戶的提示結(jié)合。生成:LLM處理增強(qiáng)后的提示以產(chǎn)生響應(yīng)。
& R- X: y% i _2 E[/ol]
2 |! O4 n' U0 S+ C8 ^RAG允許LLMs利用專有信息、最新數(shù)據(jù)和已知事實(shí),減少產(chǎn)生幻覺的可能性,并擴(kuò)展模型的有效知識庫。
6 `# c2 {5 B2 x
7 q% _. ~* \5 I* a4 o1 Q0 r在電子設(shè)計(jì)自動(dòng)化(EDA)中的應(yīng)用
, h1 f7 P( P9 ]* ZLLMs和RAG技術(shù)在電子設(shè)計(jì)自動(dòng)化領(lǐng)域找到了眾多應(yīng)用。關(guān)鍵用例包括:& x( V/ e& t4 j" g" Q0 s' Y
架構(gòu)設(shè)計(jì)和優(yōu)化代碼生成和調(diào)試IP集成和管理設(shè)計(jì)驗(yàn)證和文檔編寫入職支持和培訓(xùn)
5 r. y1 x. m3 y
* ]8 ]) y/ A8 Q7 D) H3 H$ v" w H( `# A7 A6 g" [6 i
pd5a1epyrls64041748544.png (140.44 KB, 下載次數(shù): 3)
下載附件
保存到相冊
pd5a1epyrls64041748544.png
2024-10-4 01:32 上傳
3 Z& g$ r& \# w4 i. I: ~
圖4:EDA工作流程的演變,顯示隨著AI技術(shù)的進(jìn)步,人為干預(yù)需求的減少。9 ]6 a6 d g. U1 A0 G; }" ?) n
5 J- B/ @% e" ?9 _, z% e將LLMs和RAG集成到EDA工作流程中,有望減少許多任務(wù)中對人為干預(yù)的需求。例如,AI代理現(xiàn)在可以處理復(fù)雜的設(shè)計(jì)任務(wù),如創(chuàng)建具有99%代碼覆蓋率的UART接收器和測試平臺(tái),并自動(dòng)將文件提交到存儲(chǔ)庫。8 z# ]; p! j0 M R4 O+ \* P" b( F
5 T6 C0 @7 n7 Y# ~! F$ m$ `: j3 r
vva5apz0qcq64041748644.png (292 KB, 下載次數(shù): 5)
下載附件
保存到相冊
vva5apz0qcq64041748644.png
2024-10-4 01:32 上傳
; E* x6 U+ o( K圖5:基于LLM的AI代理工作流程,演示如何自動(dòng)化復(fù)雜的EDA任務(wù)。
7 b' F2 d& {' x/ ~9 S |$ k t: J9 c" R, `5 U; p; f
未來方向和挑戰(zhàn), z( n8 C" p9 z% z8 \9 R8 D2 f! q
隨著LLMs和RAG技術(shù)的不斷發(fā)展,我們可以期待在其能力和應(yīng)用方面出現(xiàn)幾個(gè)進(jìn)展:+ C7 I' `! _( B
使用網(wǎng)絡(luò)信息進(jìn)行自我事實(shí)檢查通過"慢思考"方法提高推理能力更大的上下文窗口以處理更長的提示多模態(tài)能力,包括語音和圖像處理與外部存儲(chǔ)系統(tǒng)集成,增強(qiáng)長期記憶. m5 D( O* S- G+ q: i' M
, k; S! i& g! ?' C1 b
然而,仍然存在一些挑戰(zhàn),包括:
5 \1 G6 s0 z) v9 @6 S確保在設(shè)計(jì)過程中合乎倫理地使用AI管理大規(guī)模部署所需的計(jì)算資源解決EDA行業(yè)潛在的勞動(dòng)力變動(dòng)處理與訓(xùn)練數(shù)據(jù)相關(guān)的法律和版權(quán)問題+ L9 I! I% _1 w8 J# B! ?5 |+ I
?- q; T3 f: t" Z; M. p
大型語言模型和檢索增強(qiáng)生成技術(shù)的結(jié)合有望徹底改變電子設(shè)計(jì)自動(dòng)化領(lǐng)域。通過減少許多任務(wù)中對人為干預(yù)的需求,這些技術(shù)有望加速創(chuàng)新并提高芯片設(shè)計(jì)和驗(yàn)證過程的效率。隨著該領(lǐng)域的不斷發(fā)展,EDA專業(yè)人員必須及時(shí)了解這些進(jìn)展,并調(diào)整工作流程以利用AI輔助設(shè)計(jì)的力量。
, x' Q0 S* R& Q4 h# g# e
D* F0 c7 ^9 S; Q2 `& u+ F( j參考文獻(xiàn)( d: ]6 h0 p4 F+ E% z. C- Z8 j
[1] H. Bouwmeester, "HotChips 2024 Tutorial: From LLM+RAG to EDA AI-Agent," PrimisAI, 2024.. p6 X2 j( x4 F2 `# K: @( G/ E4 s
l+ G! e. j% i: I0 r {
- END -! n7 v8 B# c3 L, I2 G# Z2 i
" _. T; V) e/ [$ H8 Y
軟件申請我們歡迎化合物/硅基光電子芯片的研究人員和工程師申請?bào)w驗(yàn)免費(fèi)版PIC Studio軟件。無論是研究還是商業(yè)應(yīng)用,PIC Studio都可提升您的工作效能。
! o6 e E8 c. b點(diǎn)擊左下角"閱讀原文"馬上申請9 n: h7 h6 R4 M* W" y
% t3 H, c# M, V歡迎轉(zhuǎn)載4 A. Q; [; v* P. D9 i
% E$ X. B# e+ l7 q* F
轉(zhuǎn)載請注明出處,請勿修改內(nèi)容和刪除作者信息!
, E, Q8 T7 S- ]
6 F% q5 z7 | j+ @8 k
+ r( {1 D; t" u: G3 o% ]) x& r# b+ g0 A1 n9 I P9 T% N: A* m
dimgwmjgfe264041748744.gif (16.04 KB, 下載次數(shù): 3)
下載附件
保存到相冊
dimgwmjgfe264041748744.gif
2024-10-4 01:32 上傳
. `7 G( c! H1 O
. a0 Z: z3 d1 `. ]
關(guān)注我們! X* D+ _7 t) h" u0 {+ `' S
7 w0 v# I% i6 q7 q: I3 L5 z) C/ `& x, u
gxs4ammk2c564041748844.png (31.33 KB, 下載次數(shù): 3)
下載附件
保存到相冊
gxs4ammk2c564041748844.png
2024-10-4 01:32 上傳
; d. i% Z% \ w | - q3 _% Z) Q) }
0avedeev40g64041748944.png (82.79 KB, 下載次數(shù): 3)
下載附件
保存到相冊
0avedeev40g64041748944.png
2024-10-4 01:32 上傳
3 B* k c% X+ Z: A |
3 F, C/ [' m, B5 j
nuvmosao54y64041749044.png (21.52 KB, 下載次數(shù): 3)
下載附件
保存到相冊
nuvmosao54y64041749044.png
2024-10-4 01:32 上傳
# F1 Y$ a& i3 k. `' b" S
| 9 B- Q ^. v2 F/ h# e9 t
* w% g) c/ ?; ]- \' e
, b& X& i1 Z8 ~1 q* n
$ N* W4 t' ?* ^1 J9 H- Y* n# N關(guān)于我們:
M; O4 x+ c# i9 r深圳逍遙科技有限公司(Latitude Design Automation Inc.)是一家專注于半導(dǎo)體芯片設(shè)計(jì)自動(dòng)化(EDA)的高科技軟件公司。我們自主開發(fā)特色工藝芯片設(shè)計(jì)和仿真軟件,提供成熟的設(shè)計(jì)解決方案如PIC Studio、MEMS Studio和Meta Studio,分別針對光電芯片、微機(jī)電系統(tǒng)、超透鏡的設(shè)計(jì)與仿真。我們提供特色工藝的半導(dǎo)體芯片集成電路版圖、IP和PDK工程服務(wù),廣泛服務(wù)于光通訊、光計(jì)算、光量子通信和微納光子器件領(lǐng)域的頭部客戶。逍遙科技與國內(nèi)外晶圓代工廠及硅光/MEMS中試線合作,推動(dòng)特色工藝半導(dǎo)體產(chǎn)業(yè)鏈發(fā)展,致力于為客戶提供前沿技術(shù)與服務(wù)。
8 G0 R9 e. o5 V% W4 } J; W9 t4 w. R1 S6 c/ ^- n/ C
http://www.latitudeda.com/
J; W' h8 n1 ?/ P1 g! h/ }3 }, h(點(diǎn)擊上方名片關(guān)注我們,發(fā)現(xiàn)更多精彩內(nèi)容) |
|