人工智慧技術,尤其是驅動生成式人工智慧的大語言模式(LLMS),已經展現出令人矚目的能力,大大提升了工作效率。如今,我們或許已經習慣利用生成式人工智慧進行文字摘要、以太坊價格內容創作或市場情緒分析。然而,因為其潛在的風險,許多專業人士仍會避免使用LLMS。因此,深入瞭解生成式人工智慧的內在機製與潛在缺點,對於我們成功駕馭並最大化其價值至關重要。
本文是人工智慧策略係列的第一篇文章,旨在深化大家對人工智慧現存問題及其因應策略的理解。本文闡明瞭生成式人工智慧技術的工作原理,幫助您更有效地利用這項技術。
在接下來幾週,我們還將討論其他的人工智慧的重要概念:幻覺;可解釋性;不一致響應和過時的知識;安全和資料隱私;以及法律和道德考慮。
為了更好地闡述大型語言模型的工作原理及其潛在問題,我們將採用三個生動的狗 狗 幣 歷史 最高 價類比來建構討論框架。
預測
第一個類比與我們每天使用的手機輸入法有關。輸入法中有一個「預測性文本」功能,它會根據您先前輸入的文本,預測並推薦下一個可能的單字。這其實與大型語言模型的工作原理有著異曲同工之妙。
讓我們來玩一個有趣的小遊戲,在您的手機上開始打出一句話,並不斷使用預測性文字來完成一個段落。網路流行玩法是,用預測性文字來寫墓誌銘,Ada 幣 走勢開頭是“[名字]長眠於此。她/他曾經是…”,然後從手機的自動建議選項中選擇文字來完成這段話。最後的結果有點好笑,有點隨機,與事實並不相符。
您的手機使用的是比LLM更老、更小的語言模型來預測文字。雖然一次隻能建議一個詞,但像LLaMA和GPT-4這樣的門羅幣 收益現代LLM已經可以產生整頁整頁連貫、相關的內容。
從本質上講,生成式人工智慧ChatGPT就是您手機上預測文字的升級版,這也解釋了為什麼人工智慧會出現幻覺。因為其產生的文本是基於通用語言模式的預測,而不是基於研究的事實。
假設用一個大語言模型預測短語“學生們打開了他們的…”之後的單字。根據所接受的訓練,LLM確定「課本」是最有可能的下一個單字。這裡需要理解的以太幣值得投資嗎?重要概念是,LLM不是在資料庫中尋找數據,不是在網路上搜索,也不是「理解」文字。相反,它使用的是統計相關性或模式,這些相關性或模式是從它接受訓練的大型文本資料集中學習到的。
語言理解
第二個類比說明瞭LLM不能夠「理解」語言的觀點。 1980年,哲學家John Searle提出了「中文房間」的思想試驗,來說明即便係統能夠產生看似合理的回答,也不代表它真正理解了對話的深層意義。
在他設定的場景中,一個不懂中文的人身處有英文指示的房間裡。這些指示提供了一些規則,指導這個人如何運用漢字符號來回答房間內的中文問題。這個人按照給定的指示,用中文做出適當回答,然後把這些回答發到房間外麵。這會使房間外以中文為母語的人誤以為正在和一個中文流利的人交流。現實中,裡麵的人不懂中文;他隻是在遵守一套規則。
Meta首席人工智慧科學家Yann LeCun表示:「大語言模型並不理解語言所描述的現實。這些係統產生的文本在語法和語義上聽起來都不錯,但除了滿足與提示的統計一致性之外,它們並沒有真正的目標。”
數據作為培訓師 VS 資料庫
最後,我們用一個關於水果冰沙的類比,來解釋大語言模型如何使用訓練數據,以及為什麼不能將大模型用作參考數據。我們提供給LLM的單一訓練資料就像放入攪拌機中的單一水果。一旦模型被訓練好,就成為了水果冰沙。我們也無法再得到單一的水果。
當我們在本係列後麵討論為什麼LLM不同於可以搜尋事實的資料庫,為什麼LLM不能指向導致其答案的特定訓練資料區塊,以及為什麼特定資料區塊一旦經過訓練就不能從LLM中刪除時,這個類比就一目瞭然了。換句話說,如果您後悔在水果冰沙中加入了菠菜,做成冰沙後是不能再把菠菜取出來的。
結論
生成式人工智慧可以幫助提高工作效率,改善客戶和員工體驗,並加速推進業務優先事項。對大語言模型如何發揮作用和不發揮作用形成全麵的認識和更好的理解,將使您成為更有效、更安全的用戶。後續我們也將討論克服人工智慧模型幻覺的7種方法。
作者:LUCY TANCREDI