OpenAI 在一起針對 ChatGPT 的版權訴訟中獲勝,法官的判決可能對未來的類似案件產生重大影響,使得利用受版權保護內容訓練大型語言模型的合法性受到質疑。
PRISM 是一種用於審查大型語言模型 (LLM) 偏見的新方法,它透過間接詢問模型並分析其生成的文本來評估其立場和偏見,相較於直接詢問模型的觀點,PRISM 能更有效地揭露模型潛在的偏見。
大型語言模型 (LLM) 正迅速改變演算法設計領域,展現出自動化、創新和解決複雜問題的巨大潛力。
大型語言模型 (LLM) 雖然在多語言處理方面有所進展,但仍存在一個關鍵問題:語言混淆,即模型無法始終如一地使用使用者預期的語言生成文本。
大型語言模型 (LLM) 在處理需要多步驟推理的複雜知識查詢時仍面臨挑戰,本研究揭示了 LLM 在多跳查詢中存在的局限性,特別是模型在處理第二跳查詢時,可能因為第一跳查詢的結果解析過晚,導致後續層缺乏必要知識而無法正確預測答案。
本文提出了一種名為 FLATQUANT 的新型後訓練量化方法,該方法強調並實現了權重和激活值的平坦化,從而顯著提高了量化大型語言模型的準確性和推理速度。
TAP4LLM 是一種用於大型語言模型 (LLM) 的預處理器套件,旨在通過對表格數據進行採樣、增強和打包,來提高 LLM 在表格推理任務中的效率和準確性。
本文介紹了一種稱為激活工程的新方法,通過干預語言模型內部激活值來引導模型輸出,並提出了一種名為激活添加 (ActAdd) 的具體技術,該技術在不影響模型整體性能的情況下,有效控制文本的情感和主題。
本文提出了一種名為 output2prompt 的新型黑盒方法,可以在無需訪問模型內部狀態(如 logits)或使用對抗性查詢的情況下,僅從大型語言模型的文本輸出中提取生成這些輸出的提示。
該文提出了一種基於檢索增強生成(RAG)和大型語言模型(LLM)的系統,用於將用戶的自然語言問題轉換為針對生物資訊學知識圖譜的精確 SPARQL 查詢,並透過知識圖譜中繼資料和查詢驗證步驟來提高查詢生成準確性和減少錯誤。