Spider 2.0は、実世界の企業向けText-to-SQLワークフローの複雑さを反映した新しいベンチマークであり、既存の言語モデルが実用レベルのSQL生成能力において大幅な改善を必要とすることを示している。
大規模言語モデル (LLM) は、指示や文脈のわずかな変化に対して、特に意味的に関連する単語の集合を扱う場合に、その頑健性に課題がある。
本稿では、医療テキストからSQL、SPARQL、Cypher、MQLの4つのクエリ言語への変換を評価する、初のマルチデータベースモデル対応ベンチマークであるSM3-Text-to-Queryを紹介する。
大規模言語モデルのデータを用いた事後トレーニング手法により、小規模言語モデルの性能を大幅に向上させることができる。
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)においても、従来の機械学習モデルと同様に、ショートカット学習の影響を受けやすく、その頑健性や汎化性能が課題として残る。
大規模言語モデル(LLM)は、モジュラーオントロジーをガイドとして使用することで、テキストデータから知識グラフ(KG)を構築するための効果的なツールになり得る。
Infant Agentは、ツール統合、階層的なエージェントコラボレーション、メモリ検索メカニズムを通じて、大規模言語モデルの推論能力とタスク実行能力を向上させ、APIコストを大幅に削減する。
LinChainは、LoRAの低ランク構造の制約を克服し、複雑なタスクに適応するための表現力と柔軟性を向上させる、計算効率の高い新しいファインチューニング手法である。
本稿では、RAGにおける回答生成時の処理時間を大幅に短縮する効果的なコンテキスト圧縮手法COCOMを提案する。COCOMは、長いコンテキストを少数のコンテキスト埋め込みに圧縮することで、デコード時間を短縮し、効率性を向上させる。
RoPE拡張は、事前学習時の注意パターンを維持することで、大規模言語モデルの長距離コンテキスト処理能力を向上させる。しかし、注意の不確実性が高まると、長距離コンテキストでの情報取得エラーが発生する可能性がある。