LangChainを使ったドメイン特化型LLM開発入門:Python実装で学ぶ基礎

はじめに

大規模言語モデル(LLM)は、ChatGPTやGPT-4などの登場で多くの企業・組織が注目し、情報要約、顧客対応、データ分析補助など、幅広い業務領域で活用されています。しかし、汎用的なLLMには自社固有のドメイン知識が組み込まれていないことが多く、業務で使うには特定領域の情報を反映する必要があります。

ここで注目されるのが**RAG(Retrieval Augmented Generation)**という手法です。RAGでは、LLMが応答を生成する際に、外部のドキュメントやデータベースから関連情報を検索・取り込み、その情報を元に回答を強化します。これにより、汎用モデルを社内FAQや製品マニュアルなど特定領域向けに拡張し、精度・有用性を向上させることが可能です。

LangChainは、このRAGを実現するために便利なPythonライブラリです。本記事では、LangChainの基本コンセプトを押さえつつ、社内FAQデータを活用したドメイン特化型LLM実装例を紹介します。対象読者は、LLMを業務向けにPoC実施するエンジニアや技術担当者です。

LangChainとは何か

LangChainは、LLMアプリケーション開発を容易にするオープンソースのPythonライブラリです。大きな特徴は以下の通りです。

  • プロンプト設計支援:プロンプトテンプレートやチェーン機構で、LLMへの入力を高度に制御。
  • 外部知識統合:ドキュメントやDB、APIから関連情報を検索し、LLMの回答を強化(RAGパターン)。
  • エージェント的処理:LLMがツール(API呼び出し、計算タスクなど)を使いながらタスクを自律的に遂行するフレームワークを提供。

このようにLangChainは、RAGアプリケーションを素早く開発するための基盤を提供します。

環境構築・準備

前提条件

  • Python 3.9以降
  • pip(パッケージマネージャー)

手順例

  1. 仮想環境作成(任意)
python3 -m venv venv
venv source venv/bin/activate # Windowsの場合: venv\Scripts\activate

2. LangChainインストール

openaiはOpenAI APIアクセス用のパッケージ。今回はOpenAIベースモデルを例示しますが、他モデルへの対応も可能です。

pip install langchain openai langchain-openai

3. OpenAI APIキー設定
OpenAI APIキーをOpenAIの管理画面から取得し、環境変数へ設定します。

    export OPENAI_API_KEY="sk-xxxxxx" 

    ※ 別プラットフォーム(Azure OpenAI、Anthropicなど)もサポート可。その場合は対応するAPIキーや接続設定が必要。

      LangChainの基本コンポーネント解説

      LangChainは、LLMアプリを「コンポーネント」を組み合わせて構築します。主要要素は以下です。

      1. LLM Wrapper
        GPT-3.5やGPT-4などの大規模言語モデルへのアクセスを抽象化。LangChainはOpenAIやHuggingFace Hubモデルなど多様なバックエンドをサポート。
      2. Prompt Template
        モデルへの入力テンプレートを定義し、ユーザーの問い合わせやドキュメントコンテキストを組み合わせることで柔軟なプロンプトを生成。
      3. Chain
        複数のコンポーネント(プロンプト、LLM呼び出し、ツールアクセス)を串刺しにして処理を定義する仕組み。
        例えば「ユーザ入力 → LLMによる応答 → 応答を要約」といったフローをChainとして定義できる。
      4. Memory
        対話履歴を保持する仕組み。会話型アプリで「過去のやりとり」を参照することで、LLMがコンテキストを継続的に理解。
      5. Agents
        LLMが外部ツール(Web検索、計算、DBクエリなど)を動的に呼び出す仕組み。エージェントは「どのツールを使うか」をLLM自身が判断できるため、より自律的なタスク遂行が可能。

      ドメイン特化型LLM例:社内FAQ活用

      ここでは、社内FAQを例に挙げ、LLMがそのFAQ情報を参照しながら質問に回答する簡易サンプルを示します。実務では、FAQドキュメントをテキストファイルやJSONで用意し、LLMが外部知識として活用します。

      サンプルコード例

      実行環境

      • Python: 3.1.1.4
      • langhchain: 0.3.11
      import os
      from langchain_openai import OpenAIEmbeddings
      from langchain_openai import OpenAI
      from langchain.chains import RetrievalQA
      from langchain_core.vectorstores import InMemoryVectorStore
      
      # 環境変数からOpenAI APIキーを取得
      
      # 1. FAQデータをベクトル化して検索可能にする(Chroma利用)
      # FAQ例(仮):単純なテキストを埋め込みにします。
      docs = [
          {"text": "Q: 社内ポータルへのログイン方法は?\nA: SSO経由でメールアドレスとパスワードを入力してください。"},
          {"text": "Q: 経費精算書のフォーマットはどこにありますか?\nA: 社内ポータルのドキュメントセクションに格納されています。"},
      ]
      
      # 埋め込みモデルでドキュメントをベクトル化
      embeddings = OpenAIEmbeddings()
      
      # Chromaでベクトルストア作成(インメモリ)
      vectorstore = InMemoryVectorStore.from_texts([d["text"] for d in docs], embedding=embeddings)
      
      # RetrievalQAチェーンを構築: 質問→ドキュメント検索→LLM回答
      qa_chain = RetrievalQA.from_chain_type(
          llm=OpenAI(model="gpt-4o"),
          chain_type="stuff",  # 全ての検索結果をまとめてプロンプトへ渡す単純な形式
          retriever=vectorstore.as_retriever(search_kwargs={"k": 1})
      )
      
      # ユーザー問い合わせを想定
      user_question = "社内ポータルにログインする方法を教えてください。"
      
      answer = qa_chain.run(user_question)
      print("User:", user_question)
      print("Assistant:", answer)

      コードのポイント

      • RetrievalQA: ユーザー質問を埋め込み、ベクトルストアから関連文書(FAQ)を検索し、それをLLMプロンプトに組み込んで回答生成。
      • これがRAGパターンの基本形:Retrieval(検索)とAugmented Generation(LLM生成)の組み合わせでドメイン知識を回答に反映。

      運用上の考慮点

      1. スケール
        ユーザー増加で問い合わせ数が増えるほど、LLMトークン使用量・検索回数が増大。キャッシュや問い合わせ前処理でコストと遅延を軽減。
      2. セキュリティ
        FAQに機密情報が含まれる場合、APIキー管理やデータ暗号化、アクセス制御など必須。
      3. コスト管理
        LLM APIはトークン課金。月間問い合わせ数を見積もり、試算に基づいたPoC実行を。
      4. 品質保証
        RAGでも参照文書が正確でなければ誤答する。FAQの品質、更新プロセス、ベクトルストア再構築など継続的管理が必要。

      今後の発展

      • LangChain + エージェント
        FAQ回答にとどまらず、外部API呼び出しやシステム操作を行うエージェント構築へ展開可能。
      • 他クラウドサービス連携
        Azure OpenAI、Vertex AI、AWS Bedrockとの連携でエンタープライズ機能(セキュリティ強化、MLOps統合)を拡充。
      • Responsible AI対応
        社内ポリシーや法規制への準拠、コンテンツフィルタ、偏見対策などを適用することで、RAG活用を安全に拡大。

      まとめ

      LangChainを用いたRAG(Retrieval Augmented Generation)実装は、汎用的なLLMにドメイン特化知識を反映する効果的な手法です。本記事では社内FAQを例に、基礎的な環境構築から簡易的なコードサンプルまで紹介しました。

      RAGによって、LLMは内蔵知識ベースに依らず、最新かつ正確な社内データを回答生成に反映でき、業務特化アプリケーションとしての有用性が高まります。スケール、セキュリティ、コスト、品質といった運用面を考慮しつつ、PoCを進めてみてください。将来的にはエージェント化やクラウドベンダーサービス統合など、さらに高度な活用シナリオが広がっています。