LLMO(Large Language Model Optimization:大規模言語モデル最適化)とは、ChatGPT、Geminiなどの生成AIが回答を生成する際に、自社のウェブサイトやコンテンツを情報源として引用・参照されやすくするための最適化手法ですが、その具体的な施策はどんなものだろうか?

  • 対象となる生成AIのLLM(Large Language Model:大規模言語モデル)の特徴を理解し、分析する。
  • 生成AIのLLMで重要視される要素を考慮し、対策を練る。
  • LLMに対して有効である施策を施す。
    具体的には、生成AIがもとにする学習データとなるコンテンツを理解しやすくする。

LLMOの具体的施策

  • 情報コンテンツの質と構造を改善する。
    E-E-A-Tの準拠(Geminiの場合): コンテンツの専門性と信頼性を示すために、著者情報や情報ソースを明確にする。
    構造化データの導入: AIが情報を理解しやすいように、スキーママークアップ(構造化データ)を実装。これは必須ではない。
    AIが理解しやすい文章構造にする。
    FAQを充実させ、利用者の利便性に考慮する。
  • 情報源としての信頼性向上させる。
    Geminiの場合はサイトのドメインオーソリティーであったり、コンテンツ作成者の信頼度を上げる。
    信頼度を上げるための施策として、固有名詞や信頼できるサービス、商品名を明記する。
    嘘、虚偽をコンテンツとして含まない。


関連:LLMOって何?