想定する読者:保険会社・保険代理店のAIを活用した企画職やDX推進に従事する方
提示する視点:AIを活用し顧客の「納得」を構築するための要件設計と実装・運用上の留意点
内容:前編=AIやCXの要件化のフレームワーク・進め方、後編=ヒューマン・イン・ザ・ループの実装と運用
はじめに
「人間中心のAI」という概念は、日本政府やOECD、EUなどの国際機関においても議論されており、人間の尊厳の尊重、透明性、説明可能性、責任の所在の明確化、そして人間による適切な監督や介入が可能であることを重視すべき原則として示されています。
AIの能力や効率性を起点にするのではなく、人間の体験・理解・主体性を中心に据えて設計する思想を指します。
保険会社がAIを顧客接点に組み込む実務の現場においては、AIがどれだけ高度かではなく、顧客がその判断を理解し、受け止め、納得をするかが重要です。すなわち、顧客の信頼がどのような構造によって成立するのかを、CXの視点から再定義する必要があります。
AIの精度そのものではなく、「顧客が納得できる構造」を設計できるかどうか、すなわちAIの判断に対して最終的に人間が責任を持てる状態を維持できるかどうかが、保険業界における人間中心のAI実装の本質だと考えています。
本稿におけるCXは、 「顧客が保険会社との全接点を通じて経験する体験の総体」を指します。
AI導入において信頼を担保するために重要となる検討ポイントは、大きく次の3つに集約されます。
- 判断(誰が決めるか)
- 根拠(何に基づくか)
- 履歴(後から確認できること)

AI活用の議論は「AIによって何ができるか」に寄りがちですが、CXの観点で本来問うべきは逆です。
その判断は顧客にとって納得できるのか。誰が「責任」を引き受けられるのか。後から「確認」できるのか。これらが設計されていない場合、AIは便利さと引き換えに信頼を毀損するリスクがあります。
そこで本稿では、上記3要件(判断・根拠・履歴)を、
- どのKPIに効かせるか(価値)
- どのように実装するのか(業務・システム・運用)
- どのようにリスクを担保するか(セキュリティ・ガバナンス)
という枠組みで実装要件へ落とし込み、バックエンドまで含めた人間中心AIの設計原則として整理します。
CX起点でのAI活用とは ~顧客体験を成立させるための設計アプローチ~
2025年12月に公開したインサイトでも述べたとおり、「CX起点でのAI活用」とは、顧客が保険と関わる過程で感じている不安・分断・違和感といった顧客課題を出発点に、業務や仕組みを含む全体を再設計するための思考の起点です。
生成AIの活用が進むほど、顧客の不安は「対応の遅さ」ではなく、判断の根拠・責任の所在・後から確認できるかという「分かりづらさ」に移行します。AIによって応答が滑らかになり処理が効率化される一方で、「どのような理由でそう判断されたのか」「誰がその判断に責任を持つのか」「後から確認できるのか」が見えにくくなり、懸念が生まれます。
この「分かりづらさ」そのものを、CXの観点で捉えるべき顧客課題に含めます。
したがって、CX起点でAI活用を考えるとは、顧客が感じている不安や分断を特定し、それを解消するために、判断(誰が決めるか)・根拠(何に基づくか)・履歴(後から確認できること)を、業務・システム・運用まで含めて設計することを意味します。
納得感のあるサービス提供が成り立つかどうかは、フロントの表現だけでなく、バックエンドの構成やガバナンスを含む設計品質によって決まります。さらに、こうした設計はKPI(価値指標)を置かずに議論するとPoCで止まりやすいため、「どの体験を」「どの指標で」改善し、「どの要件で」実装し、「どのようにリスクを担保するか」までを一体で捉える必要があります。

AI活用の全体像 ~CXジャーニー軸で整理する価値創出の考え方~
AI活用が失敗しやすい理由の一つは、個別のPoCやツール導入が先行し、全体構造が整理されていない点にあります。顧客が体験する一連の流れ、すなわち
認知・情報収集 → 相談・比較 → 申し込み → 困りごと → 保険金請求 → 契約更新
といったCXジャーニー上の体験の中での課題を起点に議論を始めることが重要です。
本章では、CXジャーニー→KPI→AI要件・ソリューション→セキュリティ・ガバナンスの順で全体を整理します。(KPIやソリューションは例示)

課題を解消したときに
- どのKPIに効くのか(価値)
- その価値をどのように実装させるのか(ソリューション・実装手段)
- どのようにリスクを担保するのか(セキュリティ・ガバナンス)
をセットで整理すると、AIは単なる効率化ツールではなく、どの体験で何を良くするために、どのように介在させるかという全体設計の議論に変わります。
AIを活用したサービスに対する顧客の「納得」はどこから生まれるのか ~判断と責任を要件として捉える~
顧客の「納得」は、「判断の根拠が理解できること」によって、初めて「持続的な信頼」へと転化します。
重要な判断にはヒューマン・イン・ザ・ループ(人の介在点)を設け、必要な場面で人が引き取り、有人対応に切り替えられる状態を要件化します。
顧客接点として成立している状態とは
- 判断の理由が揃っている
- 後から確認ができる
- 必要なら有人対応に切り替えられる
この3点が満たされている状態を指します。
また、この「説明できる状態」は、次の3要素で構成されます。
- 判断:AIがどこまで関与し、どこで人が介在し、最終的に誰が責任を持つのか
- 根拠:約款・FAQ・社内ルール等、参照した根拠を示せるか
- 履歴:入力・参照・出力・承認(人の介在)を含む経緯を、後から確認できるか
そして重要なのは、ログを残すこと自体が目的ではないという点です。顧客が納得するのはログそのものではなく、「判断の根拠(判断・根拠・履歴)」として揃っていることです。
顧客接点では、説明を以下の形に揃えることで、納得が醸成されやすくなります。
- 結論(何をすべきか・どう判断したか)
- 根拠(参照した約款・FAQ・社内ルール等)
- 不確実性の注記(推定の場合・追加確認が必要な場合)
- 次アクション(手続き・問い合わせ・必要書類)
- 異議申立て導線(問い合わせ窓口・再確認方法)
本稿では、CX起点でAI活用を考える際に、顧客の「納得」を成立させるための前提として 「判断」「根拠」「履歴(後から確認できること)」の3要件を整理しました。しかし、これらは思想として掲げるだけでは成立しません。
実際の業務やシステムの中で、誰が使い、どこまで任せ、いつ人に戻すのかを具体に設計し、日々の運用として回せる状態にして初めて、信頼は再現可能になります。
後編では、ヒューマン・イン・ザ・ループを実際に「実装」するために不可欠となる、権限設計・データ境界・記録(ログ)・例外時の切替などの運用設計について、実務視点で整理します。
脚注
- 人間中心のAI
- AIの能力や効率性を起点とするのではなく、人間の尊厳・理解・主体性・体験を中心に据え、透明性・説明可能性・責任の所在を確保しつつ、人間による監督や介入が可能であることを重視するAIの原則
- ヒューマン・イン・ザ・ループ
- 重要な局面で人の介在点(承認・エスカレーション)を設け、必要に応じてAIから有人対応に切り替えられるようにする設計