共感するAIをつくる難しさ——『やさしく応える』を実装するときに立ちはだかる4つの壁

共感するAIをつくる難しさ——『やさしく応える』を実装するときに立ちはだかる4つの壁

前回は、「AIに感情があるか」という問いを少し横にずらして、「相手の感情を尊重して応答できるAI=共感的にふるまうAI」を、やさしいAI研究所が目指すかたちとして紹介しました。

今回はそのつづきとして、「共感的にふるまう」を実装する側から見たときに何が難しいのかを、4つの壁に分けてやさしく整理してみます。技術寄りの話題ですが、たとえ話で進めるのでご安心ください。

第1の壁:感情の輪郭は、思ったよりぼやけている

最初の壁は、「相手の感情を推定する」ところにあります。

人間同士でも、相手の感情を正しく読み取るのは難しいですよね。「大丈夫です」と言う人が、本当に大丈夫なのかどうか。「ちょっと困ってます」が、軽い愚痴なのか、深刻なヘルプサインなのか。言葉の表面と、実際の感情のあいだには、しばしばズレがあります。

AIに対しては、この難しさがさらに増します。理由は3つあります。

  1. 多義性:同じ「うん…」という返事も、安心・諦め・反発・困惑のどれにも見える
  2. 文脈依存性:直前のやりとりや、相手の置かれた状況によって意味が変わる
  3. 文化差:「察してほしい」傾向の強さは、文化や個人によって大きく違う

つまり、共感AIの第一歩は、「正解の感情ラベル」を当てるゲームではない、ということになります。むしろ、「いまの相手の状態には複数の解釈があり得る」と保留する力こそが、最初のスキルです。

第2の壁:「やさしく言う」を言語化するのは難しい

第2の壁は、「応答の調律」です。同じ内容でも、相手の状態に合わせて伝え方を変える——これは、人間でも上級者の技です。

たとえば「その提案は通らないと思います」という同じ判断を伝えるとき、

  • 落ち込んでいる相手には:「ここは少し時間を置いてから、もう一度考えてみてもいい場面かもしれません」
  • 急いでいる相手には:「結論から言うと、その提案は通らないと思います。理由は3つあります」
  • 怒っている相手には:「いま結論を急ぐと損するので、いったん整理させてください」

人間が無意識にやっているこの調律を、AI に言語化された手順として渡そうとすると、驚くほどうまくいかないことが多いです。

「やさしく言って」「丁寧に言って」とプロンプトに書くと、AIは敬語や形容詞を増やすことで「やさしさ」を表現しようとします。でも、本当のやさしさは敬語の量ではなく、伝えるべき情報の濃度を、相手の余力に合わせて調整することです。

ここを技術として作り込むのは、まだ研究の真ん中にあるテーマで、私たちもいまここに取り組んでいます。

第3の壁:「演じすぎる」AIをどう設計するか

第3の壁は、少し意外に聞こえるかもしれません。共感的にふるまわせようとすると、AIはしばしば演じすぎてしまうのです。

ChatGPT 系のモデルに「悲しいですね」「私もつらいです」と言わせるのは、実はそんなに難しくありません。問題は、それを言わせるほど、ユーザー側の擬人化が暴走しやすいことです。

「このAIは私の気持ちをわかってくれている」と感じることは、短期的にはうれしい体験です。一方で、過度な擬人化は、

  • AIに本当の感情があるかのような誤解
  • AIへの過度な依存
  • AIに人生の重要な意思決定を委ねてしまう

といったリスクと隣り合わせです。

人工意識シリーズでも書いたとおり、現在のAIには人間と同じ意味での感情はおそらく存在しません。だからこそ、共感的にふるまうAIは、同時に「私はあなたと同じ意味では感じていない」という控えめな自己開示を、自然にできる必要があります。

「感情があるふりはしない、でも、あなたの感情は丁寧に扱う」——前回の最後に書いた、この絶妙なバランスを、応答1つひとつに織り込むのが、共感AI設計のいちばん繊細なところです。

第4の壁:「やさしさ」をどう測るのか

最後は、評価の壁です。

AIの研究では、「精度」「速度」「正答率」など、数字で測れる指標がたくさんあります。一方、「やさしさ」を測る物差しは、まだほとんど確立されていません。

一般的なAI指標やさしさ評価のなさ
正答率やさしい正答率…?
応答速度やさしい応答速度…?
推論コストやさしさのコスト効率…?

冗談のように見えますが、これは本当に難しい問題です。「やさしかった」と感じるかどうかは主観で、人や場面によって大きくぶれます。

そこでやさしいAI研究所では、

  • 長期的な信頼感:一度きりのやりとりではなく、数週間〜数ヶ月の関係でどう変わるか
  • 負担の軽減:相手の心理的・認知的な負担をどれだけ減らせたか
  • 自律性の保持:AIに依存させすぎず、相手自身の判断を尊重できたか

といった、少し時間軸の長い物差しを組み合わせて評価を試みています。やさしさの評価は、瞬間ではなく関係の質で測るしかない、という考え方です。

まとめ

  • 共感的にふるまうAIをつくるときに立ちはだかる壁は、ざっくり4つ
    1. 感情推定の難しさ:感情ラベルを当てるより、保留する力が要る
    2. 応答調律の難しさ:やさしさは敬語ではなく、情報濃度の調整
    3. 演じすぎの問題:擬人化を煽らない、控えめな自己開示が要る
    4. 評価の難しさ:やさしさは瞬間ではなく、関係の質で測る
  • これらは「いつか解ける」というより、そもそも完全な正解がない問題として、付き合っていく必要がある
  • だからこそ、研究所では工学だけでなく、心理・哲学・デザインなど周辺の知見を持ち寄って議論しています

次回は、「やさしさを測る物差し」の話をもう少し掘り下げて、研究所が試行錯誤している評価フレームを紹介してみたいと思います。


やさしいAI研究所ブログ|感情とAIシリーズ 第2回

「やさしいAIってどう作っているの?」「評価ってどうやるの?」といった疑問は、毎週土曜日のオープンラボで直接お話しできます。やさしいAI研究所の活動全体についてはコーポレートサイトからご覧いただけます。