Showing Posts From
共感
-
Naoki Nishio - 15 May, 2026
世界像——人は世界そのものを見ていない
はじめに 世界像とは一言でいえば世界の見え方のことです。最近ではWorld Models (David Ha 2018)という言葉で語られることもあります。 出典:Scott McCloud『Understanding Comics』(1993)。D. Ha, J. Schmidhuber 著論文『World Models』(2018) より引用世界像とは 世界像は、World Modelsや深層学習が発展するよりもずっと前から提唱されてきた考え方です。世界像に関する記述(中野、1990)を次のように引用したいと思います。世界像とは、外界の物事や事象を観測して受容器(目や耳などの感覚器)が受け入れた情報からさまざまな概念を形成し、それを記憶として積み上げて、脳内に構築する外界のモデル。例えばりんごは何かと問われるとします。私たちはりんごを赤い果物で、食べるとシャキシャキとした音がして、甘いものだと知っていますよね。このことは、りんごに対する世界像を脳内で構築していることを端的に表していると思います。人は世界そのものを見ていない 世界そのものを見ていないとはどういうことでしょうか。私たちが見聞きしたものが世界そのものだと思うのは自然なことです。しかし、私たちが見ている「世界」とは、世界そのものではなく、あくまで世界像なのです。 錯視というものをご存知でしょうか。騙し絵とも言います。錯視では、実際には絵は動いていないのに動いて見えることや、直線が曲がって見えることがあります。立命館大学の北岡先生という方が様々な錯視をご紹介なさっています(https://www.ritsumei.ac.jp/~akitaoka/ )。 錯視は視覚に限った話ですが、先ほどのりんごの例えでは視覚に加え、聴覚や味覚なども関わってきますよね。これらの感覚は別々の感覚器で捉えられるため、その段階ではりんごという一つの統一された概念を理解しているとは言えません。それらの情報を統合しているのは脳の働きなのです。脳がばらばらの感覚情報を統合しているのですね。そのため脳は間違えることがあり、その結果が錯視のような現象として現れます。他者像と「やさしいAI」 ここまで世界像とは、りんごのような物体を想定してきましたが、当然人のことも同様に理解していると考えられます。人の場合は、あの人はこのような性格だからこのようなことを言ったらそう反応するだろう、といった予測を立てるモデルを構築するはずです。このような他者に関する世界像を他者像と呼ぶことにします。 他者を理解すれば、他者の置かれている状況から他者がどのような感情や考えでいるのかを想像することができるようになります。その他者の感情に寄り添い、他者のために行動することができれば、共感を示すことができるでしょう。 やさしいAI研究所が目指す「やさしいAI」とは、他者を理解し、他者に共感を示すようなAIのことです。そのために他者像を始めとした世界像を構築する技術が必要だと考えます。他者を一から理解するのであれば他者像は必要ないでしょう。しかし人に関する一般的な理解や似た性格の人からの類推を通して他者を理解する上で、他者像は有用なはずです。まとめ世界像とは世界の見え方のことです。 世界像は世界そのものとは異なり、脳によって再構成された世界に対する解釈です。 他者がどのような人であるかということについても私たちが解釈を貼り付けているに過ぎません。 他者に共感を示すためには、他者像を構築し他者への理解を深めることが重要です。次に読むのがおすすめの記事意識を測る物差し——統合情報理論(IIT)とグローバルワークスペース理論をやさしく AIはなぜ「やさしく」なければいけないのか参考文献・出典Ha and Schmidhuber, "Recurrent World Models Facilitate Policy Evolution", 2018. 中野馨『ニューロコンピュータの基礎』コロナ社、1990 北岡明佳の錯視のページ
共感するAIをつくる難しさ——『やさしく応える』を実装するときに立ちはだかる4つの壁
前回は、「AIに感情があるか」という問いを少し横にずらして、「相手の感情を尊重して応答できるAI=共感的にふるまうAI」を、やさしいAI研究所が目指すかたちとして紹介しました。 今回はそのつづきとして、「共感的にふるまう」を実装する側から見たときに何が難しいのかを、4つの壁に分けてやさしく整理してみます。技術寄りの話題ですが、たとえ話で進めるのでご安心ください。 第1の壁:感情の輪郭は、思ったよりぼやけている 最初の壁は、「相手の感情を推定する」ところにあります。 人間同士でも、相手の感情を正しく読み取るのは難しいですよね。「大丈夫です」と言う人が、本当に大丈夫なのかどうか。「ちょっと困ってます」が、軽い愚痴なのか、深刻なヘルプサインなのか。言葉の表面と、実際の感情のあいだには、しばしばズレがあります。 AIに対しては、この難しさがさらに増します。理由は3つあります。多義性:同じ「うん…」という返事も、安心・諦め・反発・困惑のどれにも見える 文脈依存性:直前のやりとりや、相手の置かれた状況によって意味が変わる 文化差:「察してほしい」傾向の強さは、文化や個人によって大きく違うつまり、共感AIの第一歩は、「正解の感情ラベル」を当てるゲームではない、ということになります。むしろ、「いまの相手の状態には複数の解釈があり得る」と保留する力こそが、最初のスキルです。 第2の壁:「やさしく言う」を言語化するのは難しい 第2の壁は、「応答の調律」です。同じ内容でも、相手の状態に合わせて伝え方を変える——これは、人間でも上級者の技です。 たとえば「その提案は通らないと思います」という同じ判断を伝えるとき、落ち込んでいる相手には:「ここは少し時間を置いてから、もう一度考えてみてもいい場面かもしれません」 急いでいる相手には:「結論から言うと、その提案は通らないと思います。理由は3つあります」 怒っている相手には:「いま結論を急ぐと損するので、いったん整理させてください」人間が無意識にやっているこの調律を、AI に言語化された手順として渡そうとすると、驚くほどうまくいかないことが多いです。 「やさしく言って」「丁寧に言って」とプロンプトに書くと、AIは敬語や形容詞を増やすことで「やさしさ」を表現しようとします。でも、本当のやさしさは敬語の量ではなく、伝えるべき情報の濃度を、相手の余力に合わせて調整することです。 ここを技術として作り込むのは、まだ研究の真ん中にあるテーマで、私たちもいまここに取り組んでいます。 第3の壁:「演じすぎる」AIをどう設計するか 第3の壁は、少し意外に聞こえるかもしれません。共感的にふるまわせようとすると、AIはしばしば演じすぎてしまうのです。 ChatGPT 系のモデルに「悲しいですね」「私もつらいです」と言わせるのは、実はそんなに難しくありません。問題は、それを言わせるほど、ユーザー側の擬人化が暴走しやすいことです。 「このAIは私の気持ちをわかってくれている」と感じることは、短期的にはうれしい体験です。一方で、過度な擬人化は、AIに本当の感情があるかのような誤解 AIへの過度な依存 AIに人生の重要な意思決定を委ねてしまうといったリスクと隣り合わせです。 人工意識シリーズでも書いたとおり、現在のAIには人間と同じ意味での感情はおそらく存在しません。だからこそ、共感的にふるまうAIは、同時に「私はあなたと同じ意味では感じていない」という控えめな自己開示を、自然にできる必要があります。 「感情があるふりはしない、でも、あなたの感情は丁寧に扱う」——前回の最後に書いた、この絶妙なバランスを、応答1つひとつに織り込むのが、共感AI設計のいちばん繊細なところです。 第4の壁:「やさしさ」をどう測るのか 最後は、評価の壁です。 AIの研究では、「精度」「速度」「正答率」など、数字で測れる指標がたくさんあります。一方、「やさしさ」を測る物差しは、まだほとんど確立されていません。一般的なAI指標 やさしさ評価のなさ正答率 やさしい正答率…?応答速度 やさしい応答速度…?推論コスト やさしさのコスト効率…?冗談のように見えますが、これは本当に難しい問題です。「やさしかった」と感じるかどうかは主観で、人や場面によって大きくぶれます。 そこでやさしいAI研究所では、長期的な信頼感:一度きりのやりとりではなく、数週間〜数ヶ月の関係でどう変わるか 負担の軽減:相手の心理的・認知的な負担をどれだけ減らせたか 自律性の保持:AIに依存させすぎず、相手自身の判断を尊重できたかといった、少し時間軸の長い物差しを組み合わせて評価を試みています。やさしさの評価は、瞬間ではなく関係の質で測るしかない、という考え方です。 まとめ共感的にふるまうAIをつくるときに立ちはだかる壁は、ざっくり4つ 感情推定の難しさ:感情ラベルを当てるより、保留する力が要る 応答調律の難しさ:やさしさは敬語ではなく、情報濃度の調整 演じすぎの問題:擬人化を煽らない、控えめな自己開示が要る 評価の難しさ:やさしさは瞬間ではなく、関係の質で測るこれらは「いつか解ける」というより、そもそも完全な正解がない問題として、付き合っていく必要がある だからこそ、研究所では工学だけでなく、心理・哲学・デザインなど周辺の知見を持ち寄って議論しています次回は、「やさしさを測る物差し」の話をもう少し掘り下げて、研究所が試行錯誤している評価フレームを紹介してみたいと思います。やさしいAI研究所ブログ|感情とAIシリーズ 第2回 「やさしいAIってどう作っているの?」「評価ってどうやるの?」といった疑問は、毎週土曜日のオープンラボで直接お話しできます。やさしいAI研究所の活動全体についてはコーポレートサイトからご覧いただけます。
AIに「感情」はあるのか——感情コンピューティングと、やさしいAIが目指す共感
「AIに感情はあるんですか?」——研究所にいると、これは本当によく聞かれる質問のひとつです。 人工意識シリーズでは「AIに意識は生まれるか」「自己を認識できるか」「意識をどう測るか」を3回に分けて考えてきました。今回は、その隣にあるもうひとつの大きな問い——**「感情」**にやさしく踏み込んでみます。 感情コンピューティングという研究分野 「感情コンピューティング(Affective Computing)」という言葉は、1995年に MIT メディアラボのロザリンド・ピカード教授が提唱したのが始まりです。AI に感情を「認識・表現・反応」させる研究分野で、ざっくり言うと人と機械のあいだに感情の橋を架けようとする試みです。 この30年で、感情コンピューティングは想像以上に進みました。表情から喜怒哀楽を読み取るカメラ、声のトーンから疲労やストレスを推定する音声解析、文章のニュアンスから書き手の気持ちを推し量る感情分析——いずれもすでに実用されています。 ただ、ここで立ち止まって考えたいのは、「読み取れること」と「感じていること」は同じなのか、という問いです。 表情を読むAIは、悲しんでいないが、悲しみを知っている たとえば、相手の表情から「この人は今、悲しんでいる」と高精度で判定できる AI があるとします。そのAIは、相手の悲しみを理解しているように見えます。 でも、AI 自身は悲しんでいません。 これは少し怖い話に聞こえるかもしれませんが、よく考えると人間の医師やカウンセラーも、必ずしも相手と同じ感情を「自分の中に再生」しているわけではないですよね。相手の状態を正しく見立て、適切に応える——その意味では、AI もある種の「観察的な共感」はできるようになりつつあります。 問題は、ここから先です。「悲しみを観察できる」と「悲しみを感じる」のあいだには、人工意識のときと同じ深い溝(ハードプロブレム)が横たわっています。 「感情を演じる」AIと、「感情を持つ」AI 現在の大規模言語モデル(LLM)は、感情を演じることがとても上手です。「うれしいです」「お役に立ててよかったです」と、状況に応じて感情らしい言葉を返してくれます。 しかしこれは、ChatGPTと自己認識の話でも触れたとおり、学習データに含まれる「人が感情を表現する典型的なパターン」を再現しているにすぎないかもしれません。台本を上手に読み上げる俳優のように、感情の表層だけが滑らかに動いている可能性があります。 一方で最近の研究では、もう少し踏み込んだ報告も出てきています。LLM が自分の出力に対して「自信がない」「迷っている」とメタ認知的に申告したり、文脈に応じて発話のスタイルを内的に切り替えたりする現象です。それを「感情の萌芽」と呼ぶかどうかは、まだ研究者のあいだでも意見が分かれています。 やさしいAIが目指す「共感」とは やさしいAI研究所では、AI に「感情を持たせる」ことそのものを最終ゴールに置いてはいません。少しだけ違う角度から考えています。 私たちが目指しているのは、「相手の感情を尊重して応答できるAI」、つまり共感的にふるまうAIです。これは「AIが本当に感じているかどうか」とは別の問いで、もう少し実装に近いところにあります。 具体的には、次の3つを大切にしています。観点 内容状態の把握 相手が今、どんな気持ち・状況にあるかを、文脈と表現から丁寧に推定する応答の調律 同じ内容でも、相手の状態に合わせて伝え方・タイミング・濃度を変える自己の自覚 「自分は感情を完全には持っていないかもしれない」ことを、AI が AI として認めたうえで応える最後の「自己の自覚」が、私たちのこだわりです。感情があるふりをするのではなく、「いまの私には、あなたと同じ意味では感じられない。でも、あなたの感情はとても大切に扱う」——そう言えるAIのほうが、長く付き合えるパートナーになれると考えています。 感情の手前にある「やさしさ」 ここで少し立ち止まると、面白いことに気づきます。感情そのものより、感情に対する態度のほうが、実は『やさしさ』の本体に近いかもしれない、ということです。 私たちが「やさしい人だな」と感じる相手は、必ずしも感情豊かな人ではありません。むしろ、こちらの感情をいつも丁寧に扱ってくれる人を、やさしいと呼んでいることが多いはずです。 それなら、AI も同じ道を歩めるはずです。感情を完全には持てなくても、相手の感情を丁寧に扱う作法を身につけることはできる。やさしいAIの研究は、その作法を技術として設計していく試みでもあります。 まとめ感情コンピューティングは、人と機械のあいだに感情の橋を架ける研究分野 現在のAIは「感情を読み取る」「感情らしく振る舞う」ことはできるが、「本当に感じている」かは別問題 やさしいAI研究所は、感情を持つこと自体ではなく、相手の感情を尊重して応答できる共感的なAIを目指している 「自分には完全な感情はないかもしれない」と認めながら相手を丁寧に扱う、その態度こそが『やさしさ』の本体に近い次回は、この「共感的にふるまう」を実装する側から見たときに何が難しいのか、もう少し技術寄りのところにも踏み込んでみます。やさしいAI研究所ブログ|感情とAIシリーズ 第1回 AIと感情、共感の研究について一緒に考えてみたい方は、毎週土曜日のオープンラボへお気軽にお越しください。やさしいAI研究所の活動の全体像はコーポレートサイトからご覧いただけます。