AIがどんどん賢くなるなかで、「人の気持ちをわかるAI」「共感してくれるAI」は実現するのか、という問いが強く意識されるようになっています。
現時点では、AIは人間のように“感じる”わけではありませんが、「共感しているように振る舞う」技術はかなり進んでおり、特に介護などエッセンシャルワーカーの支援に向けた実証も始まっています。
1. 現在のAIはどこまで「感情」を理解できるのか?
感情を“読み取る”技術は急速に進展
- 日本では総務省・NICT・大阪大学などが、人間の脳活動や五感データをもとに感情を推定できるAIの研究を進め、2035年ごろまでに人間の感情を推察できるAIの実現を目標に掲げています。
- ロジカ・エデュケーションは「共感AI」と呼ぶ技術を開発し、カメラで脈拍・表情などの生体反応を読み取り、その人の感情に寄り添った対話を生成する“Human-Centered AI”として発表しています。
これらは、
「今、不安そう」「少し疲れている」「楽しそう」
といった状態を、複数のセンサー情報から推定し、その状態に合わせた言葉を返す仕組みです。
それでもAIは“感じている”わけではない
- Forbesの解説では、感情を理解するAIはあくまでデータパターンから感情を分類・予測しているだけで、「喜びそのもの」や「悲しみそのもの」を体験しているわけではないと指摘されています。
- それでも、人間側はAIの返答から「理解されている」と感じることがあり、一部の実験では、訓練を受けていない人間よりもAIの回答の方が“共感的だ”と評価されたケースも報告されています。
つまり、今のAIは「共感そのもの」ではなく、「共感しているように見える振る舞い」をかなり高精度で再現しつつある、という段階です。
2. 「共感AI」の研究開発の方向性
生体反応・行動データから感情を推定
- 共感AIの一部は、心拍・体温・視線・動きなどの生体データと、表情・声色・言葉などの情報を組み合わせて感情を推定します。
- 大阪大学らの研究では、VR空間での行動や五感刺激と脳活動を組み合わせ、怒り・喜び・恐怖などの感情に対応するパターンをモデル化しようとしています。
“寄り添い”を目的とした対話設計
- ロジカ式の「共感AI」は、単に感情を認識するだけでなく、「その人にとって負担の少ない言葉掛け」や「励まし」「説明の仕方」を選ぶことを目指しています。
- 富士コンピュータは、介護向けコミュニケーションロボットで、利用者の趣味や嗜好・過去の会話履歴に基づき、「その人らしさに合わせた会話」を続けることで、認知症予防や自立支援を図る研究を進めています。
これらは、「正しい情報を伝えるAI」から、「その人に合った伝え方・関わり方を選ぶAI」へと進化しつつある例といえます。
3. 本当に“共感できるAI”は来るのか?(現段階での見通し)
技術的には「共感のシミュレーション」が深まっていく
- 感情認識・生体センシング・個人の嗜好データを組み合わせれば、「この人は今、どんな気持ちで、どんな言葉が負担になりにくいか」を高度に推定することは、2030年代にはかなり実用レベルになると見込まれています。
- 実際に、AIが生成した返答によって「話を分かってもらえた」と感じる人が増え、メンタルヘルスやカウンセリング的な場面での活用も拡大していますが、「共感の錯覚」による依存や感情操作のリスクも指摘されています。
哲学的には「感じるAI」が来るかはまだ不明
- 現在の研究は、「感情を推定して適切に反応するAI」までを目指しており、「AI自身が感情を持つ」ことは前提としていません。
- Nature Machine Intelligenceの社説などでは、「感情的な言葉遣いをするAIが、人の感情自律性を侵害しないよう、ルール整備が必要」と警告されており、「感じるAI」以前に、今の“擬似共感AI”の規制が急務とされています。
現時点の現実的なラインとしては、
「AIが本当に感情を持つ未来」を論じるより、
「人が共感を感じやすい振る舞いをどう設計し、どう安全に使うか」を考える段階にあると言えます。
4. エッセンシャルワーカーをどう支え得るか?
エッセンシャルワーカー(介護・医療・保育・物流・清掃など)は、人手不足と感情労働の負担が大きい分野です。ここで、共感的なAIが支援役として期待されています。
介護・医療での活用可能性
- 介護ロボット+AI
- 介護コミュニケーションロボット
→ これらは、「利用者と1対1でゆっくり話す時間が十分に取れない」という現場の課題を和らげ、介護士の感情的な負担を減らす可能性があります。
現場の“感情負担”を下げる役割
- エッセンシャルワーカー向けの調査では、AIを職場で利用している人は80%に達し、特に業務効率化だけでなく、「精神的負担の軽減」に役立ったと答えるケースも増えています。
- 具体的には、クレーム対応の文面支援、患者・利用者への説明文作成、記録の自動化などが「気疲れする場面」の負荷を下げる手段として使われています。
共感AIがさらに進めば、「不安そうな表情の利用者に、こう声かけするとよい」といった具体的なコミュニケーション提案を行い、エッセンシャルワーカーのスキル向上と負担軽減を同時に支える可能性があります。
5. これからのポイント:AIに“任せすぎない共感”の設計
- 共感AIは、人手不足の現場を支え、孤立感を和らげる大きな可能性を持つ一方、「AIに理解されている」と感じた人が依存しすぎたり、感情を操作されたりするリスクもはらんでいます。
- 重要なのは、
- AIは「共感をサポートするツール」であり、
- 人間同士の関係を補完する役割にとどめること、
- そして、AIが扱う感情データ・個人情報をどう守るか、
を社会としてルール化していくことです。
エッセンシャルワーカーの現場では、
「AIが利用者の状態を“気づきやすく”してくれる」
「AIが感情的にきつい場面の負担を一部引き受けてくれる」
といった形で使われるほど、人間は「人間にしかできないケア」に集中できるようになります。


コメント