最近の興味関心:「AIにカウンセリングは可能か?」(根津 克己准教授)
2025年7月25日
AIに悩みを相談する
近年、AI(人工知能)の発達はすさまじいものがあります。最近も、病気の診断について、人間の医師よりも正確に診断できるAIが開発されたという報道がありました1)。AIは我々の生活を一変させる影響力を持ち、さらに活躍の領域を広げています。
そのような中、AIがカウンセリングを行うサービスも登場してきました。試しにスマートフォンのアプリストアを覗いてみると、AIがカウンセリングをしてくれるアプリ(ここではAIカウンセラーと呼ぶことにします)が、人気を集めていることがわかります。スマートフォンのAIカウンセラーは、いつでもどこでも相談できるし、他人には話せないような自分のことを抵抗感なく相談できる利点があります。また人気があるところを見ると、それなりの効果もあるのでしょう。
AIの仕組み
ところで、このAIカウンセラーはどのような仕組みで相談に乗っているのでしょうか。まずは仕組みを見てみます。(なお、私はAIの専門家ではありません。細かいところで間違いがありましたら、申し訳ありません。)
一言でAIと言っても、たくさんの種類があります。ここでは、その中でもAIカウンセラーが使っていると思われる、言語処理に特化したAIの仕組みである、LLM(大規模言語モデル)について考えていきます。
LLMは、インターネット上などにある膨大な文書などの言語データを事前に学習しています。そして、その学習した言語情報から、言葉と言葉のつながりや構成を分析し、それを元に利用者が問いかけた言葉に対し、つながりの強い言葉を回答として生成し、返す仕組みになっています。少々乱暴な言い方になりますが、利用者の質問に対し、言葉と言葉の統計的なつながりから、もっともらしい返答を生成しているにすぎません。とはいえ、学習するデータ量を増やしたり、学習にあたりさまざまなチューニングを行ったりすることで、今では、AIであることを感じさせない、とても自然なやり取りもできるようになりました。ハルシネーションと呼ばれる、間違えた回答を出すことも減ってきているそうです。
ところで最近、AIが「理解」をしているか?という問いに関して、ある研究が発表されました 。この研究によれば、AIは「概念を理解しているが、その概念を応用して使用することはできない」そうです。「ポチョムキン理解」2)とも呼ばれ、「一見理解はしているようにみえるが、本質的には異なる理解をしている可能性がある」のだそうです。例えばAIに「俳句の定義」を尋ねると、「五七五の音韻で、季語が入る形式の詩」といった正しい答えが返ってきます。ところが、AIに実際に俳句を作らせると、この定義には全く当てはまらない文字列が返ってきてしまうことが多いそうです。AIはもっともらしい反応はするものの、それは言語的なつながりから答えを出したもので、「本質的な理解」はできていないようです。
カウンセラーとLLMの違い
さて、カウンセリングの話に戻ります。
LLMでは、これまで述べたように、関連のある言葉を予測して返しているだけで、理解したかどうかは怪しいものと言えます。例えばAIカウンセラーは「悲しい」と述べた利用者に対し、カウンセリングやその他関連のありそうな文書の情報から、統計的に近い、もっともらしい言葉を返しています。時にそれが利用者にとって有益な返答になっているのかもしれません。もしかしたら「多くの人にとって」当てはまる良い回答なのかもしれません。これに対してカウンセラーは、「悲しい」の言葉だけを理解するのではなく、その言葉の背後にある複雑な気持ちや体験、その人の歴史、言葉にならない身体的な感覚など非言語の情報も含め、その人の語る内容を、広く深く理解しようとしています。そしてほかの誰でもないこの人が、今、ここで話した「悲しい」の意味とはなにか?を感じ取ります。そして感情や体験の個別性を大切にします。
これまでの膨大な言語情報から確率的な計算で回答を導き出すAIカウンセラーは、この、言語以外の、曖昧さ・矛盾・揺らぎをはらむ非言語情報や、個別性の扱いがまだまだ得意では無いと考えられます。多くの人にとって、もっともらしい答えを出すAIカウンセラーと、その人を独自の存在としてとらえ全体を理解しようとする人間のカウンセラーでは、理解の仕方、そして導き出す回答の仕方が異なると言えるでしょう。その点において、カウンセラーは医学的診断とは違う理解の方法を取っており、現在のAIにはまだまだ難しいことをやっています。
え?お前はAIカウンセラーと同じようにそれっぽい反応しているだけじゃないかって?精進いたします。
引用文献
1)AIによる医学診断に関する報道例
AIは医師を超えるのか--マイクロソフトの診断AI、複雑症例で医師の4倍の精度(ZDNET)
https://japan.zdnet.com/article/35234985/
2)AIのポチョムキン理解に関する論文(arXivへの投稿)
Potemkin Understanding in Large Language Models.
https://arxiv.org/abs/2506.21521
AIに悩みを相談する
近年、AI(人工知能)の発達はすさまじいものがあります。最近も、病気の診断について、人間の医師よりも正確に診断できるAIが開発されたという報道がありました1)。AIは我々の生活を一変させる影響力を持ち、さらに活躍の領域を広げています。
そのような中、AIがカウンセリングを行うサービスも登場してきました。試しにスマートフォンのアプリストアを覗いてみると、AIがカウンセリングをしてくれるアプリ(ここではAIカウンセラーと呼ぶことにします)が、人気を集めていることがわかります。スマートフォンのAIカウンセラーは、いつでもどこでも相談できるし、他人には話せないような自分のことを抵抗感なく相談できる利点があります。また人気があるところを見ると、それなりの効果もあるのでしょう。
AIの仕組み
ところで、このAIカウンセラーはどのような仕組みで相談に乗っているのでしょうか。まずは仕組みを見てみます。(なお、私はAIの専門家ではありません。細かいところで間違いがありましたら、申し訳ありません。)
一言でAIと言っても、たくさんの種類があります。ここでは、その中でもAIカウンセラーが使っていると思われる、言語処理に特化したAIの仕組みである、LLM(大規模言語モデル)について考えていきます。
LLMは、インターネット上などにある膨大な文書などの言語データを事前に学習しています。そして、その学習した言語情報から、言葉と言葉のつながりや構成を分析し、それを元に利用者が問いかけた言葉に対し、つながりの強い言葉を回答として生成し、返す仕組みになっています。少々乱暴な言い方になりますが、利用者の質問に対し、言葉と言葉の統計的なつながりから、もっともらしい返答を生成しているにすぎません。とはいえ、学習するデータ量を増やしたり、学習にあたりさまざまなチューニングを行ったりすることで、今では、AIであることを感じさせない、とても自然なやり取りもできるようになりました。ハルシネーションと呼ばれる、間違えた回答を出すことも減ってきているそうです。
ところで最近、AIが「理解」をしているか?という問いに関して、ある研究が発表されました 。この研究によれば、AIは「概念を理解しているが、その概念を応用して使用することはできない」そうです。「ポチョムキン理解」2)とも呼ばれ、「一見理解はしているようにみえるが、本質的には異なる理解をしている可能性がある」のだそうです。例えばAIに「俳句の定義」を尋ねると、「五七五の音韻で、季語が入る形式の詩」といった正しい答えが返ってきます。ところが、AIに実際に俳句を作らせると、この定義には全く当てはまらない文字列が返ってきてしまうことが多いそうです。AIはもっともらしい反応はするものの、それは言語的なつながりから答えを出したもので、「本質的な理解」はできていないようです。
カウンセラーとLLMの違い
さて、カウンセリングの話に戻ります。
LLMでは、これまで述べたように、関連のある言葉を予測して返しているだけで、理解したかどうかは怪しいものと言えます。例えばAIカウンセラーは「悲しい」と述べた利用者に対し、カウンセリングやその他関連のありそうな文書の情報から、統計的に近い、もっともらしい言葉を返しています。時にそれが利用者にとって有益な返答になっているのかもしれません。もしかしたら「多くの人にとって」当てはまる良い回答なのかもしれません。これに対してカウンセラーは、「悲しい」の言葉だけを理解するのではなく、その言葉の背後にある複雑な気持ちや体験、その人の歴史、言葉にならない身体的な感覚など非言語の情報も含め、その人の語る内容を、広く深く理解しようとしています。そしてほかの誰でもないこの人が、今、ここで話した「悲しい」の意味とはなにか?を感じ取ります。そして感情や体験の個別性を大切にします。
これまでの膨大な言語情報から確率的な計算で回答を導き出すAIカウンセラーは、この、言語以外の、曖昧さ・矛盾・揺らぎをはらむ非言語情報や、個別性の扱いがまだまだ得意では無いと考えられます。多くの人にとって、もっともらしい答えを出すAIカウンセラーと、その人を独自の存在としてとらえ全体を理解しようとする人間のカウンセラーでは、理解の仕方、そして導き出す回答の仕方が異なると言えるでしょう。その点において、カウンセラーは医学的診断とは違う理解の方法を取っており、現在のAIにはまだまだ難しいことをやっています。
え?お前はAIカウンセラーと同じようにそれっぽい反応しているだけじゃないかって?精進いたします。
引用文献
1)AIによる医学診断に関する報道例
AIは医師を超えるのか--マイクロソフトの診断AI、複雑症例で医師の4倍の精度(ZDNET)
https://japan.zdnet.com/article/35234985/
2)AIのポチョムキン理解に関する論文(arXivへの投稿)
Potemkin Understanding in Large Language Models.
https://arxiv.org/abs/2506.21521
教員プロフィール
根津 克己 応用心理学部 臨床心理学科 准教授
東京成徳大学大学院 心理学研究科 修士(カウンセリング)
東京成徳大学大学院 心理学研究科博士後期課程
日本心理臨床学会、日本キャリア・カウンセリング学会、日本認知療法・認知行動療法学会、日本学生相談学会 所属
(臨床心理学科)
東京成徳大学大学院 心理学研究科 修士(カウンセリング)
東京成徳大学大学院 心理学研究科博士後期課程
日本心理臨床学会、日本キャリア・カウンセリング学会、日本認知療法・認知行動療法学会、日本学生相談学会 所属
(臨床心理学科)