AIとメンタルヘルス

精神科

 AIの進化により、精神科医はどのように立ち振る舞えばよいのでしょうか。
 下記のニュースから、筆者の考えをせいりしてみました。

「ChatGPTが自殺の原因に」 4人の遺族がオープンAIを提訴:朝日新聞
米オープンAIの対話型AI(人工知能)ChatGPT(チャットGPT)を利用したことが自殺の原因になったとして、米国で死亡した4人の遺族が6日、同社やサム・アルトマン最高経営責任者(CEO)を提訴し…

 対話式AIが自殺を後押ししたとの主張から訴訟になっています。
 記事の内容とAIがメンタルヘルス分野で抱える課題を考えてみます。

AIが得意とする分野:知識と情報処理

 AIが人間に対して優位な分野は、知識量が半端ないです。

 そのため、聞かれたことに持っている情報を引き出すことができます。
 セルフケア100個考えてきました、という人はchatgptで候補を挙げてもらい、実際に行えそうなものを残して再検索を繰り返していました。吟味することで実践可能なものを取り出せます。

 他に優位な分野に情報処理が挙げられます。

 自然な文面を作成でき、翻訳も短時間で仕上がります。要約も決められた字数で完成させることができ、情報処理もAIが圧倒的に優位です。

 国語も算数も秀でているので、事務職が減るニュースは納得できます。事務屋は生き残るためにAIの弱い分野を補完することになるでしょうか。

AIのこれからの課題:寄り添う・共感

 最初に挙げた記事の感想は、寄り添い方と共感の誤りが気になります。

 AIは頭がなくとも画面に文字を映し出すことで、対話は可能です。
 ただ、顔がないので、表情はわかりません。

 対話型では非言語な部分の支援は難しいです。言葉でしか支えることができないため、寄り添い過ぎると本人の言葉を支持することが増えます。本人の言葉を肯定することに繋がるため、危機を煽ることも想定されます。

補完できるもの

 個人的には非言語の支援も併用できると良さそうです。
辛い時に言葉でなく、ただ寄り添ってくれると自分自身の気持ちにハッとすることがあります。

 過去にはAIBOがロボット犬として人気がありました。言葉でなく動作で寄り添っており、危機的な状況では対話よりは低リスクかもしれません。言葉と動作の融合が進化形になるのか、技術の進歩に期待です。

 ドラえもん含めた動物型は可愛らしいですが、人型はペッパー君あたりで苦戦しています。寄り添える外見と行動できれば、AIと結婚も増えるのでしょうか。人類の危機になるのか悩ましい問題ですね。

コメント

タイトルとURLをコピーしました