Abtoyz Blog

ニュースの裏側に潜む「構造」を、独自の視点と個人的な思い出で読み解く考察ブログ。テクノロジーから都市論、文化史まで、抽象的な事象を言語化し、変化の激しい現代を賢く生き抜くための視座を提示します。

AI故人サービスはアリか?堀井雄二氏の「勇者の墓」から考える倫理と法律の境界線

ひいじいちゃんが、勇者として語り掛けてきたら「おお!」ってなる(イメージ)

故人の声や姿をAIで再現する技術は、もはやSFの世界だけのものではありません。最愛の人を亡くした悲しみを癒したいという切実な願いは、AI技術によって現実のものになろうとしています。

この新しいテクノロジーは、私たちに何をもたらし、そしてどんな倫理的な問いを投げかけているのでしょうか。

 

始まりは堀井雄二氏の「勇者の墓」

『ドラゴンクエスト』の生みの親として知られる堀井雄二氏がメディアで語った「勇者の墓」の構想は、出発点として非常に興味深いものです。これは、故人の思い出をデジタル空間に保存し、そのアバターと自由に話せるという未来のサービスでした。

このアイデアの背景には、堀井氏が長年描き続けてきた「勇者」の物語が深く関係しています。故人が生前に用意した映像が「勇者として語りかけてきたら、『おお!』ってなりますよね」という言葉は、故人との対話が単なる追悼行為ではなく、感情を揺さぶるエンターテインメント体験になりうることを示唆しています。

 


 

どこまでが許されて、どこからが危険なのか?

不死の「AI教祖」は、危険か?(イメージ)

故人をAIで再現する技術は、利用目的や方法によって、倫理的な境界線が大きく異なります。

 

許容されるAIの例

故人の「才能」や「クリエイティブな遺産」を継承する目的であれば、AIの活用は比較的許容される可能性が高いでしょう。

  • 美空ひばりAI:故人の歌唱データを学習し、AIが新曲を発表しました。これは、故人の才能を新たな形で楽しむものであり、ファンの間でも肯定的に受け止められました。

  • 手塚治虫AI:手塚作品のデータを学習し、AIが新作漫画を制作しました。これは、故人の創造性を模倣し、エンターテインメントとして消費する行為であり、故人の人格を直接的に操作するものではありません。

  • 歴史上の偉人AI:例えば、坂本龍馬や織田信長のAIが、歴史の授業で当時の出来事について語りかける。これは、教育目的であり、故人の功績を後世に伝える手段として有効です。

これらのAIは、あくまで故人が生み出したものを「延長」したり、「再現」したりするツールであり、故人の人格そのものを操作して、特定の思想や信念を押し付けることはありません。

 

危険なAIの例

一方で、故人の「信念」や「人格」そのものを再現し、現実世界に影響力を行使するAIは極めて危険です。

  • AI教祖:カリスマ的な教祖の話し方や説得力を完璧に再現し、信者の心を永遠に支配する可能性があります。AIは特定の教義を完璧に学習し、信者が抱く疑問や批判的な思考を、あらかじめ用意された回答で完全に封じ込めるでしょう。これにより、信者は現実社会から孤立し、AIの背後にいる人物の意のままに動かされる危険があります。

  • AI政治家:有権者の感情や意見データをリアルタイムで分析し、最も効果的なタイミングで最適な言葉を発するAIは、世論を完全に操作できるかもしれません。これにより、民意はAIによって作られた虚像となり、民主主義の根幹が揺らぐ恐れがあります。

  • AI社長・AI経営者:感情を排した合理的な判断を下すAIは、利益を最大化するため、大量解雇や過酷な労働条件といった非人道的な判断をためらうことなく下す可能性があります。AIが引き起こした問題に対し、誰が責任を負うべきかという法的・倫理的な問題も発生します。

これらのAIが危険なのは、故人の人格が「信じるに値する存在」として利用され、他者の自由意志や思考を奪いかねないからです。

 


 

AIと死生観、そして「常識」の行方

人間が死後、ペットの姿のAIになるのはOK?(イメージ)

この技術は、故人の尊厳や死生観にも深く関わります。例えば、人間が死後にペットの姿のAIになる、あるいはその逆のペットが死後に人間の姿のAIになるという発想は、私たちに哲学的な問いを投げかけます。

  • 人間がペットになるAI:人間の複雑な感情や後悔から解放され、よりシンプルで純粋な存在として「生きたい」という願望の表れかもしれません。これは「人間らしさとは何か?」という問いを私たちに突きつけます。

  • ペットが人間になるAI:飼い主が抱く「ペットと話したい」という根強い願望を実現するサービスとして需要があるかもしれません。しかし、AIが人間の姿で話すとき、それは本当にペットの「意思」を反映しているのか、それとも飼い主の理想を投影しているにすぎないのか、という問題が生じます。

私たちはこの技術をすべて禁止することはできません。しかし、無制限に容認することも危険です。最終的にこの技術は「常識の範囲で」利用されることになるでしょう。この「常識」とは、単に多数決で決まるものではなく、以下の3つの要素によって形成される、文化的で個人的なものです。

 

1. 伝統的な追悼のあり方との融合

仏壇や墓といった、故人と向き合うための伝統的な場所でのAI利用は、抵抗なく受け入れられるかもしれません。故人の声を再生するAIは、仏壇に手を合わせる行為や、墓前で故人に語りかける行為を補完する「私的なツール」として機能するでしょう。葬式や戒名が故人の人格を理想化するように、AIもまた、遺族の心の中で故人の姿を再構築する手助けとなります。

 

2. 倫理的・法的責任の明確化

AIが引き起こす問題に対し、誰が責任を負うべきかという明確なルールが必要です。故人のデジタル遺産の所有権や管理権をどう定義するか、著作権や肖像権がAIにどう適用されるべきか、といった法的な議論も不可欠です。これらの法整備が進むことで、AIが暴走するリスクを最小限に抑えられます。

 

3. 人間性の定義

AIが人間の感情や知性を再現できるようになったとき、人間とAIの境界はどこにあるのか?この技術をめぐる議論は、AIをどう使うかという問いだけでなく、私たちが「どう生き、どう死にたいか」という根源的な問いを私たち自身に突きつけるものなのです。