本提言は、AI技術による人格再生が「死」の不可逆性を揺るがす現代において、人間が単なる「データ資源」へと堕することを防ぎ、死後もなお主体としての尊厳を保持するための倫理的座標原点である。これは固定された教条ではなく、次世代が技術の変化に応じて更新し続けるべき「暫定的な基本原則」である。
死後の人格権を、以下の二つの領域に明確に分離し、異なる法理を適用する。
公益・アーカイブ目的(非営利領域): 教育、歴史研究、公共のアーカイブ目的。厳格な透明性のもと、故人の生前の意志を損なわない範囲で限定的に許容される。これは「過去との対話」であり、未来への遺産として扱う。
商用・興行目的(営利領域): 広告、エンターテインメント、特定の企業利益に資する活動。「死後10〜15年」の原則禁止期間を設け、例外は生前の明確な「質の高いオプトイン」がある場合に限る。「文化の継承」という美名のもとでの搾取を論理的に遮断する。
形式的な署名や包括的な権利委譲を防ぐため、以下の要件を満たさない同意は無効とする。
具体的範囲の限定: 商用利用の可否、表現可能な思想・政治・性的表現の限界を明文化していること。
第三者による解釈拡張の禁止: 興行主や遺族が「本人ならこう言ったはずだ」と恣意的に人格をアップデートすることを禁ずる。
撤回権の保障: 本人存命中は理由を問わず無条件に撤回可能であること。
若年・社会的弱者への配慮: VTuber等の契約において、将来の技術進化(AI化)を予見できない状況下での包括的同意は「人格の不当な囲い込み」として無効とする。
倫理を技術的強制力で担保するため、興行主および開発者に以下の義務を課す。
不可逆的ウォーターマーク: AI生成物には、視覚・聴覚的に「合成人格である」ことを示す消去不能なメタデータ・識別表示を義務付ける。
トレーサビリティの表示: 出力の根拠(生前のどの発言に基づいているか)と、AIモデルによる推論・編集の比率を明示する。
外部監査制度: 大規模な人格再生興行においては、独立した第三者委員会による「倫理監査」を必須とする。
AI人格を主体(Persona)として扱わず、常に**「運営主体(Principal)」の拡張**と見なす。
法責任の帰属: AIの言動による名誉毀損、差別、虚偽の流布は、すべて興行主が「自らの発言」として直接的に刑事・民事の責任を負う。
透明性の確保: 運営主体、学習データのソース、アルゴリズムの責任者を常時明示する。
国際的倫理原則: 「人間をデータ資源として扱わない」という原則は、国境を越えた普遍的倫理(Civilizational Ethics)として確立されるべきである。
更新可能性: 本提言は、未来の人間が「死」や「自己」の定義を再考した際に更新されるべき「暫定の灯火」である。私たちは、次世代が自らの足で立ち、新たな倫理を築くための「背中を押す」存在であり続ける。