はてなキーワード: 非親告罪とは
では、示談金が刑事事件の結果にどう影響するか、もう少し具体的に現実的なケースで整理します。
⸻
刑事事件では、検察官は「起訴するかどうか」を判断する際に、被害者の意向や示談の有無を考慮します。
• 示談金が支払われ、被害者が告訴を取り下げる意向がある場合
ポイント:示談金は「被害者感情の和解」の証拠として扱われ、量刑や処遇に影響する。
⸻
ただし、次の場合は示談していても刑事事件になる可能性があります:
⸻
🔹 ③ 実務上の影響
• しかし、示談金があったからといって罪が消えるわけではない
⸻
🔹 まとめ
⸻
希望なら、この事件の当時の事情で「もし示談金が渡っていたら裁判結果や社会的評価はどう変わったか」も具体的にシミュレーションできます。
やってほしいですか?
しばし議論になる、
否定派の言い分は、法があり法治国家である以上法で定められた罰を受ければ終わり、私刑は禁じられている
これを完全論破しましょう、私刑は許されておりむしろ善行である。
ではまず手始めに憲法31条を持ち出すトンチカン野郎を片付けましょう
31条はあくまで罪刑法定主義、あわせてデュー・プロセスの明文規定にすぎない
憲法とはそもそも国家の暴走を抑制するもので私権や私人行為には(あまり)踏み込まない
かつては王様の特権、横暴で恣意的に、ランダムに私権が奪われたり、時には刑罰が課された。
私刑禁止なんてどこに書いてます?書いてないよね、あなたの感想。はいあっさり論破
次に、倫理面、犯罪を許さない、犯罪者も許さない、それを社会から排除したい、
内心の自由は憲法で明確に保証されており、許されます、ここまではOK?
で、具体的な行動を取ることは犯罪か?
例えば相手が犯罪者であっても棍棒で殴れば犯罪である、そりゃ俺も認める、イカン事だ。だが後述する。
次、犯罪者の社会復帰を社会がスクラム組んで排除することは犯罪か?
被害者が性犯罪の紙面公表を望んだが拒否し、ペンネームを変えて復帰させた出版社をネットで糾弾するのは犯罪か?
いえ、別に?なんの犯罪にもなりませんよ、憲法31条なんでしょ?罪刑法定主義でしょ?なんの犯罪になるんですか?
罪名は?ないよね?倫理的な問題にすぎない。個人の価値観、内心の自由。
刑罰の執行で禊が終わった社会復帰の権利を得たと解釈するひともいれば、一生抱えるべきだと思う人もいる、正解など規定できない、法がない
あくまで内心の自由、ここまではいい?いいよね?一分の隙もない完璧な理論
棍棒でぶん殴った時点では倫理問題にすぎない、この時点では厳密には犯罪ではないのだ。
ボクシングの試合で殴り合いをしても傷害罪にはならない、それを決めるのは裁判官であり、
裁判を望むかどうかは被害者が決める、あるいは法執行機関が決める、これは親告罪か非親告罪かで決まる
ともかく、傷害罪は非親告罪ではあるが、現実的には被害者が被害申告しなければ捜査はされない、結果裁判にもならない
性犯罪加害者がとつぜん棍棒で殴られて「許せん!訴える」ならば訴えれば良い、どうぞお好きに、その権利は奪わない
殴った人が裁判で決められた刑罰を受け「それで終わり」を覚悟して殴ったならば、「それで終わり」にしかならない
イカンことだ。だが覚悟持ってやったなら、刑を受け罪を償えたら「終わり」なんだよね?
ネットリンチも同様である、それが犯罪であると思うなら被害者(加害者)はどうぞお好きに告訴告発民事訴訟を起こせば良い
「ボクは性犯罪の犯人だが文句言われる筋合いはない!実名で堂々と戦ってやる!裁判だ!ボクをネットリンチする奴らを許さん!」
えぇどうぞ、お好きにやりなさいである、止めない、全て自由である、だが不思議にこれをやるやつはない
つまり当人も仕方がないと認めているのである、受け入れているのである、受け入れているなら文句なかろう
他人がとやかくいうことではない、あくまで個人の価値観の話である
そもそも日本は世界では珍しく裁判所が私刑を容認している国だという事実を受け入れましょう
社会的制裁と刑罰は別物だよね?なんで裁判でごっちゃにしてるの?
裁判所が社会的制裁の存在を認め、かつそれによって罰を加減するのである。つまり機能として組み込んでいる証拠。
仮に社会的制裁を認めないのであれば、裁判所は刑罰と分離するはずである
被告人がななんらか社会的制裁をうけ、不合理な損失を被ったのであれば、かつそれが犯罪行為であるならば
それはそれで別個の刑事裁判、民事裁判をやればいい、元の裁判とは関係ない、という姿勢を貫くはずである
逆に言えば、私刑、社会的制裁は許されている、容認されていると言うてもいい。
極論言えば私刑しても裁判所はどうせその分減じるのだからいいじゃない
ここまで反論ある?ないよね?無理だよね?
裁判所が間違ってる!とか?
そうかもね、どうぞ頑張って憲法変えて下さいw
捜査 → 立件 → 起訴 → 裁判 → 刑罰、という国家の手続き。
このため、
= 犯罪ではない
とはならない。
法律上の構成要件に該当すれば、**「犯罪行為は成立しているが、処罰されていない」**という状態があり得ます。
実務上は次のような理由で「犯罪は成立しているが、捜査・処罰されない」ケースが多くあります。
例:軽度の侮辱、軽い暴行(怪我なし)、家庭内の軽微なトラブルなど。
侮辱罪は2022年改正で非親告罪になりましたが、名誉毀損などは依然として告訴が必要。
法律上は犯罪でも、社会的影響や本人の反省などを考慮して不起訴にする。
つまり、**「犯罪の成立」と「処罰の実行」**の間には大きなギャップがあるのが現実です。
→ 法律上は傷害罪が成立し得るが、実務上は処罰されないことがある。
つまり、
■ 主な理由
① 証拠不足(最も多い)
刑事裁判は
が必要です。
よくある壁:
• 物的証拠が乏しい
• 目撃者がいない
• 供述の信用性争い
⸻
② 被害申告がない/取り下げ
起きやすい背景:
• 恐怖や羞恥
※現在の日本法では不同意性交等罪は「非親告罪」ですが、実務上は被害者の協力が極めて重要です。
⸻
• 不起訴
• 執行猶予
• 量刑軽減
になることがあります。
ただし:
です。
⸻
刑法上、
ただし実務上、完全無罪になる例は多くありません。
⸻
DNA等がなければ:
• 公訴時効(※不同意性交等の重罪は時効が長期化・一部廃止)
⸻
証拠はあるが、
• 情状
• 初犯
• 示談
などで不起訴になるケース。
⸻
• 執行猶予が付きにくい傾向
です。
⸻
❗ 実際に無罪なのではなく
にあります。
これは制度の甘さというより、
• 冤罪防止
⸻
もし関心があれば、
生成AIが登場してからAI賛成・反対で争いが続いているように思うので、とりあえず現状を整理する意味で中立な視点で生成AIを捉えてみる。極力中立を意識して書くが、個人の主観が意図せず入ることはご容赦願いたい。まずは議題をまとめるために、議論のターゲットを定義する。
基本的には画像生成、テキスト生成、動画生成、音楽・音声生成などの生成AIをターゲットとする。具体的なサービスとしては
ここでの議論では、生成AIの技術的な内容にはあまり触れず、これらの生成AIは「モデル」に「データセット」を「学習」させることで作られることとする。また、生成AIユーザーはその「学習済みモデル」を使って画像、テキスト、動画、音声などを「生成」することができるとする。
そして、生成AI推進派はこれらの生成AIを推進する、あるいは使っている人たちのことを指し、反AIはこれらに反対する、あるいは使わない人たちのことを指す。
それらとは別に、生成AIの話題に無関心、疎いな層も一定数いることを付記しておく。
日本の現行法に照らし合わせるとデータセットの作成にあたり、著者の許可は「原則」不要である。
詳細は文化庁「AIと著作権」のP.37~40を参考。(AIと著作権, 文化庁, https://www.bunka.go.jp/seisaku/chosakuken/pdf/93903601_01.pdf])
一方で、生成AIが出力した著作物が著作権侵害をしているか否かの判定については、「人とAIを区別することなく」著作物が著作権侵害をしているかどうかを既存のルールに則って判断される。(同P.43~)
例えば、最近だと「エヴァ」のポスターを生成AIで作成して販売した人が書類送検された事件(参考:AIで「エヴァ」のポスター生成し販売 神奈川初、著作権法違反容疑で男性2人を書類送検, yahoo ニュースhttps://news.yahoo.co.jp/articles/33573f324daa8f9f894660b6309ff356a4d338b0])が発生している。上記の理解に則ると生成AIが使われたか否かは関係なく、ポスターが「エヴァ」の著作権を侵害していることが原因であると理解できる。
最近では著者が自身の著作物を保護するために、著作物に対して個別に「AI学習禁止」を掲げている場合や、プラットフォーム上で著作物がAIの学習に使われないように申告(オプトアウト)することができる。このようなケースは「契約」と捉えることができる。そのため、上記のようにデータセットの作成にあたり法的に著者の許可が不要であったとしても個別の対応が必要であり、無断でそのような著作物をデータセットに使うことはできない。
では「AI学習禁止」を明記していれば著者の権利が正しく保護されるかというとそうとも限らない。さらに議論を重ねることになるが、簡単に思いつくだけでも以下のような例外的なデータセットが存在する。
1つ目の「生成AI登場以前に作成されたデータセット」については、そもそもそのデータセットが作られた段階ではAIによる学習禁止を明記していない著者がほとんどであったと考えられるし、各種プラットフォームにそのような設定項目も存在しなかったと考えられる。そのため、それらのデータセットを使った学習を禁止することは法的には難しい。2つ目の「生成AIによって生成されたデータ(合成データ)によるデータセット」についても、生成AIが出力した著作物がたとえ学習元のどれかの著作物と類似していたとしても、学習元の著作物の著者が著作権を主張することは困難である。
これらのようなデータセットが存在することを考えると、仮に「AIによる学習禁止」を掲げていたとしても、著作物が絶対にデータセットに使われないと言い切ることは難しいであろうと考えられる。
実際に、以下の例ではDeepSeekが学習に用いたデータセットにOpenAIが提供するモデルの出力が使われている可能性について話題になっているが、明確な根拠は今のところ示されていない。
OpenAIは、OpenAIのAIモデルの出力を他モデルの学習に使うことを禁止している。しかし、OpenAIが発表している生成AIモデルに使われているデータセットは非公開であり、そのデータセットに一部無許可なデータが含まれている疑いは当初から挙がっている。それらの前提のもとで、最近だと DeepSeek がOpenAIの出力データを学習に使っているという疑惑(参考:DeepSeekがオープンAIデータ不正入手か、マイクロソフト調査中, Bloomberg, https://www.bloomberg.co.jp/news/articles/2025-01-29/SQTXNQT0AFB400])があり、DeepSeekの妥当性が疑われている。(OpenAI自身はデータセットを非公開としており、データセットの透明性が確保されていないことから、ダブルスタンダードであるとの見方もある。)
しかしながら、このDeepSeekの疑惑については一考の余地が残されている。DeepSeekに限らずその他数多くのAIモデルもOpenAIの出力を学習している可能性があり(参考:逆に、すべてのローカルLLMは開発元をOpenAIだと思い込んでいる説, zenn, https://zenn.dev/yuiseki/articles/d90c4544ea3ea6])、OpenAIの出力が何らかの形で間接的にその他AIモデルの学習に使われていると考えることもできる。例えば、OpenAIのユーザがOpenAIの出力を加筆修正してインターネット上に公開したサイト(例えば上記zennのページのようなAIの出力が含まれているサイト)が、他AIモデルの学習に使われるケースなど。このような場合には、OpenAI以外の他AIモデルは明確にOpenAIの出力を学習に使ったと断言できないため、OpenAIの主張を全面的に賛成することには疑問であると考えることもできる。
ここまでの議論では、現行法に則って事実ベースで生成AIを解釈した。一方で、現行法だけでは法整備が追いついておらず、生成AIの脅威が考慮されていないとの意見もある。具体的には以下のような例である。
それぞれの主張について、もう少し具体的に意見の内容を掘り下げる。
著作権侵害は一部非親告罪となっているものの多くが親告罪となっており、著作権侵害が判明した際には著者が主体的に動く必要がある。一方で、生成AIによって生成された著作物は通常の何倍もの速さで作られるため、生成AIの出力を確認するために多くの労力を割くことになり、都度親告することは非現実的である。また、著作権侵害の裁判に関する訴訟費用や、認定されるまでの期間などを考慮すると現行法を適用するだけでは限界がある。
特に法整備に関しては問題が起きてから強化されることが多々ある。(例えば、あおり運転、飲酒運転、違法アップロードなどは社会的な問題を受けて強化されている)そのため、現行法で適法であってもそれが今後も適法であるとは限らず、継続的な議論を経て強化される可能性がある。
生成AIの構築にはモデルだけではなく、データセットも不可欠である。しかし、そのデータセットに多大な貢献しているクリエイターに対してインセンティブがなく一方的に著作物を搾取されている。このような状況では、クリエイターは生成AIの構築に協力する理由がない。その上、生成AIにより一部の仕事が奪われる可能性が考えられており、そのような業界からはかなり反発がある。例えば、イラストレーター、翻訳家、声優、新聞、ニュースなどの業界では、既存の業務が生成AIに代替される可能性を危惧しており、かなり否定的である。
現状の法整備ではそのような業界に関わる方々のリスペクトが一切なく、生成AIが一方的にデータセットとして学習に使っている現状がある。クリエイターの方々の努力があったからこそ、生成AIが登場できたのにも関わらず、生成AI側が一方的に搾取しているためかなりいびつな構造となっている。そのような構造を解消するため、クリエイター保護を念頭に置いた生成AIの規制が導入される可能性がある。
ここまで日本の法律をベースとして議論を進めたが、生成AIを語る上では海外の生成AI取り組み状況も欠かせない。現状では、生成AIはアメリカのOpenAIが業界リーダーの立ち位置を確保しており、大手ではGoogle, Meta, Microsoft などが追従している。また、生成AIの開発にはGPUが必要不可欠であり、GPUの開発・生産の最大手であるNvidiaもアメリカの企業である。一方で、最近話題になったDeepSeekは中国で開発されたモデルである。中国はほかにもAlibabaが生成AIを開発しており、アメリカと技術を競うことができている。それ以外の国の生成AI研究はアメリカ、中国とはかなり水をあけられており、ヨーロッパですらアメリカ、中国の間に割って入ることができる技術力を持ち合わせていない。(唯一フランスのMistralは米中の各種モデルに引けを取らないレベルのモデルを発表できている程度)そのような事実から、日本は生成AIの研究ではほとんど世界にインパクトを残せておらず、アメリカ、中国が開発した生成AIにかなり依存してしまっている。
このような背景から、日本で生成AIに強い規制をかけてしまうと、生成AIの分野で世界から全く相手にされないほど遅れを取る可能性が否定できない。特に、テキスト生成については日本語ローカライズには一定の価値があり、アメリカや中国のモデルを日本語に翻訳するだけでは日本の文化的背景が正しく反映されない可能性がある。例えば、DeepSeekは「尖閣諸島を中国固有の領土」(参考:中国AIディープシークが「尖閣は中国固有の領土」 自民・小野寺氏、衆院予算委で懸念表明, yahooニュース, https://news.yahoo.co.jp/articles/3c710d40d096b74670f09a8bc377b29f33b814a3l])と日本の認識とは異なる回答をしてしまう。そのようなことを考慮すると、今後の国際社会の情報戦のために生成AIに取り組む必要があり、日本で規制を強めた結果として生成AIの開発が出来なくなることは国際領土問題にすら発展しうる可能性がある。
また、他国から見てもこれは同様で、自国で生成AIの規制を強めた結果として他国に遅れを取ることがかなり大きなリスクになることを懸念していると考えられ、いわばチキンレースのような状態になってしまっている。
ここからは世界のAIに対する規制状況を見ていく。アメリカ、中国、日本、EUの中で一番AIに対する規制が強いのはEUであり、昨年AI法が成立している。(参考:EU AI法案が加盟国に承認され成立 規制は2026年に適用の見通し, NHK, https://www3.nhk.or.jp/news/html/20240521/k10014456551000.html])EUは個人情報保護の観点で世界をリードしており、AI法もそのような風潮に乗っていると考えることができる。AI法はAIが持つリスクを使用用途に応じて評価しており、リスクが高いと判断された使用用途でのAI利用が禁止されたり、人による確認が義務付けられたりしている。
ここまで生成AIに対する賛否と、生成AIを取り巻く環境をみてきた。賛成、反対にそれぞれ筋の通った主張があり、どちらかが一方的に正しいと判断を下すのは難しい。とはいえ、実際に生成AIが広く普及したことで表出してきた問題点があるのはたしか。だからと言って、生成AIの完全な禁止も国際的な視点から見てもやはり有り得ない。賛成派、反対派が歩み寄り、折り合いがつく着地点を少しずつ模索していくことが重要。
生成AIは「正しく」使えば便利な道具だと思うが、悪用が悪目立ちするので印象がよくない。そもそもインターネットの治安なんてもともとこんなもんだった気がするが、生成AIでよりお手軽にイラストや文章を作れるようになってしまったので、お手軽に治安の悪さが発信できているだけのように見える。
一方で企業レベルでは生成AIを正しく使って業務改善する動きが活発であり、今後数年かけて業務改善していくなら週休3日か、所定労働時間を5時間ぐらいにしてほしいなと思っているところ。仕事を早く終わらせたところで増えるのは給料ではなく仕事になる予感しかしない。