はてなキーワード: 統計的とは
ほとんどのアイデアは平凡なもの(ノイズ)だが、ごく一部に極めて優れたもの(シグナル)が存在するという予測可能なカーブを描く。
認知科学者のマーガレット・ボーデンは、創造性とは「要素を新しく組み合わせること」だと定義している。
限られたブロックから天文学的な数の新しい配置が生まれるように、ヒップホップのサンプリングや科学理論も、既存のものの再構築から成り立っている。
スキルの習得は複利計算のようなもので、最初は成長が遅く見えるが、ある地点から加速度的に伸びていく。
練習を長く続けるほど、成長率は高まり、ブレイクスルーが起きやすくなる。
創造性は、完全なランダム(カオス)と、ガチガチの規則(秩序)のちょうど中間にあるカオスの縁で最も活発になる。
数学的なモデルでも、最も豊かなパターンは、無秩序すぎず、繰り返しすぎない絶妙なバランスの場所で発生することが示されている。
2. 組み合わせる: 古いものを新しい形に混ぜ合わせること。
計算間違ってるよ!笑
人生のコスパ観点で評価するなら結婚して子供作ったほうがパフォーマンスいいよ
etc...
ここらの結果発表は既婚・独身で明確な統計あるからちゃんと調べてみ。
9年長生きできるなら2億円くらい払ってもいいわ。
健康に関しても既婚男性の方が良いというデータがクソほどある。
ちゃんと調べてみ!
【資産】
資産形成も既婚の方が有利だし資産額も高いという結果になってる。統計的事実
世の中の誘惑に負けない?自分は賢く強い?うん、みんなそう思いながら年取ってから孤独で金を溶かす
人間なんて弱いもので、勉強でも仕事でも頑張るにはなんらかの動機づけが必要
くじけない、あきらめない、よく考える。
数千万円の金なんてなんの役にも立たないからさっさと使ったほうがいい
数千万円なんてあっという間に溶ける
なにかあったら最後は福祉(生活保護など)に頼らなきゃならない
手に入れた金はさっさと使って人生楽しんで、もしもの時は堂々と社会福祉に頼れば良い
そっちのほうが断然「コスパ」は良い
【幸福】
あと、歳を取ると「なんでわし産まれてきたんだろ」の悩みは切実になるの
孤独の悩みは全部ここに紐づく
今はわからんだろけどね
自分は自分が思ってるほど強くもなく、賢くもなく、情緒的で、非論理的だと認めて
それでも子供一人を育てるための、教育や医療や福祉の国家投資は莫大なの
国が無償で最低9年間、平日6-7時間預かってくれて知恵を授けてくれる
これがタダ。コスパ高すぎ
安い塾でも1時間千円は取られる
それが学校ならタダ
9年 * 200日 * 7時間 * 1000円 = 12、600、000円
子供作らなきゃこれを捨てることになる
コスパ悪いだろ
結局、社会設計は結婚して子供を生み育てる人を多数派の標準モデルに想定してる
そこに乗っからないと損なんだよ
ミクロな損得勘定で自分を正当化し、マクロな結果、見えないところで損してるのに気づいてないだけ
頑張れ!
水曜日の22:44。
今日は時計を見てから書き始めたわけではないが、結果としてこの時刻に落ち着いた。
朝はいつも通り起床して、動線の再最適化を頭の中で確認しながら歯磨きを128ストロークで終え、同じ温度の紅茶を用意した。
午前中は完全に物理の時間に割り当てた。超弦理論という呼び名自体がすでに粗い近似に過ぎないので、今日は理論という語を使わず、構造の話だけをすることにした。
具体的には、背景独立性を前提としない定式化をさらに推し進め、時空を可微分多様体として仮定する癖を断ち切る作業だ。
p進化的な視点から見ると、連続体の極限は実数体である必然性がなく、むしろp進体上での解析の方が自然に現れる対称性が多い。
世界面の量子化をp進解析で再構成すると、摂動展開そのものが意味を失い、代わりにホモトピー型の不変量が前景化する。
そこでコボルディズム仮説を持ち込み、弦の相互作用を時系列の出来事としてではなく、境界付き多様体の同値類として扱うと、散乱振幅は数ではなく元になる。
これは「計算できない」という欠点を持つが、同時に「矛盾しない」という利点を持つ。
ウィッテンがどう考えるかは知らない。理解主体を特権化しない構造だけが残る。その状態で午前は終了した。
昼にルームメイトがキッチンでコーヒーをこぼし、僕の動線に2センチの乱れが生じたので指摘したところ、「細かすぎる」と返された。
細かいのではなく、誤差許容幅を明示しているだけだと言ったが、彼は聞いていなかった。
MTGのデッキを机に広げ、マナカーブと引きムラを統計的に再確認した。
ここでは抽象化をやりすぎないことが重要で、確率は確率として扱う。
友人Aが「そのカード弱いだろ」と言ってきたので、勝率の分散を示して沈黙させた。沈黙は同意とは限らないが、反論がないという点では十分だ。
夕方からはFF14。固定パーティでの動きはすでに身体化されているので、今日は新しい回しを試さず、安定解を選択した。
友人Bは相変わらず必要最小限しか喋らず、その沈黙が全体のDPSを底上げしている。
隣人は壁越しに笑い声を上げていたが、内容はどうでもよかったので無視した。
連続性や正史に対する無頓着さは、物理から完全に切り離された場所でだけ許される贅沢だと思う。
そして今、22:58。
今日までの進捗としては、物理に関してはp進解析とコボルディズムを軸にした再定式化の見取り図がかなり明確になった。
これからやることは、その構造をさらに一般化し、数体すら前提にしないレベルまで抽象度を上げることだが、それは明日の午前に回す。
賢いつもりの連中がAIというものを如何に理解していないかがよくわかった。
イーロン・マスクがXに行った新しいアルゴリズムの導入は、完全にサム・アルトマンがChatGPTに対して行ったのと同じ間違いを犯している。
それはAIをまったく理解していない、いにしえのSF感覚で反AIの言動をしているオタク連中とも実は同じ間違いだ。
彼らは、「AIの良さは『人間らしく振舞える』ところにあるのであり、『賢く、間違えない機械のような人間の代わり』を求めてもうまくいかない」ということがわかっていない。
イーロン・マスクが「Grokに投稿を読ませて判断させる」と言ったとき、私は「Grokが話の内容や口調から好みの傾向を推測して、『似たような投稿』という曖昧な判断をする」ということだと思ったが、現実はまるで違った。
Xの新しいアルゴリズムは、「開始5分(〜30分)でアクティブな反応を引き起こす投稿は伸びる」という純粋に統計的な決めつけから人間が恣意的に設計しただけの、穴だらけで独りよがりな、はっきり言ってX全体ではどんどん活動を縮小させるような、バカの作った「さいきょうのアルゴリズム」に過ぎなかった。
こんなしょうもない、判断の柔軟性の欠片もないただの機械的処理にAIを使うなんて、何を考えていれば思いつくのだろう。
これはサム・アルトマンがGPT5を「さいきょうにかしこいAI」にして大失敗したのと同じ道筋を辿っている。
そんなもの誰も求めていない。
AIを使うなら、「なんかズレてるなあ」という推薦をしても「あなたのために面白い投稿を探してきたよ!」という愛嬌でなんか許せるサポート機能とか、そういう風に使うべきなのだ。
多くの人(ホビーユーザー)がAIに求めているのは、失敗をしても気安い仲間なのに、あいつらはそもそも人を「言うことに厳密に従う部下」としてしか求めていないので、その気持ちがまったくわからないのだ。
日本は人権国家なので、別にフリーライダーが悪いと言うつもりはないし、各自が持っている権利は存分に行使してくれて構わないと思う。
でも流石にフリーライダーであることは否定できないだろ、そりゃあ子無しも税金や社会保障費を払っているのはわかる。しかし税金と社会保障費を払っているのは子持ちも同じだし、上を支えて下を育てなければ社会は維持できない。上を支えただけで役割を果たした気になるのはどう考えてもおかしい。
あとついでに言うと、もちろん例外はいるにしても統計的に未婚は年収が低い。本人は税金と社会保障費を払っていると胸を張っていても、実際にその負担は相対的に低く、そして低収入者は自分が払っている以上の公的サービスを受けていることは多くの研究が示している。二重にフリーライドである。
つまり子無しの「俺達は納税して既婚者への公的サービスを支えている」という主張はあまり正しくはなく、基本的には育児が終わった子持ちが育児中の世代に支援をしているという形になる。要は子持ち同士のライフステージ間移転なのだ。
繰り返すが、別に子無しが悪いとも思わないしフリーライドするのも当然の権利だと思う。ただ自分たちはフリーライドしていないだとか、むしろ子持ちを支えているみたいなよくわからない前提条件を持たずに、自分は社会のお荷物側なんだという認識を持って議論に参加して欲しいと心から思っています。
「学術的誠実性」という言葉を,彼らはまるで印籠か何かのように掲げている.
昨今の生成AIの普及に伴い,大学の授業でもシラバスやガイダンスで「AI使用に関する規定」が語られるようになった.それ自体は結構なことだ.学生が思考を放棄してChatGPTにレポートを書かせるのを防ぎたいという意図も理解できる.
しかし,その「誠実性」を説く教員本人が,技術に対してあまりに不誠実な嘘を,さも真実であるかのように学生に吹き込んでいる現場に居合わせると,めまいがしてくる.
今日,ライティングの講義で,教員がドヤ顔で放った「この授業における生成AIの定義」を聞いてほしい.
「この授業で指す生成AIとは,ユーザーのプロンプトに対して人間と同じようになにかを想定して返答をするようなもので,機械学習されたものではなく,統計的に計算されたものを出力するという点で他のAIと異なります」
耳を疑った.「機械学習されたものではなく,統計的に計算されたもの」とは一体どういう理屈なのか.
現在のLLMは,膨大なテキストデータを「機械学習」させることで,次に来る単語の確率分布を「統計的に計算」している.機械学習と統計的計算は対立概念ではなく,包含関係,あるいは手段とプロセスの関係にある. それを「他のAIとは異なる」などと独自の区分けを行い,「機械学習ではない」と断言してしまうその度胸.
彼の中では「機械学習」とは何か,ロボットが物理的に何かを学ぶようなSF的なイメージで止まっているのだろうか.それとも,「統計」という言葉を使えば文系の学生を煙に負けるとでも思っているのだろうか.
中身を何も理解していない人間が,権威を纏って「これはこういうものだ」と定義する.これこそが「学術的誠実性」に最も悖る行為ではないのか.
さらに救いがないのは,この技術的無理解をベースにしたまま,議論が高度な(と彼らが思っている)社会批評へと接続されていく点だ.
最近では,この間違った前提のまま「ポストモダン」の標的としてAIが語られ始めている. 「AIが出力する『統計的な』正解は,既存の知の構造を再生産する装置であり……」云々と,フーコーだかデリダだかの文脈を借りて,AIの権力性や構造を批判し始めるのだ.
技術的な基礎事実が間違っているのに,その上に乗っかる批評の城だけは立派に(難解な言葉で)組み上げられていく.「機械学習ではない謎の統計装置」という虚構の概念に対して,大真面目に構造主義的なメスを入れている姿を見ると.もはや怒りを通り越して逆に感動すら覚える.
彼らは「AIの嘘」を暴いているつもりなのだろうが,その実,彼ら自身が「AIに関する嘘」を再生産する装置になっていることに気づいていない.その解像度の低さで「人間の主体性」や「知のあり方」を説教される学生たちの身にもなってほしい.
大学教員が息をするように技術的なデマを流し,それを「人文知」としてパッケージングして売る.これが彼らの言う「学術的誠実性」の正体なのだとしたら,AIのハルシネーションの方がよほど可愛げがあるというものだ.
月曜日の8:00。正確には7:59:58に着席し、2秒の呼吸調整を経て書き始めている。
これは偶然ではなく、僕の週間認知パフォーマンスが局所的に最大化される開始時刻だ。異論は統計的に誤差扱いでよい。
先週までの進捗を要約すると、超弦理論の「理論であること自体がもはや仮説にすぎない層」に踏み込んだ。
具体的には、10次元時空上の超対称σ模型を出発点としながら、その背後にある圏論的構造、特に∞-圏としてのブレーン配置空間と、自己双対性を持つ拡張TQFTの対応を、通常の幾何学的直観を完全に放棄した形で再定式化している。
弦の摂動展開を次数で整理する発想はもはや役に立たず、代わりにホモトピー型理論と導来代数幾何の言語で「物理量が定義可能であること自体の条件」を記述する段階に来ている。
ウィッテンですら「美しいが、何を計算しているのかはわからない」と言いそうな地点だが、問題ない。計算できないものの存在条件を精密化するのが理論物理の一つの正道だからだ。
先週の成果として特筆すべきは、モジュライ空間の境界に現れる特異点が、実は欠陥ではなく高次対称性の痕跡として再解釈できる可能性を示した点だ。
これは弦が「振動する対象」であるという比喩を完全に捨て、圏の射が自己反映的に折り畳まれる現象として理解する立場に近い。
ルームメイトに説明を試みたところ、「つまり、何もわかってないってこと?」と言われたので、黒板に3段階の随伴関手を書いて黙らせた。彼は5秒で視線を逸らした。予想通りだ。
MTGでは、確率論的に最も安定するマナカーブを再検証し、友人Aのデッキが「強いが美しくない」ことを数式で証明した。
彼は納得していなかったが、それは彼が証明と説得の違いを理解していないからだ。
FF14では、レイドのギミックを位相空間として捉え、失敗パターンがどのホモロジー類に対応するかを頭の中で整理している。
隣人に「ゲームは娯楽でしょ?」と言われたが、僕は「最適化問題は常に真剣だ」とだけ返した。
アメコミについては、世界改変イベントの多さが物語的一貫性を破壊している点を、時間対称性の破れとしてノートにまとめた。
友人Bは途中からカレーの話を始めたので、会話は終了と判断した。
習慣についても書いておく。月曜日の朝は必ず同じ順序で行動する。起床、歯磨き42ストローク、コーヒーは温度62度、椅子の角度は床に対して正確に90度。これらは迷信ではなく、意思決定に使う脳内リソースを節約するための最適化だ。
隣人が「細かすぎ」と言ったが、細かさは知性の副作用であって欠陥ではない。
まず、先ほどの理論をもう一段抽象化し、物理と数学の区別が消える点を明示する。
次に、昼までにFF14の固定メンバーに最短攻略手順を共有する。
午後はMTGの新デッキ案を検証し、友人Aに再び敗北の必然性を理解させる予定だ。
夜はアメコミを読みながら、なぜ多元宇宙が安易な逃げ道になるのかを論理的に解体する。
8:21。予定より1分早い。非常に良い月曜日だ。
陰毛論者の発言を、表層的な荒唐無稽さやオカルト性だけで切り捨てるのは簡単だが、それは思考停止に近い。
語りの中核にあるのは、世界はもはや無制限に人間を抱え込める構造ではなく、どこかで人口圧力が制度や技術、経済構造に変換され、結果として選別が起きているのではないか、という仮説である。
陰毛論者が繰り返し口にしてきたのは構造としてそうならざるを得ないという話だ。資源は有限で、地球環境は制約条件であり、制度は常にトレードオフの上に成り立つ。
そのとき、誰が生き残り、誰が排除されるのかという問いは、倫理の問題であると同時に、冷酷なシステム設計の問題になる。
その語りが不快に聞こえる理由の一つは、この選別を道徳や正義の言葉で粉飾しない点にある。
教育、医療、金融、戦争、パンデミック、テクノロジーといった一見無関係に見える現象を、人口を最適化するための圧力装置として一つの線で結ぼうとする。
もちろん、その具体的因果関係の多くは証明不能であり、しばしば象徴的・比喩的な語り方をする。
しかし、世界が完全に人道的配慮だけで運営されているという素朴な前提のほうが、むしろ現実から乖離している。
グローバル経済は効率を最大化し、不要な摩擦を削る方向に進む。その過程で適応できない個体が脱落するのは繰り返し起きてきた。
この文脈でKappa Beta Phiのような存在を持ち出すのは、単なるスキャンダル消費ではない。
ウォール街のエリートが閉じた空間で下品なパロディや自己嘲笑に耽るその文化は、自らを道徳的守護者ではなく、冷徹なゲームのプレイヤーとして認識していることを示唆している。
そこには世界を良くしているという建前と、世界は操作と選別の対象であるという本音の乖離がある。
陰毛論者が言いたいのは、意思決定層が人口や資源を抽象的なパラメータとして扱っているという現実だ。
数億人単位の人間が、統計的誤差やリスク要因として処理される世界で、選別が起きていないと考えるほうが不自然だろう。
その語りを真か偽かで裁くことではない。科学論文でも政策提言でもなく、構造に対する警鐘だ。
人口が増えすぎ、全員を救うという物語が成立しなくなったとき、社会は必ず別の最適化関数を採用する。
その関数が生産性なのか、適応力なのか、従順さなのかは時代によって変わるが、選別という結果だけは変わらない。
陰毛論が不気味に響くのは、それが誰かが悪意を持ってやっているという単純な話ではなく、誰も止められない構造としてそうなっているという現実を、下品で過剰な比喩を使って突きつけてくるからだ。
どう受け取るかは聞き手の知性に委ねられている。笑って消費することもできるし、全否定することもできる。
しかし、人口、資源、制度、選別というテーマを直視せずに済ませたい人間ほど、その語りに過剰反応する。
ここをわざとごちゃ混ぜにして語るから話が歪む。
AIってのは本来、探索・最適化・分類・予測みたいな判断や処理をやる技術全般の話だろ。
一方で生成AIはそれっぽい出力を大量データから合成するだけの、かなり限定的な用途の道具だ。
にもかかわらず、AI厨はAI様の進化に逆らうなみたいなノリで全部一括りにする。
それ、ただの詭弁な。
で、イラストの話。
イラストは唯一無二なんだよ。
同じテーマ、同じ構図、同じ画材を使っても、描いた人が違えば絶対に同じものにはならない。
それに比べて文章はどうか。
価値がないとまでは言わんが、イラストと同列に語るのは無理がある。
学習って言葉で誤魔化してるけど、実態は既存画像の特徴を分解して再合成してるだけ。
そして一番の問題点。
学習段階で他人の創作物を無断で使い、出力でそれを反映させる以上、逃げ道はない。
「似てないからセーフ」とか「統計的だから問題ない」とか、全部後付けの言い訳だ。
結論な。
。いじめっ子の家庭環境を見ていると、片親家庭で育っている割合が異様に高いことに気づく。もちろん、片親であること自体が問題なのではないし、片親家庭でも愛情深く健全に育つ人はたくさんいる。ただ、それでも統計的・体感的に見て「いじめる側」に回る人間の背景には、家庭内での愛情不足や情緒的な不安定さが存在しているケースが多いのは否定できない事実だと思う。
親から十分な愛情を与えられずに育つと、「自分は大切にされる存在だ」という感覚が育たない。安心して甘えたり、失敗しても受け止めてもらえる経験が少ないと、心の中に慢性的な寂しさや怒り、不安が溜まっていく。でも子どもはその感情をうまく言葉にできないし、ましてや家庭の問題として認識することも難しい。だから、その行き場のない感情は、より弱い立場の他人へと向かってしまう。
いじめは快楽でも強さの証明でもなく、実際には「歪んだ自己防衛」だ。他人を下に置くことで一時的に自分の価値を感じようとし、誰かを傷つけることで「自分は無力じゃない」と錯覚する。そこには余裕も自信もなく、あるのは満たされなかった承認欲求だけだと思う。そう考えると、いじめっ子という存在は、加害者であると同時に、家庭環境の被害者でもある。
ただし、ここで重要なのは「可哀想だから仕方ない」と免罪することではない。どれだけ不遇な環境で育ったとしても、他人を傷つける行為が正当化されることはないし、被害者が受けた苦しみは決して軽くならない。でも同時に、「生まれ育った環境が人格形成に与える影響」を無視して、個人の性格や根性の問題にすべてを押し付けるのも、あまりに乱暴だと思う。
社会はよく、いじめを「子どもの問題」「学校の問題」として処理しがちだけど、本当はもっと根の深い家庭や社会構造の問題でもある。経済的に追い詰められ、精神的な余裕を失った親が、子どもに十分な愛情を注げなくなる。その連鎖の中で育った子どもが、また別の弱い存在を傷つける。これは個人の資質というより、再生産される不幸の構造に近い。
そう考えると、いじめっ子に対して感じるのは、怒りと同時にどうしようもない哀れさだ。愛されるべき時期に愛されず、安心を知る前に他人を攻撃する術を覚えてしまった。その歪みは本人の人生をも蝕み続けるし、決して幸せにはつながらない。誰かを踏みつけないと自分を保てない人生は、あまりにも孤独だ。
いじめを本気で減らしたいなら、罰や指導だけでは足りない。家庭への支援、親へのケア、子どもが無条件に「存在していい」と感じられる場所を増やすこと。その土台がなければ、いじめは形を変えて繰り返されるだけだと思う。いじめっ子を生み出さない社会とは、誰もが最初から追い詰められずに済む社会のことなんじゃないかなって、私は思う😌🫧
リアルで見てるとわかるけど
クレーマーって「シニア男性」とかいうより「終わってる奴」なんだよね
俺が行ってるスポーツクラブのカスハラ常習犯も職歴がふわふわで年齢の割に稼げなくて苦しいだろうなって感じの奴なんよ
若い頃水商売やっててそこでどうもならんくて中年になってからウーバーとかね
スタッフのストレスでかいし利用客とトラブル起こすこともあるし
他に行く場所ねーからカスハラしながらも「もうやめてもらいます」って空気出されると慌ててしがみつくわけ
俺が見た限りのカスハラって例外なく「ああそれはやるでしょうね」って感じに追い詰められてる弱者
「定年後に不安になって~」みたいなのはなんかフェミ松臭い統計的裏付けがない伝説な気がする
女も含めてカスハラって明らかに仕事が終わってて生活がキツい感じの奴なんよ
ちゃんとした仕事で勤め上げた人間が退職したからってカスハラになるとは思えない
アルツハイマーは知らんけど
人類の言語そのものを目的関数としてそれに対して最適化するのがLLMなのだから、人類の認知で到底不可能なことはやりようがないだろう。
一文で本質を突いている。AIの能力限界を構造的に説明している。
今よりもAIが進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日の高級言語みたいなもので思考していた、みたいなオチになるんじゃないんですかね
結論と完全に一致。内部に抽象化レイヤーが生まれるという洞察。
マシン語でエラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。
検証・修正サイクルに意味の単位が必要という話を、実務的な観点から der 表現。
計算機科学について何一つ知らなかったとしても、ニーモニックを無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから、機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。
探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。
抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAIも理解しやすいし、生成しやすい。現在の機械語、アセンブリ、高級言語の階層構造が崩れるとは思えない。
「AIにとっても同じ」という視点が正しい。人間向けとAI向けが乖離しないことを理解している。
「AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味論から組み立てる高級言語の方がそりゃ相性いいでしょうね。
AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話
「AI向け言語は人間にも使いやすいはず」という結論と同じ方向。
CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。
機械語には意味がエンコードされていない、という議論の核心部分。
機械語派は抽象化の力を舐めすぎ。型なし言語はトークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AIを仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。
AIが機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽がさらに発展するとでも思っているんでしょうか?
AI専用言語にせよ機械語を直接出力にせよ、人の持つ高レベルの意図や仕様、アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データが存在しないから難しいというか現実的に無理よなぁ
学習データの観点から。意味構造が保存されたデータがないと学習できない。
「AI がマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AIは人間の言葉より、機械の言葉の方が本当は理解しやすいはずだ」という思い込みから来ているのじゃないかと思っていて
誤解の根源を正確に特定している。
まず機械語を直接記述するメリットがない。現代コンパイラ、インタープリタは超優秀(OSや組み込みの一部だけ)。人類のプログラム資産は高級言語がほとんど。AIの学習先もそれ、よってAIは高級言語で出力するほうが成績が良い
AIが直接機械語を出力すべきか?という話題が流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラやプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり
内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論。
意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語は理解できず、意味の羅列である高級言語こそがむしろ生成AIに最適化されている。
コンパイラって優秀だから、AIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロンの模倣だし。
高レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う
もし仮にAIが機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う
コンパイラとの比較で、AIに機械語を吐かせるメリットのなさを指摘。
機械語は冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存のコンパイラやビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。
自然言語を処理するのがLLMなので、不自然な機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。
AI時代の人間の仕事は、信頼性確約(=こういう理屈で大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。
LLMに機械語を出力させようとするやつは「AIは機械なんだから機械語は簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字が山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂
人間がソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応はGitHubとかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間の意図と機械語の対応は学習データが全然ないからAI作れないように思う
「よく使うロジックを共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語へコンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。
AIは人とのコミュニケーションをいかにスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。
AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする
これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる
ロジックに従っているわけだから、ソースで想定外の挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。
デバッグ実務の観点から。意味の単位がないとデバッグできない。
AIにしか読めない言語より、人類が発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語・中間表現・機械語をデータドリブンに統計的に正しくAIが作るって方向に行かないですかね
AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間がプログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる
「無い」と断じた上で、次の問いを立てている。建設的。
プログラミング言語は人間の認知負荷、記憶量の限界、ミステイク、スパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考。
反論: 完全に逆。プログラミング言語は「人間の限界を補うため」ではなく「意味を構造として保持するため」にある。AIも意味を扱う以上、意味を表現する層が必要。「常考」と言いながら何も考えてない。
シンギュラリティ前夜 アダム(AI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。
反論: SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論で否定されてる誤解そのもの。AIが人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。
なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語は不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。
反論: 「数年は無理だけど、いずれそうなる」の根拠がゼロ。なぜそうなるのか、意味と機械語のギャップをどう埋めるのか、何も説明してない。批判されてる理由を理解してない。
プログラム言語って人間が扱うために自由度を削り取った結果の産物やから、AIに機械語で作ってもらって最適解であれば、現代の言語の宗教感ってほぼほぼ否定されるのです
反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AIも意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造を理解してない。
「まだ」人間が安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAIが機械語出力する事に忌避感を感じるのは論理的とは言えません
反論: コンパイラの出力を読まないのは「コンパイラが検証済みだから」。AIの出力は検証が必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理が破綻してる。
AIが機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。
反論: 「人間が見る必要がなくなったら」という仮定自体が検討されてない。人間が見なくていいとして、AIはどうやって検証・修正するの?意味の単位がない機械語で?その議論が抜けてる。
機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代のAIは機械語ではなくAI用に最適化された人間には読めない言語で思考する、という方向性なのかな。
反論: 「人間には読めない言語」がなぜ生まれると思うのか。AIは人間の認知を模倣してるので、AIにとって扱いやすい言語は人間にも扱いやすい方向に収束する。逆方向には行かない。
中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語が存在するが、AIなら移植性や抽象化不要で中間層をスキップできる。
反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語が存在する」が誤り。意味を扱うために言語が存在する。AIも意味を扱う。
反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証・修正はどうするのか、何も考えてない。
反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家の意見を聞く姿勢があれば良いと思う。
筋の悪い言説に共通するのは:
1. 「高級言語=人間のため」という誤解 - 意味を扱うための構造だと理解してない
2. 「AIは機械だから機械語が得意」という誤解 - AIは人間の認知を模倣してると理解してない
Yahooニュースで見た、「イベルメクチンが癌に有効なのでは」という主旨の記事についてAIに判定してもらう。
https://news.yahoo.co.jp/articles/1dcb9d059bd8e87d2885e7adeab13ad0a3febffd
大カテゴリ: A. 説得・オピニオン
読者の直感(System 1)に訴えかけ、熟慮(System 2)を阻害するような情報提示の有無を分析します。特に医療情報において、権威や感情に訴える表現は注意が必要です。
医療に関する主張であるため、提示されている情報が科学的コンセンサスに基づいているか、エビデンスの質と量が十分か、その提示方法が適切かを評価します。
文章内の主張や推論に矛盾がないか、根拠と結論の間に論理的な飛躍がないかを確認します。特に、限定的な情報から一般化された結論を導いていないかを検証します。
特定の薬や治療法を「ヒーロー」のように描き、その物語性を通じて読者の感情や信頼感に訴えかけようとする意図を分析します。
本文は、読者の直感的な思考(System 1)に強く訴えかけ、熟慮(System 2)を促す客観的かつ詳細な情報提供を意図的に避けている傾向が見られます。「ノーベル生理学・医学賞を受賞した北里大学の大村智博士が発見した」「世界中で数億人以上の人々を救ってきた」「安全性の高い薬です」といったフレーズは、イベルメクチンに対する強い肯定的な感情や信頼感を直感的に抱かせるための、強力なアンカリング効果を生み出します。これにより、読者はその後の主張(がん治療への効果)に対しても、批判的な吟味をせず受け入れやすくなります。また、「私はがん治療の現場に立つ医師として、この薬のがんに対する力を確信しています」という個人的な確信の表明は、発信者の権威を利用した感情的訴求であり、読者のSystem 1をハックする典型的な手法です。
"2015年にノーベル生理学・医学賞を受賞した北里大学の大村智博士が発見した"
"世界中で数億人以上の人々を救ってきました。もともと寄生虫やダニなどに使われてきた安全性の高い薬です。"
"私はがん治療の現場に立つ医師として、この薬のがんに対する力を確信しています。"
イベルメクチンのがん治療における有効性に関する記述は、科学的エビデンスの提示が極めて曖昧で不十分です。「研究結果が世界中で報告されています」「最新の研究では〜わかってきました」「有効性が示唆されています」という表現は、具体的な臨床試験のフェーズ、研究デザイン、対象患者数、統計的有意性、査読の有無など、科学的信憑性を裏付ける重要な情報が完全に欠落しています。また、現時点でのイベルメクチンのがん治療への適応は、大規模なランダム化比較試験によって確立されたものではなく、標準治療として推奨される科学的コンセンサスは存在しません。筆者の「確信」は、個人の経験や観察に基づくものであり、科学的エビデンスとは異なります。参考文献として挙げられている「イベルメクチン 世界の臨床医の証言」も、学術論文ではなく、個人の見解や経験を集めたものである可能性が高く、標準的な科学的根拠としては不十分です。
"この薬が、がん細胞にも作用するという研究結果が世界中で報告されています。"
"最新の研究ではイベルメクチンが、がん細胞の分裂のしくみやエネルギー代謝に影響を与えたり、免疫細胞の働きを活性化させたり、がん細胞の成長を抑制し、特に「がん幹細胞」に対して効果を発揮することがわかってきました。"
"参考:「イベルメクチン 世界の臨床医の証言」:ポール・マリク"
文章全体には、論理的な飛躍と矛盾が見られます。まず、「もともと寄生虫やダニなどに使われてきた安全性の高い薬です」という記述は、過去の用途における安全性が、がん治療という異なる文脈においてもそのまま適用されるかのような印象を与えます。がん治療における長期的な安全性や、抗がん剤としての副作用プロファイルは、寄生虫駆除とは全く異なる基準で評価されるべきです。次に、「副作用もなく」と断言しつつ、その直後に「万能薬とまでは言えません。どんながんにも必ず効くわけではないですし、まだ充分な臨床試験も進んでいはいません」と、主張を限定する表現が続きます。これは、読者に強いポジティブな印象を与えつつ、批判をかわすためのレトリックであり、論理の一貫性に欠けます。未確立な治療法に対して「力を確信しています」と強く主張する一方で、「充分な臨床試験も進んでいはいません」と現状を認める点も、結論と根拠の間に大きなギャップを生じさせています。
"もともと寄生虫やダニなどに使われてきた安全性の高い薬です。"
"副作用もなく、経口薬として使えるため、患者さんの負担も少ない反面、万能薬とまでは言えません。"
"どんながんにも必ず効くわけではないですし、まだ充分な臨床試験も進んでいはいません。しかし私は、イベルメクチンによるがん治療に、明るい可能性を感じています。"
本文は、イベルメクチンを「既存の三本柱(手術・抗がん剤・放射線治療)に代わる、あるいは補完する新たな希望」という元型的なヒーローの物語として提示しようとしています。ノーベル賞受賞者による発見という「起源の物語」と、「世界中で数億人以上を救ってきた」という「偉業の物語」が、この薬を特別な存在として位置づけています。さらに、「がん幹細胞」という難敵に立ち向かう力を持つという記述は、がん治療の最前線で戦う新たな「救世主」としてのナラティブを強化します。この物語構造は、複雑で絶望感を与えがちな「がん治療」というテーマにおいて、読者に単純な希望と解決策を提示し、感情的な共感を呼び起こすことで、イベルメクチンへの期待感を高める効果を狙っています。
"2015年にノーベル生理学・医学賞を受賞した北里大学の大村智博士が発見した寄生虫駆除薬です。"
"世界中で数億人以上の人々を救ってきました。"
"特に「がん幹細胞」に対して効果を発揮することがわかってきました。"
本文章は、未確立な医療情報に対して、特定の薬(イベルメクチン)の有効性を強く推奨するものであり、その情報提示には強い危険性が伴います。
筆者は医師としての肩書と個人的な「確信」を前面に出し、ノーベル賞受賞や過去の実績といった権威性を援用することで、読者の直感(System 1)に訴えかけ、イベルメクチンに対する過度な期待感を煽っています。科学的エビデンスの提示は極めて曖昧であり、がん治療という極めて重大な意思決定に関わる情報としては、信頼性に欠けます。論理的な飛躍や矛盾も散見され、特に「副作用もなく」という断定と、その後の限定的な表現は、読者の誤解を招く可能性があります。
がん治療は、科学的根拠に基づいた標準治療が最も重要であり、未確立な治療法への過度な期待は、患者が適切な治療機会を失うリスクを高めるだけでなく、経済的・精神的な負担を増大させる可能性があります。この文章は、そのような誤った選択を誘導する危険性を内包しています。
結論の骨子(先に要約)
この4点が必要です。
現状の問題: 検察は、要約・抽象的理由、だけを出せばよい。証拠評価・内部判断はブラックボックス
改造案
不起訴の場合:証拠一覧、証拠評価表、法解釈メモ を匿名化したうえで提出義務
改造案
検察審査会に:再捜査の範囲指定権、未実施捜査の実行命令権、を付与
👉“考え直せ”ではなく“これをやれ”
👉 実務上は「ほぼ使われない」
改造案
次の場合は 自動的に強制起訴:高位公職者、検察官・警察官、国策に関わる事件
日本の最大の欠陥: 職権濫用罪はあるが、起訴しない不作為はほぼ不問
改造案
成立要件:明白な犯罪構成要件、十分な証拠、合理的理由なき不起訴、審査会が2回指摘
👉これを満たした場合のみ、懲戒+刑事責任 ※濫用防止のためハードルは高く
改造案
審査会に:元裁判官、元検事(定年後)、弁護士を独立補佐官として常設配置
👉検察OBでも「審査会側の人間」 増田補足●法曹はグルなのであかんと思う
効果は絶大。不起訴率、指摘事項、改善勧告、を国会に提出し公開
審査会の判断理由を分かりやすく公開。市民団体・学者が検証可能に。
👉制度は「使われて初めて抑止力」になる。海外との接続(ここが重要)
アメリカ 大陪審(市民チェック)、韓国 公捜処(検察監視)、台湾 憲法法庭(限定運用)の機能の一部を内包することになります。
日本でスパイ防止法が議論できない最大の理由は、「強い法」より、「止められない検察」が先にあるからです。
逆に言えば:
👉検察審査会を実効化できれば、スパイ防止法は“恐怖の法”ではなくなる
一生男並みに働くってコト?
男向けに設定されたゲームを女がやるようになったおかげで、全体的に女のほうが不利にならないだろうか
まずその男性向けに設定されたゲームとは何のことか具体的に述べてほしいんだが
そこをフワフワっとしたまま「女の方が不利!」とか話の先に進まないでほしい
ただ実際には人生が上手くいっていないのは男のほうが多いようだ
何をもって?
男さん、人生が下手か?
「女が男の人生をやり始めた」←具体的にどういう事象のことかわからねえ
「男向けに設定されたゲーム」←具体的に何を指してるのかわからねえ
「人生が上手くいっていないのは男のほうが多いようだ」←どのような統計的事実の話なのか分からねえ
お前の話はしっかりした足場が一個もない
前提③→謎(主張したいことはわかるが何を根拠事実に問ってるのか不明)
なんか煽ろうとしてるのはわかるけどそもそも煽りに辿り着く主張が意味不明過ぎる
これで何かの主張や会話になると思ってるのがヤバすぎるでしょ
これまでの人生で知能指数80ぐらいまでの友達しかいなかったのがわかる
だってそれ以上の友人がいたら「お前の話は意味わからん」て誰か突っ込んでくれたはずだから
それか意味わからんくても「この子はこういう子だから」ってみーちゃん枠に入れて相槌うってくれてたか
少しでもマシになる第一歩は自分がみーちゃんなの自覚して受容することだと思うんだよな
https://zenn.dev/ryo369/articles/d02561ddaacc62
このあたりを読んで、2026年はコードレビュー「しいや派」と「すんな派」に分かれる年になるんじゃないかと思った。
※「しいや」は「〜したほうがいいよ」ではなく「〜しなさい」のニュアンス
ここでタイトルにジハード(聖戦)と書いたのは、この対立が単なる手法論ではなく価値観の相違だからだ。
しかも、どちらもそれなりに正しい。
しいや派「レビューしないのは無責任だ!AI エージェントは禁止だ!」
すんな派「全部読むのは非現実的だ!AIエージェント使えないとか今の時代にありえない!」