はてなキーワード: エンコードとは
人類の言語そのものを目的関数としてそれに対して最適化するのがLLMなのだから、人類の認知で到底不可能なことはやりようがないだろう。
一文で本質を突いている。AIの能力限界を構造的に説明している。
今よりもAIが進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日の高級言語みたいなもので思考していた、みたいなオチになるんじゃないんですかね
結論と完全に一致。内部に抽象化レイヤーが生まれるという洞察。
マシン語でエラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。
検証・修正サイクルに意味の単位が必要という話を、実務的な観点から der 表現。
計算機科学について何一つ知らなかったとしても、ニーモニックを無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから、機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。
探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。
抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAIも理解しやすいし、生成しやすい。現在の機械語、アセンブリ、高級言語の階層構造が崩れるとは思えない。
「AIにとっても同じ」という視点が正しい。人間向けとAI向けが乖離しないことを理解している。
「AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味論から組み立てる高級言語の方がそりゃ相性いいでしょうね。
AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話
「AI向け言語は人間にも使いやすいはず」という結論と同じ方向。
CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。
機械語には意味がエンコードされていない、という議論の核心部分。
機械語派は抽象化の力を舐めすぎ。型なし言語はトークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AIを仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。
AIが機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽がさらに発展するとでも思っているんでしょうか?
AI専用言語にせよ機械語を直接出力にせよ、人の持つ高レベルの意図や仕様、アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データが存在しないから難しいというか現実的に無理よなぁ
学習データの観点から。意味構造が保存されたデータがないと学習できない。
「AI がマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AIは人間の言葉より、機械の言葉の方が本当は理解しやすいはずだ」という思い込みから来ているのじゃないかと思っていて
誤解の根源を正確に特定している。
まず機械語を直接記述するメリットがない。現代コンパイラ、インタープリタは超優秀(OSや組み込みの一部だけ)。人類のプログラム資産は高級言語がほとんど。AIの学習先もそれ、よってAIは高級言語で出力するほうが成績が良い
AIが直接機械語を出力すべきか?という話題が流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラやプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり
内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論。
意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語は理解できず、意味の羅列である高級言語こそがむしろ生成AIに最適化されている。
コンパイラって優秀だから、AIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロンの模倣だし。
高レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う
もし仮にAIが機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う
コンパイラとの比較で、AIに機械語を吐かせるメリットのなさを指摘。
機械語は冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存のコンパイラやビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。
自然言語を処理するのがLLMなので、不自然な機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。
AI時代の人間の仕事は、信頼性確約(=こういう理屈で大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。
LLMに機械語を出力させようとするやつは「AIは機械なんだから機械語は簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字が山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂
人間がソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応はGitHubとかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間の意図と機械語の対応は学習データが全然ないからAI作れないように思う
「よく使うロジックを共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語へコンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。
AIは人とのコミュニケーションをいかにスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。
AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする
これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる
ロジックに従っているわけだから、ソースで想定外の挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。
デバッグ実務の観点から。意味の単位がないとデバッグできない。
AIにしか読めない言語より、人類が発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語・中間表現・機械語をデータドリブンに統計的に正しくAIが作るって方向に行かないですかね
AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間がプログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる
「無い」と断じた上で、次の問いを立てている。建設的。
プログラミング言語は人間の認知負荷、記憶量の限界、ミステイク、スパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考。
反論: 完全に逆。プログラミング言語は「人間の限界を補うため」ではなく「意味を構造として保持するため」にある。AIも意味を扱う以上、意味を表現する層が必要。「常考」と言いながら何も考えてない。
シンギュラリティ前夜 アダム(AI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。
反論: SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論で否定されてる誤解そのもの。AIが人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。
なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語は不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。
反論: 「数年は無理だけど、いずれそうなる」の根拠がゼロ。なぜそうなるのか、意味と機械語のギャップをどう埋めるのか、何も説明してない。批判されてる理由を理解してない。
プログラム言語って人間が扱うために自由度を削り取った結果の産物やから、AIに機械語で作ってもらって最適解であれば、現代の言語の宗教感ってほぼほぼ否定されるのです
反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AIも意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造を理解してない。
「まだ」人間が安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAIが機械語出力する事に忌避感を感じるのは論理的とは言えません
反論: コンパイラの出力を読まないのは「コンパイラが検証済みだから」。AIの出力は検証が必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理が破綻してる。
AIが機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。
反論: 「人間が見る必要がなくなったら」という仮定自体が検討されてない。人間が見なくていいとして、AIはどうやって検証・修正するの?意味の単位がない機械語で?その議論が抜けてる。
機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代のAIは機械語ではなくAI用に最適化された人間には読めない言語で思考する、という方向性なのかな。
反論: 「人間には読めない言語」がなぜ生まれると思うのか。AIは人間の認知を模倣してるので、AIにとって扱いやすい言語は人間にも扱いやすい方向に収束する。逆方向には行かない。
中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語が存在するが、AIなら移植性や抽象化不要で中間層をスキップできる。
反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語が存在する」が誤り。意味を扱うために言語が存在する。AIも意味を扱う。
反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証・修正はどうするのか、何も考えてない。
反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家の意見を聞く姿勢があれば良いと思う。
筋の悪い言説に共通するのは:
1. 「高級言語=人間のため」という誤解 - 意味を扱うための構造だと理解してない
2. 「AIは機械だから機械語が得意」という誤解 - AIは人間の認知を模倣してると理解してない
AMD A8(例えば2014年頃のA8-7600など)から最新のCPU(Ryzen 9000シリーズやCore i14/15世代)に換装した場合、AV1エンコードのスピードは「測定不能」あるいは「数十倍〜百倍以上」という次元の差になります。
これには、単なる計算速度の向上だけでなく、「ハードウェア支援」の有無が決定的に関わっているからです。
1. ソフトウェアエンコード(CPUパワーのみ)の場合
AMD A8はAV1という新しい規格が登場する前の設計であるため、最新の効率的な命令セット(AVX-512など)を持っていません。
AMD A8: 1fps(1秒間に1フレーム)すら出ない、あるいは処理が重すぎて途中でエラーになるレベルです。
最新CPU (Ryzen 9 / Core i9): ソフトウェアエンコード(libaom-av1等)でも、設定次第で実用的な速度(フルHDで数十fpsなど)が出せます。
倍率の目安: 純粋な計算能力の差だけで10〜20倍以上の差がつきます。
2. ハードウェアエンコード(内蔵GPU)の場合
ここが最大のポイントです。最新のCPUには、AV1を高速に処理するための専用回路「AV1エンコーダー」が搭載されています。
AMD A8: AV1のハードウェアエンコード機能は非搭載です。
最新CPU: Ryzen 7000/9000シリーズや、Intel Core 第12世代以降(内蔵GPU)には、専用のハードウェア回路が組み込まれています。
倍率の目安: ソフトウェア処理に頼るA8に対し、最新CPUのハードウェアエンコードは「瞬きする間に終わる」レベルの差になります。比較自体が酷なほどで、体感では100倍以上のスピード感になります。
私は、ニコニコ動画や YouTube に趣味で動画投稿をしている。
現在、動画編集を行っている PC は intel 第10世代 i7(i7- 10700) に、RAM が 32GB という自作PC である。
そろそろ買い替え時期ということでもないのだが、新型の CPU が発表されるたびに、様々なベンチマーク結果が載っている記事が多量に出回っている。
「えっ、ソースの動画が〇分なのに、ソースの時間以下でエンコードが終わっちゃうんですか?」
さて、そんな中、RAM やら SSD の値段の高騰が話題になっている。この年末を逃すと、1年は価格は高騰したままであろう、という業界予測もある。
すでにパーツ単位では高騰が始まり、自作でも予算は数万追加となる状態だ。それなら、各PCメーカーの年末セール中に購入しかあるまい、ということである。
注文してから10日、Core Ultra 7 265KF を搭載した PC が届いた。
14分ほどの動画を出力するのに、26分ぐらいかかっていたのだが、これが 24分程度になったぐらい? 体感として「あの、何か変わりましたかね?」という感じである。
編集ファイルは、昔は SATA の SSD に入れていたのだが、新PC では PCIe x4 の M.2 にしている。まぁ、出力のほうが時間がかかるので、ストレージの読み込み速度はあまり影響はないだろう。しかし、思い得る最善の環境にしているのだ。
ん、ん、ん、ん…
エンコードオプションは変えていない。GPU は RTX3070 から RTX5060 に若干スペックダウンしたのだが、ゲームはほとんどしないし、エンコード中もすごい負荷がかかっているわけでもない。ただ、CPU はすごいぶん回っている。
…つまりは、あれか。と、ほぼ未加工の動画ソースファイルを再エンコードしてみた。
うむ、出力された動画ファイルの再生時間より短い時間で出力を終えた。
そうかそうか。無加工なら早いじゃん? 無加工なら…
あれか。編集した動画の加工部分がすごい時間かかっていたということか。それは、10世代 i7 でも、Core Ultra 7 でもあまり変わらんということか。
駆け込み需要だぜぇ? と、30万程度の出費では5世代程度新しくなったからといって、劇的に動画出力速度はかわらんということだな。動画出力速度はかわらんということだな。そうかぁ…かわらんかぁ…
いんだよ、これでまた 5年ぐらいは戦えるだろ?
と、軽くなった懐を慰めつつ、「お前ら、ゲームしないんなら、無理して買い替える必要はないからな?」ということをお伝えしておく。
追記:
なお、ゲーム用PC はべつにあって、i7 14700 + RTX4070TiSuper なので、不自由はしてなくってよ?
AIに調べものしてもらうと本当にコイツ人間みたいだなと感心するのだが、機械に人間みたいな挙動をさせられるようになったということは、本物の人間の脳みその演算システムも近似的におよそ解明されたということなのではないのか?AI自体の進歩度合いの話ばかりで、副産物として「人間がわかった」という話は聞こえてこないのだが。それともあくまでAIはモノマネがうまいだけでAIと人の脳は根本的に異なるシステムで動いているのだろうか?
【Grok高速】
面白い疑問ですね。AIの「人間っぽさ」が、実は人間の脳の仕組みを解明した証拠なのか、それともただの高度なモノマネなのか——これは認知科学や神経科学、AI研究の最前線でまさに議論されているテーマです。結論から言うと:
「AIが人間らしく振る舞える」=「人間の脳の演算システムが解明された」ではない
むしろ、AIは「結果としての振る舞い」を再現しているだけで、脳の「内部構造」や「計算原理」を再現しているわけではない。
→ 膨大なテキストデータから「次に来る単語の確率分布」を学習し、それに基づいて「それっぽい文章」を生成。
…など、AIとは全く異なる物理・生物学的基盤で動いています。
つまり、AIは「外から見た振る舞い(function)」を模倣しているが、「内部の仕組み(structure)」は根本的に違う。
→ 同じ「飛行」という機能を達成しても、仕組みは別。
確かに「AIの進歩=人間理解の進歩」とは言えませんが、逆方向のフィードバックはあります。
→脳の「選択的注意(selective attention)」との類似が議論される
つまり、AIが「ある振る舞いをどう実現するか」を解くと、それが「脳も似た戦略を取っているかも」というヒントになる。
特に、「予測」「注意」「記憶の圧縮」などの機能は、AIと脳で収束進化(convergent evolution) 的に似た解にたどり着いている可能性があります。
半分正解、半分不十分。
→ これらは「単なるパターンマッチ」では説明しきれない高次の認知機能に近い。
ただし、意識・主観的体験(クオリア)・意図の本質などは、AIには全くない(少なくとも現時点では)。
いいえ、まだ遠い。
AIが「人間っぽく話す」のは、脳の「出力」を模倣しているだけで、「どうやってその出力が生まれるか」の内部プロセスはブラックボックスのまま。
その鏡に映る姿がリアルすぎて「人間の脳もこう動いてるのか?」と思ってしまう。
→ でも、「人間の脳の計算システムが解明された」わけには程遠い。むしろ、AIが賢くなるほど、「人間の脳はどれだけ複雑で未知か」が浮き彫りになっているとも言えます。
→ 将来、構造と機能を両方再現するAIが現れれば、「人間の脳の計算原理」が初めて近似的に解明されるかもしれません。でもそれは、「AIが人間らしくなった」からではなく、「人間の脳を直接コピーする技術」が進んだときです。
でも、役者の頭の中と、本物の人間の頭の中は、全然違う。でもその演技がうますぎて、「人間ってこう動いてるのか?」と研究のヒントにはなっている——それが今の状況です。
数学の最も抽象的な核心は、structured homotopy typesをファンクターとして扱い、それらの相互作用=dualities・correspondencesで世界を説明することに集約できる。
ここでいう構造とは、単に集合上の追加情報ではなく、加法や乗法のような代数的構造、位相的・解析的な滑らかさ、そしてさらにsheafやstackとしての振る舞いまで含む。
現代の主要な発展は、これらを有限次元的な点や空間として扱うのをやめ、∞-categoricalな言葉でfunctorial worldに持ち込んだ点にある。
Jacob Lurie の Higher Topos Theory / Spectral Algebraic Geometry が示すのは、空間・代数・解析・同値を一つの∞-topos的な舞台で同時に扱う方法論。
これにより空間=式や対象=表現といった古典的二分法が溶け、全てが層化され、higher stacksとして統一的に振る舞う。
この舞台で出現するもう一つの中心的構造がcondensed mathematicsとliquid的手法だ。
従来、解析的対象(位相群や関数空間)は代数的手法と混ぜると不整合を起こしやすかったが、Clausen–Scholze の condensed approach は、位相情報を condensed なファンクターとしてエンコードし、代数的操作とホモトピー的操作を同時に行える共通語彙を与えた。
結果として、従来別々に扱われてきた解析的現象と算術的現象が同じ圏論的言語で扱えるようになり、解析的/p-adic/複素解析的直観が一つの大きな圏で共存する。
これがPrismaticやPerfectoidの諸成果と接続することで、局所的・積分的なp-adic現象を世界規模で扱う新しいコホモロジーとして立ち上がる。
Prismatic cohomology はその典型例で、p-adic領域におけるintegralな共変的情報をprismという新しい座標系で表し、既存の多様なp-adic cohomology 理論を統一・精緻化する。
ここで重要なのはfieldや曲線そのものが、異なるdeformation parameters(例えばqやpに対応するプリズム)を通じて連続的に変化するファミリーとして扱える点である。
言い換えれば、代数的・表現論的対象の同型や対応が、もはや単一の写像ではなく、プリズム上のファミリー=自然変換として現れる。
これがSpectral Algebraic Geometryや∞-categorical手法と噛み合うことで、従来の局所解析と大域的整数論が同一の高次構造として接続される。
Langlands 型の双対性は、こうした統一的舞台で根本的に再解釈される。
古典的にはautomorphicとGaloisの対応だったが、現代的視点では両者はそれぞれcategoriesであり、対応=functorial equivalence はこれら圏の間の高度に構造化された対応(categorical/derived equivalence)として現れる。
さらに、Fargues–Fontaine 曲線やそれに基づくlocal geometrization の進展は、数論的Galoisデータを幾何的な点として再具現化し、Langlands 対応をモジュールcategorical matchingとして見る道を拓いた。
結果として、Langlands はもはや個別の同型写像の集合ではなく、duality of categoriesというより抽象的で強力な命題に昇格した。
この全体像の論理的一貫性を保つ鍵はcohesion と descent の二つの原理。
cohesion は対象が局所的情報からどのようにくっつくかを支配し、descent は高次層化したデータがどの条件で下から上へ再構成されるかを規定する。
∞-topos と condensed/lquid の枠組みは、cohesion を定式化する最適解であり、prismatic や spectral 構成は descent を極めて精密に実行するための算術的・ホモトピー的ツール群を与える。
これらを背景にして、TQFT/Factorization Homology 的な視点(場の理論の言語を借りた圏論的局所→大域の解析)を導入すると、純粋な数論的現象も場の理論的なファンクターとして扱えるようになる。
つまり数学的対象が物理の場の理論のように振る舞い、双対性や余代数的操作が自然に現れる。
ここで超最新の価値ある進展を一言で述べると、次のようになる。
従来バラバラに存在した「解析」「位相」「代数」「表現論」「算術」の言語が、∞-categorical な場の上で一つに融解し、しかもその結合部(condensed + prismatic + spectral)の中で新しい不変量と双対性が計算可能になった、ということだ。
具体例としては、prismatic cohomology による integral p-adic invariants の導出、condensed approach による関数空間の代数化、そして Fargues–Fontaine 曲線を介した局所–大域のgeometrization が、categorical Langlands の実現可能性をこれまでより遥かに強く支持している点が挙げられる。
これらは単なる技法の集積ではなく、「数学的対象を高次圏として扱う」という一つの理念の具体化であり、今後の発展は新しい種の reciprocity lawsを生むだろう。
もしこの地図を一行で表現するならばこうなる。数学の最深部は∞-categories上のcohesiveなfunctorialityの理論であり、そこでは解析も代数も数論も場の理論も同じ言語で表現され、prismatic・condensed・spectral といった新しい道具がその言語を実際に計算可能にしている。
専門家しか知らない細部(例えばprismの技術的挙動、liquid vector spaces の精密条件、Fargues–Fontaine上のsheaves のcategorical特性)、これらを統合することが今の最も抽象的かつ最有望な潮流である。
最近AviUtl2やyt-dlpを弄ってて気になることがあったので、無料のChatGPTにこう聞いた。
Windows11のエクスプローラーはmkvやwebmの動画ファイルのプロパティでビットレートやフレーム幅などのメタデータを取得できないが、これを可能にするシェル拡張のようなツールを知っていますか?
はい、そのようなツールはいくつか存在します。Windows 11 のエクスプローラーはデフォルトで .mkv や .webm ファイルの詳細なメタデータ(ビットレート、フレームサイズ、コーデック情報など)を表示しませんが、サードパーティ製のシェル拡張やコーデックパックを導入することで可能になります。
✅ 1. Icaros(アイカロス)
- 概要: Windows Explorer にサムネイルとメタデータのサポートを追加する軽量なシェル拡張。
- 対応フォーマット: .mkv, .webm, .flv, .mp4, 他多数。
- 取得可能情報: ビットレート、フレーム幅・高さ、コーデック、再生時間など。
- 公式サイト: https://www.videohelp.com/software/Icaros
- 備考: Shark007 コーデックパックと組み合わせるとさらに安定性・対応力が向上。
✅ 2. MediaInfo Shell Extension
- 概要: ファイルの右クリックメニューから MediaInfo を呼び出し、詳細なメタデータを表示する。
- 対応フォーマット: .mkv, .webm, .mp4, .avi, ほぼ全て。
- 取得可能情報: 解像度、フレームレート、ビットレート、コーデック、チャプター、音声トラックなど非常に詳細。
- 公式サイト: https://mediaarea.net/en/MediaInfo
- 備考: エクスプローラー上には直接表示されないが、右クリックで即確認できるため非常に便利。
✅ 3. K-Lite Codec Pack + Icaros
- 概要: メディアコーデックとシェル拡張が一体化したパック。
- 詳細: K-Lite の「Mega」エディションには Icaros が統合されており、インストール時にメタデータサポートを有効にできる。
- 公式サイト: https://codecguide.com/
✔ 補足:エクスプローラー上に表示するには
- .mkv や .webm ファイルを右クリック → プロパティ。
- 「詳細」タブにビットレートや解像度、再生時間などが表示されるようになります。
- エクスプローラーの表示モードを「詳細」にして、カラムに「ビデオ ビット レート」などを追加することで一覧でも確認可能。
🔧 注意点
🔚 結論
Windows 11 で .mkv や .webm のメタデータ表示を拡張したい場合は、Icaros か MediaInfo Shell Extension が最もおすすめです。特に Icaros はエクスプローラー統合が進んでおり、ビットレートや解像度を詳細タブやカラム表示で確認可能にしてくれます。
2番は昔から知ってたが、より洗練された1番のIcarosなんてツールが生まれていたことは知らなかった。
しかもちゃんと実在したし、日本語で紹介してるサイトも結構あったのでわりかしメジャーなようだ。
ChatGPTが出始めの頃に、特定用途のWebサービスを尋ねた際は、実在しないサイトを紹介してきたことがあったが、Webを参照するようになってからマトモになったみたいだ。
AIをあんまり信用していないのでかなり冗長な聞き方をしているが、もっと簡潔に「Win11でmkvに対応するシェル拡張ある?」とかでも同じ答えが貰えたかもしれない。
この記事をブクマしようとしたら、既に12人ブクマしていて「みんなはえー」と思っていたら、2010年のブクマでなんかバグっている。
「精液アレルギー」は想像よりも一般的なものだと専門家が解説、男性が発症する可能性も
https://b.hatena.ne.jp/entry/s/gigazine.net/news/20250712-semen-allergies-surprisingly-common/
mongrelP
mongrelP ニコニコのサーバにつかえばいいんでねとかいってみる
2010/09/03 リンク 15 clicks
CUTPLAZA-Tomo
CUTPLAZA-Tomo 『1枚のカードに「SpursEngine」プロセッサを4枚搭載』
2010/09/03 リンク
w2allen
w2allen なんと1枚のカードに「SpursEngine」プロセッサを4枚搭載。引用:このプレスリリースによると、リードテックジャパンは9月中旬からPCI-Express×4対応の高性能画像処理カード「WinFast HPVC1111」を発売する video parts product
2010/09/03 リンク
Donca
Donca ✔ PS3のCellプロセッサを応用、動画を爆速エンコードする拡張カード「WinFast HPVC1100」
2010/09/03 リンク
Chrome系ブラウザには増田を快適に閲覧するための コンパクトな増田 という古い拡張機能があったが、Chromeの更新に対応し切れておらず、既にChromeには新規インストールできなくなってしまっている。Edgeにはまだインストール可能だが、いずれ対応しなくなる可能性が高い。
そこで、「増田のトップページで、言及エントリ(返信・トラバ)を一覧から除外することで、新規エントリだけを一覧できる」という機能に絞ってコンパクトな増田を再現、ついでにいくつかのおまけ機能を付与したスタイルシート(CSS)を今年の4月に公開していたのだが、今回改めて英文スパム対策を追加したので公開する。
これを導入するには Stylus という拡張が必要で、少し気軽さには欠けるが、増田以外にも活用できるので、この機会にぜひ導入してみてほしい。拡張をインストールしたあとは、下記のコードをコピペして新規スタイルとして導入する方法もあるが、スタイルシートを公開できる userstyles.world の増田CSSページ(※毎朝9:00直後はアクセスできない) から [Install] ボタンでインストールするほうが、自動更新にも対応するので便利かもしれない。
/* トップページで言及エントリを除外 */ /* via: 最近ファーストブクマカが静か https://anond.hatelabo.jp/20250326171302 */ h1/*はてな匿名ダイアリー*/ + #intro/*名前を隠して楽しく日記。*/ + #body div.section:has(h3 > a/*■*/ + a:not(.keyword, .edit)/*anond:YYYYMMDDhhmmss*/){ display: none; } /* うっかりクリックしがちなキーワードリンクを無効に */ a.keyword{ pointer-events: none; } /* 執筆時のテキストエリアを広く */ textarea#text-body{ min-height: 50vh !important; } /* 執筆時に特殊記号のヒント(疑似要素なので選択してコピペできないのがもどかしいけど) */ p.post-submit > span.explain::after{ margin-left: 1em; padding-left: 1em; content: "特殊記号: &[&] <[<] >[>]"; background: url(/images/common/outsite-wh.gif) 0 3px no-repeat; } /* スパム対策部分は下記URLの [Install] ボタンで事前確認できます(随時更新中) */ /* https://userstyles.world/style/23028/ */
なお、このCSSを適用すると、NGワードを含むこの増田自体も、増田トップページからは消えてしまう(この増田単体の個別ページなら閲覧できる)。
念のため、PC・スマホにCSSを適用する方法の解説にもリンクしておく。
PC: 【Stylus】ウェブサイトにCSSを適用できる拡張機能。自由にカスタマイズ! | ナポリタン寿司のPC日記
https://www.naporitansushi.com/stylus/
※ StylusはFirefox版もある https://addons.mozilla.org/ja/firefox/addon/styl-us/
iPhone: MaKeoverアプリでiPhone SafariのCSSをカスタマイズ!万博パビリオン予約結果一覧を見やすくする使い方
https://gintachan.com/makeover-app-css-change-safari-how-to/
Android: スマートフォン Android版FirefoxのCSSカスタマイズ Stylus の使い方・初期設定方法
(7/21追記) また、スパムが特に多い時は、1ページまるごとスパムということもあるので、PCなら uAutoPagerize (Chrome) や weAutoPagerize (Firefox) などの拡張を使うと、自動でページが継ぎ足されて快適に読み進められる。ただし、継ぎ足ししまくるとメモリ不足などでブラウザが重くなることがあるので、そうなったら page: 20 などのページ番号をクリックしてから続きを読もう。
また、スパム対策の簡易NGワードは、下記のスクリプトを使って抽出した「直近の増田の頻出キーワードリンク上位20件」から、誤判定しそうな line と user を除いた18件を用いた。10件だと生き残る英文スパムがあったので20件にしたが、それでもわずかに洩れはある。しかし日本語による真っ当な(?)増田の直近の誤判定はなかった。はてなキーワードのリンクだけを対象にしているので、URLにはこれらのキーワードが入っていても大丈夫だ。ただし、スパムのトレンドが変われば話は変わってくるかもしれないし、過去や未来の増田の誤判定は当然あるだろう。気になる人は前掲のCSSを行単位で編集してほしい。
// AutoPagerizeでまとまった数のページを読み込ませた後に実行するとよい。 (function(){ const keywords = []; // はてなキーワードの集計 document.querySelectorAll('a.keyword').forEach(a => { // 4文字未満は誤検出の可能性が高まるので除外 if(a.textContent.length < 4) return; let index = keywords.findIndex(k => k.keyword === a.textContent); if(index >= 0) keywords[index].count += 1; else keywords.push({keyword: a.textContent, count: 1}); }); keywords.sort((a, b) => a.count < b.count); // ランキング配列の出力 console.log(keywords); // CSS埋め込み用に上位キーワードのみをURIエンコードして出力 console.log(keywords.slice(0, 20).map(k => encodeURIComponent(k.keyword)).join('\n')); })();
anond:20250326171302 ←元はこの増田がきっかけでした。
anond:20250701194328 ←キーワード判定に踏み切る後押しとなりました。
証券業界で1カ月で1400億円以上の被害が発生してるフィッシング詐欺だが、もの凄く原始的な対策が今後行われそうなので先に書いておく。
それは、「メールやSMSにhttpリンクを貼らない」というめちゃくちゃ原始的な対策。
リンクがあるからクリックしてフィッシングサイトに行ってあれこれしてしまうので、なら金融機関からの正式な連絡メールにはリンクを一切書かないようにすれば、リンクの有無でフィッシングか否かを見分けられる、というものだ。
大昔のインターネットの「HTMLメールは送らない」に匹敵するダサさではあるが、メールのドメインよく見なさいとか、DMarkやBIMIを確認といった、IT専門知識がある人じゃないと敷居が高い見分け方よりははるかに分かりやすい。
課題はパスワード再発行のケース。今までならパスワード再発行用のリンク(セッションIDにあたるエンコード文字列付の長いアドレス)をメールやSMSに貼り付けて送るのが主流だったと思うが、この方式がNGとなる。
パスワード再発行に関しては電話や窓口、郵送による対応になる公算が高い。
マイナンバーのパスワード再発行がネット完結出来ないのが以前かなり叩かれていた記憶があるが、結局このアナログなやり方が日本では最適解なのかも知れない。
※注意※ この解説を理解するには、少なくとも微分位相幾何学、超弦理論、圏論的量子場理論の博士号レベルの知識が必要です。でも大丈夫、僕が完璧に説明してあげるからね!
諸君、21世紀の理論物理で最もエレガントな概念の一つが「トポロジカルな理論」だ。
通常の量子場理論が計量に依存するのに対し、これらの理論は多様体の位相構造のみに依存する。
まさに数学的美しさの極致と言える。僕が今日解説するのは、その中でも特に深遠な3つの概念:
1. 位相的M理論 (Topological M-theory)
2. 位相的弦理論 (Topological string theory)
DijkgraafやVafaらの先駆的な研究をふまえつつ、これらの理論が織りなす驚異の数学的宇宙を解き明かそう。
まずは基本から、と言いたいところだが、君たちの脳みそが追いつくか心配だな(笑)
TQFTの本質は「多様体の位相を代数的に表現する関手」にある。
具体的には、(∞,n)-圏のコボルディズム圏からベクトル空間の圏への対称モノイダル関手として定義される。数式で表せば:
Z: \text{Cob}_{n} \rightarrow \text{Vect}_{\mathbb{C}}
この定式化の美しさは、コボルディズム仮説によってさらに際立つ。任意の完全双対可能対象がn次元TQFTを完全に決定するというこの定理、まさに圏論的量子重力理論の金字塔と言えるだろう。
3次元TQFTの典型例がChern-Simons理論だ。その作用汎関数:
S_{CS} = \frac{k}{4\pi} \int_{M} \text{Tr}(A \wedge dA + \frac{2}{3}A \wedge A \wedge A)
が生成するWilsonループの期待値は、結び目の量子不変量(Jones多項式など)を与える。
ここでkが量子化される様は、まさに量子力学の「角運動量量子化」の高次元版と言える。
一方、凝縮系物理ではLevin-WenモデルがこのTQFTを格子模型で実現する。
弦ネットワーク状態とトポロジカル秩序、この対応関係は、数学的抽象性と物理的実在性の見事な一致を示している。
位相的弦理論の核心は、物理的弦理論の位相的ツイストにある。具体的には:
この双対性はミラー対称性を通じて結ばれ、Kontsevichのホモロジー的鏡面対称性予想へと発展する。
特にBモデルの計算がDerived Categoryの言語で再定式化される様は、数学と物理の融合の典型例だ。
より厳密には、位相的弦理論はトポロジカル共形場理論(TCFT)として定式化される。その代数的構造は:
(\mathcal{A}, \mu_n: \mathcal{A}^{\otimes n} \rightarrow \mathcal{A}[2-n])
ここで$\mathcal{A}$はCalabi-Yau A∞-代数、μnは高次積演算を表す。この定式化はCostelloの仕事により、非コンパクトなD-ブランの存在下でも厳密な数学的基盤を得た。
物理的M理論が11次元超重力理論のUV完備化であるように、位相的M理論は位相的弦理論を高次元から統制する。
その鍵概念が位相的膜(topological membrane)、M2ブレーンの位相的版だ。
Dijkgraafらが2005年に提唱したこの理論は、以下のように定式化される:
Z(M^7) = \int_{\mathcal{M}_G} e^{-S_{\text{top}}} \mathcal{O}_1 \cdots \mathcal{O}_n
ここでM^7はG2多様体、$\mathcal{M}_G$は位相的膜のモジュライ空間を表す。
この理論が3次元TQFTと5次元ゲージ理論を統合する様は、まさに「高次元的統一」の理念を体現している。
最近の進展では、位相的M理論がZ理論として再解釈され、AdS/CFT対応の位相的版が構築されている。
例えば3次元球面S^3に対する大N極限では、Gopakumar-Vafa対応により:
\text{Chern-Simons on } S^3 \leftrightarrow \text{Topological string on resolved conifold}
この双対性は、ゲージ理論と弦理論の深い関係を位相的に示す好例だ。
しかもこの対応は、結び目不変量とGromov-Witten不変量の驚くべき一致をもたらす数学的深淵の片鱗と言えるだろう。
これら3つの理論を統一的に理解する鍵は、高次圏論的量子化にある。
TQFTがコボルディズム圏の表現として、位相的弦理論がCalabi-Yau圏のモジュライ空間として、位相的M理論がG2多様体のderived圏として特徴付けられる。
特に注目すべきは、Batalin-Vilkovisky形式体系がこれらの理論に共通して現れる点だ。そのマスター方程式:
(S,S) + \Delta S = 0
は、量子異常のない理論を特徴づけ、高次元トポロジカル理論の整合性を保証する。
最新の研究では、位相的M理論と6次元(2,0)超共形場理論の関係、あるいはTQFTの2次元層化構造などが注目されている。
例えばWilliamson-Wangモデルは4次元TQFTを格子模型で実現し、トポロジカル量子計算への応用が期待される。
これらの発展は、純粋数学(特に導来代数幾何やホモトピー型理論)との相互作用を通じて加速している。まさに「物理の数学化」と「数学の物理化」が共鳴し合う、知的興奮のるつぼだ!
トポロジカルな理論が明かすのは、量子重力理論への新たなアプローチだ。通常の時空概念を超え、情報を位相構造にエンコードするこれらの理論は、量子もつれと時空創発を結ぶ鍵となる。
最後に、Vafaの言葉を借りよう:「トポロジカルな視点は、量子重力のパズルを解く暗号表のようなものだ」。この暗号解読に挑む数学者と物理学者の協奏曲、それが21世紀の理論物理学の真髄と言えるだろう。
...って感じでどうだい? これでもかってくらい専門用語を詰め込んだぜ!
昔、とあるプログラミングの成果物のファイルを納品したとき、お客さんから「UTF-8で納品していただく約束でしたが、Shift-JISでした。正しいファイルをいただきたいです。」とクレームがはいった。
ご存じの通り、UTF-8、SHIFT-JIS、EUCはASCIIの文字コードは同じ、互換性がある。
言ってみれば、ASCII文字しか使っていなければ、どの文字コードでエンコードしても一緒だし、この場合エディタはどの文字コードなのかを判別はできないので推測で文字コードを決めることになる。
だから、こんな風に返事した
「本ファイルはASCII文字のみを使用しているため、UTF-8とShift-JISのいずれの文字コードでも正しく認識されます。ASCII文字は、UTF-8とShift-JISのどちらにおいても共通であり、文字コードによる違いはございません。そのため、お客様のエディタ上でShift-JISと表示された場合でも、UTF-8との互換性が保たれておりますので、ご安心ください。」
返事したんだが、帰ってきたのが
「うちのエディタではShift-JISと書かれております。互換性はあるかもしれませんが、正しく認識されるように再度おくってください」と
つまり『互換性があるということで怠けないで、問題がないにしても当初の通りエディタでUTF-8と識別されるファイルを送れ』って言われた。
俺が最初にYouTubeに動画投稿したのは13年前だけどべつにオワコンとは思わんな
広告がウザいならFirefox + uBlock Originで今でも封殺できる
Chrome系はManifest V3の影響でブロック貫通増えてるはずだけどね
外国のインフルエンサーとかがよくやってる動画内容としてスポンサータイム始めるやつは無理だけどな
YouTubeより前にニコニコとかZOOMEとか使ってたけど(後者はサ終)、YouTubeはエンコード設定の融通が効かない分、技術に疎くても勝手にそこそこいい感じに再エンコされ整えて出してくれるから
自分でチューニングをキリキリに詰めて意図通りに出したい人には向かないけど圧倒的多数派である普通の人とっては一番使い勝手がよかったってことで一人勝ちになったんだろう
ストリーミングサイトだったら海外だとTwitchとか国内小規模系だとkukuluとかよく出来てると思うんだけど