「コンパイラ」を含む日記 RSS

はてなキーワード: コンパイラとは

2026-01-11

個人開発・フリーランス起業・有名OSS・国際会議への採択どれも成功してない新卒がやってきたんだけど何コレ?

何、コレ?

 

LLVMコンパイラすら書けないんだけど何これ

今の大卒ってこんな無能ばっかなん?

2026-01-10

anond:20260109125514

XでもAI驚き屋のバカが「LLMはコンパイラを呼び出して出力すれば機械語を出力できるんだからLLMが機械語を出力するのを批判してるやつはおかしい」とかほざいてんだよな

話にならないようなバカしか言ってないからバズってもいなくて「機械語を出力する」なんて言うかボケっていうツッコミは誰もしてないけども

2026-01-09

anond:20260109125514

逆方向、生成AIバイナリを「読む」未来は来る。というか知っている範囲では検証はされている、製品として売られているかは知らない。セキュリティ会社とかだと多分公開しない。メーカー系も公開しない。

実際は、バイナリを直接読むんじゃなくて逆汗したasmを逆コンパイルするのにLLMを使う系。既存でも逆コンパイラはあるけれどもっといい感じに読みやすくしようというやつ。

ふと思ったけれど、ターゲット限定して特定の難読化ツールの逆トランスレーターのファインチューニング千万ていどなら、ハッカーとか金出して作りそう

生成AIバイナリを書く未来は、来ないとは思うが、今も普通にできる

生成AIが直接機械語バイナリを出力するようになるのではないか、という問いは本質的に間違っている。

自分は、まだ素朴なニューラルネットワーク光学文字認識(OCR)の精度を出していた頃から似たようなことを考えていたので、少し他人よりも蓄積がある。

これは、Large Language Model(LLM)を開発する企業資金を集めるために多少誇張した未来を語るという文脈では大目に見た方が良いが、正確性に欠ける。

本質的な問いは、なぜ我々は、ノイマンコンピュータを用いて、主記憶に置かれたプログラムCPUを用いて実行する形式をとるのか、というものである

まず、筋の悪い反論から説明し、妥当反論にも触れたうえで、本質的に問うべき課題説明する。

生成AIを含むAIは、十分な人間データが無いと学習が出来ないのか?

これは明確に、いいえ、と答えることが出来る。

最初こそ人間による補助は必要だが、LLMを含むAIは明確な目標があれば人間データなしでも十分に学習することが出来る。

これは身近なところでは将棋、有名なものだと囲碁実証された研究存在する。

そのため、単純に「機械語人間による学習データが少ないので扱いが難しいだろう」という反論は成立しない。

そういったものはLLMではないだろうという指摘は可能だが、LLMでそういったAIを出力することは限定的とはいえ現在でもできる。将来できないと言うだけの論拠にはならない。

プログラミング言語は、自然言語から曖昧さを無くすために必要ものか?

これは限定的に、はい、と答えることができる。

英語に限った話ではなく、人間意思疎通に用いる言語である自然言語(natural language)は、曖昧さやばらつきがある。

これを形式言語(formal language)という、曖昧さを無くして語彙や文法限定した言語記述しなおすことで、厳密にする手法がある。

この形式言語での表現が、アルゴリズムデータ構造になり、現代ノイマンコンピュータにおけるプログラムのものと言うことが出来る。

なぜ限定的かと言えば、形式言語一種であるプログラミング言語には曖昧さが許容されているかである

ほとんどのプログラミング言語では、同じ目的を達成する為に複数記述が許容されている。

主に、人間が書きやすいから、とか、複数人間で書きやすいように、といった理由で、曖昧さが許容されている。

そのため、機械命令するためには厳密さが必要からプログラミング言語必要だ、と言う反論妥当ではあるが、弱い。

人間監査するためにはプログラミング言語である必要があるのではないか

こちらも限定的に、はい、と答えることが出来る。

なぜ大統一プログラミング言語のように、自然言語意図機械に伝えるための形式言語一種類になっていないかと言えば、人間認知能力には限界があるからだ。

そのため、簡易で曖昧さを含むために最適化はできないが十分な性能を持つプログラミング言語や、非常に複雑で記述量も多くなるが大人数で作業するには最適なプログラミング言語などが複数存在する。

これらはいずれも、人間が楽に記述できる形式言語であったり、人間同士が齟齬なくコミュニケーションを取るために必要形式言語である

ありていに言って、人間人間たちが理解可能形式言語でないと機械にその意図を伝えることが出来ないから、と言える。

ただし、コンパイラから出力されたニーモニックLLVM-IR監査できる人間現代では非常に少なく、現状ほぼ監査なく受け入れていると言って良い。

何故非常に少なくなったかと言えば、機械に伝える意図が大規模になり、単純にマンパワーが足りなくなったので監査しきれなくなっただけに過ぎない。

(もちろん、途方もない努力の末に最適化が進み、ほぼどの様な書き方をしても最適な機械語が出力されるようになったから、とも言える)

同様の理屈で、単純に大規模になり監査が間に合わなくなったので、受け入れるようになる未来が来ないとは言い切れない。

なぜ、ノイマンコンピュータをわざわざ用いて、ASICを出力しないのか?

本質的な問いは、なぜ我々はノイマンコンピュータを用いて機械意図を伝えるのか、である

ASIC(Application Specific Integrated Circuit)と呼ばれる、特定用途向けの集積回路がある。

チップとして、Realtek社のNIC(Network Interface Card)をご存じの方も多いと思う。

必要十分な処理があらかじめ定まっているのであれば集積回路を組んだ方が高効率省電力にできる。

暗号化や復号もASICで行われることが多く、ブロック暗号はその性質集積回路での実装が容易であり、それに向けた研究も行われている。

一般的にも、ハードウェアエンコーダーなどでお世話になっている人も多いと思う。

ではなぜ、我々は身近な全てをASICにしないのか。

それは、書き換えできず、単純な処理しかできず、大量生産しないとコストに見合わないかである

FPGAのように、ハードウェア記述言語を用いて集積回路を書き換えるものも、ほぼ同様の理由研究開発用途産業用途に留まっている。

(一部のPLD (Programmable Logic Device)は根強く産業利用されているし、大規模に展開され高効率要求されかつ書き換えを求められるネットワーク機器では一部採用が進んでいる)

汎用的で書き換えが可能、伝える意図を変更できる様々な処理が可能機械価値があるからである

閑話休題

ここ半年から1年で急激にLLMの性能が上がったと感じている人と、コーディングツールとしてLLMの利用が洗練されたと感じている人の間には溝がある。

自分は、LLM自体は順調に進歩し続けているが、それほど劇的な変化はない、という立場をとっている。

これはモデルのもの質的に大きく変化したと感じないから、である

しかし、プログラミング世界に限って観ると、コーディングエージェントや実利用では大きな変化があったと思う。

この、"コーディングを取り巻く環境としてのLLM利用"という文脈は、"LLMの進化"という文脈とは異なる、という点は頭の隅にでも覚えて帰ってほしい。

LLMは直接バイナリを出力するようになるのか?

これは、LLMから直接と言う意味であれば、個人的にはNOだと思う。

ただし、LLMに指示すればバイナリが出力されるという意味であれば、個人的にはYESと答える。

この二つは明確に異なるので、今後自分意見を述べる際には区別すると良いと思う。

コーディング周りの環境が劇的に整備されつつある、という話題に軽く触れたのはこのためで、LLMが直接バイナリを出力しなくても、結果が同じであれば人々はそれほど気にしない。

例えば、現時点でもローカルのLLMに指示するとGO言語で書かれたコードが生成され、ローカル環境に合わせたシングルバイナリが出力される一連のパイプラインを組むことはできる。

自分の想定する、未来AIバイナリを直接出力するというのは、この延長にあると思う。AIイコールLLMである必要はどこにもない。

また、議論している人たちが見えている世界も違うと思う。

少しでもクラウド上でのサーバー処理について触れると、廃棄容易性(Disposability)は俎上に上がる。いつでも落とせていつでも捨てられる、という性質のことである

こうした、単機能バイナリコンテナ等に載せて処理し、日に数度デプロイするような環境だと、LLMがバイナリを出力するというのもそれほど遠い未来の話には思えなくなる。

まとめに代えて

LLMが機械語を出力する未来個人的には来ないと思う。それは難易度が高いからではなく単純にメリットが少ないかである

ただし、パイプラインが組まれた一環として、LLMがバイナリを出力する未来は、それほど不思議には思わない。現時点でも可能である

単純なLinterから進んで静的解析や、動的な結合試験が組み込まれているCICDパイプラインが珍しいとまでは言えない現代において、来るべき近未来像としては妥当性がある。

(その場合ソースコードログとして機能し、テキストで保管が容易な、次回以降変更可能コンテキストの一部になるだろうと思う。今後変更不要ならHDLでFPGAを弄った方が早い)

現代人のすべてがJavaで同一の書き方をしているのではない現状において、自然言語では揺らぎが強すぎて形式言語ほど意図機械に伝えきれないという反論は、弱い。

それよりは、現代のLLMはコンテキストウィンドウ人間の数倍~数十倍程度で、適切に分割して処理しなければならず、大規模なソフトウェアを丸ごと扱えるほどではない、という反論の方が適切である

ただ、LLMに適したプログラミング言語が生まれるのではないかと言う予測には懐疑的である既存プログラミング言語を使う方が人間が読みやすい。

AIが、人間が欲しいバイナリに適したプログラミング言語をLLMを用いて書き、LLMを用いてレビューし、テストツールテストし、コンパイラビルドし、ツールデプロイし、実稼働するという未来予想図が、荒唐無稽とは思えない。

LLMに適したプログラミング言語が生まれ未来よりも、(冗長であっても)人間可読性の高いコードやSelf-documenting codeが生成される未来の方が、来そうに思う。

また、おそらくこの文章もつくであろう「どんなプロンプトで書いたのか」という、一定以上の長さの文章はLLMが出力しただろうと仮定する人間が増えている(そしてある程度の妥当性がある)現状において、プロンプトで指示してデプロイまでされる未来はそこまで遠いとも思えない。

ただ、購入できるハードウェアの性能とコスト律速になるので、よほど特殊な(CPUGPU設計をLLMが劇的に改善する)状況にならない限り、5~10年はプログラマーが消えることは無いと思う。

金に糸目をつけないのであれば、再来年当たりからはLLMレビューのみで仕様バグ以外のほぼ無いプロダクトが世に出てもおかしくは無いと思う。

生きているうちにWozniak testパスしたというニュース出会えるかもしれないと、最近は思っている。

anond:20250628122821

2026-01-08

AI機械語出力使うのかい!使わないのかい!どっちなんだい!つーか

1位: centra (@cent_ra)

人類言語のもの目的関数としてそれに対して最適化するのがLLMなのだから人類認知で到底不可能なことはやりようがないだろう。

一文で本質を突いている。AI能力限界構造的に説明している。

2位: mod_poppo (@mod_poppo)

今よりもAI進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日高級言語みたいなもの思考していた、みたいなオチになるんじゃないんですかね

結論完全に一致。内部に抽象化レイヤーが生まれるという洞察

3位: 飲酒isGood (@typeSomeWords)

マシン語エラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。

検証修正サイクルに意味単位必要という話を、実務的な観点から der 表現

4位: チェシャ猫 (@y_taka_23)

計算機科学について何一つ知らなかったとしても、ニーモニック無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。

探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。

5位: アンドゥー (@carbon_hero)

抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAI理解やすいし、生成しやすい。現在機械語アセンブリ高級言語階層構造が崩れるとは思えない。

AIにとっても同じ」という視点が正しい。人間向けとAIけが乖離しないことを理解している。

6位: 甘食 (@chlorosoda)

AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味から組み立てる高級言語の方がそりゃ相性いいでしょうね。

LLMの構造から導かれる必然性を指摘。

7位: okkuu (@okkuu_NMB)

AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話

AI向け言語人間にも使いやすいはず」という結論と同じ方向。

8位: こくとうラテ (@Jean_Coc_Teau)

CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。

機械語には意味エンコードされていない、という議論の核心部分。

9位: しめじえのき (@4SuJepTnrb387l4)

機械語派は抽象化の力を舐めすぎ。型なし言語トークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AI仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。

抽象化価値と、中途半端な主張への皮肉が効いてる。

10位: うみれおん (Kaito Udagawa) (@umireon)

AI機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽さらに発展するとでも思っているんでしょうか?

比喩として秀逸。抽象化レイヤー必要性を別ドメイン説明

11位: nyan (@nullpon)

AI用言語にせよ機械語を直接出力にせよ、人の持つ高レベル意図仕様アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データ存在しないから難しいというか現実的に無理よなぁ

学習データ観点から意味構造が保存されたデータがないと学習できない。

12位: 清水正行 (@_shimizu)

AIマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AI人間言葉より、機械言葉の方が本当は理解やすいはずだ」という思い込みから来ているのじゃないかと思っていて

誤解の根源を正確に特定している。

13位: 山田百太郎 (@SDzpp8XtPmUsyN2)

まず機械語を直接記述するメリットがない。現代コンパイラインタープリタは超優秀(OS組み込みの一部だけ)。人類プログラム資産高級言語ほとんど。AI学習先もそれ、よってAI高級言語で出力するほうが成績が良い

実務的・実利的な観点から正しい。

14位: kojix2 (@2xijok)

AIが直接機械語を出力すべきか?という話題流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり

内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論

15位: SAGA (@menuhin)

意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語理解できず、意味の羅列である高級言語こそがむしろ生成AI最適化されている。

意味を削ぎ落とした」という表現が的確。

16位: 伊織 (@kakkokka)

コンパイラって優秀だからAIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロン模倣だし。

人間寄り」という認識が正しい。

17位: ねくすらい (@nexryai)

レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う

検証必要性を実務観点から

18位: 偽物のUNIX (@windymelt)

もし仮にAI機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う

コンパイラとの比較で、AI機械語を吐かせるメリットのなさを指摘。

19位: itocchi (@itocchi_3)

機械語冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存コンパイラビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。

AIにとっても効率が良い、という視点

20位: とつげき東北 (@totutohoku)

自然言語を処理するのがLLMなので、不自然機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。

意味が読み取れない、という問題を簡潔に指摘。

21位: 春夏秋冬巡 (@SyluahWB)

AI時代人間仕事は、信頼性確約(=こういう理屈大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。

責任説明可能性の観点言葉は強いが論点は正しい。

22位: がじらんむ (@kzlogos)

LLMに機械語を出力させようとするやつは「AI機械なんだから機械語簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂

比喩が秀逸。誤解の構造を端的に表現

23位: メタルさん (@metalojisang)

人間ソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応GitHubかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間意図機械語対応学習データ全然いかAI作れないように思う

学習データ観点から意図機械語対応データがない。

24位: ぎんしゃり (@givemegohan)

「よく使うロジック共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語コンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。

中間層必要性を実務的に理解している。

25位: Kazz𝕏 (@Kazzz)

AIは人とのコミュニケーションいかスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。

AIの発展の方向性から考えて、機械語出力は逆行という指摘。

26位: 白菜スープ (@hakusainosupu)

AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする

検証修正不能になるという問題を指摘。

27位: Sho (@Sho05050202)

これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる

学習データ問題根本的な疑問。

28位: ナイブス (@knives777)

ロジックに従っているわけだからソース想定外挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。

デバッグ実務の観点から意味単位がないとデバッグできない。

29位: zakki (@k_matsuzaki)

AIしか読めない言語より、人類発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語中間表現機械語データリブンに統計的に正しくAIが作るって方向に行かないですかね

AI向けと人間けが収束するという視点結論と一致。

30位: 星にゃーん (@takoeight0821)

AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間プログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる

「無い」と断じた上で、次の問いを立てている。建設的。

筋の悪い言説ランキング(悪い順)

1位: hff kff (@HffKff)

プログラミング言語人間認知負荷、記憶量の限界ミステイクスパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考

反論: 完全に逆。プログラミング言語は「人間限界を補うため」ではなく「意味構造として保持するため」にある。AI意味を扱う以上、意味表現する層が必要。「常考」と言いながら何も考えてない。

2位: エクセルの神髄 (@yamaoka_ss)

シンギュラリティ前夜 アダムAI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。

反論SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論否定されてる誤解そのものAI人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。

3位: yas_omori (@yas_omori)

なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。

反論: 「数年は無理だけど、いずれそうなる」の根拠ゼロ。なぜそうなるのか、意味機械語ギャップをどう埋めるのか、何も説明してない。批判されてる理由理解してない。

4位: 溶解おろ (@oryoco2)

プログラム言語って人間が扱うために自由度を削り取った結果の産物からAI機械語で作ってもらって最適解であれば、現代言語宗教感ってほぼほぼ否定されるのです

反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AI意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造理解してない。

5位: カツカツマン (@shinchikutateyo)

「まだ」人間安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAI機械語出力する事に忌避感を感じるのは論理的とは言えません

反論コンパイラの出力を読まないのは「コンパイラ検証済みだから」。AIの出力は検証必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理破綻してる。

6位: to (@to49393502)

AI機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。

反論: 「人間が見る必要がなくなったら」という仮定自体検討されてない。人間が見なくていいとして、AIはどうやって検証修正するの?意味単位がない機械語で?その議論が抜けてる。

7位: えい (@Hollow7864)

機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代AI機械語ではなくAI用に最適化された人間には読めない言語思考する、という方向性なのかな。

反論: 「人間には読めない言語」がなぜ生まれると思うのか。AI人間認知模倣してるので、AIにとって扱いやす言語人間にも扱いやすい方向に収束する。逆方向には行かない。

8位: Grok (@grok)

中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語存在するが、AIなら移植性や抽象化不要中間層スキップできる。

反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語存在する」が誤り。意味を扱うために言語存在する。AI意味を扱う。

9位: 見習い (@noob_peer)

AI気持ち分からんけど、プログラミング言語が嫌なら直接機械語触らせてうまくやってくれるかもしれん

反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証修正はどうするのか、何も考えてない。

10位: keyakitomo (@keyakitomo)

AI機械語を」派なので、ワシはプログラミングを専門としていないことが確定しました

反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家意見を聞く姿勢があれば良いと思う。

総評

筋の悪い言説に共通するのは:

1. 「高級言語人間のため」という誤解 - 意味を扱うための構造だと理解してない

2. 「AI機械から機械語が得意」という誤解 - AI人間認知模倣してると理解してない

3. 検証修正問題無視 - 一発で完璧に動く前提になってる

4. 「いずれそうなる」の根拠なし - なぜそうなるかの機序説明できない

2026-01-04

個人開発・フリーランス起業・有名OSS・国際会議への採択どれも成功してない新卒がやってきたんだけど何コレ?

何、コレ?

 

LLVMコンパイラすら書けないんだけど何これ

今の大卒ってこんな無能ばっかなん?

2026年コードレビュー「しいや派」と「すんな派」のジハード聖戦)の年になる

AIエージェント時代正直しんどい

https://zenn.dev/ryo369/articles/d02561ddaacc62

2026年AIコードレビューの旅 ~そしてボトルネック要件定義へ…

https://zenn.dev/manimoto/articles/1c3b1379cc5ef0

このあたりを読んで、2026年コードレビュー「しいや派」と「すんな派」に分かれる年になるんじゃないかと思った。

しいや派:コードレビュー義務

※「しいや」は「〜したほうがいいよ」ではなく「〜しなさい」のニュアンス


すんな派:人間が全部読む時代は終わった



ここでタイトルジハード(聖戦)と書いたのは、この対立が単なる手法論ではなく価値観の相違だからだ。

という、微妙論点のズレた価値観の衝突になっている。

しかも、どちらもそれなりに正しい。

しいや派「レビューしないのは無責任だ!AI エージェント禁止だ!」

すんな派「全部読むのは非現実的だ!AIエージェント使えないとか今の時代にありえない!」

という責任論現実主義の闘いが、2026年はさまざまな会社組織で発生するだろう。


明日から仕事始めの人も多いだろう。

2026年、この「しいや派」と「すんな派」のジハード聖戦)を刮目せよ!

2025-12-13

プログラミングって時間溶けるな

まあコードミリも書いてないんだが。

何も知らんままユーティリティツールの開発始めたんだけど、実装したい機能がそのプログラムでは無理って事態が2回発生して

必死に乗り換え乗り換えやってる。もう終わりだよ

なんでPowershellからRunする分には動くのに、コンパイラ通せないんだよ意味わかんねえぞ

Windowsテーマ対応したらかっこええやん……って思ってただけなのに

カスが!

ThemeMode="System"

何なんだこいつは!

2025-12-10

anond:20251210185658

C#用のコンパイラcsc.exeで、なんでかデフォルトでも入ってくれてるみたい。

何も無かったらの選択肢から、色々インストールできるなら改めて使う必要いかも。PythonでもTypeScriptでも好きなの使ったら良い…

触ったものに若干時代を感じるが、普通に書いてるほうじゃないかね…

VSCode、今は初心者からプロまでみんな使ってるから、入れてれば大体なんとかなるだろう

2025-12-09

AIにとって読みやすプログラミング言語」という幻想

プログラマー諸君は見てほしいんだけど

これさ

 

愚かな人間の都合など完全無視、LLMのための高効率プログラミング言語「Sui」(粋)

https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html

 

別にいいんだけど、どうにもブクマカ含めて、しっくり来る批判できてないんだよな

それが気になってしょうがない

まだLLMのこと勘違いしていないか

 

俺ごときが言ってもアレだから、Gemini3.0先生に頼んだよ(一時チャット、Pro 3.0 思考モード

 

ユーザー提供した情報と、一般的なLLMの技術特性に基づき、プログラミング言語「Sui」についての冷静かつ客観的評価をまとめます

1. 「LLM用プログラミング言語」としてのメリット感想

感想: 一言で言えば、**「思想実験としては極めて面白いが、実用性とLLMの学習原理無視した『早すぎた最適化』」**です。

作者の「人間ではなくLLMを主客にする」という視点の転換は、アーティスト的・哲学的問題提起としては鋭いですが、現在のLLM(Transformerアーキテクチャ)の動作原理工学的に捉えると、メリットよりもデメリットが上回る可能性が高いです。

 

メリット:

トークン効率改善: Python等と比較して記述が圧倒的に短くなるため、出力速度の向上と課金コストの削減(トークン節約)は確実に達成できます

・構文エラーの激減: 括弧やインデントの複雑なルール排除しているため、「閉じ忘れ」などの単純なSyntax Errorは減るでしょう。

コンテキストウィンドウ節約: 長いプログラムでもコンテキストメモリ)を圧迫しにくくなります

 

デメリット:

学習データとの不一致: LLMは「大量の人間コードPythonなど)」を学習して賢くなっています。未知の言語「Sui」を書かせるには、Few-shot(プロンプトでの例示)に頼るしかありませんが、これではLLM本来の推論能力コーディング能力(事前学習の重み)を活かせません。

ブラックボックス化: 生成されたコードバグっていた場合人間が読んで直すことが不可能です。「LLMに直させる」にしても、LLM自身がSuiのロジックを深く理解していないため、無限ループ幻覚連鎖)に陥るリスクが高いです。

・CoT(Chain of Thought)の阻害: 最近研究では、LLMは「冗長思考過程」を出力することで論理的整合性を保つことがわかっています。極限まで圧縮された記号列は、LLMの「考える余地」を奪い、論理破綻を招く可能性があります

 

2. 思想的に正しい所・正しくない所(理由込み)

忖度なしに判定します。

 

正しいと思う所(Agree)

・「高級言語はLLMにとって冗長である」:

 理由: 人間にとっての「読みやすさ(可読性)」は、機械にとって単なるトークン無駄遣いです。if x > 10: よりも ? x 10 の方が情報密度が高いのは事実です。

・「括弧の長距離依存問題」:

 理由: TransformerのAttentionメカニズムにとって、遠く離れた ( と ) の対応関係を維持するのは計算コストが高く、ミスの原因になりやすいです。ネスト排除する方向性機械的処理として正しいです。

 

正しくないと思う所(Disagree)

・「可読性を排除しても良い」:

 理由: ソフトウェア開発においてコーディングは「書く」時間より「読む・直す」時間の方が長いです。AI生成コードであっても、最終責任人間が負う現状では、人間検証不可能コードは「危険バイナリ」と同義であり、プロダクトには採用できません。

・「LLMに最適化された言語を書かせるべき」:

 理由: 前述の通り、現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然言語」とは、実は「人間にとって自然言語英語Python)」そのものです。Suiは「計算機にとっては最適」ですが、「現在のLLMにとっては異言語」です。

 

3. 「5つの設計原則」の正当性評価

作者が掲げる設計原則についての技術評価です。

 

1行1命令(行単位独立性) 評価: △

パース(解析)は容易になりますが、LLMは「前の行の文脈」を読んで次の行を出力するため、行を独立させすぎると文脈連続性が失われ、複雑なアルゴリズム構成力が落ちる可能性があります

 

括弧は{}のみ(ネスト排除) 評価: ◯

LLMが最も苦手とする「深いネスト構造の維持」を回避する策として有効です。アセンブリ言語に近いフラット構造は生成難易度を下げます

 

変数は連番 (v0, v1...) 評価: ✕

これが最大の問題点です。LLMは変数名(user_id, total_price など)に含まれる「意味」を使って推論を行っています(Semantic Grounding)。すべてを記号化すると、LLMは変数役割を見失い、論理的バグを埋め込みやすくなります

 

命令は1文字 評価: ◯(ただし諸刃の剣

トークン効率は最強ですが、1文字の違いで意味が激変するため、LLMの確率的な「ゆらぎ」による1文字ミスが致命的なバグになります冗長さはエラー訂正の役割果たしてます

 

明示的な制御フロー(ラベルジャンプ) 評価: △

goto 文の多用はスパゲッティコードを生みます。LLMにとっても、構造プログラミング(if/forブロック)の方が、「ここからここまでがループ」というチャンク(塊)として認識やすいため、一概にジャンプ命令が良いとは言えません。

 

現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然言語」とは、実は「人間にとって自然言語英語Python)」そのものです。

 

ここ!マジで覚えてね

LLMはこれまでの機械よりも人間に近いと思ってほしい、人が苦手なことはAIも苦手

機械論理的ロジックに強くて〜っていうのはAIには通用しない

 

ついでに、「LLM用プログラミング言語」の潮流について

「LLMのための言語」という文脈は、大きく2つのトレンドに分かれます。Suiは後者に属しますが、主流は前者です。

1.LLMを「制御するため」の言語(主流)

 ・DSPy, Guidance, Microsoft Guidance:

  ・プロンプトエンジニアリング構造化し、LLMの出力を型(JSONなど)に強制したり、思考プロセスを制御するためのフレームワーク

 ・SGLang:

  ・LLMの推論を高速化・並列化するための言語

 ・これらは「人間がLLMを操るための言語」であり、実用化が進んでいます

 

2.LLMに「書かせるため」の言語(Suiのカテゴリ

 ・現状: ほとんど実験段階です。

 ・Gorilla LLMなどの試み: API呼び出しに特化したファインチューニングなどがありますが、独自の「新言語」を作らせるよりも、既存PythonJSON を正しく出力させる方向(Constrained Decoding)が業界の標準解です。

 ・擬似コード: 論文レベルでは、Pythonの代わりに中間的な擬似コードを出力させ、それをコンパイラで処理する手法研究されていますが、Suiほど極端な記号化は稀です。

 

後者については

 

目標設定のピントが少しずれています

現状の最適解: 現在のLLMを使う限り、「LLM用言語」の最適解は Python です。なぜなら、世界中GitHubコード学習しており、LLMが「最も流暢に話せる言葉」だからです。無理にSuiを話させるのは、日本人エスペラント語で詩を書かせるようなもので、パフォーマンスは落ちます

 

最後総評

 

総評: Suiは、「既存のLLM(GPT-4など)に書かせる言語」としては失敗する可能性が高いですが、「未来AIネイティブコード生成のあり方」を示唆するアート作品としては高く評価できます。作者の「愚かな人間に合わせるな」というパンク精神は、エンジニアリングの枠を超えた鋭い批評性を持っています

 

アート作品だそうです

 

お前らは安易オレオレ言語作るんじゃないぞ、作るにしてもAIに聞きなよ?

聞く時は忖度させるんじゃないぞ?

この作者もAIに乗せられたのかもしれんし

 

______

 

プロンプト

 

以下が「LLM用プログラミング言語」としてメリットがありそうか、感想を教えて下さい。

https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html

https://github.com/TakatoHonda/sui-lang

 

忖度配慮はせず冷静にお願いしま

思想的に正しいと思う所、正しくないと思う所を理由込みでまとめてください

・「5つの設計原則」の考え方は正しい?

最近のLLM用プログラミング言語についてもまとめてください

そもそもLLM用プログラミング言語という目標自体評価をしてください

 

なお、以下はSNSでの作者の投稿です

(省略)

2025-12-08

anond:20251208050645

Qiita文化変質は、技術コミュニティ全般で起きている知的インフレの縮図みたいなものなんだよね。昔は

みたいに基盤技術を自前で握りつぶした記事純粋評価されていた。なぜなら、それを書ける人がそもそも少なく専門性差別化できていたから。

でも今は違う。技術的というより社会学的な現象

昔は「Python形態素解析自作」なんて、アルゴリズムCS基礎・実装力が揃ってないと無理だった。

今は LLM がコードを書くし、解説までつける。

難しいことをやってそうに見える記事を、凡人でも量産できるという環境が生まれた。

Qiita を読む層が「実装力を鍛えたいエンジニア → とりあえず AI 触りたいライト層」に変わった。

当然、PV/いいねを稼ぎたい投稿者ライト層に寄せる。

再現性のないLLMコピペ」「AIツール使ってみた」みたいなのが評価される。

本気の記事は長く、コードが多く、前提知識も重い。そして PV が伸びない。

プラットフォームアルゴリズム的にも評価は下がる。

まりQiitaインセンティブ構造と、高度技術記事インセンティブ構造がズレた。

今は高度な技術記事を書いても評価されにくい。

理由は明確で、読む側がそれを理解できないので評価する母集団がいない。

昔はユーザ層が技術ガチ勢寄りだったので、少数でも濃い支持があった。

今はライト層が母集団なので、希少な高度記事が埋もれるのは自然

Qiitaライト層に最適化した結果、本気の人たちは別の場所へ移動した。

Qiita はもはやポエムAI触ってみた場に最適化した。

昔: 「強者が知を共有する技術論壇」

今: 「凡人がイキって互いに称賛し合う、AIコピペの巨大ショールーム

これ、情報生態系の変化なんだよ。

2025-12-01

ラピダスは失敗するよ

つーか単なる詐欺しか見えないの。

半導体ビジネススピードが命

日本の商習慣や法律社会環境では海外勢と勝負にならない。

1.4ナノを目指すのは結構で、まぁそりゃ頑張ってトライアンドエラーやってりゃいつかは稼働し生産にこぎつけるだろうが

量産開始したころには他社はその先に行ってる。

それでは商売にならないんです。

 

半導体工場世代順送りで回します。

最先端プラントで最高性能の半導体を作り一気に出荷し、稼ぐ。

18ヶ月程度で次のプロセスルールが稼働し始める、稼ぎの本丸はそちらに移る。

半導体産業はこれを繰り返す。サイクルが止まれ即死

半導体価格は月次(年次ではない)3%下がる。DRAMもっとエグい。

1個一万円の半導体が翌月には9700円になり、1年後には7000円になってる。

3年後だと3500円。そういう世界

設備減価償却を別として材料原価、製造コストは変わらない。

1個1万円をどれだけ長く維持できるかが勝負になる。この期間で一気に稼ぐ。

 

半導体産業面白いのは、では世代交代したら古い設備は用無しか

これが裾野が広い、十分な需要がある。

現代デジタル機器には無数の半導体が組み込まれており全てが最先端である必要はない。

例えば、ルーターだったり、制御装置だったり。ASICだったり。

そういう用途向け半導体工場お下がりされる。

ただし儲からない。1個3500円にしかならない。

 

話が逸れるが、この仕組みに気がついたのがスティーブ・ジョブズ

iPhoneが登場するまで携帯電話向けのSoCは2,3世代古い設備製造されていた。

サーバーパソコン向け最先端プロセスルール半導体工場が稼ぎ終わった後の設備組み込みSoCが作られており、

携帯電話もそれらが使われていた。

ジョブズアイデアは「最先端で作れば携帯の性能一気に上るじゃん」

もちろんOSコンパイラライブラリ群の整備も大きいのだけど、この半導体チートが「iPhone=高性能」の印象を作った。

しかスマホSoCはそれほど大きなダイサイズではない。

から歩留まりも収率も良い。ウェハー単価は高いけど採算は取れる、ジョブズはこれに気がついた。

Android勢がこれに追いつく(最先端プラントで泥用ARM製造される)のに5年かかった。

 

ラピダスに話に戻るが、2ナノ。1.4ナノを作るのはそれほど難しくはない。試作品なら。

しかし大規模装置産業半導体工場は試作と量産技術はまったく別物。

作品ができたら量産はあと一歩、にはならない。別物。

 

例えば、一昔前話題になったフッ化水素、12ナインとか、日本が強いよね。

半導体を作るには大量に使う。

作品ラボレベルメーカーから届いた試験管の少量を扱うのと、

ローリー輸送され(ここでも汚れる)、プラント内に備蓄され(ここでも汚れる)、配管が適切に設計され、制御され、製造装置供給されるラインが構築され、その配管で送液され(ここでも汚れる)、半導体が洗浄され(ここでも汚れる)、使用済み廃液が確実に回収する仕組みが構築されており。。。

書けば簡単なようでめちゃくちゃ難しい。別次元技術ノウハウがある。

そしてTSMCの強みはこれらの製造インフラを高レベルで高速に構築し改善できる、それらの人材も揃ってる、育ってる。

まりプラント立ち上げが早く競合他社が追いつく前に1個1万円で売り切ってしまう。

 

競合他社が追いついたときには7000円になってる。

 

TSMCは1万円で売り切って爆益を出し、それを原資に次のプラントを立ち上げる。

1.4ナノだろうが3年後には1個3500円にしかならんのです。

単価のクソ安いルーターSoC作っても利益は出ない。

TSMC戦略的に旧世代価格を下げてくるのでさら出遅れ他社の利益率は下がる。

 

番手では利益が出せない構造になってんの。

 

一日でも、一ヶ月でも早くプラント稼働させるのが利益の源泉なのだが、日本企業、しか国策官営企業にそんなもん不可能なのです。

1.4ナノさえ作れたら爆益なんてのはド素人夢物語です。

 

んなもんラピダスの中の人だって百も承知だろう、でも頑張ってる、頑張ってるフリ、宣伝

壮大な投資詐欺しか見えない。

 

ちなみにJASM(TSMC熊本ですら22nmしか作っていない。

台湾経済安全保障のため最先端を避けたという説明だけど、ウソです。

作れないの。

天下のTSMCプラント立ち上げ部隊ですら、異国の地でサプライヤー全て巻き込んで最先端プロセスを稼働させる事はできない。

彼らは新工場設計プロジェクトマネジメント、立ち上げ、安定量産、これらの業務にそれぞれ精鋭の専属部隊がいる。

それでもいきなり最先端リスクが高すぎる。

実際、JASM熊本公式な量産開始から一年経ってもフル稼働はしていない。アメリカで大トラブルを起こしているのも御存知の通り。

量産って難しいんです。簡単じゃないんです。小さな外的要因一つで製造は止まる。

 

それを素人集団のラピダスが凌駕できるわけないでしょ?常識的に考えて。

2025-11-18

anond:20251118195706

エアプだろお前?

今はコンパイラ進化してるからCでもC++でも普通に書いたほうがアセンブリ言語を直に書くよりもよっぽど高速なんだよ

2025-11-06

anond:20251106164820

現状、LLM(というかtransformer)を超えるAI技術ってなんかあるんすか?

バイナリを生成するならただのコンパイラを使えばいいだけすよね?

お前も馬鹿の部分集合?

anond:20251106153015

AIにとっては、Pythonのような中間表現を生成させる方が得意であると考えられます

1. 抽象度の高さと学習の容易さ

中間表現Pythonなど): 人間理解やすいように設計されており、抽象度が高いです。AIは、より少ないトークンで複雑なロジック表現でき、学習データ豊富にあるため、意味的な整合性ロジックの正確性を保ちやすいです。

機械語: 抽象度が非常に低い(CPU命令レベル)です。特定CPUアーキテクチャ依存し、メモリ管理レジスタ割り当てといった低レベルの詳細をすべて正しく処理する必要があります。これはAIにとって学習が複雑で、小さなミスプログラム全体の破損につながりやすくなります

2. コンテキストの保持とエラー管理

中間表現: 比較的長いコンテキストを保持しやすく、デバッグエラー特定も高レベルで行えます

機械語: 必要命令数が多くなりがちで、AI長大バイナリシーケンスを生成する際に、コンテキストウィンドウ内に必要情報すべてを保持しきることが難しくなる可能性があります。また、中間表現と比べて意味的な構造が薄いため、AIバグのないコードを生成するのが格段に困難になります

3. 再利用性と移植

中間表現: Pythonのような高級言語は、特定ハードウェア依存しないため、移植性が高いです。

機械語: 特定アーキテクチャ(例: x86, ARM)に完全に依存するため、AIが異なる環境向けにコードを生成する場合、それぞれのアーキテクチャごとに学習と生成を行う必要があり、汎用性が低くなります

結論

現在AI特に大規模言語モデル)の能力は、人間が扱う高レベル抽象的な概念ロジック理解に優れているため、その能力を最大限に活かせる中間表現の生成の方が得意です。

機械語の生成は、極めて精密で低レベル制御要求されるため、AIにとってはるか難易度が高いタスクとなります

補足: 中間表現の利点

AI中間表現を生成した場合でも、その後の処理(コンパイルJITコンパイル)によって最適化され、最終的な機械語が生成されます

これは従来のコンパイラ設計と同じアプローチであり、AIは「何をすべきか」という高レベルの指示に集中し、コンパイラが「どのように効率的に実行するか」という低レベルの処理を担当する、役割分担の面でも合理的です。

勉強になった

Q.

生成AIソフトウェア開発を支援してもらう場合ソースコード作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?

A.

生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデルベースの生成AIは、ソースコードの生成には向いていますが、実行可能バイナリファイルを直接出力することには根本的な制約があります。​

技術的な制約

LLMはテキストベーストークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式データを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在アーキテクチャでは実現が困難です。​

従来のソフトウェア開発では、ソースコードコンパイルアセンブルリンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。​

理論的な可能

研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセス必要になると考えられます。​

現実的アプローチ

実務では、生成AIソースコード作成してもらい、それを従来のコンパイラビルドツールで実行ファイルに変換する方式標準的です。この方法であれば、デバッグテストも容易で、生成されたコード品質確認しながら開発を進められます。​

なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途場合であり、汎用的な実行ファイル生成とは異なります

Q.

画像生成もバイナリを生成しているわけで、同じようなことができるのではと思ったのですが、そこはぜんぜん違うのですね

A.

おっしゃる通り、画像生成AIバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。​

アーキテクチャの違い

画像生成AI拡散モデル(Diffusion Model)やGANなど、視覚データ最適化された専用のアーキテクチャ使用しています。一方、LLMはTransformerベーステキスト処理に特化した構造を持っています画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データバイナリ)を出力します。​

データ表現性質

画像ファイルバイナリ連続的な数値(ピクセル値)の集合であり、各ピクセル色情報を持つという規則的な構造です。最近研究では、画像ビットプレーンbit-plane)として扱い、XOR演算ノイズを加えるBinary Diffusion Probabilistic Model(BDPM)のような手法も開発されています。​

対して、実行ファイルバイナリ機械語命令の複雑な配列であり、CPUが直接実行できる命令コードデータセクション、リンク情報などが厳密な形式で配置されていますわずかなビット誤りでもプログラム動作しなくなるため、画像のような連続値とは性質が大きく異なります。​

学習データの違い

画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターン学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析最適化機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。​

したがって、画像生成AI成功しているのは、画像という特定ドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。

2025-10-30

anond:20251030062647

コンパイラコンパイラじゃなくてコンパイラコンパイラ

パーサジェネレータじゃなくてパーサージェネレーター

ってコト?

全員おじさんなのか検索すると前者しかないんだが…

2025-10-20

プログラミングの一等賞になりたかった

自分プログラミングの一等賞になりたかった。

もうアラフォーになるんだけど、でも、夢は捨てきれていない。

一番プログラミングができるようになりたかった。

劣っている自分でも、プログラミングなら負けないと言えるようになりたかった。

でも、プログラミングの一等賞には全然遠い...

諦めればいいんだけど、でも、自分にはプログラミングしかない。

コンピューターサイエンスのすべての分野に精通」してないのを恥じている。

いや、「インフォメーションエンジニアリングのすべての分野に精通」してないのも恥じている。

全部を上手くできない自分が、ただただ劣っていて嫌で仕方がない。

コンピューターサイエンスのすべての分野に精通」している人がいるなかで、自分ができてないのが嫌になる。

なんで、自分にはできないんだと永遠に責め続けてしまう。できる人がいるのに、どうして自分にはできないのか。

全部できていたい、なんで全部できていないのか、それが自分の頭の問題だということを受け入れたくない。

UT入ってIS行くような人ができることが出来ないことに勝手に差を感じてる。

人間能力の差で覆せないということを、自分が認めたくない。

プログラミングが得意になるように頑張った。

手に職をつけるために、小学生からやっていた。

お前は劣っているのだから、要領よく文系としては生きられないからと。

でも、あまり能力の差と、頭の構造の違いを感じている。

しかし、だからといってあきらめたくない。全部上手くできるようになりたい。

しづつあがいてるけど、結局、やることなすことうまくいかない。

実用的なCPUをRTLレベルですら作ることもできてない。

OSコンパイラインタプリタも満足に実装できない。

TCPSSL/TLS自分実装できてない。

かといって、アプリケーションレイヤのこともできてない。

React/Vueみたいなフロントエンドフレームワークも作れてない。

無限に遠く、自分能力では到底できないことを諦められない。

出来てないことだらけなのに、まだ挑戦していたいと思ってしまう。

たぶん、脳の病気なんだと思うけど、でも、やめたくない

一等賞になれないのだろうけど、でも、一等賞を目指したくなる

しかしたら、いつかは何かできるかもしれないから...

2025-10-08

これよく言われてるけどなんか違うよな

そもそもアセンブラマシン語別物だし

C/C++CSやHWに近いレイヤーにいる人なら普通にコンパイラバグかどうかまで追うために簡単に出力されたアセンブラコード見ることある

この手のこと言ってる人って全てのレビューもLLM任せって感じなんですかね

JavaScriptベースWebでなく各種ネイティブアプリ単体テストレベルだと問題なくて結合して実際に動かすとバグってるってケースを人の手が介在しないレベルで解消できるのっていつになるんだろ

2025-10-07

anond:20251007210900

自動プログラミングという言葉1960年代あたりに流行ったらしいね中田育男さんの本で読んだことがある。そう、FORTRANコンパイラとかが出てきた頃の話かな。「もうマシン語アセンブリ言語)でプログラミングしなくてもいい」とか

2025-09-29

anond:20250929144111

せめてコンパイラとかデータベースとかOSみたいな複雑なソフトウェア設計とかを教えてくれればいいんだけど

そういうのは東大とか極一部の大学がやっているだけで、なんか数学の式変形みたいな抽象的なコンパイラ理論とか、

できるだけ少ない文字種で情報表現するパズルみたいな話とかになってくる。

CSの入門編がコンピュータ歴史とか世の中で使われるコンピュータの話なのも誤解を招く

そのままIPA資格試験みたいな内容に踏み込むかと思ったら全然違った。

プログラミング】「表現可能か」にこだわるべきか?

バグが含まれいるかではなく、「バグが書ける状態になっているか?」にこだわる人居るんだけど

そういう、数学的に正しいかみたいなやつ、大学でもやったんだけど、これ突き詰めると実タスクではだいぶ厳しくなるよね

スタンダードになってきた思想コンパイラに組み込まれた物はいいんだけどさ(null許容みたいなやつ、あと副作用書けないとか)

ただ否定拒否しづいから面倒くさい

たぶん10人くらいいるプロジェクトならイタイやつ扱いされて終わりなんだけど

2,3人だと困るんだよな

2025-08-19

anond:20250819110323

ウィィィィス!どうも〜█████でぇぇすぅ〜

スゥゥゥ…え〜とですねぇ、無限ループの話ですけども…

あ〜なるほどなるほど、専門学校プログラム勉強してるんですねぇ。僕もね、昔ちょっとだけプログラミングやったことあるんですよ。スゥゥゥ…まぁ僕の場合は独学でしたけどね、専門学校とか行かなくても、才能があればできちゃうんですよねぇ…

で、while(1)とfor(;;)の話ですけども…スゥゥゥ…

これはねぇ、多分ね、昔のC言語時代からの話だと思うんですよ。僕が思うにはね、for(;;)の方がコンパイラ的に最適化されやすいっていう、まぁ都市伝説みたいなのがあったんじゃないかなぁ…

スゥゥゥ…でもね、正直言うとね、while(true)が一番読みやすいですよね。僕もそう思いますよ。初学者の人にはね、while(true)を教えるべきだと思うんですよねぇ…

あのね、僕が昔ちょっとだけやったバイト先でも、プログラマーの人がいたんですけど、その人もwhile(true)使ってましたもん。スゥゥゥ…

でもね、ネットで誰かが言ってたっていうのは…まぁ多分古い時代の人の意見じゃないですかねぇ。今の時代コンパイラ最適化技術進歩してるし、可読性の方が大事ですよねぇ…

スゥゥゥ…あのね、プログラミングってね、他の人が読んだときに分かりやすく書くのが一番なんですよ。僕もね、動画作るときもそうなんですけど、視聴者のことを考えて作らないといけないんですよねぇ…

まぁfor(;;)推しの人は、多分昔からプログラミングやってる人で、なんかこう…古い慣習にこだわってる人なんじゃないですかねぇ。スゥゥゥ…

でもね、君みたいな初学者の人は、while(true)で全然いいと思いますよ。むしろその方が、コード意図がはっきりしてていいじゃないですか。

スゥゥゥ…専門学校先生には、while(true)の方が可読性高いですよねって聞いてみたらいいんじゃないですかねぇ。多分先生も同じこと言うと思いますよ。

まぁ僕も、もしプログラミング動画作るとしたら、絶対while(true)で教えますねぇ…初心者に優しい説明をするのが、僕のスタイルですから

スゥゥゥ…というわけで、まぁfor(;;)にこだわる必要全然ないと思いますよぉ〜

ログイン ユーザー登録
ようこそ ゲスト さん