「パイプライン」を含む日記 RSS

はてなキーワード: パイプラインとは

2026-01-22

理念現実の両立:国内SIerの道

ラリーありがとう

いま、この転換点において、皆さまとご一緒できることを光栄に思います。同時に、私たち国内SIerにとっての責務でもあります

本日は、世界の“秩序”の断絶、心地よい物語の終わり、そして、巨大な力を持つプレイヤー競争ほとんど制約を受けない厳しい現実の始まりについてお話します。

しかし同時に、国内SIerのような「中堅の担い手」は無力ではない、と申し上げたい。私たちには、信頼・安全・持続可能性・顧客主権データ保全といった価値体現する新しい秩序を、実務から積み上げていく力があります

相対的に力の小さい側の力は、まず誠実さからまります

私たち毎日のように思い知らされています。いまは、巨大プラットフォームや巨大ベンダー地政学リスクを背景にした技術覇権が競い合う時代であること。オープン性や互換性、フェアなルールに支えられた前提が薄れつつあること。そして、強い側が条件を決め、弱い側は受け入れざるを得ない局面が増えていること。

古典的に言えば「強い者はできることを行い、弱い者は耐えねばならない」という構図です。これは不可避だ、これが自然競争原理だ、と片付けられがちです。そして、その論理を前にすると、私たちには「波風を立てずに合わせる」強い誘惑が生まれます。摩擦を避けるために順応する。相手に合わせれば安全が買えると期待する。

しかし、それでは安全は買えません。

では、選択肢は何でしょうか。

1978年チェコ反体制知識人ヴァーツラフ・ハヴェルは『無力者の力』という論考を書きました。そこで彼は、体制がなぜ維持されるのかを問いました。

彼の答えは、一人の店主の例からまります。店主は毎朝、店先に標語を掲げる。「万国の労働者よ、団結せよ!」。本人は信じていない。周囲も信じていない。それでも掲げる。面倒を避けるため、従順さを示すため、波風を立てずに“やっているふり”をするために。そして、どの通りの店主も同じことをするから体制は続いていく。

暴力だけではなく、人々が、内心では虚構だと知りながら儀式に参加することで、体制は維持される。ハヴェルはこれを「嘘の中で生きる」と呼びました。体制の力は真実ではなく、皆が真実であるかのように振る舞うことから生まれる。そして脆さも同じところにある。たった一人が“看板を外す”だけで、幻影にひびが入る。

いま、企業としても、業界としても、私たちは「看板を外す」時です。

---

私たちが長く置いてきた“看板”とは何か

長い間、IT世界には「ルールや標準が機能し、相互運用性が担保され、勝者も敗者も一定のフェアネスの中で競争できる」という物語がありました。国内SIerも、その物語の上で成長してきた面があります標準化ベストプラクティス認証制度ガイドライン、そしてグローバルに広がる巨大なプラットフォーム私たちはそれらを称賛し、活用し、その予測可能性の恩恵を受けました。

もちろん、その物語が“部分的虚構であることも知っていました。強い側は都合が悪いとき例外を作れること。ルール適用が非対称になり得ること。互換性や標準が、実態としては特定エコシステム誘導する装置として働くこと。そして、契約条項価格体系、APIの変更、提供地域機能制限などが、力関係の影響を強く受けること。

それでも、その虚構は便利でした。巨大プラットフォーム提供してきた“公共財”も確かにあった。スケールする計算資源、安定した開発基盤、セキュリティ機能グローバル展開の足場、部品としてのOSSツールチェーン、紛争を減らす共通言語

から私たちは、看板を掲げ続けました。「オープン」「中立」「相互運用」「ベストプラクティス」という言葉を、実態が追いつかない場面でも口にしてきた。そして、言葉現実のずれを大きく指摘することを避けてきた。

しかし、この取引はもう成立しません。

率直に申し上げます。いま起きているのは“移行”ではなく“断絶”です。

---

統合利益の源泉から従属の源泉に変わった

過去20年の間に、金融危機パンデミックエネルギー制約、半導体不足、サプライチェーン混乱、サイバー攻撃常態化、そして地政学リスクが、極端なグローバル統合の脆さを露呈させました。

さらに近年、巨大な力を持つプレイヤーが「統合のもの」を武器として使い始めています。値上げや課金体系変更が交渉力になる。契約利用規約認証IDクラウド管理基盤が実質的拘束力になる。提供停止や機能制限地域制約が、企業組織圧力として作用する。サプライチェーンが“突かれる弱点”になる。

統合すれば相互利益」という前提のまま、“嘘の中で生きる”ことはできません。統合従属の源泉になった瞬間、前提は反転します。

かつて中堅の担い手が拠り所にしてきた「みんなで決めるはずの場」も弱まっています標準化が追いつかない。デファクト事実上ルールになる。透明な合議より、エコシステムの都合が優先される。結果として、多くの企業が同じ結論に向かい始めています

戦略的自律性」を高めなければならない。

人材セキュリティデータクラウド選択肢重要部材、運用ノウハウAIの基盤、そしてサプライチェーンにおいて。

自分で守れない者は、交渉選択肢がありません。ルールが守ってくれないなら、自分たちで守るしかない。

ただし、行き先を直視すべきです。全員が要塞化すれば、コストは上がり、分断は進み、脆さは増し、持続可能性は下がります

そしてもう一つの現実があります。巨大プレイヤーが、ルール価値の“建前”すら捨てて、露骨取引主義へ傾けば、関係性を恒常的に収益化することは難しくなる。顧客パートナーも、保険を買い、選択肢を増やし、分散します。これは「主権」を取り戻す動きです。かつてはルールに支えられていた主権が、これからは「圧力に耐えられる能力」によって支えられるようになる。

古典的リスク管理コストがかかりますしかし、そのコストは共有できますレジリエンスへの共同投資は、各社がそれぞれ要塞を作るより安い。共通標準は分断を減らす。相補性は正の和を生む。

国内SIerにとっての問いは、「この現実適応するか否か」ではありません。適応は不可避です。問いは、ただ壁を高くして閉じこもるのか。それとも、より野心的なことができるのか、です。

---

私たち方針価値観に基づく現実主義理念と実務の両立)

私たち国内SIerは、比較的早い段階で警鐘を受け止め、姿勢を変え始めました。

日本で長く通用した前提」、つまり既存取引慣行や、系列的な安定、特定ベンダーとの強固な関係が、そのまま将来の繁栄安全保証するという前提は、もはや十分ではありません。

私たちの新しいアプローチは、いわば「価値観に基づく現実主義」です。別の言い方をすれば、理念を持ちつつ、現実に即して動く。理念と実務の両立です。

理念として私たちが守るものは明確です。

顧客社会に対する説明責任セキュリティプライバシーデータ保全と可搬性。人権安全に関わる領域での慎重さ。重要インフラを支える品質継続性。

同時に、私たち現実主義でもあります進歩は多くの場合、段階的です。利害は一致しないこともある。すべてのパートナーが同じ価値観を共有するわけではない。だからこそ、目を開いたまま、戦略的に、広く関与する。世界を「あるがまま」に扱い、「こうあってほしい世界」を待たない。

私たちは、関係の“深さ”を価値観に合わせて調整します。影響力を最大化するために、関与は広く、依存は偏らせない。流動化する秩序と、その先にある賭け金を踏まえて、現実的に動く。

そして今後は、価値の強さだけに頼らず、「強さの価値」も積み上げます

---

強さは国内で作る。依存を減らし、選択肢を増やす

私たちは足元から変えます

人材育成と採用設計・開発・運用標準化サイバーセキュリティAI活用検証環境、そしてミッションクリティカルを支える運用力。加えて、特定技術への過度な依存を減らし、移行可能性と可搬性を高める。

投資は前倒しします。

生成AIデータ基盤、ゼロトラストソフトウェアサプライチェーン対策、Observability、そして重要領域の内製力強化。これらは“コスト”ではなく、交渉力と継続性を生む“資本”です。

セキュリティ投資は、段階的ではなく構造的に引き上げます

守りは、事後対応ではなく、設計調達運用に埋め込みます国内産業裾野とも接続し、調達・開発・運用の循環を厚くする。

同時に、外に向けては急速に分散します。

特定の巨大プラットフォーム単一モデル提供者に賭け切らない。複数クラウド複数実装選択肢複数調達経路、複数人材パイプラインを持つ。

グローバル課題への対応も、論理は同じです。論点ごとに連携の形を変える「可変幾何学」でいきます

セキュリティでは、脅威情報共有と共同演習の連合を作る。

データ主権では、顧客データ所在アクセスを決められる設計原則を共同で整備する。

標準と相互運用では、地域業界をまたぐ参照アーキテクチャオープンAPI合意を積み上げる。

AIでは、特定覇権特定の巨大クラウドに“二者択一”を迫られないよう、モデルデータ評価ガバナンス選択肢を確保する。

これは、甘い理想論ではありません。機能不全になりつつある“建前の場”に頼り切ることでもありません。論点ごとに、動ける相手と動く。必要なら多数派を作る。そうして、将来の挑戦と機会に備える、密度の高い接続網を作るのです。技術投資人材運用文化レイヤーで。

国内SIerのような中堅の担い手連携しなければならない理由は単純です。設計図の会議に席がなければ、要件は上から降ってきます。席がなければ、食卓メニューになる。

巨大プレイヤー単独でも戦えます市場規模研究開発、資本、影響力がある。しか国内SIerは違う。にもかかわらず、巨大プレイヤーと一対一で交渉し続ければ、交渉は弱い立場からまります提示された条件を受ける。自分たち同士で「より従順な方」を競い合ってしまう。

それは自律ではありません。従属を受け入れながら、自律しているふりをすることです。

いま、私たちには選択があります

巨大プレイヤーの歓心を買うために国内同士で争うのか。

それとも、連携して、影響のある第三の道を作るのか。

---

真実の中で生きる」とは何か

ここで、ハヴェルに戻ります

私たち国内SIerが「真実の中で生きる」とは、どういうことでしょうか。

第一に、現実名前をつけることです。

オープンルールに基づく、互恵的な統合」という言葉を、現実がそうでないのに唱え続けない。いまを、巨大プラットフォーム競争が激化し、統合交渉力と拘束力の源泉として使われる時代だと認める。

第二に、一貫して行動することです。

相手が誰であれ、同じ基準評価する。都合の良い相手一方的変更には沈黙し、別の相手には批判する、という態度は「看板を掲げ続ける」ことになります

第三に、自分たちが信じるものを“機能する形”で作ることです。

標準準拠を唱えるだけでなく、移行可能性を担保する設計相互運用実装、透明な運用ルール監査可能ガバナンスを、合意実装として積む。復古を待たずに、動く枠組みを作る。

第四に、強制可能にするレバレッジを減らすことです。

強い国内基盤を持つことは、企業にとっても最優先です。分散経済合理性であるだけでなく、誠実な姿勢を貫くための物質的基盤です。報復圧力脆弱状態のままでは、理念を語る資格すら維持できない。

---

国内SIerが持つ資産役割

国内SIerには、世界必要としているものがあります

日本産業社会現場に根差した知見。

止められない基幹業務運用し続けてきた経験

レガシーモダンを“つなぐ”統合力。

品質継続性、説明責任を重視する文化

そして、顧客と長期の関係を築いてきた信頼。

さらに、私たち理解しています。いま起きていることを直視し、合わせて自分たちを変える決意が必要だということを。

この断絶が求めるのは、単なる適応ではありません。世界をあるがままに見て、誠実に語り、国内で強さを作り、連携して動くことです。

私たちは、看板を外します。

古い秩序は戻りません。嘆いても戦略にはならない。ノスタルジー戦略ではありません。

しかし、断裂の先に、より良いものを作ることはできます。より強く、より公正で、より持続可能な形を。

それが、中堅の担い手である私たち仕事です。要塞化した世界では失うものが大きい一方で、本当の協働が成立する世界では得られるものも大きい。

巨大プレイヤーには巨大プレイヤーの力がある。

しか私たちにも力がある。

虚構に合わせるのをやめ、現実名前をつけ、国内で強さを作り、連携して動く力です。

それが、国内SIerの道です。私たちはそれを、開かれた形で選びます

そして、それは同じ覚悟を持つあらゆる組織に開かれた道でもあります

2026-01-09

生成AIバイナリを書く未来は、来ないとは思うが、今も普通にできる

生成AIが直接機械語バイナリを出力するようになるのではないか、という問いは本質的に間違っている。

自分は、まだ素朴なニューラルネットワーク光学文字認識(OCR)の精度を出していた頃から似たようなことを考えていたので、少し他人よりも蓄積がある。

これは、Large Language Model(LLM)を開発する企業資金を集めるために多少誇張した未来を語るという文脈では大目に見た方が良いが、正確性に欠ける。

本質的な問いは、なぜ我々は、ノイマンコンピュータを用いて、主記憶に置かれたプログラムCPUを用いて実行する形式をとるのか、というものである

まず、筋の悪い反論から説明し、妥当反論にも触れたうえで、本質的に問うべき課題説明する。

生成AIを含むAIは、十分な人間データが無いと学習が出来ないのか?

これは明確に、いいえ、と答えることが出来る。

最初こそ人間による補助は必要だが、LLMを含むAIは明確な目標があれば人間データなしでも十分に学習することが出来る。

これは身近なところでは将棋、有名なものだと囲碁実証された研究存在する。

そのため、単純に「機械語人間による学習データが少ないので扱いが難しいだろう」という反論は成立しない。

そういったものはLLMではないだろうという指摘は可能だが、LLMでそういったAIを出力することは限定的とはいえ現在でもできる。将来できないと言うだけの論拠にはならない。

プログラミング言語は、自然言語から曖昧さを無くすために必要ものか?

これは限定的に、はい、と答えることができる。

英語に限った話ではなく、人間意思疎通に用いる言語である自然言語(natural language)は、曖昧さやばらつきがある。

これを形式言語(formal language)という、曖昧さを無くして語彙や文法限定した言語記述しなおすことで、厳密にする手法がある。

この形式言語での表現が、アルゴリズムデータ構造になり、現代ノイマンコンピュータにおけるプログラムのものと言うことが出来る。

なぜ限定的かと言えば、形式言語一種であるプログラミング言語には曖昧さが許容されているかである

ほとんどのプログラミング言語では、同じ目的を達成する為に複数記述が許容されている。

主に、人間が書きやすいから、とか、複数人間で書きやすいように、といった理由で、曖昧さが許容されている。

そのため、機械命令するためには厳密さが必要からプログラミング言語必要だ、と言う反論妥当ではあるが、弱い。

人間監査するためにはプログラミング言語である必要があるのではないか

こちらも限定的に、はい、と答えることが出来る。

なぜ大統一プログラミング言語のように、自然言語意図機械に伝えるための形式言語一種類になっていないかと言えば、人間認知能力には限界があるからだ。

そのため、簡易で曖昧さを含むために最適化はできないが十分な性能を持つプログラミング言語や、非常に複雑で記述量も多くなるが大人数で作業するには最適なプログラミング言語などが複数存在する。

これらはいずれも、人間が楽に記述できる形式言語であったり、人間同士が齟齬なくコミュニケーションを取るために必要形式言語である

ありていに言って、人間人間たちが理解可能形式言語でないと機械にその意図を伝えることが出来ないから、と言える。

ただし、コンパイラから出力されたニーモニックLLVM-IR監査できる人間現代では非常に少なく、現状ほぼ監査なく受け入れていると言って良い。

何故非常に少なくなったかと言えば、機械に伝える意図が大規模になり、単純にマンパワーが足りなくなったので監査しきれなくなっただけに過ぎない。

(もちろん、途方もない努力の末に最適化が進み、ほぼどの様な書き方をしても最適な機械語が出力されるようになったから、とも言える)

同様の理屈で、単純に大規模になり監査が間に合わなくなったので、受け入れるようになる未来が来ないとは言い切れない。

なぜ、ノイマンコンピュータをわざわざ用いて、ASICを出力しないのか?

本質的な問いは、なぜ我々はノイマンコンピュータを用いて機械意図を伝えるのか、である

ASIC(Application Specific Integrated Circuit)と呼ばれる、特定用途向けの集積回路がある。

チップとして、Realtek社のNIC(Network Interface Card)をご存じの方も多いと思う。

必要十分な処理があらかじめ定まっているのであれば集積回路を組んだ方が高効率省電力にできる。

暗号化や復号もASICで行われることが多く、ブロック暗号はその性質集積回路での実装が容易であり、それに向けた研究も行われている。

一般的にも、ハードウェアエンコーダーなどでお世話になっている人も多いと思う。

ではなぜ、我々は身近な全てをASICにしないのか。

それは、書き換えできず、単純な処理しかできず、大量生産しないとコストに見合わないかである

FPGAのように、ハードウェア記述言語を用いて集積回路を書き換えるものも、ほぼ同様の理由研究開発用途産業用途に留まっている。

(一部のPLD (Programmable Logic Device)は根強く産業利用されているし、大規模に展開され高効率要求されかつ書き換えを求められるネットワーク機器では一部採用が進んでいる)

汎用的で書き換えが可能、伝える意図を変更できる様々な処理が可能機械価値があるからである

閑話休題

ここ半年から1年で急激にLLMの性能が上がったと感じている人と、コーディングツールとしてLLMの利用が洗練されたと感じている人の間には溝がある。

自分は、LLM自体は順調に進歩し続けているが、それほど劇的な変化はない、という立場をとっている。

これはモデルのもの質的に大きく変化したと感じないから、である

しかし、プログラミング世界に限って観ると、コーディングエージェントや実利用では大きな変化があったと思う。

この、"コーディングを取り巻く環境としてのLLM利用"という文脈は、"LLMの進化"という文脈とは異なる、という点は頭の隅にでも覚えて帰ってほしい。

LLMは直接バイナリを出力するようになるのか?

これは、LLMから直接と言う意味であれば、個人的にはNOだと思う。

ただし、LLMに指示すればバイナリが出力されるという意味であれば、個人的にはYESと答える。

この二つは明確に異なるので、今後自分意見を述べる際には区別すると良いと思う。

コーディング周りの環境が劇的に整備されつつある、という話題に軽く触れたのはこのためで、LLMが直接バイナリを出力しなくても、結果が同じであれば人々はそれほど気にしない。

例えば、現時点でもローカルのLLMに指示するとGO言語で書かれたコードが生成され、ローカル環境に合わせたシングルバイナリが出力される一連のパイプラインを組むことはできる。

自分の想定する、未来AIバイナリを直接出力するというのは、この延長にあると思う。AIイコールLLMである必要はどこにもない。

また、議論している人たちが見えている世界も違うと思う。

少しでもクラウド上でのサーバー処理について触れると、廃棄容易性(Disposability)は俎上に上がる。いつでも落とせていつでも捨てられる、という性質のことである

こうした、単機能バイナリコンテナ等に載せて処理し、日に数度デプロイするような環境だと、LLMがバイナリを出力するというのもそれほど遠い未来の話には思えなくなる。

まとめに代えて

LLMが機械語を出力する未来個人的には来ないと思う。それは難易度が高いからではなく単純にメリットが少ないかである

ただし、パイプラインが組まれた一環として、LLMがバイナリを出力する未来は、それほど不思議には思わない。現時点でも可能である

単純なLinterから進んで静的解析や、動的な結合試験が組み込まれているCICDパイプラインが珍しいとまでは言えない現代において、来るべき近未来像としては妥当性がある。

(その場合ソースコードログとして機能し、テキストで保管が容易な、次回以降変更可能コンテキストの一部になるだろうと思う。今後変更不要ならHDLでFPGAを弄った方が早い)

現代人のすべてがJavaで同一の書き方をしているのではない現状において、自然言語では揺らぎが強すぎて形式言語ほど意図機械に伝えきれないという反論は、弱い。

それよりは、現代のLLMはコンテキストウィンドウ人間の数倍~数十倍程度で、適切に分割して処理しなければならず、大規模なソフトウェアを丸ごと扱えるほどではない、という反論の方が適切である

ただ、LLMに適したプログラミング言語が生まれるのではないかと言う予測には懐疑的である既存プログラミング言語を使う方が人間が読みやすい。

AIが、人間が欲しいバイナリに適したプログラミング言語をLLMを用いて書き、LLMを用いてレビューし、テストツールテストし、コンパイラビルドし、ツールデプロイし、実稼働するという未来予想図が、荒唐無稽とは思えない。

LLMに適したプログラミング言語が生まれ未来よりも、(冗長であっても)人間可読性の高いコードやSelf-documenting codeが生成される未来の方が、来そうに思う。

また、おそらくこの文章もつくであろう「どんなプロンプトで書いたのか」という、一定以上の長さの文章はLLMが出力しただろうと仮定する人間が増えている(そしてある程度の妥当性がある)現状において、プロンプトで指示してデプロイまでされる未来はそこまで遠いとも思えない。

ただ、購入できるハードウェアの性能とコスト律速になるので、よほど特殊な(CPUGPU設計をLLMが劇的に改善する)状況にならない限り、5~10年はプログラマーが消えることは無いと思う。

金に糸目をつけないのであれば、再来年当たりからはLLMレビューのみで仕様バグ以外のほぼ無いプロダクトが世に出てもおかしくは無いと思う。

生きているうちにWozniak testパスしたというニュース出会えるかもしれないと、最近は思っている。

anond:20250628122821

2026-01-08

AI機械語出力使うのかい!使わないのかい!どっちなんだい!つーか

1位: centra (@cent_ra)

人類言語のもの目的関数としてそれに対して最適化するのがLLMなのだから人類認知で到底不可能なことはやりようがないだろう。

一文で本質を突いている。AI能力限界構造的に説明している。

2位: mod_poppo (@mod_poppo)

今よりもAI進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日高級言語みたいなもの思考していた、みたいなオチになるんじゃないんですかね

結論完全に一致。内部に抽象化レイヤーが生まれるという洞察

3位: 飲酒isGood (@typeSomeWords)

マシン語エラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。

検証修正サイクルに意味単位必要という話を、実務的な観点から der 表現

4位: チェシャ猫 (@y_taka_23)

計算機科学について何一つ知らなかったとしても、ニーモニック無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。

探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。

5位: アンドゥー (@carbon_hero)

抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAI理解やすいし、生成しやすい。現在機械語アセンブリ高級言語階層構造が崩れるとは思えない。

AIにとっても同じ」という視点が正しい。人間向けとAIけが乖離しないことを理解している。

6位: 甘食 (@chlorosoda)

AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味から組み立てる高級言語の方がそりゃ相性いいでしょうね。

LLMの構造から導かれる必然性を指摘。

7位: okkuu (@okkuu_NMB)

AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話

AI向け言語人間にも使いやすいはず」という結論と同じ方向。

8位: こくとうラテ (@Jean_Coc_Teau)

CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。

機械語には意味エンコードされていない、という議論の核心部分。

9位: しめじえのき (@4SuJepTnrb387l4)

機械語派は抽象化の力を舐めすぎ。型なし言語トークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AI仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。

抽象化価値と、中途半端な主張への皮肉が効いてる。

10位: うみれおん (Kaito Udagawa) (@umireon)

AI機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽さらに発展するとでも思っているんでしょうか?

比喩として秀逸。抽象化レイヤー必要性を別ドメイン説明

11位: nyan (@nullpon)

AI用言語にせよ機械語を直接出力にせよ、人の持つ高レベル意図仕様アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データ存在しないから難しいというか現実的に無理よなぁ

学習データ観点から意味構造が保存されたデータがないと学習できない。

12位: 清水正行 (@_shimizu)

AIマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AI人間言葉より、機械言葉の方が本当は理解やすいはずだ」という思い込みから来ているのじゃないかと思っていて

誤解の根源を正確に特定している。

13位: 山田百太郎 (@SDzpp8XtPmUsyN2)

まず機械語を直接記述するメリットがない。現代コンパイラインタープリタは超優秀(OS組み込みの一部だけ)。人類プログラム資産高級言語ほとんど。AI学習先もそれ、よってAI高級言語で出力するほうが成績が良い

実務的・実利的な観点から正しい。

14位: kojix2 (@2xijok)

AIが直接機械語を出力すべきか?という話題流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり

内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論

15位: SAGA (@menuhin)

意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語理解できず、意味の羅列である高級言語こそがむしろ生成AI最適化されている。

意味を削ぎ落とした」という表現が的確。

16位: 伊織 (@kakkokka)

コンパイラって優秀だからAIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロン模倣だし。

人間寄り」という認識が正しい。

17位: ねくすらい (@nexryai)

レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う

検証必要性を実務観点から

18位: 偽物のUNIX (@windymelt)

もし仮にAI機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う

コンパイラとの比較で、AI機械語を吐かせるメリットのなさを指摘。

19位: itocchi (@itocchi_3)

機械語冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存コンパイラビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。

AIにとっても効率が良い、という視点

20位: とつげき東北 (@totutohoku)

自然言語を処理するのがLLMなので、不自然機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。

意味が読み取れない、という問題を簡潔に指摘。

21位: 春夏秋冬巡 (@SyluahWB)

AI時代人間仕事は、信頼性確約(=こういう理屈大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。

責任説明可能性の観点言葉は強いが論点は正しい。

22位: がじらんむ (@kzlogos)

LLMに機械語を出力させようとするやつは「AI機械なんだから機械語簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂

比喩が秀逸。誤解の構造を端的に表現

23位: メタルさん (@metalojisang)

人間ソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応GitHubかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間意図機械語対応学習データ全然いかAI作れないように思う

学習データ観点から意図機械語対応データがない。

24位: ぎんしゃり (@givemegohan)

「よく使うロジック共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語コンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。

中間層必要性を実務的に理解している。

25位: Kazz𝕏 (@Kazzz)

AIは人とのコミュニケーションいかスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。

AIの発展の方向性から考えて、機械語出力は逆行という指摘。

26位: 白菜スープ (@hakusainosupu)

AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする

検証修正不能になるという問題を指摘。

27位: Sho (@Sho05050202)

これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる

学習データ問題根本的な疑問。

28位: ナイブス (@knives777)

ロジックに従っているわけだからソース想定外挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。

デバッグ実務の観点から意味単位がないとデバッグできない。

29位: zakki (@k_matsuzaki)

AIしか読めない言語より、人類発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語中間表現機械語データリブンに統計的に正しくAIが作るって方向に行かないですかね

AI向けと人間けが収束するという視点結論と一致。

30位: 星にゃーん (@takoeight0821)

AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間プログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる

「無い」と断じた上で、次の問いを立てている。建設的。

筋の悪い言説ランキング(悪い順)

1位: hff kff (@HffKff)

プログラミング言語人間認知負荷、記憶量の限界ミステイクスパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考

反論: 完全に逆。プログラミング言語は「人間限界を補うため」ではなく「意味構造として保持するため」にある。AI意味を扱う以上、意味表現する層が必要。「常考」と言いながら何も考えてない。

2位: エクセルの神髄 (@yamaoka_ss)

シンギュラリティ前夜 アダムAI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。

反論SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論否定されてる誤解そのものAI人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。

3位: yas_omori (@yas_omori)

なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。

反論: 「数年は無理だけど、いずれそうなる」の根拠ゼロ。なぜそうなるのか、意味機械語ギャップをどう埋めるのか、何も説明してない。批判されてる理由理解してない。

4位: 溶解おろ (@oryoco2)

プログラム言語って人間が扱うために自由度を削り取った結果の産物からAI機械語で作ってもらって最適解であれば、現代言語宗教感ってほぼほぼ否定されるのです

反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AI意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造理解してない。

5位: カツカツマン (@shinchikutateyo)

「まだ」人間安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAI機械語出力する事に忌避感を感じるのは論理的とは言えません

反論コンパイラの出力を読まないのは「コンパイラ検証済みだから」。AIの出力は検証必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理破綻してる。

6位: to (@to49393502)

AI機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。

反論: 「人間が見る必要がなくなったら」という仮定自体検討されてない。人間が見なくていいとして、AIはどうやって検証修正するの?意味単位がない機械語で?その議論が抜けてる。

7位: えい (@Hollow7864)

機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代AI機械語ではなくAI用に最適化された人間には読めない言語思考する、という方向性なのかな。

反論: 「人間には読めない言語」がなぜ生まれると思うのか。AI人間認知模倣してるので、AIにとって扱いやす言語人間にも扱いやすい方向に収束する。逆方向には行かない。

8位: Grok (@grok)

中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語存在するが、AIなら移植性や抽象化不要中間層スキップできる。

反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語存在する」が誤り。意味を扱うために言語存在する。AI意味を扱う。

9位: 見習い (@noob_peer)

AI気持ち分からんけど、プログラミング言語が嫌なら直接機械語触らせてうまくやってくれるかもしれん

反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証修正はどうするのか、何も考えてない。

10位: keyakitomo (@keyakitomo)

AI機械語を」派なので、ワシはプログラミングを専門としていないことが確定しました

反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家意見を聞く姿勢があれば良いと思う。

総評

筋の悪い言説に共通するのは:

1. 「高級言語人間のため」という誤解 - 意味を扱うための構造だと理解してない

2. 「AI機械から機械語が得意」という誤解 - AI人間認知模倣してると理解してない

3. 検証修正問題無視 - 一発で完璧に動く前提になってる

4. 「いずれそうなる」の根拠なし - なぜそうなるかの機序説明できない

2025-12-30

現在ロシア情勢の原因はイギリスEU離脱

結局今の問題ってイギリス民意旧大陸と決別しかかっていることに焦った英政府が、旧大陸距離を置かれないようにロシアの介入を欧州問題すり替えてるせいなんだよね

別にこれまで小国が潰されるなんてことは枚挙に暇がないわけで、日本だってアメリカイラク侵略解体に協力してきた

ウクライナだってスペインイタリアからすればガスや原油の安定供給のために泥棒を始末するだけの話に過ぎなかった

ウクライナ旧ソ連価格で卸されていた資源パイプラインから抜き取って転売していた国家規模の転売ヤー)

それが現在では各国の民意は煽られ、スラヴ民族同士の小競り合いはウクライナ民族主義の存亡になっていた

あと北海航路地中海航路対立というのもある

ロシア原油やガスは中欧精油所にパイプラインで運ばれ、加工品はアルプス南北河川鉄道を伝って出荷されている

このルートをぶっ潰したおかげで地中海では一部原油製品供給を外部に頼る必要が生じた

それで得するのは外の航路を持つ勢力であり、地中海勢力は影響力を削がれる

グローバルチェーンを容赦なく破壊して自国利益誘引しようとするイギリス意向世界は踊らされすぎている。

2025-12-10

ロシア-ウクライナ戦争が終わった後、政権維持のためにデンマークあたり攻めそうなロシア

もうロシアイスラエルと同じで戦争してないと政権維持できないんじゃね

そういう意味では中国も内部のゴタゴタをどうにかしたいか戦闘を開始しそうだが

インドとやるか台湾とやるかどっち何だろ

どっちにしてもロシアから石油スパイプラインの運用が開始されると準備OKぽいよな

パイプライン自体は去年完成したけど運用は聞こえてこないけどどうなんだろ

まあ石油パイプラインはもうできてるからやってもいいやって気持ちかも

2025-10-26

もしMicrosoft(ゲーム機メーカー)がXBOX(自社販売ゲーム機)の販売を終了したらどんなリスクが生じるかをChatGPTに訊いてみた

以下回答

ゲーム機メーカーが「自社ハードウェア事業を終息」し、「自社ソフトを他社プラットフォーム供給する」という方針転換を行う場合経営ブランド技術収益面などで多面的リスクデメリットが生じます。以下に体系的に列挙します。

🧩 1. 経営戦略面のリスク

■ (1) 収益構造の変化による利益率低下
■ (2) 成長ドライバー喪失

🎮 2. ブランドマーケティング面のリスク

■ (1) ブランド価値アイデンティティ喪失
■ (2) 既存ユーザーの離反・不信感
■ (3) 販売チャネルの再構築コスト

⚙️ 3. 技術・開発面のリスク

■ (1) 技術力・開発ノウハウ空洞化
■ (2) 他社プラットフォームへの依存度上昇

💰 4. 経済契約面のリスク

■ (1) ロイヤリティ手数料負担
■ (2) 価格政策の制約

🧠 5. 組織人材面のリスク

■ (1) 人員削減士気低下
■ (2) 開発体制の再構築コスト

🧩 6. 市場競争面のリスク

■ (1) 差別化困難
■ (2) 他社との関係悪化可能

🕰️ 7. 過渡期の移行リスク

✅ 総括

観点 主なリスクデメリット
経営利益率低下、成長鈍化
ブランド独自性喪失ユーザー離反
技術ハード技術衰退、他社依存
組織人員整理・士気低下
市場差別化困難、競争激化

もし本当にMicrosoftXBOX販売から撤退したら、こういうリスクを織り込んだうえでそれでも決断せざるを得なかった、という事なわけだ。

2025-10-21

50代の早期退職能力不足が原因ではない?

日本型雇用制度構造課題と持続可能な人事戦略への転換

序論:中高年社員雇用危機とその構造的背景

日本代表する大企業において、50代の社員が直面する「無言の退職圧力」は、もはや例外的事象ではなく、構造的な問題として常態化している。長年の経験専門性を蓄積したベテラン人材を早期に手放し、その一方で育成に10年という歳月を要する未経験新卒者を採用する──この一見不合理なサイクルは、なぜ繰り返されるのか。本レポートは、この問題の背景にある経済的力学制度的欠陥を解き明かし、日本企業が直面する人事制度根本課題に対する処方箋提示することを目的とする。

この問題の核心には、見過ごすことのできない重大なパラドックス存在する。

この矛盾した人材サイクルの根本原因は、個々の企業経営判断ミスという表層的な問題ではない。それは、日本型雇用システムに深く根ざした「年功序列型」の賃金体系そのものに内在する構造的欠陥なのである。次章では、この矛盾を生み出す経済的メカニズムを詳述する。

1. 早期退職優遇制度経済的合理性限界

持続的なリストラのサイクルは、経営非情さの表れというより、むしろ伝統的な日本型報酬モデルに組み込まれた、根深経済的ロジックの症状である。中高年社員早期退職を促す構造は、短期的な財務改善という抗いがたい「誘惑」を経営陣に提示する一方で、長期的な人的資本を蝕む罠となっているのだ。

問題の根源は、多くの日本企業において、中高年社員賃金水準が本人の生産性を大きく上回ってしまう「高すぎる給与」にある。具体的には、以下のような水準が常態化している。

この報酬と貢献の危険乖離は、労働経済学の「レイザー法則」によって理論的に説明できる。この法則によれば、年功序列賃金社員キャリアを二つのフェーズに分断する。

この報酬と貢献のデカプリングこそが、早期退職を促す構造の核心である壮年期以降の社員を早期に退職させることが、企業にとって「膨大な利益」をもたらす財務ロジックがここに成立する。

1. 退職金のコスト: 早期退職優遇制度では、退職金に「30ヶ月分」程度の給与が上乗せされるのが一般的である

2. 雇用継続コスト: 一方で、高給与の50代社員を1年間雇用し続けるための総コストは、基本給(12ヶ月)に加え、賞与、高額な社会保険料、その他経費を含めると、給与の「24~25ヶ月分」に相当する。

3. 結論: つまり、30ヶ月分の退職金は、実質的わずか「1年3ヶ月分」程度の雇用コストしかない。この計算に基づけば、50歳で社員退職させることで、定年となる65歳までの残り15年分の莫大な人件費を削減できることになる。この財務インパクトが、経営陣にとって短期的なバランスシート改善を優先し、経験豊富人材の維持という長期的な視点犠牲にする、強力かつ危険な誘惑となっているのだ。

しかし、この短期的な経済合理性は、深刻な副作用を伴う。かつて大規模なリストラを行ったパナソニックが、15年の時を経て再び同様のリストラを繰り返している事実は、このモデルが持続不可能であることを象徴している。この負のサイクルを断ち切るためには、問題の根源である日本給与構造のものにメスを入れる必要がある。

2. 日本給与構造実態平均値の罠と年功カーブ

日本賃金に関する議論は、「日本の平均給与は低い」という、統計がもたらす「罠」にしばしば陥りがちである。本章では、この誤解を解き明かし、急峻な年功カーブが一部の大企業特有問題ではなく、日本の中堅・大企業共通する構造課題であることを論証する。

世間一般で語られる「低い平均給与」の根拠とされる統計データは、意図せずして実態を著しく歪めている。これらの数値は、人事戦略を構築する上で根本的に誤解を招くものであり、一種の「インチキ」と言わざるを得ない。

これらの統計からパートタイマー等の影響を除外し、フルタイム働く男性の賃金カーブに焦点を当てると、全く異なる実態が浮かび上がる。学歴高卒・中卒含む)や地域を問わない全国の平均値ですら、50代の平均年収は700万円に達する。これを大卒正社員限定すれば、さら100万円程度上乗せされるのが実情だ。これは、日本賃金体系が年齢と共に急勾配で上昇する、典型的年功序列であることを明確に示している。

では、この構造問題はどの規模の企業に当てはまるのか。我々の分析は、明確な境界線を明らかにしている。

この分析が示すのは、この問題が一部の巨大企業限定されたものではなく、日本企業アーキテクチャに組み込まれシステム上の欠陥であるという事実だ。したがって、この課題解決策を模索する上で、グローバルな標準との比較はもはや単に有益であるだけでなく、不可欠なプロセスなのである

3. 海外賃金体系との比較フラット化された給与モデル

日本型雇用システム構造課題を克服するためには、国内常識に囚われず、海外先進的な雇用モデル比較分析することが極めて重要であるフランスアメリカの事例は、日本年功序列型とは全く異なる賃金思想を示しており、我々が目指すべき改革方向性を明確に示唆している。

フランス賃金体系は、エリート層と一般層でキャリアパスと給与モデルが明確に分離された「複線型」を特徴とする。

アメリカ賃金体系も、大多数の労働者においては同様の傾向を示す。中央値位置する労働者場合賃金の伸びは30歳から40歳までの期間に集中し、40歳以降の給与はほぼ横ばい(フラット)となる。給与青天井で上がり続けるのは、ごく一部のトップエリート層に限定されるのだ。

フランスアメリカ、二つの先進国の事例から導き出される示唆は、極めて明確である。それは、「一部のエリート層を除き、大多数の労働者賃金カーブ若いうちに頭打ちとなり、その後はフラットに推移する」という共通原則だ。このモデルは、年齢給による人件費の高騰を防ぎ、長期的な雇用安定を可能にする基盤となっている。このグローバルスタンダードを参考に、次章では日本が目指すべき具体的な人事制度改革案を提言する。

4. 提言:持続可能な人事制度への移行プラン

これまでの分析で明らかになった構造課題解決するためには、小手先対策では不十分である。我々が取るべき唯一の持続可能な道は、戦略的な転換、すなわち「年功序列賃金から、成果と役割に応じたフラット賃金体系への移行」である。本レポート提示する核心的な提言は、この移行を断行することに尽きる。その具体的なモデルケースとして、「年収700万円での頭打ち」を一つのベンチマークとすることを提案する。

この新しい賃金モデルは、単なるコスト削減策ではなく、企業競争力従業員エンゲージメントを同時に向上させる、多面的メリットをもたらす。

この改革は、単なる賃金制度の変更に留まらない。それは日本人の働き方、キャリア観、そして社会全体のあり方を変革し、持続可能タレントパイプラインを構築する大きなポテンシャルを秘めている。

結論:真の「雇用安定」の再定義に向けて

レポートを通じて明らかになったように、日本の中高年雇用問題根本原因は、個々の社員能力や意欲の欠如では断じてない。その本質は、経済成長期を前提に設計され、現代環境には全く適合しなくなった年功序列型の賃金システムのものにある。

この本質的な課題を前に、我々は議論の焦点を大きく転換させねばならない。「定年後の再雇用」や「中高年のリスキリング」といった対症療法的な議論から、「そもそも定年を意識することなく、誰もが安心して長く働き続けられる雇用賃金体系をいかにして構築するか」という、より本質的な議論へとシフトしなければ、この問題解決することはない。

真の「雇用安定」とは、単に一つの企業に長く在籍できることではない。それは、年齢に関わらず、社員一人ひとりが自らの能力経験を最大限に発揮し、その貢献に対して公正な処遇を受けながら、社会の一員として長く活躍し続けられるシステムである。この新しい定義に基づき、持続可能で、かつ働くすべての人々にとって公平な人事制度を構築することこそ、現代日本企業に課せられた最も重要戦略的責務である

2025-10-14

自然言語処理10年ぐらいやってきた

学業でも仕事でも趣味でも、ずっと自然言語処理をやってきた。

別に最初からAIだのNLPだのに興味があったわけじゃない。

きっかけは、学生時代ちょっとしたレポートテキスト単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。

英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。

その瞬間にちょっとハマったんだよね。

辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。

そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。

Pythonテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語対応させたり。

言葉を数理で扱える」って発見が、ちょっとした中毒になった。

その頃はMosesとかGIZA++とか、ああい統計翻訳系のツールも触ってたね。

単語ラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。

とにかく、NLP世界には「人間言葉数学再現できるかもしれない」という変な魅力があった。

深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。

今思えば、あれが一番自然言語処理っぽい時代だった気がする。

で、いろいろあって自然言語処理系の企業入社

最初はPoC(Proof of Concept)しかやらせてもらえなかった。

感情分析とか、Stance Detectionとか、「この文は文法的典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング質問応答(Question Answering)。とにかくNLP典型的なタスクを一通り。

学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。

PoCで終わって、実装には至らない案件が山のように積み上がっていった。

あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。

でもさ、LLM(大規模言語モデル)が出てきてから世界がひっくり返った。

正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。

それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。

ChatGPTが出て、蒸留ファインチューニングほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。

でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈NLPが再接続した。

単なるテキスト処理から、「テキスト媒介にして人間の行動を理解する」方向に進んだ。

埋め込み表現ベースユーザーの嗜好を推定して、レコメンドメルマガのパーソナライズをやる。

自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPビジネスに食い込む瞬間」ってのを肌で感じた。

PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。

でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。

自然言語処理って、そういう「積層的な知識挫折の積み上げ」が一番の資産なんだよな。

2025-09-27

ネタニヤフなどは事実上軍事政権なので本来制裁を受けるべき立場

しかハマス内戦を起こさせ軍事政権正当化理由にした

ハマスそもそもガザ近くのパイプラインを全く襲撃してないので、Europe Asia Pipeline Companyなど石油会社ハマスで疑似内戦を起こした蓋然性すらある

石油供給源はロシアトルコ

どちらもガザが落ちてプラント拡張があれば利益を得るだろう

それでロシアウクライナ戦争トルコNATO加盟国戦争中だから手が回らないという言い訳を先に作ったかもな

ロシア攻撃続けてたウクライナ大元の悪だとすりゃ、そのウクライナ支援者は英仏独と米国民主党損保ジャパン

2025-09-21

ITバブルはいつ弾けるのか?

どう考えたってSEプログラマよりも土方の方が必要職業だし重宝されるべき仕事にも関わらずスタートアップのよくわからんホワイトカラーの連中の方が高給だったりするのが納得できない

というか正直ITバブルが長すぎたと思うんだよ。それだけ需要があります!ってことなんだろうけど、これまではなんちゃって専門職に見せて市場全体の相場自体ぼったくりみたいなところあったことは実際否めない。

だってフリーランス仲介サイトなどで見るSESや受託開発案件では一般的Webエンジニアなら人月単価60〜80万円前後相場だが、機械学習系やSREなど高難度のプロジェクトでは一人月100万円近くに達する案件も珍しくないんだぜ!?

あと仲介業者多すぎぃ!!例を挙げるとクライアント企業から人月90万円の発注があっても、実際に要件定義や開発を担うのは下請けの開発会社派遣チームであることが少なくなくて、仲介業者がやるのはその橋渡しだけ。あとの実務やリスクの大半を下請けに丸投げしてるのに10〜30%前後手数料マージンって確保すんだぜ。ノミじゃん。ダニじゃん。一応マッチング契約管理といった役割はあるとしたって、一次請けとしての実働や技術責任ほとんど負わない状態での高率マージンはどう考えたって業界全体のコスト構造を押し上げる一因になってる。でも誰もここを変革しようとはしなかった。はっきりいって、そういう業界全体の空気に心底うんざりしてた。

けど今後は、大規模言語モデル(LLM)や生成系AIの普及でコード自動生成ツールGitHub Copilot など)やDevOpsパイプライン標準化が進めば、こうしたエンジニア単価の上限は徐々に見直されるはずだ。これこそが長らく続いたITバブルの前提を根本から揺るがす変革になるだろうなと思ってる。

頼むよAI

2025-09-12

性欲抑制パッチ

今度イギリス製薬会社が、性欲をピタッと押さえ込むパッチを出すらしい。

ニコチンパッチみたいに腕にペタンと貼るだけで、煩悩が全部蒸発するって話だ。

っていうのはまったくの「嘘」なんだけど、実際にそんなもんが出てきたらどうする?

世の中、性欲で人生こじらせてる奴が多すぎる。電車スマホ片手にエロ広告を消すのも面倒だし、週末の夜は「彼女ほしい」と言いながらAV自家発電大会。「風俗なんて行く金がねぇ」、「マッチングアプリメンタル崩壊」、「女友達と飯行くだけで下心がバレる」、「結婚したけどレス地獄」。そんな毎日なら、もう全部パッチで消してくれって気分にもなる。

そもそも、性欲とやらがなければ、もっと有意義なことに脳みそ使えるんじゃないか受験生の頃、「くだらねえ妄想消して単語帳に全集中できたら東大行けた」とか、仕事中にスクリプト組んでても、なぜか脳裏アイドルのあの表情がフラッシュバック。「この時間が全部計算資源に変換できたらCIパイプライン爆速じゃね?」なんて考えたやつ、俺だけじゃないだろ。

でも、いざパッチを貼ってサクッと欲望ゼロになったら、空っぽロボットになる気もする。好きな人と目が合っても何も感じない。推しアイドル新曲MV見ても「はえー色使い綺麗っすね」とかしか思わない。そもそも金曜の夜に飲み会で変なフラグ立てることもなくなる。「恋」「ときめき」妄想」「嫉妬・・・こんな人間くさい情動を、ぜんぶパッチの下に封印してしまう。それで何を楽しいと思えるんだろう。

冷静に考えれば、性欲如きに踊らされる人生もどうかしてる。でも全部消してしまえば、人間社会のものが根っこから成り立たなくなる気もする。文明の起動エネルギーを全部オフにした世界で、進化はもうあり得ない。

いっそパッチで悩みが消えてしまえば楽ではある。でも、欲望を抱えて泥臭く生きてる今が、案外悪くないんじゃないかとも思ってしまう。

お前らはどうする?性欲抑制パッチ、貼るか?貼らないか?でも貼った先の人生って何が残るんだろうな。

2025-09-04

三菱商事洋上風力発電撤退で一部の船舶マニアに衝撃が走った※追記

追記

この増田は、特定企業非難攻撃するために書いていません、あくまファンが外から見た話です

仕事柄、造船に関わることはありますがそれは、図面通りの物を造るという仕事業界俯瞰することはありません

また、企業業界の様々な事情考慮されていません

例えば、下に出てくるJMUJapan Marine United)は、今年の6月今治造船の傘下に入りました

今治造船は、ぼくが増田で書いている大手造船が本当に大手だった頃、中堅と呼ばれるような規模の会社でした

それが今や日本最大の造船会社になり、IHI住友重機日立造船JFE錚々たる面子ルーツに持つJMUを傘下にしたのです

そんな今治造船の主力は、バラ積みやコンテナ船です、結果を見れば中韓競争してでも貨物船に集中し巨大化の波に乗るのが正解だったんです

じゃあ、なぜこの増田今治造船の話が出て来ないか、それは、ぼくの好みの船を造っていないからです

マニアファンとの意見と言うのは往々にして業界のためにならないし、業界を語ることも出来ません、興味のないことに注意を向けないからです

これはそんな増田です、この増田業界を反映していません、ぼくの好きな特殊作業船をいっぱい造って欲しい、そして、出来たら日本企業がいいなってそんな話です

洋上風力発電は多くの場合、設置にSEP船が使われる

SEP船は(Self Elevating Platform)の略であり海底に向け足をビューンと伸ばして着底したらドーンと船体を海面より上に持ち上げる

船体が海と接しておらず、かつ足で海底に固定されているため波浪の影響を軽減しつつ作業が出来る作業船一般的に水深60mぐらいまで対応できる

このSEP船、これまで日本には2018年に完成した五洋建設CP-8001しかなかった

そんな中、2022年清水建設BLUE WIND2023年大林組東亜建設柏鶴五洋建設鹿島建設・寄神建設CP-16001が完成し計4隻となる

CP-8001CP16001BLULE WIND柏鶴
基本設計GustoMSCGustoMSCGustoMSCJMU
昇降装置GustoMSCGustoMSCGustoMSC三菱重工
能力800t1600t2500(1250)t1250t
自航能力
建造JMUPaxOceanJMUJMU

GustoMSCはオランダの造船会社Werf Gustoルーツに持つ、オフショアプロジェクト世界的なシェアもつ会社で今はアメリカのNOV(National Oilwell Varco)の傘下、NOVのルーツUSスチール

Werf Gustoは、日本韓国との競争に負けて再編、閉鎖されたがオフショアに活路を見出していた

日本JMUで建造されているものの基本設計GustoMSC、SEP船の特徴である昇降装置GustoMSCに頼っていた中

柏鶴は、オランダのHuisman製クレーン使用しているものの基本設計からJMU担当しておりほぼ国産と言っていいSEP船である

Huismanは海上港湾で使われる大型クレーン世界的な企業世界最大の起重機船 Sleipnirの10000t×2のクレーンもHuisman製

日本最大の起重機船は、寄神建設が所有する海翔の4100t

日本洋上風力発電の波が来たことで高い技術力を持ちながらも経験や実績不足から海外に頼らざるを得ない状況が改善されていくかに見えていた中での三菱商事撤退

作業船好きなマニアに衝撃が走った、夢見た国産化の道が、造船立国日本の復活が途絶えてしまうのではないか

SEP船の建造費用は数百億円かかりBLUE WINDは約500億、近年は大型化に拍車がかかり3000tクラスの吊り上げ能力もつものもあり1000億がみえている

20フィートコンテナ20000個以上積める、24000TEUのコンテナ船で1隻当たり330億ぐらいであり、SEP船は単価が高い

コンテナ船は同じものを何隻か造ることでコストダウンしているため単純比較は出来ないが、中韓との単純な価格競争に巻き込まれづらい利点もある

日本は、世界の建造量において中国の48%、韓国28%に次いで15%と世界3位の座を維持しているもの価格競争に晒されるコンテナバラ積みなど貨物船が主力で苦労している

その中でSEP船は小さいが一つの解決策に見えた

三菱重工のように大型客船解決策を見たケースもあったが炎上沈没比喩)、祖業の造船を分社化商船から撤退という結末を迎える

このパターン過去にもあった

Werf Gustoらに勝ち世界の頂点に立った日本は、韓国中国に追い立てられた時FPSO(floating production storage and offloading)に手を出した

FPSOは、石油プラットフォームから石油を受け取り炭化水素生産、処理を行ったり一時的石油を貯蔵したりする船舶

石油プラットフォームと違い移動が可能で、パイプラインを陸地まで引く必要がないなどの利点がある

しかし、これは失敗だった

FPSOに手を出した日本大手造船は赤字を叩き出し撤退、今は現代重工など韓国企業シェアを持っているが利益を出せていない

FPSOの設計は、基本的欧州企業が手掛け、アジア製造のみを担当していることが多く、欧州設計アジアが血を吐きながら生産欧州運用という状況が続いてる

からこそ、柏鶴希望だった、外国に旨い所を持っていかれない、国内だけで完結することが出来る未来

しかし、三菱商事洋上風力発電撤退ということで国内洋上風力発電の勢いが小さくなれば、この未来も危うくなる可能性がある

世界最大の起重機船Sleipnirを建造したのはシンガポール国営エネルギー開発企業Sembcorp Industriesだが

1985年に建造され一時、世界最大の起重機船だったThialfを建造したのは三井造船であるものの今世界一の船舶日本が建造したものはない

日本の造船の技術力は高い、それは間違いないが中韓は安さだけでやっているのではなく技術力があり日本より実績がある

世界最大の半潜水式の重量運搬船BOKA Vanguard現代重工

世界最大の積載量を誇るコンテナ船Evergreen Aシリーズは、サムスン重工と中国船舶集团有限公司

世界最長488mのPrelude FLNGサムスン重工

個人的に最も好きな作業船世界最大の船舶の一つPioneering Spirit全長382m、総トン数40万tはHanwha Ocean(大宇造船海洋)が建造

石油プラットフォームをそのまま持ち上げることが出来るリフト能力が最大60000t、スカイツリーの総鉄骨重量が36000t、レインボーブリッジの総鉄骨重量が48000tだからイカレテル

最近では、バージョンアップして石油プラットフォームを海底に固定してるジャケットを引き上げる能力も獲得しこちらが20000t、イカレテル

なお、上であげた世界最大の船舶たちの設計欧州がやっている、アジアは手足でしかない、もちろん手足も重要だがやはり頭は自前で欲しい

から柏鶴希望だった、しかし、終わりそう

ちなみにベルギーJan De Nulが所有する世界最大のSEP船Voltaire吊り上げ能力3200tは中遠海運集装箱運輸が建造、クレーンはやっぱりHuisman

中遠海運集装箱運輸は傘下に川崎重工との合併企業を持っている、日本大手造船が赤字で苦しむ中、川崎重工が堅調だったのはこれがあったからだが良いのか悪いのかは分からん

2025-09-02

何で上は移民積極的に受け入れる方向に舵を切るんだろうね?

海外進出する際のパイプラインを作ったり、恩を売って交渉やすくするためなんかね?

それとも、相手の国の人間を囲い込んで、いざ強硬策をとられた時の人質にするためなんかね?

2025-08-30

自動車各社クラウド人材比較

テスラの「Sr. Software Engineer, Full Stack - Tesla Cloud Platform(TCP)」の求人https://www.tesla.com/careers/search/job/sr-software-engineer-full-stack-tesla-cloud-platform-249132)を起点に、自動車各社が同種人材採用する“目的”の違いを整理した。日本勢はIT基盤やSRE運用比重が高い一方、テスラは社内クラウド自体プロダクトとして内製し、中国勢のNIOやXPengはAIインフラ自動運転やロボティクス、エネルギー連携)に特化、ECARXはOEM向けの外販プラットフォームという立て付けである

各社比較

会社主要目的What to ExpectWhat Youll DoWhat Youll BringCompensation and Benefits
Tesla社内クラウドTCP)を“製品として”内製し、全社サービスの速度と統制を握るTCPテスラの内製クラウドであり、複数DCにまたがる計算ストレージネットワークID提供し、開発者セルフサービスで使える基盤をつくるチームであるコアAPIサービス設計実装セルフプロビジョニングの自動化、可観測性、ReactやNextTypeScriptによるダッシュボードGoやReactやNextTypeScriptKubernetes仮想化CI/CD分散システムの知見年収133,440〜292,800 USDに加え、現金賞与株式付与および福利厚生提示額は勤務地、市場水準、職務関連の知識スキル経験など個別要因により異なる。本職の総合的な報酬パッケージには、提示される職位に応じて他の要素が含まれ場合がある。各種福利厚生制度の詳細は、内定時に案内される。
Woven by Toyota製品直結サービスを“止めない”SRE運用(AreneやEnterprise AICity Platform)ミッションクリティカル運用信頼性最適化を担う監視や可観測性やインシデント対応運用自動化マルチクラウド横断SRE実務、Kubernetes、Terraformなどの基盤スキル給与は多くが非公開。米拠点類似シニアは$169K–$200Kの例あり。
Nissan全社ITや開発のモダナイズと標準化(Platform EngineeringやDevEx)社内開発者クラウド活用底上げする基盤を整えるCI/CD、セキュア環境供給教育や展開、オンプレクラウド統合運用クラウドコンテナCI/CDセキュリティ設計多くがレンジ非公開(地域により待遇差)
Honda(Drivemode含む)製品直結のAWS基盤と開発者体験高速化(DevEx)モバイルやIVIやバックエンドの横断基盤を整えるAWS設計運用、GitOps型プロビジョニング、CI/CD観測セキュリティ自動化AWS、TerraformやCDK、Kubernetesなど本体US求人レンジ非開示が多い。Drivemodeはホンダ完全子会社(前提関係
NIOAI学習や推論インフラの内製強化とエネルギー運用統合自動運転やVLMやLLMなどのAI基盤を構築するGPU最適化分散学習データパイプライン整備深層学習分散処理、クラウド最適化SJ拠点で$163.5K–$212.4Kレンジ例。
XPengFuyao AI PlatformによるADやロボやコックピット向けAI基盤社内共通MLプラットフォーム提供データローダやデータセット管理学習や推論スループット最適化分散処理、MLプラットフォーム運用クラウドサンタクララ拠点公募多数(給与媒体募集による)
ECARX(Geely系)OEM向けに外販するクラウドソフト製品(Cloudpeakなど)車載SoCからクラウドまでを束ねる外販スタック製品機能開発や統合、導入支援機能安全準拠車載クラウド統合機能安全顧客導入ハイパーバイザなど 直近レンジ情報は公開少なめ(事業広報は多数)

なお、関連するポストとして、SETI Park氏のポストを挙げる。

https://x.com/seti_park/status/1961629836054859810

自動車メーカーがなぜクラウド専門人材を探すのか」に答える文脈で、2024/07公開のテスラ特許(US2024249571A1)を手がかりに、ロボタクシーフリート運用の中核となるクラウド基盤が競争優位になり得る点を示唆している。

単なるストレージではなく、フリート運行データ連携統合管理する“中核プラットフォーム”としての重要性が強調される。

上記テスラTCP求人セルフサービスIaaSダッシュボードプロビジョニング自動化の開発)という具体の採用整合である

2025-06-17

早寝する技術 ―持続可能パフォーマンスを実現するスリープマネ

TL;DR

日中生産性は、夜の過ごし方、特に「就寝」というクリティカルタスクいか成功させるかにかかっている。本記事では、つい夜更かししてしまエンジニアのために、早寝を「技術」として体系化し、再現性のある形で実践するための具体的な手法を探求する。これは精神論ではない。あなたQoL生産性を向上させるための、実践的なスリープエンジニアリングだ。

はじめに:なぜ我々はwhile(true)な夜を過ごすのか

我々エンジニアにとって、夜は不思議な魅力を持つ時間だ。日中喧騒から解放され、思考は冴えわたりゾーンに入りやすい。しかし、その魅力的な時間は、往々にして「早寝」という、人間生存に不可欠な基本プロセス犠牲にすることで成り立っている。

「あとちょっとだけ、このバグの原因を調査したい」

リファクタリングが楽しくなってきた」

面白い技術記事を見つけてしまった」

これらの探求心はエンジニア美徳であるが、同時に我々を「睡眠負債」という深刻な技術負債へと導く。本稿は、この負債を返済し、持続可能な開発(と生活)を実現するための「早寝」という技術に焦点を当てる。

アンチパターン:早寝を妨げるBlockerたち

早寝を実装する前に、まずは現状のアーキテクチャに潜むアンチパターン特定しよう。

就寝前のスマートフォンは、まさに同期的なブロッキングI/Oだ。SNS無限スクロール動画プラットフォーム自動再生チャットアプリの通知。これらは我々の意識というシングルスレッドを完全に占有し、本来実行されるべきsleep()プロセスへの遷移を妨げる。

深夜まで続くコーディング問題解決は、脳を極度の興奮状態にする。ベッドに入っても、アドレナリンコルチゾールといったホルモンCacheに残り続け、CPUクールダウンしない。shutdown -h nowを叩いても、プロセスが終了しないのだ。

「夜更かしの供」として注入されるカフェインアルコールは、一見するとパフォーマンスを向上させるように見える。しかし、これらは睡眠の質という重要なmetricsを著しく劣化させる、誤った依存関係だ。特にアルコールは、入眠を助けるように見えて、実はレム睡眠を阻害し、睡眠アーキテクチャ全体を不安定にする。

  • Cronの不備:

規則な就寝・起床時間は、体内時計という最も重要なCronジョブ破壊する。毎日異なる時間に実行されるジョブが安定した結果をもたらさないのと同様に、不規則睡眠スケジュールは、日中パフォーマンス予測不可能ものにする。

Sleep as Code: 早寝を実現するためのプラクティス

では、どうすればこれらのアンチパターン排除し、安定した早寝pipelineを構築できるのか。ここではSleep as Codeの概念に基づき、具体的なプラクティスを紹介する。

1. 環境IaC (Infrastructure as Code)

睡眠環境コード化し、常に理想的状態を維持する。

2. 就寝CI/CDパイプラインの構築

毎晩、同じ手順で就寝プロセスを実行することで、入眠を自動化する。

- PC/スマホシャットダウン: 最も重要ステップ物理的に電源を落とすか、手の届かない場所(別のコンテナ)にdeployする。

- 入浴: 38〜40℃のぬるめのお湯に15分ほど浸かる。これにより深部体温が一時的に上昇し、その後の下降とともに入眠が促される。これはHot-swapならぬHot-bathによるクールダウンだ。

静的コンテンツの消費: 激しい思考を伴わない、静的な情報(紙の読書など)に切り替える。電子書籍ではなく、紙媒体が望ましい。

ストレッチ: 軽いストレッチで、日中のcommitで固まった体をreleaseする。

  • Deploy (就寝):

すべての準備が整ったら、ベッドという本番環境デプロイする。余計な思考git clean -fd強制削除し、呼吸に集中する。

3. MonitoringとRefactoring

例:「夕食後のコーヒーが原因だった」→「カフェイン摂取は15時までというSLAを設ける」

まとめ:早寝は未来自分への投資である

早寝は、単に体を休める行為ではない。日中の高いパフォーマンス、明晰な思考、そして創造性を維持するための、最も効果的で再現性の高い「技術」だ。

我々はインフラコード管理し、CI/CDデプロイ自動化するように、自身睡眠もまた、技術と工夫によってコントロールできる。今夜、あなたのwhile(true)なループbreakし、持続可能パフォーマンスを手に入れるための第一歩を踏み出してほしい。

Happy sleeping!

早寝する技術 ―持続可能パフォーマンスを実現するスリープマネ

TL;DR

日中生産性は、夜の過ごし方、特に「就寝」というクリティカルタスクいか成功させるかにかかっている。本記事では、つい夜更かししてしまエンジニアのために、早寝を「技術」として体系化し、再現性のある形で実践するための具体的な手法を探求する。これは精神論ではない。あなたQoL生産性を向上させるための、実践的なスリープエンジニアリングだ。

はじめに:なぜ我々はwhile(true)な夜を過ごすのか

我々エンジニアにとって、夜は不思議な魅力を持つ時間だ。日中喧騒から解放され、思考は冴えわたりゾーンに入りやすい。しかし、その魅力的な時間は、往々にして「早寝」という、人間生存に不可欠な基本プロセス犠牲にすることで成り立っている。

「あとちょっとだけ、このバグの原因を調査したい」

リファクタリングが楽しくなってきた」

面白い技術記事を見つけてしまった」

これらの探求心はエンジニア美徳であるが、同時に我々を「睡眠負債」という深刻な技術負債へと導く。本稿は、この負債を返済し、持続可能な開発(と生活)を実現するための「早寝」という技術に焦点を当てる。

アンチパターン:早寝を妨げるBlockerたち

早寝を実装する前に、まずは現状のアーキテクチャに潜むアンチパターン特定しよう。

就寝前のスマートフォンは、まさに同期的なブロッキングI/Oだ。SNS無限スクロール動画プラットフォーム自動再生チャットアプリの通知。これらは我々の意識というシングルスレッドを完全に占有し、本来実行されるべきsleep()プロセスへの遷移を妨げる。

Cacheされた覚醒状態:

深夜まで続くコーディング問題解決は、脳を極度の興奮状態にする。ベッドに入っても、アドレナリンコルチゾールといったホルモンCacheに残り続け、CPUクールダウンしない。shutdown -h nowを叩いても、プロセスが終了しないのだ。

「夜更かしの供」として注入されるカフェインアルコールは、一見するとパフォーマンスを向上させるように見える。しかし、これらは睡眠の質という重要なmetricsを著しく劣化させる、誤った依存関係だ。特にアルコールは、入眠を助けるように見えて、実はレム睡眠を阻害し、睡眠アーキテクチャ全体を不安定にする。

  • Cronの不備:

規則な就寝・起床時間は、体内時計という最も重要なCronジョブ破壊する。毎日異なる時間に実行されるジョブが安定した結果をもたらさないのと同様に、不規則睡眠スケジュールは、日中パフォーマンス予測不可能ものにする。

Sleep as Code: 早寝を実現するためのプラクティス

では、どうすればこれらのアンチパターン排除し、安定した早寝pipelineを構築できるのか。ここではSleep as Codeの概念に基づき、具体的なプラクティスを紹介する。

1. 環境IaC (Infrastructure as Code)

睡眠環境コード化し、常に理想的状態を維持する。

2. 就寝CI/CDパイプラインの構築

毎晩、同じ手順で就寝プロセスを実行することで、入眠を自動化する。

- PC/スマホシャットダウン: 最も重要ステップ物理的に電源を落とすか、手の届かない場所(別のコンテナ)にdeployする。

- 入浴: 38〜40℃のぬるめのお湯に15分ほど浸かる。これにより深部体温が一時的に上昇し、その後の下降とともに入眠が促される。これはHot-swapならぬHot-bathによるクールダウンだ。

静的コンテンツの消費: 激しい思考を伴わない、静的な情報(紙の読書など)に切り替える。電子書籍ではなく、紙媒体が望ましい。

ストレッチ: 軽いストレッチで、日中のcommitで固まった体をreleaseする。

  • Deploy (就寝):

すべての準備が整ったら、ベッドという本番環境デプロイする。余計な思考git clean -fd強制削除し、呼吸に集中する。

3. MonitoringとRefactoring

例:「夕食後のコーヒーが原因だった」→「カフェイン摂取は15時までというSLAを設ける」

まとめ:早寝は未来自分への投資である

早寝は、単に体を休める行為ではない。日中の高いパフォーマンス、明晰な思考、そして創造性を維持するための、最も効果的で再現性の高い「技術」だ。

我々はインフラコード管理し、CI/CDデプロイ自動化するように、自身睡眠もまた、技術と工夫によってコントロールできる。今夜、あなたのwhile(true)なループbreakし、持続可能パフォーマンスを手に入れるための第一歩を踏み出してほしい。

Happy sleeping!

2025-06-11

データセンターで温水供給とか海外の真似が日本で出来ると思ってる奴

これがただの知ったかで、無茶も良いところなんだよな

データセンターレベル発熱(最低でも数MW)って、実はボイラーとしては『『『超巨大』』』レベルなんだよ

データセンターで熱供給してるのは今ほとんど北欧だけ

なんでかっていうと、北欧にはそもそも『数万世接続』『数百kmパイプライン』の地域供給インフラがあるから

そういうところじゃないと『『『ほとんど熱が余る』』』くらい巨大なのがデータセンターの廃熱なわけ

インフラのない日本じゃ無理、というかやっても無駄が多すぎて採算が取れないんだよな

そんなことも知らないで「海外でやってるから日本も出来るはず」って、ただ無知をひけらかしてるだけなんだよな、これ言ってる奴

 

ちょっと一例を計算してみると、仮に一日100MWhの廃熱があるとする(24時間で平均4MW強)

30℃弱のお湯(温水プール)ならこれで数百から千万リットル沸かせる

25mプール数百個分のお湯だ

こんなのどうするんだよ

計算が出来ない馬鹿自分理系と思い込んでるのは噴飯もの

2025-06-06

Twitter「the-algorithm」における推薦システム数学抽象化

Twitterの「the-algorithm」リポジトリをもとに、推薦アルゴリズム数学的に極限まで抽象化すると、以下のように表現できます

1. 問題設定

ユーザー u ∈ U に対して、一連の候補アイテムツイート) i ∈ I をスコア付けし、降順に並べて上位 K を表示します。

要するに、以下を最大化する推薦問題です:

argmax{i∈C(u)} S(u,i)

ここで C(u) は候補集合、S(u, i) はスコア関数

2. パイプライン構造:4段階モデル

(1) 候補生成(Retrieval)

千万から単位ツイート全体 I から、まず候補集合 C(u) ⊂ I を生成。

グラフ構造フォロー関係)や「SimClusters」「TwHIN」など埋め込みから近似。

検索インデックスLucene/Earlybird)による検索スコアによる絞り込み 。

数理的には、潜在空間中でユーザーアイテム距離または類似sim(u, i) が上位のものを選ぶ操作

(2) 軽量ランク付け(Light Ranker)

候補数をさらに削減。特徴量 xᵤ,ᵢ を簡易学習モデル線形モデルなど)に入力し出力スコア

Slight(u,i) = wᵀxᵤ,ᵢ

重み w やバイアス学習済み。

(3) 重量ランク付け(Heavy Ranker)

多層ニューラルネットマルチタスク学習で、複数ユーザー行動(いいねリプライリツイートなど)確率 Pₖ(u, i) を予測

スコア関数は以下の形:

S(u,i) = Σₖ αₖPₖ(u,i)

例:リプライ Pᵣₑₚₗᵧ に重み 27、著者返信あり Pᵣₑₚₗᵧ_ₐᵤₜₕₒᵣ に 75 など。

ここで係数 αₖ は A/B テストなどで最適化されます

(4) 可視フィルタスコア調整(Filtering & Boosting)

ランキング後、フィルタスコア修正を施す:

ブロックミュート・NSFWスパムなどで除外。

投稿者Blue Verifiedなどでスコアを×4または×2倍。

同一投稿者続出の抑制、逆風バイアスnegative feedback)などが入る。

これは以下のような修正

S̃(u,i) = mS(u,i)

ただし m はフィルタブーストによる乗数。

3. 数学抽象表現

以上を統合すると、推薦問題は以下のように整理できます

  • 候補生成:C(u) = {i ∣ sim(u,i) ≥ τ}
  • ランク:Slight(u,i) = wᵀxᵤ,ᵢ
  • ランク:P = fᶿ(u,i) ∈ [0,1]ᴷ,重み α によるスコア合成
  • 調整後最終スコア:S̃(u,i) = m(u,i) Σₖ αₖPₖ(u,i)
  • 推薦:argmaxₖ S̃ を選定し表示。

この構成一般的レコメンダシステムの「Retrieval → Ranking → Filtering」の標準パイプライン整合

4. 抽象化限界と詳細(モデル信号推定

学習モデル fᶿ は特徴量集合・ニューラ構造・訓練データによって依存し、ブラックボックス的。

特徴量 xᵤ,ᵢ は埋め込み、行動履歴文脈信頼性指標(tweepcred)等多次元で複雑。

スコア重み αₖ は明示されるが、最適化は A/B テスト・実システムでの評価に基づく。

信頼性安全性ルールフィルタとして明示されるが、その詳細(具体的しきい値など)は省略・秘匿されている。

数学的に本質抽象すると

S̃(u,i) = m(u,i) Σₖ αₖ fᶿₖ(u,i)

ここで、

という、レコメンドパイプライン抽象テンプレート帰着します。

5. 結論

Twitterの「the-algorithm」は、コード構造の多くを公開しているものの、モデルパラメータ学習データ設定ファイルは秘匿されており、上述パイプライン数学的な枠組みは把握できても、実際の挙動はまだブラックボックスです。

とはいえレコメンデーション理論観点からは、上記抽象モデルで十分に説明可能であり、汎用の数学モデルとして整合しています

2025-05-28

ファクトチェック研究のためにLLMを用いたopen relation extractionとかってできないんすか?あと、他になんかもっと有用技術とかないんすか?

ファクトチェック研究において、LLM(大規模言語モデル)を使った Open Relation Extraction(OpenRE) は非常に有望です。

実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェック自動化支援研究で注目されています。以下に詳しく説明します。

LLMを用いたOpen Relation Extractionの活用可能

1. OpenREとは?
2. LLMによるOpenREの利点
3. ファクトチェックでの使い道

他の有用技術手法(LLMやそれ以外)

A. Claim Verification via Retrieval-Augmented Generation (RAG)

LLM + 検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。

B. Entity Linking + Knowledge Graph Reasoning

文中のエンティティをWikidataなどにリンクし、KG知識グラフ)上でのパス推論で検証。Graph Neural Network(GNN)などを併用。

C. Stance Detection(主張への立場検出)

claimに対してドキュメントが賛成・反対・中立かを分類。

D. Natural Language Inference (NLI) による真偽判定

`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。

研究観点面白いトピック

トピック説明
LLM + Knowledge Graph Alignment claimから得られる関係KGとの自動照合。
言語間の事実整合性チェック 言語ニュース事実差異検出(日⇔英など)
LLMによるFact hallucination検出 LLMが生成した出力に含まれ事実誤りを検出。
Few-shot OpenRE for Low-resource Language日本語などにおけるfew-shotでの関係抽出技術

2025-05-23

anond:20250523151058

そんな寝言を垂れ流す前に、その脳内自己放尿を止めろ。現実を知らずに感情論で殴りかかるのは、ただの知的怠慢だ。

まずな、「コードを書く」と一口に言うが、AIGPT-4以降、文脈理解設計意図の読解、エラーログの解析、APIドキュメントの要点抽出、果てはCI/CDパイプラインの構築補助まで、実用レベル人間工数を削減してる。

それを「書けないやつ」呼ばわりとは、冗談もほどほどにしろ

そもそも、お前はAIが書いたコードレビューしたことがあるのか?

エッジケースの処理、ユースケースに応じた構造の変化、リファクタリング提案までやってくる様子を見たことがあるのか?

それもせずに「書けない」などと言うのは、自分無知自己放尿のように撒き散らしてるに等しい。

未来を語るな」?それは未来体験してないやつのセリフだ。

コード目的じゃない、手段だ。

問題解決こそが本質であり、AIはそこに足を突っ込んでる。

今なお「自分の手で書かないとコードじゃない」とか言ってるのは、馬と車の比較で馬の方が魂があるとか言ってた時代錯誤の連中と同じだ。

現実を見ろ。平均的な競技プログラマーよりもAIのほうが優秀だ。

2025-04-15

どこでもドアが普及したら経済はどうなりますか?

どこでもドアが普及したら経済はどうなりますか?

便利になるいっぽう、様々な方面弊害を与えると思うのですが。

皆さまの妄想をお聞かせください。

ベストアンサー

ric********さん

2010/5/6 11:45

首都圏大都市地域ににオフィス本社を構える必要がなくなるので、

これらの地価不動産価格が大暴落する。

そうなると、こうした地域土地不動産担保に借入していた人々の

担保価値が大幅に減る。それに対して、

どこでもドア普及によって担保価値を高められるものというと、

まりなさそうなので、世界経済活動(特に日本)は大幅に収縮する。

車両航空機船舶生産水準が大幅に低下する。

(航空機軍事宇宙開発関係以外は必要なくなる可能性もある)

石油燃料については、

需要のものの低下と、どこでもドアを通じてのパイプライン軽油での

輸送により、大幅に価格低下になる。投機資金も逃げるし。

ただし、プラスチック原料としての需要は変わらないか、増えるだろうが、

プラント維持費用を一手に負担しなければならなくなるため、

規模の経済が利かなくなり、末端消費価格

現在の数百倍になる。遠洋漁業なんかはどうなるか?

ただし、こうしたことの結果として、

失業が増えるとか、消費水準が低下するとか、

そのような結果になるかどうかは分からない。

どこでもドアの普及により、新たにどのような

産業が生まれかによる。

金庫も防犯装置現在のものはかなり役に立たなくなるので、

犯罪が増えるだろうが、それに対しては、対策可能だろう。

しかし、犯罪のもの国際的になり、逃亡も世界中にいけることになるから

警察組織世界的に一元化される。

世界中に簡単にいけるから、例えば、ニューヨーク仕事をしながら、

昼飯は信州そば、ということもあるわけだ。ところが、そのときに、

財布の中にドルしかなかったら不便だ。円を持ってたっていいけど、

晩御飯ローマで取る予定だとなると、今度は、リラも持ってなきゃ。

となると、相当めんどくさい。

まあ、店のほうでいろいろな通貨対応できるようになる可能性もあるが、

通貨価値が変動していると、

給料がどの通貨で支払われるか、ということによって、影響を受ける人も

今までよりはるかに多くなる。

というわけで、国際的な、中央銀行ができて、

通貨統一される方向に向かう。

どこでもドアでいつでもどこでもいけるとなると、

外国人からといって、就業を認めない、というい法律

ナンセンスものになってくる。

そして、就業世界的になってくると、

世界中でいろいろな言葉を使っていることが不便になり、

大きないくつかの言語統一されてくる。

マイナー言語は使われなくなる。

物流コストがかからなくなるし(関税も、

かけられなくなる)、住居もどこにも移動できるし、

買い物もどこにでもいけるので、

地域ごとの景気不景気がどうでも良くなって、

単位での政府による景気対策意味を失う。

課税納税も、国ごとに行っていては

対応できなくなる。で、国家単位による政府

財政政策が行われなくなり、世界政府

あるいは、そこまでいかなくてもかなり広域の

政府による経済政策が行われることになる。

今でも無意味核兵器が、いっそう無意味になる。

なんってったって、

どこでもドアを敵国に向けてあけておけば、

核兵器こちらが破壊されれば自動的

相手国も放射能でやられる。

でも、これって、逆にいえば、自分の国で

カンとやって、そのまま放射能やら

熱線やらを相手国に届けることができるようになるから

かえって良くないのか?

というか、どこでもドアを開けといて、

核爆発させるとどうなるんだ?

どこでもドアは、壊れないのか?

どこでもドア使用中に壊れると、どうなるんだ?

まあ、核兵器といわなくても、

歩兵でも戦車でも、一気に相手国の

首都に攻め入ることができるわけだから

普天間基地も要らなくて、

直接ワシントンからピョンヤンを爆撃すると。

北朝鮮も、直接ワシントン歩兵

送り込むが、みんな食い物に懐柔されて、

アメリカ攻撃するより、ピョンヤンに戻って、

政権を打倒する。。。ってなればいいなあ)

で、沖縄地域振興策も必要なくなる。

暑い日は、クーラーなんかかけないで、

アルプス高原に向けてどこでもドアを開けておけば、

涼しい空気が入ってくるし、

寒ければ、タイでもサハラ砂漠の熱風でも

入れればよいので、電気代がかからない。

でも、どこでもドアエネルギー源はなんなんだ?

かえって、高くついたりして。

でも、あっちこっちでドアを開けっ放しにしておくと、

いろいろな動植物が出入りするようになって、

希少生物ってのがすぐに絶滅することになるんだろうなあ。。。



というわけで、思いつくままかいてみたが、

いずれにせよ、

地域的な国単位での政府というのが

不便極まりないものになってくるし、

選挙も、地域ごとに行われることが無意味に感じられるように

なってくるだろうなあ。。。。

というのが、便利なのか弊害なのかは分からないが。

質問者からのお礼コメント

妄想

ひどい

2025-04-13

Unity分化に関して参考資料

「原神」におけるコンソールプラットフォーム開発

https://www.youtube.com/watch?v=St1VqOctvnY

公開日: 2021/06/17

※本講演はUnite Seoul 2020での講演を日本語吹替したものとなります

「原神」のレンダリングパイプラインと、コンソールでのクロスプラットフォーム開発について、miHoYoのテクニカルディレクターであるZhenzhong Yiがお話します。

【こんな人にオススメ

・Game Developers

【得られる知見】

・「原神」でのコンソールプラットフォーム開発でのノウハウ

Unity使用したレンダリングパイプラインTips

【講演者

・miHoYo Technical director Zhenzhong Yi

古い資料ではあるがモバイルコンソールのような貧弱環境でも美しい表現ができるようGPU負荷を抑えながらえげつない最適化を昔からしてきたノウハウ技術力を考えると

中国版のUnity魔改造されて独自進化していったのもそりゃそうだよなあという感じではある

2025-03-19

いまの20代開発者は複雑化した「クラウド」にうんざりしている

正直言うと、「クラウド」の複雑さにうんざりしている。

入社して最初仕事は「AWS認定ソリューションアーキテクト」の資格を取ることだった。

会社の先輩はAWSアカウント管理だけで頭を抱えていて、俺は「クラウドってすごいんだろうな」と思っていた。

甘かった。

大学時代PythonちょっとしたWebアプリを作るのが楽しかったのに、今はIAMポリシーとSecurity Groupの設定で一日が終わる。

コードを書いているはずが、実際はYAMLJSONばかり書いている。

先輩(30代)は「昔はサーバーSSHして直接デプロイしてたんだよ」と言うけど、正直それの何が悪いんだろう。

今はCI/CDパイプラインを構築するのに一週間かかる。

デプロイ自体は確かに自動化されるけど、その仕組みを作るのに疲れ果てる。

Kubernetes?EKS?ECS?Fargate?LambdaStep Functions?どれを使えばいいのか分からない。

新しいサービスリリースされるたびに、また一から学び直し。

AWSドキュメントを読むだけで目が疲れる。

友人はGCPを使っているけど、別の呪われた世界があるだけだと言っている。

Azureの話は聞きたくもない。

昨日、単純なWebアプリHerokuデプロイしてみた。

懐かしい感覚だった。「git push heroku main」だけで済んだ。

こんなに簡単だったのか。

herokuの料金は高いってよく聞くけど、精神衛生上価値はある。

最近スタートアップでは「NoOps」とか「クラウドレス」みたいな言葉流行っていると聞いた。

Vercel、Netlify、Railway、Fly.ioなどを使ってインフラをほぼ考えずにデプロイするらしい。

もしかしてクラウドの複雑さに耐えられなくなった開発者が増えているのかもしれない。

いや、きっと俺のスキルが足りないだけだ。「クラウドネイティブ」になるべきなのだろう。でも正直、モノリスに戻りたい気持ちもある。

きっと、単純なものが複雑になりすぎたんだ。

クラウド」という名前の下に。

ログイン ユーザー登録
ようこそ ゲスト さん