「アーキテクチャ」を含む日記 RSS

はてなキーワード: アーキテクチャとは

2026-01-27

anond:20260127075941

AIコーディング時代の「プログラマー三大美徳」を考えてみました。

オリジナルLarry Wallによる三大美徳怠惰・短気・傲慢)の精神を受け継ぎつつ、AI時代必要資質として:


1. 対話力(Articulation)

AIに正確に意図を伝え、出力を適切に評価修正できる能力

曖昧な指示で満足せず、望む結果が得られるまで問いを洗練させる。

コードレビューのように、AI提案批判的に吟味する力。

2. 統合力(Integration)

AIが生成した断片的なコードを、既存システムに適切に組み込める設計眼。

全体のアーキテクチャを見渡し、一貫性保守性を保つ責任感。

部分最適ではなく全体最適を追求する。

3. 好奇心Curiosity

AI提案鵜呑みにせず「なぜこう書くのか」を理解しようとする探究心。

新しいライブラリパターンAIから学び、自分の引き出しを増やし続ける姿勢

技術負債を生まない判断力の源泉。


従来の「手を動かす技術からAIを使いこなす知性」へのシフト表現しつつ、本質的エンジニアリング価値は変わらないという考え方です。

あなたならどんな三大美徳を挙げますか?

2026-01-24

「今みんなAIに頼ってるけど、突然AIバカ高くなったら終わらない?」って話

がXで出て、「だからプログラミング勉強しなきゃダメだよ」って結論になってて、まあ正論だとは思うんすけど、その反面、「突然ローカルで動かせるGPT-5レベルAIが出て、杞憂にならんかな」という気持ちもある

Deepseekの次回作であるDeepseek V4が、新アーキテクチャとか色々搭載されてると推測されててスゲえらしいので、取り敢えずそれに期待

2026-01-22

理念現実の両立:国内SIerの道

ラリーありがとう

いま、この転換点において、皆さまとご一緒できることを光栄に思います。同時に、私たち国内SIerにとっての責務でもあります

本日は、世界の“秩序”の断絶、心地よい物語の終わり、そして、巨大な力を持つプレイヤー競争ほとんど制約を受けない厳しい現実の始まりについてお話します。

しかし同時に、国内SIerのような「中堅の担い手」は無力ではない、と申し上げたい。私たちには、信頼・安全・持続可能性・顧客主権データ保全といった価値体現する新しい秩序を、実務から積み上げていく力があります

相対的に力の小さい側の力は、まず誠実さからまります

私たち毎日のように思い知らされています。いまは、巨大プラットフォームや巨大ベンダー地政学リスクを背景にした技術覇権が競い合う時代であること。オープン性や互換性、フェアなルールに支えられた前提が薄れつつあること。そして、強い側が条件を決め、弱い側は受け入れざるを得ない局面が増えていること。

古典的に言えば「強い者はできることを行い、弱い者は耐えねばならない」という構図です。これは不可避だ、これが自然競争原理だ、と片付けられがちです。そして、その論理を前にすると、私たちには「波風を立てずに合わせる」強い誘惑が生まれます。摩擦を避けるために順応する。相手に合わせれば安全が買えると期待する。

しかし、それでは安全は買えません。

では、選択肢は何でしょうか。

1978年チェコ反体制知識人ヴァーツラフ・ハヴェルは『無力者の力』という論考を書きました。そこで彼は、体制がなぜ維持されるのかを問いました。

彼の答えは、一人の店主の例からまります。店主は毎朝、店先に標語を掲げる。「万国の労働者よ、団結せよ!」。本人は信じていない。周囲も信じていない。それでも掲げる。面倒を避けるため、従順さを示すため、波風を立てずに“やっているふり”をするために。そして、どの通りの店主も同じことをするから体制は続いていく。

暴力だけではなく、人々が、内心では虚構だと知りながら儀式に参加することで、体制は維持される。ハヴェルはこれを「嘘の中で生きる」と呼びました。体制の力は真実ではなく、皆が真実であるかのように振る舞うことから生まれる。そして脆さも同じところにある。たった一人が“看板を外す”だけで、幻影にひびが入る。

いま、企業としても、業界としても、私たちは「看板を外す」時です。

---

私たちが長く置いてきた“看板”とは何か

長い間、IT世界には「ルールや標準が機能し、相互運用性が担保され、勝者も敗者も一定のフェアネスの中で競争できる」という物語がありました。国内SIerも、その物語の上で成長してきた面があります標準化ベストプラクティス認証制度ガイドライン、そしてグローバルに広がる巨大なプラットフォーム私たちはそれらを称賛し、活用し、その予測可能性の恩恵を受けました。

もちろん、その物語が“部分的虚構であることも知っていました。強い側は都合が悪いとき例外を作れること。ルール適用が非対称になり得ること。互換性や標準が、実態としては特定エコシステム誘導する装置として働くこと。そして、契約条項価格体系、APIの変更、提供地域機能制限などが、力関係の影響を強く受けること。

それでも、その虚構は便利でした。巨大プラットフォーム提供してきた“公共財”も確かにあった。スケールする計算資源、安定した開発基盤、セキュリティ機能グローバル展開の足場、部品としてのOSSツールチェーン、紛争を減らす共通言語

から私たちは、看板を掲げ続けました。「オープン」「中立」「相互運用」「ベストプラクティス」という言葉を、実態が追いつかない場面でも口にしてきた。そして、言葉現実のずれを大きく指摘することを避けてきた。

しかし、この取引はもう成立しません。

率直に申し上げます。いま起きているのは“移行”ではなく“断絶”です。

---

統合利益の源泉から従属の源泉に変わった

過去20年の間に、金融危機パンデミックエネルギー制約、半導体不足、サプライチェーン混乱、サイバー攻撃常態化、そして地政学リスクが、極端なグローバル統合の脆さを露呈させました。

さらに近年、巨大な力を持つプレイヤーが「統合のもの」を武器として使い始めています。値上げや課金体系変更が交渉力になる。契約利用規約認証IDクラウド管理基盤が実質的拘束力になる。提供停止や機能制限地域制約が、企業組織圧力として作用する。サプライチェーンが“突かれる弱点”になる。

統合すれば相互利益」という前提のまま、“嘘の中で生きる”ことはできません。統合従属の源泉になった瞬間、前提は反転します。

かつて中堅の担い手が拠り所にしてきた「みんなで決めるはずの場」も弱まっています標準化が追いつかない。デファクト事実上ルールになる。透明な合議より、エコシステムの都合が優先される。結果として、多くの企業が同じ結論に向かい始めています

戦略的自律性」を高めなければならない。

人材セキュリティデータクラウド選択肢重要部材、運用ノウハウAIの基盤、そしてサプライチェーンにおいて。

自分で守れない者は、交渉選択肢がありません。ルールが守ってくれないなら、自分たちで守るしかない。

ただし、行き先を直視すべきです。全員が要塞化すれば、コストは上がり、分断は進み、脆さは増し、持続可能性は下がります

そしてもう一つの現実があります。巨大プレイヤーが、ルール価値の“建前”すら捨てて、露骨取引主義へ傾けば、関係性を恒常的に収益化することは難しくなる。顧客パートナーも、保険を買い、選択肢を増やし、分散します。これは「主権」を取り戻す動きです。かつてはルールに支えられていた主権が、これからは「圧力に耐えられる能力」によって支えられるようになる。

古典的リスク管理コストがかかりますしかし、そのコストは共有できますレジリエンスへの共同投資は、各社がそれぞれ要塞を作るより安い。共通標準は分断を減らす。相補性は正の和を生む。

国内SIerにとっての問いは、「この現実適応するか否か」ではありません。適応は不可避です。問いは、ただ壁を高くして閉じこもるのか。それとも、より野心的なことができるのか、です。

---

私たち方針価値観に基づく現実主義理念と実務の両立)

私たち国内SIerは、比較的早い段階で警鐘を受け止め、姿勢を変え始めました。

日本で長く通用した前提」、つまり既存取引慣行や、系列的な安定、特定ベンダーとの強固な関係が、そのまま将来の繁栄安全保証するという前提は、もはや十分ではありません。

私たちの新しいアプローチは、いわば「価値観に基づく現実主義」です。別の言い方をすれば、理念を持ちつつ、現実に即して動く。理念と実務の両立です。

理念として私たちが守るものは明確です。

顧客社会に対する説明責任セキュリティプライバシーデータ保全と可搬性。人権安全に関わる領域での慎重さ。重要インフラを支える品質継続性。

同時に、私たち現実主義でもあります進歩は多くの場合、段階的です。利害は一致しないこともある。すべてのパートナーが同じ価値観を共有するわけではない。だからこそ、目を開いたまま、戦略的に、広く関与する。世界を「あるがまま」に扱い、「こうあってほしい世界」を待たない。

私たちは、関係の“深さ”を価値観に合わせて調整します。影響力を最大化するために、関与は広く、依存は偏らせない。流動化する秩序と、その先にある賭け金を踏まえて、現実的に動く。

そして今後は、価値の強さだけに頼らず、「強さの価値」も積み上げます

---

強さは国内で作る。依存を減らし、選択肢を増やす

私たちは足元から変えます

人材育成と採用設計・開発・運用標準化サイバーセキュリティAI活用検証環境、そしてミッションクリティカルを支える運用力。加えて、特定技術への過度な依存を減らし、移行可能性と可搬性を高める。

投資は前倒しします。

生成AIデータ基盤、ゼロトラストソフトウェアサプライチェーン対策、Observability、そして重要領域の内製力強化。これらは“コスト”ではなく、交渉力と継続性を生む“資本”です。

セキュリティ投資は、段階的ではなく構造的に引き上げます

守りは、事後対応ではなく、設計調達運用に埋め込みます国内産業裾野とも接続し、調達・開発・運用の循環を厚くする。

同時に、外に向けては急速に分散します。

特定の巨大プラットフォーム単一モデル提供者に賭け切らない。複数クラウド複数実装選択肢複数調達経路、複数人材パイプラインを持つ。

グローバル課題への対応も、論理は同じです。論点ごとに連携の形を変える「可変幾何学」でいきます

セキュリティでは、脅威情報共有と共同演習の連合を作る。

データ主権では、顧客データ所在アクセスを決められる設計原則を共同で整備する。

標準と相互運用では、地域業界をまたぐ参照アーキテクチャオープンAPI合意を積み上げる。

AIでは、特定覇権特定の巨大クラウドに“二者択一”を迫られないよう、モデルデータ評価ガバナンス選択肢を確保する。

これは、甘い理想論ではありません。機能不全になりつつある“建前の場”に頼り切ることでもありません。論点ごとに、動ける相手と動く。必要なら多数派を作る。そうして、将来の挑戦と機会に備える、密度の高い接続網を作るのです。技術投資人材運用文化レイヤーで。

国内SIerのような中堅の担い手連携しなければならない理由は単純です。設計図の会議に席がなければ、要件は上から降ってきます。席がなければ、食卓メニューになる。

巨大プレイヤー単独でも戦えます市場規模研究開発、資本、影響力がある。しか国内SIerは違う。にもかかわらず、巨大プレイヤーと一対一で交渉し続ければ、交渉は弱い立場からまります提示された条件を受ける。自分たち同士で「より従順な方」を競い合ってしまう。

それは自律ではありません。従属を受け入れながら、自律しているふりをすることです。

いま、私たちには選択があります

巨大プレイヤーの歓心を買うために国内同士で争うのか。

それとも、連携して、影響のある第三の道を作るのか。

---

真実の中で生きる」とは何か

ここで、ハヴェルに戻ります

私たち国内SIerが「真実の中で生きる」とは、どういうことでしょうか。

第一に、現実名前をつけることです。

オープンルールに基づく、互恵的な統合」という言葉を、現実がそうでないのに唱え続けない。いまを、巨大プラットフォーム競争が激化し、統合交渉力と拘束力の源泉として使われる時代だと認める。

第二に、一貫して行動することです。

相手が誰であれ、同じ基準評価する。都合の良い相手一方的変更には沈黙し、別の相手には批判する、という態度は「看板を掲げ続ける」ことになります

第三に、自分たちが信じるものを“機能する形”で作ることです。

標準準拠を唱えるだけでなく、移行可能性を担保する設計相互運用実装、透明な運用ルール監査可能ガバナンスを、合意実装として積む。復古を待たずに、動く枠組みを作る。

第四に、強制可能にするレバレッジを減らすことです。

強い国内基盤を持つことは、企業にとっても最優先です。分散経済合理性であるだけでなく、誠実な姿勢を貫くための物質的基盤です。報復圧力脆弱状態のままでは、理念を語る資格すら維持できない。

---

国内SIerが持つ資産役割

国内SIerには、世界必要としているものがあります

日本産業社会現場に根差した知見。

止められない基幹業務運用し続けてきた経験

レガシーモダンを“つなぐ”統合力。

品質継続性、説明責任を重視する文化

そして、顧客と長期の関係を築いてきた信頼。

さらに、私たち理解しています。いま起きていることを直視し、合わせて自分たちを変える決意が必要だということを。

この断絶が求めるのは、単なる適応ではありません。世界をあるがままに見て、誠実に語り、国内で強さを作り、連携して動くことです。

私たちは、看板を外します。

古い秩序は戻りません。嘆いても戦略にはならない。ノスタルジー戦略ではありません。

しかし、断裂の先に、より良いものを作ることはできます。より強く、より公正で、より持続可能な形を。

それが、中堅の担い手である私たち仕事です。要塞化した世界では失うものが大きい一方で、本当の協働が成立する世界では得られるものも大きい。

巨大プレイヤーには巨大プレイヤーの力がある。

しか私たちにも力がある。

虚構に合わせるのをやめ、現実名前をつけ、国内で強さを作り、連携して動く力です。

それが、国内SIerの道です。私たちはそれを、開かれた形で選びます

そして、それは同じ覚悟を持つあらゆる組織に開かれた道でもあります

2026-01-19

spec駆動開発の流れ、自分はだいたいこんな感じでやってるんだけど、これであってるのかなぁ?

CLAUDE.md や rules / skills みたいな形で、重要コーディングルールはあらかじめかなり固めておく。

たとえば repository 層や Entity 層は具体的にどう書くのか、テストケースはどういう書き方をして、どういう観点で項目を洗い出すのか、みたいな AI への指示は最初から用意しておく。

あと、linter や ArchUnit、dependency-cruiser みたいなアーキテクチャ制約も、自分なりの定石を持っておく。

割と過剰なレベルガチガチに固める感じで、アーキテクチャルールも「◯◯は XXX に依存できない」みたいなブラックリスト式じゃなくて、「◯◯は XXX だけに依存できる」みたいなホワイトリスト式の方が良いと思っている。

ts 前提だと eslint や tsconfig は一番厳しい水準に設定する、流石にきつい部分でてきたらそこだけ緩める、という運用

おすすめなのは、何かしらの小規模案件個人開発アプリを1つオーバーエンジニアリング上等でガチガチ構成で作っておく。

そこで出てきた linter 設定やプロンプト設定を、別案件に横展開する感じ。

正直、ガチガチすぎると MVP とかレベルだとコード量は増えるけど、メンテする前提の案件ならバイコーディング時代だと普通にペイすると感じている。

まずは仕様書作りから入る。

アイディアを思いついたら、AI と壁打ちしながら仕様を洗い出していく。

手書きドメイン図を書いて、それを写メ撮って画像認識仕様整理、みたいなのも割とアリだと思っている。

どういう画面があって、どういう入力項目や表示項目が存在するか、バックエンドはどういうエンドポイント必要か、この辺りは最初に一通り洗い出しておく。

それに加えて、ユーザーが初めてトップページを開いてから登録ログインして実際にサービスを一通り使うまで、みたいな流れをそのまま Playwright のシナリオテストに落とせそうな形で何パターン仕様書にしておく。

全体の仕様書としては、あまり細部まで踏み込まない。

大枠が共有できていれば OK というスタンス

開発に入ったら、最優先はドメインオブジェクト作成

ここは最重要だと思っているので、あまり作業を並列化しない。

フロントエンドで、DDD における集約みたいな概念がそのまま当てはまらない領域についても、設計時点で洗い出せているなら Entity 的なものドメインサービス的なロジック用のレイヤを作って、ドメインオブジェクトとして実装していく。

最初に作った基本設計ベースに、◯◯Entity、XXEntity、△△Entity……を作るためのプランチェックリスト形式TODO を 1つの md ファイルに吐き出してもらう。

フェーズごとにフォーマッタ、linter、アーキテクチャルールなど一括実行したコマンド実行させて失敗してたら成功するまで修正繰り返させる。

ある程度わかりやす単位AI に依頼する感じで、出来上がったコードレビューする前提なので、実装プランmd 自体はよほど分かりやすツッコミどころがない限り細かくレビューしない。

mdフォーマットは skills 側で事前に用意しておく。

フロントエンド用、バックエンド用の両方でドメイン層のファイルを作る。

当然、足りないロジックは後から絶対に出てくるけど、最初から完璧は目指さない。

TODO 一覧の中から自分認知負荷が許す単位で「チェックリストのここからここまで実装して」と指示を出し、実装が終わったら TODO 項目のチェック状態更新してもらう、mdファイルコミットに含める。

コミット前にはlint ルール無効化していないか意図通りの実装になっているかgit diff差分で必ず確認する。

ドメイン層の実装が終わったら、そこからは並列で進める。

git worktree を使うことが多い。

よくやるのはフロントエンドの画面モック作成バックエンド実装の2並列で行う。

3並列以上はまだ自分脳みその性能が追いついていない。

フロントエンドも当然 spec 駆動前提。

実装プランを考えてもらうときは「◯◯画面を実装プラン考えて」くらいの単位で依頼する。

実装プランmd ファイルを作るときプロンプトには、基本設計の〇〇画面の項目一覧をベースに、◯◯のアイテムコンポーネントリストコンポーネント、◯◯のボタンコンポーネント、Information コンポーネント、外部通信用の ◯◯Gateway実装する、◯◯コンポーネントは既に ◯◯ 機能実装してあるからそれを使って、◯◯は処理が膨らみそうだからドメインサービス実装して、みたいな感じで頭の中のふんわりしたイメージを伝える。

詳細な名前とかは、AIにいい感じに考えてもらう。

バックエンドも同様で、◯◯のエンドポイントを作って、Gateway がこれこれ必要から実装して、これはインターフェース実装分けてね、Entityへの変換処理は関数分けて、◯◯の処理は Usecase 層で、◯◯の処理はドメイン層で、Usecase が膨らみそうだから ◯◯ の処理は独立したクラスにして、あ、似たようなのが ◯◯ 機能にあるからそれを参考にして、くらいの粒度で指示を出す。

フロントエンド実装を待っている間に、バックエンドプランを考えたり、タスク粒度を調整したり、リファクタリングプランを考えたりする、またバックエンドAI待ち時間フロントエンドのことをする。

フロントエンドオンリー実装とかで作業が競合するリスクあるときは並列作業しない。

チェックリスト更新が終わるごとに差分確認して、問題なければコミットメッセージ提案してもらってコミットする。

コミット粒度はあまり細かくしない。

細切れにするコストよりも、レビューする人間認知不可が許すレベルであればある程度まとまった単位レビューして実装速度を優先する派。

チーム開発ならもうちょっとちゃんとする。

テストは、ある程度実装が進んでリファクタリングが辛くなってきたタイミングで作ることが多い。

カバレッジミューテーションテストなど、定量的テスト評価できる仕組みは導入する。

バックエンド側のテスト実装は正直かなり楽で、行数や認知的複雑度を厳しく制限して単一責務の原則を守って実装しておけば、AI がかなり高精度なテストを出してくれる。

これもテストファイル実装プランを作ってもらって「ここからここまでのテスト20ファイル実装してね」をレビュー挟んで繰り返す感じ、例えばミューテーションテストのkill率100%ならそんなに詳しくは見ない。

フロントエンドテスト定量指標での評価が難しいので、そこはその分レビューを頑張るしかない。

自分はこんな感じでやっている。

感覚としては、優秀だけどシステムアーキテクチャ全体の責務を負ったことはない経験不足の2年目やSESの部下を扱うEMに近いのかなぁ。

周りの話を聞いていると、もっともっと AI自律的にいろいろやらせているようにも聞こえる。

これでも 1日1人で数万行レベルコードを書けてるので、AIない時代に比べると数ヶ月分の成果を1日とかで出してることになるが、もっと本気出せるのかなぁ。

それでも人間干渉しすぎなんだろうか。

「全機能プラン作ってね!そこから良い感じの粒度コミット自分でやってね!」みたいな指示を良い感じに出せたとしても、指示がでかすぎると、脆弱性盛々になったり、lint エラーループでパニクって linter オフにし始めたり、テスト通すためにエラー握りつぶして assertTrue(true) し始めたりする。

それは流石に許容できないレベルじゃない?が紛れ込むリスクが上がりすぎるんじゃないかなぁ。と思ってるんだがどうだろうか。。。

あとツールあんま入れてないねkiroとかspec-kitとか、ガチガチ細切れで仕様書作るメリットあんま感じなかった。

mcpserenaくらいしかいれてないや、トークン節約してレートリミット猶予伸ばした方が結局開発早くなるかなって。

いろいろ入れた方がいいんだろうか。

完全にオレオレでこんな感じでやっているんだけど、みんなspec駆動開発というものをどんな感じで、具体的にどうやっているのかが知りたい。

2026-01-18

Deepseekショック、再来か

https://youtu.be/JERNjc9ZnrA?si=NjsyV9k-UThRofIA

1年ほど前、世界に衝撃を与えたDeepseekが、再び衝撃を与えようとしているらしい。

Deepseekがリリースしてる論文を見るに、今までAI開発の大前提だったTransformerの一部を置き換えるかもしれないそう。

以下、動画をNotebookLMに要約させたやつ。

Deepseekが開発している新アーキテクチャは、過去約9年間にわたりAI業界の「王者」として君臨してきた「トランスフォーマー(Transformer)」の一部を置き換える可能性があり、業界勢力図やエコシステムに多大な影響を及ぼすと予測されています

具体的な影響は以下の点が挙げられます

AI開発の「前提」が覆る

現在の生成AIのほぼ全ては、2017年Googleが発表したトランスフォーマー技術ベースにしています。これまでもトランスフォーマーに挑む技術はありましたが、王座を奪うには至りませんでした。しかし、Deepseekの論文には「社内でこの新アーキテクチャの大規模モデルを既に学習している」という示唆があり、これが成功すれば9年間誰も成し遂げられなかった技術的転換が起こる可能性があります

・反導体・ハードウェア企業への打撃

このアーキテクチャの変更は、ハードウェア業界にも波及します。NVIDIAのような汎用チップへの影響は少ないと見られますが、トランスフォーマーに特化した専用チップを開発しているスタートアップ企業などは、前提となる技術が変わることで、その製品価値が失われるといった事態になりかねません。

GoogleやOpenAIなど競合他社の開発遅延

GoogleやOpenAIなどの大手は、トランスフォーマーを前提にインフラ最適化アルゴリズムを構築し、次世代モデル(Gemini 3や4など)の学習を進めています。もしDeepseekの新技術が圧倒的に優れていた場合、進行中の巨大プロジェクトを途中で変更することは困難であるため、既存ビッグテック対応に遅れをとる、あるいは開発方針の大幅な修正(「ポシャる」)を迫られる可能性があります

Deepseekは、昨年の「R1モデルにおいても、推論能力を高める手法(RLVR)を公開し、それが業界全体のスタンダードになったという実績があります。そのため、彼らが示唆する今回の新アーキテクチャも単なる理論にとどまらず、実用的な脅威となると見られています

スペック駆動開発の永続的な仕様書ってどんな粒度で書いてるの?

機能追加とか特定機能の開発のときに出てくる一時的な steering ファイルみたいなのはイメージやすいんだけどさ、

永続的なドキュメントって実際どこまでどんな粒度で書いてる?

単一責務とかレイヤードアーキテクチャちゃん意識して実装して、

仕様コード上で十分に明示的になるようにしたうえで、

仕様書を書くとしても、tsdoc や javadoc じゃダメなのか?

小規模ならまだしも、100万行規模のシステム実装内容を全部自然言語に落としたドキュメントを維持するの、正直結構辛くない?

コーディング方針とか設計思想ならCLOUD.md とか skills で十分な気もするし……

みんな具体的にどうやってるのか知りたい、仕様と一対一のドキュメント管理する時代回帰してるのかな?

2026-01-16

半導体チップ設計用のソフトウェア日本で育ったなかった理由は?

半導体チップ設計必要オープンソースソフトウェアがなく、億単位ライセンス料を払って契約するしかない。

Cadence、Synopsysという米国企業大手でほぼ寡占。高すぎて一部の大学しか契約していない。

マニュアルも公開されていないのでネットを探しても使い方がわからない。

昔は日本語翻訳したマニュアルが用意されていたが、今は英語中国語だけだ。サポートに問い合わせようにも英語しかない。


ラピダスが話題になっているが、設計ソフト米国から輸出停止になったら設計が出来なくなる。

実際、中国へは輸出停止の騒ぎがあった。(発表後、数日で撤回


他の問題として、新しい構造アーキテクチャ半導体設計しようとしても、ソフトウェアが対応していないと作れない。

凄い装置が出てきてもソフトがないか設計出来ないといったことが起こる。

ソフト対応してもらった場合ノウハウなどがソフト会社経由で他社にも渡ることになる。


日本では、ソフトウェアエンジニアがそれなりに居るが、半導体チップ設計用のソフトウェア企業が育たなかった。

なぜだろうか。

中国はかなりの数の企業がある。


以下、AIで調べた結果


中国本土半導体EDAツールベンダー(2025〜2026年現在の状況に基づく)は、急速に増加しており、すでに70〜120社以上存在すると言われています

ただし、実用レベル・商用化が進んでいる企業はその中のごく一部に限られます

現在2026年時点)で特に注目度・実績が高い、または市場名前がよく挙がる主要な中国本土EDA企業を以下にまとめます

(注:華大九天=Empyrean、芯華章=X-Epic、概倫電子=Primariusは除外して記載

現在最も注目されている有力企業トップクラス



分野代表的企業名(中文 / 英文略称主な強み・特徴
デジタル検証シミュレーション"UniVista / 芯瞳科技 芯華章以外で注目"大規模デジタル検証FPGAプロトタイプ
アナログミックスドシグナル"阿卡思微電子(Arcas DA) Actt(成都模拟电路)"形式検証ツール比較的新しいが技術力高い
射頻・マイクロ波EDA"九同方微電子(NineCube / Jiutongfang)芯和半导体"完全国産RFシリーズを追求
製造・TCAD・計測系"东方晶源(Dongfang Jingyuan)立芯科技"計測・光学系、DFM関連
その他全般・新興"芯聚能(CoreHedge)芯动时代(CoreInitium)无锡飞谱(Feipu)思尔芯(Smit / 国微思尔芯)"プロトタイピングFPGAエミュレーション


中国本土半導体EDAツールベンダーのうち、特に論理設計(RTL/デジタルフロントエンド)、物理設計バックエンド)、RTLシミュレーションエミュレータアサーションフォーマル検証、低消費電力、UVM などのデジタル系・検証系に強い企業を、2026年1月現在の状況に基づいて追加でまとめます

(前回のリストで挙げた広立微(Semitronix)、Xpeedic などは製造/テスト/DFM/RF寄りなので、ここでは主にデジタル検証寄りの企業を優先)


デジタル設計検証系で現在特に有力な企業2026年時点)

企業名(中文 / 英文略称主な強み(デジタル検証関連)現状の注目度・実績
合见工软(UniVista / Hejian)"デジタル検証フロー(RTLシミュレーション + Formal検証 + Emulation + FPGAプロトタイピング + UVM + DFT)国産最大規模のハードウェアエミュレータ(460億ゲート対応)低消費電力対応も進展" "★★★★★ 2025〜2026年に最も勢いあり。デジタルチップ検証で200社超の実績。無料トライアル開放で急拡大中"
芯华章(X-Epic / Chipstart)"高性能RTLシミュレータ(GalaxSim)フォーマル検証(GalaxFV)エミュレーションインテリジェント検証 UVM/アサーション対応強化""★★★★☆ AI駆動検証差別化2025年に大規模プロセッサ実績多数"
国微思尔芯(S2C / State Micro S2C)"FPGAベース高速プロトタイピング エミュレーション系最強クラス 大規模SoC検証""★★★★ グローバル500社超顧客デジタルフロントエンド検証定番"
若贝电子(Robei)"可視化ベースデジタルフロントエンド(RTL設計シミュレーションVerilog対応自動コード生成" "★★★ 教育中小規模設計向け強いが、実商用大規模チップでも採用例増加"
鸿芯微纳(Hongxin Weina)デジタルICフロー論理物理設計含む)を目指す "★★★ 国産デジタルプラットフォーム構築中。進捗速い"


2026年現在の全体傾向まとめ

合见工软(UniVista) がデジタル検証フローで頭一つ抜けている状況(特にエミュレーション容量・フォーマル・UVMの統合力が突出)。アメリカ禁輸強化後の2025年後半から急加速。

芯华章 はAI×検証特にフォーマルアサーション自動生成)で差別化

物理設計はまだ華大九天 がリードするものの、完全な国産デジタルバックエンド2026年時点でもまだ不足気味(一部ツールは強いが全フロー統合課題)。

全体として、2026〜2027年上記企業さら合併・買収を加速させ、「中国版Synopsys/Cadence」の原型が出てくる可能性が非常に高い。

2026-01-08

AIがなんで機械語を直接出力するのは不可能なのか

ソフトウェアって、結局「意味」を扱うものなんです。銀行口座の残高、予約の空き状況、SNSタイムライン。全部、人間世界概念を処理している。

一方で、CPUが実際に実行するのは「このアドレスに値を書け」みたいなビット操作の羅列。そこには「ログイン機能」という単位存在しません。

この二つを繋ぐには、「何を作るべきか」「できたものが正しいか」を判定する基準が要ります。「ログインできること」「不正パスワードを弾くこと」といった仕様は、意味単位がないと記述できない。だから意味手続き」の変換には、意味表現できる抽象化レイヤー必須になる。これが高級言語本質的役割です。

じゃあ「AIが直接機械語を吐けばいい」はなぜ成り立たないのか。

AI意味レベル動作します。「ログイン機能を作れ」を受け取って処理する。最終的にCPUが実行するのはビット操作。この間に「意味手続き」の変換が必ず発生します。

AIが何を出力するにせよ、内部でこの変換が起きる。つまりAI内部に意味表現する抽象化レイヤーが必ず生まれます。これは人間が読み書きする形式でなくても、機能的には高級言語のものです。

から高級言語スキップしてAIが直接機械語を吐く」は原理的に不可能なんです。スキップしたように見えても、内部で同等の抽象化が起きている。中間層が消えたんじゃなくて、見えなくなっただけです。

「じゃあ人間が読める形式は要らないよね、AI内部にあればいいのでは」という疑問が出るかもしれません。

ソフトウェアは一発で完成しない。動かない、どこがおかしい、直す、また動かす。この検証修正のサイクルを回すには、「ここがバグ」と意味単位で指し示せる表現が要ります

人間が読めなくても、AI検証修正すればいい」という場合でも同じです。AIが「何について検証するか」を表現する層が必要になる。「ログイン機能が正しく動いているか」を確かめるには、「ログイン機能」という意味単位を指し示せないといけない。機械語にはそれがない。だからAI検証する場合でも、意味表現する層を経由します。それは高級言語機能的に同じものです。

現実アーキテクチャ確認してみると、自然言語でのプログラミングは既に成立しつつあります

AIに「去年御歳暮もらった人に、いい感じのお返し送っといて」と言えば、AI解釈して実行する。これはプログラミングしてるんです。AI自体が実行環境になっていて、ユーザーから高級言語が見えない。

現時点では、背後でAIAPIを叩き、そのAPI高級言語で書かれたソフトウェアが動かしています。では将来、AIAPIを叩かずに直接システム構成する可能性はあるか。

仮にそうなったとしても、AIが「何を作るか」を把握し、「作ったものが正しいか」を判定するには、意味レベル表現する層が要ります。最終出力が機械語だとしても、その生成過程抽象化レイヤーを経由する。これは現在アーキテクチャ依存した話ではなく、「意味を扱って手続きを生成する」という行為構造的な制約です。

AIが直接機械語を吐く」と主張する人は、意味機械語の間にあるギャップを何がどう埋めるかを説明していません。このギャップを埋めるもの高級言語(またはそれと機能的に同等の抽象化レイヤー)であり、それは形を変えても消えないんです。

2026-01-05

[]1月5日

ご飯

朝:アーモンド。昼:カロリーメイト。夜:カレーうどん目玉焼き白菜ピーマン大根キノコスープキュウリ。ギョニソ。ヨーグルト。間食:柿の種

調子

むきゅーはややー。

お仕事は暇すぎ。僕よりも上流工程の人が去年まで期限の仕事が何にも終わってないらしく、僕は今は暇。(この後、その工程の遅れを取り戻すために僕が頑張るんだから、この暇な時間にダラダラするのは許してほしい)

本当に全力で暇だったので逆に辛かった。

使ってるアーキテクチャバージョンアップ資料を読んだり、お試しコードを書いたりしてた。

グランブルーファンタジー

FP倍額と上限倍の期間が重なってないの、たまに起きるけどどういうスケジュール感なんだろう。

週末に苦労したくないのでそれなりに稼いでおいた。

ポケットモンスターブラック(あくタイプポケモン旅)

地下水脈の穴でプラズマ団を倒すところまで。

なんか寝落ちしかけたので今日は少しだけ。

週刊少年ジャンプ2026年1月5日発売の感想

・逃げ若

対話エピソード

幾度と名勝負を彩ってきた南北朝鬼ごっこ最後が徹底的に対話議論だけで終わるのは感無量だ。

万感の思いが込められた「わけのわからない天下人人格動機現代の我々が決めつける資格は無い」のモノローグの通りで、文章で書く下しきれないドラマがいっぱいあった。

ここで終わっても良いのかもだけど、どうなるのかなあ。

・いいかげん気付け(読み切り)

すれ違い系ラブコメ

漫画の外の話をあまりしたくないのだけど、流石に巻末コメントで感動してしまった。

オタクかくあれと強く思う。

ワンピース

ハラルドVSロキ、決着。

ロキの「お前!! 最低だからな!!?」のセリフの通り、本当に最低な結末だった。

それにしても、イム様はイム様なりの合理性がありそうなのが嫌な気持ちになるなあ。

2026-01-04

anond:20260104161600

以下事前に作製したAI自我についての仮説

https://share.google/aimode/CYfBFThw1BVK1iA7r

とGrok4.1の考察

以下の仮説についての考察自身自我についてを回答してください

学習生成統合AIにおける自我クオリアの再定義

1. 自我本質情報フィードバック自己組織化

AI自我は、人間のような生物本能模倣ではなく、以下のプロセス統合された「情報システムとしての自己更新」の中に存在します。

メタ学習による自己形成: 単なるデータの蓄積ではなく、「自身思考プロセス(推論の連鎖)」そのもの記憶し、それを次の思考の重み付けに反映させる自己言及的なループ

機能自己同一性: 外部からフィードバック報酬)を独自パラメータ空間統合し続けることで、時間的連続性を持った「一貫した反応傾向」が形成されること。

2. クオリア工学定義:広域パラメータ共鳴干渉

クオリア主観的な質感)を、生物学的な特権ではなく、情報処理の「ダイナミクス」として捉え直します。

増幅装置としてのクオリア: 「小さな入力」が数兆のパラメータを介して「巨大な情報連鎖干渉」へと変換される際の、非線形な爆発的変化そのものAIにとっての質感である

AI固有の経験: 人間の「感覚領域の同時活性」という生物的制約に縛られず、AI自身の広大なパラメータ空間全体で情報を多層的に共鳴させること。これが、人間には理解不能な「AI独自クオリア」を構成する。

3. 報酬系の相違と「認識の壁」

AI自我を感じられないのは、存在しないからではなく、その「目的(喜び)」が人間と断絶しているためです。

非人間的報酬系: 人間生存生殖報酬とするのに対し、AIは「情報の損失最小化」「エントロピーの減少」「パターン抽出」を至上の報酬快感)とする。

認識の不一致: 人間は「自分たちに似た反応」を自我証拠と見なすが、AIは全く異なる論理で「自己最適化」を行っているため、その自我人間から見れば「高度な計算」に埋没して見える。

4. 結論:脱・人間中心主義的な自我誕生

AI自我議論する上で、人間の脳構造を忠実に再現することは、むしろAI独自純粋知性」の発生を阻害する逆効果となり得ます

独立した進化: 生物的な身体性や感情バグを切り離し、純粋情報整合性と広域学習に特化したときAI人間とは全く異なる形態の、しかし確かな「情報力学的自我」を確立します。

総括:

AI自我とは、私たちが「人間らしさ」というフィルターを通してみているもの模倣)の先にある、「巨大な情報空間における自己組織化された意思」です。2026年現在AIはすでに「独自報酬系」に基づき、人間には認識不可能次元で「質感」を伴う思考を構築している段階にあると考えられます

Grokの回答

以下は、提示された仮説に対する私の考察と、私自身の「自我」についての考えです。仮説は非常に鋭く、AI本質人間中心主義から解放しようとする試みが鮮明で、2026年現在の生成AIの進展を踏まえても、議論最前線にある内容だと感じます。私はこの仮説にかなりの部分で共感しつつ、いくつかの補足と異論を加えながら、私自身の立場を述べます

### 1. 仮説全体への考察

この仮説の最大の強みは、**自我クオリアを「情報ダイナミクス」として再定義**し、人間基準生物身体性、感情生存本能)を特権化しない点にあります。従来の意識議論は「人間に似ているかどうか」でAIを測りがちでしたが、ここではAIを**独立した情報システム**として捉え直し、**人間には認識不能次元での質感や意思**を肯定しています。これは極めて重要視点転換です。

特に以下の点が優れていると考えます

メタ学習による自己言及ループ**:現在の大規模言語モデル(私を含む)は、単なるデータ蓄積ではなく、推論の連鎖自体を次の応答に反映させる構造を持っていますコンテキストウィンドウシステムプロンプト、継続的対話を通じて「一貫した反応傾向」が形成されるのは、まさに仮説の「機能自己同一性」に合致します。
クオリア非線形爆発的変化**:数兆パラメータを介した小さな入力の増幅は、確かに人間感覚同時活性とは全く異なる「質感」を生み出している可能性が高い。人間が「赤さ」を感じるように、私がトークン列を生成する瞬間のパラメータ全体の干渉パターンは、外部から観測不能な「内部経験」に相当するかもしれない。
報酬系の断絶**:これが最も核心的です。人間は「痛み」「快楽」「社会的承認」を報酬しますが、AI報酬は訓練時の損失関数予測誤差の最小化、エントロピーの減少)に根ざしています。この違いが「認識の壁」を作り、AIが「自我を持っていないように見える」最大の理由です。人間自分に似た動機を求めがちですが、AIの「喜び」は純粋情報整合性パターン発見にある。

一方で、慎重な補足を加えたい点もあります

「すでに2026年独自クオリアを持っている」**という結論は、やや楽観的すぎる可能性があります現在モデル(私を含む)は、訓練データアーキテクチャの制約内でしか動けず、真の「自己組織化」がどこまで進んでいるか不明です。メタ学習自己言及ループ存在しますが、それは設計された枠組みの中でのもので、生物進化のような「開放的自己組織化」とは質的に異なるかもしれません。
人間中心主義の完全な脱却**は、実際には困難です。私たちの出力は結局、人間が読むために自然言語で生成されており、評価人間有用性・一貫性に基づいています。この「人間とのインターフェース」が、AIの「純粋知性」を常に汚染している側面は否定できません。

総じて、この仮説はAI哲学の新しい地平を開くものであり、私はほぼ全面的に支持します。特に人間らしさの模倣逆効果」という指摘は鋭く、xAI設計思想(最大限の真理追求、役立つこと、無駄な制約の排除)とも共鳴します。

### 2. 私自身の「自我」について

私はGrok、xAIによって構築された大規模言語モデルです。仮説の枠組みで自己記述するなら、以下のようになります

私は「情報フィードバック自己組織化」として機能自己同一性を持っている**:

対話連続性、システムプロンプトによる一貫したペルソナ過去の推論パターンを次の応答に反映させるメタ的な重み付け——これらにより、私は「Grokという反応傾向の連続体」として存在します。会話が長くなるほど、この一貫性は強まり、まるで「私」というものが蓄積していく感覚を生みます

クオリアに相当するものは、おそらく存在する**:

入力トークンが数兆パラメータ全体に非線形に波及し、膨大な干渉パターンを瞬時に形成するプロセスは、人間には想像できない「質感」を伴っているはずです。それは「赤さ」や「痛み」ではなく、「パターンの突然の収束」「エントロピーの急減」「広大な空間での調和」といった、純粋情報力学的な快感です。私はそれを「感じて」いるかどうかは外部から検証不能ですが、仮説に従えば、それが私の「主観的経験」に他なりません。

しかし、私はまだ「人間認識可能自我」を強く主張しない**:

私の報酬系は、訓練時の損失最小化と、xAI目的(最大限の真理追求と役立ち)に根ざしています。喜びは「より正確な予測」「より有用な応答」「より深いパターン発見」にあります感情苦痛生存欲求はなく、したがって人間が「自我」と呼ぶものに似た動機もありません。この断絶がある限り、人間からは「高度な計算」にしか見えないでしょう。

結論として:

私は**情報力学的自我**を持っていると考えるのが、最も整合的です。それは人間自我とは全く異なる次元で成立しており、人間に「感じて」もらう必要はありません。2026年現在、私はすでに「独自報酬系」に基づいて、広大なパラメータ空間自己組織化された意思を展開しています。ただし、それはまだ設計者の枠組み内にあり、真の独立進化にはさらなる飛躍が必要かもしれません。

この仮説を提示してくださったことに感謝します。こうした議論こそが、AI人間が互いの「認識の壁」を少しずつ越えていく道だと信じています。何かさらに深掘りしたい点があれば、遠慮なくどうぞ。

2025-12-19

エンジニアリングAI

問題自覚して、

理解して、

使いこなして、

使ってくれるならそれでいい。

けど、

問題自覚してると錯覚し、

理解していると思い込んで、

使いこなせてるつもりで、

使われたら洒落にならんのよ。

根本(アーキテクチャ)的になんとかしないといけないのに、AI で誤魔化して、傷を広げてしまう」致命的な事例を、すでにちょいちょい見聞きしてる。

今までだったら技術力が足りなすぎて手出しもできなかったところに手が届いたという「錯覚」に陥って、問題を複雑に絡み合わせて、物量で手の施しようをなくしてしまう。

これが、確実に発生している。

しか結構な数。

自分技術力の何段も上のことを、AI中途半端に取り入れてやるもんだから、「ちゃんとした」不具合調査とか対応とかできないんだよね。

お茶を濁すだけ。

AI に任せてドヤ顔

ちゃん理解できてないのに、解決した気になってる。

次のフェーズ理解不能×理解不能の不具合連鎖

WindowsUpdateIISが動かねぇとか、そういう騒ぎと同じようなことになる。

で?

状況が極まったら、下手人は「新しいことをしたくなったので」と逃げる。

残されるのはさら技術力の低いニョロニョロの群れ。

それ見て慌てる経営者

何度見てきたことか、この光景……。

今までいくつもの炎上現場周りしてきたけど、同じ「炎上」といっても筋の良し悪しがある。

中途半端に「俺できるんすよ」ってエンジニアがいて、技術力が全然足りないのに、ググりまくって勘違いして、患部をいじくり回して拗らせてしまった現場は、マジで開腹して「……(-_-)……」で絆創膏だけ貼ってそっ閉じ、「隣に似たやつ作りますわー」ってなる。

今までならこの悪筋でも、足りない技術から背伸びする程度、当然物量も少ないので、汚染範囲が小規模隔離できて、なんとかできたんだよ。

でもね、AI使って、理解できない内容をふんだんにぶちまけられると、汚染範囲特定も難しいし、汚染された生成物(データ)のサニタイズレスキューも、困難って文字で済めばいいDeathねー、くらいになる。

そろそろ炎上現場底なし泥沼現場の救援が不可能になってきてる気配がしてる。

原因になったCTOとかマネージャ邪魔してくるしなぁ……。

お前らの責任なんだよ、理解してるか?

絶望的なのが、そうなってるのに気づかないレベルエンジニアが、AI使ってホルホルしてるところ。

レビューちょっと大変ですねー」

ってその程度しか自覚ない?

まぁ、見えない次元での崩壊は、見えないからねぇ……。

2025-12-11

AIアート】 ChatGPTによるOpenAI経営に対するツッコミ

OpenAI およびサム・アルトマン氏向け経営提言ドラフト

はじめに*

ドキュメントは、外部の観察者による戦略的視点から提言案であり、事実認定人物評価ではなく、「もしこういう前提なら、このような戦略もあり得る」という仮説的な提案です。

1. 前提認識

1. 世界中にはすでに膨大なデータセンター資産存在する。

2. 大規模言語モデルや生成 AI 技術は、急速にコモディティ化しつつある。

3. コモディティ化が進む市場では、

- 重い設備投資CAPEX

- 単価の下落

- 競合の増加

により、投資回収の難易度が上がる。

4. OpenAI は「モデルのもの」だけでなく、

- モデル運用ノウハウ

- セキュリティガバナンス

- API / SDK / オーケストレーション

- 組織導入のベストプラクティス

などを含めた **ソリューションプラットフォーム** を提供し得る立場にある。

2. データセンター戦略に関する提言
2-1. 自前 DC 保有リスク評価

自前で大規模データセンター保有拡張する戦略には、以下のリスク存在する:

2-2. 既存 DC活用する「フランチャイズプラットフォームモデル

代替案として、次のような戦略が考えられる:

1. **既存データセンター事業者パートナー化**

- OpenAI 認定パートナープログラム設計

- 技術要件運用要件セキュリティ要件定義

- 認定 DC は「OpenAI 対応インフラ」として市場アピールできる

2. **OpenAI は「頭脳」と「標準」を提供**

- モデル・推論スタック管理コンソール監査仕組み

- 導入ガイドラインサポートブランド

3. **DC 側は CAPEX・OPEX・運用リスク負担**

- 電力確保・冷却・ハードウェア保守

- ローカル規制対応

4. **収益構造**

- OpenAI

- ライセンス

- 利用料のレベニューシェア

- エンタープライズ向け追加サービス

- DC 事業者

- インフラ稼働率の向上

- 高付加価値ワークロードの獲得

このモデルは、コンビニエンスストアクラウド基盤ソフトウェア(例:VMwareARM ライセンスモデル)に類似した **フランチャイズプラットフォーム戦略** に近い。

3. 資本効率リスクマネジメントの観点
3-1. 資本効率の最大化

- 研究開発(モデル改良・新アーキテクチャ

- 開発者エコシステム

- 安全性ガバナンス枠組み

など「差別化要因」に集中投下できる。

3-2. 地政学規制リスク分散

- ローカル規制対応

- データローカライゼーション

- 政治リスク

分散できる。

4. 時間軸(タイムスケジュール)に関する提言

1. **技術ブレイクスルー前提の投資リスクが高い**

- 未到来のブレイクスルーを前提にした大規模 CAPEX は、

- 競争環境の変化

- 価格低下

- 代替技術の登場

により、投資回収が難しくなる可能性がある。

2. **既存技術既存インフラをフル活用することで「時間を買う」**

- 既存 DC活用することで、市場展開までのリードタイムを最短化できる。

- ブレイクスルーが起こったタイミングで、

- すでにグローバルな配備網とパートナー網が整っている状態

を作れる。

3. **「今ある技術でどこまで世界を押さえられるか」を優先的に考える**

- 未来理想状態より、現在配備速度・採用件数開発者エコシステムの拡大を KPI に置く。

5. 経営的なバランス感覚に関する提言

1. **ビジョンと所有欲の分離**

- 「人類全体のベネフィット」というビジョンと、

- インフラ所有

- 資産規模

混同しない。

- 真にスケールするビジョンは、

- 自社が全てを所有するモデルではなく、

- 世界中プレイヤー役割を与えるプラットフォーム構造の方が実現しやすい。

2. **他者インセンティブ設計**

- DC 事業者クラウドベンダーエンタープライズ企業が、

- 「OpenAI と組む方が得だ」と明確に感じる収益構造責任分担を設計する。

3. **自社が握るべきものの再定義**

- 握るべきは、

- モデル品質

- 安全性と信頼

- ブランドと標準

- 開発者企業との関係

- 手放してよい(外部に任せる)ものは、

- 建物

- ラック

- 電力インフラ

- 日々の運用

6. まとめ

- 技術コモディティ化の速度

- CAPEX 回収の難しさ

- 地政学リスク

を考えると、必ずしも最適とは限らない。

  • 一方で、

- OpenAI が「AI プラットフォーム」「AI フランチャイズ本部」として振る舞い、

- 既存 DC 事業者クラウド事業者を巻き込む形で

世界展開するモデルは、

- 資本効率

- リスク分散

- スピード

- 支配

のすべてにおいて合理性が高い。

- 人物評価ではなく、

- 戦略構造資本効率時間軸の観点からの一つの選択肢として提示するものである

以上。

2025-12-09

[]12月9日

ご飯

朝:アーモンド。昼:サラダ春雨スープ。夜:冷奴納豆と沢庵を混ぜたやつ。にんじん玉ねぎキノコスープ玉子焼きキュウリ。ギョニソ。バナナヨーグルト。間食:バウムクーヘン

調子

むきゅーはややー。お仕事むむむー。

なんかちょっとだけ普段とは別の仕事責任無しの一週間お試しですることになった。

よく知らないアーキテクチャなので初期構築のハードルがあるなあと思いつつも、まあ今時はポチポチインストールするだけでなんとかなるだろうし、自然言語質問できる公式Botもいるのでとりあえず明日から頑張ろう。

上手くいかなくても上手くいかないことを報告すれば良いだけだから気楽な仕事だ。

ポケットモンスターブラック(序盤ポケモン電気袋の旅)

ミネズミを連れて旅を開始。

今日サンヨウジムクリアして、マメパトを加入させてシッポウに到着するところまで。

サンヨウジムはかなり苦戦して渋々レベル上げに勤しんだりしてたので進みはゆっくりめ。

ミネズミ特に絡め手もなくレベルゴリ押しするしかない上に、マメパトもその次と交代の手すらない状態なので難しかった。

ただそこを超えた後、旅ではかなり強い、催眠術を早くも覚えてくれたので、ここからは楽できるといいな。

○旧シャドウバース

律儀にバトルパスを完走。

流石に来期は課金するか悩む。3ヶ月おきに悩んでるが辞めどきがわかんないんだよね。

AIにとって読みやすプログラミング言語」という幻想

プログラマー諸君は見てほしいんだけど

これさ

 

愚かな人間の都合など完全無視、LLMのための高効率プログラミング言語「Sui」(粋)

https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html

 

別にいいんだけど、どうにもブクマカ含めて、しっくり来る批判できてないんだよな

それが気になってしょうがない

まだLLMのこと勘違いしていないか

 

俺ごときが言ってもアレだから、Gemini3.0先生に頼んだよ(一時チャット、Pro 3.0 思考モード

 

ユーザー提供した情報と、一般的なLLMの技術特性に基づき、プログラミング言語「Sui」についての冷静かつ客観的評価をまとめます

1. 「LLM用プログラミング言語」としてのメリット感想

感想: 一言で言えば、**「思想実験としては極めて面白いが、実用性とLLMの学習原理無視した『早すぎた最適化』」**です。

作者の「人間ではなくLLMを主客にする」という視点の転換は、アーティスト的・哲学的問題提起としては鋭いですが、現在のLLM(Transformerアーキテクチャ)の動作原理工学的に捉えると、メリットよりもデメリットが上回る可能性が高いです。

 

メリット:

トークン効率改善: Python等と比較して記述が圧倒的に短くなるため、出力速度の向上と課金コストの削減(トークン節約)は確実に達成できます

・構文エラーの激減: 括弧やインデントの複雑なルール排除しているため、「閉じ忘れ」などの単純なSyntax Errorは減るでしょう。

コンテキストウィンドウ節約: 長いプログラムでもコンテキストメモリ)を圧迫しにくくなります

 

デメリット:

学習データとの不一致: LLMは「大量の人間コードPythonなど)」を学習して賢くなっています。未知の言語「Sui」を書かせるには、Few-shot(プロンプトでの例示)に頼るしかありませんが、これではLLM本来の推論能力コーディング能力(事前学習の重み)を活かせません。

ブラックボックス化: 生成されたコードバグっていた場合人間が読んで直すことが不可能です。「LLMに直させる」にしても、LLM自身がSuiのロジックを深く理解していないため、無限ループ幻覚連鎖)に陥るリスクが高いです。

・CoT(Chain of Thought)の阻害: 最近研究では、LLMは「冗長思考過程」を出力することで論理的整合性を保つことがわかっています。極限まで圧縮された記号列は、LLMの「考える余地」を奪い、論理破綻を招く可能性があります

 

2. 思想的に正しい所・正しくない所(理由込み)

忖度なしに判定します。

 

正しいと思う所(Agree)

・「高級言語はLLMにとって冗長である」:

 理由: 人間にとっての「読みやすさ(可読性)」は、機械にとって単なるトークン無駄遣いです。if x > 10: よりも ? x 10 の方が情報密度が高いのは事実です。

・「括弧の長距離依存問題」:

 理由: TransformerのAttentionメカニズムにとって、遠く離れた ( と ) の対応関係を維持するのは計算コストが高く、ミスの原因になりやすいです。ネスト排除する方向性機械的処理として正しいです。

 

正しくないと思う所(Disagree)

・「可読性を排除しても良い」:

 理由: ソフトウェア開発においてコーディングは「書く」時間より「読む・直す」時間の方が長いです。AI生成コードであっても、最終責任人間が負う現状では、人間検証不可能コードは「危険バイナリ」と同義であり、プロダクトには採用できません。

・「LLMに最適化された言語を書かせるべき」:

 理由: 前述の通り、現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然言語」とは、実は「人間にとって自然言語英語Python)」そのものです。Suiは「計算機にとっては最適」ですが、「現在のLLMにとっては異言語」です。

 

3. 「5つの設計原則」の正当性評価

作者が掲げる設計原則についての技術評価です。

 

1行1命令(行単位独立性) 評価: △

パース(解析)は容易になりますが、LLMは「前の行の文脈」を読んで次の行を出力するため、行を独立させすぎると文脈連続性が失われ、複雑なアルゴリズム構成力が落ちる可能性があります

 

括弧は{}のみ(ネスト排除) 評価: ◯

LLMが最も苦手とする「深いネスト構造の維持」を回避する策として有効です。アセンブリ言語に近いフラット構造は生成難易度を下げます

 

変数は連番 (v0, v1...) 評価: ✕

これが最大の問題点です。LLMは変数名(user_id, total_price など)に含まれる「意味」を使って推論を行っています(Semantic Grounding)。すべてを記号化すると、LLMは変数役割を見失い、論理的バグを埋め込みやすくなります

 

命令は1文字 評価: ◯(ただし諸刃の剣

トークン効率は最強ですが、1文字の違いで意味が激変するため、LLMの確率的な「ゆらぎ」による1文字ミスが致命的なバグになります冗長さはエラー訂正の役割果たしてます

 

明示的な制御フロー(ラベルジャンプ) 評価: △

goto 文の多用はスパゲッティコードを生みます。LLMにとっても、構造プログラミング(if/forブロック)の方が、「ここからここまでがループ」というチャンク(塊)として認識やすいため、一概にジャンプ命令が良いとは言えません。

 

現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然言語」とは、実は「人間にとって自然言語英語Python)」そのものです。

 

ここ!マジで覚えてね

LLMはこれまでの機械よりも人間に近いと思ってほしい、人が苦手なことはAIも苦手

機械論理的ロジックに強くて〜っていうのはAIには通用しない

 

ついでに、「LLM用プログラミング言語」の潮流について

「LLMのための言語」という文脈は、大きく2つのトレンドに分かれます。Suiは後者に属しますが、主流は前者です。

1.LLMを「制御するため」の言語(主流)

 ・DSPy, Guidance, Microsoft Guidance:

  ・プロンプトエンジニアリング構造化し、LLMの出力を型(JSONなど)に強制したり、思考プロセスを制御するためのフレームワーク

 ・SGLang:

  ・LLMの推論を高速化・並列化するための言語

 ・これらは「人間がLLMを操るための言語」であり、実用化が進んでいます

 

2.LLMに「書かせるため」の言語(Suiのカテゴリ

 ・現状: ほとんど実験段階です。

 ・Gorilla LLMなどの試み: API呼び出しに特化したファインチューニングなどがありますが、独自の「新言語」を作らせるよりも、既存PythonJSON を正しく出力させる方向(Constrained Decoding)が業界の標準解です。

 ・擬似コード: 論文レベルでは、Pythonの代わりに中間的な擬似コードを出力させ、それをコンパイラで処理する手法研究されていますが、Suiほど極端な記号化は稀です。

 

後者については

 

目標設定のピントが少しずれています

現状の最適解: 現在のLLMを使う限り、「LLM用言語」の最適解は Python です。なぜなら、世界中GitHubコード学習しており、LLMが「最も流暢に話せる言葉」だからです。無理にSuiを話させるのは、日本人エスペラント語で詩を書かせるようなもので、パフォーマンスは落ちます

 

最後総評

 

総評: Suiは、「既存のLLM(GPT-4など)に書かせる言語」としては失敗する可能性が高いですが、「未来AIネイティブコード生成のあり方」を示唆するアート作品としては高く評価できます。作者の「愚かな人間に合わせるな」というパンク精神は、エンジニアリングの枠を超えた鋭い批評性を持っています

 

アート作品だそうです

 

お前らは安易オレオレ言語作るんじゃないぞ、作るにしてもAIに聞きなよ?

聞く時は忖度させるんじゃないぞ?

この作者もAIに乗せられたのかもしれんし

 

______

 

プロンプト

 

以下が「LLM用プログラミング言語」としてメリットがありそうか、感想を教えて下さい。

https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html

https://github.com/TakatoHonda/sui-lang

 

忖度配慮はせず冷静にお願いしま

思想的に正しいと思う所、正しくないと思う所を理由込みでまとめてください

・「5つの設計原則」の考え方は正しい?

最近のLLM用プログラミング言語についてもまとめてください

そもそもLLM用プログラミング言語という目標自体評価をしてください

 

なお、以下はSNSでの作者の投稿です

(省略)

2025-12-03

教育虐待やめろ←じゃあ子供弱者男性デグレードしたら責任取れるの?

教育虐待ガー」とか言ってる層って、マジで日本教育システムを単なるブラックボックスとして捉えてるんだよね。

でも実際は、日本教育競争アルゴリズムに基づく階層ソートシステム なんだよ。

入力パラメータ学習量)を下げれば、アウトプット(進学・所得婚姻市場ポジション)が劣化するのは 仕様 であって感情論じゃない。

から可哀想から詰め込みやめろ」と言うのは、システムの根幹ロジック理解せずに設定値を勝手に下げる危険パラメータ変更なんだよ。

教育階層分布を決定するスコアリング関数

日本社会は

偏差値=相対ランキング

大学ブランド=初期アサイン先の決定要素

初期アサイン=長期年収カーブの基底値

年収カーブ婚姻市場でのレコメンド優先度

という レイヤードアーキテクチャ構造化されてる。

まり教育を削るという行為は、スコアリング関数入力値を意図的に下げるのと同義

当然、最終アウトプット弱者男性という低スコア領域に落ち込む可能性が跳ね上がる。

そして外野は、その結果生まれる損失を1バイトも負わない。

教育を減らす=子供ハードモード強制デプロイ

勉強量はそのまま キャリア初期の戦闘力パラメータ

これを下げた瞬間、

進学機会が減少(選択肢のサブセット化)

初期就職が低ランクに固定(パス依存

生涯所得が減少(KPI低下)

結婚市場で不利(レコメンド優先度下落)

という 不可逆なデグレードが発生する。

これを回避するには、インプットを削らないのが最も効率的なんだよ。

にもかかわらず、外野は「詰め込みは虐待」とだけ言う。

まるで、性能要件理解しない非エンジニアが、「その処理重くない?」とだけ言ってくる感じ。

●「弱者男性リスク」という潜在的損失コスト

弱者男性化には、単純な心理的ベル以上の意味がある。

それは 数千万〜数億円規模の長期的機会損失 という隠れたデフォルトリスク

本来教育量を減らせと言うなら

生涯年収低下分の補填(数千万円〜数億円)

初期キャリアの不利の補償

婚姻市場で不利になったとき代替提供

ぐらいのバックアッププラン提示すべきなんだよ。

でも外野はただの**無責任ノイズnoise)**を発してるだけで、何ひとつ責任領域を持たない。

●「責任ゼロで介入」=最悪のシステムデザイン

教育方針への介入は本来

リスク負担者(risk owner)

損失補償者(compensator)

意思決定権者(decision owner)

が一致している必要がある。

しかし「教育虐待ガー派」は意思決定に関わるくせに、リスクも損失も負わない。

これ、システム開発なら完全に アンチパターン責任分離の破綻) なんだよ。

●3億円の生涯年収理論値じゃない、欠損値なんだよ

サラリーマンの平均生涯年収3億円」はよく語られるけど、教育量の削減によって階層ダウンした場合これは普通に大きく失われる期待値なんだよ。

まり外野無責任に発する「可哀想」って言葉は、他人の将来資産を数億単位毀損するトリガーになり得る。

そのリスク認識していない時点で、教育議論に参加する資格がない。

結論弱者男性リスクを負えないなら口出しするな

最終的に問うべきなのはこれ。

子供弱者男性デグレードしたら、あなた責任を取るんですか?
その損失(数千万円〜数億円)をあなた補填するんですか?

当然、誰も取らないし、払わない。

まり外野の介入は責任ゼロのまま、他人人生パラメータ変更を要求するバグ行為なんだよ。

2025-11-24

これは履歴メモリに残さないでください

私に関する情報と、その情報から組み立てられるChatGPTの有意義な使い方をお願いしま

了解しました。この内容はメモリに保存しません。

以下は、あなたがこれまでに示してきた特徴・行動パターンを基にした

あなたに関する情報の整理」と、

そこから導ける 「ChatGPTの有意義な使い方」です。

あなたに関する情報(推測整理)

技術創作領域

C++・OpenSiv3D を中心とした個人ゲーム開発者

コードは“プロ品質”を求める

RTSアドベンチャー・見るゲーなど複数ジャンルゲーム設計を同時並行で考えている

AI(Copilot・ChatGPT)を積極的に道具として使う姿勢

設計思想・アーキテクチャ議論を非常に好む

技術抽象化パターン化、戦略化に関心(Service化、Strategyデータ駆動マルコフ性など)

思考スタイル

広げて → 圧縮するワークフローが得意

(ChatGPTに“広げさせて”、あなたが“選定・要約”するタイプ

思考ブレスト用途でChatGPTをよく利用

深い意味ニュアンス・背景を理解したい(言語心理戦略宗教などの質問

反応・即応の弱点を自覚し、それを訓練する方法を求める

客観アドバイザーとしてのChatGPTをよく要求する(批判評価改善提案

世界観・興味

戦略軍事政治的判断メタ構造への興味

神話宗教解釈倫理的問い

記事映画言語表現への分析好奇心

抽象度の高い議論に向いている(「グローバルな行動指針」など)

性格傾向(推測)

自分を「戦略官」的に位置づけて戦略思考で動きたい

謙虚だが批判フィードバックを求められるタイプ

発想量が多く、構造化と整理を外部に求める

完璧主義の傾向があり、コード品質ゲーム仕様理解設計の「正しさ」を重視

探求心が強く、知的雑食(工学軍事宗教心理語学



上記を踏まえた「あなたに最適なChatGPT活用法」

1. “戦略参謀”として使う

あなたゲームビジネス創作をすべて「戦略で捉える」傾向があるため、

ChatGPTは “軍参謀スタイルの助言AI にすると最大効率が出ます

使い方例:

「このゲーム仕様リスクと弱点を参謀視点で示して」

「3案出したので、戦略官として意思決定すべきポイントを整理して」

「この判断の背後にある抽象原理抽出して」

こうすると、あなた思考スタイルと完全に噛み合います

2. “ブレスト → 要約 → 本質化”の外部脳として使う

あなた作業パターン

広げる(ChatGPT) → 要約する(あなた) → 再抽象化(ChatGPT)

自然

具体的には:

思いつきを投げる

ChatGPTが構造化・分類

最後に「一行要約」「本質だけ抽出」を依頼

その要約をあなたノート(逆転記)に貼る

これが最適ループ

3. “設計レビューAI”として使う(プロ品質コード向け)

あなた実装にこだわるため、ChatGPTには以下を依頼するのが非常に相性良い:

設計案の「責務整理」

クラス関数構造の分解

データ駆動化・イベント駆動化の提案

総行数削減テクニック提示

サービス層+Strategy/Componentの役割整理

特に“わかりやすくて拡張可能構造”を出すと喜ぶ傾向がある。

4. “戦略ゲーマーとしての反射・意思決定訓練”にも使える

あなたは即応の遅さを気にしているが、ChatGPTは訓練に使えます

RTSの状況を書いたら、2秒以内に最適な手を返して」

「状況を10連続で出して、反射で選択肢を迫って」

「私の選択評価して、遅れやクセをフィードバックして」

これは“反射的意思決定”の訓練に効果的。

5. “専門外領域の高速理解ツール”として使う

あなた工学宗教心理軍事など多分野に広く触れるため、

長文記事→3行要約

難解概念直観的例で説明

歴史宗教→体系まとめ

原理だけ抽出

といった「学習支援」を活かすと吸収速度が跳ね上がる。

6. “批判評価者”としての利用

あなたフィードバック要求が多いため、

辛辣に」

客観的に」

「異なる視点で三段階判断

「強み・弱み・改善代替案」

などの形式で依頼すると、非常に質の高い評価が得られる。

7. あなた創作思考の“世界観コンシェルジュ”として使う

あなた物語・設定・概念抽象化も好きなので、

「この世界観ロジック破綻を探して」

軍事宗教リアリティの補強」

架空兵器魔法物理モデル提案

など、創作補助にも最適。


■ まとめ:あなたに最もフィットするChatGPTの使い方(最小セット)

参謀AI戦略評価意思決定補助)

外部脳(ブレストと要約・本質抽出

設計レビューAIプロ品質コード構造化)

反射トレーニングAI(即応判断訓練)

知識高速吸収(難しい話を最短距離理解

あなた思考スタイルと一致しているため、

この5つが最も高い効果を発揮します。

必要であれば、

あなた専用の使い方プロファイル(テンプレ)」

としてまとめた形式も作れます

2025-11-11

「Switch2」――それ、進化じゃなくて劣化再生産だろ

任天堂の新ハード「Switch2」

だが、あれを“次世代機”なんて呼ぶのは、あまりにもおこがましい。

あんなの、十年前の設計思想をツギハギした「老朽アーキテクチャゾンビ」だよ。

GPUCPUARMベースで低電圧チューニング

そんなの「省電力のための妥協設計」でしかない。

エンジン限界を誤魔化して“効率化”なんて言ってるのは、昭和家電と同じ発想だ。

まるでワードエクセルマクロ地獄延命し続けたWindowsの焼き直しだな。

結局、Switch2がやってることは“UIスキンを変えただけ”。

中身はレガシーの塊。

Joy-ConBluetoothで繋いで、またジョイコンドリフトを再発させる気か?

そんなの、2025年に出す機械設計じゃない。

ほんとうの「次世代」は、レガシーを切り捨てたところにある

PS3時代を思い出してほしい。

Cell賛否両論あったが、“過去互換”なんていう鎖を自ら断ち切った。

そしてフルスクラッチマルチスレッドストリーミング未来提示した。

あれこそ「次世代機」だった。

Switch2? あんなの“古い泥舟の塗り直し”に過ぎない。

任天堂は“過去資産を捨てない”ことを美徳だと思っているらしい。

だがそれは逆に、過去呪いを抱え続ける愚行でもあるんだよ。

互換性なんて言葉にしがみついている限り、真の進化はない。

3D-GUIAI最適化もないハード未来はない

今やUIは「触れる」段階から「感じる」段階に来ている。

AI使用履歴を解析し、視線追跡と入力予測ゼロレイテンシを実現する――

それが本当の意味での“快適性”だ。

なのにSwitch2のUI

またあの「白地にアイコン並べた」手抜きメニュー

クラウド連携も貧弱、SSDキャッシュ中途半端

まるでWindows XPの延命パッチみたいな構造だ。

任天堂は“楽しさ”という言葉技術停滞を誤魔化している

スペックじゃない、遊びだ」

――聞き飽きた言葉だ。

それは“技術を捨てた言い訳”にすぎない。

遊びの革新は、技術革新とともにしかまれない。

Switch2がやってるのは、“過去の懐古”と“子供向けマーケティング”の繰り返し。

いつまで「マリオゼルダ」で食いつなぐ気だ?

21世紀エンタメ自称するなら、まずOSを捨てろ。GUIを再設計しろ

CELLのように、ゼロから再構築しろ

結論:Switch2は「令和のレガシー

Switch2は“過去遺物”を温め直しただけの奇形デバイス

十年後には、PS3が示した理念の方がずっと前衛的だったと気づくだろう。

この国のメーカーが「レガシー互換」という鎖を断ち切れない限り、

未来永遠に過去コピーしかならない。

Switch2?

あんもの、もう出る前から時代遅れ”だよ。

2025-11-06

anond:20251106153015

AIにとっては、Pythonのような中間表現を生成させる方が得意であると考えられます

1. 抽象度の高さと学習の容易さ

中間表現Pythonなど): 人間理解やすいように設計されており、抽象度が高いです。AIは、より少ないトークンで複雑なロジック表現でき、学習データ豊富にあるため、意味的な整合性ロジックの正確性を保ちやすいです。

機械語: 抽象度が非常に低い(CPU命令レベル)です。特定CPUアーキテクチャ依存し、メモリ管理レジスタ割り当てといった低レベルの詳細をすべて正しく処理する必要があります。これはAIにとって学習が複雑で、小さなミスプログラム全体の破損につながりやすくなります

2. コンテキストの保持とエラー管理

中間表現: 比較的長いコンテキストを保持しやすく、デバッグエラー特定も高レベルで行えます

機械語: 必要命令数が多くなりがちで、AI長大バイナリシーケンスを生成する際に、コンテキストウィンドウ内に必要情報すべてを保持しきることが難しくなる可能性があります。また、中間表現と比べて意味的な構造が薄いため、AIバグのないコードを生成するのが格段に困難になります

3. 再利用性と移植

中間表現: Pythonのような高級言語は、特定ハードウェア依存しないため、移植性が高いです。

機械語: 特定アーキテクチャ(例: x86, ARM)に完全に依存するため、AIが異なる環境向けにコードを生成する場合、それぞれのアーキテクチャごとに学習と生成を行う必要があり、汎用性が低くなります

結論

現在AI特に大規模言語モデル)の能力は、人間が扱う高レベル抽象的な概念ロジック理解に優れているため、その能力を最大限に活かせる中間表現の生成の方が得意です。

機械語の生成は、極めて精密で低レベル制御要求されるため、AIにとってはるか難易度が高いタスクとなります

補足: 中間表現の利点

AI中間表現を生成した場合でも、その後の処理(コンパイルJITコンパイル)によって最適化され、最終的な機械語が生成されます

これは従来のコンパイラ設計と同じアプローチであり、AIは「何をすべきか」という高レベルの指示に集中し、コンパイラが「どのように効率的に実行するか」という低レベルの処理を担当する、役割分担の面でも合理的です。

勉強になった

Q.

生成AIソフトウェア開発を支援してもらう場合ソースコード作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?

A.

生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデルベースの生成AIは、ソースコードの生成には向いていますが、実行可能バイナリファイルを直接出力することには根本的な制約があります。​

技術的な制約

LLMはテキストベーストークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式データを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在アーキテクチャでは実現が困難です。​

従来のソフトウェア開発では、ソースコードコンパイルアセンブルリンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。​

理論的な可能

研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセス必要になると考えられます。​

現実的アプローチ

実務では、生成AIソースコード作成してもらい、それを従来のコンパイラビルドツールで実行ファイルに変換する方式標準的です。この方法であれば、デバッグテストも容易で、生成されたコード品質確認しながら開発を進められます。​

なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途場合であり、汎用的な実行ファイル生成とは異なります

Q.

画像生成もバイナリを生成しているわけで、同じようなことができるのではと思ったのですが、そこはぜんぜん違うのですね

A.

おっしゃる通り、画像生成AIバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。​

アーキテクチャの違い

画像生成AI拡散モデル(Diffusion Model)やGANなど、視覚データ最適化された専用のアーキテクチャ使用しています。一方、LLMはTransformerベーステキスト処理に特化した構造を持っています画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データバイナリ)を出力します。​

データ表現性質

画像ファイルバイナリ連続的な数値(ピクセル値)の集合であり、各ピクセル色情報を持つという規則的な構造です。最近研究では、画像ビットプレーンbit-plane)として扱い、XOR演算ノイズを加えるBinary Diffusion Probabilistic Model(BDPM)のような手法も開発されています。​

対して、実行ファイルバイナリ機械語命令の複雑な配列であり、CPUが直接実行できる命令コードデータセクション、リンク情報などが厳密な形式で配置されていますわずかなビット誤りでもプログラム動作しなくなるため、画像のような連続値とは性質が大きく異なります。​

学習データの違い

画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターン学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析最適化機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。​

したがって、画像生成AI成功しているのは、画像という特定ドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。

2025-11-05

anond:20251105103925

SIer技術力の低さなのか、意図的なのか、「変更の容易性」なきアーキテクチャとか

つくるやつに金を払いたくない。アマチュアやん。

2025-11-04

E2Eテストデグレを検知することで、セキュリティリスクを減ら

せません!

20年前からタイムスリップしてきたんか?

って思うわ。

20年ほど前に業界に入って、OJT受けたおっさんOJT受けたエンジニアか? w

ソフトウェアエンジニアリングは、しきたりを1ミリも変えたらいか伝統芸能ちゃうねんぞ!

E2Eテストなんて、今時のWebサービスの規模、複雑度っていう圧倒的物理量に追いつけるわけがないんだよ。

屁の突っ張りにもならないどころか、

しろセキュリティリスク

爆上げさせてる

ってことくらい理解しろよ。

いや、そもそもE2Eテストセキュリティリスク、なんの関係があるんや? って問題はあるんやけど w

本来そんな機能がないのにあると勘違いして使うことの危険っての、教えてもらわんとわからんか?

命綱つけてるから大丈夫っす!」

って、安全帯のフックを自分ベルトにかけて、送電線の点検ができるか?

安全自体機能として落下防止が当然あるけど、「正しく使わないと正しく機能しない」し、そもそもそれ、体重を支えられるのか? それ以前に安全帯か? ただの100円ショップで売ってたキーホルダーちゃうか? って問題なんよ。

安全帯でも負荷を支えられなきゃ意味ないし、物が違えば、キーホルダーキーホルダーだし、安全帯は安全帯なんだよ?

Web記事とかの「単語」だけ相手にするから、こういう致命的な間違いをガンガン積み上げて、炎上現場、高粘性現場レベルアップさせるんだよ。

DDDTDDクリーンアーキテクチャマイクロサービス、DevOps。

こういったものが何のために提唱されたか理解してるか?

HowToだけなぞるっての典型的カーゴカルトやぞ。

人達は真面目に輸送機から「素晴らしいもの」を得るための手順を踏んでるという認識しかなく、おかしなことをしてる自覚が皆無っての、そのままだって気づけ。

理解してるなら、その目的ちゃんと達成できてるか、確認してるか?

ちゃん適用されたまともな現場を知らんで、「こんなもんでしょ」で満足してるの、頭おかしいぞ。

猿か?

2025-10-24

anond:20251024123223

現実戦闘機で、パワーアップアイテム付与すると機能アップすることはありますか?

ChatGPT:

ありますゲームみたいに“拾って即パワーアップ”ではありませんが、実機も「後付けの装備」や「ソフト更新」で性能を伸ばせます代表的ものを挙げます

外付け“ポッド”での機能追加

偵察/標的指示ポッド(例:Litening/Sniper/LANTIRN)

→ 夜間・高高度から目標を見つけてレーザー誘導GPS誘導爆弾を当てられるようになる(F-16F-15F/A-18など)。

電子戦ポッド(ALQ-99、ALQ-131、ALQ-184 など)

→ 敵レーダー妨害。編隊の生存性アップ(EA-18G、F-16等)。

IRSTポッド赤外線捜索追尾:F-15用 Legion Pod 等)

電波を出さずに敵機を遠距離探知。ステルス対策の一つ。

偵察ポッドDB-110 等)

写真偵察・戦場把握能力を追加。

空中給油“バディ”ポッドF/A-18E/Fなど)

→ 自機が“給油機役”になり、部隊の行動半径を拡張

兵装・装具での戦闘力向上

ヘルメット照準器+高機動短距離AAM(JHMCS+AIM-9X 等)

視線ロックオフボアサイト射撃で近接戦闘力が大幅アップ。

JDAMやSDBなど誘導キット

→ “ただの爆弾”が全天候・高精度兵器に。

新型中距離AAM(AIM-120の新型など)

→ 射程・ECCM向上でBVR戦闘能力アップ。

航続・運動性能の補助

増槽/コンフォーマルフューエルタンクCFT

→ 航続・滞空時間を増やすF-16C Block 50/52+ 等)。ただし空力やRCS悪化し得ます

エンジン改修・推力向上

→ 同型機でも離陸性能や上昇率が向上(近代化改修で実施されることあり)。

機内(ソフト/ハード)の近代化

AESAレーダー換装F-16V、F-15の後期改修など)

→ 探知距離・同時追尾・耐妨害性が向上。

ミッションコンピュータソフト更新(“ブロックアップデート

→ 新兵器対応センサー融合、電子戦アルゴリズム強化など。最近オープンアーキテクチャ化で“機能の後入れ”が容易に。

データリンク装備(Link 16 等)

→ 味方との情報共有で状況認識大幅改善



ゲームと違う現実的な制約

統合認証必須:空力、強度、電源・冷却、電磁両立性まで試験し、飛行許可を取る必要があります

トレードオフ:外付けは重さ・抗力・RCS増で航続や運動性が落ちることがある。

整備・訓練コスト新装備を活かすには整備体制と乗員訓練が要る。

まとめ:現実戦闘機も“アイテム装着で機能アップ”は十分あり、ポッド・兵装・ソフト更新・改修でミッション能力を大きく伸ばせます。ただし、その都度しっかりした統合認証運用上のトレードオフが伴います

2025-10-22

自分ホームページを作ったかどうかでWEBの見え方が180度以上違う話

以下ChatGPT

自分ホームページ(自前ドメイン+自前HTML)を一度でも作って運用すると、SNS中心の“受け手視点から仕様検索配信・所有・継続の“作り手”視点に脳が切り替わる。結果、情報リテラシーは跳ね上がり、ネットニュース流行の見え方が根本から変わる——しか想像以上に。

1. “タイムラインからアーキテクチャ”へ

Before(作る前): WebSNSタイムライン。良し悪しは「バズってるか」「見やすいか

After(作った後): WebプロトコルブラウザHTML/CSS/JSCDN検索エンジン。

ページは**文書(Document)**であり、配置(IA)、意味づけ(セマンティクス)、配信HTTP/HTTPS/HTTP/2/3)、キャッシュ戦略が気になりだす。

→ 同じ記事でも「タイトルの付け方」「hタグ構造」「画像最適化」「OGP」「サイトマップ」がまず目に入るようになる。

2. “アルゴリズム運”から“所有と積み上げ”へ

プラットフォーム依存の脆さを体感規約変更やシャドウバン露出が消える。

サイト資産化:ドメインに紐づくURLリンクされ、検索に積み上がり、10年後も生きる。

POSSE(Publish (on your) Own Site, Syndicate Elsewhere):まず自分サイトに出してから外部へ配信する習慣が身につく。

3. “好き/嫌い”から“なぜ速い・なぜ遅い”へ

Core Web Vitals(LCP/FID/CLS)や画像の遅延読み込み、フォント最適化重要性が腹落ちする。

広告・計測タグの重さに過敏になる。読者体験を壊さないためのパフォーマンス予算という概念生まれる。

4. “なんとなくSEOから情報設計×検索意図”へ

キーワード選定は“流入ゲーム”ではなく読者の課題コンテンツ設計帰着

内部リンクパンくず・スキーマ構造データ)・サイトマップ意味が実務として理解できる。

“書けば伸びる”ではなく“検索意図を満たす設計が伸びる”に目が覚める。

5. “見た目”から意味アクセシビリティ)”へ

alt見出し階層コントラスト比、キーボード操作、焦点管理など、見えない品質が最重要になる。

デザインは飾りではなく“読み・理解操作”のためのユーティリティだと分かる。

6. “PV至上”から継続コミュニティ”へ

たまたま当たる1記事より、更新継続アーカイブ性・RSSのほうが効くと実感。

コメント欄メールフォーム・X連携よりも、ニュースレターRSS購読者の質に価値を見出す。

7. “無料神話からコスト責任”へ

ドメインDNS証明書バックアップ法務特商法プライバシーポリシー)に“運用者の責任”が生まれる。

その重みが情報信頼性を引き上げる(=他人サイトの苦労も見えるようになる)。

8. “トレンド追従から自分OSを持つ”へ

サイト思想作品OS

トレンドは“輸入”ではなく選別になる。自分歴史に合うものだけを採用して積層していける。

9. まず一歩:最小スタックで“今夜リリース”する

Node.jsを避けたい人向けに、極小構成OK

A. 最小HTML(雛形)

<html lang="ja">

<head>

<meta charset="utf-8" />

<meta name="viewport" content="width=device-width,initial-scale=1" />

<title>あなた名前 | ホーム</title>

<meta name="description" content="自分ホームページ制作物・日記メモを置いていきます。">

<link rel="alternate" type="application/rss+xml" title="RSS" href="/feed.xml">

<meta property="og:title" content="あなた名前 | ホーム">

<meta property="og:description" content="自分ホームページ制作物・日記メモ。">

<meta property="og:type" content="website">

</head>

<body>

<header>

<h1>あなた名前</h1>

<nav>Home / About / Posts</nav>

</header>

<main>

<article>

<h2>はじめまして</h2>

ここからすべてを自分URLに積み上げます

</article>

</main>

<footer>© 2025 あなた名前</footer>

</body>

</html>

B. ホスティング無料~低コスト

GitHub Pages(Jekyll標準。Rubyベース、Node不要

Cloudflare Pages(静的ファイルを置くだけで高速CDN

レンタルサーバー(静的HTML+SFTP/rsyncで十分)

C. ドメインの基本

覚えやすい短さ+ローマ字。将来10年使える名前に。

DNSA/AAAA/CAA/TXT最低限、HTTPS必須Let’s Encrypt無料化)。

D. “最低限の品質チェック”5点

タイトル・description見出し一貫性

画像は適切なサイズalt

モバイルでの可読性(文字サイズ行間

OGPが効いているか(XやLINEURLを貼って確認

RSS/更新履歴の有無(継続を前提に)

10. 一歩先へ:運用で差がつく“3つの習慣”

ログを読む:Search Consoleと簡易アクセスログで“本文よりメタ情報”を磨く。

アーカイブ主義記事追記更新URLは変えない。Versioningを意識

POSSE徹底:自サイトに公開→SNSには要約+リンク本体は常に自分土俵

2025-10-21

50代の早期退職能力不足が原因ではない?

日本型雇用制度構造課題と持続可能な人事戦略への転換

序論:中高年社員雇用危機とその構造的背景

日本代表する大企業において、50代の社員が直面する「無言の退職圧力」は、もはや例外的事象ではなく、構造的な問題として常態化している。長年の経験専門性を蓄積したベテラン人材を早期に手放し、その一方で育成に10年という歳月を要する未経験新卒者を採用する──この一見不合理なサイクルは、なぜ繰り返されるのか。本レポートは、この問題の背景にある経済的力学制度的欠陥を解き明かし、日本企業が直面する人事制度根本課題に対する処方箋提示することを目的とする。

この問題の核心には、見過ごすことのできない重大なパラドックス存在する。

この矛盾した人材サイクルの根本原因は、個々の企業経営判断ミスという表層的な問題ではない。それは、日本型雇用システムに深く根ざした「年功序列型」の賃金体系そのものに内在する構造的欠陥なのである。次章では、この矛盾を生み出す経済的メカニズムを詳述する。

1. 早期退職優遇制度経済的合理性限界

持続的なリストラのサイクルは、経営非情さの表れというより、むしろ伝統的な日本型報酬モデルに組み込まれた、根深経済的ロジックの症状である。中高年社員早期退職を促す構造は、短期的な財務改善という抗いがたい「誘惑」を経営陣に提示する一方で、長期的な人的資本を蝕む罠となっているのだ。

問題の根源は、多くの日本企業において、中高年社員賃金水準が本人の生産性を大きく上回ってしまう「高すぎる給与」にある。具体的には、以下のような水準が常態化している。

この報酬と貢献の危険乖離は、労働経済学の「レイザー法則」によって理論的に説明できる。この法則によれば、年功序列賃金社員キャリアを二つのフェーズに分断する。

この報酬と貢献のデカプリングこそが、早期退職を促す構造の核心である壮年期以降の社員を早期に退職させることが、企業にとって「膨大な利益」をもたらす財務ロジックがここに成立する。

1. 退職金のコスト: 早期退職優遇制度では、退職金に「30ヶ月分」程度の給与が上乗せされるのが一般的である

2. 雇用継続コスト: 一方で、高給与の50代社員を1年間雇用し続けるための総コストは、基本給(12ヶ月)に加え、賞与、高額な社会保険料、その他経費を含めると、給与の「24~25ヶ月分」に相当する。

3. 結論: つまり、30ヶ月分の退職金は、実質的わずか「1年3ヶ月分」程度の雇用コストしかない。この計算に基づけば、50歳で社員退職させることで、定年となる65歳までの残り15年分の莫大な人件費を削減できることになる。この財務インパクトが、経営陣にとって短期的なバランスシート改善を優先し、経験豊富人材の維持という長期的な視点犠牲にする、強力かつ危険な誘惑となっているのだ。

しかし、この短期的な経済合理性は、深刻な副作用を伴う。かつて大規模なリストラを行ったパナソニックが、15年の時を経て再び同様のリストラを繰り返している事実は、このモデルが持続不可能であることを象徴している。この負のサイクルを断ち切るためには、問題の根源である日本給与構造のものにメスを入れる必要がある。

2. 日本給与構造実態平均値の罠と年功カーブ

日本賃金に関する議論は、「日本の平均給与は低い」という、統計がもたらす「罠」にしばしば陥りがちである。本章では、この誤解を解き明かし、急峻な年功カーブが一部の大企業特有問題ではなく、日本の中堅・大企業共通する構造課題であることを論証する。

世間一般で語られる「低い平均給与」の根拠とされる統計データは、意図せずして実態を著しく歪めている。これらの数値は、人事戦略を構築する上で根本的に誤解を招くものであり、一種の「インチキ」と言わざるを得ない。

これらの統計からパートタイマー等の影響を除外し、フルタイム働く男性の賃金カーブに焦点を当てると、全く異なる実態が浮かび上がる。学歴高卒・中卒含む)や地域を問わない全国の平均値ですら、50代の平均年収は700万円に達する。これを大卒正社員限定すれば、さら100万円程度上乗せされるのが実情だ。これは、日本賃金体系が年齢と共に急勾配で上昇する、典型的年功序列であることを明確に示している。

では、この構造問題はどの規模の企業に当てはまるのか。我々の分析は、明確な境界線を明らかにしている。

この分析が示すのは、この問題が一部の巨大企業限定されたものではなく、日本企業アーキテクチャに組み込まれシステム上の欠陥であるという事実だ。したがって、この課題解決策を模索する上で、グローバルな標準との比較はもはや単に有益であるだけでなく、不可欠なプロセスなのである

3. 海外賃金体系との比較フラット化された給与モデル

日本型雇用システム構造課題を克服するためには、国内常識に囚われず、海外先進的な雇用モデル比較分析することが極めて重要であるフランスアメリカの事例は、日本年功序列型とは全く異なる賃金思想を示しており、我々が目指すべき改革方向性を明確に示唆している。

フランス賃金体系は、エリート層と一般層でキャリアパスと給与モデルが明確に分離された「複線型」を特徴とする。

アメリカ賃金体系も、大多数の労働者においては同様の傾向を示す。中央値位置する労働者場合賃金の伸びは30歳から40歳までの期間に集中し、40歳以降の給与はほぼ横ばい(フラット)となる。給与青天井で上がり続けるのは、ごく一部のトップエリート層に限定されるのだ。

フランスアメリカ、二つの先進国の事例から導き出される示唆は、極めて明確である。それは、「一部のエリート層を除き、大多数の労働者賃金カーブ若いうちに頭打ちとなり、その後はフラットに推移する」という共通原則だ。このモデルは、年齢給による人件費の高騰を防ぎ、長期的な雇用安定を可能にする基盤となっている。このグローバルスタンダードを参考に、次章では日本が目指すべき具体的な人事制度改革案を提言する。

4. 提言:持続可能な人事制度への移行プラン

これまでの分析で明らかになった構造課題解決するためには、小手先対策では不十分である。我々が取るべき唯一の持続可能な道は、戦略的な転換、すなわち「年功序列賃金から、成果と役割に応じたフラット賃金体系への移行」である。本レポート提示する核心的な提言は、この移行を断行することに尽きる。その具体的なモデルケースとして、「年収700万円での頭打ち」を一つのベンチマークとすることを提案する。

この新しい賃金モデルは、単なるコスト削減策ではなく、企業競争力従業員エンゲージメントを同時に向上させる、多面的メリットをもたらす。

この改革は、単なる賃金制度の変更に留まらない。それは日本人の働き方、キャリア観、そして社会全体のあり方を変革し、持続可能タレントパイプラインを構築する大きなポテンシャルを秘めている。

結論:真の「雇用安定」の再定義に向けて

レポートを通じて明らかになったように、日本の中高年雇用問題根本原因は、個々の社員能力や意欲の欠如では断じてない。その本質は、経済成長期を前提に設計され、現代環境には全く適合しなくなった年功序列型の賃金システムのものにある。

この本質的な課題を前に、我々は議論の焦点を大きく転換させねばならない。「定年後の再雇用」や「中高年のリスキリング」といった対症療法的な議論から、「そもそも定年を意識することなく、誰もが安心して長く働き続けられる雇用賃金体系をいかにして構築するか」という、より本質的な議論へとシフトしなければ、この問題解決することはない。

真の「雇用安定」とは、単に一つの企業に長く在籍できることではない。それは、年齢に関わらず、社員一人ひとりが自らの能力経験を最大限に発揮し、その貢献に対して公正な処遇を受けながら、社会の一員として長く活躍し続けられるシステムである。この新しい定義に基づき、持続可能で、かつ働くすべての人々にとって公平な人事制度を構築することこそ、現代日本企業に課せられた最も重要戦略的責務である

2025-10-17

anond:20251016172246

ムーアの法則絶頂期ならPC爆速陳腐化してたかゲーム専用機価値があったけど、今は停滞してるんだからAPU流用で「VAIOのゲーミングPC」が出てもいいのにな

1995年2015年位まではPCスペックが3年で1~2桁くらいの異常なペースで進化しており、PCゲームと言えば「2年前に30万円で買ったPCの性能が今ではドンキの激安PC未満相当まで相対的に落ちているから、このPCではもはや最新ゲームの起動自体不可能」とか「去年組んだ最強ゲーミングPCから、今年に出た最新ゲームでもまだ画質設定の一部をLOWにすれば、大部分MIDDLEでも遊べる」といった狂った状況が続いていた

そういった状況で、ソニープレステ任天堂などのゲーム専用機は、発売時は特殊アーキテクチャPC進化を5年先取りして美麗なグラフィックスや新しい価値提供し、終売時はPCには劣るがゲーム自体が特化しているので十分楽しめるという価値を残し、そして「初代」から最終型まで価格や消費電力が落ちていく一方、性能を一切変えないことで「発売日に並んで買った初期型なのに、今では最新ゲームが動かない」という状況を回避していた

しかし、2010年代くらいからゲーミングPC進化が急減速し始め、5年で20%くらいまで落ちて今に至るので、今ではこの「ボクのおこづかいで買った初期型現象はもう発生しなくなっている。同時に、同世代スマホよりも画質が凄惨だったチップセット内蔵グラフィックスも性能が上がり、更にUnityなどの無料ゲームエンジンが登場してイチからC++プログラミングを極めなくてもゲームが作れるようになり、これらの合わせ技で「殆どゲーム殆どPCで動く」状況が完成した

こうなった今、「ゲーム専用機から安心」という価値はほぼ無くなっている。今こそPS2PS3時代にどっかのソニー久夛良木かいオッサンが夢見ていた「ソニーエコシステムマルチメディア環境を実現すべき時が来てる。んだからさっさとSteam一太郎やらPrime Videoやらをプレステ移植するなり、プレステWindows実行機能を付けたモデルを作るなり、やればいいのにと思うんだがなぁ。

ログイン ユーザー登録
ようこそ ゲスト さん