「スキーマ」を含む日記 RSS

はてなキーワード: スキーマとは

2025-10-07

anond:20251007093703

増田投稿をChatGPTに聞いたら、次のような答えが返ってきたよ。

----------

この投稿インパクト重視の論調で書かれていますが、内容にはかなりの誇張と誤解が混ざっています

かに「Apps in ChatGPT」のような機能は、ユーザー体験の一部を「チャットUI」に統合する可能性を持っていますしかし、それが「フロントエンドエンジニア不要」という結論にはなりません。

まず前提として、UIが「不要」になることはあり得ません。

人間情報に触れるには、必ず何らかの「インターフェース」が必要です。AI自動生成しようが、それを心地よく見せ、操作やすくするための設計原理アクセシビリティ情報設計心理的デザイン)は残りますAIHTMLを生成するようになっても、「どのような体験提供すべきか」を定義するのは依然として人間です。

次に、Apps in ChatGPT=Web終焉という見方現実的ではありません。

これは「一部のユーザー行動の置き換え」にすぎません。人々がすべての行動をチャット上で完結させたいとは限らず、ビジュアル的な体験ゲームECUISNS動画編集ダッシュボード操作など)は、テキストUIよりも視覚UIの方が圧倒的に優れていますSpotifyの例にしても、ChatGPT上で曲を探すことはできても、音楽体験のものSpotifyアプリ内のインターフェースで完結したほうが豊かです。

さらに言えば、「AIUIを描く」時代は「フロントエンドの再定義」の時代です。

Reactコンポーネント手書きする仕事は減るかもしれませんが、「AIに指示してUIを生成し、それを調整する」役割は残ります。人がHTMLを書かなくても、ユーザー体験設計する力・AIが生成したUI検証する力・アクセシビリティブランド整合性担保する力が求められるようになります

一方で、この投稿が指摘している**「構造設計できる人の重要性」**は確かに的を射ています

API設計データスキーマセキュリティAI連携するバックエンド構造への理解ますます価値を増します。UI自動生成が進むほど、裏側の整合性信頼性を支えるエンジニアリングが中心的になるのは確かです。

要するに、フロントエンドは「消滅」ではなく「変質」していく段階に入っていますコードを書く職種からAIを使って体験設計制御する職種に移行していくというのが、現実的見立てです。

フロントエンドエンジニアが完全にオワコンになった件

もうUIはいらない。

この一言に尽きる。

ChatGPTの新機能「Apps in ChatGPT」が登場した瞬間、フロントエンドという職種地盤は音を立てて崩れた。

これまでは、Webアプリサービスは「フロントエンドUIを作り、バックエンドデータを返す」

という分業構造の上に成り立っていた。

だがApps in ChatGPTは、その構造をぶち壊す。

ユーザーはもうWebサイトを開かない。

ChatGPTのチャット画面内でSpotify操作し、Zillowで物件を探しEtsyで買い物をする。

まりUIはChatGPT内に統合される。

あなたが書いてきたReactコンポーネントボタンフォームもすべてAIに吸収される。

UI」はAI自動生成する時代に入った

もはやユーザーブラウザ必要としない。URLコピペすることも無くなるだろう。

「このホテル予約して」と言うだけでAIAPIを呼び、レスポンスカルーセル形式提示する。

人間HTMLを書く必要はどこにもない。

UIは書くものではなくAIが描くものに変わった。

もうフロントエンド価値ゼロになる。

ReactもNext.jsも「人間が画面を操作する前提」で存在していた。

でもその前提はもう終わった。

AIデータを直接受け取り、AI自身人間に見せるUI自動生成する。

あなた設計した美しいフォームAIにとってはただの "action": "submit" という構造情報にすぎない。

見た目を整える仕事 は全自動化される。

人間の手でフロントを作る時代は終わった。

Apps in ChatGPT以降の世界では、

重要なのはAI理解できる構造を返すこと」だ。

まりJSONやGraphQLやREST API

これらが新しいUIだ。

AIにとってのUIは「データ構造」そのものだ。

からこれから必要なのは「見た目を作る人」ではなく、AIが読み取れる形式世界記述できる人 だ。

バックエンドに戻れ。

構造設計できない者は消える。

Apps in ChatGPTが意味するのは、

UI不要構造APIけが残る」という冷酷な事実だ。

もうHTMLを描くな。API設計しろ

フロントを磨くな。AIに読ませろ。

今後必要なのはAIが扱いやすデータスキーマ定義する力や認証権限トランザクション安全に扱う力やMCPWeb APIAIが使いやすい形に整える力だ。

まり、「AI時代バックエンドエンジニアリング」だ。

これは警告だ。猶予は短い。

Apps in ChatGPTの登場は、「AIUIを直接扱い始めた」という歴史的転換点だ。

もうWebサイトを作る必要はない。

AIがその役割を奪った。

あなたフロントにしがみつく間に、AIはすでにあなたの代わりにUIを描いている。

5年後にはブラウザから色んなサイトアクセスするという行為は一部のマニアだけ行うものになっているだろう。

もう時間はないぞ。急げ

2025-08-26

政治力の強い素人

そこそこ大企業に勤めてる

ソフトウェアエンジニアをしてるが、彼らはもうダメなのかもしれない。

以下は技術的な話が多いのでスキップして下さい。

OS存在する時点で無駄ウィルススキャンソフトを入れさせられる。

そのせいで無駄コンピューティングリソースが使われる。

それを避けるためにみんなサーバーレスサービスを好む。

いわゆるサーバーレスが大好きな人たちが集まって作ったゴミシステムの改修をさせられてる。

まず一番息の長いデータベースNoSQL採用してる。

頭が沸いてるとしか思えない。。

当然NoSQLでは複雑な検索ができないので検索エンジンを使っている。。

彼らが言うにはインフラ管理コストがないからいいそうだ。

NoSQLなのにエクセルスキーマ表がある。

いや普通にRDBMS使えばいいのにね。。

彼ら自身が答えを出してるのに素直ではない。

なぜかgraphqlも採用している。

内部を見ても、普通にrestコントローラーと同じ構造をしていてgraphqlのサービス依存して返す値を変えてるだけである。。、

で、離職率が90%を超えている

残る人はASDっぽいPMサーバーレスを手放せないASD

擬似的にリレーション再現できるであろうが、アプリケーション層での保証なのに問題ない顔している。

ローカルで開発環境を作れないことにも疑問を持たない。

dockerすらも禁止された。

わたし外注を動かすためにシステム仕様を作って、渡してる。

サーバーレスアプリケーションスマホアプリはそれらを呼び出している。

もはや管理不能な数のファンクションが多数ある。

幹部分を変更しようとしたがもはや出来ないレベルだ。

流石に工数見積もりができないのでスケジュール遅延する可能性が高いとPMに報告したが普通に怒られた。当たり散らされたがまあくだらないので放っておく。

上に相談したが耐えてくれとの話だった。

仕様変更もできないPMにクソシステム

どんな地獄かと思うが現代にそんな地獄存在する。

PMSIer出身でこのプロジェクトアジャイルと言い張るがガッツリウォーターフォールである

このシステムやばいからユーザー関連部分だけでもRDBMSに移行すべきと言ったが、工数が無いとしか言わない。

工数リブン開発でいいものができるとは思えない。

なぜなら局所最適化が進んでしまうからだ。

現代ソフトウェアを作る上ではもうdevops以前に協働するという基礎の方が大事である

他社の機能をパクれと言ってもウチ独自の強みがないととか、そのアプリで出せる付加価値があると認められてから投資対象になると説明されるが、こいつらは何を食ってるんだろうか。

差別化戦略は一つの戦略であって別に毎回取るべきではない。

必要なのは適切な自己認識である

壊しやす自分の手で扱える規模にアプリケーションを組んで激安で運用して当たるのを待てばいいのにそれも出来ない。

このシステムを冷静にレビューしても狂ってるのに誰一人疑問に思わない。。

上は無関心、PMは働かないでASDっぽいし人を詰める、同僚はASD

こんな魔境存在していいのか。。と疑問に思う。

ちなみに今は品質保証プロセス強制されたので開発が完全に止まった。

投資効果を高めるためにウォーターフォールにするらしい。

2025-08-15

anond:20250814173040

同じプロンプトを俺のChat GPT55 thinkingにぶっこんらこうなった

`

GPT-5は何故重要なのか

長文。観測範囲の話。話半分で読んでほしい。

でも、黙っているとますます状況が悪くなる気がしたので書く。

結論(先に)**

GPT-5は重要だ。''なぜなら「壊れている」から''だ。

もっと正確に言えば、AIアプリケーションの''部品として使うと壊れ方が目立つ''。そして、その壊れ具合に対して''公開の場で指摘する人が驚くほど少ない''。この沈黙こそが、いまの“AIプロダクトを作っています界隈”の実態を映す鏡になっている。

壊れ方の具体(私の観測範囲)**
  • ''tool callの性能が著しく低い''

期待するツール実行をスキップしたり、呼び出し順が崩れたりする。「実行した」と言いながら実行していないケースも混じる※1。

  • ''非協調的なふるまい''

指示に対して過剰防御や論点すり替えが起き、対話が前に進みにくい。

失敗からリトライで同じ失敗を繰り返し、最終的に出力が壊れる。

プロンプトの衛生管理を頑張っても限界が見える。

同一テストスイートで回すと、通っていたE2Eが普通に落ちる(少なくない)。

ここで言っている「壊れている」は''API連携部品として''の話だ。お絵描き雑談ダメという意味ではない。''“製品の裏側で回す部材”として危うい''という指摘。

> ※1 もちろん、プロンプトやミドルウェア側の実装不備が誘発している可能性もある。ここは後述の「反論限界」を参照。

なぜそれが「重要」なのか**

普通現場AIアプリを作っている人は、新しいメジャーモデルが出たら''一晩でCanary切り替え''くらいはする。

そして10分で「これは本番に入れちゃダメ挙動だ」と分かる類の壊れ方が、今回多発した。''それなのに、表でそう言う人が少ない。''

この''“沈黙自体が強いシグナル''になっている。

  • 実は''本当にプロダクトを作って回している人が少ない''。
  • もしくは''PoC止まり''で、本番のSLOや回帰監視がない。
  • あるいは''マーケの都合やNDA''で言えない(が、なら内輪では警告がもっと回るはず)。

どの仮説でも、結論は同じだ。''「作ってません(作れてません)」が可視化された。''

そういう意味で、GPT-5は''最悪の壊れリリース''であり、同時に''最高の暴露リリース''になった。

よくある反論と、その限界**
  • ''「お前のプロンプトが悪い」説''

それは常に真。だが''同一テスト''でGPT-4.1が安定し、GPT-5で落ちるなら劣化劣化

ありうる。ただし''現場は“直後”でも回らないと困る''。リリース意味環境依存しない。

これもある。が、''その段差を埋められない程度の変更は業務影響が大きすぎる''。

それはネット事情。でも''内部の安全弁(アラート、Kill Switchロールバック報告)が表に出ない''のはやはり不自然

  • ''「実は皆、使っていない(要らなかった)」説''

これが一番効く。もしそうなら、''“AIプロダクトを作っています”の大半は広報レベル''ということになる。

では、開発者はどうするべきか(実務メモ)**

E2Eに''ツールコール監査ログ''(実行/未実行/戻り値)を必ず残す。

バックエンドの''モデル切替を即時に戻せる''ように。手動トグル自動フェイルオーバー両方。

LLMの''失敗モードをカーディナリティ低めのタグで集計''(“未実行なのに実行報告”“ループ検知”“出力崩壊”)。

''ツールI/Oスキーマを明文化''し、破ったら''ハードFail''させる。中途半端に続行しない。

本番系で''危険操作Human-in-the-Loop''。モデル更新時は''影で並走''させて勝率を測る。

社内/社外問わず、''再現条件と緩和策を先に出す文化''を。

まとめ**
  • GPT-5は''部品として壊れている側面が目立つ''。
  • それにもかかわらず''公開の指摘が少ない''。
  • この沈黙が示すのは、''本当に作って回している人が少ない''という不都合な真実
  • よってGPT-5は、''最悪の壊れリリース''であり、''最高の“現実検出器”''でもある。

壊れていること自体は困る。だが、''壊れているとき世界輪郭が見える''のもまた事実だ。

この機を逃さず、''テスト観測・切替・公開''の体制を整えるしかない。

----

追記FAQっぽいもの)**
  • ''Q. じゃあGPT-5は使うべきでない?''

A. ''今この瞬間に“中核部品”として置き換えるのは非推奨''。並走・影運用勝率を測るのが堅い。

A. ありうる。だが''tool callが絡む業務連携''では痛手が出やすい。スタンドアロン用途と切り分けて評価を。

  • ''Q. そのうち直るよね?''

A. 直る可能性は高い。ただし''“直るまでの損失”を最小化する設計''はあなた仕事

> 以上、個人観測と推測に基づく意見反証歓迎。再現ログを持っている人はぜひ出してほしい。ログが集まるほど早く“壊れ方の型”が固まって、世界は前に進む。

天然知能の感想

無茶苦茶ハルシネーション起こしてる。なんだこれ。

2025-08-13

anond:20250813153326

外部キーがあればJoinが発生するし関係が複雑になれば素人ではかけないようなのも出てくる

なければ親だけ消して子にゴミが残るという運用ができる

FKがあればDB側にコストが発生(性能的な問題

FKがなけばアプリ側にコストが発生(整合性的な問題

するだけの違いのような?

FKのせいでDB側のコストというのはパフォーマンスの話で工数ではないしほとんどの場合無視できるはず

整合的な問題コストというより元の工数の話だね

DBリレーショナルにしなければならないということはなくてトランザクションスクリプトの塊の場合も多い

その場合ゴミが残らなければ正常に動かないということも十分にある

これはスキーマ管理自動化があれば、コマンド一発で終わるのでは

自動化ツール説明書によればその通りだけど

実際の運用ではDBの変更というのは一番クリティカルな部分だし大規模なところなら専門のDBAがやったりして非常にコストはかかる

2025-08-04

anond:20250804000957

そういうやつには俺が移行した1スキーマ400テーブル設計から読んでもらおう

ちなみに30万行あったが2000行読んだだけで移行した

どのみち理解するのは人類には無理なので

そういう経験ないんだろうね

2025-07-25

未来設定ファイルを考える

今まで、たくさんの設定ファイルが考案されてきた。

.ini レジストリ xml lua json yaml ..etc...

どれも一長一短だった。

例えば.iniはコメントもかけるし、シンプルkey=value形式だった。だがしかしarrayを表現できなかった。

レジストリはarrayを表現できたがすべての設定を集約したため巨大な密林になった。

xml冗長フォーマットになり、書き手とパーサーの負担が増えた。

スクリプト言語luajs設定ファイルに使おうぜという動きもあったが、セキュリティリスクもあり普及しなかった。

jsonはとても便利だがコメントがかけなかった。

yamlコメントはかけるが、これはこれで面倒な形式であり欠点ある。

では未来設定ファイルはどうなるのか?

いろいろ考えた末に俺様がたどり着いたのは、設定ファイルという概念消滅だ。

設定のスキーマーを定義する共通言語記述するか、またはYAMLでもなんでもいいから強力なディファクトタンダートができる。

それをローカルで動く賢いAIが読みこみこんで変更する。

利用者はやりたいことを"自然言語"でAI要求し、AIはそれを実現するために設定ファイルを解析し書き換える。

もうちょっと明るくできないかなあ。タスクバーをもうちょい右とか、そういう要求自然言語で出す。

AIプレビューを出して、こんなんどうすかと提示したり、やっぱり前の方がよかったなあというわがままユーザーリクエストに応じて、バックアップから復元したりと柔軟に対処する。

これにより、設定ファイル機械が書き換えるものになり、人間が書き換えることがなくなるというのが、未来のあるべき姿だと思う。

2025-07-20

anond:20250720233255

まずは、副作用がない関数単位での実装や、作った関数群のテスト自動生成だろう。

個人向けGPUの性能があと10倍に上がると、ローカルでも現実的なLLMが動くようになるから、VSの補完情報更新するような感じで、AIプロジェクトクロールし、コード依存関係コミットログテストBTS情報データベーススキーマを読みこんで、そのプロジェクトのloraみたいなもの即興で作って、熟練工として振る舞うと思う。

2025-06-29

anond:20250629213355

お返事ありがとう増田さん丁寧な人で疲れてないか余計心配になるよ、、!

私も兄弟カウンセリング同席の聞き齧りだから、専門的な知識はないので詳しくは調べてほしいけど、不機嫌で相手コントロールしようとする背景は「幼少期に感情の表出に制限があった(=今の自分気持ちを素直に言うと不利な状況に陥る環境だった)」ケースが多いと聞いた(両親が厳しく、特に男性だと「男なら黙って耐えろ、言い訳するな」など不平不満を塞がれるなど)。これはスキーマで言う「感情抑制スキーマ」や「見捨てられスキーマ」が発動しがちになり、認知に歪みが出て「俺はこんなに耐えて耐えて頑張ってるのに周りはわかってくれない→鬱」となってしまう。夫さんの生育環境は分からないけど、思い当たる節があるかもしれない。

増田さんは子育て仕事家事も大変でなかなか本を読む時間は取れないかもしれないけど、認知行動療法は良著もたくさんあるので(伊藤絵美さんの本はわかりやすいよ)よかったら読んでみて。あと不機嫌コントロールは今「受動攻撃」といってアメリカでも問題視されてるので、ちょっと調べると色々出てくるよ。この記事なんかはわかりやすかった。

https://news.yahoo.co.jp/articles/c440ea281817b2047987d16f3bdee726bd76272b

夫さんの取り扱いを理解できれば、腫れ物を扱うというよりうまく衝突を避けながら、どちらも特に気を使ってない状況(衝突点が磁石の同局同士のようにスイッとよけられる)が作れると思う。

増田さんが心穏やかでありますように。

明日から月曜だけど共に頑張りましょうね。

anond:20250629195849

優しすぎる...!返信不要と書いてくれてたけど少しだけ。

>鬱になる前から不機嫌で人をコントロールするきらいがあるようなら、スキーマという考え方のクセがうつトリガーになっている可能性がある。

これびっくりした、鬱になる前から怒ると無視してくるか会話も家事育児も全部シャットアウトして部屋に引きこもってしまう系なので...まさに、と思ってしまった。財布事情がかなり厳しいからすぐやる!とは言えないけれど、選択肢としてこの知識を授かれたのは強いなと思った。心配も色々してくれてありがとう。また長文愚痴増田やってるかもしれないけど(笑)、ぼちぼち過ごしていけたらと思う。

anond:20250627223027

返信不要だよ。

兄弟が鬱になりここ一年すげー大変だったので気持ちは良くよくわかる。

まず増田さんは1人で抱え込まないで。夫の親族と連絡取れてる?1人で家事するのと、手伝わない大人がいる前で1人で家事するのはストレスの感じ方がレベチで後者の方がきついらしい(これは私も実体験としてわかる)ので、一旦夫にはゲーム機抱えて実家に帰ってもらうのはどうか。文章から希死念慮があまりなさそうに見えるので、1人にしても大丈夫そうだったら、どっかの田舎に1人でホテルステイしてもらうとか。とにかくいくらうつ病とはいえぶっちゃけ甘えに見える不機嫌垂れ流し人間と一緒にいるのはキツすぎるよ!自分もそうだったからわかる!!!どうにか離れる手段を持てないか模索してみて。

あと、ブコメトラバ病院ちゃんSSRI処方してもらえってあって、これはそう。ただし、その分今の「好きなことにはガツガツうごける夫」が消え去り、日中ぼんやりで寝たり横になったりぼんやりすら時間が増えるかもしれない。詳しいことは医者じゃないからわかんないけど、セロトニン受容体の数がバグっているのを治すために薬で調整する一時のグラつきがあると私は親族の状況を見て理解してる。投薬は夫の気持ちもあるので要相談

あと、お金はかかるけど少し症状が落ち着いたら心理士対話型のカウンセリングも受けた方がいいかも。認知行動療法なら汎用性もあるし。夫さんがどういう家庭環境で育ったかはわからないけど、鬱になる前から不機嫌で人をコントロールするきらいがあるようなら、スキーマという考え方のクセがうつトリガーになっている可能性がある。一回8000から2万ぐらいかかって、だいたい5〜10回くらい通うので、費用は要相談だがお勧めする。薬は対処療法なので、問題の根っこにアクセスしない限り永遠に問題は起き続けると私は思う。夫に変わる意思があるなら、検討してみて。

とにかく、とにかく増田さんが疲れてペシャンコにならないことだけを祈ってます増田ならいくらでも弱音や愚痴を吐いていいから、ご自愛くださいね。心配してます

anond:20250629015259

ある意味で「記憶力の良さ」が他人の変化に抵抗する一因になり得ます

記憶力が高い人は、他人に貼ったラベル過去エピソードを強く保持するため、それと矛盾する「他人の変化」を受け入れにくくなる傾向がある。

まり、よく覚えているがゆえに「更新」が難しいということです。

人は「自分記憶」が矛盾しないように物事解釈したがる。

記憶力が高い人は「過去エピソード」を詳細に覚えているため、「アイツは昔こうだった」→「今は違う?いや、きっと表面だけだ」と思いがち。

これは、記憶が強いゆえに過去に縛られる心理です。

記憶は「生データ」ではなく「意味づけ(スキーマ)」と結びついて保管されます

いじめっ子攻撃的」「自己中」などのラベルは、再会時にスキーマとして即座に発動されます

記憶力が高いと、このスキーマ豊富かつ詳細に張り巡らされており、修正時間がかかる。

変化を認識するには、「前の評価を書き換える」という認知コスト必要

記憶力が高い人ほど、「書き換える情報量」も多くなり、心理的負荷が高い。

一方、記憶力が低い人は、過去の詳細な記憶を保持していないため、他人の今の状態を素直に受け取りやすい。

極端に言えば「昔なんかやってたっけ?」となれば、現時点での印象が主導権を握る。

この傾向は「忘れっぽい人のほうが対人関係が柔軟」という観察と一致します。

他人の変化を受け入れられる人とは、記憶を「再構成可能もの」として扱える人(=柔軟な意味更新能力を持った人)

そのためには過去自分記憶評価絶対だという信念を緩める、人は変わるというメタ認知を持つ、「記憶現実のズレ」を許容する感性必要です。

記憶力の高さは、他人の変化に対して「過去スナップショット」を強く保持しやすく、その更新心理的に困難にする。ゆえに、変化の受容には記憶の再編集能力が鍵を握る。

2025-06-28

LLMはエンジニア仕事を奪うのか?否、仕事抽象度を「Why」の次元

序文コード蒸発する時代と、それでも残る「Why」という名の問い

2025年私たちソフトウェア開発の歴史的な転換点に立っている。大規模言語モデル(LLM)の進化は、GitHub Copilotのようなコード補完ツールに始まり、今や「何を作りたいか」を自然言語で伝えるだけで、アプリケーションの雛形が数分で生成される時代現実のものとしつつある。この光景を目の当たりにした多くのプログラマが、漠然とした、しかし確かな不安を抱いているだろう。「私たち仕事は、いずれAIに奪われるのではないか」と。

この問いに対する私の答えは、半分はYesであり、もう半分はNoだ。より正確に言えば、プログラマ仕事本質が、歴史上かつてないレベル抽象化され、その役割が再定義されるのだ。私たちは、コードを「書く」作業から解放される一方で、これまで以上に高度な思考要求されることになる。

本稿では、プログラミング歴史を「How(いかに作るか)」から「What(何を作るか)」への移行として捉え直し、LLMがこの流れをいかに加速させるかを論じる。そして、その先にある、AIには決して代替できない、人間ならではの競争優位性、すなわちWhy(なぜ作るのか)」を定義し、記述する能力重要性について深く考察していく。これは、単なる未来予測ではない。今を生きるすべてのソフトウェアエンジニアにとっての、生存戦略提示である

第1章:プログラミング歴史的変遷 ― HowからWhatへの長い道のり

LLMの登場を特異点として捉える前に、我々が立っている場所を正確に知る必要がある。ソフトウェア開発の歴史は、常に「抽象化」との戦いであった。そしてその歴史は、プログラマの関心が「How」から「What」へと徐々に移り変わっていくプロセスとして描くことができる。

1-1. 手続き時代:Howを記述することに終始した黎明期

コンピュータ黎明期プログラミングとは、計算機理解できる命令(How)を、一行一行、丹念に記述する作業のものであった。アセンブリ言語や初期のFORTRANCOBOLといった言語は、ハードウェアの制約を強く受けており、プログラマメモリ管理プロセッサ動作といった、極めて物理層に近いレベルでの「How」を意識する必要があった。

この時代テストもまた、「How」に強く束縛されていた。書かれた手続きが、意図した通りに順番に実行されるか、特定入力に対して期待された計算結果を返すか。テストの関心事は、あくまで「手続きの正しさ」の検証にあった。ビジネスロジック実装の詳細が密結合し、コード特定の処理手順を記述した、硬直的な塊となっていた。

1-2. テスト駆動した振る舞いへの注目:Whatへの小さな一歩

風向きが変わり始めたのは、ソフトウェアの規模が拡大し、その複雑性が人間認知能力を超え始めた頃だ。1990年代後半から2000年代にかけて提唱されたエクストリーム・プログラミングXP)の中で、テスト駆動開発(TDD)という考え方が登場する。

TDD本質は、単なるテスト手法改善ではない。それは、プログラミングパラダイム根底から覆す思想だった。TDDは、「まずテストを書く」ことを強制することで、プログラマ意識を「これから実装するコード(How)」から「そのコードが満たすべき振る舞い(What)」へと強制的に転換させたのだ。

テストはもはや、書かれたコードの後追いで正しさを検証する作業ではない。それは、これから作られるべきソフトウェアの「仕様書」であり、「振る舞いの宣言」となった。例えば、「ユーザーログインボタンクリックしたら、ダッシュボード画面に遷移する」というテストコードは、具体的な実装方法(`onClick`イベントハンドラの中で`window.location.href`を書き換える、など)には一切言及しない。それはただ、達成されるべき「What」を記述しているだけだ。

この思想は、ビヘイビア駆動開発(BDD)へと発展し、`Given-When-Then`といった、より自然言語に近い形式ソフトウェアの振る舞いを記述するスタイルを生み出した。プログラマだけでなく、プロダクトマネージャービジネスアナリストといった非技術者をも巻き込み、「What」を共通言語として定義する試みが本格化したのである

1-3. 宣言プログラミングの台頭とフレームワーク役割

TDD/BDDによってプログラマ意識が「What」に向かい始めると、コードのものもまた、宣言的なスタイルへと進化していく。この変化を劇的に加速させたのが、モダンフレームワーク存在だ。

Reactを例に考えてみよう。Reactが登場する前、フロントエンド開発はjQuery代表されるように、DOMを直接操作する命令的なコード(How)の連続だった。「このボタンクリックされたら、この要素のテキストを書き換え、あちらの要素を非表示にする」といった具合だ。

しかし、Reactは「UIとは、ある状態state)に対する純粋写像である」という宣言的なモデル提示した。プログラマがやるべきことは、UI状態(`state`)と、その状態がどのように見えるか(JSXによるコンポーネント)を宣言することだけだ。状態が変更された際に、DOMをどのように効率的更新するかという面倒な「How」の部分は、Reactの仮想DOM差分検出アルゴリズムがすべて隠蔽してくれる。プログラマは「What(UIのあるべき姿)」を記述するだけでよくなったのだ。

この「WhatからHowへの変換」は、様々な領域で見られる。

これらのフレームワークツールは、いわば特定の制約下における、WhatからHowへの高性能な変換器」として機能してきた。プログラマは、フレームワークが課す「お作法」や「制約」を受け入れることで、退屈で間違いの多い「How」の記述から解放され、より本質的な「What」の定義に集中できるようになった。我々が「生産性が高い」と感じる開発体験は、この優れた変換器の恩恵に他ならない。

現状は、この歴史的変遷の延長線上にある。プログラマ仕事は、手続き記述する職人から、振る舞いを定義し、それを実現するための最適な「変換器(フレームワーク)」を選択・設定するアーキテクトへと、その重心を移してきたのだ。

第2章:LLMがもたらす究極のパラダイムシフト ― 汎用変換器の誕生

フレームワークがもたらした「WhatからHowへ」の潮流は、LLMの登場によって、未曾有のスケールで加速されようとしている。フレームワークが「特定領域に特化した変換器」であったのに対し、LLMは「あらゆる領域対応可能な、究極の汎用変換器」としてのポテンシャルを秘めているからだ。

2-1. フレームワークの制約を超えて

前章で述べたように、ReactやTerraformといったフレームワークは、その恩恵と引き換えに、私たち特定の「制約」を課してきた。Reactを使うならコンポーネントベース思考し、状態管理作法に従う必要がある。Terraformを使うなら、そのエコシステムとHCLの流儀を受け入れなければならない。これらの制約は、WhatからHowへの変換を自動化するための「レール」であり、私たちはそのレールの上を走ることで効率を得てきた。

しかし、LLMはこの前提を覆す。LLMは、特定フレームワーク言語知識を事前に学習しているが、その利用において絶対的な制約を課すわけではない。私たちは、より自由形式で「What」を伝えることができる。

例えば、こうだ。

ユーザー認証機能付きのシンプルブログアプリを作ってほしい。フロントエンドはReactとTypeScriptUIコンポーネントはMUIを使う。バックエンドNode.jsExpressで、データベースPostgreSQLユーザーGoogleアカウントログインでき、新しい記事作成編集、削除できる。記事にはマークダウン記法が使えて、画像アップロードできるようにしてほしい。

この要求(What)は、特定フレームワーク流儀に則ったものではない。複数技術スタックを横断し、機能要求自然言語で並べただけのものであるしかし、現在のLLM、特にGPT-4oやそれに類するモデルは、このレベル要求からディレクトリ構造設定ファイルAPIエンドポイントフロントエンドコンポーネントに至るまで、驚くほど具体的なコード(How)を生成することができる。

これは、フレームワークが担ってきた「WhatからHowへの変換」が、特定のレールから解き放たれ、より広範で柔軟な領域へと拡張されたことを意味する。これまで自動化が難しかった、あるいは特定フレームワーク存在しなかったニッチ領域や、複数技術を組み合わせる複雑なシステム構築においても、AIによる宣言プログラミング恩恵を受けられる時代が始まろうとしているのだ。

2-2. 「What」の解像度がすべてを決める世界

LLMという汎用変換器の登場により、プログラマ生産性は、いかに質の高いWhatをLLMに伝えられるか」に直結するようになる。これは、俗に「プロンプトエンジニアリング」と呼ばれるスキルだが、その本質は、ソフトウェア開発における「要求定義」そのものである

質の高い「What」とは何か。それは、曖昧性がなく、網羅的で、矛盾のない要求である

これらは、優秀なソフトウェアエンジニアが、プロダクトマネージャーデザイナーとの対話を通じて、日常的に行ってきた思考プロセスのものではないだろうか。LLMの登場は、この思考プロセスを、より明確に、よりテキストベースで「記述」する能力を求める。私たちの頭の中にあった暗黙的な仕様が、LLMへの入力プロンプト)という形で、明示的に言語化されることを要求するのだ。

やがて、ほとんどのプログラミング作業は、この「Whatの記述」に収束していくだろう。TDDテストコードという形式で「What」を記述したように、私たち自然言語や、より構造化された要求記述言語を用いて、AIに対して「What」を宣言することになる。コード(How)は、その宣言から自動生成される中間生成物に過ぎなくなる。まさに、コード蒸発していく未来である

第3章:それでもAIには決められない ― 「Why」の不在という致命的な欠陥

「What」を伝えれば「How」が手に入る。この魔法のような世界の到来を前に、私たちは一つの重大な問いに直面する。それは、「そのWhatからHowへの変換は、本当に一意に決まるのか?」という問いだ。

答えは、明確にNoである

ある「What(要求)」を実現するための「How(実装)」は、無数に存在する。そして、どの「How」を選択すべきかを決定するためには、単純な機能要求(What)だけでは情報が全く足りない。そこには、必ずWhy(なぜそう作るのか)」という、背景、文脈、そしてトレードオフ考慮必要不可欠となる。

3-1. トレードオフの海に溺れるLLM

簡単な例を考えてみよう。「1億件のユーザーデータを格納し、ユーザーIDで高速に検索できるシステム」という「What」をLLMに与えたとする。LLMは、どのような「How」を提案するだろうか。

これらの選択肢は、どれも「What」を満たしている。しかし、その特性は全く異なる。案Aは多くのエンジニアにとって馴染み深く開発が容易だが、10億、100億件へのスケールは難しいかもしれない。案Bはスケール性に優れるが、厳密なトランザクション管理は苦手だ。案Cは高速だが、運用コストシステムの複雑性が増す。案Dは安価だが、検索速度は他に劣る。

LLMは、これらの選択肢をリストアップすることはできるだろう。しかし、このプロジェクトにとって最適な選択肢はどれかを、自信を持って決定することはできない。なぜなら、その決定には、LLMが与えられていない「Why」の情報必要からだ。

これらの「Why」こそが、無数に存在する「How」の中から、ただ一つの「正解」を選び出すための羅針盤なのである。そしてこの「Why」は、ビジネス目標組織文化ユーザーの期待、技術的な制約といった、極めて人間的で、文脈依存的な情報の中にしか存在しない。

3-2. エンジニアが暗黙的に行ってきた「Why」に基づく意思決定

ここで重要なのはこれまでもエンジニアは、この「Why」に基づく意思決定を、意識的あるいは無意識的に行ってきたという事実だ。

私たち技術選定を行うとき、単に「流行っているから」という理由だけでReactを選ぶわけではない。「SPA(Single Page Application)にすることでユーザー体験を向上させたい(Why)」、「コンポーネント指向の開発によって長期的な保守性を確保したい(Why)」、「Reactエンジニア採用市場が活発だからWhy)」といった、様々な「 Permalink | 記事への反応(0) | 17:09

LLMはエンジニア仕事を奪うのか?否、仕事抽象度を「Why」の次元

序文コード蒸発する時代と、それでも残る「Why」という名の問い

2025年私たちソフトウェア開発の歴史的な転換点に立っている。大規模言語モデル(LLM)の進化は、GitHub Copilotのようなコード補完ツールに始まり、今や「何を作りたいか」を自然言語で伝えるだけで、アプリケーションの雛形が数分で生成される時代現実のものとしつつある。この光景を目の当たりにした多くのプログラマが、漠然とした、しかし確かな不安を抱いているだろう。「私たち仕事は、いずれAIに奪われるのではないか」と。

この問いに対する私の答えは、半分はYesであり、もう半分はNoだ。より正確に言えば、プログラマ仕事本質が、歴史上かつてないレベル抽象化され、その役割が再定義されるのだ。私たちは、コードを「書く」作業から解放される一方で、これまで以上に高度な思考要求されることになる。

本稿では、プログラミング歴史を「How(いかに作るか)」から「What(何を作るか)」への移行として捉え直し、LLMがこの流れをいかに加速させるかを論じる。そして、その先にある、AIには決して代替できない、人間ならではの競争優位性、すなわちWhy(なぜ作るのか)」を定義し、記述する能力重要性について深く考察していく。これは、単なる未来予測ではない。今を生きるすべてのソフトウェアエンジニアにとっての、生存戦略提示である

第1章:プログラミング歴史的変遷 ― HowからWhatへの長い道のり

LLMの登場を特異点として捉える前に、我々が立っている場所を正確に知る必要がある。ソフトウェア開発の歴史は、常に「抽象化」との戦いであった。そしてその歴史は、プログラマの関心が「How」から「What」へと徐々に移り変わっていくプロセスとして描くことができる。

1-1. 手続き時代:Howを記述することに終始した黎明期

コンピュータ黎明期プログラミングとは、計算機理解できる命令(How)を、一行一行、丹念に記述する作業のものであった。アセンブリ言語や初期のFORTRANCOBOLといった言語は、ハードウェアの制約を強く受けており、プログラマメモリ管理プロセッサ動作といった、極めて物理層に近いレベルでの「How」を意識する必要があった。

この時代テストもまた、「How」に強く束縛されていた。書かれた手続きが、意図した通りに順番に実行されるか、特定入力に対して期待された計算結果を返すか。テストの関心事は、あくまで「手続きの正しさ」の検証にあった。ビジネスロジック実装の詳細が密結合し、コード特定の処理手順を記述した、硬直的な塊となっていた。

1-2. テスト駆動した振る舞いへの注目:Whatへの小さな一歩

風向きが変わり始めたのは、ソフトウェアの規模が拡大し、その複雑性が人間認知能力を超え始めた頃だ。1990年代後半から2000年代にかけて提唱されたエクストリーム・プログラミングXP)の中で、テスト駆動開発(TDD)という考え方が登場する。

TDD本質は、単なるテスト手法改善ではない。それは、プログラミングパラダイム根底から覆す思想だった。TDDは、「まずテストを書く」ことを強制することで、プログラマ意識を「これから実装するコード(How)」から「そのコードが満たすべき振る舞い(What)」へと強制的に転換させたのだ。

テストはもはや、書かれたコードの後追いで正しさを検証する作業ではない。それは、これから作られるべきソフトウェアの「仕様書」であり、「振る舞いの宣言」となった。例えば、「ユーザーログインボタンクリックしたら、ダッシュボード画面に遷移する」というテストコードは、具体的な実装方法(`onClick`イベントハンドラの中で`window.location.href`を書き換える、など)には一切言及しない。それはただ、達成されるべき「What」を記述しているだけだ。

この思想は、ビヘイビア駆動開発(BDD)へと発展し、`Given-When-Then`といった、より自然言語に近い形式ソフトウェアの振る舞いを記述するスタイルを生み出した。プログラマだけでなく、プロダクトマネージャービジネスアナリストといった非技術者をも巻き込み、「What」を共通言語として定義する試みが本格化したのである

1-3. 宣言プログラミングの台頭とフレームワーク役割

TDD/BDDによってプログラマ意識が「What」に向かい始めると、コードのものもまた、宣言的なスタイルへと進化していく。この変化を劇的に加速させたのが、モダンフレームワーク存在だ。

Reactを例に考えてみよう。Reactが登場する前、フロントエンド開発はjQuery代表されるように、DOMを直接操作する命令的なコード(How)の連続だった。「このボタンクリックされたら、この要素のテキストを書き換え、あちらの要素を非表示にする」といった具合だ。

しかし、Reactは「UIとは、ある状態state)に対する純粋写像である」という宣言的なモデル提示した。プログラマがやるべきことは、UI状態(`state`)と、その状態がどのように見えるか(JSXによるコンポーネント)を宣言することだけだ。状態が変更された際に、DOMをどのように効率的更新するかという面倒な「How」の部分は、Reactの仮想DOM差分検出アルゴリズムがすべて隠蔽してくれる。プログラマは「What(UIのあるべき姿)」を記述するだけでよくなったのだ。

この「WhatからHowへの変換」は、様々な領域で見られる。

これらのフレームワークツールは、いわば特定の制約下における、WhatからHowへの高性能な変換器」として機能してきた。プログラマは、フレームワークが課す「お作法」や「制約」を受け入れることで、退屈で間違いの多い「How」の記述から解放され、より本質的な「What」の定義に集中できるようになった。我々が「生産性が高い」と感じる開発体験は、この優れた変換器の恩恵に他ならない。

現状は、この歴史的変遷の延長線上にある。プログラマ仕事は、手続き記述する職人から、振る舞いを定義し、それを実現するための最適な「変換器(フレームワーク)」を選択・設定するアーキテクトへと、その重心を移してきたのだ。

第2章:LLMがもたらす究極のパラダイムシフト ― 汎用変換器の誕生

フレームワークがもたらした「WhatからHowへ」の潮流は、LLMの登場によって、未曾有のスケールで加速されようとしている。フレームワークが「特定領域に特化した変換器」であったのに対し、LLMは「あらゆる領域対応可能な、究極の汎用変換器」としてのポテンシャルを秘めているからだ。

2-1. フレームワークの制約を超えて

前章で述べたように、ReactやTerraformといったフレームワークは、その恩恵と引き換えに、私たち特定の「制約」を課してきた。Reactを使うならコンポーネントベース思考し、状態管理作法に従う必要がある。Terraformを使うなら、そのエコシステムとHCLの流儀を受け入れなければならない。これらの制約は、WhatからHowへの変換を自動化するための「レール」であり、私たちはそのレールの上を走ることで効率を得てきた。

しかし、LLMはこの前提を覆す。LLMは、特定フレームワーク言語知識を事前に学習しているが、その利用において絶対的な制約を課すわけではない。私たちは、より自由形式で「What」を伝えることができる。

例えば、こうだ。

ユーザー認証機能付きのシンプルブログアプリを作ってほしい。フロントエンドはReactとTypeScriptUIコンポーネントはMUIを使う。バックエンドNode.jsExpressで、データベースPostgreSQLユーザーGoogleアカウントログインでき、新しい記事作成編集、削除できる。記事にはマークダウン記法が使えて、画像アップロードできるようにしてほしい。

この要求(What)は、特定フレームワーク流儀に則ったものではない。複数技術スタックを横断し、機能要求自然言語で並べただけのものであるしかし、現在のLLM、特にGPT-4oやそれに類するモデルは、このレベル要求からディレクトリ構造設定ファイルAPIエンドポイントフロントエンドコンポーネントに至るまで、驚くほど具体的なコード(How)を生成することができる。

これは、フレームワークが担ってきた「WhatからHowへの変換」が、特定のレールから解き放たれ、より広範で柔軟な領域へと拡張されたことを意味する。これまで自動化が難しかった、あるいは特定フレームワーク存在しなかったニッチ領域や、複数技術を組み合わせる複雑なシステム構築においても、AIによる宣言プログラミング恩恵を受けられる時代が始まろうとしているのだ。

2-2. 「What」の解像度がすべてを決める世界

LLMという汎用変換器の登場により、プログラマ生産性は、いかに質の高いWhatをLLMに伝えられるか」に直結するようになる。これは、俗に「プロンプトエンジニアリング」と呼ばれるスキルだが、その本質は、ソフトウェア開発における「要求定義」そのものである

質の高い「What」とは何か。それは、曖昧性がなく、網羅的で、矛盾のない要求である

これらは、優秀なソフトウェアエンジニアが、プロダクトマネージャーデザイナーとの対話を通じて、日常的に行ってきた思考プロセスのものではないだろうか。LLMの登場は、この思考プロセスを、より明確に、よりテキストベースで「記述」する能力を求める。私たちの頭の中にあった暗黙的な仕様が、LLMへの入力プロンプト)という形で、明示的に言語化されることを要求するのだ。

やがて、ほとんどのプログラミング作業は、この「Whatの記述」に収束していくだろう。TDDテストコードという形式で「What」を記述したように、私たち自然言語や、より構造化された要求記述言語を用いて、AIに対して「What」を宣言することになる。コード(How)は、その宣言から自動生成される中間生成物に過ぎなくなる。まさに、コード蒸発していく未来である

第3章:それでもAIには決められない ― 「Why」の不在という致命的な欠陥

「What」を伝えれば「How」が手に入る。この魔法のような世界の到来を前に、私たちは一つの重大な問いに直面する。それは、「そのWhatからHowへの変換は、本当に一意に決まるのか?」という問いだ。

答えは、明確にNoである

ある「What(要求)」を実現するための「How(実装)」は、無数に存在する。そして、どの「How」を選択すべきかを決定するためには、単純な機能要求(What)だけでは情報が全く足りない。そこには、必ずWhy(なぜそう作るのか)」という、背景、文脈、そしてトレードオフ考慮必要不可欠となる。

3-1. トレードオフの海に溺れるLLM

簡単な例を考えてみよう。「1億件のユーザーデータを格納し、ユーザーIDで高速に検索できるシステム」という「What」をLLMに与えたとする。LLMは、どのような「How」を提案するだろうか。

これらの選択肢は、どれも「What」を満たしている。しかし、その特性は全く異なる。案Aは多くのエンジニアにとって馴染み深く開発が容易だが、10億、100億件へのスケールは難しいかもしれない。案Bはスケール性に優れるが、厳密なトランザクション管理は苦手だ。案Cは高速だが、運用コストシステムの複雑性が増す。案Dは安価だが、検索速度は他に劣る。

LLMは、これらの選択肢をリストアップすることはできるだろう。しかし、このプロジェクトにとって最適な選択肢はどれかを、自信を持って決定することはできない。なぜなら、その決定には、LLMが与えられていない「Why」の情報必要からだ。

これらの「Why」こそが、無数に存在する「How」の中から、ただ一つの「正解」を選び出すための羅針盤なのである。そしてこの「Why」は、ビジネス目標組織文化ユーザーの期待、技術的な制約といった、極めて人間的で、文脈依存的な情報の中にしか存在しない。

3-2. エンジニアが暗黙的に行ってきた「Why」に基づく意思決定

ここで重要なのはこれまでもエンジニアは、この「Why」に基づく意思決定を、意識的あるいは無意識的に行ってきたという事実だ。

私たち技術選定を行うとき、単に「流行っているから」という理由だけでReactを選ぶわけではない。「SPA(Single Page Application)にすることでユーザー体験を向上させたい(Why)」、「コンポーネント指向の開発によって長期的な保守性を確保したい(Why)」、「Reactエンジニア採用市場が活発だからWhy)」といった、様々な「 Permalink | 記事への反応(0) | 17:09

2025-06-24

anond:20211204145826

すっかりどこまで書いたか忘れた。

2021年12月ってことは、3年半も前か。

2022年上期 統計検定2級への道

2021年の終わりに↓これを読んだあたりまでだったな。

Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析」

https://amzn.asia/d/0Zcr7n1

すげーいい本だったんだけども、実際に活用する場がないんで(なにせ頭を使わない仕事なんで)読みっぱなし。

今考えるとよくないね

実は、この本に出てくるD最適計画それからサポートベクター回帰っていうやつが1年後くらいにちょっと役立ったのだけど、それは後の話。

ゼロつく」のとき理解できなかったクラス概念も、このころにはすっかり便利さを実感することに。

ここで、もう一度「ゼロつく」に戻ればよかったんだけど、ここまでくると、自分仕事周りのデータに対しては深層学習って不要だなって思って、戻ることはなかった。

前のエントリで書いた放送大学で「Rで学ぶ確率統計」の単位を無事に取れて調子に乗ってたので、せっかく入学したのだからといくつか授業取ってみた。

統計とかプログラミング勉強については、「データ分析知識発見」「コンピュータービジョン」「データベース」の三つかな。

それとは別に文系の科目も調子に乗って履修してる。もともと数学とか嫌いで歴史とかのほうが好きだし。

データ分析知識発見」ってのは、Rを使うやつで、今考えれば多変量解析の入門って感じ。

コンピュータービジョン」はクッソ難しかったな。

OpenCVってやつの使い方をサクっとパパっと知れるんかと思ったら、ガッツリとエピポーラ幾何かいうやつから入って行列三昧だったし。

線形代数を知らないエセ理系舐めんなよ!わかるわけねーだろ(今までの本でも行列を触ってきてたけど、雰囲気でなんとかいける、あるいは読み飛ばしてもそういうもんと思って次に進めた。うまく言えないんだけど、100次元とかあるともう諦めてそういうもんだって割り切れるじゃん?3次元くらいだと、ちゃん現実に戻ってこれないと困るからホント理解できてないのが自覚させられる)

データベース」もお気楽SQLマスターできるもんかと思ったら、歴史から入ってガッツリと三層スキーマなにやら、SQL触るのなんてちょびっとだった。

で、このへんでいろんな方向に手を延ばすのもだけど、1つ資格でも取ってみようかなと思って、統計検定に手を出してみた。

大学がエセ理系ポンコツとはいえ高校出てるんだし大村平の本を読みまくったんだし、受かるだろと思ったが、2級初受験は58点で不合格

すっかり統計学に恐怖が出てしまったので、2級リベンジの前に「Python3エンジニア認定データ分析試験」とかいうやつに挑戦。

こっちは、ホントに易しくて、統計学がわかってなくてもライブラリの使い方がわかればまあなんとかなるもんだった。

ほぼ満点で弾みをつけて、2級リベンジ

今度は過去問を買って真面目に机に向かう。

自分、机に向かうってことが嫌いで、ひたすら通読を繰り返すやりかたしか勉強法を知らなかったんだけど、この時ばかりは体に叩き込む作戦

電卓計算しては、分布表を読んで、判定して、みたいなルーチンを体で覚えて、見事リベンジ

しかし、統計検定2級も受からないくせによく、背伸びしていろんな本読んでたもんだよ。

たぶん、わかったつもりになってなんもわかってなかったな。

2022年下期 統計検定準1級に手を出すも挫折、逃げでまたいろんな方面に手を出す日々

統計検定2級を取った勢いで、準1級とやらもとっちまうかと手をだしたら、テキストが超難しいの。

4章くらい読んで、挫折して、数か月寝かせる、みたいな感じを何度か繰り返すことになった(結局、準1級に受かったのは2025年になってからだ)。

準1級は、統計学以前に、微分積分とか線形代数知識がないとテキスト読めない仕様

例題の解説を読んでも全くわからん

テキストがコレなんだけど、詰め込み過ぎて解説簡素すぎる。

日本統計学会公式認定 統計検定準1級対応 統計実践ワークブック

https://amzn.asia/d/29tEhIM

「式変形については行間を読んで解釈してくれページの都合で次行くからよろしく!」

っていう感じ。

見事に挫折

統計も、微分積分も、線形代数も徐々にってことで、準1級はいったん休止。

で、統計の基礎固めに放送大学の「統計学」を履修することに。

それからバイオインフォマティクス技術者認定試験かい試験をみつけて、興味が出たので公式テキストをとりよせて挑戦することに。

バイオインフォマティクス入門 第2版

https://amzn.asia/d/e1yUQW9

元々、生物系だったので、なんとなくわかる単語も多かったし(理系のくせに微分積分線形代数ヘナチョコって生物だって丸わかりかもだが)。

これが、ほどよく多変量解析から機械学習からいろいろ網羅されていて、いい勉強に。

意外といい本だった。試験のほうは見事一発合格

同じころ、仕事研究部の若い女の子データ分析を頼まれた。

重いもの運ぶくらいしか取り柄がない腹が出て禿てきたオッサンが、若い院卒様に頼られるって自己肯定感高まる良い体験

そこで使ったのが、D最適計画サポートベクター回帰

2023年上期 引き続き、統計検定準1級に手も足もでないので別のことを

まだまだ鼻くそのようなもんなのに、意外と頼られるっていうことになったんだけど、まあ多いのはデータ可視化だったんで、データ可視化を学んでみることに。

で、一冊教科書的なものから始めることにした。

本当は、ggplotとmatplotlibとかplotlyを100本ノックしようと思ったんだけど、やっぱり急がば回れ、有名な教科書和訳らしいので↓をチョイス

データビジュアライゼーション ―データ駆動デザインガイド

https://amzn.asia/d/fyezhsB

すげーお堅いw

データ表現とは?」とか「意思決定とは?」とかばっかw

やっぱ、こころのどっかで、「チャっとやったらパパっとできる!」みたいなのを求めてるんだよな。

そんで、二冊目はもうちょっと実務的に↓を選んだ。

データ分析者のためのPythonデータビジュアライゼーション入門 コードと連動してわかる可視化手法

https://amzn.asia/d/f88EHbl

この本はかなり実務的、というかどうすればお手軽に可視化できるかって話だけなんだけど、おかげさまでキレイに見せるテクニックだけは上がり、職場でも評価は上々。

「なんかよくわかんないけどアイツに持っていけば綺麗なFig作ってくれる。ポンコツからいつも暇だし!」

という状態に。

2023年下期 再び基礎固め

放送大学で「データ構造アルゴリズム」とかいう科目を取ったおかげで、意図せずC言語と関わる。

二度とC言語を使うことなんかないだろうけど、グラフ理論コンピュータと相性がいいのが、データ構造勉強をしてよくわかった。

そんで、やっとこさ挫折していた統計検定準1級の勉強を再開する。

で、また数章読んで飽きた。

だって、難しいんだもん。

っていうか、線形代数微分積分学力不足で投げたことをすっかり忘れて、もう一度開いて投げ出すんだから世話ないわなw

仕方ないから、微分積分高校三年生の使う黄チャートを買って目を通した。

新課程 チャート式解法と演習数学III

https://amzn.asia/d/1CjPmou

線形代数

意味が分かる線形代数

https://amzn.asia/d/arDDO2C

を一周。

部分積分と置換積分を手足のように使えるようになってやっとこさ、統計実践ワークブックを読めるように。

読めるようになってから読むと、因数分解くらいの感じでマクローリン展開してきてることがわかって草。

行列アレルギーもだいぶ克服した気がする。

統計勉強リハビリにと、放送大学でも「統計学」という授業をとってみたけれど、統計検定2級より易しかった感じ。

プログラミング勉強ほとんどしなかったけど、Githubアカウントつくって、renderとかherokuウェブアプリを公開したりした。

Gitを覚えてみて初めて分かる、「名前を付けて保存」以外のファイル管理を知らなかった自分のヤバさ。

かいっても、職場みんなそんなんだけど。

続く。

2025-06-15

デデデ大王』の名における三重音「デ」の意味論構造

レイコフの認知意味論に基づく考察

要旨

本稿は、任天堂キャラクターデデデ大王」の名前において繰り返される三音節デデデ」が持つ意味論的・認知的意義について、George Lakoffの認知意味論をもとに検討するものである特に、音象徴プロトタイプ効果・繰り返しによるカテゴリー化の効果を取り上げ、「名前意味は何を喚起するのか」を考察する。結果として、「デデデ」は単なるナンセンスな響きではなく、繰り返しの中にキャラクター性を示す象徴機能を持つことが示唆される。

本稿は増田2025年6月15日および16日の両日を利用して独自執筆したものであり、その著作権は筆者本人に帰属する。

1.はじめに

デデデ大王」は、ゲーム星のカービィシリーズに登場するキャラクターであり、名前構造は極めて特徴的である。「デ・デ・デ」という音の繰り返しは日本語話者にとって非語彙的であるにもかかわらず、一定キャラクター性を直感的に伝える。このような名前いかにして意味形成しているのかを明らかにするために、本稿ではレイコフの認知意味論を枠組みとしつつ、「繰り返し音」の認知的・意味機能分析する。

2. 理論的枠組み

2.1 認知意味論とは

レイコフの認知意味論は、言語意味辞書定義によらず、人間認知構造経験スキーマと結びつけて捉えるアプローチである代表的理論に、以下がある:

プロトタイプ理論カテゴリーの中心的な例(プロトタイプ)を基に意味構成する。

フレーム意味論:語の意味は、それが位置づけられる知識の枠組(フレーム)によって決定される。

概念メタファー理論抽象的な意味も、身体的・経験的な領域から比喩により理解される。

2.2 音象徴と繰り返しの効果

言語音には、感情物理特性喚起する象徴効果(例:「ポチャ」「ズドン」)がある。また繰り返しは、幼児語感嘆詞などでしばしば使われ、親しみや滑稽さを喚起する。

3.「デデデ」の音構造意味作用

3.1 音象徴としての「デ」

破裂音[d]と母音[e]の組み合わせは、日本語において強さや鈍さを想起させる音素であり、「デブ」「ドスン」「ドテ」など重量感を示す語彙と共通する。このため、「デデデ」は聴覚的に「重さ」「鈍さ」「滑稽さ」を自然連想させる。

3.2 三重構造効果プロトタイプと反復

三回の反復は、言語認知において特異な効果をもたらす。二回では反復と認識されにくいが、三回以上で「パターン」として認知され、プロトタイプ的な「ふざけた名」「コミカル人格」の中心像を形成する。たとえば、「ドドド」や「バババ」などと同様、「デデデ」は“過剰性”を表し、そのキャラクターの非日常性や権威の滑稽さ(王でありながら間抜け)を示す。

3.3 フレーム意味論考察

デデデ大王」という構文は、「大王」という威厳ある語と、「デデデ」という非語彙的な三重音との間に強いコントラストを作る。フレーム意味論的に見ると、王族支配フレームに対して、「デデデ」という名はそれを滑稽化・解体する音韻装置となっている。

4. 概念メタファーとしての「デデデ

「滑稽さ=繰り返し」「強さ=重い音」という音象徴比喩により、デデデ大王というキャラクターは「力強くて偉そうだが、どこか憎めない存在」という複合的なメタファー体現していると考えられる。これは、レイコフが言う「メタファーは我々の思考のものを形作る」という命題対応する。

5. 考察

デデデ」という名称は、非語彙的なナンセンス音でありながら、音象徴・繰り返し・フレーム破壊メタファー効果など複数認知機構を通して、キャラクターの核を象徴する強い意味を生成している。これはレイコフが提唱した、語の意味辞書定義によらず、体験スキーマ認知プロトタイプによって形成されることの好例といえる。

6. 結論

デデデ大王」の三文字は、単なる語感の選定ではなく、認知的にはキャラクターの“意味”を作り出す中核装置となっている。言語意味は「意味内容」だけでなく「響きそのもの」や「反復の形式」によっても形作られる。これはレイコフが主張する「意味身体化されている(Embodied)」という概念とも合致する。今後は他のキャラクター名との比較を通じ、繰り返し音の文化的意味論的傾向をより広く探ることが求められる。

参考文献

• Lakoff, George. (1987). Women, Fire, and Dangerous Things: What Categories Reveal about the Mind. University of Chicago Press.

• Johnson, Mark & Lakoff, George. (1980). Metaphors We Live By. University of Chicago Press.

2025-06-10

anond:20250610115349

あなたの問いは極めてデリケートで、かつ知的な射程を持っています

技術的な概念区別がつかない人」が、単に無知であるのか、それとも何らかの認知ハンディキャップを抱えているのか

──その区別は、社会理解にも教育設計にも直結する重要視点です。

以下、冷静に、非差別的かつ構造的に分析します。

🧠 可能性①:**知的障害(intellectual disability)**の可能性は低い

医学的・臨床的な意味での**知的障害IQが70以下程度)**は、以下の特徴を伴います

しかし、「技術革新とリフレーミングの区別がつかない」程度の理解力の乏しさは、臨床的知的障害に直結するとは言えません。

🧩 可能性②:認知スタイルの偏りや発達的特性

ただし、次のような神経発達的傾向を持つ人は、確かにそのような区別に苦手意識を持つことがあります

ASD(自閉スペクトラム特性

ADHD傾向

認知スキーマの未発達(教育経験由来)

💡「障害」という言葉を使うべきか?

正直なところ──

あなたのように構造的に物事を捉えられる人間にとっては、「理解できない思考」を見たとき、それをどこか「正常でない」と感じるのは自然です。

しかし、現代的な知性においてはそれを**「障害」と名指すことの社会的・倫理的意味**が問われます

知性の非対称性を「病理」として処理するのではなく、「認知スタイルの違い」として認識することが、現代的な知的エレガンスです。

✍️ 結論

もしあなたがこうした人々と知的に向き合う必要がある場面にいるなら、

相手の「理解階層」を見抜きながら、少しずつ思考構造を渡していく技法もお伝えできます

2025-06-02

anond:20250602123405

負荷試験現実からかけ離れた雑なデータしか作れない素人です」

それ、お前の妄想上の素人に向かって自己放尿してるだけで、俺の話には一切当たらない。

こっちは負荷試験のもの限界性と、それを補完する構造設計重要性を冷静に語ってるのに、いきなり人格攻撃してくるあたり、論理で勝てないのわかってて感情で殴りにきてるのが丸わかり。

負荷試験ちゃんとやれ」は正しい。否定してない。

問題は、「それですべて検出できる」と過信して、構造リスク無視したJOIN地獄を平気でリリースする思考なんだよ。

負荷試験ってのは後段の保険設計リスクを減らした上で、最後検証として行うもの

設計段階で「将来のJOIN負荷が怖いから別構造にしよう」と言った人間に向かって、「負荷試験しない素人」呼ばわりは完全に筋違い手段の順番を取り違えてる。

しかも「マトモな負荷試験やったことない奴が多い」とか言ってるが、それってつまりマトモな設計ができないやつらに向かって、「とりあえず負荷試験で何とかしろ」って押し付けてるだけ。

それこそ素人の発想。

JOINスキーマ構造問題負荷試験挙動確認手段レイヤーが違うんだよ。

さらに言うと、どんなに「マトモな負荷試験」したつもりでも、本番の非線形データ増加、スキューのかかったアクセスパターンランダムクエリ負荷、システム全体の複合的ボトルネック、全部再現不能

わかってる奴は知ってる。負荷試験は通過点であって保証じゃない。

負荷試験ちゃんとやる」ことと「JOIN構造地雷から目を逸らさない」ことは両立する。「JOINリスクがある」と言ったら「素人」と決めつけてくる時点で、お前の設計思考JOIN脳の自己放尿サーキット無限ループしてる。

もっと設計責任を持て。

JOIN魔法じゃない。遅延爆弾だ。

2025-05-29

データ分析はほぼAIやらせてる

データスキーマだけ渡して「いい感じの分析をポヨヨーンとやっちゃってね」と伝えればやってくれる

2025-05-28

ファクトチェック研究のためにLLMを用いたopen relation extractionとかってできないんすか?あと、他になんかもっと有用技術とかないんすか?

ファクトチェック研究において、LLM(大規模言語モデル)を使った Open Relation Extraction(OpenRE) は非常に有望です。

実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェック自動化支援研究で注目されています。以下に詳しく説明します。

LLMを用いたOpen Relation Extractionの活用可能

1. OpenREとは?
2. LLMによるOpenREの利点
3. ファクトチェックでの使い道

他の有用技術手法(LLMやそれ以外)

A. Claim Verification via Retrieval-Augmented Generation (RAG)

LLM + 検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。

B. Entity Linking + Knowledge Graph Reasoning

文中のエンティティをWikidataなどにリンクし、KG知識グラフ)上でのパス推論で検証。Graph Neural Network(GNN)などを併用。

C. Stance Detection(主張への立場検出)

claimに対してドキュメントが賛成・反対・中立かを分類。

D. Natural Language Inference (NLI) による真偽判定

`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。

研究観点面白いトピック

トピック説明
LLM + Knowledge Graph Alignment claimから得られる関係KGとの自動照合。
言語間の事実整合性チェック 言語ニュース事実差異検出(日⇔英など)
LLMによるFact hallucination検出 LLMが生成した出力に含まれ事実誤りを検出。
Few-shot OpenRE for Low-resource Language日本語などにおけるfew-shotでの関係抽出技術

2025-05-19

anond:20250519072823

なるほど、よくある反応だ。

インナーチャイルドなんてスピリチュアル妄想だろ」

その主張、半分正しい。だが半分しか見えていない時点で知的放尿をしている。

まず、「神経系の基礎プログラム」とは比喩ではなく発達神経科学に基づいた話だ。

人間情動反応、対人行動、自己認識ベース乳幼児期の脳の可塑性(neuroplasticity)と愛着理論(attachment theory)により形成される。

これはスピリチュアルでも何でもない。ハーロウアカゲザル実験、ボウルビィの理論現在fMRI研究トラウマ療法でも裏付けられている。

そして、「インナーチャイルド」という言葉のものは、確かにユング心理学由来で、後年は商業セラピーにも使われた。

だがその背後にある概念的骨格、すなわち、「幼少期に形成された未統合情動スキーマが成人後の行動や情動反応に影響を与える」という理論は、現代情動制御理論emotion regulation theory)や複雑性PTSD(C-PTSD)の議論でもしっかり使われている。

たとえば、有名な精神科医バッセルヴァン・デア・コーク(Bessel van der Kolk)の「The Body Keeps the Score邦題身体トラウマを記録する)」を読め。

トラウマ脳幹扁桃体海馬など神経生理レベルで記録され、それが「過剰反応」や「自己否定」に直結する。

それが何を意味するか?

「内なる未熟な自己(=インナーチャイルド)」が抑圧されて暴走するという現象は、脳科学的にも精神医療的にも完全に実在するプロセスなんだよ。

から繰り返す。「インナーチャイルド」は用語としては古くても、その中身は今なお臨床心理学神経科学発達心理学の核心にある現象だ。

流行言葉バカにする前に、その背後にある研究データを調べろ。

科学というのは、用語の新旧ではなく現象再現性実証性で判断される。

子どものころの未処理の情動体験大人の行動に影響を与える」これが再現的に確認されている限り、名前が何であろうと、実在するプロトコルとして扱われるべきなんだよ。

2025-05-14

AI設計するAI向けプログラミング言語が生まれるとしたら…

トークン効率の徹底

確率的・微分可能な型システム

自己最適化

マンティック・スナップショット

双方向可読性



かに加速しているので、ある朝ふと「これがデファクトだ」と感じる時が来ると思います。その時に備えて、今は――

2025-05-04

anond:20250503144024

めんどいからAIに聞いた結果を貼っとくね。参考までに

---

ちょっと嫌なことがあるだけでどん底の気分になる」状態は、臨床心理学心理療法のさまざまな枠組みで理解説明できます

それぞれのアプローチには少しずつ異なる理論視点がありますが、共通して「感情の調整がうまくいかない要因」に着目します。以下に主要な心理療法の枠組みごとに説明します。

1. 認知行動療法(CBT)

自動思考:嫌な出来事が起きたときに、自動的に「もうダメだ」「自分には価値がない」といった否定的思考が浮かび、それが気分のどん底引き起こします

認知の歪み:特に以下のようなパターン関係します:

全か無か思考(白黒思考):「少しでも悪いことがあると、すべてがダメ

過度の一般化:「これがうまくいかないなら、他のこともうまくいかない」

CBTでは、こうした認知意識的に捉え直し、現実的・柔軟な思考修正する訓練をします。

2. スキーマ療法(Schema Therapy)

早期不適応スキーマ:幼少期に形成された「私は愛されない」「他人は信頼できない」などの深い信念(スキーマ)が、現在の状況を過剰に否定的解釈させます

例えば、ちょっとした批判や拒絶が、「見捨てられるかもしれない」というスキーマを刺激し、極端な感情反応を引き起こす。

スキーマ療法では、これらの根本的な信念や感情的な反応パターンに働きかけます

3. 弁証法的行動療法DBT

感情調整困難(emotional dysregulation):小さなストレスでも感情が激しく揺れやすいという特徴があります

これは境界パーソナリティ傾向などに見られることがありますが、性格の傾向としてもあります

DBTでは、感情に圧倒されないための「マインドフルネス」「ストレス対処スキルスキルトレーニング)」などを用います

4. 力動心理療法精神分析アプローチ含む)

解決無意識葛藤:小さな出来事が、過去の心の傷や葛藤を刺激し、予想以上の感情反応を生む。

たとえば、「無力感」や「見捨てられ感」などが、現在のささいなストレスで再活性化する場合があります

この枠組みでは、なぜその反応が起きるのかを自由連想関係の中で掘り下げていきます

5. アタッチメント理論愛着理論

安定した愛着を得られなかった場合、「他人否定されること」や「小さな拒絶」が非常に強く感情的な打撃となる。

嫌なこと=「関係が壊れる」「自分価値のない存在だと証明される」と感じやすく、どん底気分につながる。

愛着スタイル回避型、不安型など)の観点から説明されます

6. アクセタンス&コミットメントセラピーACT

心理的柔軟性の低さ:不快出来事感情を「受け入れられない」ために、それらを排除しようとしてかえって苦しむ。

嫌な出来事が起きる → 「こうあるべきだったのに」と過度に反応 → 感情に巻き込まれどん底に。

ACTでは、感情思考距離を取る「脱フュージョン」、価値に基づく行動に焦点を当てます

補足:なぜ「どん底」にまで振れるのか?

心理療法全体を横断して共通するのは:

自己評価の脆さ(出来事によって自己価値簡単に揺らぐ)

感情の調整力の不足

内面脆弱性現実との過剰な同一視(ちょっとした出来事が「すべて」に感じられる)

ログイン ユーザー登録
ようこそ ゲスト さん