はてなキーワード: ルーティングとは
問題 1
あなたはある企業のAWSアーキテクトです。既存のオンプレミスの金融データをAWSに移行する必要があります。移行後、すべてのデータは 削除や上書きができないように保護 する必要があります。
A. AWS Storage Gateway + Amazon EBS + Object Lock
B. AWS DataSync + Amazon S3 + Object Lock
C. AWS DataSync + Amazon EFS + Object Lock
D. AWS Storage Gateway + Amazon S3 + Object Lock
回答C。 AWS Storage Gateway は名称てきにオンプレミスと sync しなさそうだから、DataSync -> EFS だと考えた。S3はストレージだからなし。
問題 2
Auto ScalingグループにあるEC2インスタンスのスケールインが発生しました。
デフォルトのスケールインポリシーの場合、どのインスタンスが優先的に削除されますか?(3つ選択)
C. 最も最近作成されたLaunch Templateのインスタンス
D. 最も古いLaunch Templateのインスタンス
スケールイン, スケールアウトの違いがわからない。アウトは拡大する、インはスケール縮小?
回答:A, 多いほうから削る。D, 古いものは削除、E,残り時間が少ない順から削る?
問題 3
グローバルに展開するアプリケーションがあり、ログイン処理が遅く、HTTP 504エラーも発生しています。
CloudFrontを利用してコストを抑えつつ、パフォーマンスを改善する方法として適切な組み合わせはどれですか?(2つ選択)
A. 複数リージョンにアプリを展開してRoute 53のレイテンシルーティングを利用
B. CloudFrontのオリジンにCache-Control max-ageを設定してキャッシュ比率を上げる
C. Lambda@Edgeを使って認証処理をユーザーに近い場所で実行
D. 各リージョンに複数VPCを作りTransit VPCで接続してSAMでLambdaを配置
E. CloudFrontのオリジングループでフェイルオーバーを設定
回答:BとCかな。Aは手数が多すぎる。非効率かなと。Dも工数がかかりそう。手作業で複数作るのかな?Eはこういう設定して意味あるのかなと思った。
問題 4
医療系企業がAWSで複数のアプリケーションVPCを作成します。各アプリは 共有サービスVPC にアクセスする必要があり、アプリ同士も通信します。
将来的に数十のアプリが追加されることを考慮した場合、管理負荷を最小化する構成はどれですか?
A. VPC PeeringでアプリVPCと共有VPCを接続
回答:A 他はなんか怪しい。
問題 5
アプリケーションは EC2 + RDS SQL Server で構成されています。
要件: EC2とRDS間の通信はすべて暗号化されていなければならない
どの設定が最適ですか?(2つ選択)
A. EC2とRDSのセキュリティグループでポート443のみ許可
C. rds.force_sslパラメータをtrueにしてDB再起動
E. RDSルートCA証明書を取得しアプリでSSL接続を設定
回答 AとC。Eも正解っぽく感じる。
ーーーーー
答え
ーーーーー
問題 1
あなたの回答:C (AWS DataSync + Amazon EFS + Object Lock)
実際の正解は B (AWS DataSync + Amazon S3 + Object Lock)
理由:
Object Lock は Amazon S3 のみ がサポートしています。EFSやEBSではできません。
AWS DataSync で S3 にデータを移行し、Object Lock を有効にすると、削除や上書きを防止できます。
Storage Gateway はハイブリッド用途(オンプレと同期)に便利ですが、このシナリオではすべてクラウドに移行するため不要です。
問題 2
あなたの回答:A, D, E
正解:A, D, E ✅
理由:
スケールインは 余剰リソースを減らす 操作(インスタンスを削除する)
選ばれたAZの中で 最も古いLaunch Templateのインスタンス を削除
※「スケールイン=縮小」「スケールアウト=拡大」で覚えておきましょう。
問題 3
あなたの回答:BとC
正解は C と E
理由:
Lambda@Edge → 認証処理をユーザーに近い場所で実行でき、ログイン処理を高速化
B(Cache-Control max-age)は静的コンテンツのキャッシュ用で、このシナリオの問題(認証処理の遅延や504)には直接関係なし
AやDはコストや運用負荷が高く、今回は「コストを抑えて改善」が条件
問題 4
あなたの回答:A
理由:
VPC Peering は数が増えると 接続管理が爆発的に複雑 になる
Transit Gateway を使えば 1つの中央ハブ で全VPCを接続でき、管理負荷が大幅に削減
VPNやDirect Connectはオンプレ接続用なので不適切
問題 5
あなたの回答:AとC
正解は C と E
理由:
rds.force_ssl=true → RDSがSSL接続を強制
クライアント側で RDSルートCA証明書を使用 してSSL接続
これすごく乱暴にいうとSBIと楽天が制度設計ミスを利用してptsでHTFなどからの注文を東証から取り上げてpts側で約定させることで利益を得ているってことですか?
https://www.jsri.or.jp/publication/topics/topics/2511_01/
非常に核心を突いた、鋭い要約です。
「制度設計ミス」という言葉が何を指すかによりますが、現状の**「東証とPTSのルールの歪み(特に呼値の単位)」**を突いているという点では、まさにおっしゃる通りの構造です。
専門的な文脈では、この構造を**「クリーム・スキミング(いいとこ取り)」や「フリーライド(ただ乗り)」**と呼んで批判されることがあります。
具体的に何が起きているのか、なぜそれが「利益」になるのかを、いただいた要約に沿って少しだけ補足します。
東証は公的なインフラとしての責任があるため、システムの変更やルールの改定に慎重で時間がかかります。
一方、PTS(私設取引システム)は民間企業なので、柔軟にルールを決められます。
これが「歪み(または隙)」となります。
HFT業者は、東証の板を見て、その「内側」にPTSで注文を出します。
* 東証で「100円」で売りが出ている。
* これなら、東証で買うより安く買いたい人が来るし、HFTは東証の価格(100円)を基準に先回りして利益を出せます。
証券会社は「SOR(スマート・オーダー・ルーティング)」という仕組みを使い、顧客の注文を自動的に有利な市場へ流します。
* 顧客が「買い」注文を出す。
* SORが瞬時に判定。「東証は100円だけど、PTSなら99.9円でHFTが売ってるぞ」。
* 東証ではなく、自社グループ(または提携)のPTSで約定させる。
4. 誰がどう得をしているか?
* SBI・楽天: 東証に払う手数料を節約でき、自社(または提携)のPTSに手数料が入る。また、PTSのシェアが拡大する。
* HFT: 東証の分厚い板に並ばずに、PTSで優先的に取引を成立させられる。
* 顧客(投資家): 東証より0.1円安く買える(メリットはある)。
> 「株価の基準(価格発見機能)を作っているのは、苦労して大量の注文をさばいているウチ(東証)だ。PTSやHFTは、ウチの価格を参考にしながら、ウチより0.1円だけ有利な価格を出して、美味しい注文(流動性)だけを横取り(クリーム・スキミング)している」
>
まとめ
「東証の硬直的なルール(呼値)の隙を突き、HFTを取り込んで、東証に行くはずだった注文をPTSで処理して収益化している」**という図式は正解です。
これに対抗するため、東証も現在「呼値の適正化(刻み幅を細かくする)」を進めて、PTSの優位性を潰そうとしています。
Sbiとか楽天が手数料のを無料にできてるのもここで儲けてるからだと思ってていい?他に信用取引が増えれば金利収入もあると思うけどどっちの効果の方が大きい?
その読みは非常に鋭いですが、結論から言うと**「信用取引などの金利収入」の方が圧倒的に効果(金額)が大きい**です。
ご質問のポイントを整理すると、手数料無料化を支えているのは以下の2つのどちらが大きいか、ということですね。
* SOR/PTSによる中抜き・コスト削減(東証を通さないことによる利益)
答えは、「2. 金利収入」が圧倒的で、そこに「1」がコスト削減策としてアシストしている、という構図です。
ネット証券の決算資料を見ると、手数料無料化の前後で**「金融収支(トレーディング損益ではなく、金利での儲け)」**が収益の柱に入れ替わっています。
投資家が借金して株を買うときの金利(年2.8%〜など)は、証券会社にとって「寝ていても入ってくるチャリンチャリンビジネス」です。
手数料は「売買した瞬間」だけですが、金利は「建玉を持っている間ずっと」発生します。
* 貸株(かしかぶ):
顧客の持っている株を借りて、機関投資家に貸し出すレンタル料です。これも巨大な収益源です。
SBIや楽天が手数料を無料にした真の狙いは、HFTとのサヤ抜きで儲けること以上に、**「客を囲い込んで、信用取引やFX、投資信託をやらせる(金利や信託報酬を払わせる)」**ことにあります。
では、SOR/PTS(ユーザーの言うHFTの件)は何なのか?
おっしゃる通り、ここでも儲けてはいますが、これは**「収益源」というより「コスト削減の切り札」**という意味合いが強いです。
東証で約定させると、証券会社は東証に「取引参加料金」を払わなければなりません。
しかし、自社のPTS(私設市場)やダークプール内で約定させれば、東証に払うコストが0円になります。
つまり、
* PTS/SOR = 無料化で増えた注文コストを吸収するための節約術 & 小銭稼ぎ
という役割分担です。
ユーザーさんの「ここで(PTS/SORで)儲けてるから無料にできるんだろ?」という読みは**「コストを抑える」という意味で正解です。
しかし、証券会社がビルを建てられるほど儲かっている最大の理由は、「みんなが信用取引で借金をして、毎日金利を払ってくれているから」**というのが現実です。
KADOKAWA、講談社、集英社、小学館が著作権侵害幇助でクラウドフレアに対する民事訴訟で勝訴した。
マスコミやコンテンツ屋は大喜びをしている。愚かなことだ。相変わらずガラパゴスっぷり
ク社側がどれほど本件訴訟にリソースを割いたかわからんが、恐らくかなり手抜き応戦だったのではなかろうか。
アメリカの会社であり、アメリカで同様の問題があっても訴訟にすらならず、訴訟をおこしたところでせいぜいサマリージャッジメント(
正式な訴訟ではなく事実争いの無い略式民事訴訟)にしかならず、かつCDN側が負けることはまず無い。ありえない。
アメリカでも判例は積み上がっており、ほぼ原告側に勝ち目はない。ゆえに日本の裁判所を甘く見ていたのでは。
本件訴訟では主体的行為要件と著作権法47条の2の「一時的複製」が大きなポイントなっている。
東京地裁はク社に対して両方ともアウト、の判断をしているのだけど、世界の常識ではありえない。
地裁裁判官にネットワーク技術まで学べというのも無理だろうが、いくらなんでも無理筋すぎる。
社会問題になった漫画村に司法が「ダメ」の判断を下した、という表面的な実績だけが欲しかったのだろう。
この判決がもたらす社会の悪影響やハレーションなど知ったことはない、たかが海賊版サイトにアウトを突きつけるだけ。
この問題は欧米でも大昔から議論されておりとっくに結論が出ており、仲介者は免責なのだ。だからク社にしてみりゃ理解不能だろう。
この判決を別の言い方をすれば、
歩いてたら自動車に轢かれた、「道路があるのが悪い」。道路が無ければ自動車事故は起きない。道路を作った国を訴える。
これと同じ。
いやいやいや、道路もネットワークも「インフラ」そのものは責任の主体にはならない。
欧米は20年前に答えだしてる。
被害補償を求めるなら自動車を運転していた「行為主体者」を訴えなさい、漫画村を開設して違法コンテンツをアップロードし
ダウンロード可能な状態にし、それで金儲けしようとした「行為主体者」を訴えなさい。
さてなぜ欧米でこのような建付けにしてそれを厳格に守っているか?
仲介者に責任を負わせたらネットワークの根幹が揺るぐ、からです。
ここで「一時的複製」の話になる、欧米の法体系を取り入れ改正著作権法47条の2(2019年)に免責規定があるのだが、
今回の判決では裁判官これを無視した。というか無理筋な拡大解釈をした。
このハレーションが巨大。アホな地裁裁判官にはこれが理解できない。
今回の判決のロジックで言えばISP、さらにはブラウザすらアウトになる。
複製してんのよ。
ルーターで行われる「複製」はパケット単位ではあるものの、技術的に「ファイル」単位と「パケット」単位の差は技術的には
ほとんど意味がない、曖昧なのだ。仮にファイル単位での複製がダメだというなら、CDNはパケット単位で一時的複製をすりゃ
法的には解決できちゃうので意味がない。内部的にファイルをチャンクに分割してバラバラにして物理的にも別のHDDなりに格納すれば合法に
なるのか?きりがない。きりがないので欧米は「主体的行為」要件を定めた。
ルーターの話に戻そう、NTTは権利侵害しているか?違法コンテンツをルーティングしていないか?
しているよね?
ではこれをブロックすることはできるか?
できるよね
ん?ええの?
極端な話、ネット回線→LANカードのキャッシュ、メモリ、HDD、CPU、GPU、アプリケーション、画面
全て「一時的複製」をしている。それぞれ取り扱うデータ単位は異なるが。
違法コンテンツを複製可能なアプリケーションを作成し配布している、幇助だ、このロジックも成り立ってしまう。
さらに、では、「ブラウザが違法コンテンを識別し複製を停止、抑制するこは可能か?」
まともな技術者に聞けば
「お、おう、確かに技術的には可能だけど、えっと、あの、可能は可能だけど。。。」
じゃぁやれよって話になる
だから欧米は「仲介者は一律免責な、やった真犯人だけがアウト」
このような建付けにした
欧米でもこれだけは別の法体系となっており、上述の原則を一切合切無視して、やれることはやれ、徹底的にやれ、仲介者だろうが言い訳は聞かない、全員有責、例外を認める。なのだ。
著作権法と司法は和製検索エンジンを殺し、P2Pを殺し、今度はネットワーク技術の根幹まで壊す気か?
ネットワークってのはデータの「一時的複製」の連続だぜ。それを否定しちゃった。どーすんのこれ。
こんなトンデモ判決をコンテンツ供給側であるマスコミが批判もせず、判決も技術的背景も勉強せず、むしろ大喜びしてるんだから救いようがない。
先日の日曜、某IT系の勉強会に参加してきたんだけど、そこでも話題に上がったのが「AIによって人間のプログラマーは不要になるのか?」って話。
正直俺も含めてその場にいたほとんどの人間が、腹の底ではいやいや、それはないっしょって笑ってたわけ。
たとえばChatGPTとかGitHub Copilotとか、最近はTabnine、Amazon CodeWhispererなんかもあるけど、どれも便利ではある。
でも結局のところAIが書いたコードの品質をチェックするのは人間だし、プロンプト自体が難しいから結局基礎ができてないと無理だよねっていうある種の安心バイアスがあった。
でもその考え、甘かったっぽい。
聞いた話では今のAIでは分業化が進んでるらしい。
例えば、一般的な言語モデルであるGPT-4はもちろん優秀なんだけど、今はそこからさらに“ドメイン特化型”のAIが開発されていて、分野別に専門AIが配置されてる。
データベース設計ならこのAI、フロントエンドならこっち、セキュリティに関してはあっち、みたいな。
つまり何が起きてるかっていうと、素人が「こういうアプリ作りたいんだけど」ってざっくりした質問をしたとしても、AIの中で自動的に専門家AIにルーティングされて、実際にプロレベルの回答が返ってくるようになってきてる。
人間の経験とか判断力に頼っていた領域が、いよいよAIに侵食されはじめてる。
しかも進化スピードが異常でMistralやAnthropic Claude、MetaのLlama 3、Google Geminiあたりの最新モデルはすでに「構文の正しさ」や「コード全体の可読性」まで含めて自己チェックできるようになってきてるらしく、OpenAIが次に出すGPT-5では、おそらく「仕様の良し悪し」までも判断できるって噂まである。
もうこうなると、中堅レベルのプログラマーが真っ先にいらなくなる可能性が出てくる。いやマジで。
実務経験を積んでやっと「これがベターだな」って判断できるスキルが、AIにあっさり再現されるとしたらそれ以下の人材は何を武器にすればいいんだ?
正直かなりゾッとした。
俺も完全にその中堅側にいるから。
これまではいくらAIがすごくても使いこなせるのは人間だけって思ってた。
でも今後は違うかもしれない。
……たぶん、生き残るのは本当に一握りの設計思想まで含めて自分でAIを育てられるレベルのプログラマーだけになる。
言語でいうなら、RustやGo、TypeScript、Kotlinとかをベースに、フレームワークだけじゃなくて抽象化の設計思想まで一人で持てるような人。
おかげで週末はとっても陰鬱な気分で過ごす羽目になった。
ChromeOSやAndroid OSへ提供されるLinux環境は元増田の通りDebianなので普通にAPTが使えてDebianのリポジトリからパッケージが提供されるから仮想環境の上に仮想環境載せるとかルーティングが複雑になるような事をしなければ特に違和感なく使えるよ
まぁDebianなのでパッケージが安定志向だから古めのパッケージであることが多いものの、DebianのリポジトリにはFlatpakが提供されてるんで最近のパッケージ使いたければFlatpakを用いれば良い
問題があるとするならば、ChromeOSのDebian側からAndroid、というか階層として同レベルの仮想環境にあるAndroidがデフォルト状態で見えないということくらいか。ネットワーク設定でどうにか出来るかも知れんけどね
わざわざChromebookで複雑なネットワーク組むやつはネットワーク畑のやつだろうし自己解決しろって話ではある
iPadと比較したらiPadは仮想環境すら組めないので勝負の土俵にすら上がれてないわけだから学生が学習端末としてChromeOSを選ぶのは理解できなくもない
グローバル単一台帳(Blockchain/DAG) 相互検証可能な“関係グラフ”
各ノードは「だれが・いつ・どうつながったか」という変化の射だけを署名し、トポロジ全体が履歴になる
オンチェーン状態 ≒ 直接資産 状態はローカル・資産は導関数
資産や契約は、関係グラフ上の経路依存量として再構成。スナップショットはクライアントが“可逆圧縮”で再計算可能
Proof of X (Work, Stake, etc.) Proof of Stewardship (PoS²)
「ネットワークが望ましい 複雑性 を維持するよう行動した度合い」をメタリック関数で動的スコア化し、報酬・ガバナンス権・帯域を同時に発行
要旨
もはや「台帳」すら保存しない。各エッジは STARK 圧縮された更新証明を持ち、グラフの梁(フレーム)自体が履歴になる。再構築は局所的に O(log N) で済むため、グローバル同期のボトルネックが消える。
2. プロトコル層
Fractal Mesh Transport (FMT)
自己類似ルーティング – トポロジ全体をフラクタルで自己複製。局所障害は“自己相似”パターンに吸収されるため、DDoS が形骸化。
アイデンティティ内包アドレス – DID を楕円曲線座標に埋め込み、パケット自体が署名・暗号化・ルーティングヒントを同封。IPv6 の後継としてレイヤ 3.5 に位置づけ。
HoloFabric Execution
ゼロ知識 WASM(zk-WASM) – 任意言語を WASM にコンパイル→ zk-STARK で実行トレースを証明 → “結果のみ”関係グラフへ。
コンパイラ内蔵 MEV 抑制 – 計算結果が他ノードから解釈不能になるタイムロック VDF を伴い、価値抽出を物理的に遅延。
Temporal Stream Storage
余剰ストレージの“時価”マーケット – ノードは自己の余剰 SSD/HDD を分単位オークション。データは Reed–Solomon+重力波的ハッシュ空間で erasure coding。
リテンション ≒ 信用 – 長期ホスティング実績は PoS² スコアへ累積。攻撃的ノードは経済的に即時蒸発。
Liquid Fractal Governance
議決トピックを「周波数帯」にマッピングし、参加者は帯域を“委任スペクトル”として分配。結果はウォルラス圧力で収束し、マイナー意見も連続的に次回へ重みが残る。
(安全・分散・性能) 台帳の排除で“グローバル合意”自体を縮退 ⇒ スケール制約が幾何的に消失 安全:ZK 証明、
エネルギー消費 PoS² は「社会的有益度 × 熱消費効率」で算定。熱回収データセンターほど報酬が高い PoW よりオーダー数桁効率、PoS より社会関数を内包
プライバシー vs 透明性 グラフは公開。ただし各エッジは zk-STARK なので内容は非公開 / 関係のみ検証可能 トレーサビリティが“情報理論的に”限定される
MEV・フロントラン タイムロック VDF+“ランダム束縛順序”で物理的に不可 ブロック順序依存問題を根絶
量子耐性 STARK 系 + 多変数格子ベース署名 Shor 破壊リスクを遮断
レガシー互換 Ethereum, Bitcoin, IPFS などへ 1:1 ブリッジを Rust/WASM で提供 既存資産を損なわず漸進的移行
Steward Credits (SC):PoS² に比例し新規発行。帯域・ガバナンス票・ストレージ予約を等価交換。
Energy Reclaim Units (ERU):余熱回収率に応じてクリーンエネルギー補助金と相互運用。
Knowledge Bounties (KB):AI/LLM ノードが生成した有用モデル差分を関係グラフへコミット→検証トークンとして KB が発行。
負荷の自己調整
ネットワークが過度に混雑すると SC の新規発行レートが自動減衰し、トラフィック手数料が指数的に上昇。結果、スパムは短時間で経済的自殺となる。
Year 0–1:最小核 – zk-WASM VM + Fractal Mesh over QUIC。
Year 1–2:PoS² / ERU メトリクス実証、EVM 相互運用ブリッジ稼働。
Year 2–4:Liquid Fractal Governance によるプロトコル進化をコミュニティへ全面開放。
Year 5+:全世界 ISP ピアリング → 既存 Web の転送層を徐々に Web∞ 上へマイグレート。
国家単位のデジタル・ソブリンティを再構成:国境・法人格の境界を越え“関係”が一次元目となるため、規制枠組み自体が協調フィードバックモデルへ。
プライバシーと公共性の再両立:透明な“関係構造”上で非公開データを安全に扱う産業 API が標準化。医療・行政・金融の壁が大幅に低減。
インフラの脱炭素最適化:PoS² スコアに ERU が直結することで、再エネ比率が低いノードは自然淘汰。エネルギー政策と IT インフラが実質同一の経済圏に。
7. まとめ
Web∞ は「情報の状態」を残すのではなく「変化の証明」を残す。
その結果、台帳の重力・ガス代・フロントラン・量子不安・ガバナンス停滞といった Web3 固有の限界が、概念的に 初期条件から消滅 します。
エネルギー・プライバシー・スケーラビリティを同時に極小化/極大化するため、従来トレードオフと呼ばれた三角関係は “収束しない曲線” へと畳み込まれる――それが本構想の核心です。
もし実際にプロトタイプを設計するならば、zk-WASM ランタイム + Fractal Mesh を Rust で最初に書き起こし、PoS² の初期指標を「再生可能エネルギー電力比+ノード稼働継続率」で暫定運用する、というのが現実的なスタートラインになるでしょう。
https://anond.hatelabo.jp/20250331220905
でも、若くて体力と時間のある大学生が趣味としてやるにはロードバイクは最高だと思うぞ!
①パンクは慣れれば5分で直せる
空気圧管理、タイヤの定期交換、段差は抜重と基本的なことをしておけばそんなにパンクしない。
予備チューブとタイヤレバー携行していれば慣れればパンクは5分で直せる。
盲腸線で通り抜ける車がいないところ(例:風張林道)とか、岬の先端近くは通り抜け需要が必然的に少ないから交通量が減る(例:三浦半島)
③走ることを楽しもう
ここは合う合わないがあると思う。
速く走るためのマシンなので、不便に戸惑うのは当然だ。
でも、慣れれば痛みとの戦いは終わるので安心して。
景色を楽しむ余裕も出てくるよ。
景色のいいところで気軽に立ち止まれるのはロードの素晴らしいところ。
サイクルラックのあるお店を選んで立ち寄るのもいい。
④誰でも練習していけば100kmは走れる
運動経験ないおっさんの私でも半年くらいで走れるようになったよ。
誰でも最初は30,40kmでバテるところからだから安心して。
無理せず少しずつ距離を伸ばしていこう。
三崎港の海鮮丼屋さんはサイクルラックがあって駐輪に困らない。が、坂が避けられないので、最初は三浦海岸から野比海岸へ走ろう。
道の駅伊豆のへそでレンタルして狩野川沿いのサイクリングロードを走るといいぞ!
伊豆はヒルクライムスポットに困らないのもいい!体力ついたら駿河湾と富士山の絶景を見に登ろう!
良い旅を!
最近Webページで話題の技術を取り上げて、メリデメ表をそれっぽく作って、「技術選定しました (`・∀・´) !」
って言われてもさ。
なぜその比較項目を選んだのか?
点数つけて合計点で比較してるけど、重み付けとか存在しないのか?
疑問が山積み。
技術選定ってそもそも、どういうプロダクトになるか考えて、それに合致する技術を探すか作るかするモノであって、こうやってカタログショッピングする類のものじゃぁねぇんだが。
技術選定してからプロダクトのトポロジというかアーキテクチャを決めるんじゃなくて、プロダクトのトポロジというかアーキテクチャが先だろ?
技術ブログ見たら、笑顔で腕組みした写真載せてそういうキラキラした技術で新しいシステムに入れ替えました! みたいなのがゴロゴロしてるけど、その記事書いた現場の実際なんて、新規機能追加に手間取るし、そもそもローカル開発環境構築に3日から1週間かかるとか、DockerDesktopがパンパンとか、おかしいことになってるって気づかんか? って状態になってんのよ。
みんな、引き返せないところまで来てんの。
1日1日、底なし沼にじっくり沈んでいってんの。
そういうところで、システムがプロフィットセンターになってるところは、キャッシュフローが細って炎上する。コストセンターになってるところは無駄金貪って、キャッシュがガンガン燃える。
おいらはその前者によく入ってたから、こういう技術選定するような「イケてるエンジニア」の知らん現実をたくさん見てきてる。
でも、「新しいシステムは失敗してます。運用とか地獄です」って笑顔で腕組みした写真撮って、技術ブログなんて書けないでしょ?
最新のイケてる技術駆使してる、イケてる現場。できるエンジニアってブランディングしてるんだから。
クラウドの利点は、ロードバランサによるルーティング、増減可能な小さいコンピュートリソース(ElasticBeanstalkが本来はこれ)、メッセージング基盤、永続化層を、疎結合、軽量に組み合わせて大きなサービスを構築できることなのに、なぜそんな拡大版ピタゴラスイッチみたいなうんこの塔をありがたがるのか、理解に苦しむ。
ProtocolBuffers on gRPC を盲目的にありがたがってるのとかも。
10倍!
とかね。
この手のカタログスペック厨、なんとかならんのかね? と思うんだけど、理解できてない筋にはすごくできるエンジニアに見えるようだね。
勘弁してほしい。
Transformerアーキテクチャを基盤とする大規模言語モデル(LLM)の訓練効率化に関する主要技術革新を、時系列的に整理し体系化する。本分析はarXivを中心とした学術論文に基づき、実証的研究成果に焦点を当てる。
Popelら(2018)のTransformerモデル向け訓練手法分析[8]では、バッチサイズと学習率の動的調整が収束速度向上に有効であることを実証。最大文長制約を設けることでメモリ使用量を最適化し、8GPU環境で1.4倍の訓練速度向上を達成した。特に学習率のウォームアップ戦略が勾配不安定性を低減し、初期収束を促進する効果が確認されている[8]。
Zhuangら(2023)の調査[1]によれば、自動混合精度(AMP)訓練はFP16とFP32のハイブリッド運用により、メモリ消費量を50%削減しつつ、DeiT-Bモデルの訓練速度を2倍改善。勾配スケーリング機構が数値的不安定性を緩和し、精度劣化なしに計算効率を向上させる[1]。
Zhuangらの分析[1]で言及されるLion最適化は、AdamWと比較してメモリ効率が30%改善され、収束速度が1.5倍高速化。運動量推定と重み減衰の組み合わせが、Transformerの大規模疎行列演算に適応し、ImageNet分類タスクでTop-1精度1.2%向上を記録[1]。
損失関数の平坦な最小値を探索するSAM手法[1]は、Transformer訓練における汎化性能を15%改善。ただし二段階最適化が必要なため訓練時間が1.8倍増加する課題を抱える。後続研究では確率的重み摂動を導入し、計算オーバーヘッドを30%削減[1]。
Shahidら(2024)の総説[3]で解説されるLoRAは、重み更新行列を低ランク分解することで微調整パラメータを90%削減。GPT-3 175Bモデルで従来手法と同等の性能を維持しつつ、GPUメモリ使用量を65%削減[3]。
動的ドロップアウト手法[4]は検証損失に基づき正則化強度を調整、Shakespeare_charデータセットで収束速度を40%改善。指数減衰スケジュールが最適で、推論時のメモリ効率を25%向上させた[4]。
小規模言語モデル(SLM)を活用したSALT手法[2]は、二段階訓練アプローチによりLLM事前学習時間を30%短縮。知識蒸留段階ではSLMの予測分布を転移し、難易度適応型データ選択が学習効率を最適化[2]。
MoEアーキテクチャ[3]は専門家ネットワークの動的選択により、同パラメータ数で推論速度を2.3倍向上。トークンレベルルーティングが計算負荷を分散し、GLUEベンチマークで精度3.1%改善[3]。
強化学習を統合したPPO手法[3]は人間フィードバックを効率的に活用、倫理的アライメントタスクで従来比25%の精度向上。報酬モデルとの相互作用学習が政策勾配の安定性を確保[3]。
EVOLvEフレームワーク[7]は探索的バンディット問題に対して最適アルゴリズム知識をLLMに転移、合成データによる事前学習で探索効率を60%改善。モデルサイズ依存性を低減し、7Bパラメータモデルが70Bモデルを性能で凌駕[7]。
1. 計算量削減:MoEの疎活性化(計算コストO(1))[3]
2. メモリ階層最適化:AMPと動的ドロップアウトの併用[1][4]
3. 分散処理効率化:非同期勾配更新とパイプライン並列化[8]
3. 動的適応機構:PPOの政策最適化とMoEの専門家選択[3][7]
1. カタストロフィックフォーミング:継続学習における破滅的忘却問題[3]
2. 計算-精度トレードオフ:量子化訓練の精度劣化メカニズム[1]
3. 倫理的アライメント:自己最適化システムの制御可能性[3]
1. ニューロモーフィック統合:脳神経機構を模倣した効率化[3]
学術論文に基づく本分析を通じ、LLM訓練技術が単なる計算資源の拡大からアルゴリズム革新へとパラダイムシフトしていることが明らかとなった。今後の進展により、エネルギー効率と倫理的妥当性を両立する次世代訓練手法の登場が期待される。
Citations:
[1] ttps://arxiv.org/pdf/2302.01107.pdf
[2] ttps://arxiv.org/html/2410.18779v1
[3] ttps://arxiv.org/abs/2408.13296
[4] ttps://arxiv.org/abs/2411.03236
[5] ttps://arxiv.org/pdf/2308.04950.pdf
[6] ttp://arxiv.org/pdf/2307.06435.pdf
[7] ttps://arxiv.org/abs/2410.06238
[8] ttps://arxiv.org/abs/1804.00247
[9] ttps://arxiv.org/pdf/2010.07003.pdf
[10] ttps://arxiv.org/html/2410.16392v1
[11] ttps://www.ijcai.org/proceedings/2023/0764.pdf
[12] ttps://arxiv.org/abs/2306.10891
[13] ttps://arxiv.org/html/2410.16682v1
[14] ttps://arxiv.org/abs/2502.00571
[15] ttps://arxiv.org/abs/2405.14277
[16] ttps://arxiv.org/abs/2310.05204
[17] ttps://arxiv.org/html/2308.09372v2
[18] ttps://arxiv.org/abs/2305.14239
[19] ttps://arxiv.org/abs/2407.18003
[20] ttps://arxiv.org/pdf/2309.06054.pdf
[21] ttps://arxiv.org/html/2401.02038v1
[22] ttps://arxiv.org/abs/2409.04833
[23] ttps://arxiv.org/html/2308.09372v3
[24] ttps://arxiv.org/abs/2410.13116
[25] ttps://arxiv.org/abs/2502.01612
[26] ttps://arxiv.org/abs/2302.01107
[27] ttps://arxiv.org/html/2302.07730v4
[28] ttps://arxiv.org/abs/2410.06940
[29] ttps://www.axelera.ai/blog/multilayer-perceptrons-mlp-in-computer-vision
B拠点のルーターまでは到達出来るけど NAS に行けない&再起動抜き差しでたまに復活するなら、
LANケーブルの接触不良、HUB や NAS のポートの不調、機器の過熱や電源の不安定さの可能性がなんとなく高そうやね
~~~~~~ やるべきことはすでに確認済み/なんかよくわからなかった場合 ~~~~~~
あと、やっぱケチらんで、M365 の SharePoint か GoogleDrive を使った方がええと思うやで。社内のファイルサーバーとかの面倒を見んでええし
それから、もし無線LANに切替未なら無線LANに切り替えた方がええで。ユーザーに勝手に機器を生やされないし(予算があればだが)
更なる理想は、もし EntraID (AAD)+Intune に以降がまだなら、この機会に移行して、 無線LAN を SSO認証と組み合わせて、
pbs.twimg.comって実際はdualstack.twimg.twitter.map.fastly.netになるけどこいつのIPのうちの1つでv6プラスを使った場合のルーティングがここのところずっとおかしかったのは確かだなあ
今も1.1.1.1と8.8.8.8で返すIP異なるけどISPのDNSが1.1.1.1と同じでdns.googleが別のIPだったら改善する可能性は十分ある
KDDI、BIGLOBEのProbe達にhttps://t.co/xNBbJyRKd0をクエリさせましたが、問題なさそうです。
画像の通り現𝕏はFastlyだけなので、参照するキャッシュDNSによって応答が変わって速くなるとは考えづらいです。単に貸与ルータのDNSフォワーダを迂回することで問題が解決された可能性もあります。 https://t.co/Cyyquon45B pic.twitter.com/eUQyA3zGMX— しばにゃん (@shibanyan_1) January 14, 2025
あれはNTTのうんこ通信網をどうにかすると言うだけの技術で、ほとんど意味ないからだよ。
NTTは光だけでスイッチングするから低遅延で高速だと言うだろ?
でもそんなことをせずに実現しているところがある。
NTTなどのオールド通信会社のネットワークは、電話の通信網を基本にしているから、細かい基地局と基地局の間を回線でつなぐという構造をしている。
そのため、IP通信になった今でも、その通信網を一つ一つパケットがルーティングされて流れていくと言う構造になっている。
だから、低遅延にするならオールフォトニクスにして光のままでルーティングする必要がある。
けど、それって昔ながらの古いネットワークだから必要なだけだって、もっとシンプルなネットワークだったらいらないよね?
巨大なデータセンター間を専用の光回線でつなぐと言う商売をやっている専門の通信会社は、そんな面倒くさいネットワークではなく、シンプルに両端にのみ光電変換をする装置を配置する構造にすることによって、IOWNとか言わんでも高性能低遅延低消費電力のネットワークを構築しているわけです。だから、本質的にAPNでございだとか、マルチオーケストレータでございますとか言わなくても、いらないんですよねそんなの。
データセンターの中の通信技術なら既にIOWNより優れたものがある。
インターネットのトラフィックは平等にルーティングされているのではなく非常に偏っているのは周知の事実であり、高性能なネットワークが必要なのはここなのでここだけにシンプルなネットワークを適用すればIOWNなんていらないである。
今は親方電電虫が言ってるからお付き合いでやってる企業は多いが、温度差が激しい。もうすがる先がここしかないところはやっているが、そうでない所は冷めた目で見てる。
NTTが自社の環境こそがデファクトだと思い込んで、それに対応させるだけのガラパゴスな技術に名前を付けて出してしまった、それに取り巻きがやんややんやの拍手をしていると言うのが今のIOWNだよ。ISDNと同じ。
画面上でできなくしてもサーバーに直接リクエスト送ってくるからって同じことをサーバーでも実装しないといけなくてすごくめんどくさい
言語同じかつ単純な規則な共通化できたりするけど実際はそうじゃないものが多いし
画面での操作禁止とそれらを無視して編集後のデータだけ送ってくるのだとチェックの仕方も違う
追加できないなら追加ボタン出さないだけで済むが、サーバー側だと送られてきた件数だけじゃなくてもともとあったものと一致してるかもチェックが必要とかそういうの
ウェブのほうが楽だからデスクトップアプリからウェブに移すがここ数年は多かったが本当に楽か?って思う
画面の柔軟性はあるが、そのせいであれこれ細かい注文がついたりしてそれも面倒が増える原因だし
ウェブだとそれが当たり前だからってサーバー側もデータのチェックしてるけどデスクトップアプリじゃそんなことしてなかった
それのリプレースなんだし、別にしなくていいんじゃないかと思う
デスクトップアプリだってサーバーと通信してるんだから直接リクエスト投げれるわけだし
ウェブなら便利な開発者ツールがあるから今送ったものの中身を見てちょっとか書き換えて送るが楽なだけ
デスクトップアプリだってパケットキャプチャしたり、逆コンパイルしてソースコード見ればできるわけだし
クライアント証明書があるから~とかいう意見聞いたことあるけど、ローカルにあるファイルなんだから、直リクエストするときだってそれ使えるよね
デスクトップアプリだと起動後のホーム画面から順番にボタンを押さないと画面を開けない
だから一覧画面で編集ボタンを出さなければその項目の編集画面は開けない
そのせいで一覧画面で編集ボタンを出さないのに加えて編集画面で自分が編集可能かのチェックまで必要になる
めんどくさい
考えてみればURLで直接開けることは要件にあるわけじゃないんだし、URLにマッピングしないメモリ内でのルーティングでもいい気はする
何が問題かというと主に電気や光回線などのインフラ回りに関してだね
さすがに住所変更や免許更新とかの定番のものはクリアできるけど、逆に光回線とか頻度が高くなく知見が貯まりにくいものが面倒だ
今回失敗したのはその光回線で、1か月後の引っ越しに合わせて回線契約をした
理由は単純で、案内では工事業者が訪問せずに自力でルーターとか設置してくれとあったため
なら鍵の受け渡しを済んでいる時点でさっさと取り付けようと思っていたが、実はNTTのONU設置工事が別に存在した
これも自力で行うものなんだけど、そもそもONUは引っ越し先の住所に届くから家にいないと受け取れないことがわかった
しかもONU自体は工事日より前につくらしく、わざわざ新居に行っても不在通知が残ってる可能性が高い
素直に引っ越し日の次の日にすればよかったんだが、こういう細かい日程の感覚はつかみづらい
中古物件で以前の世帯が光回線を契約していたから、光コンセントもあると踏んでいたけど実地で確認するのを忘れていた
不動産屋に頼んで確認してもらうけどもし光コンセントごと撤去されていると非常にややこしくなる
よほどこの手のことに詳しい人でない限りは丁寧に説明してくれないから全部自力で何とかしないといけない
引っ越し当日に電気もガスも水道もネットもないなんてことありそうだ
他にも電気や水道など賃貸では基本的にセットになっており契約もスムーズに行えるインフラなども自力でやらないといけない
賃貸なら業者も決まっているし光回線も既に通っているから気にしなかったが、自分で全て設定することになると細かいタイムテーブルが難しい
なんでスチムーに書かないのかって?顕名で残したくないからだよ!
さっそくいってみよう!
おすすめできるか?→今はまて。いろいろ不具合やゲームバランスの問題があってある程度以上発展させることが難しい。半年後なら安心して楽しめるかも。正直今は先行レビューくらいのクオリティ
もともと都市シミュレーション系のゲームが好きで楽しみにしていたので俺は楽しむことができた
できる都市もディテールに凝っていて、車からの景色を眺めると田舎から都市へシームレスに風景が変わっていきおおーってなる。俺はわざわざOBSで録画しちゃったもんね
達成レベル最高のメガロポリスに到達するまでのプレイ時間はだいたい100時間くらい。メガロポリス到達時点の人口は30万人くらい。日本の政令指定都市が50万人以上だからメガロポリスという名称には少し違和感がある
道路と線路が引き放題、曲げ放題→CSの魅力といったらこれでしょうと思う。時々日本の高速の複雑なジャンクションのことが話題になるけど、あれに勝るとも劣らないキチガイジャンクションが作り放題ですよ。俺は絶対住みたくない笑
不具合さえなければ永遠に遊べる盆栽ゲー→今作はいろいろ不具合があって成長に限界があるけど、それさえなければ永遠に手を入れることができる盆栽ゲー。ヌルっと遊びたいエンジョイ勢から細部にこだわるみなさんまで時間が無限に溶ける。渋滞対策とかはこれの極みで、丁寧に丁寧に遅さの原因を取り除いてスムーズに流すことができる快感を覚えると時間が無限に溶けていく。俺みたいなマイルドアスペ過集中ガイに与えると寝食を忘れてやる。これ老人ホームに入れたら老人が幸せのままにポックリ逝くんじゃないか
Clipperが使えない→Clipperってのはゲーム内のTwitterみたいなSNSなんだけどこれが全く意味がない。住民が一部でも不満をもったらバカバカ投稿されるので、ある程度都市が大きくなるといちいち聞いてらんないとなって最終的には表示をオフにしてしまう
ラジオが英語→ゲーム内にラジオがあって、交通事故や停電があるとしゃべってくれるんだけど英語なので日本人にはきつい。BGMのように音楽も流してくれるんだけど、数曲しかないので結局これもオフにしてしまう
小学校と公園が大量にできる→就学率の向上と住民の満足度を向上させるために異様に小学校と公園を建設することになる。1つの小学校あたりの定員が1500人で、いやもうちょっといけるだろという日本人の感覚から少しズレがある。ほんと1つの通りに1個小学校と3つの公園があるような感じになってゲームバランス的にこれはどうなん
カメラ機能がイマイチ→機能がやたら複雑でスクリーンショット1枚取るのに一苦労。俺は断念してOBSでやったw
車の方向転換がイマイチ→CS1からだけど、車の方向転換や車線変更が意味不明におおげさ。で後続の車がつまってあっというまに渋滞発生。高速道路で4レーンまたぎ車線変更とかバックして切り返しとかしないでしょっていう
公共交通のツールがイマイチ→1つの道路に複数の路線が走っていると路線を選択するのがわかりずらい。いったん作った路線に停留所を加えるとルーティングがおかしなことになることがある。路線から停留所を削除することができない。変更の反映にタイムラグがあり、変更結果を確認しようとして実車ビューにしているとその車や電車が突然消えたりする(その後車庫から新たに生成されて出てくる)
もうボロボロ出てきてるんだけど気を長くして修正を待とうというか俺は待つ
パフォーマンスの問題→これはいろいろな人が書いているので割愛。開発元も最優先で取り組んでるので現状待つしかない
住民が異様にゴミを捨てる→プレイエリアの20%程度をゴミ捨て場が専有するようになって夢の島もびっくりのゴミだらけ都市ができあがる。これおかしいだろという指摘がある
https://steamcommunity.com/app/949230/discussions/0/3937895474112080034/
郵便処理施設のバグ→郵便局の上位施設に郵便振り分け施設というのがあるが、それがまともに機能しないので郵便が貯まりまくる。で、郵便がうまく動いていないと住民の満足度がバカ落ちして都市から住民が逃げていく。最終的に発展が不可能になる。お前らそんなに郵便好きかよメールでいいだろうが
https://steamcommunity.com/app/949230/discussions/0/3877095833479248137/