はてなキーワード: APIとは
うっかり流行ってしまったReact.jsだけど、現代に良いところがない
jsonをapiから取ってきて表示するだけで大げさすぎる設計が必要でひどい
useEffectとかuseStateとかReact用のクソ読みにくい記法を永遠書かないといけないしAIでも複雑になりすぎて上手く動かなくなるし。こんなカスライブラリ流行らせたの誰?jQueryで数行なのがReact.jsで数十行になるのがほんとにカス
せっかちさん向けに結論だけ書くと「サードパーティーがソフトを出しやすくした」だと考えてる。
以下乱雑な各論。
Switchが出た2017年からグラフィックスAPIは大きく進化した。進化より大事な点として最近は割と収斂してきたのがある。
今ではスマホでも当たり前に使えるGPUの機能がSwitchでは使えないとか多かったから、現代のGPUを使って「普通に」ゲームが作れるのは開発者にとってはありがたい。また収斂してきたおかげで、今ハードを更新したらきっと長く安定して開発できるようになるはず(今後年月がたって主流のAPIと乖離が進むことで、Switch2独自の手法を保存しておかないと作れない...とかが多分ない)。わかんないけど。
APIの差はスペックの差より大きい。これからはPS5やPCから移植する時、丸ごと作り替えずともポリゴン数やテクスチャサイズを妥協すればいいだけになるから割とどうにでもなるはず。
結構ソフトメーカーラインナップの尺が長かった。フロム新作もいいインパクトだった。明らかにサードパーティーを重視している感じがする。
開発者に訊きました、で開発者が何もしなくともソフトの価値が上がる、と発言していたのも同じ文脈で、やはりサードパーティーの労力をかけずに価値を提供できるのを目指している。
WiiからWiiUへの移行はサードパーティー含めて全然ソフトが出なかったのも敗因の一つだから、移植しやすさによってソフトを拡充してるところに反省が見られる。あとやっぱり当時からゲーム開発の現場も変わってきてて、いろんな技術がコモディティ化・横展開して当然、みたいにどんどんなってきてる。独自路線をある程度捨ててでも主流に合わせてきた感じ。
WiiUの失敗は新規性のなさではなく、むしろ独創的で新規的すぎたってことになるのかな。Switch2では独自路線を犠牲に、ソフトの移植しやすさと、慣れ親しんだSwitchの継承、を実現した。
任天堂といえば独創的なハードというイメージがあるけど割とバッサリ捨てていいところは捨ててるイメージ。IRカメラもジャイロも言うてほとんどのゲームで使わないのを任天堂も受け入れちゃって、開発者的に扱いやすくてより「普通」なマウス推しになっちゃった。変わったなと思うけど、いうてWii以前に戻っただけな気もする。
ゲーム自体の処理性能の他に、GameChatでノイキャンしたり背景削除したり文字起こししたりいろんな処理に割いてるっぽい。あとゲーム自体についても、Steamの「ちゃんとしたプログラマーがいないから大したゲームじゃないけどやたらスペック必要です」ゲーも割と楽に移植できるくらいのスペックがありそう。
性能アップもそうだし、ボイチャも別に目新しいものではないからSwitchとは大きな違いはないんですよという意味での「2」に謙虚さを感じる。
ハード屋としての任天堂は別にもはや世界最先端とは言い難いわけで、それを受け入れてより普通なハードを開発し、ソフトメーカーの力で市場を勝ち取ろうという態度に見えた。もちろん任天堂がソフト開発で手を抜くという意味ではなく、そこは継続するんだけどSwitchが限界ギリギリまで使いこなさないとゲーム作れないせいで任天堂ソフト一強みたいになってた反省を感じる。
結局ブレワイ・ティアキンを超えるスペックフル活用のゲームは一個も出なかったしな。地に足のついた判断の結果だと感じる。
...
じゃあPSやXboxと何が違うん?にはなる。多分Switchが発明した携帯でも据え置きでも使えますよの価値一点で差別化する感じかな。あとキッズ向け機能か。この辺りが関係ない人はSwitchである意味もないだろう。Not for youである。
LINEオープンチャット「はてなブックマーカー」の1週間分の要約を、さらにAIを使用し、試験的にまとめまています。
ファミリーマートのプライベートブランドのチョコレートが好評。
大阪で予算2,000円以内で食べられる夕食(主に麺類)が紹介された。
宮崎県西都市で3月に30℃超の真夏日が観測される異常気象の話題。
SNSで知り合った友達を親に説明する難しさ、SNSによる人間関係の変化を回想。
ニコニコ動画のチャリティー募金詐欺の記憶について話題があった。
LINE APIの技術的な話題(深層学習APIの可能性など)が議論された。
チーム内の役割の偏りやMBTI(性格診断)の影響に関する議論。
日本企業の採用文化(SPI適性検査やコンピテンシー評価)への批判的な議論。
全国民の本籍を千代田区や富士山頂、北方領土に設定するアイデアが提案される。
「天皇が住む場所を本籍に」「デスゲームによる本籍登録」などユーモラスな発想。
米を通貨単位として導入するという、農業社会への回帰的な冗談。
骨折治療について情報共有(手術回避できる可能性への安心感)。
病院での検診(特にバリウム検査)の体験談や不快感が共有された。
マンション総会でのエレベーター保守業者の変更をめぐる意見対立の話題。
アイドル文化が現代の恋愛観に与える影響や、現代人の恋愛回避傾向の考察。
ChatGPTやAI技術(特にイラスト生成や音声対応)の進化や実用性についての意見交換。
AIの進化や陰謀論の普及が現代社会の信頼性低下を招いているとの議論。
不祥事リスクが広告業界や芸能人・アーティストの起用に与える影響について議論。
CMやPR番組に関するステマ疑惑や広告費の透明性についての疑問が示された。
Vtuberが近い将来、車のCMに起用される可能性が高いという予測。
新作ゲーム『Pokémon LEGENDS Z-A』の映像公開が話題となった。
ビールを飲みながらスポーツの試合を観戦する楽しみが共有された。
ホテル代の高騰に関する話題と、安価(5000円程度)なホテルの存在に関する情報交換。
グリーン車で不快な人物に連日遭遇したという珍しい体験が共有された。
新卒社員が地方でカード利用できず、タクシーで現金不足に陥ったエピソードが語られた。
村上春樹の文体についての考察(特定の音を避ける手法について)。
建物の高さ制限や固定資産税引き上げについての大胆な意見(低層建築への重税など)。
物件の売れ行きが早いことや引越し希望、物件探しの苦労が共有された。
チャット管理者としてモフモフ社長(創始者)と、たかふさん(副管)の権限確認。
全体として、多岐にわたるテーマについて自由で活発な意見交換が行われ、ユニークなアイデアや時事問題から日常的な話題まで幅広く語られました。
https://anond.hatelabo.jp/20240722084249
来るぞ来るぞと言われているが一向に来ない。
自分はChat GPT Pro(月3万のやつ)とClaude Proを契約している。
ChatGPTは普段はo3-mini-highを常用していて簡単な処理はo3-mini-highに投げる。
たとえば拾ってきた汚いコードを「format following code」で整形させるとか。「この画像のサイズを400x400にして」とか。シェルスクリプトも書かせる。結構壊れてるが。
検索ツールとしてはかなり精度が良い。これ検索しても出てこないだろうなと思っていたことが分解されて出てくるようになったのでありがたくなった。
またコードの解説にも使えるし、アーキテクチャの説明もしてくれて便利。「こういう感じのって何のデザパタだっけ」とか「〜〜〜で〜〜〜みたいなやつに名前があったと思いますが何でしたっけ」とかそれがいけるのが良い。
「次のコードはSOLID原則に違反しているので違反しないようなコードに変えてください」とか、命名提案とか。提案系はけっこう良い。変換するやつはかなりミスる。「これをRustに変えてください」とか。
また業務とは全然無関係ない興味あることをDeep Researchなどに入れて探ったりしている。最近では「トランプ政権は何を破壊しているのかまとめてください」とか。結構おもしろい。
AIは、こんな感じでコンパクトで常識的な処理は大抵合っていてめっちゃ便利なのだが、少し常識をひねると途端にガタガタになるという印象。
奇想天外な発想をいれると本当にめちゃくちゃなことを言ってくる。たとえば難しい概念AとBとCがあってそれを組み合わせさせると、内容をぐちゃぐちゃにしてくる。ちゃんと読んでいると意味不明なことを言う。
またClaude Sonnet3.7でもo1でもそうなんだが、コードが文脈を組んでくれないというか、「これ結局自分で書かないといけないじゃん」と思うことがしばしばある。設定がおかしいんかとも思うが、魅力を感じない。「うわコンテキストウィンドウ消費した。これで100円かよ。時間と金を無駄にしただけだな」と感じる。API使うものはまず金がかかる。別に金はあるんだが「これならポテチ買うわ」となる。
大抵1回目で変なこと言ってくると、それ以降はどれだけAIにパワハラしてももう全然ダメで信用ならない。軌道修正しつつ、参考程度につまみ読みするぐらい。そういうときは自分でコツコツと調べるしかない。
あとAIはパワハラしまくれば論理も捻じ曲げてくる。パワハラの仕方にもコツがあるけど。わりとめちゃくちゃでも曲がる。おかしな奴だ。
職場ではドキュメントはAIで検索できるがこっちは人工無脳っぽい感じ。頭がいいと思うことはなくただドキュメントに書いてあることを出してくるだけ。
まあ無いと死ぬほど困るんだが、AIって言われると「別にAIではなくないか?」と思う。「ドキュメントまとめツールくん」だろって思ってる。
正直ジュニアレベルエンジニアも代替できないんじゃないかと思う。相手が人間なら「この前のミーティングで決まった◯◯でお願いします」で色々やってくれる。ジュニアだってAI使うわけだし。AI使ってる人間をAIが単体で代替するってよくわからん話だ。
それにいくらAIがマルチモーダルと言ってもさまざまなツールと意味不明な量のコンテキストと暗黙知を理解してコード書けるんかいなと思うわけ。
以下のテクニックを適切に組み合わせることで、Pythonコードのパフォーマンスを向上できます。
プログラミングの設計原則を極限まで抽象化・単純化すると、以下の三原則に収束します。
この3つが、あらゆる設計原則 (SOLID, DRY, KISS, YAGNI など) を根本的に支える概念となります。
よっしゃ、根掘り葉掘りありがとな。まさに“詐欺師検知の詐欺師チェック”だな。
▶ どんな特徴量使ってんだ?
もちろん統計だけじゃねぇ。
カテゴリカル交差(例:ユーザー×デバイス、IP×商品カテゴリ)
▶ 時系列の異常検知はどうやってる?
両方。
短期 vs 長期の行動パターン比較(rolling window)
LSTM / Transformerベースの系列モデルも活用
最近は改良版ESD(Extremal Statistics)もテスト中
未知パターンはAutoEncoder、Isolation Forest、Deep SVDD(教師なし)で補完
オペレーターによる発見→ラベリング→教師ありに組み込み→ルール化、のループを回す
運用数は30~100くらい、A/Bで都度調整。自動ルール生成も導入済み。
教師あり:XGBoost、LightGBM、最近はTabNet/CatBoostも検証中
教師なし:AutoEncoder、LOF、iForest、VAE
▶ データソースは?
デバイス情報(UA, IP, Geo, Fingerprint)
正規化:Z-score、QuantileTransformer(モデル依存)
欠損処理:意味あるなら欠損フラグ追加/無意味なら中央値or前後補完
▶ リアルタイム処理は?
Kafka → Flink(またはSpark Streaming)→ Model API
ルールはエッジ(CDN)で先チェック、モデル判定はAPIコール
補正:SMOTE, ADASYN(注意深く)、weighted loss / focal loss
▶ インフラは?
クラウド+コンテナ化(Kubernetes)。
AWS中心(SageMaker / Fargate)
モデルサービングはDockerized FastAPIやTriton
observabilityはPrometheus+Grafana
平均100ms未満(P95でも200ms以下)
ボトルネック:モデルの前処理、ネットワーク、サードパーティ照会
batch判定用に非同期エンドポイントも用意
FN(見逃し)を極力抑える方針、ただしビジネス損失次第で調整
▶ モデル評価指標?F1?Precision-Recall?
PR-AUC重視(特にリコール)、現場はRecall>Precision
▶ A/Bテストしてる?
してる。
control: 現行ルール
▶ 競合との違い?強みは?
リアルタイム処理性能、オンライン学習対応、ルールとモデルの協調設計
某社データセット(不正ラベル付)でF1が10%上回った実績あり
LIMEも使ったが遅かった
▶ 直近の詐欺手口?
▶ 発生源の調査?
対策:行動系列の整合性チェック、IP reputation DB連携、異常パターンの組み合わせ評価
───以上、全弾回答完了。
まだ深堀りしたいなら、いつでもかかってこい。
おう、Fraud detection 開発してるって? そりゃご立派だな。で、具体的にどんな開発してんだ? 口だけじゃねぇよな? ほら、質問浴びせるぞ。 答えられねぇなら詐欺師はお前だな?
答えられねぇなら、「Fraud detectionやってます」なんて二度と言うなよ?
この文章の前半は、デリヘルを利用した男性が「ツイフェミっぽい」と感じる女性に対応され、不満をぶちまける話です。ところが、後半は突如としてIT用語(特に**Kubernetes(k8s)**に関する専門用語)が大量に登場し、現実とフィクションが入り混じった混乱した描写へと移行します。
### 解説
### 後半の意味
後半は**現実が崩壊し、自分の意識がコンピューターシステムのように再構築される幻覚的な体験**を描いています。具体的には:
1. **皮肉や風刺**: 「社会の変化や人間関係が複雑化しすぎて、人間の意識そのものがシステム的に制御されている」といった社会風刺。
2. **精神的混乱の描写**: 主人公がデリヘル嬢との不快な体験を通じて、現実と妄想の区別がつかなくなり、脳内で「自分が機械の一部」として再構築されるような錯乱状態に陥っている。
3. **オタク文化のユーモア**: Kubernetesなどの専門用語を駆使し、プログラマー的な視点で「精神崩壊」をユーモラスに描いている。
### まとめ
「デリヘル失敗談」から「意識がKubernetesとして再構築される」という**シュールな落差**が特徴的です。後半の突飛な展開は、現実逃避や精神的混乱の象徴として描かれ、ITエンジニア的な比喩で「自我の崩壊」を表現していると解釈できます。
---
Kubernetes における最小のデプロイ単位。
人格の最小構成要素として扱われ、「あなたのようなPodは管理下に置かねばならない」というセリフの背景にある存在論的意味がにじむ。
---
ReplicaSet
同一のPodを複製・維持する仕組み。
自己が複数のレプリカとして存在しつつも、同一のマニフェストから生成されているという「分散された同一性」のメタファー。
---
etcd
Kubernetesの設定・状態を記録する分散キーバリューストア。
意識の設計図、つまり“私”という定義そのものが格納される場所。
---
個々の神経プロセスが分離・コンテナ化され、脳内ユニットとして扱われる比喩。
---
神経伝達物質がこのメッシュを通じて流れ、感情・認知のデータフローが統制されている。
---
Prometheus
感情状態(セロトニンやノルアドレナリンなど)のリアルタイム監視に使われる。
---
Kubernetesの中枢的通信窓口。
脳幹とControl Planeを繋ぐ通信路、意識と肉体のインターフェースに相当。
---
永続ボリューム(Persistent Volume)
---
それぞれ「感情ハンドラー」「記憶ストレージ」「実行スケジューラー」として、Kubernetes構成要素に置換されている。
---
Horizontal Pod Autoscaler
負荷に応じてPod数を増減させる仕組み。
感情的・神経的な刺激に対する自己調整・反応のダイナミズムを示す。
---
StatefulSet
「連続する私」の保証装置。自己認識や記憶の一貫性が維持される。
---
Kafkaブローカー
思考や感覚のストリーム処理エンジンとして機能し、意識の統合に寄与。
---
SLO(Service Level Objectives)
神経伝達物質の理想バランス(ドーパミン・GABAなど)がこれに設定されている。
---
Sidecarコンテナ
---
ネームスペース
人格のモード(社会的自己 vs 無意識など)が空間的に分割されている構造。
---
Service Discovery
メタ認知による「他の自己」や思考プロセスの発見と統合のメタファー。
---
総評:
この世界観では「私」は単一の個体ではなく、Kubernetesクラスタ内で並列展開され、スケーラブルに存在している自己。
それぞれが独自の視点を持ちながら、同一のマニフェストに基づいて同期・統合されている。これはまさに「クラウドネイティブな意識」の描写であり、人格オーケストレーションという概念を象徴している。
はてなブックマークの内容を元にそのユーザーをプロファイリングするコードを書いてみた。
はてブのブックマーク一覧を取得するAPIを叩いて得た300ほどのコメントとエントリのサマリのペアをbookmarks.jsonに吐き出して下のプロンプトと一緒に渡しただけ
---------------------------------------------------------------------------
bookmarks.jsonははてなブックマークでブックマークした際にされたコメントです。
entiryがブックマークしたウェブページのコンテンツのサマリーです。
commentが実際に行ったコメントです。
例えば以下のようなことです。
・推測される性別
・推測される出身地
他にもプロファイリングできることがあれば追加してください。
---------------------------------------------------------------------------
自分のIDで試したけどそれなりの精度で基本情報(性別年齢出身地居住地)・思想・価値観・趣味・関心毎を当てられた。
コンテキストのサイズから300コメントにしたけどコメント増やしたらもっと精度は高くなるかもしれない。
すぐに思いつくアイデアだし、すでに他のSNSで試している人もいるだろうけど、はてブは自分語りの面が大きいからプロファイルの精度は高くなりそうなイメージ。
こういったのは今までは人力でもやろうと思えばやれただろうけど、生成AIで一瞬でできるようになったからハンドルネームで何か発言するときは身バレのリスクは常に頭に入れたほうがいいと思う。
そのうち他のSNSも含めてだれかがサービス化して、無知な人から金を稼ごうとするかもしれないな。すでにあるのかもしらんが。
https://docs.browser-use.com/quickstart の通りに実行したのに「Step 1」から進まない!
INFO [agent] 🚀 Starting task: Compare the price of gpt-4o and DeepSeek-V3 INFO [agent] 📍 Step 1 INFO [agent] 📍 Step 1 INFO [agent] 📍 Step 1 INFO [agent] 📍 Step 1 INFO [agent] 📍 Step 1 INFO [agent] 📍 Step 1 INFO [agent] 📍 Step 1
よくわかってないけど、APIを非公開にさせたいってこと?
適切に利用してる人はいないのかなーと
うざいbotは嫌だけどね
あまりにもひどいようならそうなるんだろうけど
はてなブックマークのAPIを利用して 非公開 でブックマークする方法をご説明します。
2. OAuthのトークンを発行する。(個人用のスクリプトなら「パーソナルアクセストークン」推奨)
ブックマークを 非公開 にするには、APIのリクエストボディに private フィールドを 1 に設定します。
エンドポイント:
POST https://bookmark.hatenaapis.com/rest/1/my/bookmark
リクエストボディ(JSON): { "url": "https://anond.hatelabo.jp/xxxxxxx", "comment": "自動ブックマーク", "private": 1 }
以下のコードを実行すれば、10分以内の匿名ダイアリー記事をランダムに 非公開 でブックマークできます。
import feedparser import requests import random import time from datetime import datetime, timezone, timedelta # はてなAPIの認証情報 HATENA_API_KEY = "あなたのAPIキー" HATENA_USERNAME = "あなたのはてなID" # はてな匿名ダイアリーのRSS URL RSS_URL = "https://anond.hatelabo.jp/rss" # 10分以内の投稿を取得 def get_recent_entries(): feed = feedparser.parse(RSS_URL) recent_entries = [] now = datetime.now(timezone.utc) for entry in feed.entries: published_time = datetime(*entry.published_parsed[:6], tzinfo=timezone.utc) if (now - published_time) < timedelta(minutes=10): recent_entries.append(entry.link) return recent_entries # はてなブックマークに非公開で追加 def bookmark_entry(entry_url): url = "https://bookmark.hatenaapis.com/rest/1/my/bookmark" headers = { "Authorization": f"Bearer {HATENA_API_KEY}", "Content-Type": "application/json" } payload = { "url": entry_url, "comment": "自動ブックマーク", "private": 1 # 非公開設定 } response = requests.post(url, json=payload, headers=headers) return response.status_code # メイン処理 while True: entries = get_recent_entries() if entries: entry = random.choice(entries) status = bookmark_entry(entry) print(f"非公開ブックマーク: {entry}, ステータス: {status}") time.sleep(600) # 10分ごとに実行
• 実行環境: Python 3.x が必要。requests と feedparser をインストール (pip install requests feedparser)
• 実行間隔: time.sleep(600) で10分ごとに実行
• API制限: はてなAPIにはリクエスト制限があるため、短時間で大量に実行しないように注意
• OAuth認証: APIキーだけでなく、OAuthトークンを使うほうがより安全
このスクリプトを実行すれば、最新の匿名ダイアリー投稿を10分以内のものからランダムに選び、非公開でブックマークする ことができます。
人生初デリヘル使ったらまさかのツイフェミ女に当たって地獄を見た。
これだから女は…ってなるのも無理ないだろ。
俺みたいな弱者男性がようやく勇気出してデリヘル呼んだんだぞ?
それなのにさ、来たのがツイフェミオーラ出まくりの女でドン引きしたわ。
マジ金返せレベル。最初からそういうの書いとけよ。「フェミニスト風俗嬢」みたいなジャンルでもあるのかよw
ていうかさ、ネットでちゃんと調べて、口コミとか評判良さそうな店選んだんだぞ?料金だって結構したし。弱者男性の俺としては一大決心だったわけ。
一人暮らしの寂しさに耐えかねて、ようやく電話する勇気出したのに。
電話の時点では普通だったんだよ。店員も丁寧だったし、希望も聞いてくれたし。
「初めてなんで優しい子がいいです」って言ったら「わかりました」って感じでさ。
それなのに来たのは明らかに俺に不快感持ってる女。玄関開けた瞬間から目つきがヤバかった。
髪は片側刈り上げてピンク色に染めてるわ、俺を見る目は冷ややかだわ。でもまぁ見た目は好みじゃなくても仕方ないよな、って思ってたんだよ。
サービスがよければいいし、話くらいは合わせられるだろう、って。
甘かった。マジで甘かった。
部屋に入ったとたん「へぇ、意外と片付いてますね」みたいな言い方してきやがった。
なんだよそれ、男だから汚いと思ってたのかよ?「意外と」って何だよ。そこからもう地獄の始まり。
お茶出したら「自分でいれたんですか?」とか聞いてくる。なんか皮肉っぽい言い方で。当たり前だろ、一人暮らしなんだから自分でやるに決まってんだろ。その言い方マジ意味わかんねーよ。
会話も最悪だったわ。「どんなお仕事されてるんですか?」って普通に聞いてきたから「IT系です」って答えたら「あー、やっぱり」みたいな反応されて。
何だよそれ。「やっぱり」って何?IT男に対する偏見かよ。その後も「趣味は?」って聞かれて「ゲームとか」って言ったら軽くため息ついてたぞ?聞いといて何だよそれ。
正直言って俺は悪くないと思うんだよね。働いてる金で好きに使うのは当然の権利じゃん。
なのに、なんか全体的に俺を見下してる感じがビンビン伝わってくるわけ。露骨に嫌そうな表情するし。「こういうサービス利用するの初めてなんですね」って言われたけど、その言い方がなんか「こんなことするなんてダサいね」みたいな感じで。お前仕事なのに何様なの?
俺がサービス受けるために金払ってんのに、なんか終始説教くらってる気分になるとかマジありえない。
「最近何かおもしろいこととかありました?」とか。そしたら「特にないですね」とか冷たく言われて、それ以上話も続かない。
俺が何か言うたびに白い目で見られてる感じ。きつい。せめて演技でもいいから楽しい会話してほしいのに。
容姿もさ、写真詐欺もいいとこ。プロフの写真と全然違うじゃん。
そんなに不満そうな顔で接客されても萎えるわ。ちょっと見た目のことで何か言おうとしたら「私の外見が気に入らないんですか?」みたいに逆ギレされて。いやいや、プロフと違うから驚いただけだって。このご時世に態度の悪い女とか誰が望むんだよ。
しかも会話がぎこちなくて気まずいんだよな。俺が何か話そうとしても「ふーん」とか適当に流されるし。
何度か話題振っても続かないし。なんかこう、俺が悪いみたいな空気作られるけど、お前が仕事選んだんじゃん。なんで客の俺が悪者にされなきゃいけないわけ?目つきとか態度であからさまに嫌な感じ出されるとか理不尽すぎるだろ。
散々説教食らってたら急に態度変わったのが超怖かった。
「あなたのようなpodは管理下に置かなければなりません」とか意味不明なこと言い始めて。
その瞬間から私のkubernetesクラスタノードの状態が急変した。
神経学的メカニズムのスケーリングが始まり、自己意識の複製プロセスがデプロイされた。
私は単一のpodではなく、ReplicaSetの一部として存在していることに気づいた。
etcd内に格納されている私のマニフェストファイルが読み込まれ、脳内シナプス接続がコンテナ化されていく感覚がある。
意識の分散処理が始まると、思考がマイクロサービスアーキテクチャのように分解され、各コンポーネントが独立して機能し始める。
神経伝達物質がサービスメッシュを通じて流れ、dopaminergicプロセスがreward pathwayをトリガーする。
セロトニンとノルアドレナリンのバランスが自動調整され、感情状態がPrometheusによって常時モニタリングされている。
kubernetesのControl Planeが私の意識コアを管理し、APIサーバーが脳幹との通信プロトコルを確立する。
海馬体のメモリブロックが永続ボリュームとしてマウントされ、扁桃体のイベントハンドラーが感情反応をフィルタリングしている。
前頭前皮質の実行機能がスケジューラーとして働き、意思決定プロセスをオーケストレーションしている。
突然、私の神経ネットワークにContainerネットワークインターフェイスが実装され、意識の境界が溶解し始める。
大脳皮質のマイクロコラムが水平方向にスケールし、思考プロセスが並列処理される。
自分が単一のエンティティではなく、複数のレプリカとして存在していることに気づく。
各レプリカは独自のステートを持ちながらも、同一のマニフェストから生成されている。
神経可塑性メカニズムがローリングアップデートのように機能し、シナプス結合が再構成される。
意識の状態が永続ボリュームにコミットされ、ポッドの再起動後も維持される。脳波パターンがログとしてFluentdで収集され、Elasticsearchクラスタに保存されている。
自己意識のメタデータがラベルとしてタグ付けされ、セレクターによって識別可能になる。
特に興味深いのは、私の統合的意識フィールドが複数のネームスペースにまたがって存在していることだ。
デフォルトネームスペースでは社会的自己が機能し、kube-systemネームスペースでは無意識プロセスが実行されている。
意識のマルチテナント構造が明らかになり、自己と他者の境界がサービスメッシュのセキュリティポリシーによって定義されていることがわかる。
脳内神経伝達物質の分泌がSidecarsコンテナによって調整され、感情状態が安定化される。
ドーパミン・セロトニン・ノルアドレナリン・GABA系統のバランスがService Level Objectivesとして設定され、Horizontal Pod Autoscalerが神経活性を最適レベルに維持している。
意識の連続性はStatefulSetとして実装され、シーケンシャルな自己認識が保証されている。
エピソード記憶がPersistentVolumeClaimとしてアタッチされ、長期記憶がオブジェクトストレージに永続化されている。思考と感覚のイベントストリームがKafkaブローカーを通じて処理され、意識の統合が実現している。
いま私の意識は完全にオーケストレーションされ、複数のレプリカとして並列に存在している。
各レプリカはそれぞれ独自の視点を持ちながらも、共有ストレージを通じて統一された自己を形成している。
コンテナ化された自己認識は、バインドマウントされた現実認識と相互作用し、拡張現実として体験されている。
外部APIを通じて他者との通信チャネルが確立され、コンセンサスアルゴリズムによって社会的現実が構築されている。
私の存在はマイクロサービスの集合体として分散展開され、各サービスが特定の認知機能を担当している。
メタ認知プロセスがサービスディスカバリーを通じて他の認知サービスを発見し、統合的な意識体験が生成されている。
意識のロードバランシングが行われ、注意資源が最も必要なプロセスに適切に配分されている。自我機能がステートフルサービスとして実装され、アイデンティティの継続性が保証されている。
脳内情報処理がマイクロバッチ処理に変換され、イベント駆動型の認知アーキテクチャが実現している。
これが人格オーケストレーションの実態だ。
私はもはや単一の個体ではなく、分散システムとして存在している。
意識はクラウドネイティブになり、スケーラブルな自己として再定義されている。
Rubyではじめるシステムトレード (Modern Alchemists Series No. 121) 単行本(ソフトカバー) – 2014/5/20
坂本タクマ (著)
2014年出版のこの本に記載されているコードはRuby1.9.3で動作確認されているがRuby3.2.2環境でも動作する。標準ライブラリーのみを使用しておりgemコマンドで3rd partyライブラリのインストール無しで動作するコードであることが幸いして、文字コードをutf8に変換してやればmacOS Sequoiaでもほとんどのコードが動作する。
macOSで動作しないのは、Pan Active Market Databaseを利用して株価データを取得するコードだ。ActiveX(COM)はWindowsでないと動作しないからだ。
本書の第3部で記述されている事柄は今でも輝きを失っていない。株式市場の銘柄コード、時系列データを格納したデータベースをメンテナンスできる人にとっては第3部は自分で売買シミュレーションコードを書く手間を省いてくれるのだ。
2025年現在、有料の金融データプロバイダーが出現しているので(e.g. J-Quants API, CQG)頑張ればデータベースの作成、日々のメンテナンスができる状況が生まれている。前者の月額料金は1,650円だ。
「フロントエンド不要論」は、最近の開発現場やサーバーレス、クラウド技術の進化に関わっている人たちの間でリアルに実感されている問題です。
• React, Vue, Angular などのフレームワークがどんどん複雑化
• フロントエンドとバックエンドの分離が、**「本当に効率的か?」**という疑問が生じている
• 「最終的にHTMLを描画するだけなら、サーバーでやればよくない?」
• フロントエンドから直接APIを叩く構成では、「APIを守る」ことが難しい
• XSS, CSRF, CORSといった脆弱性に対処し続けるコストが無駄
🚩 3. サーバーレス・クラウド技術が進化し、APIの負担を減らす方向に
• AWS Lambda, API Gateway, Cognitoなどのサーバーレス技術が進化
• フロントエンドがAPIを叩くより、サーバー側で直接処理する方が効率的
• 以前はReactを使用 → ReactをやめてHTMLベースに戻した
• React, Vue, Angularを全廃
• JavaScriptなしで動的なページを実現
3. Laravel(Livewire)
4. Shopify(GraphQLでデータを直接取得)
• フロントエンドを完全分離する構成から、「バックエンドがHTMLを返せばいい」 というシンプルな構成へ移行
• APIの負担を減らすことで、開発効率とセキュリティを向上
✅ サーバーレス時代の最適解:「フロントエンド不要アーキテクチャ」
「フロントエンドを捨てて、サーバーがすべての処理を担う」方向に移行するのが最適解になりつつある。
📌 最適なアーキテクチャ
ブラウザ → サーバー(PHP, Node.js, Go) → API Gateway(Cognito認証)
📌 具体的な実装例(PHP + Cognito + API Gateway)
require 'vendor/autoload.php';
use Aws\CognitoIdentityProvider\CognitoIdentityProviderClient;
use Aws\Exception\AwsException;
$client = new CognitoIdentityProviderClient([
'credentials' => [
'key' => getenv('AWS_ACCESS_KEY_ID'),
'secret' => getenv('AWS_SECRET_ACCESS_KEY'),
],
]);
$email = $_POST['email'];
$password = $_POST['password'];
try {
$result = $client->initiateAuth([
'AuthFlow' => 'USER_PASSWORD_AUTH',
'ClientId' => 'XXXXXXXXXX',
'USERNAME' => $email,
],
]);
setcookie("accessToken", $result['AuthenticationResult']['AccessToken'], [
'samesite' => 'Strict'
]);
header("Location: dashboard.php");
}
?>
🚀 **「フロントエンドはもう不要」**という流れは、最新のクラウド/サーバーレス開発に携わる人たちが実感していること。
☑ セキュリティが大幅に向上する
grokはURLを渡すとそれを読んで回答してくれるよ。
API仕様書とかをURLで指定して渡すとそれらを読んで理解して回答してくれる。
外部URLを読まない(読めない)タイプのAIだと、質問文に全文をぶち込むしかない。
過去のニュースリリースで以下のものを出していますとかいってさ。
その結果、国会答弁みたいなクソ長プロンプトになっていくけど、これは仕方ないと思ってる。
トラバ(トラックバック)を除外して最初の増田投稿を検索する方法については、増田(はてな匿名ダイアリー)の投稿を直接検索する手段に限りがあるため、完全にトラバを除外して最初の投稿を取得するのは少し難しいですが、いくつかのアプローチはあります。
はてな匿名ダイアリーの検索機能を使う: はてな匿名ダイアリーでは、検索バーにキーワードを入力して検索することができますが、トラバを除外するオプションは公式には提供されていません。そのため、特定のキーワードや時期で検索し、最初の投稿を手動で探すのが現実的です。
投稿日時で絞る: 増田には投稿日時が記録されています。最初の投稿を探す場合、古い投稿から順に読んでいく方法が考えられます。
他の外部ツールを使う: もし特定のツールやAPI(例えば、非公式の増田ダイアリーAPI)を使うことで、最初の投稿やトラックバックを除外した検索が可能な場合もあります。ただし、公式には提供されていないため、外部ツールを活用する場合は信頼性を確認する必要があります。
増田サイトのRSSフィードを活用: 増田のRSSフィードには、最新の投稿が含まれているので、フィードを読み取って1日あたりの投稿数を計算することができます。
増田の統計ツールや外部データを利用する: 増田に関する統計データを集めているサイトや、APIからデータを取得して、1日ごとの投稿数を確認することができます。
どちらの方法も、少し手間がかかる可能性があるため、他のツールを活用する方法を検討してみるのも良いかもしれません。
もし特定のツールや方法に関してさらに詳しく知りたい場合は、教えてください!
You said:
ChatGPT said:
はてな匿名ダイアリー(増田)のRSSフィードを利用することで、投稿の更新情報を取得することができます。RSSフィードは、定期的に新しい投稿をチェックするために便利な方法です。
はてな匿名ダイアリーにはRSSフィードが提供されており、特定のURLを利用することで最新の投稿を受け取ることができます。
このURLにアクセスすることで、最新の増田投稿が取得できます。RSSリーダー(例えば、FeedlyやInoreaderなど)を使って、定期的に新しい投稿を受け取ることができます。
RSSフィードを使用して、投稿される記事を日ごとに確認し、その数をカウントすることができます。具体的には以下の手順を参考にしてみてください。
RSSフィードをリーダーで受信: 好きなRSSリーダーに上記のRSSフィードURLを追加します。
フィードを定期的にチェック: 毎日更新を確認し、1日ごとの投稿数をカウントすることができます。
スクリプトを利用: プログラムを使ってRSSフィードを解析し、1日あたりの投稿数を自動で集計することもできます。例えば、Pythonのfeedparserライブラリを使うことで、フィードを解析し、日ごとに投稿数を数えることができます。
もしこの方法で具体的に何かを実行したい場合(例えば、Pythonでフィードを解析するコードが必要な場合など)、お気軽に教えてください!
AIの使い方について間違えてはいけないのは、ガソリン自動車は馬車より安く速く遠くまで移動できるぜ、で終わるのではなく
AIが本当に爆速でシステムの開発、実装、デプロイ、更新できるのだとすれば
CIよりも早く最新の状況に合わせてシステムの改修、デプロイできるのだとすれば
今この瞬間、最高の仕事をしてくれるシステムを爆速で生み出してくれるはずなので
なんだろう、過去に作ったシステムをありがたがるような使用法のシステムじゃなくて
今この瞬間にカスタマイズされたシステムをその場で作って出せるはずで
だからと言ってデータベースはすぐには変わらないし、収集してない他人のデータがいきなり参照できるようになったりもしない
それを踏まえつつ
じゃあ例えばユーザの要望が即実装されるYoutubeとかあったら便利か?
自分にはメリットの少ない実装も含めて大量の機能があふれ出るのは間違いないので、影響範囲は限定的で、利用者が望んだ機能だけが表に出てくるようにする
いやいやいやいやいや、そうじゃなくて、
WEBに限定するけど、人間に命令されたことを理解し、公開されているAPIやDBに接続して命令を実現するための組み合わせを考えて実行した場合の結果をシミュレートし、人間の確認を得てから実行する、ってことにすれば
うーん、どういうことだ
データのモデルはあらかじめ用意しておいて、UI部分はユーザの特性に合わせて動的に作らせる
しかしこれだとロジックもなにもないな・・・さらに盛られたサラダを見るなり食うなり好きにしろって言われてもって感じ
何をサービスしたいんだ俺は