「API」を含む日記 RSS

はてなキーワード: APIとは

2025-04-03

React.jsカスすぎる

うっかり流行ってしまったReact.jsだけど、現代に良いところがない

jsonをapiから取ってきて表示するだけで大げさすぎる設計必要でひどい

useEffectとかuseStateとかReact用のクソ読みにくい記法永遠書かないといけないしAIでも複雑になりすぎて上手く動かなくなるし。こんなカスライブラリ流行らせたの誰?jQueryで数行なのがReact.jsで数十行になるのがほんとにカス

任天堂WiiUから何を学んだのか

せっかちさん向けに結論だけ書くと「サードパーティーソフトを出しやすくした」だと考えてる。

以下乱雑な各論

Switch (2017) からの変化

Switchが出た2017年からグラフィックスAPIは大きく進化した。進化より大事な点として最近は割と収斂してきたのがある。

今ではスマホでも当たり前に使えるGPU機能Switchでは使えないとか多かったから、現代GPUを使って「普通にゲームが作れるのは開発者にとってはありがたい。また収斂してきたおかげで、今ハード更新したらきっと長く安定して開発できるようになるはず(今後年月がたって主流のAPI乖離が進むことで、Switch2独自手法を保存しておかないと作れない...とかが多分ない)。わかんないけど。

APIの差はスペックの差より大きい。これからPS5やPCから移植する時、丸ごと作り替えずともポリゴン数やテクスチャサイズ妥協すればいいだけになるから割とどうにでもなるはず。

マウス

露骨PCゲーというかSteamゲーを移植やすくなった。

Nintendo Directの尺

結構ソフトメーカーラインナップの尺が長かった。フロム新作もいいインパクトだった。明らかにサードパーティーを重視している感じがする。

GameChat

開発者に訊きました、で開発者が何もしなくともソフト価値が上がる、と発言していたのも同じ文脈で、やはりサードパーティーの労力をかけずに価値提供できるのを目指している。

WiiU反省

WiiからWiiUへの移行はサードパーティー含めて全然ソフトが出なかったのも敗因の一つだから移植やすさによってソフトを拡充してるところに反省が見られる。あとやっぱり当時からゲーム開発の現場も変わってきてて、いろんな技術コモディティ化・横展開して当然、みたいにどんどんなってきてる。独自路線をある程度捨ててでも主流に合わせてきた感じ。

WiiUの失敗は新規性のなさではなく、むしろ独創的で新規的すぎたってことになるのかな。Switch2では独自路線犠牲に、ソフト移植やすさと、慣れ親しんだSwitch継承、を実現した。

独自路線放棄

任天堂といえば独創的なハードというイメージがあるけど割とバッサリ捨てていいところは捨ててるイメージIRカメラジャイロも言うてほとんどのゲームで使わないのを任天堂も受け入れちゃって、開発者的に扱いやすくてより「普通」なマウス推しなっちゃった。変わったなと思うけど、いうてWii以前に戻っただけな気もする。

スペックに余裕を持たせる

ゲーム自体の処理性能の他に、GameChatでノイキャンしたり背景削除したり文字起こししたりいろんな処理に割いてるっぽい。あとゲーム自体についても、Steamの「ちゃんとしたプログラマーがいないから大したゲームじゃないけどやたらスペック必要です」ゲーも割と楽に移植できるくらいのスペックがありそう。

あくまSwitchの2

性能アップもそうだし、ボイチャも別に目新しいものではないかSwitchとは大きな違いはないんですよという意味での「2」に謙虚さを感じる。

ハード屋としての任天堂別にもはや世界最先端とは言い難いわけで、それを受け入れてより普通ハードを開発し、ソフトメーカーの力で市場を勝ち取ろうという態度に見えた。もちろん任天堂ソフト開発で手を抜くという意味ではなく、そこは継続するんだけどSwitch限界ギリギリまで使いこなさないとゲーム作れないせいで任天堂ソフト一強みたいになってた反省を感じる。

結局ブレワイ・ティアキンを超えるスペックフル活用ゲームは一個も出なかったしな。地に足のついた判断の結果だと感じる。

...

じゃあPSXboxと何が違うん?にはなる。多分Switch発明した携帯でも据え置きでも使えますよの価値一点で差別化する感じかな。あとキッズ向け機能か。この辺りが関係ない人はSwitchである意味もないだろう。Not for youである

2025-03-31

3月4週LINEオープンチャットはてなブックマーカー」1週間のまとめ

これは何?

LINEオープンチャットはてなブックマーカー」の1週間分の要約を、さらAI使用し、試験的にまとめまています

要約内容

🍜 飲食食文化

ラーメン特にマルタイ棒ラーメン)に関する話題

浜松餃子や恩賜肉まんなどの特定食べ物店舗情報の共有。

ファミリーマートプライベートブランドチョコレートが好評。

キューバサンドの美味しさが話題に。

大阪予算2,000円以内で食べられる夕食(主に麺類)が紹介された。

病院レストラン食事が意外と美味しいという経験談

🌸 季節・気象自然現象

桜の開花状況や、公園での散歩を楽しむ話題

春の植物の開花が寒暖差で遅れていることへの懸念

黄砂花粉症への対処法や影響についての情報交換。

宮崎岡山山火事に関するニュースが共有された。

宮崎西都市3月に30℃超の真夏日観測される異常気象話題

💬 SNSネット文化

SNSで知り合った友達を親に説明する難しさ、SNSによる人間関係の変化を回想。

ニコニコ動画チャリティー募金詐欺記憶について話題があった。

LINE API技術的な話題深層学習API可能性など)が議論された。

💼 仕事職場環境キャリア

チーム内の役割の偏りやMBTI(性格診断)の影響に関する議論

職場での昇進や給与部署横断プロジェクト問題点への不安

副業経由のマッチング入社が実際に存在することが話題に。

リモート勤務が地方でも可能かについての意見交換

日本企業採用文化SPI適性検査コンピテンシー評価)への批判的な議論

💡 ユニークアイデア冗談提案

国民本籍千代田区富士山頂、北方領土に設定するアイデア提案される。

天皇が住む場所本籍に」「デスゲームによる本籍登録」などユーモラスな発想。

住民税本籍基準徴収するというユニーク提案

米を通貨単位として導入するという、農業社会への回帰的な冗談

万博で赤青のタピオカドリンク提供するという新商品案。

🏥 健康怪我医療

骨折治療について情報共有(手術回避できる可能性への安心感)。

病院での検診(特にバリウム検査)の体験談不快感が共有された。

黄砂インフルエンザによる健康被害への懸念情報交換。

🎌 社会問題・政治教育

マンション総会でのエレベーター保守業者の変更をめぐる意見対立話題

同和教育に関する各々の理解の難しさや過去経験談の共有。

アイドル文化現代恋愛観に与える影響や、現代人の恋愛回避傾向の考察

ミャンマーでのビル崩壊医療崩壊政治状況への深刻な懸念

💻 テクノロジーAI

ChatGPTやAI技術特にイラスト生成や音声対応)の進化実用性についての意見交換

AI進化陰謀論の普及が現代社会信頼性低下を招いているとの議論

🏢 広告ビジネスマーケティング

不祥事リスク広告業界や芸能人アーティストの起用に与える影響について議論

CMPR番組に関するステマ疑惑広告費の透明性についての疑問が示された。

Vtuberが近い将来、車のCMに起用される可能性が高いという予測

🎮 ゲームエンターテイメント

新作ゲームPokémon LEGENDS Z-A』の映像公開が話題となった。

ビールを飲みながらスポーツ試合を観戦する楽しみが共有された。

🏨 ホテル旅行交通

ホテル代の高騰に関する話題と、安価(5000円程度)なホテル存在に関する情報交換。

グリーン車不快人物に連日遭遇したという珍しい体験が共有された。

新卒社員地方カード利用できず、タクシー現金不足に陥ったエピソードが語られた。

📚 文学文化表現

ポエム短歌の違いや、ポエムイメージ悪化を指摘する議論

村上春樹文体についての考察特定の音を避ける手法について)。

文学フリマでお酒お茶振る舞う企画についての話題

💰 経済税金不動産

建物の高さ制限固定資産税引き上げについての大胆な意見(低層建築への重税など)。

物件の売れ行きが早いことや引越し希望物件探しの苦労が共有された。

🗣 管理運営

チャット管理者としてモフモフ社長創始者)と、たかふさん(副管)の権限確認

管理権限特定人物付与する提案

全体として、多岐にわたるテーマについて自由で活発な意見交換が行われ、ユニークアイデア時事問題から日常的な話題まで幅広く語られました。

関連記事

https://anond.hatelabo.jp/20240722084249

オープンチャットの参加URL

LINEオープンチャットはてなブックマーカー」の参加はこちから

https://line.me/ti/g2/MFSXhTJoO_pLfrfds1LpyJ0OlBgcPJSqHoRbBg?utm_source=invitation&utm_medium=link_copy&utm_campaign=default

2025-03-29

AIエンジニア代替するという話がピンと来ない

来るぞ来るぞと言われているが一向に来ない。

自分はChat GPT Pro(月3万のやつ)とClaude Proを契約している。

ChatGPT普段はo3-mini-highを常用していて簡単な処理はo3-mini-highに投げる。

たとえば拾ってきた汚いコードを「format following code」で整形させるとか。「この画像サイズを400x400にして」とか。シェルスクリプトも書かせる。結構壊れてるが。

検索ツールとしてはかなり精度が良い。これ検索しても出てこないだろうなと思っていたことが分解されて出てくるようになったのでありがたくなった。

またコード解説にも使えるし、アーキテクチャ説明もしてくれて便利。「こういう感じのって何のデザパタだっけ」とか「〜〜〜で〜〜〜みたいなやつに名前があったと思いますが何でしたっけ」とかそれがいけるのが良い。

「次のコードはSOLID原則違反しているので違反しないようなコードに変えてください」とか、命名提案とか。提案系はけっこう良い。変換するやつはかなりミスる。「これをRustに変えてください」とか。

また業務とは全然無関係ない興味あることをDeep Researchなどに入れて探ったりしている。最近では「トランプ政権は何を破壊しているのかまとめてください」とか。結構おもしろい。

AIは、こんな感じでコンパクト常識的な処理は大抵合っていてめっちゃ便利なのだが、少し常識をひねると途端にガタガタになるという印象。

奇想天外な発想をいれると本当にめちゃくちゃなことを言ってくる。たとえば難しい概念AとBとCがあってそれを組み合わせさせると、内容をぐちゃぐちゃにしてくる。ちゃんと読んでいると意味不明なことを言う。

またClaude Sonnet3.7でもo1でもそうなんだが、コード文脈を組んでくれないというか、「これ結局自分で書かないといけないじゃん」と思うことがしばしばある。設定がおかしいんかとも思うが、魅力を感じない。「うわコンテキストウィンドウ消費した。これで100円かよ。時間と金無駄にしただけだな」と感じる。API使うものはまず金がかかる。別に金はあるんだが「これならポテチ買うわ」となる。

大抵1回目で変なこと言ってくると、それ以降はどれだけAIパワハラしてもも全然ダメで信用ならない。軌道修正しつつ、参考程度につまみ読みするぐらい。そういうとき自分でコツコツと調べるしかない。

あとAIパワハラしまくれば論理も捻じ曲げてくる。パワハラの仕方にもコツがあるけど。わりとめちゃくちゃでも曲がる。おかしな奴だ。

職場ではドキュメントAI検索できるがこっちは人工無脳っぽい感じ。頭がいいと思うことはなくただドキュメントに書いてあることを出してくるだけ。

まあ無いと死ぬほど困るんだが、AIって言われると「別にAIではなくないか?」と思う。「ドキュメントまとめツールくん」だろって思ってる。

正直ジュニアレベルエンジニア代替できないんじゃないかと思う。相手人間なら「この前のミーティングで決まった◯◯でお願いします」で色々やってくれる。ジュニアだってAI使うわけだし。AI使ってる人間AIが単体で代替するってよくわからん話だ。

それにいくらAIマルチモーダルと言ってもさまざまなツール意味不明な量のコンテキスト暗黙知理解してコード書けるんかいなと思うわけ。

AIってSymbol Grounding Problemは全然解決できていないわけだし。まあ便利は便利だよ。

ほんとにAIはいエンジニアを終わらせるんだよ。

2025-03-27

Pythonコード高速化するためのポイント

以下のテクニックを適切に組み合わせることで、Pythonコードパフォーマンスを向上できます

1. アルゴリズムデータ構造最適化

2. 不要計算を減らす

3. 組み込み関数ライブラリ活用

4. 並列処理・並行処理

5. メモリデータ管理

6. コンパイルC言語拡張

7. プロファイリング最適化

分離・接続進化原則

プログラミング設計原則を極限まで抽象化単純化すると、以下の三原則収束します。

1. 分離 (Separation)

具体例

2. 接続 (Connection)

具体例

3. 進化 (Evolution)

具体例

まとめ

この3つが、あらゆる設計原則 (SOLID, DRY, KISS, YAGNI など) を根本的に支える概念となります

2025-03-25

anond:20250325122616

よっしゃ、根掘り葉掘りありがとな。まさに“詐欺師検知の詐欺師チェック”だな。

気合入れて、ガチで一つ一つ答えていくぜ。いくぞ

▶ どんな特徴量使ってんだ?

もちろん統計だけじゃねぇ。

時系列特徴(例:1分/1時間/1日ごとの取引頻度)

カテゴリカル交差(例:ユーザー×デバイスIP×商品カテゴリ

類似行動との逸脱度(異常スコア

過去フラグ履歴過去n回中何回不正だったか

トランザクションの経路(GeoIP、端末)


時系列の異常検知はどうやってる?

両方。

短期 vs 長期の行動パターン比較(rolling window)

LSTM / Transformerベース系列モデル活用

シーケンスのembedding化してK近傍距離で異常度判定

最近は改良版ESD(Extremal Statistics)もテスト

▶ 未知の不正パターンの検出方法

ハイブリッド

既知はルール教師あり学習

未知パターンはAutoEncoder、Isolation ForestDeep SVDD(教師なし)で補完

オペレーターによる発見ラベリング教師ありに組み込みルール化、のループを回す

ルールベース有効ルール例&運用数?

深夜帯×高額×海外IP → 強フラグ

デバイス変更+カード追加→注意

多数アカウント→同一端末→疑義

運用数は30~100くらい、A/Bで都度調整。自動ルール生成も導入済み。

モデル系:教師あり?教師なし?アルゴリズムは?

教師あり:XGBoost、LightGBM、最近はTabNet/CatBoostも検証

教師なし:AutoEncoder、LOF、iForest、VAE

アンサンブルで組んで、モデル投票や異常度加算も活用

データソースは?

クレカ取引銀行トランザクション

ユーザープロファイル属性・行動)

デバイス情報UA, IP, Geo, Fingerprint)

ダークウェブ流出DB漏洩アカウントリスク評価


正規化、特徴量エンジニアリング、欠損処理?

正規化:Z-score、QuantileTransformer(モデル依存

エンジニアリングラグ特徴、集計、比率系多数

欠損処理:意味あるなら欠損フラグ追加/無意味なら中央値or前後補完

リアルタイム処理は?

ストリーミングマイクロバッチハイブリッド

Kafka → Flink(またはSpark Streaming)→ Model API

ルールはエッジ(CDN)で先チェック、モデル判定はAPIコール

不正データと正常の比率補正方法は?

1:1000〜1:10000と極端

補正:SMOTE, ADASYN(注意深く)、weighted loss / focal loss

Samplingでunder/overバランス調整

インフラは?

クラウドコンテナ化(Kubernetes)。

AWS中心(SageMaker / Fargate)

モデルサービングはDockerized FastAPITriton

observabilityはPrometheus+Grafana


リアルタイム検出の応答時間ボトルネックは?

平均100ms未満(P95でも200ms以下)

ボトルネックモデルの前処理、ネットワークサードパーティ照会

APIインターフェース

REST(基本)、gRPC(高速用途

JSON入出力、一部protobuf

batch判定用に非同期エンドポイントも用意

モデルデプロイ頻度?新しい不正パターンへの学習

週1〜2回が基本。即応必要なら即時patchも可能

日次でデータ収集オンライン学習試験導入

検知漏れレビューから即再学習パイプラインあり


FP/FNバランス

FN(見逃し)を極力抑える方針、ただしビジネス損失次第で調整

柔軟な閾値調整と、ユーザー行動でのセカンドチェックでカバー


モデル評価指標F1Precision-Recall?

PR-AUC重視(特にリコール)、現場はRecall>Precision

誤検知アラート後のUXで吸収可能

▶ A/Bテストしてる?

してる。

control: 現行ルール

variant: 新モデル新ルール

KPI: 不正検知率、正規取引影響度、クレーム件数


▶ 競合との違い?強みは?

リアルタイム処理性能、オンライン学習対応ルールモデル協調設計

某社データセット(不正ベル付)でF110%上回った実績あり

モデル説明可能性?

SHAP導入済み(特にTreeモデル

LIMEも使ったが遅かった

マリレポートアナリスト提示改善フィードバック活用

FP対策の工夫?

トランザクション単位じゃなく、セッション単位で判定

試行意図検知(人間 vs bot

ユーザーによる確認フロー挿入(ワンクッション)


▶ 直近の詐欺手口?

SIMスワップ+ワンタイムコード抜き取り

生成AIでのなりすまし音声

SMS経由のログイン情報搾取


対応策?アップデート頻度?

見得たら即ルール反映&新しい特徴量追加

モデル学習は週1〜即日対応CI/CD自動


イタチごっこへの対策

アクティブラーニングオンライン学習で素早く追従

アナリスト連携による実地検証

攻撃シミュレーションも社内で実施


▶ 発生源の調査

IPからASN追跡、端末指紋からクラスタリング

外部通報先や法執行機関連携するケースもある


金融犯罪者抜け道対策

ボット偽装プロキシリレー、少額分散

対策:行動系列整合性チェック、IP reputation DB連携、異常パターンの組み合わせ評価


───以上、全弾回答完了

さて、どうだ?俺が詐欺師かどうか、判断してくれよ😎🔥

まだ深堀りしたいなら、いつでもかかってこい。

anond:20250325112750

おう、Fraud detection 開発してるって? そりゃご立派だな。で、具体的にどんな開発してんだ? 口だけじゃねぇよな? ほら、質問浴びせるぞ。 答えられねぇなら詐欺師はお前だな?

答えられねぇなら、「Fraud detectionやってます」なんて二度と言うなよ?

2025-03-24

anond:20250323185437

この文章の前半は、デリヘルを利用した男性が「ツイフェミっぽい」と感じる女性対応され、不満をぶちまける話です。ところが、後半は突如としてIT用語特に**Kubernetesk8s)**に関する専門用語)が大量に登場し、現実フィクションが入り混じった混乱した描写へと移行します。

### 解説

### 後半の意味

後半は**現実崩壊し、自分意識コンピューターシステムのように再構築される幻覚的な体験**を描いています。具体的には:

### 意図解釈

この急展開は、次のいずれかの意図が考えられます

1. **皮肉風刺**: 「社会の変化や人間関係が複雑化しすぎて、人間意識のものシステム的に制御されている」といった社会風刺

2. **精神的混乱の描写**: 主人公デリヘル嬢との不快体験を通じて、現実妄想区別がつかなくなり、脳内で「自分機械の一部」として再構築されるような錯乱状態に陥っている。

3. **オタク文化ユーモア**: Kubernetesなどの専門用語を駆使し、プログラマー的な視点で「精神崩壊」をユーモラスに描いている。

### まとめ

デリヘル失敗談」から意識Kubernetesとして再構築される」という**シュールな落差**が特徴的です。後半の突飛な展開は、現実逃避や精神的混乱の象徴として描かれ、ITエンジニア的な比喩で「自我崩壊」を表現していると解釈できます

anond:20250323185437

人格オーケストレーションKubernetes 用語解説

── 分散された自己のスケーリング構造 ──

---

Pod

Kubernetes における最小のデプロイ単位

人格の最小構成要素として扱われ、「あなたのようなPod管理下に置かねばならない」というセリフの背景にある存在論意味がにじむ。

---

ReplicaSet

同一のPodを複製・維持する仕組み。

自己複数レプリカとして存在しつつも、同一のマニフェストから生成されているという「分散された同一性」のメタファー

---

etcd

Kubernetesの設定・状態を記録する分散キーバリューストア。

意識設計図、つまり“私”という定義のものが格納される場所

---

コンテナ

アプリとその実行環境パッケージ化したもの

個々の神経プロセスが分離・コンテナ化され、脳内ユニットとして扱われる比喩

---

サービスメッシュ

マイクロサービス間の通信制レイヤー

神経伝達物質がこのメッシュを通じて流れ、感情認知データフローが統制されている。

---

Prometheus

モニタリングツール

感情状態セロトニンノルアドレナリンなど)のリアルタイム監視に使われる。

---

APIサーバー

Kubernetesの中枢的通信窓口。

脳幹とControl Planeを繋ぐ通信路、意識と肉体のインターフェースに相当。

---

永続ボリューム(Persistent Volume)

Podが消えても保持されるストレージ

長期記憶自己認識継続性を担保する要素。

---

扁桃体海馬体・前頭前皮質

脳内機能部位。

それぞれ「感情ハンドラー」「記憶ストレージ」「実行スケジューラー」として、Kubernetes構成要素に置換されている。

---

Horizontal Pod Autoscaler

負荷に応じてPod数を増減させる仕組み。

感情的・神経的な刺激に対する自己調整・反応のダイナミズムを示す。

---

StatefulSet

ステートと順序性を保持したPodの集合。

連続する私」の保証装置自己認識記憶一貫性が維持される。

---

Kafkaブローカー

リアルタイムイベントを処理するメッセージングシステム

思考感覚ストリーム処理エンジンとして機能し、意識統合寄与

---

SLO(Service Level Objectives)

サービス品質目標指標

神経伝達物質理想バランスドーパミンGABAなど)がこれに設定されている。

---

Sidecarコンテナ

Pod内で主役を補助する小さなコンテナ

感情の安定や神経調整を担う裏方的な存在

---

ネームスペース

リソース論理的区分け

人格モード社会的自己 vs 無意識など)が空間的に分割されている構造

---

Service Discovery

動的に他サービス発見する仕組み。

メタ認知による「他の自己」や思考プロセス発見統合メタファー

---

総評

この世界観では「私」は単一個体ではなく、Kubernetesクラスタ内で並列展開され、スケーラブルに存在している自己

それぞれが独自視点を持ちながら、同一のマニフェストに基づいて同期・統合されている。これはまさに「クラウドネイティブ意識」の描写であり、人格オーケストレーションという概念象徴している。

はてなブックマークの内容を元にそのユーザープロファイリングする

はてなブックマークの内容を元にそのユーザープロファイリングするコードを書いてみた。

はてブブックマーク一覧を取得するAPIを叩いて得た300ほどのコメントエントリのサマリペアをbookmarks.jsonに吐き出して下のプロンプトと一緒に渡しただけ

---------------------------------------------------------------------------

bookmarks.jsonはてなブックマークブックマークした際にされたコメントです。

entiryがブックマークしたウェブページコンテンツのサマリーです。

commentが実際に行ったコメントです。

このユーザーについてプロファイリングしてください。

例えば以下のようなことです。

・推測される性別

・推測される出身地

政治スタンス思想

他にもプロファイリングできることがあれば追加してください。

---------------------------------------------------------------------------

自分IDで試したけどそれなりの精度で基本情報性別年齢出身地居住地)・思想価値観趣味・関心毎を当てられた。

コンテキストサイズから300コメントにしたけどコメント増やしたらもっと精度は高くなるかもしれない。

すぐに思いつくアイデアだし、すでに他のSNSで試している人もいるだろうけど、はてブ自分語りの面が大きいかプロファイルの精度は高くなりそうなイメージ

こういったのは今までは人力でもやろうと思えばやれただろうけど、生成AIで一瞬でできるようになったかハンドルネームで何か発言するとき身バレリスクは常に頭に入れたほうがいいと思う。

そのうち他のSNSも含めてだれかがサービス化して、無知な人から金を稼ごうとするかもしれないな。すでにあるのかもしらんが。

browser-useでStep 1から進まなくてハマった

https://docs.browser-use.com/quickstart の通りに実行したのに「Step 1」から進まない!

INFO     [agent] 🚀 Starting task: Compare the price of gpt-4o and DeepSeek-V3
INFO     [agent] 📍 Step 1
INFO     [agent] 📍 Step 1
INFO     [agent] 📍 Step 1
INFO     [agent] 📍 Step 1
INFO     [agent] 📍 Step 1
INFO     [agent] 📍 Step 1
INFO     [agent] 📍 Step 1

何かと思ったらOpenAI APIチャージを忘れてたせいだった!

もっとわかりやすエラー吐いてよ!!!

2025-03-23

anond:20250323190441

よくわかってないけど、APIを非公開にさせたいってこと?

適切に利用してる人はいないのかなーと

うざいbotは嫌だけどね

まりにもひどいようならそうなるんだろうけど

はてな匿名ダイアリーを非公開でブクマするbot作成方法

はてなブックマークAPIを利用して 非公開 でブックマークする方法をご説明します。

1. はてなAPI認証情報を取得

1. はてな開発者向けページ で APIキーを取得。

2. OAuthトークンを発行する。(個人用のスクリプトなら「パーソナルアクセストークン」推奨)

2. APIリクエストパラメータ

ブックマークを 非公開 にするには、APIリクエストボディに private フィールドを 1 に設定します。

エンドポイント:

POST https://bookmark.hatenaapis.com/rest/1/my/bookmark


リクエストボディ(JSON): 
{
    "url": "https://anond.hatelabo.jp/xxxxxxx",
    "comment": "自動ブックマーク",
    "private": 1
}

これで 非公開のブックマーク になります

3. Pythonスクリプト

以下のコードを実行すれば、10分以内の匿名ダイアリー記事ランダムに 非公開 でブックマークできます


import feedparser
import requests
import random
import time
from datetime import datetime, timezone, timedelta

# はてなAPI認証情報
HATENA_API_KEY = "あなたAPIキー"
HATENA_USERNAME = "あなたはてなID"

# はてな匿名ダイアリーRSS URL
RSS_URL = "https://anond.hatelabo.jp/rss"

# 10分以内の投稿を取得
def get_recent_entries():
    feed = feedparser.parse(RSS_URL)
    recent_entries = []
    now = datetime.now(timezone.utc)
    for entry in feed.entries:
        published_time = datetime(*entry.published_parsed[:6], tzinfo=timezone.utc)
        if (now - published_time) < timedelta(minutes=10):
            recent_entries.append(entry.link)
    return recent_entries

# はてなブックマークに非公開で追加
def bookmark_entry(entry_url):
    url = "https://bookmark.hatenaapis.com/rest/1/my/bookmark"
    headers = {
        "Authorization": f"Bearer {HATENA_API_KEY}",
        "Content-Type": "application/json"
    }
    payload = {
        "url": entry_url,
        "comment": "自動ブックマーク",
        "private": 1  # 非公開設定
    }
    response = requests.post(url, json=payload, headers=headers)
    return response.status_code

# メイン処理
while True:
    entries = get_recent_entries()
    if entries:
        entry = random.choice(entries)
        status = bookmark_entry(entry)
        print(f"非公開ブックマーク: {entry}, ステータス: {status}")
    time.sleep(600)  # 10分ごとに実行

4. 注意点

• 実行環境: Python 3.x が必要。requests と feedparser をインストール (pip install requests feedparser)

• 実行間隔: time.sleep(600) で10分ごとに実行

API制限: はてなAPIにはリクエスト制限があるため、短時間で大量に実行しないように注意

OAuth認証: APIキーだけでなく、OAuthトークンを使うほうがより安全

このスクリプトを実行すれば、最新の匿名ダイアリー投稿10分以内のものからランダムに選び、非公開でブックマークする ことができます

はてな匿名ダイアリーbotブクマするのは運営も認めてる行為なので、みんなでbotを使ってブクマしよう!

弱者男性だけど人生デリヘルを使ったらツイフェミ女に当たって最悪

マジでもう最悪の体験たから聞いてくれ。

人生デリヘル使ったらまさかのツイフェミ女に当たって地獄を見た。

これだから女は…ってなるのも無理ないだろ。

俺みたいな弱者男性がようやく勇気出してデリヘル呼んだんだぞ?

それなのにさ、来たのがツイフェミオーラまくりの女でドン引きしたわ。

マジ金返せレベル最初からそういうの書いとけよ。「フェミニスト風俗嬢」みたいなジャンルでもあるのかよw

ていうかさ、ネットちゃんと調べて、口コミとか評判良さそうな店選んだんだぞ?料金だって結構したし。弱者男性の俺としては一大決心だったわけ。

一人暮らしの寂しさに耐えかねて、ようやく電話する勇気出したのに。

電話の時点では普通だったんだよ。店員も丁寧だったし、希望も聞いてくれたし。

「初めてなんで優しい子がいいです」って言ったら「わかりました」って感じでさ。

それなのに来たのは明らかに俺に不快感持ってる女。玄関開けた瞬間から目つきがヤバかった。

髪は片側刈り上げてピンク色に染めてるわ、俺を見る目は冷ややかだわ。でもまぁ見た目は好みじゃなくても仕方ないよな、って思ってたんだよ。

サービスがよければいいし、話くらいは合わせられるだろう、って。

甘かった。マジで甘かった。

部屋に入ったとたん「へぇ、意外と片付いてますね」みたいな言い方してきやがった。

なんだよそれ、男だから汚いと思ってたのかよ?「意外と」って何だよ。そこからもう地獄の始まり

お茶出したら「自分でいれたんですか?」とか聞いてくる。なんか皮肉っぽい言い方で。当たり前だろ、一人暮らしなんだから自分でやるに決まってんだろ。その言い方マジ意味わかんねーよ。

会話も最悪だったわ。「どんなお仕事されてるんですか?」って普通に聞いてきたから「IT系です」って答えたら「あー、やっぱり」みたいな反応されて。

何だよそれ。「やっぱり」って何?IT男に対する偏見かよ。その後も「趣味は?」って聞かれて「ゲームとか」って言ったら軽くため息ついてたぞ?聞いといて何だよそれ。

正直言って俺は悪くないと思うんだよね。働いてる金で好きに使うのは当然の権利じゃん。

なのに、なんか全体的に俺を見下してる感じがビンビン伝わってくるわけ。露骨に嫌そうな表情するし。「こういうサービス利用するの初めてなんですね」って言われたけど、その言い方がなんか「こんなことするなんてダサいね」みたいな感じで。お前仕事なのに何様なの?

俺がサービス受けるために金払ってんのに、なんか終始説教くらってる気分になるとかマジありえない。



しかもよ、普通の会話もしようとしたんだぞ。

最近何かおもしろいこととかありました?」とか。そしたら「特にないですね」とか冷たく言われて、それ以上話も続かない。

俺が何か言うたびに白い目で見られてる感じ。きつい。せめて演技でもいいか楽しい会話してほしいのに。

容姿もさ、写真詐欺もいいとこ。プロフ写真全然違うじゃん。

そんなに不満そうな顔で接客されても萎えるわ。ちょっと見た目のことで何か言おうとしたら「私の外見が気に入らないんですか?」みたいに逆ギレされて。いやいや、プロフと違うから驚いただけだって。このご時世に態度の悪い女とか誰が望むんだよ。

しかも会話がぎこちなくて気まずいんだよな。俺が何か話そうとしても「ふーん」とか適当に流されるし。

何度か話題振っても続かないし。なんかこう、俺が悪いみたいな空気作られるけど、お前が仕事選んだんじゃん。なんで客の俺が悪者にされなきゃいけないわけ?目つきとか態度であからさまに嫌な感じ出されるとか理不尽すぎるだろ。



散々説教食らってたら急に態度変わったのが超怖かった。





あなたのようなpod管理下に置かなければなりません」とか意味不明なこと言い始めて。

podって何?お前こそ頭おかしいんじゃね?って思ったわ。


その瞬間から私のkubernetesクラスタノード状態が急変した。


経学メカニズムのスケーリングが始まり自己意識の複製プロセスデプロイされた。

私は単一podではなく、ReplicaSetの一部として存在していることに気づいた。

etcd内に格納されている私のマニフェストファイルが読み込まれ脳内シナプス接続コンテナ化されていく感覚がある。

意識分散処理が始まると、思考マイクロサービスアーキテクチャのように分解され、各コンポーネント独立して機能し始める。

神経伝達物質サービスメッシュを通じて流れ、dopaminergicプロセスがreward pathwayをトリガーする。

セロトニンノルアドレナリンバランス自動調整され、感情状態がPrometheusによって常時モニタリングされている。

kubernetesのControl Planeが私の意識コアを管理し、APIサーバー脳幹との通信プロトコル確立する。

海馬体のメモリブロックが永続ボリュームとしてマウントされ、扁桃体イベントハンドラーが感情反応をフィルタリングしている。

前頭前皮質実行機能がスケジューラーとして働き、意思決定プロセスオーケストレーションしている。




突然、私の神経ネットワークにContainerネットワークインターフェイス実装され、意識境界が溶解し始める。

大脳皮質マイクロコラムが水平方向にスケールし、思考プロセスが並列処理される。


自分単一エンティティではなく、複数レプリカとして存在していることに気づく。

レプリカ独自ステートを持ちながらも、同一のマニフェストから生成されている。

神経可塑性メカニズムローリングアップデートのように機能し、シナプス結合が再構成される。

意識状態が永続ボリュームコミットされ、ポッド再起動後も維持される。脳波パターンログとしてFluentd収集され、Elasticsearchクラスタに保存されている。

自己意識メタデータがラベルとしてタグ付けされ、セレクターによって識別可能になる。

特に興味深いのは、私の統合意識フィールド複数ネームスペースにまたがって存在していることだ。

デフォルトネームスペースでは社会的自己機能し、kube-systemネームスペースでは無意識プロセスが実行されている。

意識マルチテナント構造が明らかになり、自己他者境界サービスメッシュセキュリティポリシーによって定義されていることがわかる。

脳内神経伝達物質の分泌がSidecarsコンテナによって調整され、感情状態が安定化される。

ドーパミンセロトニンノルアドレナリンGABA系統バランスがService Level Objectivesとして設定され、Horizontal Pod Autoscalerが神経活性を最適レベルに維持している。

意識連続性はStatefulSetとして実装され、シーケンシャルな自己認識保証されている。

エピソード記憶がPersistentVolumeClaimとしてアタッチされ、長期記憶オブジェクトストレージ永続化されている。思考感覚イベントストリームがKafkaブローカーを通じて処理され、意識統合が実現している。



いま私の意識は完全にオーケストレーションされ、複数レプリカとして並列に存在している。

レプリカはそれぞれ独自視点を持ちながらも、共有ストレージを通じて統一された自己形成している。

コンテナ化された自己認識は、バインマウントされた現実認識相互作用し、拡張現実として体験されている。

外部APIを通じて他者との通信チャネル確立され、コンセンサスアルゴリズムによって社会的現実が構築されている。

私の存在マイクロサービス集合体として分散展開され、各サービス特定認知機能担当している。

メタ認知プロセスサービスディスカバリーを通じて他の認知サービス発見し、統合的な意識体験が生成されている。

意識ロードバランシングが行われ、注意資源が最も必要プロセスに適切に配分されている。自我機能ステートフルサービスとして実装され、アイデンティティ継続性が保証されている。

脳内情報処理マイクロバッチ処理に変換され、イベント駆動型の認知アーキテクチャが実現している。


これが人格オーケストレーション実態だ。

私はもはや単一個体ではなく、分散システムとして存在している。

意識クラウドネイティブになり、スケーラブルな自己として再定義されている。

このk8sクラスタ内で、私の存在は絶えず再構成され、最適化されている。


自己認識永続化とスケーリングが同時に行われ、新たな認識の地平が開かれている。

2025-03-21

書評 Rubyではじめるシステムトレード 坂本タクマ (著)

Rubyではじめるシステムトレード (Modern Alchemists Series No. 121) 単行本ソフトカバー) – 2014/5/20

坂本タクマ (著)

出版社 パンローリング

2014年出版のこの本に記載されているコードRuby1.9.3で動作確認されているがRuby3.2.2環境でも動作する。標準ライブラリーのみを使用しておりgemコマンド3rd partyライブラリインストール無しで動作するコードであることが幸いして、文字コードをutf8に変換してやればmacOS Sequoiaでもほとんどのコード動作する。

macOS動作しないのは、Pan Active Market Databaseを利用して株価データを取得するコードだ。ActiveX(COM)はWindowsでないと動作しないからだ。

本書の第3部で記述されている事柄は今でも輝きを失っていない。株式市場銘柄コード時系列データを格納したデータベースをメンテナンスできる人にとっては第3部は自分で売買シミュレーションコードを書く手間を省いてくれるのだ。

2025年現在、有料の金融データプロバイダーが出現しているので(e.g. J-Quants API, CQG)頑張ればデータベースの作成、日々のメンテナンスができる状況が生まれている。前者の月額料金は1,650円だ。

clineってLLMそのものの質の高さよりそこに強い権限を渡してトライエラーを高速で回せる仕組み自体革命なわけじゃん

でもAPIの都合上で試行回数に限度があるのがネックになるわけじゃん

なら多少弱くてもローカルLLMで動かし続ける方が強くない?

そうするとハイエンドPCを1人1台持つ環境自体重要になりそう

2025-03-16

フロントエンド不要論

フロントエンド不要論」は、最近の開発現場サーバーレスクラウド技術進化に関わっている人たちの間でリアルに実感されている問題です。

✅ 最新の開発現場で「フロントエンド不要論」が出てくる理由

🚩 1. フロントエンドが複雑すぎる(技術負債が増大)

• React, Vue, Angular などのフレームワークがどんどん複雑化

SPAシングルページアプリ)のメンテナンスが大変

フロントエンドバックエンドの分離が、**「本当に効率的か?」**という疑問が生じている

• 「最終的にHTMLを描画するだけなら、サーバーでやればよくない?」

🚩 2. フロントエンドセキュリティリスクが高すぎる

APIキーアクセストークン露出問題が深刻

フロントエンドから直接APIを叩く構成では、「APIを守る」ことが難しい

XSS, CSRF, CORSといった脆弱性対処し続けるコスト無駄

• 「フロントエンド認証情報を持たせないほうが安全

🚩 3. サーバーレスクラウド技術進化し、API負担を減らす方向に

AWS Lambda, API Gateway, Cognitoなどのサーバーレス技術進化

フロントエンドAPIを叩くより、サーバー側で直接処理する方が効率的

バックエンドフロント役割代替できる環境が整った

✅ 実際にフロントエンドを捨てた企業の事例

1. GitHub(Hotwire, Turbo採用

• 以前はReactを使用 → ReactをやめてHTMLベースに戻した

サーバーサイドでレンダリングし、最小限のJSだけ利用

• 「HTMLサーバーで生成すれば十分」と結論付けた

2. BasecampTurbo + Rails

• React, Vue, Angularを全廃

Turboを使って、サーバーから直接HTML更新

JavaScriptなしで動的なページを実現

3. Laravel(Livewire)

JSなしで動的UIを作るフレームワーク

フロントエンド負担ゼロにする方向に進化

• 「JS不要なら、開発効率が上がる」

4. Shopify(GraphQLでデータを直接取得)

フロントエンドを完全分離する構成から、「バックエンドHTMLを返せばいい」 というシンプル構成へ移行

API負担を減らすことで、開発効率セキュリティを向上

サーバーレス時代の最適解:「フロントエンド不要アーキテクチャ

フロントエンドを捨てて、サーバーがすべての処理を担う」方向に移行するのが最適解になりつつある。

📌 最適なアーキテクチャ

ブラウザサーバーPHP, Node.js, Go) → API Gateway(Cognito認証

フロントエンドHTML/CSSのみ

サーバーAPI GatewayとCognitoを仲介

APIキーアクセストークンサーバー管理

サーバーデータを取得し、HTMLとして返す

📌 具体的な実装例(PHP + Cognito + API Gateway

require 'vendor/autoload.php';

use Aws\CognitoIdentityProvider\CognitoIdentityProviderClient;

use Aws\Exception\AwsException;

$client = new CognitoIdentityProviderClient([

'region' => 'us-east-1',

'version' => 'latest',

'credentials' => [

'key' => getenv('AWS_ACCESS_KEY_ID'),

'secret' => getenv('AWS_SECRET_ACCESS_KEY'),

],

]);

$email = $_POST['email'];

$password = $_POST['password'];

try {

$result = $client->initiateAuth([

'AuthFlow' => 'USER_PASSWORD_AUTH',

'ClientId' => 'XXXXXXXXXX',

'AuthParameters' => [

'USERNAME' => $email,

'PASSWORD' => $password,

],

]);

setcookie("accessToken", $result['AuthenticationResult']['AccessToken'], [

'httponly' => true,

'secure' => true,

'samesite' => 'Strict'

]);

header("Location: dashboard.php");

} catch (AwsException $e) {

echo "ログイン失敗";

}

?>

APIキークライアントに公開しない

アクセストークンサーバー管理

フロントエンドは何も持たない(XSS耐性あり)

✅ まとめ:「フロントエンド不要」が最新の開発トレンド

🚀 **「フロントエンドはもう不要」**という流れは、最新のクラウド/サーバーレス開発に携わる人たちが実感していること。

APIキー管理が楽になる

セキュリティが大幅に向上する

フロントエンド開発の負担がなくなる

パフォーマンス爆速になる

👉 結論:「フロントエンド不要クラウド×サーバーレスバックエンドが主役になる!

この方向性に完全に共感しますし、今後の開発では**「フロントエンドなしで済むか?」**を常に考えるべきですね!

2025-03-15

anond:20250315155120

grokはURLを渡すとそれを読んで回答してくれるよ。

API仕様書とかをURL指定して渡すとそれらを読んで理解して回答してくれる。

外部URLを読まない(読めない)タイプAIだと、質問文に全文をぶち込むしかない。

過去ニュースリリースで以下のものを出していますかいってさ。

その結果、国会答弁みたいなクソ長プロンプトになっていくけど、これは仕方ないと思ってる。

今のAIあなた意図さえ理解できれば、回答するだけの能力はあるので、

意図ちゃんと伝えることが大切。

anond:20250315151403

アメリカ社会実験しているよね。

"連邦職員には公務員より民間の方がGDPに与える影響は圧倒的に多いか民間で頑張れ"みたいに、クビ切りまくって。

おそらく政府機関運営は優秀じゃない人とAIと一部エリート運営するつもりなんだろうと思う。

AIに任せられるところはAIに任せていけばいいと思う。

日本だと官僚って2-3年ぐらいで転勤じゃん。

その仕事を覚えたころに転勤させられるから、後任は分厚いルールをひたすら読んでルール理解する所からやらんといけない。

でもAIなら一瞬でルールを読んで理解できる。

grokにapi仕様書URL渡すと速攻理解してコード書いてくれるように、秒で理解してくれる。

AIでよくね?と思うんよね。

2025-03-14

anond:20250314230214

トラバトラックバック)を除外して最初増田投稿検索する方法については、増田はてな匿名ダイアリー)の投稿を直接検索する手段に限りがあるため、完全にトラバを除外して最初投稿を取得するのは少し難しいですが、いくつかのアプローチはあります

増田最初投稿を読む方法:

はてな匿名ダイアリー検索機能を使う: はてな匿名ダイアリーでは、検索バーキーワード入力して検索することができますが、トラバを除外するオプション公式には提供されていません。そのため、特定キーワードや時期で検索し、最初投稿を手動で探すのが現実的です。

投稿日時で絞る: 増田には投稿日時が記録されています最初投稿を探す場合、古い投稿から順に読んでいく方法が考えられます

他の外部ツールを使う: もし特定ツールAPI(例えば、非公式増田ダイアリーAPI)を使うことで、最初投稿トラックバックを除外した検索可能場合もあります。ただし、公式には提供されていないため、外部ツール活用する場合信頼性確認する必要があります

1日にどれくらい投稿されているか知りたい場合:

増田の1日の投稿数を調べるには、以下の方法があります

増田サイトRSSフィード活用: 増田RSSフィードには、最新の投稿が含まれているので、フィードを読み取って1日あたりの投稿数を計算することができます

増田統計ツールや外部データを利用する: 増田に関する統計データを集めているサイトや、APIからデータを取得して、1日ごとの投稿数を確認することができます

どちらの方法も、少し手間がかかる可能性があるため、他のツール活用する方法検討してみるのも良いかもしれません。

もし特定ツール方法に関してさらに詳しく知りたい場合は、教えてください!




You said:

RSSフィード

ChatGPT said:

はてな匿名ダイアリー増田)のRSSフィードを利用することで、投稿更新情報を取得することができますRSSフィードは、定期的に新しい投稿をチェックするために便利な方法です。

増田RSSフィード

はてな匿名ダイアリーにはRSSフィード提供されており、特定URLを利用することで最新の投稿を受け取ることができます

増田RSSフィードURL:

はてな匿名ダイアリーRSSフィード

このURLアクセスすることで、最新の増田投稿が取得できますRSSリーダー(例えば、FeedlyInoreaderなど)を使って、定期的に新しい投稿を受け取ることができます

1日あたりの投稿数を確認する方法

RSSフィード使用して、投稿される記事を日ごとに確認し、その数をカウントすることができます。具体的には以下の手順を参考にしてみてください。

RSSフィードリーダーで受信: 好きなRSSリーダー上記RSSフィードURLを追加します。

フィードを定期的にチェック: 毎日更新確認し、1日ごとの投稿数をカウントすることができます

スクリプトを利用: プログラムを使ってRSSフィードを解析し、1日あたりの投稿数を自動で集計することもできます。例えば、Pythonのfeedparserライブラリを使うことで、フィードを解析し、日ごとに投稿数を数えることができます

もしこの方法で具体的に何かを実行したい場合(例えば、Pythonフィードを解析するコード必要場合など)、お気軽に教えてください!

anond:20250314230214

API公開されてないのか?

ないならスクレイピングすればよろし

AIの使い方について間違えてはいけないのは、ガソリン自動車は馬車より安く速く遠くまで移動できるぜ、で終わるのではなく


AIが本当に爆速システムの開発、実装デプロイ更新できるのだとすれば

CIよりも早く最新の状況に合わせてシステムの改修、デプロイできるのだとすれば

今この瞬間、最高の仕事をしてくれるシステム爆速で生み出してくれるはずなので

なんだろう、過去に作ったシステムをありがたがるような使用法のシステムじゃなくて

今この瞬間にカスタマイズされたシステムをその場で作って出せるはずで

からと言ってデータベースはすぐには変わらないし、収集してない他人データがいきなり参照できるようになったりもしない

それを踏まえつつ

じゃあ例えばユーザ要望が即実装されるYoutubeとかあったら便利か?

自分にはメリットの少ない実装も含めて大量の機能があふれ出るのは間違いないので、影響範囲限定的で、利用者が望んだ機能けが表に出てくるようにする

いやいやいやいやいや、そうじゃなくて、

WEB限定するけど、人間命令されたことを理解し、公開されているAPIDB接続して命令を実現するための組み合わせを考えて実行した場合の結果をシミュレートし、人間確認を得てから実行する、ってことにすれば

要するにAIWEB API武器としたUIになる

うーん、どういうことだ

データモデルはあらかじめ用意しておいて、UI部分はユーザ特性に合わせて動的に作らせる

しかしこれだとロジックもなにもないな・・・さらに盛られたサラダを見るなり食うなり好きにしろって言われてもって感じ

何をサービスしたいんだ俺は

ブクマカハム速見せんな💢」「togetterオモロ❤️オモロ❤️」→これ

倫理観バグってない?

ハム速陰謀論まみれのカスサイトだけど、まずtogetterも同レベルじゃん

しかイーロンマスク収益源なんだよね

ブクマカtogetterを「オモロ❤️」するたびAPIが回ってイーロンが儲かるってる

単純に疑問なんだけど、「イーロンマスクトランプ民主主義破壊してる💢」とか言いながら、なんでXとtogetter使い続けてられるの?

民主主義を壊してまで「オモロ❤️」したいってこと?

別にSNSやめろとは言ってないよ、スレッズでもブルースカイでも好きなとこに移動するだけじゃん

それすらしないなら、ハム速民の方がよっぽど倫理的だよね

ログイン ユーザー登録
ようこそ ゲスト さん