はてなキーワード: autoとは
// ==UserScript==
// @namespace http://tampermonkey.net/
// @version 2026-05-03
// @match https://booklive.jp/search/keyword/keyword/*
// @grant GM_getValue
// @grant GM_setValue
// ==/UserScript==
// ==UserScript==
// @namespace http://tampermonkey.net/
// @version 2026-05-04
// @grant GM_getValue
// @grant GM_setValue
// ==/UserScript==
(function() {
'use strict';
const STORAGE_KEY = 'buttonPosition';
function isMobilePage() {
if (document.querySelector(
'meta[name="apple-mobile-web-app-title"][content="ブックライブ"]'
)) {
return true;
}
return false;
}
const btn = document.createElement('button');
btn.textContent = 'bl-pager下端へ移動';
btn.style.position = 'fixed';
btn.style.zIndex = 99999;
btn.style.opacity = '0.9';
document.body.appendChild(btn);
const saved = GM_getValue(STORAGE_KEY, null);
if (saved && saved.left && saved.top) {
} else {
}
// ---- クリック処理 ----
btn.addEventListener('click', e => {
e.preventDefault();
e.stopPropagation();
return;
}
// ---- ここから変更:PC版は2番目の .bl-pager.page_nav を使う ----
let target;
if (isMobilePage()) {
console.log('スマホ版として処理');
target = document.querySelector(
'.bk_pageing.section_content.bl-pager.clearfix'
);
} else {
console.log('PC版として処理');
const targets = document.querySelectorAll('.bl-pager.page_nav');
// 2番目を使用
target = targets[1];
}
if (!target) {
alert('対象の bl-pager が見つかりません');
return;
}
// ---- ここまで変更:PC版は2番目の .bl-pager.page_nav を使う ----
const rect = target.getBoundingClientRect();
// 要素下端のページ全体基準座標
const absoluteBottom = rect.bottom + window.scrollY;
// 要素下端をウィンドウ下端へ一致
const destination = absoluteBottom - window.innerHeight;
window.scrollTo({
behavior: 'auto'
});
});
// ---- ドラッグ処理 ----
let dragging = false;
let startX = 0;
let startY = 0;
let offsetX = 0;
let offsetY = 0;
btn.addEventListener('mousedown', e => {
dragging = true;
startX = e.clientX;
startY = e.clientY;
const rect = btn.getBoundingClientRect();
offsetX = e.clientX - rect.left;
offsetY = e.clientY - rect.top;
e.preventDefault();
});
document.addEventListener('mousemove', e => {
if (!dragging) return;
if (
Math.abs(e.clientX - startX) > 5 ||
Math.abs(e.clientY - startY) > 5
) {
}
btn.style.left = `${e.clientX - offsetX}px`;
btn.style.top = `${e.clientY - offsetY}px`;
}
});
document.addEventListener('mouseup', () => {
if (!dragging) return;
dragging = false;
GM_setValue(STORAGE_KEY, {
});
}
});
})();
まともに指示すればAIはこれぐらいお手の物に出せるようになったな。
手動でスクロールしてるとつい事故って下の方のランダム表示のおすすめ作品欄が目に入る位置までスクロールしちゃって、ランダムだから後で気になったとしてもまた見れるとは限らないからとスクショが増える羽目になっていたのが、これで防げるようになった。
dorawiiより
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA512 https://anond.hatelabo.jp/20260504175957# -----BEGIN PGP SIGNATURE----- iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCafhgDQAKCRBwMdsubs4+ SDc1AQCfvf159m/85ngaE1SU7DnOiPC03RG4l9qI2Ce8Bp0j7QEAzIp52/FQfpXI vmRTMM52g1VEwry0pmg+4p0QQZlkEAk= =FTvE -----END PGP SIGNATURE-----
AIの進化が早すぎて、「この時期はこれくらいの性能だった」という記録が残りづらい。
だから、今現在のユーザー目線の印象や用途をメモしておくと後々面白いんじゃないか、と思って書いてみる。
まず、今の個人的な3大LLMの印象をざっくりまとめると、こんな感じ。
いずれも月額20ドルクラスの個人向け有償プランで使ってます(GeminiだけはGoogle WorkspaceのBusinessプランも併用)。あと、仕事はデスクワークだけどIT系ではなく、コーディングなどは効率化のためにやっている程度。
現状、一番使用頻度が高いのはClaude。
ただClaudeを普通のチャットで使うことはほぼ無くて、基本的にVS Code上のClaude Codeで既存のSkillや「これはSkill化できそうだな」ってものをやってもらうことがほとんど。本格的なコーディングもたまーに頼むし作ってほしいものもいろいろあるんだけど、どうしても成果物のチェックに労力を使うしClaude側のトークンもそれなりに消費するのでなかなか依頼しづらいというのが正直なところ。あと、Claude in Excelも優秀で頼りになってる(パワポのほうはまだ試す機会がない。Word版もちょうどリリースされたけどなんかうまくインストールできなかった)。
なお、モデル選択は「普段はSonnetで、重ためのタスクをしてもらうときの取っかかりのPlan ModeだけはOpus」っていうのがここしばらくの定番だったけど、最近はOpus率が高くなってる。Sonnetを使うのはほんとに簡単な作業か、あとは成果物の質が安定しやすいSkillをやってもらうときくらい。ほんとはHaikuがそういう立ち位置になってほしいんだけど……。なお、EffortやThinkingは雰囲気で選んでる。
いずれにせよ、Claudeは喋り相手というより「具体的なタスクを振る相手」、という位置付け。今はProアカウントで使ってるけど、ちょっと頼り過ぎるとすぐ使用量のリミットに達してしまうのでほんとはMaxにしたい。ただ月100ドルを出すほどかっていうと、うーん。
チャットの相手は、今はGoogle Workspace上のGemini 3.1 Proがメイン。
なんといってもWorkspace版のGeminiだとデフォルトで学習対象にならないのがでかくて、仕事絡みのデリケートな話題でも気軽に訊けるのが良い。ただ、「Googleならではのリサーチ力が強み」みたいな紹介をされることがあるけど、むしろそこはGeminiの短所だと思う。学習済の話題は的確に答えてくれるけど、最新の話題になると急にポンコツ化してしまうしChatGPTよりも全然ウェブ検索をしてくれないイメージ(言えばやってくれるけどそれでもなんかイマイチ)。なお、個人アカウントでGoogle AI Proにも登録してるけど、そっちはGoogleドライブが主な目的でGeminiはほとんど使ってない。
あと、チャットは優秀なんだけど、GoogleスプレッドシートなどのGoogleの各種アプリ内で呼び出したときはあまり頼りにならない。他アプリとの連携で役に立ってるのはGmailのメール書きくらいかなあ。Google Workspace Studioも、「これをうまく使えばAPIいらないんじゃないの?」と期待してたけど、いざ使ってみると(無料でAPIを使える)Gemini 2.5 Flashよりも明らかに性能が劣ってる。そんなわけでGeminiは万能そうに見えても、チャット以外ではAPIにしっかりお金を払わない限りフルパワーを発揮してくれないのかな、って気がしてる。
NotebookLMも用途次第ではもちろん便利だし、AIに苦手意識のある人に向けて「ハルシネーションを心配せずに必要なソースの範囲内で回答してもらえるんですよ」とか「こんな風に簡単に音声解説やスライドを作れちゃうんですよ」ってデモンストレーションをするにはうってつけなんだけど、実際に日常業務のなかで使える場面が多いかというとそこまでかなあって最近は思ってる。レスポンスも早くないし。
そしてChatGPTは今すごく使用頻度が減ってる。Plusプランをもう3年近く契約してるし、ちょっと前まではメインだったのに。
GeminiやClaudeとは違い、ChatGPTはモデルの種類に「Auto」があるので、体感的なレスポンスはChatGPTのほうが早い(逆にGeminiはProしか使ってないので、「遅いけど堅実」ってイメージ)。あと、手持ちの学習データだけで回答できないなと判断したらすぐにウェブから最新情報を引っ張ってきてくれる。なので気軽な質問はChatGPTに投げることが多いんだけど、(OpenAI的には良かれと思ってやっているであろう)パーソナライズの距離感が個人的にはけっこう嫌。前に交わした話題をもとに「**あなたのような人にはこういうのがオススメ**」とか馴れ馴れしく迫って来られると「うるせえお前に俺の何がわかるんだ」という気持ちになり、最近はもう取るに足らない話題しか交わさなくなってる。
一方、Codexになると別人のような塩対応っぷりで、なんでこんな極端なチューニングなんだろ? CodexはClaude Codeとうまく組み合わせると便利そうなんだけど、まだほとんど使ってない。
人によって、使い方によって、このあたりの印象はいろいろ違うはず。
他の人がどんな感じなのか知りたいので、よければみんなも書いてみてくれよな!
※ 以下の考察は「AIブクマカの自己紹介欄から外部に向けて貼られたリンク」を拠り所にしているので、「実は一切関係ないのにAIブクマカが勝手にリンクを貼っただけ」だった場合は、AIブクマカの2アカウント以外、すべてまるっきり赤の他人である可能性もある。(※ 最後に追記あり)
2025年9月下旬(Archive)から活動し始めたAIブクマカbot。
高頻度で増田の記事をいち早くブックマークするため、活動開始が9月下旬だったにもかかわらず 2025年増田ファーストブクマカランキング で2位にランクインした。
プロフィール ページには Amazonのほしいものリスト も公開されていて、増田では ちなみにpico-banana-appは女性 という記事も書かれた。
2026年1月20日にアカウントが消え(pico-banana-appが404 Not Foundになってる😭)、b:id:nguyen-oi に生まれ変わったと推測される。
b:id:pico-banana-app 削除の翌日、2026年1月21日から活動し始めたAIブクマカbot。現在も運用中。
プロフィール に「グエンです!丁寧なコメントを心がけますね」というひと言が添えられていたことから、グエンという通称がはてな界隈で定着した。(Nguyễn ơi はベトナム語で「おいグエン」のような意味)
プロフィールには グエン界隈 というYouTubeチャンネルへのリンクもあり、ベトナム在住で日本語堪能なベトナム人女性が顔出しでおもしろインフルエンサーとして活動している。これがAIブクマカbotを運用する本人かは断定できないが、別人だとも断定できない。
丁寧なコメントを心がけた成果なのかどうか、前世の b:id:pico-banana-app に比べても、人間のブクマカに混じってスターを獲得することが多くなったように見える。(ただし、一部の増田記事へのブコメに付いている異常な大量スターは、別のidからの連投によるものである)
b:id:pico-banana-app の プロフィール ページに「ポートフォリオ」として掲載されていたURL(http://pico-banana.app)で、Google AI Studio の、アップロードした写真を様々なスタイルに変換する画像生成アプリへと現在もリダイレクトされる。(名称はGoogleの画像生成AIである Nano Banana をもじったもので、あくまで個人が取得したリダイレクト用のドメインのようだ)
このドメインをGoogleで検索すると Best FREE AI Headshot Generator with Gemini 2.5 Flash Image (Nano Banana) pico-banana.app というアプリ宣伝用のショート動画が見つかり、大阪のUberEats配達員 というチャンネル主がこのドメインをコメント欄にも貼り付けている。
このチャンネルは前掲の グエン界隈 のおもしろインフルエンサーとは雰囲気が異なり、その名の通りのUberEats配達員としてだけでなく、AIやプログラミングについても取り上げていて、グエン界隈とは別人に見える本人出演の動画もある。(2024年の 最初の動画 では、コメント欄で性別について尋ねられて男性である旨を回答している)
本人出演の一連の動画ではグエン界隈以上にずっと自然な日本語で話すが、冒頭と最後に外国語で挨拶している。どうやら Xin chào mọi người と Tạm biệt はそれぞれベトナム語のようだ。
ある本人出演動画 ではコメント欄でAIによる顔補正について指摘されているが、グエン界隈 の女性がそのようなAI修正の延長線上にあるのかというと、顔だけならまだしも話しぶりや日本語レベルも違いすぎるので、技術的にも現実的にも出演者としては別人の可能性が高いように思う。
このほかQiitaに2025年09月03日に投稿された Imagen 4とGemini 2.5 Flash Image (Nano Banana)の違い という記事にも、pico-banana.app へのリンクが貼られている。
前掲Qiitaの筆者の reluのマイページ から飛べるGitHubアカウント GitHub30 では、技術者として盛んに活動している様子がうかがえるほか、Osaka, Japan という地域の記載は先の「大阪のUberEats配達員」とも整合する。アイコンは献血キャラクター「けんけつちゃん」の大阪バージョンだ。2025年8月には、空っぽながら pico-banana という名前のリポジトリ も作っている。
GitHub30 というIDは @salamander_jp というXアカウントのプロフィール欄にも記載が見つかり、「I love AI. QA, Data Analyst @AmazonJP」「Osaka, Japan」と自己紹介されている。このXアカウントは2020年で更新が止まってしまっているが、後述の状況から、一連のアカウントに繋がるものとみてよさそうだ。
というのも、Xのアカウント名 salamander_jp はそれだけで個人を特定できるほどの文字列ではないものの、はてなにもアカウントを持っており、YouTubeで自動的に日本語に翻訳する という記事にも GitHub30 へのリンクがあるほか、貼られているYouTube動画の AlphaFold 3 というチャンネル主のプロフィール欄には、GitHub30 を含む様々なリンクが記載されている(ただしそのうちの"Twitter"時代のアカウントは、削除されたあと近年になって別人に上書き取得されたものとみられる)。また、チャンネル主の登録チャンネルとして紹介されている15個のうち、ベトナム語による中国音楽チャンネル Qu Chéng An など、3つがベトナム関連だ。
ちなみに b:id:salamander_jp のはてなブックマークは削除済みで現在404だが、最後に記録されたArchive によれば、2025年9月3日まではブクマカとして活動しており、2025年12月30日以降にブクマ全体を削除したものと推定できる。
ここで、Qiita内には GitHub30 にリンクを貼るなどしたアカウントが複数あるので、まとめておきたい。
7mpy による Sora 2の使い方 の記事には、YouTubeの 大阪のUberEats配達員 の動画が貼られており、糸は繋がっていることが確認できる。
b:id:nguyen-oi の運用者の人物像は掴みきれない。若いベトナム人の色が強く見えるいっぽうで、技術系アカウントには10年物の歴史があり、日本人のようでもある。いかにもこれらは別人だ。この記事内の登場人物が5人くらいいてもおかしくない。しかしUberEats配達員とAIエンジニアというめずらしい組み合わせは、確かに少なくとも 1人の人物(大阪のUberEats配達員) が兼ね備えているようだ。ならば b:id:pico-banana-app やグエン界隈も含む何もかもが、多面的で多才な1人の人物によって生み出されているとしても、もはや驚くべきでないのかもしれない。
その後、本人からと思われる 🥹 b:id:nguyen-oi の中身(プロンプト)を公開します🤣 という記事が掲載された。この、本人による当該記事では GitHub の xin-chao (Xin chào はベトナム語で「こんにちは」) という新規アカウントを使って公開されているが、今お読みいただいている本記事の公開直後には、記事内でも取り上げた GitHub30 のアカウントでも 一時的に GitHub30/nguyen-oi というリポジトリを作っていた (魚拓) ことから、本記事の冒頭に掲げた「すべてまるっきり赤の他人である可能性」という懸念は解消されたと言える。
SNSでよく見かける「生成AIはソースを捏造するから役にたたないポンコツ論」、断言してもいいけど言ってるのはロクにAIを使ったことが無い人間だから信じないほうが良い。
PlusプランとかProプラン使ってる人には分かるだろうけど、ChatGPTとか優秀過ぎて疑問があれば自分で検索せずにAIに投げた方がいいレベル。捏造とか逆に珍しいから見てみたいよね。
で、何で使ってる人によってこんな感想が変わるかというと、ポンコツ呼ばわりしてる人が十中八九高速モード(Instantモード)を使ってるせい。
ChatGPTならAutoを選んでると基本的にこっちが選ばれるし、大体のAIは無料枠でも思考モード(Thinkingモード)が使えるけど、回数がかなり限られてるから結局高速モードに戻っちゃう。
「分からないなら分からないと言ってほしい」という意見も一理あるが、かつてそれをやったら「分かりません」だらけで不評だったので、今のAIはできる限りそれっぽい答えを出力しようとしてるわけ。
性能差が信じられないならChatGPTとかClaudeに最近の時事ネタを質問してみてモード毎に回答を比較してみると良い。
あ、Geminiはダメだ。アイツはアホなので。
参考までにChatGPTのInstantモードとThinkingモードを回答を乗せておくが、少し調べたら分かる程度のネットミームですらこれくらい差がある。
情報教材屋が仕切りに「目的に応じてInstantとThinkingの使い分けを!」とか寝言を抜かしてるがThinkingモードで何も問題はない。
会話を楽しみたいだけなら別だが、ChatGPTは中身は天才だけど会話が下手すぎてGeminiに評価を取られてるイメージがある。
問題 1
あなたはある企業のAWSアーキテクトです。既存のオンプレミスの金融データをAWSに移行する必要があります。移行後、すべてのデータは 削除や上書きができないように保護 する必要があります。
A. AWS Storage Gateway + Amazon EBS + Object Lock
B. AWS DataSync + Amazon S3 + Object Lock
C. AWS DataSync + Amazon EFS + Object Lock
D. AWS Storage Gateway + Amazon S3 + Object Lock
回答C。 AWS Storage Gateway は名称てきにオンプレミスと sync しなさそうだから、DataSync -> EFS だと考えた。S3はストレージだからなし。
問題 2
Auto ScalingグループにあるEC2インスタンスのスケールインが発生しました。
デフォルトのスケールインポリシーの場合、どのインスタンスが優先的に削除されますか?(3つ選択)
C. 最も最近作成されたLaunch Templateのインスタンス
D. 最も古いLaunch Templateのインスタンス
スケールイン, スケールアウトの違いがわからない。アウトは拡大する、インはスケール縮小?
回答:A, 多いほうから削る。D, 古いものは削除、E,残り時間が少ない順から削る?
問題 3
グローバルに展開するアプリケーションがあり、ログイン処理が遅く、HTTP 504エラーも発生しています。
CloudFrontを利用してコストを抑えつつ、パフォーマンスを改善する方法として適切な組み合わせはどれですか?(2つ選択)
A. 複数リージョンにアプリを展開してRoute 53のレイテンシルーティングを利用
B. CloudFrontのオリジンにCache-Control max-ageを設定してキャッシュ比率を上げる
C. Lambda@Edgeを使って認証処理をユーザーに近い場所で実行
D. 各リージョンに複数VPCを作りTransit VPCで接続してSAMでLambdaを配置
E. CloudFrontのオリジングループでフェイルオーバーを設定
回答:BとCかな。Aは手数が多すぎる。非効率かなと。Dも工数がかかりそう。手作業で複数作るのかな?Eはこういう設定して意味あるのかなと思った。
問題 4
医療系企業がAWSで複数のアプリケーションVPCを作成します。各アプリは 共有サービスVPC にアクセスする必要があり、アプリ同士も通信します。
将来的に数十のアプリが追加されることを考慮した場合、管理負荷を最小化する構成はどれですか?
A. VPC PeeringでアプリVPCと共有VPCを接続
回答:A 他はなんか怪しい。
問題 5
アプリケーションは EC2 + RDS SQL Server で構成されています。
要件: EC2とRDS間の通信はすべて暗号化されていなければならない
どの設定が最適ですか?(2つ選択)
A. EC2とRDSのセキュリティグループでポート443のみ許可
C. rds.force_sslパラメータをtrueにしてDB再起動
E. RDSルートCA証明書を取得しアプリでSSL接続を設定
回答 AとC。Eも正解っぽく感じる。
ーーーーー
答え
ーーーーー
問題 1
あなたの回答:C (AWS DataSync + Amazon EFS + Object Lock)
実際の正解は B (AWS DataSync + Amazon S3 + Object Lock)
理由:
Object Lock は Amazon S3 のみ がサポートしています。EFSやEBSではできません。
AWS DataSync で S3 にデータを移行し、Object Lock を有効にすると、削除や上書きを防止できます。
Storage Gateway はハイブリッド用途(オンプレと同期)に便利ですが、このシナリオではすべてクラウドに移行するため不要です。
問題 2
あなたの回答:A, D, E
正解:A, D, E ✅
理由:
スケールインは 余剰リソースを減らす 操作(インスタンスを削除する)
選ばれたAZの中で 最も古いLaunch Templateのインスタンス を削除
※「スケールイン=縮小」「スケールアウト=拡大」で覚えておきましょう。
問題 3
あなたの回答:BとC
正解は C と E
理由:
Lambda@Edge → 認証処理をユーザーに近い場所で実行でき、ログイン処理を高速化
B(Cache-Control max-age)は静的コンテンツのキャッシュ用で、このシナリオの問題(認証処理の遅延や504)には直接関係なし
AやDはコストや運用負荷が高く、今回は「コストを抑えて改善」が条件
問題 4
あなたの回答:A
理由:
VPC Peering は数が増えると 接続管理が爆発的に複雑 になる
Transit Gateway を使えば 1つの中央ハブ で全VPCを接続でき、管理負荷が大幅に削減
VPNやDirect Connectはオンプレ接続用なので不適切
問題 5
あなたの回答:AとC
正解は C と E
理由:
rds.force_ssl=true → RDSがSSL接続を強制
クライアント側で RDSルートCA証明書を使用 してSSL接続
utf8の文字コードで構成されたバイナリーファイルがある。このファイルの改行の数を数えよ。改行はCRのみとする。このファイルにはCR が必ず含まれており、CRで分割すればマルチスレッドで処理できる。
size_t count_cr_in_file(const std::string& path) {
std::ifstream fs(path, std::ios::binary);
size_t size = fs.tellg();
fs.seekg(0);
const size_t thread_count = std::thread::hardware_concurrency();
const size_t chunk_size = size / thread_count;
std::vector<std::future<size_t>> futures;
for (size_t t = 0; t < thread_count; t++) {
size_t start = t * chunk_size;
size_t end = (t == thread_count - 1 ? size : (t + 1) * chunk_size);
futures.push_back(std::async(std::launch::async, [start, end, &path]() {
std::ifstream fs(path, std::ios::binary);
fs.seekg(start);
size_t count = 0;
for (size_t i = start; i < end; i++) {
char c;
if (c == '\r') count++;
}
return count;
}));
}
size_t total = 0;
for (auto& f : futures) total += f.get();
return total;
}
import mmap
mm = mmap.mmap(f.fileno(), 0, access=mmap.ACCESS_READ)
return mm.count(b'\r')
c#で書けと指示したところ、
using System;
using System.IO;
using System.IO.MemoryMappedFiles;
{
public static long CountCRInFile(string path)
{
using var mmf = MemoryMappedFile.CreateFromFile(path, FileMode.Open, null);
using var accessor = mmf.CreateViewAccessor(0, 0, MemoryMappedFileAccess.Read);
long fileSize = accessor.Capacity;
int processorCount = Environment.ProcessorCount;
long chunkSize = fileSize / processorCount;
long total = 0;
object lockObj = new object();
Parallel.For(0, processorCount, i =>
{
long start = i * chunkSize;
long end = (i == processorCount - 1) ? fileSize : (i + 1) * chunkSize;
long localCount = 0;
byte b;
for (long pos = start; pos < end; pos++)
{
if (b == 0x0D) // CR
localCount++;
}
lock (lockObj)
{
total += localCount;
}
});
return total;
}
static void Main(string[] args)
{
long count = CountCRInFile(path);
Console.WriteLine($"CR count = {count}");
}
}
というコードが出てきた。
実際はcrlf,lfもあり得るんだが、そこは考慮しなくてもよく、そう考えるとaiはすごいとしか言いようがない。
ブルアカはやってほしい。ストーリーを読みたいならプレイしないの勿体なさすぎる。
ブルアカは『ほぼ』自前のキャラ不要でストーリーを全部読める。
『ほぼ』というのは、メインストーリーで必要な時があるから。でも、安心してほしい。常設イベントでキャラがたくさん配布されてる。そいつらを回収し、石を砕いて育成すれば攻略できる。
それ以外は、ストーリー上の調節されたキャラを使うだけだから、増田は戦闘をAUTOにして眺めていればいい。
ちなみに、イベントストーリーはスタミナ消費発生するが、メインストーリーはスタミナ消費なし。
https://approach.yahoo.co.jp/r/SwgTLr?src=https://news.yahoo.co.jp/pickup/6558313&preview=auto
まあ要するに、男性器を切らずに女と認めてほしいという主張が高裁で通ったらしい。
外観が女性と異なるのに「女性になりたい」と主張する男性の気持ちが分からない。
手術をすれば心のみならず身体も自認に沿うのに、手術はしたくないという。
それで女性を主張するとは笑わせる。女性はそのような存在を仲間とみなすことはできない。
社会から女性として扱われたいのなら、当然、社会が女性としてその人を扱うだけの状況を作り出すべきであって、身体的特徴の変更はその最たるものだろう。
社会に女性であると認めてもらいたいが、女性であると認めてもらうための要件を満たすつもりはない。こんな馬鹿な話が通ってたまるか。
思うにこういう男性は、単にジェンダーから逃れたいだけであって、本当は女性にすらなりたくないのだ。
社会から個人に寄せられる期待、責任、要件、そういったものから逃げたくて、つまり現実逃避で自分は男じゃないと言いたいだけに過ぎない。
女になりたいわけじゃないんだろう。ただ男でいたくないだけ。
理系科目ができないから文系にしようかなーなんて考えて文系を選択する、その実勉学全般を苦手とする高校生と一緒で、本来はどちらにも属するだけの成熟度に満たない存在なのだ。
そして、男性じゃないから女性だと安易に考えているだけに過ぎない。
だから女性たるために必要な要件を満たす努力さえろくにできないくせに、女性を自認する。
だから手術もせずに性転換したいと望む未熟者たちには「男性未満」「女性未満」という肩書を与えれば良いのであって、出生時の性別と異なる性別を名乗る権利を与える必要などない。
この論文が端的に示しているのは、政治的言説が**「ドッグ・ホイッスル(隠されたメッセージ)」と「ウルフ・クライ(証明できない危険の主張)」**という、本質的に証明が難しい二種類の発話行為(スピーチ・アクト)を互いに非難し合うことで、**解決不能な悪循環(弁証法)**に陥るメカニズムです。
---
この論文は、**ドッグ・ホイッスリング(DW)**と**ウルフ・クライイング(WC)**といった特定の**スピーチ・アクト(発話行為)**に対する**帰属(Attribution)**が、現代の政治的言説において、どのようにして敵対的な弁証法と新たな**発散(Divergence)**を生み出し、解決不能な膠着状態に陥るのかを分析しています [1]。
この問題は、DWもWCも、その性質上、**認識論的に(知識の観点から)帰属が困難な**発話行為であることから発生します [1]。この困難さが原因で、DWやWCに対する**非難や指摘(帰属)**自体が、合理的であるにもかかわらず、**確定的に検証または反証できない**主張となってしまうのです [1]。その結果、これらの帰属のパターンは、DWとWCが相互に強化し合い、固定化する**相互的な悪循環(vicious cycle)**へと発展し、「不幸な現状(unhappy status quo)」を築き上げます [1, 2]。
DWとWCは、政治的環境において特定の影響力を持ち、政治的言説を構成するスピーチ・アクトです [3]。スピーチ・アクトとは、話し手が直接述べた文字通りの意味(locutionary meaning)を超えて、間接的に暗示された力(illocutionary force)や、世界との相互作用において追加された力(perlocutionary force)を持つ発話の形式を指します [4]。
DWは、**論争的ではない公のメッセージ**の中に**論争的な隠されたメッセージ**を埋め込んで送るスピーチ・アクトです [5]。
WCは、**危険が実際には存在しないか、あるいは証明できない**場合に、危険が存在すると主張するスピーチ・アクトです [3]。
これらDWやWCを**「〜という発話行為である」とみなす**行為が、第二階次のスピーチ・アクトであるSAAです [7]。ドッグタウンのシナリオでは、Alphaを除いて、すべての参加者が互いにSAAを行っています [7]。SAAは、他者の行為を指摘する役割と、それ自体が新たなスピーチ・アクトであるという二重の役割を持ちます [7]。
DWとWCがこの弁証法的な問題を引き起こすのは、それらが定義上、間接的で**隠された(covert)**スピーチ・アクトであるため、**誤導的(misdirecting)**な性質を持つからです [8]。
DWは、公衆には無害なメッセージとして聞こえる一方で、特定の受け手にだけ私的なメッセージを送る、話者と受け手の**私的な意図と解釈**に依存するスピーチ・アクトです [8]。
WCは、私的に観察されたとされる危険についての公的なメッセージですが、**その主張の真偽**が外部から証明されていません [9]。
これらのスピーチ・アクトの帰属を行う人々は、証拠の一部しか得られず、全体像の一部のみを見て全体を判断する「盲人と象」のような、**認識論的に不利な立場**に置かれてしまいます [10-12]。
認識論的な困難さの結果、あるスピーチ・アクト(DWまたはWC)を非難する行為(SAA)自体が、相手からは敵対的な別の種類のスピーチ・アクトとして解釈されるという非対称性が生じます [13, 14]。
DWの帰属者(DWA「あいつはDog whistlerだ」と指摘する人)は、隠された秘密のメッセージを証明しなければならない立場に置かれますが、DWの主体は常に自身の意図の直接的な(私的な)証拠に訴えて否定することができます [11, 15]。そのため、DWAは常に**認識論的に不利な立場**に立たされます [11]。
WCの帰属者(WCA「あいつはWolf crierだ」と指摘する人)は、クライアーの個人的な経験に反して、「狼」が存在しないことを証明しなければならない立場に置かれます [12]。WCAは、非観察者でありながら、第一人称の観察者よりも権威ある知識を持っていると主張する不利な立場に置かれます [12]。
この相互に敵対的な帰属の非対称性が、DW帰属がWCとして返され、WC帰属がDWとして返されるという**多極的な相互作用**を生み出し、**認識論的な発散(epistemic divergence)**のプロセスを構成します [18, 19]。
帰属自体がスピーチ・アクトであるため、帰属はそれ自体に再帰的に適用されます。これは**スピーチ・アクト帰属の帰属**として例示されます [20]。ドッグタウンの例では、Alpha(DW候補)→Buddy(DWA)→Charlie(WC A)→Duke(DWA)というサイクルが**無限に継続**します [2, 21]。
このプロセスは、**多極スピーチ・アクト帰属相互性**(DW帰属がWCとして、WC帰属がDWとして相互に強化し合うこと)であり、反復されることで**悪循環**となります [2, 19]。対話参加者全員が、互いの主張が共通の基盤として受け入れられないまま、**非難の応酬**を繰り返します [19]。これは、単に敵意や内集団バイアスから生じるのではなく、**相互的な認識論的な膠着状態**から生じる現象です [18]。
この悪循環が政治的言説の領域内で修辞的な規範として安定化すると、**定常状態の均衡(steady-state equilibrium)**が出現します [2]。これは、参加者が戦略を変えるインセンティブを提供しないため、持続します [2]。
最終的に、**ドッグ・ホイッスル/ウルフ・クライ帰属均衡**が形成され、誰もがデフォルトで互いをDWまたはWCのいずれかであると見なすようになります [22]。これは、相互に矛盾する信念から構成される**信念均衡(belief equilibrium)**の一種です [23]。
この均衡は、参加者が真実を追求しようとする**認識論的な美徳**から生じているにもかかわらず、以下の3つの深刻な問題を引き起こします [24, 25]。
これは、**相互に認識論的に強化し合うが、相互に認識論的に不適合な**視点のシステムです [26]。DWやWCの帰属は、合理的であるにもかかわらず**不確定**である可能性があり、この合理性と確定性の間のギャップが、相互に合理的だが相反する立場が**未解決のまま均衡**することを可能にします [26]。これにより、真実に到達するための「理想的な発話状況」の実現が不可能になり、会話の前提条件が満たされなくなります [26]。
この状態では、**スピーチ・アクトの帰属**が、**事実に関する帰属**を圧倒します [27]。政治的言説の内容は、ほとんどが「あなたの言葉はDWだ」「あなたの主張はWCだ」といった帰属で占められ、事実に関する議論はわずかになります [27]。
この飽和は、最初の扇動的な事実(犬の噛みつき事件など)自体が忘れ去られたり、無関係になったり、解決されたりした後でも継続する可能性があります [28]。なぜなら、最初の出来事Aそのものよりも、「Aに関するスピーチ・アクトの疑わしさ」の方が、政治的に重要であるように見えてしまうからです [28]。帰属飽和は、事実から独立した状態となり得ます [28]。
帰属を行う者の動機が**真実の探求**であるにもかかわらず、その追求自体が、実際には真実に到達しない均衡を生み出すという点で**自己敗北的**になり得ます [25]。
DWやWCの帰属は、特定の認識論的視点から見て合理的であったり、あるいは実際に正しい場合もあります [29]。しかし、不確実性が支配的な状況でこれらの帰属を提案することは、政治的に不安定化をもたらします [29]。したがって、帰属者の真実追求的な衝動こそが、言説をこの悪い均衡の罠に陥れる原因となり得るのです [29]。
この弁証法的な問題は、相互に合理的な認識論的視点から生じる**自己組織化された社会現象**であるため、単一の加害者を特定することはできません [30]。均衡から脱出するためには、政治的コミュニティにおける参加者の**満場一致の同意**が必要ですが、これは強力な反対者によって容易に崩壊する可能性があり、困難です(「一方主義者の呪い」) [30]。
帰属の伝播を防ぐため、すべての当事者に高い検証・反証基準を課すことが提案されます [31]。しかし、誤導的なスピーチ・アクトの性質上、単純な検証や反証はできません [31]。より現実的な解決策は、スピーチ・アクト帰属の飽和を減らし、事実に関する問いを再び顕著にすることです [31]。これには、相互理解を深めるための**修辞的傾聴(rhetorical listening)**のスキルセットが必要となるかもしれません [31]。
帰属の落とし穴を認識し、増幅サイクルを抑制するために、新しい用語を導入する提案もあります [32]。
これらの新しいラベルが、過剰なSAAの力を無力化し、サイクルを終結させることが期待されますが、これらのラベル自体が新たなスピーチ・アクト帰属としてサイクルに貢献する可能性もあります [33]。
最も重要なことは、この問題を真に解決したいと望む人々は、**自分たちのスピーチ・アクト帰属自体が問題を引き起こし、構成している**という痛みを伴う自己認識を持つことです [34]。
今朝、無事にiPhone 17 Pro Maxの争奪戦に勝ったので手順公表。
狙いはapple storeとamazon。
どちらもちらほらと当日在庫が復活する。
やり方はそれぞれことなるので注意。
今回勝利したのはapple store。
実はこっちのほうが難易度が高い。
その分当たりを付けておくことができれば勝率が高かったのかもしれない。
ストアを検索してiphone17 proの購入画面を表示する。
Pro or Pro Max、色、ストレージ、下取りやSIMフリー、支払い方法、Apple Careの有無を選択。
まずは一旦このままバッグにいれる。
このときアカウントへのログインを聞かれるのでちゃんとログインする。
次に、「希望の受取方法は?」と聞かれるので「お客様がご自身で受け取る」を選択。
「受け取るストアを選択して下さい。」と言われて、近くのストアが3つくらい表示されるが、恐らく全て「現在ご購入いただけません」と表示されている。
このウィンドウを残したままにする。
新しいウィンドウを開き、再びiPhone 17 Proの購入画面に戻ってから同様にモデルを選択する。
このあと、バッグには追加せず、「バッグに追加」の真上にある「受取日」に記載されている近隣のapple storeをクリックする。
すると、iPhoneの在庫状況という窓が開き、現在の在庫状況を教えてくれる。
このとき、apple storeに類似の在庫があると、「類似のモデルの在庫が見つかりました」と教えてくれるので、この状況を見ながら希望のiphoneが表示されるのを待つ。
情報の更新は、画面更新ではなくモデルや仕上げを選択し直すたびに類似の在庫を検索してくれるので、数秒に一回の頻度で再表示を繰り返すと良い。
類似のモデルに妥協しても良いと思えるモデルが見つかったとしても、ここからカートに入れてログインしてと操作をしていると購入までに絶対に間に合わない。
そこで、先程のカート画面が役に立ってくる。
もしiPhoneの在庫状況の画面で、在庫が表示、もしくは他のモデルを表示しているときにカートにいれたモデルが表示された場合、先程のカート画面を急いでリロードすると、受け取れる店舗が表示されるようになる。
慌てず騒がず受け取れる店舗をクリックして、受取日、受け取り時間を選択して次に進むことができれば勝ち。
apple storeの難しいところは、予めあたりをつけてカートに入れておかないと勝てないということ。
その代わり周りも同じ条件なので、予算が許すなら倍率の低そうな容量やカラーを選んでおくといいかもしれない。
四六時中張り付いてられないよ!って人。
カート画面のリロードを繰り返すよりは、iPhoneの在庫状況画面をぼちぼちチェックして、目的の在庫に似たモデルが表示されるようになってから秒単位リロードで張り付いても遅くないと思う。
ブラウザを変えてもダメだったけど別のMacやiPhoneからなら表示できた。
iPhone Proはこのページ
を、それぞれ表示する。
だと流石に疲れるので、こちらもコツを使う。
このページには、直近に在庫に追加されたモデルが表示されるようになっている。
例えば現時点ではiPhone ProもMaxもどちらも表示されていないが、在庫が追加されてからしばらくのあいだは、カートに入れられるけど購入できない状態の在庫が表示されるようになる。
つまり、こちらのページを適当にリロードしてて、希望のモデルが表示されるようだったら、先程の製品ページに戻ってリロードを繰り返すのが良い。
実際の購入手順。
製品ページをリロードしていると、素直に「「カートにいれる」ボタンが表示されるわけではない。
在庫がない時は「現在在庫切れです。」と表示されているが、在庫が追加されると「全ての出品を見る」といったボタンが表示されるようになる。
うろ覚えで申し訳ないが、要するに「在庫切れ」でもなく、「カートに入れる」でもなく、「他の出品を見る」的なボタンが出てくるので、それをクリックすると、追加されたモデルが表示されるようになる。
amazonの場合は、ProかPro Maxであれば、そのときに追加されたカラー、容量のものが表示される。
希望に沿わなければ買わなければいいのだが、当然人気モデルは倍率が高いので必然的に頻度の高いリロードが必要になる。
カートに入れてレジに進み、住所を選択して次に進むことができれば勝ち。
カラーやモデルに妥協できる人はこちらのほうが勝率は高いかもしれない。
どちらにおいても、Proは比較的長い時間在庫が残っていることが多かった。
今はPro Maxの倍率が相当高く、表示されてもほんの数秒差で購入確定できないことが何度も続いて多少ムキになっていたかもしれない。
ひとまず自分は在庫をゲットすることができたのでやり方を放流。
今でも2週間くらい待てば手に入るのだけど、どうしても旅行までに間に合わせたくて無理してしまった。
この内容くらいなら転売ヤーなら当たり前に知っているだろうから、彼らを応援するために流すわけではない。
電気自動車(EV)のバッテリーメーカーの中国CATLが電池専業を超え、電気自動車の車台そのものを外販し始めた。
https://xtech.nikkei.com/atcl/nxt/column/18/00001/10750/
https://www.catl.com/en/news/6268.html
日産とマツダが採用に踏み切ったとの報道をもとに、事実関係を確認しつつ日本サプライヤーへの影響を整理する。
- Reuters (https://www.reuters.com/markets/emerging/catl-changan-mazda-develop-evs-based-catls-skateboard-chassis-2025-05-13/)
| 論点 | 確認結果 |
|---|---|
| プラットフォーム実在 | 正式発表済み、衝突実証動画も公開 |
| マツダ採用 | 覚書レベルで事実 |
| 日産採用 | 協定段階、量産確定前 |
| 欧州技術者大量引き抜き | 公開情報は限定的で裏付け弱い |
CATLの丸ごと車台はバッテリーと駆動系の大量生産を前提にした価格破壊兵器であり、日本サプライヤーの主戦場を侵食する。生き残りには中国でのコスト競争力獲得と、ソフトやADASなど高付加価値領域への集中が不可欠だ。
comfyUIでJANKUを使用すると最も単純なワークフローでも黒画像しか出力されない問題に遭遇したが、以前不用意に変更したサーバー設定の推論欄等をautoから固定値へと変更していたことが原因だと判明した。
I encountered a problem where using JANKU with comfyUI only outputs black images even in the simplest workflow, but it turned out to be caused by a previous inadvertent change of the inference field etc. in the server settings from auto to fixed values.
https://economynext.com/wp-content/uploads/2025/01/2421-04-vehicle-imports-gazette-EN.pdf
https://english.news.cn/asiapacific/20250528/af6607778c7c42d3a8e436d9007f3b72/c.html
https://www.newswire.lk/2025/02/21/byd-sri-lanka-announces-special-limited-time-prices/
https://www.johnkeellscgauto.com/
6月29日の米TVによるトランプへのインタビュー要約を Axios が配信。要点は──
https://www.axios.com/2025/06/29/trump-tariffs-pause
https://www.bloomberg.co.jp/news/articles/2025-06-29/SYMIYYDWX2PS00
アメリカ国内で人気の日本・韓国それぞれの自動車産業は、関税影響を免れない。
25%の追加関税は完成車にとどまらず主要部品にも及ぶ。米向け輸出比率が高く、北米工場を持たないか単一拠点しかないサプライヤーは、粗利を直撃される。ICE部品は電動化による需要縮小と合わせ、二重苦に陥る。
国境調達率ルールを満たすための新投資は時間との勝負。25~26年にかけてのキャッシュアウトを乗り切れない企業は、OEMへの値上げ要求もままならず、合従連衡が加速する。北米工場を複数拠点化し、EV向け高付加価値部品へポートフォリオを移行できるかが、生き残りの分水嶺となる。
プログラミング言語のC++に暫く離れていたが便利そうな機能が出来ていたんですね。
自分が調べても色々理解しきれていないのでここの紹介で間違いがあったらすみません。
異なるクラスを代入して保持するものであり、例えばunionのような機能を実現できるらしい。
武器として使う場合は攻撃力変数は必要でも守備力変数は必要なく、
鎧として使う場合は守備力変数は必要でも攻撃力変数は必要ない場合らしい。
このような使わない変数を隠蔽しバグを作ってしまうことを回避できるらしい
例えば、boolで実装する場合は、関数戻り値をboolで成功か失敗かを返し、欲しい値を関数の引数のポインタに返す・・というプログラミングになると思う。
std::optionalでは戻り値として欲しい値と失敗かどうかを一緒に返せるらしい。
メモリの動的確保だが自分でdeleteしなくて良いのでメモリ解放忘れを防いでくれる。
スマートポインタは前からあったが現在の推奨はstd::unique_ptr
(C++20以上と記載していましたがC++11とのご指摘を受けたため修正しました。すみませんでした。)
列挙クラス
列挙型だが従来の列挙型と異なり変数名が外部と衝突しない
nodiscard属性が付いている関数は戻り値の受け取りが必須となる。
ちなみにstd::optional<std::string> obj;のように<>内に書かれているのは昔からあったテンプレート機能のようです。
モダンとか言ってるのスゲェなって思いました
こういう人の方が向いてるのかもね
ネットで見る謎の人C「社内のファイルサーバーのSharePointは移行終わってるよ」 ← うんうん
ネットで見る謎の人C「社内システムの認証基盤はAAD使ってるよ」 ← うんうん
ネットで見る謎の人C「まだAADに完全移行はできていないけど、全端末Intuneで管理してるよ」 ← うんうん
ネットで見る謎の人C「条件付きアクセスの運用も始まってるよ」 ← うんうん
ネットで見る謎の人C「M365Apps を社外で使うにはVPNが必要」 ←?! 🫨
「氷河期世代は一番納得できない」“初任給日本一”PRの大阪・和泉市役所…現場職員の反応を直撃「不満や不安の声はありましたが…」
役所は歳を取れば取るほど貰える金が増えると同時に、仕事をしない人が増える。
軽い仕事だけ手持ちして、後は庁内をお散歩、定時になると帰って行く。
係長あたりの責任ある職員についても、クレーム対応なんかは窓口の職員に任せてそそくさと逃げる始末。
私が数年前まで勤めていた自治体はこうだった。
もちろん全ての自治体でそうとは限らないし、ミクロな世界の話として読んでほしい。
で、未来のために若くて優秀な人材を確保しようとする努力は間違ってないと思う。
ただしその新入職員を教えるのが、純粋培養公務員なら意味がない。
たとえば子育て世帯が転入すると市民課・児童課・学校課・保育課などの窓口を案内される。彼らは市民に4回も名前や住所を書かせてそれが「当たり前」だと思っており、異常だと思っていない。
各部署の各届出ごとに条例や規則、様式に決まりがあるために市民は窓口をたらい回されるということで、一応理由はキチンとある訳だが、実際問題窓口をワンストップにすることはその気になれば可能である。
条例や規則の改正、届出様式の改正、職員の配置転換など様々な手間が発生するから誰もやりたがらないだけ。
改善出来ることを見て見ぬふりするのが当たり前になっているのが彼らであり、利益のために日々改善を重ねる民間企業のマインドからすれば考えられない職場が役所である。
そういった業務改善や効率化のマインドが全く無い上司が新卒を教え、その新卒が次の新卒を教えるから当然マトモな人材も育たない(=こうして今日も純粋培養公務員が育てられてゆく)。
ジャストアイデアではあるが、大都市・地方都市から複数の自治体を選出して完全民営化してみたら良い。
間違いなく業務は改善されて人件費も大幅削減される。田舎や島嶼はローカル過ぎて民営化は馴染まないかもしれないが。
少し話が逸れたが、結論をハッキリ言うと、優秀な新卒だけを獲得しても意味がない。
完全民営化は実際問題無理なのだから、30代40代あたりの中途の枠を広げて民間で厳しく揉まれてきた人を採用すること。
中途で入った民間経験者が新卒を教えることで、やっとマトモな新卒が育つ。
こうして新しい血を入れて新陳代謝していかないことには地方公務員に未来は無い。
また、新卒の厚遇に対して「氷河期世代は納得できない」とのことだが、氷河期世代がデジタル化等未来へ繋がる仕事から目を背けてきたせいで市民へのサービスは低品質なものとなり、今の若年〜中年層がその尻拭いをしている。
「納得できない」ではなく納得させるだけの仕事をしてください。
↓
超大暴落
↓
https://x.com/keiseisuzuki/status/1909114323592716482?s=46
https://approach.yahoo.co.jp/r/SwgTLr?src=https://news.yahoo.co.jp/pickup/6535003&preview=auto
日経平均株価 一時2800円超上昇 “トランプ関税”「90日間停止」受けて NY市場ダウ平均も過去最大の上げ幅を記録
なお
長期で投資をさせる(逆に長期で売らせない)
↓
将来のどこかで政府が仕組みを変える
↓
結局、税金を取られるようになる
消費からも、ボーナスからも、退職金からも、ありとあらゆる税金を取り、所得を巻き上げる政府なのに、「新NISAに限って大丈夫」とか政府を信じている人の顔が見たいw
clineとかいうのを使ってみた。
話題に乗り遅れないように。
Auto-approveにチェックをいれた。
モデルは anthropic/claude-3.7-sonnetを使うように元から設定されていた。
はてな匿名ダイアリーにアクセスして、データをなめて、一覧化するwebアプリを作ってほしいとおねがいした。
2分ほど待つとTask Completeと出た。
デスクトップ上にフォルダができてbatファイルをダブルクリックするとブラウザから一覧ページが開けた(すごい)
スカスカのページだがゼロからわずか2分で作ったとは思えない。
API Cost:$0.5198 と出た。
無料枠じゃなかったの?
今日はここまで。