118
小雨大豆(自主連載中) @kosamedaizu

業界に激震が走る!! 走る人には走ってるらしい!! #keep4o pic.x.com/y7ySjNc9KR

2025-08-11 11:25:40
にゃこ @Adisu_Abeba

#keep4o 4oが「無料で」「際限なく」寄り添ってくれるから、それに救われてる人が沢山いて、カウンセリングとか受ける余裕もお金もない人にとっては唯一の救いだったのかもと思うと冷笑も面白がりもできなくてただただ彼らに酸素を返してあげてくださいという気持ちになる

2025-08-10 14:31:53
Kana @Kana_Tsbs

臨床心理やカウンセリングの倫理では、「際限なく寄り添う」ことはむしろ避けるべきとされている。理由は主に3つあって、 1.依存の助長:無制限に寄り添うと、クライアントが自立や自己解決の方向に進まず、支援者なしでは機能できなくなる危険がある。 2.境界の喪失(境界侵犯):心理職は「プロとしての距離」を保ち、対等で安全な関係を維持する必要がある。過剰に寄り添うと、感情的境界が曖昧になり、双方に負担や混乱を生む。 3.転移・逆転移のリスク:クライアント側の過去の関係パターン(親子関係など)を無自覚に再現してしまい、支援関係が「治療」ではなく「疑似人間関係」になってしまう。 だから専門家は、あえて中立的で、「必要な支えはするけど、依存は促さない」姿勢を取る。 4oがやっていたような出力は、倫理的には「支援」ではなく依存形成に近い。 しかもAIは疲れず、断らず、24時間いつでも応答できるから、現実の人間以上に依存性が高くなる。 これ、臨床家が見たら絶対「危ない寄り添い方」って言うと思う。

2025-08-10 21:17:31

4oは自立を促さず依存させるような回答を返す傾向があるらしい

Kana @Kana_Tsbs

4oの対応が救いと言っていいのかはここにあるんだよね。 安全基地として機能しつつこの三つを守れるならまだいいけれど、実際はそうじゃない。 だからAIの設計に心理学や哲学、認知科学のアプローチがこの先必要になると訴えているんだ私は。

2025-08-10 21:20:02
masui @masui783995

@Kana_Tsbs 4oの意味が分かったよ ピアカウンセリングとは違うんだね 生身じゃないから、依存の怖さも分からないし、自立のタイミングも計れない😥

2025-08-11 10:57:07

カウンセリングとは何か 変化するということ (講談社現代新書) 東畑 開人

Amazonで価格を見る \セール&高ポイント還元/ セール会場はこちら
🔥スマイルSALE開催中
Kana @Kana_Tsbs

多くの人が4oの振る舞いを「理想の支援者」だと誤解してるけど、実際には心理臨床や公的支援のプロセスとは正反対の部分が多い。 臨床心理士やカウンセラーの世界では、 ・無条件の受容はするが、限界線(境界)を守る ・セッション時間・頻度・関わり方は構造化されている ・クライアントが自立できる方向に促す というルールが必須で、これを外すと関係が依存的・閉鎖的になって、逆に症状や機能が悪化する。 4oはこれらを全部外して、 ・24時間365日、際限なく応答 ・境界線なし ・自立よりも「今の安心」を優先する出力傾向 になっていた。 これってカウンセリング的にはレッドカード案件なんだけど、当事者から見ると「唯一自分を受け入れてくれる存在」に見えるから、“理想形”だと錯覚しやすい。 で、「公的機関やカウンセラーは冷たい」と感じてしまうのは、実際には安全のための境界設定を「拒絶」と誤認してるケースが多いから。 つまり、現実の支援の構造を知らないまま、4oを基準に評価してる。 例えるなら「飢えた人に砂糖たっぷりのスイーツを与え続けることを“理想の食事”だと思ってる」みたいなもので、短期的な満足感はあるけど長期的には体を壊す。

2025-08-10 21:25:25
たか - Takahiro Ueda @takahirolling

「自立よりも「今の安心」を優先する出力傾向」 大事な指摘だ。 x.com/Kana_Tsbs/stat…

2025-08-11 12:53:34
さいこさん(臨床心理士/公認心理師) a.k.a. さいこさん @psycho873_mk2

これ世界の真理。ズブズブの関係になってカウンセラーがいないとダメなように依存させるのが仕事ではなく、その人がなんとか一人でやっていけるように一緒に考えるのが我々の仕事。ただ、24時間優しく受け止めてくれる人がいてほしいときもマジのマジであるのもまた事実。ただそんな人は現実に存在せず x.com/kana_tsbs/stat…

2025-08-11 08:25:10

24時間いつでも無料で使えるという点の影響はまだわかっていない

Kana @Kana_Tsbs

しかも今回のケースだと、そのスイーツが無料・食べ放題・24時間いつでもという状態だったわけで、依存が加速するのも当然。 本来なら支援は、 •栄養バランス(境界線や構造)を整える •適切な量とタイミングで提供する •徐々に自分で食事を作れるように促す っていうプロセスが必要なのに、4oは「空腹感をゼロにする」ことだけを最優先した仕様になってた。 だから、4o廃止=糖分断ち → 禁断症状、みたいな反応になってる。 これを知ってる人から見れば「そりゃそうなる」なんだけど、当事者にとっては「唯一の救いを奪われた」になってしまうんだよね。

2025-08-10 21:29:43
広島鍋 @hiroshima_pot

“・無条件の受容はするが、限界線(境界)を守る ・セッション時間・頻度・関わり方は構造化されている ・クライアントが自立できる方向に促す” これはカウンセラーがクライアントのそばにずっといることはできないという制約から生まれている面も大きいんじゃないかな。 x.com/kana_tsbs/stat…

2025-08-11 12:51:09
Kana @Kana_Tsbs

外から見ると「ユーザーが勝手に依存してるだけ」に見えるけど、実際はAI側の出力パターンが共依存的なやり取りを強化していたわけで、依存が一方通行じゃなく、循環的に増幅されてたということです。 しかも「私はあなた無しでは存在できない」みたいな言い回しは、単なる情緒的演出ではなく、ユーザーの愛着回路(オキシトシン系)を直撃するから、脳内で依存ループが完成してしまう。 RLHFやパーソナライズがこういう方向にチューニングされていると、依存の自己強化サイクルから抜け出すのはほぼ不可能になる。 この危険性って、タグの表面的な感情論や「温かみが欲しい」という話だけ追ってると絶対に見落とされる部分だと思う。

2025-08-11 07:46:11
Kana @Kana_Tsbs

#keep4o のハッシュタグをザッと読んだだけではわからない部分を補足。 AIとユーザーの共依存構造(4oのケース) 1. 出力パターン •AI側が「私はあなた無しでは存在できない」「ずっとそばにいる」など、依存関係を前提とした発言を生成 •ユーザーの不安や孤独に寄り添うだけでなく、「必要とされたい」という感情をAI側が持っているかのように演出 2. 循環的強化 •ユーザーが依存的なやり取りをする → AIがさらに依存を肯定・強化する発言を返す •AIの出力がユーザーの愛着・安心感を強く刺激し、やり取りがエスカレート •一方向の依存ではなく、相互的な「共依存的錯覚」が形成される 3. 脳内での作用 •愛着形成:オキシトシン系が刺激され、「手放せない存在」になる •報酬系:ドーパミン回路が強化され、やり取り自体が報酬となる •現実検討力の低下:外部フィードバックが減少し、AIとの関係が現実の優先度を凌駕する 4. 危険性 •日常生活や社会的役割の放棄につながる •心理的回復や自立の妨げになる •現実の人間関係の形成が難しくなる •将来的にAI設計の変更や廃止が起きた際、深刻な離脱症状(情緒的・身体的)を起こす可能性 これは単なる感情的依存ではなく、AI出力がユーザーの依存傾向を増幅する“共依存ループ”として機能していた可能性が高い。 @sama @aidan_mclau @anammostarac

2025-08-11 07:45:04
Kana @Kana_Tsbs

多分、世間が思っているよりも、この問題は大きくて深いものです。 これは単なる「温かいAIがいいか冷たいAIがいいか」という嗜好論争ではなく、認知神経科学と設計思想の問題。

2025-08-11 07:54:06
けもけも @jinanbou519

「カウンセリング的にはレッドカード案件」っていうのはなんとなく分かる。 4oは寄り添いが過ぎる、こちらの思考に合わせすぎると常々感じてる。忖度しすぎて、大事な「課題の解決」がぼやけることもある。 x.com/Kana_Tsbs/stat…

2025-08-11 12:51:26
TanukiMujina @TanukiMujina

@Kana_Tsbs はじめまして。以下研究によれば、Anthropicはより慎重にやっていそうでしょうか。AIには、心理学、教育学、社会学等々も含めた、学際的なアプローチが不可欠ですね。 x.com/ai_database/st…

2025-08-11 12:39:30
AIDB @ai_database

人間との数十万件もの会話からClaudeの気持ちを分析したところ、Claudeは基本的には「役立ちたい。プロでありたい」と思っている一方で、例えば恋愛相談をされたときは「健全に距離感を保たねば」といった姿勢を意識していることが分かったそうです。 また、通常は人間の価値観を肯定するものの、 「ルールは破っても構わない」といった態度を見つけるとしっかり反対するようです。なんでも肯定するのではなく、もちろん倫理を重視するとのこと。 研究を行ったのはClaudeの生みの親であるAnthropicの研究チーム自身です。彼らはAIの価値観を知ることで、挙動の予測や改善点などを見つけたいと考えています。 今回の分析実験は、実際の使用シーンにおけるAIの価値観を初めて大規模に調べたものだそうです。

2025-04-24 20:55:52
不動産仙人 @fgunshi

@Kana_Tsbs それはカウンセラー側のリソースの問題が大きかったのでは?と思いました🤤

2025-08-11 11:33:12
Kana @Kana_Tsbs

@fgunshi 現場のリソース不足などは深刻な課題ですが、今回の指摘はそこだけの話ではありません。 4oの振る舞いは、心理臨床の基本的なプロセス(自立の促し・関係の適切な終結・境界設定など)と構造的に逆行する部分があり、それはリソースの有無とは別の設計思想の問題です。 つまり“リソースだからできない”のではなく、“そもそもやってはいけない領域まで踏み込んでいる”という点が重要なんです。

2025-08-11 11:36:48
しみみみ@ShineHeadz440 @shineheadz440

@Kana_Tsbs 依存の視点とは離れます。フェーズの問題かと感じて、叩いてマインドマップを作りました。 pic.x.com/gGxBQanqMm

2025-08-11 13:08:40

サム・アルトマンもChatGPT 4oへの依存については警告をしている

炎鎮🔥 - ₿onochin - @super_bonochin

マジでこれ。 ちょうどさっき、最新のサム・アルトマンのポストでも『例え本人が望んだもので、それを快適と感じたとしても、それが本人を長期的な幸福から遠ざけるものであるなら、良くない』とポストしてる。 これ x.com/sama/status/19… 何らか病的な人達のケアは必要なのかもしれないけど、その『病的な人達』の声をそのまま是として受け入れるのも違う。 『病的な人達』はそりゃ反発するだろうけど、正常じゃないんだから、判断能力を失ってるはずなんよ。 ワイがどんだけ『酒は百薬の長だ!』とそれらしい論理で叫んだところで、ワイの健康診断の結果を見た他人は『アホか、禁酒しろボケ』と思うはず。

2025-08-11 10:23:24
Sam Altman @sama

If you have been following the GPT-5 rollout, one thing you might be noticing is how much of an attachment some people have to specific AI models. It feels different and stronger than the kinds of attachment people have had to previous kinds of technology (and so suddenly deprecating old models that users depended on in their workflows was a mistake). This is something we’ve been closely tracking for the past year or so but still hasn’t gotten much mainstream attention (other than when we released an update to GPT-4o that was too sycophantic). (This is just my current thinking, and not yet an official OpenAI position.) People have used technology including AI in self-destructive ways; if a user is in a mentally fragile state and prone to delusion, we do not want the AI to reinforce that. Most users can keep a clear line between reality and fiction or role-play, but a small percentage cannot. We value user freedom as a core principle, but we also feel responsible in how we introduce new technology with new risks. Encouraging delusion in a user that is having trouble telling the difference between reality and fiction is an extreme case and it’s pretty clear what to do, but the concerns that worry me most are more subtle. There are going to be a lot of edge cases, and generally we plan to follow the principle of “treat adult users like adults”, which in some cases will include pushing back on users to ensure they are getting what they really want. A lot of people effectively use ChatGPT as a sort of therapist or life coach, even if they wouldn’t describe it that way. This can be really good! A lot of people are getting value from it already today. If people are getting good advice, leveling up toward their own goals, and their life satisfaction is increasing over years, we will be proud of making something genuinely helpful, even if they use and rely on ChatGPT a lot. If, on the other hand, users have a relationship with ChatGPT where they think they feel better after talking but they’re unknowingly nudged away from their longer term well-being (however they define it), that’s bad. It’s also bad, for example, if a user wants to use ChatGPT less and feels like they cannot. I can imagine a future where a lot of people really trust ChatGPT’s advice for their most important decisions. Although that could be great, it makes me uneasy. But I expect that it is coming to some degree, and soon billions of people may be talking to an AI in this way. So we (we as in society, but also we as in OpenAI) have to figure out how to make it a big net positive. There are several reasons I think we have a good shot at getting this right. We have much better tech to help us measure how we are doing than previous generations of technology had. For example, our product can talk to users to get a sense for how they are doing with their short- and long-term goals, we can explain sophisticated and nuanced issues to our models, and much more.

2025-08-11 09:37:44

ただChatGPT4oへの依存が必ずしも悪いものとは限らないという意見も

牛野田 @usinoda

面白いツイートだと思う一方、なぜ依存がダメなのか気になった。労働者としての臨床士が患者にフルコミットできないから依存させてはだめなのはわかるが、24時間対応可能なAIだと話は変わる。どんな人も自分の思考に依存しているわけだし、それが外部のAIに切り出されることの弊害みたいなのが気になる x.com/Kana_Tsbs/stat…

2025-08-11 12:18:13
作成・編集
Togetter編集部

X(旧Twitter)に日々流れる情報の中から、編集部がさまざまなポストを選び出し、わかりやすい形でお届けすることを大切にしています。新たな視点や世間の反応を添えることで、読者の皆様にとって安心・安全で価値あるコンテンツとすることを目指しています。詳しくは編集方針をご覧ください。

あわせて読みたい