はてなキーワード: ファインとは
AI絵も1枚絵ならだいぶ実用度が高いものが出力できるようになってきたよね。
特に直感的というか視覚的な性欲に働きかけるタイプのイラストとか一点もののR18イラストみたいなのはもうほとんどAIイラストで十分なんじゃないかと思ってる。
(キャラクタ x 性癖 x 絵柄 の組み合わせだけで定義されるような単純な構成のもの)
ときどき漫画っぽいコマ割りのイラストを出力するけど、ストーリーが成り立ってなくてあれは漫画じゃないね。
基本的に今のAIイラストは、特にAI動画なんかをみると顕著だけど、論理的には支離滅裂な夢の中で見たようなものしか出せなさそう。
ちょっと脱線するが、初期のaiイラストは文字がぐちゃぐちゃに溶けていた(いわゆるai文字)だったけど、最近のaiイラストは単語とかフレーズレベルでは正しい日本語を出力してくるようになったね。あけおめのイラストで「謹賀新年」ってちゃんと書けててびっくりしたよ。
(「謹謹謹謹謹謹賀新年」とかなってたりしたが。意味はわかってないんだろうね。)
ちゃんと、起承転結の整った漫画1作品を出力できるようになるまであとどれくらいかかるかな?
chatgptでそれなりに読める小説を生成できるようだから、今でも文字だけなら論理的に破綻しないストーリーを生成できるようじゃない。
現在の技術ではそのストーリーを絵に落とし込むところにまだギャップがあるんだろな。
今のstable diffusionとかの画像生成の仕組みって、文字と画像を1つのセットにして学習空間にマッピングする仕組みだから、普通にこのままGPUの進化で計算量が向上していて、この1セットをストーリー全体の文章+漫画1作品の画像ぐらいの情報が扱えるようになったら力技で実現できるような気がする。
あるいは1枚もの1コマ漫画なら今の1セットの情報量でも収まりそうだからちょっとファインチューニングを工夫すれば出力できるようになったりしないのかな??
教えて詳しい人。
2023年、生成AIを搭載した検索エンジンの登場は世界に衝撃を与えた。米国政府が国家戦略として掲げるAI開発競争は、技術的優位性の確保と経済的リターンの獲得という二重の課題に直面している。OpenAIのGPT-4が示した驚異的な言語理解能力は、軍事技術から医療診断まで幅広い応用可能性を予感させた。しかし、黎明期の熱狂が冷めつつある今、業界関係者の間で囁かれる疑問は「この技術は本当に金を生むのか」という現実的な問いへと移行している。
米国政府は2021年度AI研究開発予算を32億ドルに設定し、国防高等研究計画局(DARPA)主導で軍事転用可能なAI技術の開発を加速している。量子コンピューティングとの融合や、半導体製造技術の国内回帰(CHIPS法)など、ハードウェア面での基盤整備に注力する姿勢は鮮明だ。特にNVIDIAのGPU需要は国防契約と連動し、同社の株価は過去5年で1,200%超の上昇を記録している。
大手テック企業の動向は矛盾に満ちている。MicrosoftはOpenAIに130億ドルを投資しながら、実際のAzure AIサービス収益は予測の60%を下回る。GoogleのBard統合検索では広告収入モデルの再構築に苦慮し、AmazonのBedrockプラットフォームはAWS顧客の3%未満しか採用していない。生成AIのコスト構造が明らかになるにつれ、1クエリ当たり0.006ドルという処理費用が収益化の壁として立ちはだかっている。
ChatGPTの月間アクティブユーザー数が18億を突破する中、OpenAIの年間損失額は5.4億ドルに達する。主要収入源であるAPI利用では、企業顧客の80%がプロトタイプ段階で開発を中止している現実がある。Microsoft 365 Copilotの事例が示すように、生産性向上ツールとしての価値認知と実際の支払意思の間には深い溝が存在する。ある調査では、Copilotユーザーの67%が「月30ドル以上の価値を感じない」と回答している。
AIチップ需要の過熱が生んだ半導体バブルは特筆すべき現象だ。NVIDIAの時価総額が2023年に1兆ドルを突破した背景には、H100 GPUの価格が製造原価の800%を超える事実がある。TSMCの3nmプロセス需要の70%がAI関連に集中する異常事態は、半導体産業全体のリソース配分を歪めている。しかし、Cerebras Systemsの新型Wafer Scale Engineが示すように、ハードウェアの進化速度がソフトウェアの最適化を上回る逆転現象が発生しつつある。
中国のDeepseek-R1がGPT-4の性能を1/10のコストで実現した事実は、業界の常識を根本から覆した。同モデルが採用した「動的ニューロン活性化」アルゴリズムは、不要なパラメータ計算を85%削減する画期的な手法だ。これにより、従来1回の推論に要した0.2kWhの電力を0.03kWhまで圧縮することに成功している。Deepseekの事例が証明したのは、計算資源の多寡が必ずしも性能優位を保証しないという逆説である。
Llama 3やMistralの進化が加速する中、独自モデルを保持する企業の競争優位性は急速に失われつつある。Hugging Faceのプラットフォームでは、1週間ごとに新しいLLMアーキテクチャが発表され、ファインチューニングの自動化ツールが普及している。特に中国発のモデルがGitHubで急増する傾向は顕著で、2024年上半期だけで3,200件の新規リポジトリが登録された。この状況は、初期投資の回収を前提としたビジネスモデルの存続自体を危うくしている。
国際数学オリンピック(IMO)の過去10年間で、中国チームが9回の優勝を達成している事実は軽視できない。特に2023年の北京大会では、金メダル6個中5個を中国国籍の学生が独占した。米国チームの実態を見ると、参加者の62%が中国系移民の子弟で構成されており、本質的な人材育成力の差が浮き彫りになっている。DeepMindの元チーフサイエンティフが指摘するように、「Transformerアーキテクチャの革新には組合せ最適化の深い理解が不可欠」であり、この領域で中国の研究者が圧倒的な論文数を誇っている。
清華大学のAI特別クラスでは、学生が高校時代からGANsや強化学習の数学的基礎を学ぶカリキュラムを採用している。これに対し、MITのコンピューターサイエンス学部では、学部2年次まで微分方程式の必修科目が存在しない。教育省の統計によれば、中国のトップ30大学でAI関連専攻を選択する学生の数は、米国アイビーリーグの3倍に達する。人的資本の蓄積速度の差が、5年後の技術格差に直結する可能性が高い。
LLM市場が直面する最大のリスクは、電気自動車用バッテリーや太陽光パネルと同じ道を辿る可能性だ。BloombergNEFの予測によれば、2027年までにLLMの性能差が実用レベルで感知できなくなり、1トークン当たりのコストが現在の1/100にまで低下する。この状況下では、MicrosoftのCopilotのような高額サブスクリプション・モデルの持続性が疑問視される。逆に、LINEやWhatsAppのようなメッセージングアプリへの基本機能組み込みが主流となるシナリオが有力視されている。
AI技術の民主化が進むほど、国家間の競争はハードウェア規制やデータ主権を巡る争いに移行する。米商務省が2024年に発動したAIチップ輸出規制は、中東諸国向けのGPU販売を34%減少させた。一方、中国が推進する「東数西算」プロジェクトでは、内陸部に分散したデータセンター群が国家標準モデルの訓練基盤として機能し始めている。技術優位性よりも、地政学的な影響力が市場を支配する時代が到来しようとしている。
現状のAIバブルがはじけるトリガーは複数存在する。第一に、2025年をメドに予想される「生成AI特許訴訟の多発」が挙げられる。Getty ImagesがStability AIを提訴した事例のように、著作権問題が技術普及の足かせとなる可能性が高い。第二に、エネルギーコストの急騰だ。アイルランドのデータセンター群ですでに発生しているように、LLM運用に必要な電力需要が地域の送電網の容量を超えつつある。
最も深刻なシナリオは「技術進化の減速」である。Transformerアーキテクチャ以降、根本的なブレイクスルーが10年間発生していない事実は看過できない。物理学者の間では、現在のニューラルネットワークがチューリング完全性の限界に近づいているとの指摘もある。もし2020年代後半までに新しいパラダイムが登場しなければ、数千億ドル規模の投資が不良債権化する危機が現実のものとなる。
米国AI戦略の行方は、単なる経済競争を超えた文明史的挑戦と言える。Deepseekが示したように、技術優位性は絶対的なものではなく、常に相対的な優劣でしかない。重要なのは、AIが生み出す付加価値の本質を見極めることだ。仮に生成AIが期待通りの経済効果を生まなくとも、その研究過程で得られた副産物(分散学習アルゴリズムや省電力チップ設計技術など)が次の技術革命の種となる可能性がある。
最終的に問われるのは、短期的な株価維持ではなく、長期的な技術蓄積をいかに持続可能な形で進化させるかという課題である。中国の人的資本戦略と米国の投資戦略が衝突する中で、第三極としての欧州連合(AI法案)やインド(デジタル公共財戦略)の動向が新たな可能性を開くかもしれない。AI開発競争は、国家の命運をかけた「静かなる戦争」として、これからさらに激化していくであろう。
あなたの言いたいことを整理しつつ、内容をわかりやすく伝える文章を提案します。
近年、生成AIの利用が急速に広がり、その可能性がさまざまな分野で注目されています。しかし、それと同時に、AIの仕組みを理解せずに利用した結果、無駄なトラブルや誤解が生まれている事例も少なくありません。生成AIを正しく活用するためには、以下のような基礎知識を持つことが重要です。
生成AIは、膨大なデータから学習して生成物を作り出します。この過程では、以下のような概念が関わります:
• 潜在空間:AIがデータの特徴を抽象化し、多次元の空間上で表現する領域。
• モデルのトレーニング:データを用いてAIに学習させる過程。
• ファインチューニングとマージ:特定のデータでモデルを調整・統合し、特定のスタイルや特徴を強調する技術。
• LoRA(Low-Rank Adaptation):既存モデルを効率的にカスタマイズする手法。
• ベクトル操作:プロンプトや設定によって生成結果を調整する方法。
これらの基本的な知識が不足していると、意図しない結果や誤解を招く可能性があります。
生成AIは、入力(プロンプト)に基づいて潜在空間からアウトプットを生成します。しかし、その過程には以下のような特性が伴います:
• 言葉が示す領域:自然言語は固定的な意味を持つわけではなく、複数の概念を内包します。例えば、「solid color, sharp edges, clean edges」というプロンプトは「Vector Style」に近いアウトプットを誘発します。
• バイアスの影響:モデルが特定のデータに偏っている場合、その影響が生成結果に現れます。たとえば、特定の絵師のデータで学習されたモデルでは、その絵師のスタイルが反映されやすくなります。
バイアスの例として、黒人がアフロヘアで生成されやすい、特定の職業が特定の性別と結びつきやすいなどがあります。これを回避するには、プロンプトを適切に設計し、結果を微調整するスキルが必要です。
AIが「必要なものだけを正確に出力する」ように進化する可能性はあります。しかし、それを実現するためには、以下の課題を解決する必要があります:
• 解釈の多様性:たとえば、「犬」と聞いて思い浮かべる犬種は人によって異なります。これは、個々の経験や背景に基づくものです。
• 知識と経験:生成AIを効果的に活用するには、ドメイン知識と目的を的確に伝える言語化力が求められます。
全ての人類が同じ解釈に至ることは現実的ではありません。そのため、必要な結果を得るためには、継続的な学びと試行錯誤が避けられないのです。
生成AIは強力なツールですが、その活用には正しい知識と責任が伴います。技術を正しく理解し、目的を適切に言語化する力を持つことで、トラブルを防ぎ、より良い結果を得ることができます。
結局のところ、「お前がそう思うんならそうなんだろう、お前ん中ではな」(日本橋ヨヲコ『少女ファイト』)という言葉が示すように、解釈や結果は主観的なものであり、全ての人が満足する解を得るのは難しいかもしれません。それでも、理解を深め、自らの力で「望む結果」に近づける努力を惜しまないことが、生成AIを最大限に活用する鍵となるのです。
画像生成AI、最初から金稼ぎのために悪用するつもりの奴はどうでもいいが、ただ仕様が分かっていないせいで無駄なトラブルに巻き込まれてる一般人をよく見る
潜在空間の概念、モデルトレーニングの流れ、ファインチューン、マージ、LoRA、ベクトル操作くらいは勉強してから使ってほしい
わたしは特定絵師に寄せてないよ!と言っても、使ってるモデルがチューニングに特定絵師のデータばかり使ってたり、絵師LoRAがマージされてて特定の絵柄が標準で生成されるようになってるモデルを使っていると、ユーザーが寄せようとしなくても寄る
イラスト用のモデルがなぜイラスト風の画像以外を上手く生成できなくなるか?つまりなぜ実写が苦手になるのか、それはイラストで頭をいっぱいにされているからだよ
あと、スタイル指定に使われる「by 〇〇」とか「〇〇 Style」みたいな言葉は、所詮他のプロンプトと同様に「複数の概念が内包された言葉」でしかないので、組み合わせ次第では特定の画風に寄ることもあるわけだ
例えば「Vector Style」という言葉が「solid color, sharp edges, clean edges, minimalist, transparent background, high contrast」といった要素を持つ場合
「solid color, sharp edges, clean edges」というプロンプトを使うとVector Styleに近づく
要は、ある言葉が直接そこに結びつき、絵柄指定と同じ効果をもたらすということ
さらに、この現象の極端なケースとして「教師データが特定絵師の作品ばかりに偏ったオブジェクトは、オブジェクトそのものと絵師の絵柄が結びついてしまう」問題もあったりする
そのオブジェクトAと絵師Xの概念が非常に近いために、オブジェクトAを生成すると絵師Xの絵柄で生成されることがある
AといえばX!状態というわけだな
逆に、絵師Xの名前と同じ単語が入っていると、なぜかAが生成される、ということもある
これはいわゆるバイアスで、一般的な例を出すと、黒人がアフロで生成されやすかったり、白人が金髪になりがちだったり、特定の職業人を生成すると性別が偏るのと同じで主に学習データの偏りに起因する
謎のサインが生成されるのも「イラストや絵画には大体はこんな感じのがある」と学習した結果だ
黒人とアフロの例では、それぞれの概念が結びついていて、黒人はチリチリというバイアスがあるので黒人+ロングヘアー=チリチリロングになったりするし、ドレッドヘアーになることもある
白人+アフロ=浅黒アフロになる事もある そのAIにとってアフロといえば黒人であり、黒人といえば肌が黒い、白人に黒を足すと浅黒い、故に浅黒アフロが生まれる、ことがある
とはいえ、この程度ならAI側がその言葉から学んだ特徴に過剰適合していない場合、プロンプトの組み合わせで回避できる問題だ
黒人をロングにするとチリチリになるなら、ストレートヘアーなどの言葉を追加する
アフロや黒い肌といった言葉をNegativeに入れるのもありだ
「不要な特徴からは距離を取れる、ただし反応できるのは文字と概念が結びついている時」
ストレートヘアーを追加すると顔が変化したり、白い肌を追加すると目の色が変化したりする
「"あの"魚が欲しい」と網を投げた際に、狙っている魚以外のものまで取れてしまう
なので、観察しながら調整しなければならない
望まぬ結果を避けるために、意図せずともそういう結果になりうる、という事だけは把握して
今の生成AIにとっての自然言語とは、固有の意味を持つのではなく、ある「領域」を示すもの
生成AIは、言葉に従って潜在空間を移動しながら、学習した言葉と関連する画像から得た特徴をガバっと鷲掴んでいき、人間から見た時の整合性は気にせず一つの出力物をアウトプットする
小魚が多い海域で網漁をすると、小魚だけ取れることもあるが、小魚と一緒にゴミが取れることもある
ゴミは要らないと言っても仕方ない、その海域にはゴミが存在するのだから
だが実は、この仕組みがアウトプットの多様性を生み出すために役立っている
人間は魚を手に入れるために網を投げたわけだが、漠然と「魚が欲しい」と網を投げた時に、特定の魚しか取れないのは多様性の欠如に繋がるし対応力もなくなる
究極的には、「プロンプトで書かれている事を"正しく"」出力するAIも作られるかもしれない
必要としているものしか出てこない、さぞ便利な道具だろうと思う
だが、そのAIを活用するには結局のところ、ドメイン知識を持った上で自分が何を必要としているのかを相手に伝える力が必要となる
「犬」と言われて、真っ先に秋田犬が思い浮かぶ人もいれば、ペットのミニチュアダックス以外が思い浮かばない人もいる
その「リンゴ」っていうのは、片があるの?無いの?一枚の葉がついてたりする?木のこと?
"正しさ"とは?解釈の結果は一義的なの?全人類共通の理解が得られるの?
あいつが悪い!いやこいつが悪い!すまん俺が悪い!いやそんなことはない!
お前がそう思うんならそうなんだろう、お前ん中ではな
あらゆる物事について、全ての人類が同じ解釈になる日がこない限り、知識と経験、そして言語化力からは逃げられないというわけだ
というわけで、潜在空間の概念、モデルトレーニングの流れ、ファインチューン、マージ、LoRA、ベクトル操作を学び知識を増やし経験を積もう
画像生成モデルを学ぶこと、その半分くらいは言語モデルを理解することにも繋がるよ
本当はそもそもの仕組みとかモデル毎のアーキテクチャとかトークンとかシードについても知ってほしいけどキリがないんだよね
追記:
AIに校正させるのはいいけど、この文章で完成するわけでもなし、それを"ちゃんと"発展させるのは手間がかかるんよ
それこそ小魚と一緒にゴミが取れまくるんで、ゴミを取り除くために愛と魂をこめて作業しないといけないのがめんどいわけですわ
だから俺はやりたくないけど出版してくれたら買って布教するよの投稿
追記2:
2024年12月20日、増田が主催する「はてブでスッキリ・オブ・ザ・イヤー2024大賞」に「エレガント・バリエーション」が選ばれました。
欧文の慣習『数行以内では、同じ語を繰り返さずに言い換えるべし』が非効率に見えて有用だった「日本語でもこれはある?」 - Togetter [トゥギャッター]
togetter.com/li/2453288
・英語の文章で見かけるアレ、なんて言うんだろ?が解決してスッキリ
・適当な言葉を色々組み合わせて検索しても見付かんなかった、が分かってスッキリ
・はてブでホッテントリーに上がってきて、エフォートレスでファインド出来てスッキリ
エレヴァリで書かれた文章、そのまま日本語に訳すと違和感バリバリになるのよね。
代名詞的に使ってバラバラになった人物紹介を文章組み替えて一纏めにするとかしないと。
“ジュネジャ氏”を一応補ってはいるっぽいので、それ省くとよりエレヴァリっぽさが増すわ。
「o1が"意図的にユーザーを騙す"ことがある」という記事へのコメントを読んで、LLMへの幻想をぶち壊す感じの何かを真面目に書こうかなと思ったんだが、
順を追って列挙していくほど「これ…なんだかんだ言って人間も変わらんよな…」となったので、AIに突っ込んで人間に置き換えてもらったのが下。
うむ。文脈を考慮し、意図を捉え、関連する知識を活用して返答できてるな!
萎えるわー
DMM Voice(にじボイス)、Aivis、立て続けにStyle-Bert-VITS2ベースのプロジェクトがリリースされて物議を醸しました。
一番の問題点*は、提供されているベースモデルをファインチューニングしている点です。そのベースモデルはBERT-VITS2というStyle-Bert-VITS2のフォーク元の中国からリリースされたモデルです。
800時間近い日本語データを学習しています。こんなデータが存在するのでしょうか?少なくとも研究用とやUnity Storeなどで買える量ではありません。
このデータはPCゲームなどからデータをぶっこ抜いているのはという噂があります。このあたりは該当するアダルト系のテキストを入れると関連する音声が生成されるところから考察されています。
DMM Voice、Aivis、どちらもちゃんと身元の分かったデータを使っているなら、ちゃんと公式ページに載せると思うんですが、載せてないですよね。載ってたらどなたか教えて下さい。
https://github.com/fishaudio/Bert-VITS2/releases/tag/JP-Exta
StyleBERTVITS2が悪いわけではないです。むしろ技術的には興味深いものです。問題は、デフォルトで利用されるその事前学習モデルが非常にきな臭いんです。
大元の事前学習モデルがどのように学習したかはこれ以上情報がないのですが、本家の学習コンフィグを見るとヒントがあります。見てください。原神の話者がたくさんセットされているではありませんか。
原神って学習データを公開していたんでしたっけ。。?はい、賢い人はもうおわかりですね。
https://github.com/fishaudio/Bert-VITS2/blob/master/configs/config.json
日本の法律的には、元の学習データの音声を楽しむために利用しているわけではなく、出てくる音声もちょっと違うし、実在する声優の名前を出すわけではないので、法律的にはグレーという感じのようです。
ただし倫理的にどうなの?という問題があり、個人で楽しむ分にはよいけど、商用利用可能で大々的に会社として打ち出すのって正直どうなの?という気持ちです。
StyleBERTVITS2ではモデルマージが使えます。モデルマージとは、異なる話者のモデル同士を足し算することで、その中間のような話者を作ることができる技術です。これを使うと架空の話者がたくさん作れてしまうわけですし、"元の話者"からずらす事ができます。
一般の利用者が「これすげー!」と騒ぐのはわかりますが、大元の開発者の人はちゃんとわかった上で公開しているんでしょうか?「面白いから」で進めている様子を私は非常に冷ややかに見ています。
勘違いしないでほしいですが、私は生成AIを推進したい人です。しかし、プロを尊敬しないこの方法は、どうも頂けません。
*故人の声優データでモデルを登録できるのも十分論外なのですが、審査を導入すればすべて解決か?といったらそうでもないので。
機械学習エンジニアとして働いている者として、何点か賛同できない点があったので個人的な主張を述べておきます。
深層学習モデルの作成経験はありますが、いわゆる「GenAI」の動向を詳しく追っているわけではなく、GenAIエンジニアでもありません。
ですので、私の解釈が間違っている場合にはコメントをもらえますと幸いです。
-----------------
(引用) そもそも深層学習の構造を考えると、億単位の画像を学習している基盤モデルに自分の作品が数十枚食われた程度で、個人の絵柄が再現できるはずもない。(引用終わり)
イチから学習させる場合には確かにそうですが、悪意ある一般ユーザーの多くが行うのはLoRAであり、これは汎用的な生成AIに数十枚の特定スタイルの画像を追加学習させることでファインチューニングを行うものだという認識です。
これには数十枚の画像があれば十分なので、「個人の絵柄が再現できるはずもない」というのは間違いではないでしょうか?
参考1:https://prtimes.jp/main/html/rd/p/000000051.000100410.html
参考2:https://note.com/mioha_0308/n/n3b9a40b2c08c
参考3:https://w.atwiki.jp/genai_problem/pages/18.html
-----------------
(引用) ある者はGlazeやらNightshadeやらで絵を汚すことで安心(=プラセボ効果)を得ようとし、(引用終わり)
GLAZEについては、単にそれっぽいノイズを加えるのではなく、Style transferを行うことで、生成AIにスタイル特徴の特徴空間を誤認させるものだという理解をしています。
実際に論文中でも、スタイルを誤認させることに成功しています。
これはAdversarial Attackのように、人間には一見同じように見える画像でも、生成AIには全く異なるものに見えるように画像を変換しているものだという認識です。
GLAZE, Nightshadeを実際に検証した記事を見てみると、たしかにLowフィルターだけを使用した場合にはあまり効果はなさそうですが、Highフィルターを使用した場合には一定の効果はあるように見えます。
(Lowフィルターだけをかけても効果が薄いという主張であれば、賛同します)
参考1:https://qiita.com/heart_mugi/items/aa88e78add3ee138858a
参考2:https://tech.preferred.jp/ja/blog/nips17-adversarial-learning-competition/
参考3:https://qiita.com/miu200521358/items/81439ba159d836faa0f4
-----------------
できるよ!!
公開範囲を限定するのそれなりに効果はあるけれど100%ではないよ。
…例えば物理Onlyでかつ有償でのみ閲覧可にしてもネタ画像と称して漫画のコマを切り抜きしてtweetする人がいるように
Glaze も学習妨害の効果はあるけれど100%ではないよ。
…Glazeの仕組みは他人の画風と混ぜ混ぜして学習をだます仕組みだけれど、Glazeは、学習に使用するモデルと妨害したい画像データ、欺瞞用データで計算するため 計算に使用したモデルに対してのみにしか妨害効果がないから、適用範囲が限られてるよ。そのうえ、GlazeはSD1.5で動作するように設計されてるけれど、現時点でSD1.5を使用している人はほとんどいないよ。さらに、SD1.5の時代においても、ユーザーは各自のニーズに合わせてファインチューニングされたモデルを使っていて、素のSD1.5そのままを利用している人はほぼいないよ。加えて、素のSD1.5に対しても、効果のある元データと欺瞞データの組み合わせの幅が狭く、常に効果があるわけではないよ。…論文は正しいしアプリもそれなりに動くけれど前提が現実に合っていないの
Nightshadeも学習妨害の効果はあるけれど100%ではないよ。
…Nightshadeの仕組みは大規模モデルではトークンと画像の特徴の結びつきが弱いから簡単に乗っ取れるよなの。スタバなうでラーメンが出る現象みたいなやつ。論文では画像をWEBで公開する時は画像と関係ないテキストをつけろと言ってるけれど、そんなことしたら意味不明なツイートになったり、画像投稿サイトにUPしても見つけてもらえなくなるから誰も実践してないの。Nightshadeのアプリは画像から画像の説明を生成するアプリを騙す処理を施すのであって学習を妨害する機能は無いよ。しかも実際は全然騙せていないのん。それに、学習する側はNightshadeとは関係なしに説明文の生成で誤検出等があるのが前提で手動で画像の説明文を修正するのが当たり前だから…論文で言ってることは正しいけれど誰も実践できてないの
…「この画像はウォーターマークのついている画像です」の説明文とともにウォーターマークごと学習して、ウォーターマークの画像の特徴はウォーターマークのトークンに関連付けられて学習されるの。ウォーターマーク以外の部分はその他のトークンに学習されるの。ウォーターマーク付きのデータが増えると、より正確にウォーターマークの概念を学習できるの。
ウォーターマークは学習妨害ではなく当該著作物の2次利用の防止のためにつけるものなの。例えば、勝手にグッズにされたとか
ウォーターマークがついていない本商品を売るためにサンプルとしての参考画像にウォーターマークをつけるの。本商品にまでウォーターマークつけるとウォーターマークついた状態で2次利用されてしまうの。
…ウォーターマークと同様にサインのトークンに吸収されて学習されるの。
動画を読み込んで深度推定・デプスマップの生成を行うAI、DepthCrafter
に対してのアメリカン反AIさんの反応「これが本当に求めてたAI!生成AIはゴミ!」
・・・あのこれ、君の嫌いな無断学習動画生成AIをファインチューニングしたデプス生成AIなんですけど・・・みたいな微妙な表情になっちゃう
https://ff14net.2chblog.jp/archives/61882227.html
で女性の見分け方が紹介されていたが、正直言って感度が高く、特異度が低いのでまるで役に立たない
そこで、本当の見分け方を紹介しよう
といっても、極までしか言ったことがなく、固定は組んだことがないので、経験談で話す
なお、女性といっても定型発達の女性と会ったことがないので、あくまで精神疾患のある女性限定であることは心にとめておいてほしい
耽美BLでググるとわかるが、なんとなく美形っぽいけど、しつこい感じのキャラクターの作り方をしていることがある
かかわった女性で水着やブリーフなどの肌を見せる装備を積極的にしてるのをほぼ見たことない
ある装備が新しく出ても露出が多いという理由で着ないことが多い
逆に露出はそこまでなく、ff14でいうと、ネオイシュガルディアン、ウィンターセーター、ウィスパーファインウール、クレセント、レベルコート、デモンアタイアなど比較的露出が少ないものを着こなしてることが多い
なお、腐属性の付く人だと男性キャラでは〇〇出汁などで肌を見せることは意外とあるので、あくまで女性キャラクターを使ったとき限定ではある
出会いを誘ってもすぐには会おうとしない
タイミングによってはそのまま関係が途切れるし、距離の詰め方を間違えたら、そのまま関係が途切れたことも何度かあった
あと、超絶上から目線だし、セクハラ(ここでは話しかけたりデートに誘ったり)しようものなら、負の性欲をいかんなく発揮して、権力者をうまく動かして、追い出しにかかるぐらいは平気でする
さらすときに出会い厨などととにかく馬鹿にするし、されされた奴がどうなろうか気しないことが非常に多い
https://x.com/Clockwork_Wiz/status/1847042635216863539
気持ち悪ぅ…
ぐらいのことは平気でいう
集まれどうぶつの森、ff14の無人島、ハウジングなどデザインが好きな人が割と多い
あと、夢小説を書いてる人もちらほらいたし、リヴリーアイランドもわりとやっていたりする
むろん、男性でもここら辺をやってる人はいて、小説だと意外にいるが、ハウジングなど何かを置くことにはまる人は意外と少ない印象を受ける
女性は色のセンスがあると一般的にあるといわれているが、確かにそれはあると思う
むろん、男性でもおしゃれな人はおしゃれだが、女性とは色の使い方が違う感を受ける
言葉ではうまく説明できないので、谷口美佳などと検索して、色の使い方を何となく覚えたほうが手っ取り早いと思う
あと、Xだとフォントの使い方がうまい人が割といたり、SSもかなり凝ってたりする
たまに外れることがある
なお、LGBTのGの似たような色遣いをするので、運悪く引っかかることがある
男厨と出会った記録を何個か作っておけば、女性から出会い厨とみられる確率は下がり、逆に社交的な人といういい評価がつくことがある
出会い厨は非モテのシグナルですが、社交的な人というのはモテのシグナルである
なお、ff14で出会える女性はユールモアにでてくるふくよかな人が割といる
それは覚えておいたほうがいい
「まぁ、ピタゴラスの定理なんて、あれはもう初歩の話よね。確かに、a² + b² = c² は中学生レベルでも理解できるけれど、そこに潜む深い代数的構造や、ユークリッド幾何学との関連性を本当に理解しているのかしら?あの定理の背後には、単なる平面上の直角三角形の話じゃなくて、リーマン幾何学や複素数平面を通じたさらに高度な次元の世界が見えてくるのよ。それに、ピタゴラスの定理を特別な場合とする円錐曲線や、楕円関数論まで考え始めると、幾何学の美しさっていうものがもっと深く見えてくるわけ。」
「それと、黄金比ね。もちろん、あのφ(ファイ)がどれだけ重要か、理解してる?単に無理数というだけじゃなく、数論的にも代数的にも特異な数なのよ。フィボナッチ数列との関係も美しいけど、そもそもあの比が自然界で頻繁に現れるのは、単なる偶然じゃないわ。代数的無理数としての特性と、対数螺旋やアファイン変換を通じた変換不変性が絡んでいるのよね。そういった数学的背景を理解せずに、ただ黄金比が「美しい」ってだけで済ませるのはちょっと浅はかだと思うわ。」
「あと、パルテノン神殿の話だけど、そもそも古代の建築家たちが黄金比だけでなく、より複雑なフラクタル幾何学や対称群に基づいた設計をしていたってことは、あまり知られてないのよね。建築の対称性は、単なる視覚的な美しさじゃなくて、群論や代数的トポロジーに深く結びついているわ。あなたが好きな絵画も、ただの黄金比じゃなく、もっと深い数学的な構造に従っているのよ。わかるかしら?」