「ファイン」を含む日記 RSS

はてなキーワード: ファインとは

2025-02-17

GPTの発掘

特定機能付与したりファインチューニングしたりしたGPTを以下から探せる

https://chatgpt.com/gpts

まだまだおもしろGPTが発掘できるんじゃねぇかなと思うんだよね

お気に入りはWolframとJewish-GPT

2025-02-03

anond:20250203155804

私、過去に色々あってイケメンと付き合うのが怖くて見た目完全度外視男性交際してるけど、いわゆるチー牛と呼ばれる人って見た目じゃなくて中身が妙なんだよね。

目線が合わない。逆にジュース飲みながらひたすらガン見してくる。常識的テーブルマナーが分からない。ファインダイニングにジャージで来る。スープを音立てて犬食い。ひたすら銀英伝?の話を捲し立ててくる。初デートの店のチョイスがたこ焼き食事中もひたすら割り勘ね!割り勘ね!と念を押してくる

嫌われるのは男だからでもなくチー牛だからでもなくこの人自身性格問題だろうなーってのが正直な感想

2025-02-01

ドラえもんの「まんが製造箱」の実現まであとどれくらいかかりそう?

AI絵も1枚絵ならだいぶ実用度が高いものが出力できるようになってきたよね。

特に直感的というか視覚的な性欲に働きかけるタイプイラストとか一点もののR18イラストみたいなのはもうほとんどAIイラストで十分なんじゃないかと思ってる。

キャラクタ x 性癖 x 絵柄 の組み合わせだけで定義されるような単純な構成のもの

ただ、ストーリーのある漫画かになるとまだ難しい感じ?

ときどき漫画っぽいコマ割りのイラストを出力するけど、ストーリーが成り立ってなくてあれは漫画じゃないね

基本的に今のAIイラストは、特にAI動画なんかをみると顕著だけど、論理的には支離滅裂な夢の中で見たようなものしか出せなさそう。

ちょっと脱線するが、初期のaiイラスト文字がぐちゃぐちゃに溶けていた(いわゆるai文字)だったけど、最近aiイラスト単語とかフレーズレベルでは正しい日本語を出力してくるようになったね。あけおめイラストで「謹賀新年」ってちゃんと書けててびっくりしたよ。

(「謹謹謹謹謹謹賀新年」とかなってたりしたが。意味はわかってないんだろうね。)

ちゃんと、起承転結の整った漫画作品を出力できるようになるまであとどれくらいかかるかな?

chatgptでそれなりに読める小説を生成できるようだから、今でも文字だけなら論理的破綻しないストーリーを生成できるようじゃない。

現在技術ではそのストーリーを絵に落とし込むところにまだギャップがあるんだろな。

今のstable diffusionとかの画像生成の仕組みって、文字画像を1つのセットにして学習空間マッピングする仕組みだから普通にこのままGPU進化計算量が向上していて、この1セットをストーリー全体の文章漫画作品画像ぐらいの情報が扱えるようになったら力技で実現できるような気がする。

あるいは1枚ものコマ漫画なら今の1セットの情報量でも収まりそうだからちょっとファインチューニングを工夫すれば出力できるようになったりしないのかな??

教えて詳しい人。

2025-01-28

米国AI戦略の岐路──Deepseekの衝撃と「利益なきバブル」の行方

序章:AI覇権競争パラドックス

2023年、生成AIを搭載した検索エンジンの登場は世界に衝撃を与えた。米国政府国家戦略として掲げるAI開発競争は、技術的優位性の確保と経済的リターンの獲得という二重の課題に直面している。OpenAIGPT-4が示した驚異的な言語理解能力は、軍事技術から医療診断まで幅広い応用可能性を予感させた。しかし、黎明期熱狂が冷めつつある今、業界関係者の間で囁かれる疑問は「この技術は本当に金を生むのか」という現実的な問いへと移行している。

第1章:米国AI戦略光と影

国家戦略としてのAI投資

米国政府2021年AI研究開発予算を32億ドルに設定し、国防高等研究計画局DARPA)主導で軍事転用可能AI技術の開発を加速している。量子コンピューティングとの融合や、半導体製造技術国内回帰(CHIPS法)など、ハードウェア面での基盤整備に注力する姿勢は鮮明だ。特にNVIDIAGPU需要国防契約と連動し、同社の株価過去5年で1,200%超の上昇を記録している。

民間セクタージレンマ

大手テック企業の動向は矛盾に満ちている。MicrosoftはOpenAIに130億ドル投資しながら、実際のAzure AIサービス収益予測の60%を下回る。GoogleのBard統合検索では広告収入モデルの再構築に苦慮し、AmazonのBedrockプラットフォームAWS顧客の3%未満しか採用していない。生成AIコスト構造が明らかになるにつれ、1クエリ当たり0.006ドルという処理費用収益化の壁として立ちはだかっている。

第2章:LLMビジネスモデル根本課題

幻想現実乖離

ChatGPTの月間アクティブユーザー数が18億を突破する中、OpenAIの年間損失額は5.4億ドルに達する。主要収入であるAPI利用では、企業顧客の80%がプロトタイプ段階で開発を中止している現実がある。Microsoft 365 Copilotの事例が示すように、生産性向上ツールとしての価値認知と実際の支払意思の間には深い溝が存在する。ある調査では、Copilotユーザーの67%が「月30ドル以上の価値を感じない」と回答している。

半導体市場の歪み

AIチップ需要過熱が生んだ半導体バブル特筆すべき現象だ。NVIDIA時価総額2023年に1兆ドル突破した背景には、H100 GPU価格製造原価の800%を超える事実がある。TSMCの3nmプロセス需要の70%がAI関連に集中する異常事態は、半導体産業全体のリソース配分を歪めている。しかし、Cerebras Systemsの新型Wafer Scale Engineが示すように、ハードウェア進化速度がソフトウェア最適化を上回る逆転現象が発生しつつある。

第3章:Deepseekが突きつける現実

コスト革命の衝撃

中国のDeepseek-R1がGPT-4の性能を1/10コストで実現した事実は、業界常識根本から覆した。同モデル採用した「動的ニューロン活性化アルゴリズムは、不要パラメータ計算を85%削減する画期的手法だ。これにより、従来1回の推論に要した0.2kWhの電力を0.03kWhまで圧縮することに成功している。Deepseekの事例が証明したのは、計算資源多寡が必ずしも性能優位を保証しないという逆説である

オープンソースの脅威

Llama 3やMistralの進化が加速する中、独自モデルを保持する企業競争優位性は急速に失われつつある。Hugging Faceのプラットフォームでは、1週間ごとに新しいLLMアーキテクチャが発表され、ファインチューニング自動化ツールが普及している。特に中国発のモデルGitHubで急増する傾向は顕著で、2024年上半期だけで3,200件の新規リポジトリ登録された。この状況は、初期投資の回収を前提としたビジネスモデルの存続自体を危うくしている。

第4章:アルゴリズム戦争と人的資本

中国数学的優位性

国際数学オリンピック(IMO)の過去10年間で、中国チームが9回の優勝を達成している事実は軽視できない。特に2023年北京大会では、金メダル6個中5個を中国国籍学生が独占した。米国チームの実態を見ると、参加者の62%が中国系移民の子弟で構成されており、本質的人材育成力の差が浮き彫りになっている。DeepMindの元チーフサイエンティフが指摘するように、「Transformerアーキテクチャ革新には組合せ最適化の深い理解が不可欠」であり、この領域中国研究者が圧倒的な論文数を誇っている。

教育システム比較

清華大学AI特別クラスでは、学生高校時代からGANsや強化学習数学的基礎を学ぶカリキュラム採用している。これに対し、MITコンピューターサイエンス学部では、学部2年次まで微分方程式の必修科目が存在しない。教育省の統計によれば、中国トップ30大学AI関連専攻を選択する学生の数は、米国アイビーリーグの3倍に達する。人的資本の蓄積速度の差が、5年後の技術格差に直結する可能性が高い。

第5章:AIエコノミー未来

コモディティ化の波

LLM市場が直面する最大のリスクは、電気自動車バッテリー太陽光パネルと同じ道を辿る可能性だ。BloombergNEFの予測によれば、2027年までにLLMの性能差が実用レベルで感知できなくなり、1トークン当たりのコスト現在の1/100にまで低下する。この状況下では、MicrosoftのCopilotのような高額サブスクリプションモデルの持続性が疑問視される。逆に、LINEWhatsAppのようなメッセージングアプリへの基本機能組み込みが主流となるシナリオが有力視されている。

地政学リスク顕在

AI技術民主化が進むほど、国家間の競争ハードウェア規制データ主権を巡る争いに移行する。米商務省が2024年に発動したAIチップ輸出規制は、中東諸国向けのGPU販売を34%減少させた。一方、中国が推進する「東数西算」プロジェクトでは、内陸部に分散したデータセンター群が国家標準モデルの訓練基盤として機能し始めている。技術優位性よりも、地政学的な影響力が市場支配する時代が到来しようとしている。

終章:バブル崩壊のシナリオ

現状のAIバブルがはじけるトリガー複数存在する。第一に、2025年をメドに予想される「生成AI特許訴訟の多発」が挙げられる。Getty ImagesがStability AI提訴した事例のように、著作権問題技術普及の足かせとなる可能性が高い。第二に、エネルギーコストの急騰だ。アイルランドデータセンター群ですでに発生しているように、LLM運用必要な電力需要地域送電網の容量を超えつつある。

最も深刻なシナリオは「技術進化の減速」である。Transformerアーキテクチャ以降、根本的なブレイクスルー10年間発生していない事実看過できない物理学者の間では、現在ニューラルネットワークチューリング完全性の限界に近づいているとの指摘もある。もし2020年代後半までに新しいパラダイムが登場しなければ、数千億ドル規模の投資不良債権化する危機現実のものとなる。

結語:人類史上最大の技術賭博

米国AI戦略行方は、単なる経済競争を超えた文明史的挑戦と言える。Deepseekが示したように、技術優位性は絶対的ものではなく、常に相対的な優劣でしかない。重要なのはAIが生み出す付加価値本質を見極めることだ。仮に生成AIが期待通りの経済効果を生まなくとも、その研究過程で得られた副産物分散学習アルゴリズムや省電力チップ設計技術など)が次の技術革命の種となる可能性がある。

最終的に問われるのは、短期的な株価維持ではなく、長期的な技術蓄積をいかに持続可能な形で進化させるかという課題である中国の人的資本戦略米国投資戦略が衝突する中で、第三極としての欧州連合AI法案)やインドデジタル公共財戦略)の動向が新たな可能性を開くかもしれない。AI開発競争は、国家の命運をかけた「静かなる戦争」として、これからさらに激化していくであろう。

2025-01-26

anond:20250125005821

法律の話としてはその辺はどうでも良くて、出力が似てるかどうかだけなんでないの。

画像関連はよくは知らんのだけど。

潜在空間概念モデルトレーニングの流れ、ファインチューン、マージ、LoRA、ベクトル操作くらいは勉強してから使ってほしい

2025-01-25

anond:20250125005821

あなたの言いたいことを整理しつつ、内容をわかりやすく伝える文章提案します。

生成AIを正しく活用するために必要なこと

近年、生成AIの利用が急速に広がり、その可能性がさまざまな分野で注目されていますしかし、それと同時に、AIの仕組みを理解せずに利用した結果、無駄トラブルや誤解が生まれている事例も少なくありません。生成AIを正しく活用するためには、以下のような基礎知識を持つことが重要です。

1. 生成AIの仕組みを理解する

生成AIは、膨大なデータから学習して生成物を作り出します。この過程では、以下のような概念が関わります

• 潜在空間AIデータの特徴を抽象化し、多次元空間上で表現する領域

モデルトレーニングデータを用いてAI学習させる過程

ファインチューニングマージ特定データモデルを調整・統合し、特定スタイルや特徴を強調する技術

• LoRA(Low-Rank Adaptation):既存モデル効率的カスタマイズする手法

ベクトル操作プロンプトや設定によって生成結果を調整する方法

これらの基本的知識が不足していると、意図しない結果や誤解を招く可能性があります

2. 生成結果の多様性バイアス理解する

生成AIは、入力プロンプト)に基づいて潜在空間からアウトプットを生成します。しかし、その過程には以下のような特性が伴います

言葉が示す領域自然言語は固定的な意味を持つわけではなく、複数概念内包します。例えば、「solid color, sharp edges, clean edges」というプロンプトは「Vector Style」に近いアウトプットを誘発します。

バイアスの影響:モデル特定データに偏っている場合、その影響が生成結果に現れます。たとえば、特定絵師データ学習されたモデルでは、その絵師スタイルが反映されやすくなります

バイアスの例として、黒人アフロヘアで生成されやすい、特定職業特定性別と結びつきやすいなどがあります。これを回避するには、プロンプトを適切に設計し、結果を微調整するスキル必要です。

3. 正確な出力の限界可能

AIが「必要ものだけを正確に出力する」ように進化する可能性はありますしかし、それを実現するためには、以下の課題解決する必要があります

解釈多様性:たとえば、「犬」と聞いて思い浮かべる犬種は人によって異なります。これは、個々の経験や背景に基づくものです。

知識経験:生成AI効果的に活用するには、ドメイン知識目的を的確に伝える言語化力が求められます

全ての人類が同じ解釈に至ることは現実的ではありません。そのため、必要な結果を得るためには、継続的な学びと試行錯誤が避けられないのです。

4. 結論:生成AIを使いこなすには

生成AIは強力なツールですが、その活用には正しい知識責任が伴います技術を正しく理解し、目的を適切に言語化する力を持つことで、トラブルを防ぎ、より良い結果を得ることができます

結局のところ、「お前がそう思うんならそうなんだろう、お前ん中ではな」(日本橋ヨヲコ少女ファイト』)という言葉が示すように、解釈や結果は主観的ものであり、全ての人が満足する解を得るのは難しいかもしれません。それでも、理解を深め、自らの力で「望む結果」に近づける努力を惜しまないことが、生成AIを最大限に活用する鍵となるのです。

こんな形でどうでしょう?より詳細な表現修正したい箇所があれば教えてください!

画像生成AI最初から金稼ぎのために悪用するつもりの奴はどうでもいいが、ただ仕様が分かっていないせいで無駄トラブルに巻き込まれてる一般人をよく見る

潜在空間概念モデルトレーニングの流れ、ファインチューン、マージ、LoRA、ベクトル操作くらいは勉強してから使ってほしい

わたし特定絵師に寄せてないよ!と言っても、使ってるモデルチューニング特定絵師データばかり使ってたり、絵師LoRAがマージされてて特定の絵柄が標準で生成されるようになってるモデルを使っていると、ユーザーが寄せようとしなくても寄る

イラスト用のモデルがなぜイラスト風の画像以外を上手く生成できなくなるか?つまりなぜ実写が苦手になるのか、それはイラストで頭をいっぱいにされているからだよ

あと、スタイル指定に使われる「by 〇〇」とか「〇〇 Style」みたいな言葉は、所詮他のプロンプトと同様に「複数概念内包された言葉」でしかないので、組み合わせ次第では特定の画風に寄ることもあるわけだ

例えば「Vector Style」という言葉が「solid color, sharp edges, clean edges, minimalist, transparent background, high contrast」といった要素を持つ場合

「solid color, sharp edges, clean edges」というプロンプトを使うとVector Styleに近づく

要は、ある言葉が直接そこに結びつき、絵柄指定と同じ効果をもたらすということ

さらに、この現象の極端なケースとして「教師データ特定絵師作品ばかりに偏ったオブジェクトは、オブジェクトのもの絵師の絵柄が結びついてしまう」問題もあったりする

そのオブジェクトAと絵師Xの概念が非常に近いために、オブジェクトAを生成すると絵師Xの絵柄で生成されることがある

AといえばX!状態というわけだな

逆に、絵師Xの名前と同じ単語が入っていると、なぜかAが生成される、ということもある

これはいわゆるバイアスで、一般的な例を出すと、黒人アフロで生成されやすかったり、白人金髪になりがちだったり、特定職業人を生成すると性別が偏るのと同じで主に学習データの偏りに起因する

謎のサインが生成されるのも「イラスト絵画には大体はこんな感じのがある」と学習した結果だ

黒人アフロの例では、それぞれの概念が結びついていて、黒人チリチリというバイアスがあるので黒人+ロングヘアー=チリチリロングになったりするし、ドレッドヘアーになることもある

白人+アフロ=浅黒アフロになる事もある そのAIにとってアフロといえば黒人であり、黒人といえば肌が黒い、白人に黒を足すと浅黒い、故に浅黒アフロが生まれる、ことがある

とはいえ、この程度ならAI側がその言葉から学んだ特徴に過剰適合していない場合プロンプトの組み合わせで回避できる問題

黒人をロングにするとチリチリになるなら、ストレートヘアーなどの言葉を追加する

白人アフロで浅黒くなるなら、白い肌などの言葉を追加する

アフロや黒い肌といった言葉Negativeに入れるのもありだ

不要な特徴から距離を取れる、ただし反応できるのは文字概念が結びついている時」

潜在空間ベクトル操作とはそういうこと

しかし実際のところ、全ての概念は何か別の概念と関連性がある

ストレートヘアーを追加すると顔が変化したり、白い肌を追加すると目の色が変化したりする

「"あの"魚が欲しい」と網を投げた際に、狙っている魚以外のものまで取れてしま

言葉の組み合わせの影響で、別の海域に流されることもある

なので、観察しながら調整しなければならない

というかそもそもバイアスは利用したければ利用したっていい

望まぬ結果を避けるために、意図せずともそういう結果になりうる、という事だけは把握して

今の生成AIにとっての自然言語とは、固有の意味を持つのではなく、ある「領域」を示すもの

生成AIは、言葉に従って潜在空間を移動しながら、学習した言葉と関連する画像から得た特徴をガバっと鷲掴んでいき、人間から見た時の整合性は気にせず一つの出力物をアウトプットする

小魚が多い海域で網漁をすると、小魚だけ取れることもあるが、小魚と一緒にゴミが取れることもある

ゴミは要らないと言っても仕方ない、その海域にはゴミ存在するのだから

だが実は、この仕組みがアウトプット多様性を生み出すために役立っている

人間は魚を手に入れるために網を投げたわけだが、漠然と「魚が欲しい」と網を投げた時に、特定の魚しか取れないのは多様性の欠如に繋がるし対応力もなくなる

究極的には、「プロンプトで書かれている事を"正しく"」出力するAIも作られるかもしれない

必要としているものしか出てこない、さぞ便利な道具だろうと思う

だが、そのAI活用するには結局のところ、ドメイン知識を持った上で自分が何を必要としているのかを相手に伝える力が必要となる

理由は、ある言葉解釈が、人それぞれであるから

「犬」と言われて、真っ先に秋田犬が思い浮かぶ人もいれば、ペットミニチュアダックス以外が思い浮かばない人もいる

その「リンゴ」っていうのは、片があるの?無いの?一枚の葉がついてたりする?木のこと?

エンジニアってのは、何のエンジニアなんだい?

"正しさ"とは?解釈の結果は一義的なの?全人類共通理解が得られるの?

あいつが悪い!いやこいつが悪い!すまん俺が悪い!いやそんなことはない!

と、何かひとつ物事にも、色々な解釈がある

お前がそう思うんならそうなんだろう、お前ん中ではな

by 日本橋ヨヲコ/少女ファイト

あらゆる物事について、全ての人類が同じ解釈になる日がこない限り、知識経験、そして言語化から逃げられないというわけだ

というわけで、潜在空間概念モデルトレーニングの流れ、ファインチューン、マージ、LoRA、ベクトル操作を学び知識を増やし経験を積もう

画像生成モデルを学ぶこと、その半分くらいは言語モデル理解することにも繋がるよ

って感じの事をちゃんとした文章で誰か書いてよ

本当はそもそもの仕組みとかモデル毎のアーキテクチャとかトークンとかシードについても知ってほしいけどキリがないんだよね

追記:

AI校正させるのはいいけど、この文章で完成するわけでもなし、それを"ちゃんと"発展させるのは手間がかかるんよ

それこそ小魚と一緒にゴミが取れまくるんで、ゴミを取り除くために愛と魂をこめて作業しないといけないのがめんどいわけですわ

から俺はやりたくないけど出版してくれたら買って布教するよの投稿

追記2:

戦場に引きずり出されてるのは俺じゃなく「仕様が分かっていないせいで無駄トラブルに巻き込まれてる一般人」ね

2025-01-22

anond:20250122190652

大谷に決まっとるやん

イチロー選んだらバッターハイライトしか見れんのやで

大谷選べばバッターピッチャー両方のハイライトが見れる

と書いてる途中に大谷選ぶと守備ファインプレイないやんと思い直した

2025-01-08

anond:20250108111830

科学独裁SF的には面白いんだが、なんだかんだ人間側の業で『主席プロンプター』とか『第1ファインチューナー』とか身分を作り出しそうな気がする。

2024-12-20

[] 「はてブスッキリ・オブ・ザ・イヤー2024大賞」を発表

2024年12月20日増田主催する「はてブスッキリ・オブ・ザ・イヤー2024大賞」に「エレガント・バリエーション」が選ばれました。

欧文の慣習『数行以内では、同じ語を繰り返さずに言い換えるべし』が非効率に見えて有用だった「日本語でもこれはある?」 - Togetter [トゥギャッター]

togetter.com/li/2453288

審査委員評価コメント

英語文章で見かけるアレ、なんて言うんだろ?が解決してスッキリ

適当言葉を色々組み合わせて検索しても見付かんなかった、が分かってスッキリ

はてブホッテントリーに上がってきて、エフォートレスファインド出来てスッキリ


エレヴァリで書かれた文章、そのまま日本語に訳すと違和感バリバリになるのよね。

代名詞的に使ってバラバラになった人物紹介を文章組み替えて一纏めにするとかしないと。

エレヴァリそのまま日本語文章って↓こんな感じよ。

“ジュネジャ氏”を一応補ってはいるっぽいので、それ省くとよりエレヴァリっぽさが増すわ。

インド出身亀田製菓会長日本さらなる移民受け入れを」 国際ニュースAFPBB News

www.afpbb.com/articles/-/3554104

審査委員評価コメント

・丁度良いエグザンポータイミング良くホッテントリしてて更にスッキリ

2024-12-12

LLM



「o1が"意図的にユーザーを騙す"ことがある」という記事へのコメントを読んで、LLMへの幻想をぶち壊す感じの何かを真面目に書こうかなと思ったんだが、

順を追って列挙していくほど「これ…なんだかんだ言って人間も変わらんよな…」となったので、AIに突っ込んで人間に置き換えてもらったのが下。

人間


うむ。文脈考慮し、意図を捉え、関連する知識活用して返答できてるな!

萎えるわー

2024-12-03

Qwenから出たQwQ-preview。OpenAI o1に匹敵するという触れ込みだが、(日本語だと)step by step自動で行うってだけで性能の向上は感じられないな。

gpt4o-miniとかClaude 3.5の方が断然いい。なんなら、同じパラメータ数のQwen2.5 32Bの方が性能高く感じる。

日本語ファインチューンやマージの加減でどう変わるかだなぁ。誰かやってくれー。

2024-11-22

Style-Bert-VITS2を利用してて商用利用可能!はマジで笑えない

DMM Voice(にじボイス)、Aivis、立て続けにStyle-Bert-VITS2ベースプロジェクトリリースされて物議を醸しました。

一番の問題点*は、提供されているベースモデルファインチューニングしている点です。そのベースモデルはBERT-VITS2というStyle-Bert-VITS2のフォーク元の中国からリリースされたモデルです。

800時間近い日本語データ学習しています。こんなデータ存在するのでしょうか?少なくとも研究用とやUnity Storeなどで買える量ではありません。

このデータPCゲームなどからデータをぶっこ抜いているのはという噂があります。このあたりは該当するアダルト系のテキストを入れると関連する音声が生成されるところから考察されています

DMM VoiceAivis、どちらもちゃんと身元の分かったデータを使っているなら、ちゃん公式ページに載せると思うんですが、載せてないですよね。載ってたらどなたか教えて下さい。

https://github.com/fishaudio/Bert-VITS2/releases/tag/JP-Exta

StyleBERTVITS2が悪いわけではないです。むしろ技術的には興味深いものです。問題は、デフォルトで利用されるその事前学習モデルが非常にきな臭いんです。

大元の事前学習モデルがどのように学習たかはこれ以上情報がないのですが、本家学習コンフィグを見るとヒントがあります。見てください。原神の話者がたくさんセットされているではありませんか。

原神って学習データを公開していたんでしたっけ。。?はい、賢い人はもうおわかりですね。

https://github.com/fishaudio/Bert-VITS2/blob/master/configs/config.json

日本法律的には、元の学習データの音声を楽しむために利用しているわけではなく、出てくる音声もちょっと違うし、実在する声優名前を出すわけではないので、法律的にはグレーという感じのようです。

ただし倫理的にどうなの?という問題があり、個人で楽しむ分にはよいけど、商用利用可能で大々的に会社として打ち出すのって正直どうなの?という気持ちです。

StyleBERTVITS2ではモデルマージが使えますモデルマージとは、異なる話者モデル同士を足し算することで、その中間のような話者を作ることができる技術です。これを使うと架空話者がたくさん作れてしまうわけですし、"元の話者"からずらす事ができます

一般利用者が「これすげー!」と騒ぐのはわかりますが、大元開発者の人はちゃんとわかった上で公開しているんでしょうか?「面白いから」で進めている様子を私は非常に冷ややかに見ています

勘違いしないでほしいですが、私は生成AIを推進したい人です。しかし、プロ尊敬しないこの方法は、どうも頂けません。

*故人の声優データモデル登録できるのも十分論外なのですが、審査を導入すればすべて解決か?といったらそうでもないので。

2024-11-15

「反AI絵師様たちの集団自滅記念日」に対するMLエンジニアから反論

機械学習エンジニアとして働いている者として、何点か賛同できない点があったので個人的な主張を述べておきます

深層学習モデル作成経験はありますが、いわゆる「GenAI」の動向を詳しく追っているわけではなく、GenAIエンジニアでもありません。

ですので、私の解釈が間違っている場合にはコメントをもらえますと幸いです。

その際には根拠となる文献をご提示いただけますと幸いです。

-----------------

(引用) そもそも深層学習構造を考えると、億単位画像学習している基盤モデル自分作品が数十枚食われた程度で、個人の絵柄が再現できるはずもない。(引用終わり)

イチから学習させる場合には確かにそうですが、悪意ある一般ユーザーの多くが行うのはLoRAであり、これは汎用的な生成AIに数十枚の特定スタイル画像を追加学習させることでファインチューニングを行うものだという認識です。

これには数十枚の画像があれば十分なので、「個人の絵柄が再現できるはずもない」というのは間違いではないでしょうか?

参考1:https://prtimes.jp/main/html/rd/p/000000051.000100410.html

参考2:https://note.com/mioha_0308/n/n3b9a40b2c08c

参考3:https://w.atwiki.jp/genai_problem/pages/18.html

-----------------

(引用) ある者はGlazeやらNightshadeやらで絵を汚すことで安心(=プラセボ効果)を得ようとし、(引用終わり)

GLAZEについては、単にそれっぽいノイズを加えるのではなく、Style transferを行うことで、生成AIスタイル特徴の特徴空間を誤認させるものだという理解をしています

実際に論文中でも、スタイルを誤認させることに成功しています

これはAdversarial Attackのように、人間には一見同じように見える画像でも、生成AIには全く異なるものに見えるように画像を変換しているものだという認識です。

GLAZE, Nightshadeを実際に検証した記事を見てみると、たしかLowフィルターだけを使用した場合にはあまり効果はなさそうですが、Highフィルター使用した場合には一定の効果はあるように見えます

個人的には、これは無意味ではないと考えています

Lowフィルターだけをかけても効果が薄いという主張であれば、賛同します)

参考1:https://qiita.com/heart_mugi/items/aa88e78add3ee138858a

参考2:https://tech.preferred.jp/ja/blog/nips17-adversarial-learning-competition/

参考3:https://qiita.com/miu200521358/items/81439ba159d836faa0f4

-----------------

以上の観点を踏まえて、私は次のように考えています


これらの私の考えも「コロナワクチン時の陰謀論のような、エセ科学で吹き上がるデタラメ」のようなものでしょうか?

2024-11-05

anond:20241105143355

できるよ!!

一番確実な学習妨害は公開しないこと

 

公開範囲限定するのそれなりに効果はあるけれど100%ではないよ。

…例えば物理Onlyでかつ有償でのみ閲覧可にしてもネタ画像と称して漫画コマを切り抜きしてtweetする人がいるように



Glaze も学習妨害効果はあるけれど100%ではないよ。

…Glazeの仕組みは他人の画風と混ぜ混ぜして学習をだます仕組みだけれど、Glazeは、学習使用するモデル妨害したい画像データ欺瞞データ計算するため 計算使用したモデルに対してのみにしか妨害効果がないから、適用範囲が限られてるよ。そのうえ、GlazeはSD1.5で動作するように設計されてるけれど、現時点でSD1.5を使用している人はほとんどいないよ。さらに、SD1.5の時代においても、ユーザー各自ニーズに合わせてファインチューニングされたモデルを使っていて、素のSD1.5そのままを利用している人はほぼいないよ。加えて、素のSD1.5に対しても、効果のある元データ欺瞞データの組み合わせの幅が狭く、常に効果があるわけではないよ。…論文は正しいしアプリもそれなりに動くけれど前提が現実に合っていないの



Nightshadeも学習妨害効果はあるけれど100%ではないよ。

…Nightshadeの仕組みは大規模モデルではトークン画像の特徴の結びつきが弱いか簡単に乗っ取れるよなの。スタバなうラーメンが出る現象みたいなやつ。論文では画像WEBで公開する時は画像関係ないテキストをつけろと言ってるけれど、そんなことしたら意味不明ツイートになったり、画像投稿サイトにUPしても見つけてもらえなくなるから誰も実践してないの。Nightshadeのアプリ画像から画像説明を生成するアプリを騙す処理を施すのであって学習妨害する機能は無いよ。しかも実際は全然騙せていないのん。それに、学習する側はNightshadeとは関係なしに説明文の生成で誤検出等があるのが前提で手動で画像説明文を修正するのが当たり前だから論文で言ってることは正しいけれど誰も実践できてないの

ウォーターマーク学習妨害効果はないよ

…「この画像ウォーターマークのついている画像です」の説明文とともにウォーターマークごと学習して、ウォーターマーク画像の特徴はウォーターマークトークンに関連付けられて学習されるの。ウォーターマーク以外の部分はその他のトークン学習されるの。ウォーターマーク付きのデータが増えると、より正確にウォーターマーク概念学習できるの。

ウォーターマーク学習妨害ではなく当該著作物の2次利用の防止のためにつけるものなの。例えば、勝手にグッズにされたとか

ウォーターマークがついていない本商品を売るためにサンプルとしての参考画像ウォーターマークをつけるの。本商品にまでウォーターマークつけるとウォーターマークついた状態で2次利用されてしまうの。


サイン学習妨害効果はないよ

ウォーターマークと同様にサイントークンに吸収されて学習されるの。

サイン盗作防止のためにつけるの。例えば、第3者がこの絵は俺が描いたとか。

無断転載は防げないけれど、無断転載されても著作者を主張できるように積極的サインはつけるべきと思うの

2024-10-21

動画を読み込んで深度推定・デプスマップの生成を行うAI、DepthCrafter

に対してのアメリカンAIさんの反応「これが本当に求めてたAI!生成AIゴミ!」

・・・あのこれ、君の嫌いな無断学習動画生成AIファインチューニングしたデプス生成AIなんですけど・・・みたいな微妙な表情になっちゃ

まぁこぺいんたーで発狂してる反さんよりは遥かにマシだけどね

出会い厨が送る女性の見分け方

https://ff14net.2chblog.jp/archives/61882227.html

女性の見分け方が紹介されていたが、正直言って感度が高く、特異度が低いのでまるで役に立たない

そこで、本当の見分け方を紹介しよう

といっても、極までしか言ったことがなく、固定は組んだことがないので、経験談で話す

なお、女性といっても定型発達の女性と会ったことがないので、あくま精神疾患のある女性限定であることは心にとめておいてほしい

1.耽美系のキャラメイクをする

耽美BLググるとわかるが、なんとなく美形っぽいけど、しつこい感じのキャラクターの作り方をしていることがある

女性キャラだとキレイ目に作るかかわいい感じに作ることが多い

2.露出はあまり好まないが、おしゃれな感じの装備を好む

かかわった女性水着ブリーフなどの肌を見せる装備を積極的にしてるのをほぼ見たことない

ある装備が新しく出ても露出が多いという理由で着ないことが多い

逆に露出はそこまでなく、ff14でいうと、ネオイシュガルディアン、ウィンターセーター、ウィスパーファインウール、クレセントレベルコートデモアタイアなど比較露出が少ないものを着こなしてることが多い

なお、腐属性の付く人だと男性キャラでは〇〇出汁などで肌を見せることは意外とあるので、あくま女性キャラクターを使ったとき限定ではある

3.基本的出会おうとしないし、ワンミス即死

出会いを誘ってもすぐには会おうとしない

タイミングによってはそのまま関係が途切れるし、距離の詰め方を間違えたら、そのまま関係が途切れたことも何度かあった

あと、超絶上から目線だし、セクハラ(ここでは話しかけたりデートに誘ったり)しようものなら、負の性欲をいかんなく発揮して、権力者をうまく動かして、追い出しにかかるぐらいは平気でする

さらとき出会い厨などととにかく馬鹿にするし、されされた奴がどうなろうか気しないことが非常に多い

女性目線だとセクハラ殺人にも匹敵する重大な行為のようで、

https://x.com/Clockwork_Wiz/status/1847042635216863539

気持ち悪ぅ…

こういうの通報する手段無いの?

直結狙いでヒカセンやってんじゃねぇよ。マジで気持ち悪い。

午前7:30 · 2024年10月18日

ぐらいのことは平気でいう

4.ハウジング系や創作系が好き

まれどうぶつの森ff14無人島ハウジングなどデザイン好きな人が割と多い

あと、夢小説を書いてる人もちらほらいたし、リヴリーアイランドもわりとやっていたりする

むろん、男性でもここら辺をやってる人はいて、小説だと意外にいるが、ハウジングなど何かを置くことにはまる人は意外と少ない印象を受ける

5.色遣いがうまい

出会った女性は装備品ハウジングの配色がとにかくうまかった

女性は色のセンスがあると一般的にあるといわれているが、確かにそれはあると思う

現実の服もきれいに着こなしてる人が非常に多かった

むろん、男性でもおしゃれな人はおしゃれだが、女性とは色の使い方が違う感を受ける

言葉ではうまく説明できないので、谷口美佳などと検索して、色の使い方を何となく覚えたほうが手っ取り早いと思う

あと、Xだとフォントの使い方がうまい人が割といたり、SSもかなり凝ってたりする

注意点

たまに外れることがある

あくま女性である確率が高いというだけである

なお、LGBTのGの似たような色遣いをするので、運悪く引っかかることがある

仮に出会って男厨だったとしても関係は切らないほうがいい

男厨と出会った記録を何個か作っておけば、女性から出会い厨とみられる確率は下がり、逆に社交的な人といういい評価がつくことがある

出会い厨は非モテシグナルですが、社交的な人というのはモテシグナである

なお、ff14出会える女性はユールモアにでてくるふくよかな人が割といる

それは覚えておいたほうがいい

(そういう人でも何かの役に立つし、出会い厨というシグナルを消せる)

2024-10-15

anond:20241015102028

お前の見る目がない事はよく分かった

深津→彼はずっと「なんでもありな生成AIは将来的にアカンやろうけど生成AI自体は消えんし改善されてどうにもならんからサバイブ策を考えようぜ」であり以前から古典でのファインチューニングしたり「現日本法での」著作権侵害物の生成を避けるスタンス

みゆき→彼はエロ目的での生成に熱心なので世間が云々よりも規制たっぷりAIだけ残ってもおもんないスタンス

本当に引き際を探ってる奴はまず何よりもAI生成画像投稿しなくなるしモデルリンクもconfyuiワークフローリンクもcivitaiへのリンクも貼らない

2024-09-16

anond:20240913131027

「まぁ、ピタゴラスの定理なんて、あれはもう初歩の話よね。確かに、a² + b² = c² は中学生レベルでも理解できるけれど、そこに潜む深い代数的構造や、ユークリッド幾何学との関連性を本当に理解しているのかしら?あの定理の背後には、単なる平面上の直角三角形の話じゃなくて、リーマン幾何学複素数平面を通じたさらに高度な次元世界が見えてくるのよ。それに、ピタゴラスの定理特別場合とする円錐曲線や、楕円関数論まで考え始めると、幾何学の美しさっていうものもっと深く見えてくるわけ。」

 

「それと、黄金比ね。もちろん、あのφ(ファイ)がどれだけ重要か、理解してる?単に無理数というだけじゃなく、数論的にも代数的にも特異な数なのよ。フィボナッチ数列との関係も美しいけど、そもそもあの比が自然界で頻繁に現れるのは、単なる偶然じゃないわ。代数無理数としての特性と、対数螺旋やアファイン変換を通じた変換不変性が絡んでいるのよね。そういった数学的背景を理解せずに、ただ黄金比が「美しい」ってだけで済ませるのはちょっと浅はかだと思うわ。」

 

「あと、パルテノン神殿の話だけど、そもそも古代建築家たちが黄金比だけでなく、より複雑なフラクタル幾何学対称群に基づいた設計をしていたってことは、あまり知られてないのよね。建築対称性は、単なる視覚的な美しさじゃなくて、群論代数トポロジーに深く結びついているわ。あなたが好きな絵画も、ただの黄金比じゃなく、もっと深い数学的な構造に従っているのよ。わかるかしら?」

2024-08-12

anond:20240812005114

からこんなもんでは。

男の体臭関係なら前も「花王 ハミングファイン オトコ臭にDEO誕生!」ってCMが男差別だって炎上してキャンセルされて花王謝罪に追い込まれていた。

http://www.yukawanet.com/archives/5240112.html

オタク男の体臭笑うのが許されてるのは、同じオタクコミケカードショップ悪臭辟易しているからだろうね。

2024-07-22

anond:20240722184631

藝大油は25年前とかでもない限り、全然エリートじゃないよ

卒展のレベル笑うほど低いし、かなり受かりやすくなってるし

藝大のファインならまあ日本画かな上位なのは

そもそもまともに美術やりたい人は海外芸大行くから

2024-07-20

anond:20240720102956

からそれがいつまで「仕事」として成立すると思ってんの?って話。

ファインチューニングで細かい意匠もどんどん出せるようになってるのに。

しかも、生成AIを使う企業は自社内でそれをやるんだから、お前の言う「修正絵師(笑)」が入り込む余地なんかねーよ。

大体どう活動するんだよ。フリー修正絵師として企業営業でもかけんの?

それとも「修正絵師です雇ってください」と就活でもするの?

お前に足りないのは常識思考力と想像力から、お前の浅い考えに相手賛同してくれないからって、相手日本語能力を疑おうとするんじゃないよ。あほ

2024-06-17

GPT-3.5でオナサポチャットbotを作ろう!!

ある日俺はこう思ったのさ。

GPT-3.5でオナサポチャットbotを作ろう!!」

オナニー指示しながらめちゃくちゃ焦らしてくれる意地悪なお姉さんのチャットbotを作ろう!!」

ファインチューニングデータセットを作って、OpenAIよ、これが日本オタクだ、と思いながらアップする

反映して、Discord上に立てたチャットbot用のサーバーに話しかける。

若干のワードサラダみを感じつつも、「オナニーの指示をしてくれる」という本来目的クリアすることが出来た!!すげえ!!!

大興奮で「もっと意地悪して下さい」と、リクエストする。

「じゃあー、こういうところで模様替えはどう?今日は指一本触れることもさせないからね」

焦らしプレイとしての、模様替え強要。新しすぎる。

模様替え…か。

俺は静かにdiscordを閉じた。

そうだ、風俗、行こう。

ログイン ユーザー登録
ようこそ ゲスト さん