サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
今年の「かわいい」
note.com/abubu_nounanka
こんにちは。一般クリエイターです。前回からlineart(AI着色)を利用したイラスト製作を色々と試していましたが、lineartを使用することでかなり細部に渡って生成物の形状を制御できることが分かってきました。3D背景と併用することで、統一性のある背景を様々なアングルから描写することができます。これによって「AIが生成する背景は描写毎に形が変わってしまうので、同一室内の複数カットを作成できない」という問題がある程度解決されてしまいました。されてしまいましたよ!ある程度! なので今回は3D背景モデルを使用して3カットほどシーンを生成させて何かアニメっぽいやつ作りたいと思います。作業手順はだいぶ複雑になりますので、「AIを活かしてなんか作品作りてえな~」と思ってる人向けの内容となっております。AI着色を使用したイラスト作成に関しては前回記事を参照してください。 まずは今回のアニメの舞台となる
こんにちは。一般イラストレーターです。ControlNet1.1でLineartが実装され、AI着色の精度が1.0から大きく向上し、ある程度使い物になるレベルになっています。私もここのところAI着色を使用したイラストを7枚ほど作成してみたのですが、いずれも細部修正を施した上で3~4時間で1枚描けてしまいました。手描きと比べて作業時間は半分程度なので、これはかなり驚異的と言えます。 なので「AI着色が良い感じになったしnoteのネタにすっぺ」と思い、note用の何か良い感じのボカロイラスト描こう…、としたんですがボカロ聴きながら作業してたら思いのほかこだわってしまい、作業時間が8時間30分に及んでしまいました。これじゃnoteのネタにならないのだ。だいたい作業工程自体は前に掲載した記事と同じだし。 じゃけん今回は淡々とワークフロー紹介しましょうね。 アタリ。5分。 バーっとアタリが描けたら、
こんにちは。一般同人漫画家です。基本解像度1024*1024のmidjourney v5の登場や、同じく基本1024*1024のStableDiffusion XLモデルのDreamStudio上での試験稼働が始まっていますが、いかがお過ごしでしょうか?日々様々な機能が登場する画像AIですが、そんな中でこの基本解像度の向上はハッキリとした「進歩」であると考えています。まぁ、それに応じて動作に必要なスペックも増加していくんだけど。そろそろ私のVRAM8GBの2060Sじゃキツいんじゃないか。 さて、これまではイラスト製作への活用方法についてご紹介してきましたが、今回はAI生成画像に手作業修正や加筆なども加えつつ、サクッと1p漫画を作成してみようと思います。 タイトルにもありますが、漫画ページを1p丸ごと生成させてそれを編集します。丸ごと生成のメリットは、画面全体の質感やキャラクター造形の統一
こんにちは。Automatic1111のアップデートでControlNetが実装され、各種拡張機能が登場しております。その中でも被写体のポーズをコントロールできる『openpose』が注目されていますが、早速試したところ結構凄かったので取り急ぎ感想をnoteにまとめます。しばらく弄っていましたが、凄い部分と現時点ではまだダメな部分が分かった感じです。 今回のアプデでは他にも以前紹介したdepth2imgや、線画に自動着色を行うCannyなど複数の新機能が登場しています。これはimg2img登場時くらいの革新じゃないでしょーか。 ControlNetとopenposeの導入についてはこちらの記事を参考にさせていただきました↓ では生成物をご覧ください。 左、用意したベース画像。中、AIが検出した被写体のポーズ。右、生成された画像。photograph, video footage, film
こんにちは。最近群馬を地獄に変えるのにハマっております。ワークフローが複雑化してきたのでいっそnoteのネタにしたいと思います。まずその地獄づくりって何だよ?? 地獄づくりというか架空新聞記事創作ですね。11枚ほどの連作をtwitterやpixivに上げてますので良ければどうぞ。実際作ってみて分かったのは、本文作成と記事レイアウトにやたら時間かかることです。新聞記事っぽい文章とかどういうレイアウトが新聞っぽいのかとか、いちいちリアルの新聞を参考にしないと分かりませんし、記事内で語られる政治やら法律やら科学やらについては知識ないと何かフワッとした文面になってしまいますからね。 ではまずは本文作り。なんだったら一番時間かかる部分です。新聞記事創作としては真面目にやらないといけない部分ですが、今回は「新聞がボロボロで何て書いてあるのか読めないシチュ」なので、本文は適当でもOKでした。なのでAIテ
こんにちは。一般イラストレーターです。今回は新しい情報ではないのですが、前々からやってみたかった「AIイラストを真面目に加筆修正する。」をやってみたのでそのまとめとなります。現在のAIイラストは細部描写の甘い部分が多く、真面目に作品に使っていこうとすると手作業での修正が不可欠となります。AI絵師を名乗る人々の中にはそういった加筆を行ってイラストをアップしている人も居るので、今後はそういうスタイルも定着するんじゃないかなと思っています。イラスト依頼系でも「このAI絵を加筆修正してくれ!」みたいなリクエストは普通にありそうですからね。まぁ、私は今回は単にやってみたかっただけなのでアレですが。 取りあえず今回のベースとなるAI生成物を見て下さい。使用AIは話題のniji journeyです。 insanely high quality masterpiece pixiv color illust
こんにちは。StableDiffusion2.0発表の際に、画像の深度情報を元に被写体の形状を損なうことなく画像生成を行うDepth to Image Diffusion Modelが公開されていましたが、試してみましたところ結構凄かったのでご紹介します。 早く触りてぇ!と言う方はhuggingfaceのデモ版が一番お手軽サクサクに試せると思いますのでどうぞ。 https://huggingface.co/spaces/radames/stable-diffusion-depth2img またhuggingfaceのデモでは解像度が512*512で固定されていますが、colab版では高解像度生成も可能でした。あとgithubはここ。 ちなみにざっと見た限りではAutomatic1111などのweb uiには今んとこまだ実装されてないみたいですね。検索するとDepthMapMaskとかmul
こんにちは。NovelAIDiffusionが公開されたことで良い方にも悪い方にも激震が起こっているイラスト界隈ですが、如何お過ごしでしょうか? 私は「強くて便利な武器があるなら使え」主義なのでAIをイラスト製作に取り入れる方法も模索しており、ちょっとした背景や模様生成や、フォトリアル創作方面でAIを活用しています。ですがイラスト創作でのメイン利用となると、やはり「使い辛い」というのが現在の結論です。理由は細部描写の甘さや解像度の低さやレイヤー概念が無いことなど多々ありますが、個人的に大きいと感じるのは「塗りや絵柄が変わってしまう」ことです。長期的な活動を考えると、フォロワーに「お、これはあの人の絵だな?」と絵柄で認知してもらえないとイラストレーターは食いっぱぐれるのです。 なので今回は線画は人間が描いたものを使いつつ、img2imgを利用して「着色作業を爆速化する方法」をご紹介します。「
より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion] こんにちは。今回はStableDiffusionのimg2imgと昔ながらのフォトバッシュを複合することで、より思い通りに、より完璧に近い画像を仕上げる手法について紹介します。SDやimg2imgについては過去記事を参照して下さい。まずこちらをご覧下さい。 ■『昼飯を食べるバットマンとジョーカー』を作る。『昼飯を食べるバットマンとジョーカー』A film still of Batman and Joker eating lunch in the diner, worm lighting, cinematic tone. The Dark Knight(2008)なんでしょうかこの凶悪な白塗りバットマンは。『昼飯を食べるバットマンとジョーカー』を生成させると高確率でこのような画
2022/09/28追記。現在は色々アプデされて内容が結構変わってしまったので他の導入記事を参考にすることをオススメします。 こんにちは。前回StableDiffusionの単独動作版アプリを紹介しましたが、今回は、画像をベースに画像を生成するimg2img、テキストから生成するtext2img、顔補正、画像拡大など、全部盛りのローカル動作版ツールを紹介します。インストールは前回ほど楽ではありませんが、基本的にクリックして待ってるだけなのでまぁ。 必要になるもの ・VRAM5GB以上のNVIDIA製グラボ ・StableDiffusion 学習済みモデル v1.4 ・Miniconda3 ・HDD空き容量 20GB ・待ち時間 15分くらい インストールの参考にしたこちらの「ULTIMATE GUI RETARD GUIDE」を和訳しながら解説します。(究極GUI知恵遅れ向けガイドってお前
SDのローカル動作版アプリ「Stable Diffusion GRisk GUI 0.1」が公開されました。 2022/08/31追記 別製作者によるtext2img、img2img可能なローカル動作アプリが公開されているようです。 こんにちは。みなさん、StableDiffusionやDreamStudioを触ってますでしょうか。今回は面倒なpytorch環境構築などの必要なく、自分のPC上で手軽にStableDiffusionを動作させられるアプリ「Stable Diffusion GRisk GUI 0.1」が公開されましたので、簡単にご紹介します。どんどん便利になりやがるぜ。 公開ページはこちら Stable Diffusion GRisk GUI 0.1 まず動作にはVRAM5GB以上のNVIDIA製グラフィックボード(AMD製だとダメっス)が必要ですので、それなりの3Dゲームが
こんにちは、前回前々回と記事を書いてきたStableDiffusionの公式web版「DreamStudio」の有料βがとうとう開始されましたので簡単に解説しておきます。 DreamStudio https://beta.dreamstudio.ai/dream 基本画面と項目解説■料金について サインアップ時にフリートライアル用に画像約200枚分のポンドが配布されます。課金は10ポンド単位(画像約1000枚分)でできます。日本円で1600円くらいですね。ただ注意してほしいのは、"約1枚分"という基準はあくまで基本設定の「解像度512*512ステップ数50」の画像を生成する場合です。御覧の通りある程度自由にサイズや品質を設定可能ですが、最大品質の「解像度1024*1024ステップ数150」では、一度に28.2の計算コストがかかります。「残り100枚くらい生成できるな~」と思って最大品質のを
2022/08/21 StableDiffusionのweb版「DreamStudio」が開始されました。 こんにちは。StableDiffusionを使用したAI背景作画についてご紹介します。StableDiffusionの詳細やβ参加方法は前回の投稿で解説していますので詳しくはそちらをご覧ください。 あと学習済みモデルの一般向け公開がカミングスーンだそうです。そうだよ!StableDiffusionはオープンソースで誰でも自由に使えてVRAM容量10GBのローカルPCで動かせる画像AIだよ! Pleasure working with 🤗 to get AI more easily accessible to all. Just like the transformers library diffusers makes it easy to train, fine tune and
こんにちは。近頃イラスト界隈ではMidjourneyが注目を集めていますが、画像生成AIの分野ではMidjourney以外のAI開発も盛んに行われています。私が最近β参加している『StableDiffusion』は、運営が管理するサービスを通じて提供される形体が多い画像AIの中でも、「オープンソースで誰でも自由に使えるAI」を目指してStability AIが開発しているものです。オープンソースの言語AIであるGPT-J-6BやGPT-NeoXなどで知られるEleutherAIも開発に協力しており、このStableDiffusionは既にgithubでソースが公開されています。学習済みモデルの研究者向け提供も始まっていて、個人向けの公開も順次行われる模様です。画像AIの動作には強力なGPUが必要になるものですが、技術進歩により小規模モデルでも高度な画像が出力できるようになってきており、St
このページを最初にブックマークしてみませんか?
『abubu nounanka|note』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く