以前PainterLongVideoという長い動画が作れるカスタムノードを紹介しました。
画像をバッチ処理するとき、いつもD2-nodes-ComfyUIを使用しています。
使ってるのは主にD2 Folder Image QueueとD2 Load Imageで、これはフォルダ内の画像を一個ずつキューに入れて処理できるというもの。
SNS用のショート動画とか量産したいなと思いいろいろ試してたんですが、WAN2.2だけだと顔が変わってしまう確率が高いです。
FLF2Vならある程度制御できるけどfirst・lastの画像作って一回ずつ生成が面倒だったので、これをバッチ処理できないか試してみました。
なんかカスタムノードや公式の配布してるworkflowだとCUDA関係のエラーが出て生成できませんでした。
ネイティブ版なら動いたので、今回はそっちの使い方を紹介します。
note始めて約2年が経ちました。
年明けて良いタイミングなので、初めてaiaicreateを知った方や興味持ってくれた方に向けて、固定記事用の紹介文を書きました。
Lightningとは別にQwen-Image-2512-Turbo-LoRAというものが公開されていたので、簡単に比較してみました。
2025年12月31日にQwen-Image-2512がリリースされました。
既にfp8モデルやGGUF、lightning loraなどが公開されています。
redditでfalがFLUX.2 [dev] Turboをオープンソース化したという情報がありました。
実際に使ってみたので今回はこのFlux2 dev Turboを紹介します。
redditでLongLookという長い動画を作れるカスタムノードが紹介されていました。
今回はこれの使い方を紹介します。
Qwen-Image-Edit-2511がリリースされました。
GGUF版モデルなら生成できたので、今回はQwen-Image-Edit-2511のGGUFモデルを使う方法について紹介します。
少し前にSCAILというものがリリースされました。
ComfyUIだとkijai氏のComfyUI-WanVideoWrapperで動かせます。
少し前にTurboDiffusionという技術が公開されました。
https://github.com/thu-ml/TurboDiffusion/tree/main
従来のビデオ生成と比較してRTX 5090だと100〜200倍の高速化を実現できるそうです。
2025年12月20日にQwen-Image-Layeredがリリースされました。
以前Qwen Image Edit 2511のリリースが噂されていたときに一緒に発表されていたものです。
今年ももうすぐ終わるので、2025年の結果を振り返りながら、今後のAI活用方法や、自分の改善点、反省点などをまとめてみました。
日記みたいなものなので興味ある方向けです。
ちょっと前にredditでPromptCraftというツールが公開されていました。
https://www.reddit.com/r/StableDiffusion/comments/1plycql/promptcraftpromptforge_is_available_on_github/
触ってみたので簡単に使い方を紹介します。
何らかのプラットフォームでAI作品を販売する場合、大体圧縮、サンプルの透かし入れ、サムネイル作成、商品文作成などの工程が必要です。
今回はそれぞれの手順でできる効率化や、便利ツールなどを紹介します。
2025年12月12日にOpenAIから「GPT-5.2」が発表されました。
要点だけ簡単にまとめてます。
一部AIで要約しています。
詳細は公式で確認してください。
7月くらいにXの自動化に興味を持ち始めて、AIやgithub使ってこのnoteと連携してるアカウントで自動投稿を始めました。
仕組みとしてはこんなことやってます。中身はAIで作ってるのでよく分かってません。
以前LLMを使ってプロンプトを作ったりできるカスタムノードを紹介しました。
以前ComfyUI上でLLMを使い、ZIT用のプロンプトを拡張できるカスタムノードを紹介しました。
Danbooru-Tags-Exporterというdanbooruサイト上で、その画像に使用しているタグをコピーできるスクリプトがあります。
Github:https://github.com/FSpark/Danbooru-Tags-Exporter
folk版:https://github.com/Takenoko3333/Danbooru-Tags-Sort-Exporter
2025年12月6日にHunyuan公式からHunyuanVideo-1.5の蒸留モデルがリリースされました。
ComfyUIのhuggingfaceにモデルがアップされていたので、それ使って試してみました。
AlibabaからZ-Image TurboでControlNetを使えるようにする「Fun-Controlnet-Union」が公開されました。
今回はこの「Fun-Controlnet-Union」をComfyUIで使う方法について紹介します。
なんかComfyUI起動したら以下のAlertが出てました。
AlertLegacy ComfyUI-Manager data backup exists.Please verify and remove when no longer needed.動画からモーション抽出して画像を動かすみたいな技術は過去にもいろいろありましたが、最近になってSteadyDancerという新しいものが公開されました。
kijai氏がSteadyDancerのモデルを公開し、WanAnimatePreprocessで動かせるとのことだったので試してみました。