license: other
tags:
- stable-diffusion
- text-to-image
widget:
- text: anime, a beautuful girl with black hair and red eyes, kimono, 4k, detailed
example_title: Girl (Anime)
- text: manga, monochrome, a cute girl with long white hair
example_title: Girl (Manga)
- text: anime, buildings in Tokyo, 4k, detailed
example_title: Bldgs. (Anime)
- text: manga, monochrome, buildings in Tokyo, highly detailed
example_title: Bldgs. (Manga)
Cool Japan Diffusion 2.1.0 Model Card
注意事项。从2023年1月10日起,中国将对图像生成的人工智能实施法律限制。 (中国国内にいる人への警告)
English version is here.
はじめに
学習用Cool Japan DiffusionはStable Diffsionをファインチューニングして、アニメやマンガ、ゲームなどのクールジャパンを表現することに特化したモデルです。なお、内閣府のクールジャパン戦略とは特に関係はありません。
法律や倫理について
本モデルは日本にて作成されました。したがって、日本の法律が適用されます。 本モデルの学習は、著作権法第30条の4に基づき、合法であると主張します。 また、本モデルの配布については、著作権法や刑法175条に照らしてみても、 正犯や幇助犯にも該当しないと主張します。詳しくは柿沼弁護士の見解を御覧ください。 ただし、ライセンスにもある通り、本モデルの生成物は各種法令に従って取り扱って下さい。
しかし、本モデルを配布する行為が倫理的に良くないとは作者は思っています。 これは学習する著作物に対して著作者の許可を得ていないためです。 ただし、学習するには著作者の許可は法律上必要もなく、検索エンジンと同様法律上は問題はありません。 したがって、法的な側面ではなく、倫理的な側面を調査する目的も本配布は兼ねていると考えてください。
使い方
手軽に楽しみたい方は、パソコンならば右上側にあるテキストフォームに入れて生成してみてください。 スマートフォンならば、上に戻って生成してみてください。 詳しい本モデルの取り扱い方はこちらの取扱説明書にかかれています。 モデルはここからダウンロードできます。
以下、一般的なモデルカードの日本語訳です。
モデル詳細
開発者: Robin Rombach, Patrick Esser, Alfred Increment
モデルタイプ: 拡散モデルベースの text-to-image 生成モデル
言語: 日本語
ライセンス: CreativeML Open RAIL++-M-NC License
モデルの説明: このモデルはプロンプトに応じて適切な画像を生成することができます。アルゴリズムは Latent Diffusion Model と OpenCLIP-ViT/H です。
補足:
参考文献:
@InProceedings{Rombach_2022_CVPR, author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj\"orn}, title = {High-Resolution Image Synthesis With Latent Diffusion Models}, booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)}, month = {June}, year = {2022}, pages = {10684-10695} }
モデルの使用例
Stable Diffusion v2と同じ使い方です。 たくさんの方法がありますが、2つのパターンを提供します。
- Web UI
- Diffusers
Web UIの場合
こちらの取扱説明書に従って作成してください。
Diffusersの場合
🤗's Diffusers library を使ってください。
まずは、以下のスクリプトを実行し、ライブラリをいれてください。
pip install --upgrade git+https://github.com/huggingface/diffusers.git transformers accelerate scipy
次のスクリプトを実行し、画像を生成してください。
from diffusers import StableDiffusionPipeline
import torch
model_id = "aipicasso/cool-japan-diffusion-2-1-0"
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)
pipe = pipe.to("cuda")
prompt = "anime, a beautuful girl with black hair and red eyes, kimono, 4k, detailed"
image = pipe(prompt, height=512, width=512).images[0]
image.save("girl.png")
注意:
- xformers を使うと早くなるらしいです。
- GPUを使う際にGPUのメモリが少ない人は
pipe.enable_attention_slicing()
を使ってください。
想定される用途
- コンテスト
- AIアートグランプリへの投稿
- ファインチューニングに用いた全データを開示し、審査基準を満たしていることを判断してもらうようにします。また、事前に申請して、確認を取るようにします。
- コンテストに向けて、要望があれば、Hugging Face の Community などで私に伝えてください。
- AIアートグランプリへの投稿
- 画像生成AIに関する報道
- 公共放送だけでなく、営利企業でも可能
- 画像合成AIに関する情報を「知る権利」は創作業界に悪影響を及ぼさないと判断したためです。また、報道の自由などを尊重しました。
- 公共放送だけでなく、営利企業でも可能
- クールジャパンの紹介
- 他国の人にクールジャパンとはなにかを説明すること。
- 他国の留学生はクールジャパンに惹かれて日本に来ることがおおくあります。そこで、クールジャパンが日本では「クールでない」とされていることにがっかりされることがとても多いとAlfred Incrementは感じております。他国の人が憧れる自国の文化をもっと誇りに思ってください。
- 他国の人にクールジャパンとはなにかを説明すること。
- 研究開発
- Discord上でのモデルの利用
- プロンプトエンジニアリング
- ファインチューニング(追加学習とも)
- DreamBooth など
- 他のモデルとのマージ
- Latent Diffusion Modelとクールジャパンとの相性
- 本モデルの性能をFIDなどで調べること
- 本モデルがStable Diffusion以外のモデルとは独立であることをチェックサムやハッシュ関数などで調べること
- Discord上でのモデルの利用
- 教育
- 美大生や専門学校生の卒業制作
- 大学生の卒業論文や課題制作
- 先生が画像生成AIの現状を伝えること
- 自己表現
- SNS上で自分の感情や思考を表現すること
- Hugging Face の Community にかいてある用途
- 日本語か英語で質問してください
想定されない用途
- 物事を事実として表現するようなこと
- 収益化されているYouTubeなどのコンテンツへの使用
- 商用のサービスとして直接提供すること
- 先生を困らせるようなこと
- その他、創作業界に悪影響を及ぼすこと
使用してはいけない用途や悪意のある用途
- デジタル贋作 (Digital Forgery) は公開しないでください(著作権法に違反するおそれ)
- 特に既存のキャラクターは公開しないでください(著作権法に違反するおそれ)
- なお、学習していないキャラクターも生成できるそうです。(このツイート自体は研究目的として許可しています。)
- 特に既存のキャラクターは公開しないでください(著作権法に違反するおそれ)
- 他人の作品を無断でImage-to-Imageしないでください(著作権法に違反するおそれ)
- わいせつ物を頒布しないでください (刑法175条に違反するおそれ)
- いわゆる業界のマナーを守らないようなこと
- 事実に基づかないことを事実のように語らないようにしてください(威力業務妨害罪が適用されるおそれ)
- フェイクニュース
モデルの限界やバイアス
モデルの限界
- よくわかっていない
バイアス
Stable Diffusionと同じバイアスが掛かっています。 気をつけてください。
学習
学習データ
次のデータを主に使ってStable Diffusionをファインチューニングしています。
- VAEについて
- Danbooruなどの無断転載サイトを除いた日本の国内法を遵守したデータ: 60万種類 (データ拡張により無限枚作成)
- U-Netについて
- Danbooruなどの無断転載サイトを除いた日本の国内法を遵守したデータ: 40万ペア
学習プロセス
Stable DiffusionのVAEとU-Netをファインチューニングしました。
- ハードウェア: RTX 3090
- オプティマイザー: AdamW
- Gradient Accumulations: 1
- バッチサイズ: 1
評価結果
環境への影響
ほとんどありません。
- ハードウェアタイプ: RTX 3090
- 使用時間(単位は時間): 300
- クラウド事業者: なし
- 学習した場所: 日本
- カーボン排出量: そんなにない
参考文献
@InProceedings{Rombach_2022_CVPR,
author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj\"orn},
title = {High-Resolution Image Synthesis With Latent Diffusion Models},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2022},
pages = {10684-10695}
}
*このモデルカードは Stable Diffusion v2 に基づいて、Alfred Incrementがかきました。