この度は、本プロジェクトにご関心をお寄せいただきありがとうございます。
本記事では、「2025年最新の画像保護技術とソースコード」と題し、現在公開されている最新の画像保護技術の中から、学術的に認められているものに限定して、全てソースコード付きでご紹介いたします。
本記事は、これらの技術を皆様個人でご利用いただく他、民間企業や団体によるサービスの提供、また本課題の学術的状況や問題意識の共有につながることを期待しています。
以下、技術名称の横に記載の括弧内の文言は、各研究が発表された、または発表予定の国際会議の名称を表しています。また、掲載している図は、各論文および公開されているソースコードから引用しています。
■ Anti-DreamBooth (ICCV'23)
論文:Van Le, Thanh, et al. "Anti-dreambooth: Protecting users from personalized text-to-image synthesis." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023.
コード:https://github.com/VinAIResearch/Anti-DreamBooth

DreamBoothと呼ばれる技術を利用すると、特定の人物の画像をわずかに学習させるだけで、その人物の新たな画像を生成することができます。
Anti-DreamBoothは、こうしたDreamBoothの悪用から個人を保護することを目的に開発された技術です。
この技術を利用することで、画像がDreamBoothの学習に使用された場合でも、低品質の画像しか生成できないようにすることが可能です。
■ Photoguard (ICML'23)
論文:Salman, Hadi, et al. "Raising the cost of malicious AI-powered image editing." Proceedings of the 40th International Conference on Machine Learning. 2023.
コード:https://github.com/MadryLab/photoguard

Photoguardは、上記の技術と同様の目的を持ちつつ、より幅広い画像生成モデルに対応した防御を提供する技術です。
Anti-DreamBoothは、比較的シンプルかつ軽量なことから導入しやすい一方、DreamBoothによる顔画像の不正学習の防止に特化しています。
これに対し、Photoguardは、様々な画像や生成モデルに対応した防御手段を実現しており、より汎用的な保護性能を持つ技術と言えます。
■ Mist (ICML'23)
論文:Liang, Chumeng, et al. "Adversarial example does good: preventing painting imitation from diffusion models via adversarial examples." Proceedings of the 40th International Conference on Machine Learning. 2023.
コード:https://github.com/psyker-team/mist

Mistは、Textual Inversion、Stable Diffusion、NovelAIといった、より実践的かつ広く利用されている画像生成モデルに対する防御を提供する技術です。
本技術は、画像のスタイルやコンテンツの模倣を防ぐことを目的に設計されています。
■ MetaCloak (CVPR'24)
論文:Liu, Yixin, et al. "Metacloak: Preventing unauthorized subject-driven text-to-image diffusion-based synthesis via meta-learning." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.
コード:https://github.com/liuyixin-louis/MetaCloak

MetaCloakは、上記の技術と同様の目的を持ちながら、転送可能な防御効果(Stable Diffusion v1.5, v2.1といったモデルを跨いでの防御効果)を備えている防御技術です。
また、Mistでは対象としていなかったLoRAに対する防御性能があることが実証されています。
■ CAAT (CVPR'24)
論文:Xu, Jingyao, et al. "Perturbing attention gives you more bang for the buck: Subtle imaging perturbations that efficiently fool customized diffusion models." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.
コード:https://github.com/CO2-cityao/CAAT/tree/main

CAATは、北京交通大学、Google Research、セントラルフロリダ大学によって共同開発されたもので、MetaCloak同様に転送可能性を備えた防御技術です。
論文では、Anti-DreamBooth・Mistと比較して、顕著な有効性を持つことが述べられています。
また、Anti-DreamBooth・Mistと比較して、約2倍の速度で実行可能であることから、より実用的な保護手段といえます。
■ EditShield (ECCV'24)
論文:Chen, Ruoxi, et al. "Editshield: Protecting unauthorized image editing by instruction-guided diffusion models." European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2024.
コード:https://github.com/Allen-piexl/Editshield/

EditShieldは、PhotoGuardなどの技術と同様の目的を持ちつつ、特に指示誘導型の画像編集に対する防御を提供する技術です。
本技術を適用することで、生成された画像の品質が、元画像と比べて、大きく低下することが確認されています。
また、その他の種類の編集に対しても有効であり、PhotoGuardと比較して、優れた性能を示すことが確認されています。
なお、PhotoGuard・EditShieldと比較して、より優れた性能を示すGuardDoorと呼ばれる技術もあるので、興味のある方はこちらもご覧ください。
■ Nightshade (IEEE S&P'24)
論文:Shan, Shawn, et al. "Nightshade: Prompt-specific poisoning attacks on text-to-image generative models." 2024 IEEE Symposium on Security and Privacy (SP). IEEE, 2024.
コード:https://github.com/Shawn-Shan/nightshade-release

Nightshadeは、学習対象の画像に「毒」を仕込むことで、指示誘導型の画像編集に対する防御を実現する技術です。
本技術を用いることで、適用した画像が100枚未満であっても、Stable Diffusionなどの画像生成モデルにおけるプロンプトの挙動を破壊できることが確認されています。
なお、公開されているソースコードは、研究目的の基本実装であるため、個人で使用する場合には、公式ウェブサイトに掲載されているPC向けソフトウェアが利用ができます。
■ ACE (ICLR'25)
論文:Zheng, Boyang, et al. "Targeted Attack Improves Protection against Unauthorized Diffusion Customization." The Thirteenth International Conference on Learning Representations.
コード:https://github.com/caradryanl/ACE

ACEは、Mistの開発者らによって提案された新たな防御技術です。
本技術は、最新の画像生成モデルであるStable Diffusion v3に対して、LoRA耐性の有効性を示した最初の研究とされています。
なお、2025年5月現在では、ソースコード上で「Mist v2」として、安定版が公開されています。
■ AtkPDM (AAAI'25)
論文:Shih, Chun-Yen, et al. "Pixel is not a barrier: An effective evasion attack for pixel-domain diffusion models." Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 39. No. 7. 2025.
コード:https://github.com/AlexPeng517/AtkPDM

AI分野に関するトップ国際会議の一つ「NeurIPS'24」の「Safe Generative AI」ワークショップにおいて、これまでの画像保護技術に関する重要な見落としと脆弱性が指摘されました。
AtkPDMは、これらの課題に対処した新しい対象への防御技術です。
本研究に至るまでの研究動向や詳細については、支援者限定記事「2025年最新の画像保護技術と研究動向」でもご紹介しているので、興味のある方はこちらもご覧ください。
■ EditGuard (CVPR'24) / OmniGuard (CVPR'25)
論文1:Zhang, Xuanyu, et al. "Editguard: Versatile image watermarking for tamper localization and copyright protection." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2024.
論文2:Zhang, Xuanyu, et al. "OmniGuard: Hybrid Manipulation Localization via Augmented Versatile Deep Image Watermarking." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2025.
コード:https://github.com/xuanyuzhang21/EditGuard

EditGuardは、画像に目に見えない形で著作権情報を埋め込む技術であり、さらに、改ざんが行われた箇所を正確に特定できるウォーターマーキング技術です。
論文では、著作権情報の復元、改ざん箇所の特定精度の高さが実証されており、実用性の高いウォーターマーキング手段といえます。
最近では、本技術の改良版であるOmniGuardが、コンピュータビジョン分野のトップ国際会議の一つである「CVPR'25」にて採択されており、さらなる改良が見られています。
■ WAM (ICLR'25)
論文:Sander, Tom, et al. "Watermark Anything with Localized Messages." The Thirteenth International Conference on Learning Representations.
コード:https://github.com/facebookresearch/watermark-anything

WAMは、Meta社によって提案されたもので、EditGuard同様、画像に目に見えない形で著作権情報を埋め込むだけでなく、改ざんが行われた領域を特定することが可能なウォーターマーキング技術です。
現時点で、透かしの位置を特定できる手法は、WAMとEditGuardのみであり、両者はこの分野において先進的な技術と言えます。
従来の技術では、画像の一部を切り貼りする「スプライシング」操作などに対して脆弱でしたが、WAMは、画像が切り貼りされた場合にも対処可能です。
さらにWAMは、EditGuardを上回る性能を持つだけでなく、同一画像内に埋め込まれた複数の透かしを検出・抽出できる初の技術とされています。
■ DiffusionShield (NeurIPS'23) (SIGKDD'25)
論文1:Cui, Yingqian, et al. "DiffusionShield: A Watermark for Data Copyright Protection against Generative Diffusion Models." NeurIPS 2023 Workshop on Diffusion Models.
論文2:Cui, Yingqian, et al. "DiffusionShield: A watermark for data copyright protection against generative diffusion models." ACM SIGKDD Explorations Newsletter 26.2 (2025): 60-75.
コード:https://github.com/Yingqiancui/DiffusionShield

DiffusionShieldは、画像に目に見えない形で著作権情報を埋め込むだけなく、それが画像生成AIの出力で再生成されるように設計されているウォーターマーキング技術です。
本技術は、画像の品質を損なうことなく高精度でウォーターマークを検出できるだけでなく、ガウシアンノイズ、ぼかし、グレースケール変換、JPEG圧縮、リサイズといった各種の加工・攻撃に対して高い耐性を持ちます。
さらに、長文メッセージの埋め込みができる点も特徴です。長いメッセージを埋め込めることは、より決定的な侵害の証拠を提供できるという点で、透かし技術において重要な要素となります。
このような研究の需要は年々高まっており、2025年4月には、深層学習分野におけるトップ国際会議の一つである「ICLR'25」にて、生成AIに関するウォーターマーキング技術の初のワークショップが開催されました。
今後は、こうしたワークショップでの議論も、着目すべき情報となります。
URL:https://sites.google.com/view/genai-watermark/

本記事では、学術的に認められている一部の研究に絞ってご紹介しましたが、より最先端の研究については、arXivといったプレプリントサーバー(査読前の学術論文をインターネット上で公開する仕組み)からご覧いただけます。
本記事が、個人の方々だけでなく、より大きな団体や民間企業の皆さまにとって参考となり、実際の導入にも繋がれば嬉しく思います。
現在実施中のクラウドファンディングにおいても、第3ゴールを達成した際には、これらの技術の中から選定し、皆様に触っていただける環境の提供を予定しています。
クラウドファンディングは、2025年5月31日まで受付中ですので、もし本取り組みにご協力いただける方は、引き続き応援、ご支援いただけますと幸いです。
Lovletプロジェクトメンバー一同






