この度は、クラウドファンディング「アーティスト・クリエイターの権利を保護する学術研究プロジェクト」に多くのご支援を賜り、誠にありがとうございました。本クラウドファンディングは2025年3月13日より募集を開始し、79日間で316名の方々から1,710,000円のご支援をいただき、目標金額の171%を達成することができました。皆さまの温かいご支援に、心より御礼申し上げます。支援金の使途について今回のクラウドファンディングは、本課題に対する研究費の募集ではなく、多くの方が安心して作品を公開できる場を継続的に提供するための運用費の調達を一番の目的としていました。これは、研究者各自が獲得している科研費などの研究費は、研究以外の用途には使用できないことによります。そのため、今回いただいたご支援金は、目標金額を超えた分も含め、全てプラットフォームの運用費に充てさせていただきます。私たちのサービスでは、すべてのユーザー(未ログインの閲覧者を含む)に対して、投稿されたすべてのオリジナル画像について、アクセスされるたびに署名付きURLを毎回発行しています。これらの仕組みにより、機械による画像の収集・解析を困難にしながら、人間の閲覧者にとっては快適な閲覧体験を提供しています。運用には決して安価でないコストがかかりますが、皆さまからのご支援金を大切に活用し、5年、10年と継続的な運営を目指してまいります。リターン実施完了のお知らせご支援への感謝として、掲載をご希望された支援者様のお名前を、特設ページにて掲載させていただいております。リンク先をご確認のうえ、お名前の誤記や記載漏れ等がございましたら、お手数ですが、CAMPFIREのメッセージ機能よりご連絡ください。URL: https://lovlet.jp/supportersクラウドファンディング支援者限定バッジの付与対象者は、ログイン後「設定」ページにて、バッジの表示・非表示を選択いただけるようになっています。対象者で設定項目が表示されない場合も、同様にメッセージ機能よりご連絡ください。URL: https://lovlet.jp/settings最後に今後も、長期的な運用と、技術の進展や状況に応じた適切なアップデートを継続していけるよう努めてまいります。また、サービス内の設定ページから有料会員(月額550円から)としてご登録いただくことで、今後の運用を支える大きな助けとなります。もしご賛同いただけましたら、ぜひこちらからのご支援もご検討いただけますと幸いです。長期的な課題解決に向けて尽力してまいりますので、今後ともどうぞよろしくお願いいたします。Lovletプロジェクトメンバー一同
この度は、本プロジェクトにご関心をお寄せいただきありがとうございます。本記事では、「2025年最新の画像保護技術とソースコード」と題し、現在公開されている最新の画像保護技術の中から、学術的に認められているものに限定して、全てソースコード付きでご紹介いたします。本記事は、これらの技術を皆様個人でご利用いただく他、民間企業や団体によるサービスの提供、また本課題の学術的状況や問題意識の共有につながることを期待しています。以下、技術名称の横に記載の括弧内の文言は、各研究が発表された、または発表予定の国際会議の名称を表しています。また、掲載している図は、各論文および公開されているソースコードから引用しています。■ Anti-DreamBooth (ICCV'23)論文:Van Le, Thanh, et al. "Anti-dreambooth: Protecting users from personalized text-to-image synthesis." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023.コード:https://github.com/VinAIResearch/Anti-DreamBoothDreamBoothと呼ばれる技術を利用すると、特定の人物の画像をわずかに学習させるだけで、その人物の新たな画像を生成することができます。Anti-DreamBoothは、こうしたDreamBoothの悪用から個人を保護することを目的に開発された技術です。この技術を利用することで、画像がDreamBoothの学習に使用された場合でも、低品質の画像しか生成できないようにすることが可能です。■ Photoguard (ICML'23)論文:Salman, Hadi, et al. "Raising the cost of malicious AI-powered image editing." Proceedings of the 40th International Conference on Machine Learning. 2023.コード:https://github.com/MadryLab/photoguardPhotoguardは、上記の技術と同様の目的を持ちつつ、より幅広い画像生成モデルに対応した防御を提供する技術です。Anti-DreamBoothは、比較的シンプルかつ軽量なことから導入しやすい一方、DreamBoothによる顔画像の不正学習の防止に特化しています。これに対し、Photoguardは、様々な画像や生成モデルに対応した防御手段を実現しており、より汎用的な保護性能を持つ技術と言えます。■ Mist (ICML'23)論文:Liang, Chumeng, et al. "Adversarial example does good: preventing painting imitation from diffusion models via adversarial examples." Proceedings of the 40th International Conference on Machine Learning. 2023.コード:https://github.com/psyker-team/mistMistは、Textual Inversion、Stable Diffusion、NovelAIといった、より実践的かつ広く利用されている画像生成モデルに対する防御を提供する技術です。本技術は、画像のスタイルやコンテンツの模倣を防ぐことを目的に設計されています。■ MetaCloak (CVPR'24)論文:Liu, Yixin, et al. "Metacloak: Preventing unauthorized subject-driven text-to-image diffusion-based synthesis via meta-learning." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.コード:https://github.com/liuyixin-louis/MetaCloakMetaCloakは、上記の技術と同様の目的を持ちながら、転送可能な防御効果(Stable Diffusion v1.5, v2.1といったモデルを跨いでの防御効果)を備えている防御技術です。また、Mistでは対象としていなかったLoRAに対する防御性能があることが実証されています。■ CAAT (CVPR'24)論文:Xu, Jingyao, et al. "Perturbing attention gives you more bang for the buck: Subtle imaging perturbations that efficiently fool customized diffusion models." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.コード:https://github.com/CO2-cityao/CAAT/tree/mainCAATは、北京交通大学、Google Research、セントラルフロリダ大学によって共同開発されたもので、MetaCloak同様に転送可能性を備えた防御技術です。論文では、Anti-DreamBooth・Mistと比較して、顕著な有効性を持つことが述べられています。また、Anti-DreamBooth・Mistと比較して、約2倍の速度で実行可能であることから、より実用的な保護手段といえます。■ EditShield (ECCV'24)論文:Chen, Ruoxi, et al. "Editshield: Protecting unauthorized image editing by instruction-guided diffusion models." European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2024.コード:https://github.com/Allen-piexl/Editshield/EditShieldは、PhotoGuardなどの技術と同様の目的を持ちつつ、特に指示誘導型の画像編集に対する防御を提供する技術です。本技術を適用することで、生成された画像の品質が、元画像と比べて、大きく低下することが確認されています。また、その他の種類の編集に対しても有効であり、PhotoGuardと比較して、優れた性能を示すことが確認されています。なお、PhotoGuard・EditShieldと比較して、より優れた性能を示すGuardDoorと呼ばれる技術もあるので、興味のある方はこちらもご覧ください。■ Nightshade (IEEE S&P'24)論文:Shan, Shawn, et al. "Nightshade: Prompt-specific poisoning attacks on text-to-image generative models." 2024 IEEE Symposium on Security and Privacy (SP). IEEE, 2024.コード:https://github.com/Shawn-Shan/nightshade-releaseNightshadeは、学習対象の画像に「毒」を仕込むことで、指示誘導型の画像編集に対する防御を実現する技術です。本技術を用いることで、適用した画像が100枚未満であっても、Stable Diffusionなどの画像生成モデルにおけるプロンプトの挙動を破壊できることが確認されています。なお、公開されているソースコードは、研究目的の基本実装であるため、個人で使用する場合には、公式ウェブサイトに掲載されているPC向けソフトウェアが利用ができます。■ ACE (ICLR'25)論文:Zheng, Boyang, et al. "Targeted Attack Improves Protection against Unauthorized Diffusion Customization." The Thirteenth International Conference on Learning Representations.コード:https://github.com/caradryanl/ACEACEは、Mistの開発者らによって提案された新たな防御技術です。本技術は、最新の画像生成モデルであるStable Diffusion v3に対して、LoRA耐性の有効性を示した最初の研究とされています。なお、2025年5月現在では、ソースコード上で「Mist v2」として、安定版が公開されています。■ AtkPDM (AAAI'25)論文:Shih, Chun-Yen, et al. "Pixel is not a barrier: An effective evasion attack for pixel-domain diffusion models." Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 39. No. 7. 2025.コード:https://github.com/AlexPeng517/AtkPDMAI分野に関するトップ国際会議の一つ「NeurIPS'24」の「Safe Generative AI」ワークショップにおいて、これまでの画像保護技術に関する重要な見落としと脆弱性が指摘されました。AtkPDMは、これらの課題に対処した新しい対象への防御技術です。本研究に至るまでの研究動向や詳細については、支援者限定記事「2025年最新の画像保護技術と研究動向」でもご紹介しているので、興味のある方はこちらもご覧ください。■ EditGuard (CVPR'24) / OmniGuard (CVPR'25)論文1:Zhang, Xuanyu, et al. "Editguard: Versatile image watermarking for tamper localization and copyright protection." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2024.論文2:Zhang, Xuanyu, et al. "OmniGuard: Hybrid Manipulation Localization via Augmented Versatile Deep Image Watermarking." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2025.コード:https://github.com/xuanyuzhang21/EditGuardEditGuardは、画像に目に見えない形で著作権情報を埋め込む技術であり、さらに、改ざんが行われた箇所を正確に特定できるウォーターマーキング技術です。論文では、著作権情報の復元、改ざん箇所の特定精度の高さが実証されており、実用性の高いウォーターマーキング手段といえます。最近では、本技術の改良版であるOmniGuardが、コンピュータビジョン分野のトップ国際会議の一つである「CVPR'25」にて採択されており、さらなる改良が見られています。■ WAM (ICLR'25)論文:Sander, Tom, et al. "Watermark Anything with Localized Messages." The Thirteenth International Conference on Learning Representations.コード:https://github.com/facebookresearch/watermark-anythingWAMは、Meta社によって提案されたもので、EditGuard同様、画像に目に見えない形で著作権情報を埋め込むだけでなく、改ざんが行われた領域を特定することが可能なウォーターマーキング技術です。現時点で、透かしの位置を特定できる手法は、WAMとEditGuardのみであり、両者はこの分野において先進的な技術と言えます。従来の技術では、画像の一部を切り貼りする「スプライシング」操作などに対して脆弱でしたが、WAMは、画像が切り貼りされた場合にも対処可能です。さらにWAMは、EditGuardを上回る性能を持つだけでなく、同一画像内に埋め込まれた複数の透かしを検出・抽出できる初の技術とされています。■ DiffusionShield (NeurIPS'23) (SIGKDD'25)論文1:Cui, Yingqian, et al. "DiffusionShield: A Watermark for Data Copyright Protection against Generative Diffusion Models." NeurIPS 2023 Workshop on Diffusion Models.論文2:Cui, Yingqian, et al. "DiffusionShield: A watermark for data copyright protection against generative diffusion models." ACM SIGKDD Explorations Newsletter 26.2 (2025): 60-75.コード:https://github.com/Yingqiancui/DiffusionShieldDiffusionShieldは、画像に目に見えない形で著作権情報を埋め込むだけなく、それが画像生成AIの出力で再生成されるように設計されているウォーターマーキング技術です。本技術は、画像の品質を損なうことなく高精度でウォーターマークを検出できるだけでなく、ガウシアンノイズ、ぼかし、グレースケール変換、JPEG圧縮、リサイズといった各種の加工・攻撃に対して高い耐性を持ちます。さらに、長文メッセージの埋め込みができる点も特徴です。長いメッセージを埋め込めることは、より決定的な侵害の証拠を提供できるという点で、透かし技術において重要な要素となります。このような研究の需要は年々高まっており、2025年4月には、深層学習分野におけるトップ国際会議の一つである「ICLR'25」にて、生成AIに関するウォーターマーキング技術の初のワークショップが開催されました。 今後は、こうしたワークショップでの議論も、着目すべき情報となります。URL:https://sites.google.com/view/genai-watermark/本記事では、学術的に認められている一部の研究に絞ってご紹介しましたが、より最先端の研究については、arXivといったプレプリントサーバー(査読前の学術論文をインターネット上で公開する仕組み)からご覧いただけます。本記事が、個人の方々だけでなく、より大きな団体や民間企業の皆さまにとって参考となり、実際の導入にも繋がれば嬉しく思います。現在実施中のクラウドファンディングにおいても、第3ゴールを達成した際には、これらの技術の中から選定し、皆様に触っていただける環境の提供を予定しています。クラウドファンディングは、2025年5月31日まで受付中ですので、もし本取り組みにご協力いただける方は、引き続き応援、ご支援いただけますと幸いです。Lovletプロジェクトメンバー一同
この度は、本プロジェクトに多くのご支援を賜りありがとうございます。プロジェクト開始から2週間、ネクストゴールの150万円を達成することができました。また、皆さまからの温かい応援のメッセージは、私たちにとって大きな励みとなっています。改めまして、心より御礼申し上げます。皆様からの応援に応えるため、いただいたフィードバックを元にこの2週間でも多くのアップデートを実施しました。詳細については、こちらをご確認ください。皆様へのメッセージこの数日のニュースでは、OpenAI社のCEOであるサム・アルトマン氏が、画像生成AIを用いて作成した「スタジオジブリ風」のアイコンを自身のXアカウントの画像に設定したことが話題となり、著作権侵害の可能性について議論が巻き起こっています。学術研究の分野においても、スタジオジブリの画像を用いた画像生成の研究が行われている例は少なくありません。実際、近々紹介予定の画像保護に関する研究論文でも、ジブリの画像や新海誠監督のアニメーション映画の画像が使用されています。2025年現在の状況を整理すると、「画像生成AIによって出力されたものが著作権を侵害しているか否かについて、本格的な議論が始まった段階にある」と言えます。この流れは良い兆しである一方で、裏を返せば、「画像生成AIは、著作権を考慮せずに多くの画像を学習している」という現実も浮き彫りになっています。このような事実を踏まえても、利用規約による保護や著作権法の適用の有無だけでなく、技術的な側面からも、生成AIに学習されない仕組みの構築は必要不可欠であると考えられます。第3ゴールに向けて私たちの画像保護技術では、最新の画像保護技術と深層モンテカルロ木探索(世界トッププレイヤーに勝利した囲碁AIである"AlphaGo"に導入されているような強化学習技術の一つ)に見られる近似アルゴリズムなどを用いて、高速化を図っています。最新の画像保護技術の多くは、GPUの利用が前提となっており、高コストな計算資源を必要としますが、「Mist V2 などの最新の画像保護技術を直接利用したい」というご要望も多数いただいております。そこで、第3ゴールを「300万円」と設定し、達成した場合には、これらの最新技術を直接利用できる環境を提供いたします。この環境の提供は、単なるご要望への対応ではなく、皆さまからアカデミックな技術に対する率直なご意見をいただき、「今後こうなって欲しい」といったフィードバックを受け取ることで、研究開発に活かせると考えています。また、専用の環境を別途構築するのではなく、あくまでご支援いただいた研究開発のための資金の中で、研究開発用の計算資源を一部開放し、皆さまにご利用いただく、といったイメージとなります。当該分野の研究の進捗は著しく、具体的にどの技術を提供できるのか、また、その効果を保証できるのかについては、どうしても基礎研究であるため、不確定な要素が伴ってしまいます。そのため、300万円に達しなかった場合でも、別の形でリターンを還元できるよう、現在検討を進めています。今後の活動やリターンの詳細については、改めてご報告させていただきます。画像保護技術の品質の向上、新たな技術の開発、さらには社会実装と運用に向けて、引き続き尽力してまいりますので、どうぞ引き続きご支援のほどよろしくお願いいたします。Lovletプロジェクトメンバー一同
この度は、本プロジェクトにご関心をお寄せいただきありがとうございます。初日より多くのご支援を賜り、プロジェクト開始から翌日の8時50分時点で、CAMPFIRE内の人気ランキング3位となり、プロジェクト開始の告知から23時間(3月13日0時の開始から35時間)で目標金額を達成することができました。初回の活動報告でこのようなご報告ができるとは思っておらず、皆様の温かいご支援に心より御礼申し上げます。皆様へのメッセージ皆様からは、金銭的なご支援とともに、多くの応援メッセージをいただきました。この現状をなんとかしたいと考えている方が大勢いらっしゃること、そして私たちの取り組みに共感し、応援していただけたことが、何より嬉しく、大きな励みとなりました。改めまして、メンバー一同、心より感謝申し上げます。生成AIを巡る問題は、世間で認識されている以上に深刻であると考えています。画像生成AIを活用することで、他人の著作物を簡単に模倣することができ、悪意のある人は、「あなたのおかげで儲けさせていただきました」といった心無いメッセージを創作者に送る事例もあります。現在、法律では創作者を守るための動きが進んでおり、大手企業はこのような行為が行われた場合、法に基づいて訴訟を提起することが可能です。一方で、これから成長する若いクリエイターには、戦う力がありません。法整備が進んだとしても、被害を立証することは容易ではありません。例えば、著名な画像生成AIの一つであるStable Diffusionには、50億を超える学習データが使用されています。これらのデータと被害対象となったデータの照合や、実際に被害対象のデータが使用されているかなどの立証は、極めて困難です。テキストベースに変換することで高速に画像とテキストを比較するCLIP類似度と呼ばれる技術なども近年採用されていますが、それでも簡単ではありません。私たちは、画像保護技術(透かし、敵対的摂動、敵対的ノイズ、スタイルクローク、クローキング、ポイズニングなどと呼ばれます)の研究を行なっていますが、昨年4月には「私たちが考えるよりも画像生成モデルは脅威である」(意訳)といった論文が発表され、ほぼ全ての保護技術を無効化する研究も発表されています。※ ただし、その反論論文が今年2月25日から3月4日に開催された、最も権威のあるAI国際会議の一つである「AAAI-25」で発表されており、その内容については支援者向けの記事で、今後紹介予定です。本課題は、すぐには解決できない、あるいは永遠に解決できない側面を含む深刻な問題だと考えています。一度盗用されたデジタルデータを取り戻すことはほぼ不可能に近く、現時点ではどうしようもない、解決が難しい側面もあると思います。一方で、これから成長する若いクリエイターの芽が潰れてしまう、そのようなことは決してあってはならず、そのような事態が起きない環境を一つでも提供したいと思っています。今の世の中で創作活動をしている方々は、辛い状況に直面することが多いと思います。ですが、本プロジェクトが提供する環境に限らず、自身のパソコンやスマートフォンの中であっても、作品を残し、記録していくことには大きな価値があります。そのような姿勢は、信頼に繋がり、見守ってくれる人々も必ずいます。ネクストゴールに向けて現時点では明記していないリターンとなりますが、目標金額を超えた一部につきまして、一部のご支援者さまに、「クローバー」と呼ばれるプラットフォーム内でユーザーの活動を応援できるサービス内ポイントを付与する予定です。ぜひこれから成長する若いクリエイターや努力を重ねているクリエイターをご支援していただければ嬉しく思います。ネクストゴールとしては、CAMPFIREの手数料17%を差し引いて残る金額を考慮し、ネクストゴール「150万円」として、そのご支援を元にクローバーの付与やさらなるリターンの検討を行いたいと考えています。今後の活動やリターンの詳細については、改めてご報告させていただきます。改めまして、クラウドファンディング初日より、大きなご支援と応援をいただき、ありがとうございます。今後もさらなるご支援をいただけると、取り組みの幅が広がるため、大変助かります。長期的な課題解決に向けて尽力してまいりますので、今後ともどうぞよろしくお願いいたします。Lovletプロジェクトメンバー一同





