ダウンコード編集者のレポート: Alibaba のクリエイティブ チームは、強力な AI 画像修復モデル FLUX-Controlnet-Inpainting をオープンソース化しました。このモデルは FLUX.1-dev アーキテクチャに基づいており、最大 768x768 の解像度でトレーニングに大量のデータ セットを使用し、高品質の画像生成と正確な修復機能を備えています。画像の欠落部分を修復するだけでなく、ユーザーが提供したテキストの説明に基づいてオブジェクトの追加、削除、さらには画像スタイルの変更も行うことができ、驚くべき AI 画像処理能力を発揮します。このモデルは Hugging Face プラットフォームでオープンソース化されており、ユーザーがすぐに使い始めることができるように、詳細なチュートリアルとサンプル コードが提供されています。
最近、Alimama のクリエイティブ チームは、FLUX-Controlnet-Inpainting と呼ばれる AI 画像修復モデルをオープンソース化しました。このモデルは FLUX.1-dev モデル アーキテクチャに基づいており、1,200 万枚の laion2B 画像と Alibaba の内部データ セットでトレーニングされ、最大 768x768 の解像度で高品質の画像修復が可能です。

このツールは、FLUX.1-dev モデルの高品質画像生成機能を継承するだけでなく、ControlNet の利点も巧みに統合しています。エッジ、線画、深度マップなどの情報に基づいて画像を正確に修復し、指定された領域に周囲の環境と一致するコンテンツを生成して、破損または欠落した画像部分に新たな命を吹き込むことができます。
このモデルのハイライトの 1 つは、ユーザーの口頭による説明を理解し、その説明に基づいて画像を正確に修復できることです。たとえば、ユーザーが提供したテキストの説明に基づいて画像にオブジェクトを追加または削除したり、スタイルを変更したりすることもできます。画像の。
FLUX-Controlnet-Inpainting モデルは現在、Hugging Face プラットフォーム上でオープンソースになっており、詳細な使用方法のチュートリアルとサンプル コードが提供されており、ユーザーは pip を通じてディフューザー ライブラリをインストールし、GitHub からプロジェクト コードを複製して、モデルの強力な機能をすぐに体験できます。 。
Alimama のクリエイティブ チームは、現在リリースされている FLUX-Controlnet-Inpainting モデルはまだアルファ テストの段階にあり、今後もモデルのパフォーマンスの最適化を継続し、将来的には更新バージョンをリリースする予定であると述べました。
プロジェクトアドレス: https://github.com/alimama-creative/FLUX-Controlnet-Inpainting
ワークフローのダウンロード アドレス: https://huggingface.co/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Alpha/resolve/main/images/alimama-flux-controlnet-inpaint.json
全体として、FLUX-Controlnet-Inpainting モデルのオープン ソースは、AI 画像復元の分野に新たなブレークスルーをもたらしました。将来のバージョンでは、さらなる驚きが期待されます。ダウンコード編集部は今後もその展開に注目していきたい。