from_pretrained로 모델 체크포인트 다운이 안되어 이유를 파악해 보니 사내 정책 때문에 포트가 막혀있기 때문이었다. 이런 경우 단순하게 https로 다운 받으면 된다.

git lfs install
git clone <https://huggingface.co/><모델-주소>

한편, 다운 받은 모델을 from_pretrained로 불러올 때, 다음과 같은 식으로 모델을 불러오면 안정적인 로딩이 가능하다.

from diffusers import DiffusionPipeline, AutoencoderKL, FluxTransformer2DModel
from transformers import CLIPTokenizer, T5TokenizerFast, CLIPTextModel, T5EncoderModel

# Load individual components
tokenizer = CLIPTokenizer.from_pretrained("./FLUX.1-schnell/tokenizer")
tokenizer_2 = T5TokenizerFast.from_pretrained("./FLUX.1-schnell/tokenizer_2")
text_encoder = CLIPTextModel.from_pretrained("./FLUX.1-schnell/text_encoder")
text_encoder_2 = T5EncoderModel.from_pretrained("./FLUX.1-schnell/text_encoder_2")

# Load the VAE and transformer
vae = AutoencoderKL.from_pretrained("./FLUX.1-schnell/vae")
transformer = FluxTransformer2DModel.from_pretrained("./FLUX.1-schnell/transformer")

# Now load the pipeline with the pre-loaded components
pipeline = DiffusionPipeline.from_pretrained(
    "./FLUX.1-schnell",
    text_encoder=text_encoder,
    text_encoder_2=text_encoder_2,
    tokenizer=tokenizer,
    tokenizer_2=tokenizer_2,
    transformer=transformer,
    vae=vae
)

Posted by 공돌이pooh
,