Transformers documentation
EETQ
시작하기
튜토리얼
Pipeline으로 추론하기AutoClass로 사전 학습된 인스턴스 로드하기데이터 전처리하기사전 학습된 모델 미세 조정하기스크립트로 학습하기🤗 Accelerate로 분산 학습 구성하기🤗 PEFT로 어댑터 로드 및 학습하기만든 모델 공유하기에이전트대규모 언어 모델로 생성하기Transformers로 채팅하기
태스크 가이드
자연어처리
오디오
컴퓨터 비전
멀티모달
생성
프롬프팅
(번역중) 개발자 가이드
🤗 Tokenizers 라이브러리에서 토크나이저 사용하기다국어 모델 추론하기모델별 API 사용하기사용자 정의 모델 공유하기챗봇 템플릿 익히기Trainer 사용하기Amazon SageMaker에서 학습 실행하기ONNX로 내보내기TFLite로 내보내기TorchScript로 내보내기(번역중) Benchmarks(번역중) Notebooks with examples커뮤니티 리소스문제 해결GGUF 파일들과의 상호 운용성transformers에서의 모듈성
(번역중) 경량화 메소드
(번역중) Getting startedbitsandbytes(번역중) GPTQAWQ(번역중) AQLM(번역중) Quanto(번역중) EETQ(번역중) HQQ(번역중) Optimum(번역중) Contribute new quantization method
(번역중) 경량화 메소드
(번역중) Getting started(번역중) bitsandbytesGPTQ(번역중) AWQ(번역중) AQLMQuantoEETQ(번역중) HQQ(번역중) Optimum(번역중) Contribute new quantization method
(번역중) 성능 및 확장성
성능 및 확장성(번역중) QuantizationLLM 추론 최적화 대형 모델을 인스턴스화디버깅TensorFlow 모델을 위한 XLA 통합(번역중) Optimize inference using `torch.compile()`
(번역중) 효율적인 학습 기술들
(번역중) Methods and tools for efficient training on a single GPU다중 GPU에서 훈련 진행하기DeepSpeed완전 분할 데이터 병렬 처리CPU에서 훈련다중 CPU에서 훈련하기TensorFlow로 TPU에서 훈련하기Apple 실리콘에서 PyTorch 학습훈련용 사용자 맞춤형 하드웨어Trainer API를 사용한 하이퍼파라미터 탐색
추론 최적화하기
기여하기
🤗 Transformers에 기여하는 방법🤗 Transformers에 새로운 모델을 추가하는 방법어떻게 🤗 Transformers에 파이프라인을 추가하나요?테스트Pull Request에 대한 검사
(번역중) 개념 가이드
이념과 목표(번역중) Glossary🤗 Transformers로 할 수 있는 작업🤗 Transformers로 작업을 해결하는 방법Transformer 모델군토크나이저 요약어텐션 매커니즘패딩과 잘라내기BERTology고정 길이 모델의 펄플렉서티(Perplexity)추론 웹 서버를 위한 파이프라인모델 학습 해부하기LLM을 최대한 활용하기
(번역중) API
(번역중) 메인 클래스
에이전트와 도구자동 클래스(번역중) Backbones콜백구성데이터 콜레이터케라스 콜백로깅Models텍스트 생성ONNX(번역중) Optimization모델 출력(번역중) Pipelines(번역중) Processors양자화(번역중) TokenizerTrainerDeepSpeedExecuTorch특성 추출기(번역중) Image Processor
(번역중) 모델
(번역중) 텍스트 모델
(번역중) 비전 모델
(번역중) 오디오 모델
(번역중) 비디오 모델
(번역중) 멀티모달 모델
(번역중) 강화학습 모델
시계열 모델
그래프 모델
(번역중) Internal Helpers
You are viewing v4.47.0 version. A newer version v5.8.1 is available.
EETQ
EETQ 라이브러리는 NVIDIA GPU에 대해 int8 채널별(per-channel) 가중치 전용 양자화(weight-only quantization)을 지원합니다. 고성능 GEMM 및 GEMV 커널은 FasterTransformer 및 TensorRT-LLM에서 가져왔습니다. 교정(calibration) 데이터셋이 필요 없으며, 모델을 사전에 양자화할 필요도 없습니다. 또한, 채널별 양자화(per-channel quantization) 덕분에 정확도 저하가 미미합니다.
릴리스 페이지에서 eetq를 설치했는지 확인하세요.
pip install --no-cache-dir https://github.com/NetEase-FuXi/EETQ/releases/download/v1.0.0/EETQ-1.0.0+cu121+torch2.1.2-cp310-cp310-linux_x86_64.whl또는 소스 코드 https://github.com/NetEase-FuXi/EETQ 에서 설치할 수 있습니다. EETQ는 CUDA 기능이 8.9 이하이고 7.0 이상이어야 합니다.
git clone https://github.com/NetEase-FuXi/EETQ.git
cd EETQ/
git submodule update --init --recursive
pip install .비양자화 모델은 “from_pretrained”를 통해 양자화할 수 있습니다.
from transformers import AutoModelForCausalLM, EetqConfig
path = "/path/to/model".
quantization_config = EetqConfig("int8")
model = AutoModelForCausalLM.from_pretrained(path, device_map="auto", quantization_config=quantization_config)양자화된 모델은 “save_pretrained”를 통해 저장할 수 있으며, “from_pretrained”를 통해 다시 사용할 수 있습니다.
quant_path = "/path/to/save/quantized/model"
model.save_pretrained(quant_path)
model = AutoModelForCausalLM.from_pretrained(quant_path, device_map="auto")