LoreWeaver-2-LoRA_PREVIEW
Modello LLM creato da EleutherAI/pythia-2.8b, specializzato per il RolePlay a turni brevi o di media lunghezza. I migliori casi d'uso per questo modello sono(oltre al RolePlay): Recitazione, scrittura di personaggi basandosi su loro interazioni con contesti(anche ben strutturati e complessi), sperimentazione dinamiche di evoluzione di un personaggio immaginario in nel mondo reale.
Attenzione: Questo modello è solo una anteprima di LoreWeaver-2 e potrebbe non essere completamente coerente, allineato o efficente. Fai inferenza con cautela. Non basarti su questo modello per creare finetunes o ricerche, per via della sua instabilità.
Altre versioni della famiglia LoreWeaver-2:
Tutti i modelli della famiglia LoreWeaver-2, si trovano in questa Raccolta
Architettura
- Backbone: EleutherAI/pythia-2.8b
- Hidden size: ~3200
- Layers: 26–32
- Heads: 32
- Rotary Embeddings (RoPE)
- RMSNorm
- SwiGLU
- KV-cache
Tokenizer (BPE GPT-Neo)
- Normalizzazione Unicode (NFKC)
- Vocab size (prevista): 50k–65k
- Lingue supportate: Inglese, Italiano, Francese, Tedesco, Spagnolo
Datasets utilizzati
| Dataset di linguaggio | Tedesco | Inglese | Francese | Italiano | Spagnolo |
|---|---|---|---|---|---|
| HuggingFaceFW/fineweb-edu | ☑️ | ||||
| BramVanroy/CommonCrawl-CreativeCommons-fine | ☑️ | ☑️ | ☑️ | ☑️ | ☑️ |
| OpenLLM-France/wikipedia | ☑️ | ☑️ | ☑️ | ☑️ |
- Datasets di RolePlay
Tecnologie di ottimizzazione dell'addestramento
Ottimizzazioni di memoria (VRAM)
- Gradient Checkpointing
- Mixed Precision: bf16/fp16 (rilevato automaticamente durante l'addestramento)
- Gradient Accumulation
- Ottimizzazione del'uso diretto della VRAM con Unsloth.
- Unsloth FastLanguageModel, UnslothTrainer
Ottimizzazioni di attenzione
- FlashAttention 2
- TF32 (solo su Ampere+)
- AdamW fused (se disponibile)
- Weight decay selettivo
Ottimizzazioni del learning rate
- Cosine LR Scheduler
- Warmup lungo
Ottimizzazioni sul dataset
- Curriculum Learning (soft)
- Turn-aware training
Ottimizzazioni Semantiche
- Tone tokens
- Safe-stop token
Deep learning (Contextual Learning)
Contextual Learning permette al modello di non cambiare i pesi e ricodificare il contesto a ogni turno.
Datasets used to train Croc-Prog-HF/LoreWeaver-2-LoRA_PREVIEW
Collection including Croc-Prog-HF/LoreWeaver-2-LoRA_PREVIEW
Evaluation results
- Intended Useself-reportedSingle-turn role-play dialogue generation with contextual awareness.
- Context Handlingself-reportedAttention-based contextual learning using structured prompts and KV cache.
- Response Lengthself-reportedOptimized for short, single-utterance replies per turn.
- Memory Mechanismself-reportedText-based memory handled through prompt context (no weight updates at inference).