SebciaMini - Mały model językowy, stworzony w pełni w domowych warunkach.

Z powodu zbyt duzej ilości wolnego czasu postanowiłem zrobić własny model llm, a to cudeńko to jest tego rezultat. Bardzo proszę nie oczekiwać fajerwerków, poniewaz naprawdę trudno jest wytrenować model bazując na samym kaggle i google collab ;D Model robiony z patrotyzmem do Polski, wypełniony smaczkami i polską kulturą. A i nie da się z tego co wiem go przekonwertować do gguf, poniewaz poleciałem trochę za bardzo z architekturą własną, i nic by tego nie wspierało.

Dane techniczne

  • Parametry: 280M
  • 14B tokenów w pretrainingu
  • Wsparcie dla języka polskiego, oraz bardzo podstawowe dla angielskiego.
  • Architektura podobna do llama3, uzywa GQA, RoPE, RMSNorm oraz SwiGLU Activation Function.
  • Tokenizer: Byte-Level BPE (Custom)
Downloads last month
15
Safetensors
Model size
0.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Datasets used to train NiebieskiKurczak/SebciaMini-Gen1