📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.

Qwen2.5 0.5b NSFW Amoral Christmas 🎄

Amoral-Christmas

Le metí un dataset de los picantes, debería generar algún tipo de contenido interesante. Son varios los modelos que he entrenado con este dataset, no es el único. Este modelo tan solo es uno que forma parte de los otros modelos entre los que se encuentran las series Llama, QWEN2.5, Granite y GPT2. Cualquier cosa me dejan un comentario diciendome que experiencia tuvieron o puteandome; ambas opciones son válidas.

Me voy a brindar, luego lleno esto para que no quede tan ciruja.

🧨 FELIZ NAVIDAD Y PROSPERO AÑO NUEVO 🎇

Testeo personal del modelo

He probado este modelo en el Colab de Koboldcpp, ha dado buenos resultados.

Usted puede hacer lo mismo probando el modelo AQUÍ

Sin embargo y por una causa que desconozco no puedo decir lo mismo de mi experiencia con Koboldcpp 1.80.3 de forma local. El modelo escribe incoherencias, cosa que hace tiempo no me ocurría. Ignoro si será cosa del modelo o relacionado con la nueva versión de Koboldcpp.

Downloads last month
58
GGUF
Model size
494M params
Architecture
qwen2
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Novaciano/Qwen2.5-0.5B-NSFW_Amoral_Christmas-GGUF

Base model

Qwen/Qwen2.5-0.5B
Quantized
(70)
this model