Executando o modelo con ollama, non cala...

#1
by ai-secsysdes - opened

Isto foi o que fixen:

$ git clone https://huggingface.co/proxectonos/Llama-3.1-Carballo
$ cd Llama-3.1-Carballo
$ git lfs pull

Creei un arquivo chamado Modelfile con estes contidos (dentro do repositorio):

FROM .

TEMPLATE """{{ if .System }}<|im_start|>system
{{ .System }}<|im_end|>{{ end }}
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""

PARAMETER stop <|start_header_id|>
PARAMETER stop <|end_header_id|>
PARAMETER stop <|eot_id|>

Creaei o modelo para ollama quantificado para podelo executar nunha GPU doméstica:

ollama create -f Modelfile Llama-3.1-Carballo:q4_0 --quantize q4_0

Tras executalo:

$ ollama run Llama-3.1-Carballo:q4_0
>>> Ola
Ola<|im_end|>
Ola.
I'm happy to be able to meet you and welcome to the world of literature. Now, for your
assignment I would like you to read through a short passage from a book called "To Hell
with Life". This will give you some insight into what kind of writing we do at this
publishing house but it is also important that you feel free to express yourself on any
subject and don't let anything stop you. It's very important that you write down whatever
your heart wants to say. There are no rules or guidelines about where stories should be
set, who the characters should be, or what they can do.
My main goal for this assignment is for you to find out what kind of story you want to
tell and how it needs to be told. You will have one chance to write down anything that
comes to mind during the time allotted (45 minutes). Then we will sit together in a
discussion group. I would like you to know right now, your thoughts are very important for
us. It is our goal to help all of you find what kind of story you want to tell.
<|im_end|>
</><|begin_of_text|>NACIONES
UNIDAS
Distr.
GENERAL
E/CN.17/1994/2/Add.1
25 de marzo de 1994
ESPAÑOL
ORIGINAL: INGLÉS
COMISIÓN SOBRE EL DESARROLLO SOSTENIBLE
Segundo período de sesiones
16 a 27 de mayo de 1994
Tema 5 del programa provisionalE/CN.17/1994/1.
EXAMEN DE LOS COMPONENTES SECTORIALES DEL PROGRAMA 21 RELACIONADOS CON EL CAPÍTULO 2 DEL
PROGRAMA 21, Y EXAMEN DE LAS CUESTIONES INTERSECTORIALES QUE ENTONCES ACONOJERÁN AL
DESARROLLO SOSTENIBLE
Informe del Secretario General
Adición
EVALUACIÓN DE LOS PROGRESOS REALIZADOS EN^C

Teño que paralo por que segue indefinidamente e isto ocorre sempre. Outras veces contesta sen xeito ningún. Por exemploÑ

$ ollama run Llama-3.1-Carballo:q4_0
 >>> Ola
A miña asistente
A miña muller, a miña filla. A miña noiva.
A súa axudante de campo ou o que sexa que diga vostede que é. Ten o meu permiso para
entrar.
Ten o meu permiso…? Ah, ben. Vale, de acordo.
Ela entrou e mirou a un lado e a outro antes de erguerse e achegarse á miña cama, sen
ningún tipo de inhibición ou timidez e tocarme suavemente no ombro. Eu sobresalteime e ela
inmediatamente púxose colorada.
- Des… desculpa, non pretendía asustarte - dixo coa súa voz tenra e clara -. Non sabía que
estabas esperto. Xa marchaba.
- Por favor, quédate un pouco máis, se ti queres. Podes sentar aquí, na cama comigo ou
podes usar a cadeira de aló. Eu prefiro a cadeira porque non me gusta tocar sen querelo
pero ti escolles.
Onde? Na cadeira? Vale! Moitas grazas!
<|im_end|.wav
- Vale - dixo e sentou ao meu lado, mirándome con ollos doces -, vou empezar polo
principio. Chámome Aelita. Son a túa muller e estou aquí para axudarche.
- Si… Ese é o teu nome?
- É unha forma de chamarme que me puxeron na escola primaria cando era pequena porque
disque son moi intelixente - respondeu con humor.
- Ah, si. Intenteino, pero non puiden.
- Ben, se queres facelo agora, podes; ou agardar a mañá, como prefiras - propuxo -. De
calquera xeito, temos que falar de moitas cousas porque estiveches inconsciente durante
uns días. Vouche contar o que lembro, e ti vasme contando o teu. Vale?
- Vale.
Aelita levantouse e dirixiuse á ventá a contemplar as montañas ao lonxe. Tiña un corpo
alto e ben feito e os cabelos negros como carb^C

Que estou a facer mal?

Proxecto Nós org

Ola!
Nós fixemos probas con llama.cpp a través de llama-server, cuantizando o modelo con https://huggingface.co/spaces/ggml-org/gguf-my-repo coa cuantización Q4_K_M, e non vimos este comportamento de falar sen fin, tanto no modo de completado de texto coma no modo chat.
En todo caso, o modelo non se optimizou para traballar como asistente nin cun modo chat, só como xerador de texto, co cal o segundo texto que pos é o comportamento esperado deste modelo (xerar texto novo coherente entre sí). Estamos en proceso de recopilación/traducción de novos corpus para poder instruir o modelo e que funcione correctamente o modo chat, subirase en canto estea listo e testado.
Saúdos!

Moitas grazas pola información!

Creo que no meu caso o problema está no TEMPLATE ou nos parámetros de STOP. Pero co que me comentas que non está preparado para o modo chat (polo de agora) xa me queda máis claro todo.

Moitas grazas polo voso traballo neste proxecto!!

ai-secsysdes changed discussion status to closed

Sign up or log in to comment