Nombre
stringlengths 54
100
| Transcripción
stringlengths 12.7k
85.9k
| Autor
stringlengths 10
33
|
---|---|---|
IA y Modelos del Lenguaje, retos y oportunidades con Elena González-Blanco @Microsoft | #Somos600M | Hola
a
todos.
Soy
María
Grandury
y
os
doy
la
bienvenida
a
la
primera
keynote
de
nuestro
hackatón
internacional
de
procesamiento
de
lenguaje
natural
open
source
en
español.
Hoy
descubriremos
los
actuales
retos
y
oportunidades
de
la
inteligencia
artificial
y
los
modelos
del
lenguaje
con
Elena
González
Blanco,
GEDO-BII,
4M
Digital
Natives
y
Microsoft.
Recomendamos
esta
charla
para
todas
las
personas
interesadas
en
la
revolución
de
inteligencia
artificial
que
estamos
viviendo,
dado
que
hoy
inauguramos
las
charlas
de
especialistas.
Voy
a
aprovechar
para
recordar
en
qué
consiste
este
hackatón
y
después
ya
daré
paso
a
Elena
que
ya
está
aquí
en
el
backstage.
El
hackatón
tiene
por
objetivo
facilitar
la
creación
de
modelos
que
representan
la
diversidad
de
las
personas
disponibilizantes.
En
esta
tercera
edición
nos
sumamos
a
la
revolución,
no
sólo
de
la
IA,
pero
de
los
grandes
modelos
del
lenguaje
y
fijamos
dos
objetivos
que
tienen
un
gran
impacto.
El
primero
de
ellos
es
crear
el
mayor
corpus
de
instrucciones
en
español
y
lenguas
cooficiales
que
representen
las
grandes
variedades
habladas
por
los
600
millones
de
personas
disponibilizantes,
de
tal
manera
que
después
con
ese
corpus
podamos
entrenar
modelos
inclusivos.
Y
el
segundo
objetivo
que
tenemos
es
crear
la
primera
líder
board
pública
de
LLMS
en
español
que
nos
permita
estandarizar
cómo
evaluar
y
comparar
los
diferentes
modelos
en
español
y
lenguas
cooficiales.
Las
inscripciones
siguen
abiertas,
o
sea
que
invito
a
todas
las
personas
independientemente
de
vuestros
conocimientos
a
participar
ya
que
hay
tareas
de
todos
los
niveles.
Habrá
equipos,
se
puede
participar
en
el
nivel
de
la
mente
o
hasta
cinco
personas
y
como
siempre
intentamos
que
los
proyectos
tengan
un
impacto
social
relacionados
por
ejemplo
con
los
objetivos
de
desarrollo
sostenible
de
la
ONU.
Y
bueno
además
del
hackatón
pues
tenemos
Keynotes
como
la
de
hoy
en
la
que
especialistas
del
campo
de
la
AIA
nos
irán
contando
su
experiencia
y
compartiendo
con
nosotros
todo
su
conocimiento
para
que
también
nos
podamos
enriquecer.
Entonces
vamos
con
la
primera
Keynote
o
la
Elena
ahora
mismo
ya
te
puede
ver
todo
el
mundo.
Os
presento
a
Elena
aunque
bueno,
muchos
de
los
presentes
seguramente
ya
la
conozcáis.
Elena
González
Blanco
tiene
un
perfil
muy
interesante
porque
combina
academia
e
industria.
Actualmente
como
dije
antes
es
Head
of
the
I
for
M.
Digital
Natives
en
Microsoft
y
profesora
en
la
Universidad
de
Lien.
Esco
fundadora
de
Cleabrain
y
CleaDrive,
miembro
asesor
de
la
Junta
Directiva
de
varias
empresas
y
también
instituciones
e
instituciones
de
investigación
y
ha
sido
investigadora
en
diversas
universidades
como
la
UNED
donde
fundó
el
Laboratorio
de
Innovación
en
Humanidades
Digitales.
Entonces
bueno
bienvenida
de
nuevo
Elena,
muchísimas
gracias
por
estar
hoy
aquí.
Ahora
me
voy
pero
me
quedo
en
el
backstage
entonces
os
iré
leyendo
a
todas
las
personas
presentes,
podéis
compartir
vuestras
comentarios,
preguntas
y
yo
al
final
de
la
presentación
se
las
leo
a
Elena.
Muy
bien,
eso
es
todo,
muchísimas
gracias
y
allá
vamos,
puedes
compartir
tu
pantalla
cuando
quieras.
Pues
muchísimas
gracias
María,
la
verdad
es
que
es
un
honor
estar
aquí
esta
tarde
porque
creo
que
los
hackatones
son
muy
importantes
en
esta
industria
de
inteligencia
artificial
y
de
datos
que
nos
movemos
y
además
estoy
muy
orgullosa
de
ver
que
pues
este
es
un
hackatón
en
español
que
no
es
su
primera
edición
sino
que
cada
vez
va
cogiendo
mayor
fuerza
porque
como
dice
el
logo
pues
somos
600
millones
pero
a
pesar
de
la
cantidad
de
hispanohablantes
que
somos
en
el
mundo
todavía
tenemos
mucho
que
hacer
porque
en
tecnología
y
especialmente
en
inteligencia
artificial
aún
vamos
por
detrás
y
esto
no
es
una
cuestión
de
tecnología,
es
una
cuestión
de
usuarios
y
de
datos
y
por
eso
creo
que
eventos
como
este
tienen
muchísima
importancia
y
deberían
pues
depender
continuidad
y
ecos
para
poder
construir
entre
toda
lacomunidad
pues
la
tecnología
a
la
altura
del
lenguaje.
De
esto
precisamente
voy
a
hablar
hoy
y
voy
a
hablar
porque
como
bien
ha
dicho
María
pues
llevo
toda
mi
vida
trabajando
en
esto
aunque
antes
estaba
menos
de
moda
y
la
tecnología
funcionaba
peor
pero
precisamente
eso
es
lo
que
os
voy
a
contar
hoy.
Cómo
hemos
llegado
hasta
donde
estamos
con
los
modelos
del
lenguaje
que
cuáles
son
los
retos
a
los
que
nos
enfrentamos
ahora
mismo
y
por
qué
estamos
aquí
y
cuáles
son
estos
próximos
pasos
que
tenemos
que
dar.
Voy
a
compartir
mi
pantalla.
Genial
muchísimas
gracias
por
tus
palabras
también
la
verdad
que
sabemos
que
hay
mucha
gente
que
nos
apoya
pero
es
muy
importante
para
mí
y
para
toda
la
comunidad
creo
también
tener
apoyos
tan
importantes.
De
nuevo
gracias
comparto
tus
presentación
y
ahora
sí
que
sí
hasta
luego
muchas
gracias.
Perfecto
María
pues
vamos
a
ello
siempre
me
gusta
empezar
a
hablar
de
inteligencia
artificial
y
de
modelos
del
lenguaje
remontándome
hace
ya
bastante
tiempo.
El
año
1951
es
un
año
crucial
para
los
orígenes
de
la
inteligencia
artificial
porque
se
publica
un
artículo
cuya
autor
es
Alan
Turing
conocido
por
los
descubrimientos
de
criptografía,
los
avances
durante
la
guerra
mundial
pero
publica
un
artículo
que
se
llama
"Computing
Machinery
and
Intelligence"
donde
él
mismo
dice
que
si
ponemos
una
máquina
y
una
persona
en
una
habitación
y
ponemos
una
persona
fuera
de
esa
habitación
el
día
en
que
la
persona
que
está
fuera
de
la
habitación
sea
capaz
de
no
distinguir
si
está
hablando
con
la
persona
o
con
la
máquina
ese
es
el
momento
que
la
inteligencia
artificial
está
en
la
madura.
Esto
es
lo
que
se
ha
venido
llamando
el
juego
de
la
imitación
y
cuando
hoy
en
día
pregunto
y
además
me
gustaría
muchísimo
ver
todas
vuestras
caras
hemos
llegado
hasta
aquí
es
el
juego
de
la
imitación
una
realidad
hace
unos
meses
la
mayor
parte
de
la
gente
decía
que
no.
A
día
de
hoy
hay
muchos
que
ya
asienten
o
afirman
que
la
inteligencia
artificial
ha
llegado
a
su
madurez
y
que
ya
es
capaz
de
interactuar
como
si
fuera
una
persona
humana.
Hago
aquí
un
pequeño
inciso
dado
que
estamos
en
un
hackatón
de
español
pero
mi
reflexión
aquí
es
que
todavía
funciona
mucho
mejor
en
inglés
que
en
otras
lenguas
entre
las
que
se
incluye
la
nuestra.
Unos
años
después
o
casi
durante
la
misma
época
surge
la
figura
de
Márgio
Miskie
fundador
del
primer
laboratorio
de
inteligencia
artificial
del
MLT.
Se
le
considera
el
cerebro
de
la
inteligencia
artificial
el
que
da
por
inaugurada
esta
disciplina
en
una
conferencia
en
Darnoz
y
que
además
hace
una
investigación
muy
profunda
en
torno
a
las
redes
neuronales
desde
el
punto
de
vista
matemático
y
esto
es
muy
importante
tenedlo
presente
años
50
inicios
matemáticos
de
los
algoritmos
que
vamos
a
ver
en
la
base
de
los
transformers
o
los
gpt
que
estamos
viendo
a
día
de
hoy.
Sin
embargo
lo
que
observamos
es
que
los
miedos
que
teníamos
en
vamos
que
tenemos
ahora
mismo
también
estaban
ya
en
aquella
época.
[Música]
Podéis
ser
en
el
espacio
1968
el
miedo
a
que
la
inteligencia
artificial
destruyes
el
mundo
ya
estaba
en
boca
de
todos
y
ya
era
una
comidilla
cuando
empezaban
a
surgir
estos
avances
técnicos
que
sin
embargo
todavía
no
han
llegado
a
funcionar
a
la
altura
de
Jal
ni
siquiera
en
el
entorno
de
nuestras
mesillas
que
pronto
si
Dios
quiere
pues
esperemos
funcionando
con
la
inteligencia
artificial
generativa
pero
que
todavía
no
estamos
ahí
en
ese
Jal
que
va
a
destruir
el
mundo
y
que
se
va
a
hacer
con
la
famosa
AGI
que
es
la
inteligencia
artificial
general
de
la
que
tanto
se
habla
en
nuestros
periódicos
de
una
forma
tremendista.
Lo
que
estamos
viendo
y
a
mí
es
lo
que
me
parece
más
relevante
es
que
los
orígenes
de
la
inteligencia
artificial
se
encuentran
en
los
años
50
del
siglo
pasado.
Esta
época
es
crucial
porque
se
desarrollan
los
primeros
algoritmos
matemáticos
que
están
en
la
base
de
los
sistemas
de
vectores,
matrices
y
redes
neuronales
que
vamos
a
ver
después
constituyendo
los
transformers
de
los
que
tanto
estamos
hablando
últimamente.
En
la
parte
del
lenguaje
loque
vemos
es
que
se
crean
los
sistemas
de
reglas
para
hacer
una
frase
para
traducirla
decimos
que
hay
un
sujeto,
un
verbo
y
un
predicado
y
unos
diccionales
y
a
partir
de
ahí
empezamos
a
funcionar
con
la
llamada
lingüística
computacional.
Se
desarrollan
los
fundamentos
del
NLP
Natural
Language
Processing
y
los
inicios
del
Machine
Learning
de
una
forma
muy
matemática
y
muy
como
digo
basada
en
la
lógica
y
en
las
reglas.
En
los
años
80-90
después
de
un
invierno
de
la
inteligencia
artificial
se
combina
la
inteligencia
artificial
con
la
probabilidad
y
el
aumento
de
las
capacidades
de
computación
y
la
capacidad
de
entrenar
con
datos
hace
que
la
inlusión
de
gramáticas
complejas
pues
puedan
dar
lugar
a
ciertos
sistemas
de
generación
del
lenguaje.
En
esta
época
vemos
como
por
ejemplo
en
el
año
1997
el
primer
jugador
de
fede
del
mundo
es
derrotado,
Kasparov
es
derrotado
por
un
sistema
entrenado
con
inteligencia
artificial
entre
comidas.
¿Por
qué?
Porque
la
fede
es
un
juego
de
reglas
y
las
reglas
combinadas
con
la
probabilidad
y
una
capacidad
de
computación
adecuadas
son
predecibles
a
partir
de
un
sistema
de
lógica
y
de
estadística.
Sin
embargo
hemos
tenido
que
esperar
hasta
el
tercer
periodo
hasta
el
año
2016
para
que
el
mejor
jugador
del
mundo
de
Go
haya
sido
derrotado
por
un
sistema
de
inteligencia
artificial,
DeepMind.
Esto
sucedió
como
os
digo
hace
apenas
seis
años
en
un
momento
en
el
que
se
aplican
las
redes
neuronales
para
utilizar
aprendizaje
no
supervisado,
es
decir
un
sistema
que
no
está
basado
en
reglas
porque
se
trata
de
un
poco
de
estrategia
parecido
a
las
damas
en
el
que
se
combina
este
procesamiento
de
los
datos
con
un
sistema
de
redes
neuronales
que
es
capaz
de
aprender
a
partir
de
esa
información.
Esto
sucede
como
os
digo
hace
bastante
poco
tiempo
y
a
partir
de
entonces
pues
Google
compra
DeepMind
y
empiezan
a
surgir
muchas
mejoras
en
la
traducción
que
empieza
a
basarse
en
redes
neuronales.
Si
tenéis
curiosidad
sobre
esta
historia
os
recomiendo
que
veáis
un
documental
que
se
llama
AlphaGo
en
Netflix
que
explica
un
poco
cómo
sucedió
todo
esto
y
es
bastante
divertido.
Pero
para
mí
lo
más
importante
es
entender
desde
dónde
hemos
arrancado
y
cómo
hemos
llegado
hasta
aquí.
La
inteligencia
artificial
per
se
en
el
sentido
más
amplio
de
la
palabra
comienza
a
desarrollarse
en
los
años
50
del
siglo
pasado.
El
machine
learning
comienza
a
finales
de
los
90
desde
el
punto
de
vista
matemático
y
de
aplicación
de
las
redes
neuronales.
A
partir
del
año
2012
y
como
os
decía
en
producción
más
bien
a
partir
del
2015
empiezan
estos
algoritmos
de
aprendizaje
automático
no
supervisado
a
tener
resultados
reales
y
a
ser
posibles
en
ámbitos
como
por
ejemplo
la
generación
bueno
la
generación
no
en
en
ámbitos
como
el
análisis
de
imagen
o
todo
lo
que
son
por
ejemplo
detección
de
caras
o
temas
de
seguridad.
Pero
hemos
tenido
que
esperar
hasta
el
año
2021
para
la
eclosión
de
la
inteligencia
artificial
generativa
de
la
cual
hablaremos
un
poquito
más
adelante.
La
pregunta
de
todo
esto
es
¿por
qué
ha
pasado
todo
esto
y
por
qué?
Pero
hay
que
tener
mucho
en
perspectiva
el
cómo
y
qué
tipo
de
cosas
han
ido
pasando.
Los
últimos
años
como
os
decía
el
año
2016
ha
sido
ese
inicio
de
toda
esta
vorágine
que
parece
que
ha
explotado
el
año
pasado
pero
que
ya
lleva
unos
cuantos
años
explotando
esa
capacidad
de
reconocer
objetos
que
surgen
el
año
2016
y
como
os
decía
empieza
con
imágenes.
En
el
2017
se
hacen
avances
importantes
en
el
reconocimiento
del
habla.
2018
toda
la
parte
de
comprensión
de
reading
de
lectura.
2018
también
la
traducción.
Todos
los
sistemas
de
asistentes
conversacionales
mejorar
notablemente
y
toda
la
parte
de
capturas
de
imágenes
también.
Hasta
que
llegamos
al
famoso
chat
GPT
en
el
año
2022
y
en
GPT4
en
el
2023.
Esto
ha
suscitado
pues
una
serie
de
revolución
casi
en
la
industria
pero
no
solamente
en
la
industria
sino
en
todas
las
áreas
de
la
sociedad
y
por
eso
se
habla
tanto
de
inteligencia
artificial
generativa.
La
pregunta
es
¿por
quési
esto
empezó
hace
tanto
tiempo
se
ha
puesto
de
moda
ahora
y
por
qué
y
si
va
a
venir
para
quedarse?
Bueno
pues
la
respuesta
es
esto
se
ha
dado
gracias
a
tres
razones.
En
primer
lugar
los
datos.
Cada
día
tenemos
más
datos
en
el
último
año
se
han
producido
más
datos
que
en
todos
los
años
anteriores
juntos
y
esta
tendencia
va
en
aumento
exponencial.
Estos
datos
se
almacenan
en
la
lube
y
son
baratos
son
rápidos
de
almacenar
y
cada
vez
se
almacenan
con
mayor
agilidad.
En
segundo
lugar
la
capacidad
de
procesamiento.
Se
oye
mucho
hablar
de
envidia
últimamente.
En
envidia
que
viene
también
pues
de
esta
origen
en
todo
lo
que
son
las
GPUs
y
todo
los
sistemas
de
hardware
asociados
por
una
parte
a
la
industria
del
videojuego
y
por
otra
parte
a
esta
necesidad
de
capacidad
de
computación
y
velocidad
ha
sido
crucial
para
el
desarrollo
de
la
inteligencia
artificial
porque
como
decíamos
tenemos
que
procesar
millones
de
datos
a
una
velocidad
enorme
y
cada
vez
mayor
para
entrenar
y
para
poder
poner
en
inferencia
en
producción
estos
modelos
de
redes
neuronales
y
para
ello
también
es
necesario
que
el
software
acompañe
movimientos
como
el
software
libre
que
también
se
han
aplicado
a
los
modelos
de
lenguaje
han
hecho
que
cada
vez
sea
más
fácil
para
cualquier
persona
poder
tener
acceso
al
desarrollo
de
estos
sistemas
incluso
a
través
de
su
propio
ordenador
gracias
a
la
computación
en
la
lube.
Sin
embargo,
cuando
hablamos
de
inteligencia
artificial
tocamos
varios
campos.
En
la
base
siempre
está
el
sistema
de
aprendizaje
automático
de
machine
learning
desde
el
grado
menos
supervisado
hasta
el
deep
learning
y
ahora
mismo
pues
toda
la
parte
de
transformes
pero
dentro
de
lo
que
son
los
datos
que
hay
detrás
de
cada
uno
de
los
modelos
es
importante
diferenciar
que
hay
distintos
tipos
de
datos
y
por
tanto
distintos
tipos
de
algoritmos
y
por
ende
de
modelos
no
solamente
de
imagen
sino
de
texto
y
también
de
sonido
o
de
voz.
Esto
quiere
decir
que
cuando
hablamos
de
procesamiento
del
lenguaje
natural
o
de
texto
nos
referimos
al
texto
escrito
y
esto
es
fundamental
caracteres
alfanuméricos
que
son
procesables
por
un
ordenador.
Cuando
hablamos
de
visión
o
de
imagen
nos
referimos
a
píxeles
y
estas
pequeñas
unidades
en
estos
cuadraditos
son
los
que
van
a
constituir
estos
modelos
de
imagen
como
tenemos
Dali
o
como
tenemos
los
modelos
que
están
surgiendo
ahora
mismo
y
que
están
dando
lugar
a
todos
estos
fenómenos
de
los
que
tanto
se
habla
como
los
deep
face.
Cuando
hablamos
de
sonido
estamos
hablando
de
procesamiento
de
ondas
sonoras
el
speech
analytics
es
complejo
porque
combina
tanto
la
parte
de
sonido
como
la
parte
de
texto
y
la
música
y
el
vídeo
pues
tienen
también
esta
complejidad
que
combinan
distintos
tipos
de
sistemas
de
datos.
Si
vemos
de
a
centraros
en
el
lenguaje
porque
como
decíamos
en
esta
en
esta
charla
vamos
a
hablar
de
modelos
del
lenguaje
vamos
a
ver
un
poquito
cómo
hemos
llegado
hasta
todo
lo
que
son
los
LLM
o
large
language
modes.
Cuando
empezamos
a
analizar
cómo
funciona
una
máquina
y
cómo
aprende
un
ordenador
a
detectar
cualquier
tipo
de
frase
lo
primero
que
tenemos
que
ver
es
que
cuando
hablamos
nosotros
no
hacemos
paradas
entre
las
palabras.
Esto
quiere
decir
que
si
yo
digo
Juan
comió
una
manzana
lo
que
el
ordenador
transcribiría
sistemáticamente
es
este
chorro
de
palabras
que
yo
tendría
que
separar
pero
esto
es
una
convención
desde
el
punto
de
vista
escritura.
Esto
quiere
decir
que
lo
primero
que
tengo
que
hacer
cada
vez
que
voy
a
utilizar
un
sistema
de
procesamiento
del
lenguaje
es
dividir
las
frases
en
tokens
ni
por
qué
toquen
sino
palabras
y
por
qué
tanto
se
habla
de
tokens
y
ahora
mismo
bueno
parece
que
es
un
concepto
que
vamos
ha
surgido
de
la
nada
de
lo
que
todo
el
mundo
está
hablando
y
por
lo
que
nos
cobra
la
GPT.
Bien
pues
porque
realmente
cada
sistema
lingüístico
tiene
una
forma
distinta
de
tener
su
flexión,
su
morfología,
su
forma
de
derivar
las
palabras.
Por
cierto
no
lo
he
dicho
soy
lingüista
así
que
este
tipo
de
cuestiones
puesme
toca
un
poco
la
fibra
pero
es
importante
saber
que
por
ejemplo
entre
un
idioma
como
el
español
y
que
es
flexivo
y
un
idioma
como
el
turco
que
es
aglutinante
el
turco
va
pegando
las
palabras
una
detrás
de
otra
como
nosotros
hacemos
con
los
pronombres
cuando
yo
digo
dáselo
ahí
tenemos
tres
palabras
o
tres
tokens.
Esto
quiere
decir
que
dependiendo
de
cómo
sea
el
lenguaje
el
concepto
de
token
va
a
variar
y
va
a
ser
procesado
de
distinta
forma
lo
que
aumenta
por
supuesto
la
complejidad
a
la
hora
de
frenar
estos
modelos
del
lenguaje.
Pero
además
de
la
morfología
está
la
sintaxis
esto
quiere
decir
que
el
orden
en
el
que
aparecen
las
palabras
en
la
frase
es
importante
y
esto
es
muy
relevante
porque
los
transformers
y
los
GPT
es
todo
lo
que
vemos
detrás
de
chat
GPT
y
de
los
sistemas
los
modelos
del
lenguaje
que
estamos
analizando
actualmente
lo
que
tienen
es
un
sistema
probabilístico
detrás
que
predice
cuál
es
la
siguiente
palabra
más
probable
dentro
de
una
estructura
por
lo
tanto
el
cambio
de
orden
de
una
palabra
afectaría
completamente
a
lo
que
es
por
ejemplo
un
prompt
o
una
instrucción
porque
el
sistema
está
muy
muy
relacionado
con
la
forma
y
toda
la
el
espacio
que
ocupan
las
palabras
dentro
de
la
frase
incluso
nuestra
propia
lengua
cuando
convíamos
una
palabra
de
orden
puede
significar
exactamente
lo
contrario
y
nos
puedes
imaginar
en
congresos
como
la
sociedad
de
procesamiento
del
lenguaje
natural
la
cantidad
de
papers
que
hay
sobre
la
negación
en
español
y
sobre
fenómenos
de
este
tipo
que
lo
que
hacen
es
que
sea
altamente
complejo
detectar
ciertos
fenómenos
lingüísticos
como
puede
ser
la
ironía
o
las
metáforas
que
también
dependen
un
poco
de
cómo
estén
las
palabras
dentro
de
la
frase.
La
cuestión
aquí
es
cómo
enseñamos
todo
esto
a
un
ordenador
porque
a
la
hora
por
ejemplo
de
entrenar
un
chatbot
vemos
que
ha
sido
bastante
difícil
el
conseguir
pues
hace
ya
muchos
años
que
un
sistema
de
asistente
virtual
pidiera
una
pizza.
Nos
podéis
imaginar
la
cantidad
de
horas
de
energía
y
de
investigación
que
se
han
utilizado
para
combinar
estos
modelos
del
lenguaje
y
estos
fenómenos
lingüísticos
que
van
desde
la
fonética
hasta
la
pragmática.
¿Por
qué?
Pues
precisamente
porque
en
un
idioma
como
el
nuestro
del
español
tenemos
fenómenos
que
afectan
a
todas
las
capas.
Cuando
estamos
hablando
de
fonética
es
decir
de
cómo
se
pronuncian
las
palabras
o
de
cómo
suenan
vemos
que
hay
fenómenos
como
el
CSEO
o
el
CSEO
en
distintas
regiones
de
España
como
Canaria,
Santa
Lucía
o
Latinoamérica
pues
se
pronuncian
con
un
solo
fonema.
Esto
a
la
hora
de
entrenar
modelos
y
a
la
hora
de
diferenciar
variantes
lingüísticas
es
un
matiz
bastante
importante
para
hacer
por
ejemplo
sistemas
de
speech-to-text
y
hasta
hace
poco
tiempo
era
uno
de
los
obstáculos
para
conseguir
que
unas
transcripciones
funcionase
de
forma
adecuada.
La
morpología
es
decir
esta
forma
que
tienen
las
palabras
afecta
por
ejemplo
a
fenómenos
como
el
CSEO
o
el
de
tú
o
el
usted.
Las
formas
de
tratamiento
en
Latinoamérica
y
sus
usos
son
muy
diferentes
y
también
las
implicaciones
que
tiene
el
usar
una
forma
u
otra
en
un
contexto
más
de
respeto
o
más
coloquia
y
por
lo
tanto
también
debemos
de
entrenar
a
los
modelos
con
este
tipo
de
variantes
en
función
de
esas
necesidades
y
esas
situaciones
geográficas
y
de
contexto.
Y
la
pragmática
y
la
semántica
más
aún
es
decir
lo
más
difícil
del
lenguaje
es
ver
qué
significa
una
palabra
o
cuál
es
esa
variedad
de
palabra
que
se
utiliza
en
un
determinado
contexto
y
especialmente
hablando
de
un
idioma
como
el
español
donde
podemos
tener
situaciones
divertidas
incluso
palabras
como
ahora
o
ahorita
que
significan
implicaciones
muy
distintas
en
España
o
en
México
y
la
pragmática
cuando
hablamos
ya
con
sistemas
de
contexto
cultural.
Esto
es
aún
más
complejo
todavía
sobre
todo
en
registros
orales.
Una
persona
de
Puerto
Rico,
un
gran
amigo
me
decía
no
sé
cómo
van
a
enseñar
ustedes
a
hablar
de
esas
máquinas
porque
en
mi
país
cada
vez
quehablamos
dos
frases
decimos
un
refrán.
Pues
bien,
la
inteligencia
artificial
si
bien
está
entrenada
aún
le
queda
por
aprender
bastante
de
refranes.
Y
cuando
intentamos
trasladar
todo
esto
a
un
sistema
de
asistente
virtual
o
un
sistema
de
voz
como
decía
todavía
son
bastante
tontos
porque
porque
necesitamos
que
ese
speech
analytics,
esa
conversación
que
yo
tengo
cada
vez
que
habló
con
un
asistente
que
pueda
tener
el
nimensita
de
noche,
se
transcribe
de
voz
a
texto.
Después
ese
texto
se
analice,
se
extraigan
esos
insights,
se
extraigan
esos
mensajes
y
después
se
pasen
a
otra
vez
a
un
sistema
conversacional
donde
tengamos
una
frase
que
se
genere
y
a
partir
de
ahí
pues
un
sistema
de
voz
que
lo
pronuncie.
Esto
quiere
decir
que
en
cada
uno
de
estos
pasos
se
puede
perder
información
si
hay
errores
que
inducen
pues
a
una
perdida
de
contexto
o
a
un
significado
que
no
fuera
del
esperado.
Por
ello,
pues
aún
no
hemos
visto
esa
realidad
de
asistentes
virtuales
a
tiempo
real
más
allá
de
que
hay
procesos
que
son
computacionalmente
complejos
y
que
requieren
una
latencia,
una
velocidad
de
explosión
que
hace
que
no
sea
inmediata
esta
transcripción
o
este
fenómeno
de
traer
a
texto
o
a
voz
lo
que
se
trasfera
a
partir
de
un
canal
o
de
otro.
Pero
aquí
lo
importante
es
saber
cómo
han
evolucionado
estas
tecnologías.
Como
os
decía
antes,
cuando
empezaron
los
sistemas
de
inteligencia
artificial
hablábamos
de
reglas
y
si
trasladamos
esto
al
lenguaje
vemos
que,
por
ejemplo,
para
hacer
un
clasificador
una
clasificación
de
un
correo
electrónico
en
un
buzón
o
en
una
serie
de
documentos
para
saber
si
una
palabra
como
banco
significa
objeto
para
sentarse
o
significa
entidad
bancaria
y
lo
que
quiero
es
analizar
el
contexto
de
esa
conversación.
Lo
que
hacíamos
en
estos
orígenes
del
procesamiento
del
lenguaje
era
utilizar
una
técnica
que
medía
las
frecuencias
de
palabras.
Si
yo
situaba
banco
en
un
contexto
rural
pues
por
las
palabras
que
la
rodeaban
y
todo
ese
contexto
era
capaz
de
predecir
que
se
refiere
a
ese
objeto
de
sentarse.
Si
lo
situaba
en
un
contexto
de
entidad
bancaria
por
los
pesos
de
las
palabras
relacionadas
con
el
mundo
de
las
finanzas
era
capaz
de
hacer
esa
clasificación.
El
problema
era
cuando
el
contexto
no
era
lo
suficientemente
abundante.
De
ahí
se
pasó
a
lo
que
se
llaman
los
sistemas
de
vectores
y
aquí
entramos
en
una
parte
que
es
matemáticamente
más
compleja
pero
como
comentaba
ya
estaba
inventada
hace
mucho
tiempo.
En
este
momento
dejamos
de
tener
esa
conciencia
de
esta
palabra
significa
una
cosa.
La
convertimos
en
un
vector
en
el
que
cada
elemento
del
vector
es
un
campo
numérico
que
tiene
una
longitud
determinada
y
que
se
representa
en
un
espacio
tridimensional
como
se
puede
ver
aquí
abajo
a
la
derecha.
Estos
vectores
se
representan
en
ese
espacio
y
en
función
de
las
distancias
que
separan
los
ángulos
de
coseno
entre
los
ejes
podemos
ver
cuál
es
el
vector
más
próximo
un
ángulo
u
a
otro
y
cómo
las
palabras
o
las
frases
o
los
sistemas
que
analicemos
transformados
en
estos
vectores
se
parecen
o
se
asimilan
unos
a
otros.
¿Qué
quiere
decir
esto?
Bueno
pues
esto
es
importantísimo
porque
aunque
parezca
un
poco
abstracto
esto
está
en
la
base
de
todos
los
sistemas
de
la
inteligencia
artificial
generativa
porque
las
bases
de
datos
que
se
utilizan
para
gustar
el
lenguaje
son
vasos
de
datos
vectoriales,
es
decir
los
datos
de
todo
tipo
se
transforman
en
vectores
y
a
partir
de
esos
vectores
somos
capaces
de
realizar
lo
que
llamamos
búsqueda
semántica
para
poder
localizar
cuáles
son
esas
similitudes
entre
unas
palabras
y
otras
y
construir
las
bases
de
lo
que
tenemos
en
los
transformers
o
en
los
GPT.
Esto
como
decía
es
matemáticamente
muy
complejo
la
estructura
de
una
red
neuronal
es
una
combinación
de
capas
de
distintos
vectores
que
se
llaman
neuronal
no
porque
se
parezca
el
cerebro
ni
porque
tenga
ningún
tipo
de
actividad
de
pensamiento
sino
porque
se
asimila
en
cierta
manera
por
los
impulsos
que
se
producen
de
transmisión
de
datos
entre
unos
núcleosentre
unas
nodos
de
la
red
y
otros.
Esto
lo
que
conlleva
es
una
serie
de
procesos
complejos
matemáticamente
en
que
los
datos
se
van
moviendo
de
capa
a
capa
y
por
eso
se
necesita
mucha
capacidad
computacional
y
mucha
velocidad
para
conseguir
que
haya
una
serie
de
datos
de
entrada
y
una
serie
de
capas
de
salida.
Esto
ha
dado
lugar
a
lo
que
es
la
arquitectura
de
transformers.
La
arquitectura
de
transformers
está
en
la
base
de
lo
que
es
la
célula
de
la
inteligente
artificial
generativa
y
es
un
sistema
en
el
que
tenemos
una
serie
de
input-entrada
y
output
de
salida
y
están
combinados
en
función
de
sistemas
de
razonamiento
que
parten
de
un
paper
que
se
llama
o
la
"Tension
is
what
you
need"
y
que
a
partir
de
esta
combinación
de
redes
neuronales
van
combinándose
entre
sistemas
de
lo
que
se
llama
encoder
y
decoder
para
codificar
y
descodificar.
No
voy
a
entrar
en
la
parte
de
matemática
de
todo
lo
que
hay
detrás
porque
es
altamente
complejo
y
lleva
muchísimos
años
de
investigación
y
como
decía
muchos
años
de
investigación
que
solo
se
han
podido
implementar
gracias
a
esta
capacidad
de
computación
de
la
que
contamos
muy
recientemente
pero
que
llevan
ya
mucho
tiempo
de
aprendizaje
desde
el
punto
de
vista
matemático.
Lo
importante
aquí
es
saber
que
estos
transformers
han
constituido
lo
que
son
los
GPTS
Generative
Procedure
and
Transformers,
un
sistema
en
el
que
se
construyen
los
modelos
de
lenguaje
mediante
la
combinación
de
estos
transformers
y
lo
que
hacen
es
entrenarse
con
una
serie
de
datos
que
van
generando
estos
sistemas
de
entrada
y
de
salida
para
después
poder
ponerse
en
producción
y
subirse
a
una
nube
donde
se
pueden
utilizar
para
hacer
consultados.
¿Qué
hemos
visto
aquí?
Bueno
pues
a
partir
del
año
2012
empiezan
a
hacerse
experimentos
bastante
interesantes.
En
el
año
2015
se
empieza
a
hacer
un
experimento
con
todas
las
imágenes
de
gatos
que
se
encuentran
en
el
internet.
Sin
decirle
nada
a
este
sistema
de
redes
neuronales
pues
se
entren
a
un
sistema
de
transformers,
empiezan
a
salir
gatos
sin
haber
dado
ningún
tipo
de
instrucción
más
ni
de
regla
a
todo
este
sistema.
Entonces
en
el
año
2015
se
publica
un
"Pay
for
Pay"
pero
en
la
revista
Wildt
que
dice
"alimenta
tu
render
onal
con
una
gato
y
saldrán
gatos"
"alimenta
tu
render
onal
con
nubes
y
saldrán
nubes"
la
inteligencia
artificial
por
fin
funciona.
Este
es
el
primer
experimento
masivo
que
se
lanza
sobre
la
mayor
cantidad
de
imágenes
que
había
en
internet
que
son
las
de
gatos
y
gracias
a
esto
pues
podemos
ver
que
por
fin
tenemos
casos
de
uso
de
éxito
en
los
que
la
inteligencia
artificial
empiezan
a
apuntar
a
lo
que
hemos
ido
viendo
en
estos
últimos
años
de
revolución.
Sin
embargo
como
os
decía
hemos
tenido
que
esperar
hasta
el
año
2018
para
poder
ver
esa
primera
versión
de
GPT
que
todavía
pues
será
una
especie
de
embrión
y
no
razonaba
demasiado
bien
pero
tenemos
modelos
como
los
modelos
BERT
sobre
los
cuales
los
investigadores
hemos
estado
trabajando
bastante
en
los
últimos
años
con
resultados
que
no
dejaban
de
ser
bastante
interesantes.
A
partir
del
año
2020
empieza
a
acelerarse
todo
la
aparición
de
GPT-3
es
ya
un
buen
cambio
en
el
sistema
y
la
aparición
de
Dali
en
2021
empieza
a
cambiar
las
reglas
de
juego
del
mundo
de
la
imagen.
Sin
embargo
la
eclosión
de
modelos
surge
a
final
de
2021
por
incipios
de
2022.
La
llegada
de
GPT-4
y
la
eclosión
de
modelos
tanto
de
código
abierto
como
de
código
cerrado
hacen
que
el
panorama
cambie
notablemente
y
además
este
gráfico
se
queda
en
2023
pero
lo
que
ha
pasado
en
2024
pues
es
todavía
mayor.
¿Qué
es
lo
que
estamos
viendo?
Pues
lo
que
estamos
viendo
es
casi
una
guerra
entre
los
distintos
modelos
en
los
que
cada
vez
surgen
nuevos
benchmarks
o
sistemas
de
comparación
de
resultados
donde
lo
que
vemos
es
que
hay
modelos
de
distinto
tipo.
Tenemos
por
una
parte
los
modelos
basados
como
decía
al
comienzo
en
distintos
tipos
de
datos
de
voz,
de
sonido,
vamos
de
texto,
de
imagen
y
el
concepto
de
multimodalidad
es
decirlos
modelos
que
de
pronto
empiezan
a
mezclarlo
todo.
Los
modelos
de
GPT
al
principio
salieron
como
modelos
de
lenguaje
ahora
ya
pues
empiezan
a
combinar
en
las
herramientas
los
distintos
tipos
de
modelos
para
poder
facilitar
al
usuario
que
de
pronto
meta
un
documento
o
una
imagen
y
pueda
ser
capaz
de
extraer
datos.
Sin
embargo
todavía
vemos
que
hay
que
realizar
pequeños
ajustes
porque
pues
ha
habido
problemas
como
diferenciar
o
reconocer
a
veces
las
letras
de
una
imagen
cuando
se
mezclan
distintos
tipos
de
tecnología
porque
como
decía
esto
no
es
tan
sencillo
desde
el
punto
de
vista
del
procesamiento
de
datos.
¿Qué
es
lo
que
hemos
visto
recientemente
más
llamativo?
Bueno
pues
el
lanzamiento
hace
un
par
de
semanas
de
los
modelos
de
SOTA
de
OpenEye
que
son
los
modelos
de
generación
de
vídeo
que
es
una
de
las
cosas
más
difíciles
que
tenemos
dentro
de
toda
esta
tecnología.
¿Por
qué?
Porque
el
vídeo
necesita
imagen,
sonido
y
texto
a
tiempo
casi
real
entonces
combinar
todo
esto
requiere
una
cantidad
enorme
de
datos,
una
capacidad
de
computación
muy
grande
y
verificar
que
todas
estas
tres
líneas
se
orquestan
de
la
forma
que
resulta
adecuada
para
obtener
buenos
resultados.
También
lo
que
vemos
aquí
es
que
hay
una
especie
de
postura
bastante
diferenciada
entre
lo
que
son
los
modelos
de
código
cerrado
como
pueden
ser
los
modelos
de
OpenEye
y
todos
los
GPT
es
Dal
y
los
modelos
de
código
abierto
como
Unijune
o
como
todo
lo
que
son
los
modelos
de
llama
que
es
la
puesta
de
meta
por
toda
la
parte
de
software
libre
o
de
otras
empresas
como
Mistral
que
es
un
unicornio
que
nació
en
Francia
el
año
pasado
y
que
ya
ha
producido
pues
uno
de
los
mejores
modelos
de
lenguaje
que
se
puede
utilizar
y
que
bueno
pues
nosotros
mismos
hemos
puesto
en
la
propia
plataforma
Azure
la
semana
pasada.
Es
decir,
están
pasando
las
cosas
en
tal
velocidad
que
casi
estar
una
semana
sin
leer
todo
lo
que
circula
por
redes,
por
publicaciones
o
por
foros
pues
nos
deja
atrás
en
todo
lo
que
es
el
desarrollo
de
esta
tecnología
que
si
bien
pues
no
deja
de
ser
una
disrupción
como
tantas
otras
la
velocidad
que
está
cogiendo
es
absolutamente
increíble.
A
mí
lo
que
estamos
viendo
es
que
hay
otras
tendencias
como
a
la
creación
de
modelos
más
pequeños
más
especializados
en
determinados
ámbitos
o
en
resolver
determinadas
tareas
porque
los
modelos
muy
grandes
son
muy
caros
de
entrenar
y
muchas
veces
subó
óptimos
a
la
hora
por
ejemplo
de
poder
correglos
en
un
dispositivo
como
un
teléfono
móvil
cuando
no
hay
una
conectividad
muy
grande
o
cuando
no
hay
una
capacidad
de
computación
potente
a
la
hora
de
ponerlo
en
inferencia,
es
decir
ponerlo
en
producción
para
su
uso.
Pero
lo
que
hemos
visto
también
es
una
evolución
pues
bastante
interesante
entre
estos
modelos
como
imágenes
generadas
por
Dalí
y
también
su
propio
uso
que
lo
que
ha
generado
en
nuestra
sociedad
es
bastante
revuelo
con
un
fenómeno
como
los
deepfakes
que
preocupa
y
mucho
a
la
hora
de
ver
pues
hacia
dónde
pueden
evolucionar
los
malos
usos
de
la
inteligencia
artificial.
También
vemos
que
hay
grandes
esfuerzos
por
incorporar
todas
estas
tecnologías
en
plataformas
ya
que
al
final
no
solamente
se
necesitan
modelos
para
poder
poner
sistemas
en
producción
sino
que
también
se
necesita
infraestructura,
se
necesita
seguridad,
se
necesita
poder
utilizar
tus
propios
datos
para
trabajar
con
los
modelos,
es
decir
trabajar
en
lo
que
se
llama
una
arquitectura
RAC
para
poder
de
verdad
consultar
tu
propia
información
a
la
hora
de
hablar
con
un
modelo
y
conectarlo
al
mundo
real
sobre
el
que
se
quiere
construir
un
caso
de
uso.
Así
pues
vamos
en
Microsoft
por
ejemplo
tenemos
una
arquitectura
montada
que
cubre
todo
este
tipo
de
cosas
desde
toda
la
parte
de
nube
hasta
todas
las
capacidades
en
función
de
los
datos
y
luego
herramientas
que
se
van
construyendo
para
montar
lo
que
se
dice
soluciones
sobre
este
tipo
de
productos.
Pero
volvamos
un
poco
a
lo
que
son
los
modelos,
a
lo
que
es
la
base
de
estos
sistemas
lingüísticosde
lo
que
tanto
se
va
a
hablar
aquí
estos
días
y
en
lo
que
también
todavía
tenemos
mucho
que
trabajar.
¿Qué
son
los
modelos?
Los
modelos
como
decía
son
sistemas
que
están
basados
computacionalmente
en
transformes
en
elementos
que
predicen
la
probabilidad
de
que
llegue
la
próxima
palabra
pero
para
qué
sirven,
o
sea
que
es
lo
que
ha
hecho
la
inteligencia
artificial
generativa
sobre
todos
estos
sistemas.
Bueno
pues
por
una
parte
clasificar
o
analizar
los
datos,
es
decir
nos
sirven
para
mejorar
todas
estas
capacidades
analíticas
que
por
otro
lado
muchas
veces
ya
hacía
el
machine
learning
tradicional.
Una
de
las
cosas
que
hay
que
tener
en
cuenta
es
que
esta
inteligencia
artificial
no
surge
de
la
nada
y
que
en
varios
casos
de
uso
pues
el
machine
learning
tradicional
ya
lo
resuelve
sin
tener
que
irnos
a
la
idea
generativa.
Sin
embargo
la
idea
generativa
nos
da
una
ventaja
competitiva
a
la
hora
de
generar
ese
contenido
y
de
mejorar
por
ejemplo
la
búsqueda
que
quedamos
en
los
textos.
¿Qué
podemos
hacer
con
los
modelos
del
lenguaje?
Con
estos
grandes
modelos.
Bueno
pues
podemos
mejorar
mucho
las
tareas
de
resumen
porque
esa
generación
de
resumen
era
algo
que
todavía
no
estaba
bien
resuelto
con
el
procesamiento
del
lenguaje
tradicional.
Podemos
mejorar
mucho
la
extracción
de
datos
estructurados
y
no
estructurados.
Todo
lo
que
era
el
name
entity
recognition
con
toda
la
parte
de
búsqueda
semántica
mejora
exponencialmente.
Antes
buscábamos
una
base
de
datos
blockchain
y
no
aparecía
cripto.
Ahora
podemos
establecer
una
relación
y
yo
puedo
ir
a
buscar
en
un
concesionario.
Quiero
un
coche
azul
o
puedo
decir
tengo
una
familia
grande
y
dos
perros
y
me
gustaría
al
campo
el
fin
de
semana
y
hacer
que
me
recomienden
un
todoterreno
y
esto
se
hace
por
búsqueda
semántica.
Puedo
también
establecer
comparaciones
a
mayor
grado
con
grandes
cantidades
de
documentación.
Puedo
mejorar
los
sistemas
de
traducción
y
puedo
también
mejorar
muchos
sistemas
de
recomendación.
Los
casos
de
uso
son
casi
infinitos
pero
la
realidad
es
que
si
se
entiende
bien
esta
tecnología
se
puede
aplicar
a
casi
cualquier
cosa
y
también
hay
que
os
animo
a
que
desarrolles
vuestra
imaginación
en
el
jacatón
porque
muchas
veces
no
se
trata
de
buscar
la
tecnología
más
compleja.
Muchas
veces
es
buscar
el
caso
de
uso
más
apropiado
para
resolver
un
problema
que
se
tiene
con
una
tecnología
que
sea
simple
de
implementar
y
al
final
cuando
estamos
trabajando
en
empresas
y
vemos
cuáles
son
los
problemas
que
tiene
el
cliente
lo
que
vemos
es
que
quizás
ese
camino
más
corto
es
el
que
sea
el
más
difícil
de
encontrar
porque
las
posibilidades
son
muchas.
La
parte
de
clasificación
es
una
parte
muy
importante
sobre
todo
cuando
se
tienen
grandes
cantidades
de
documentación
en
la
que
se
quiere
buscar
esta
información.
Toda
la
parte
de
análisis
de
sentimiento
que
tradicionalmente
funcionaba
regular
ahora
abre
una
gran
puerta
pues
con
todo
lo
que
es
el
análisis
de
ese
contenido
que
está
detrás
de
sentimiento.
Ahora
ya
no
es
bueno
o
malo
es
de
que
se
queja
mi
cliente
porque
se
está
quejando
o
que
se
está
diciendo
en
la
redes
sociales
sobre
este
tema
cuando
queremos
analizar
miles
y
miles
de
opiniones
de
forma
simultánea
gracias
a
la
inteligencia
artificial.
La
extracción
de
información
documental
es
otro
de
los
casos
de
uso
que
es
bastante
importante
a
la
hora
de
ver
las
posibilidades
que
se
abren.
Aquí
por
ejemplo,
vamos
esto
es
un
ejemplo
de
un
pliego
de
una
convocatoria
de
obra
pública
en
un
documento
de
200
páginas
donde
tenemos
una
constructora
buscando
información
sobre
el
tipo
de
materiales
que
necesitan
y
sobre
los
seguros
que
tienen
que
contratar
para
hacerla
ahora.
En
circunstancias
tradicionales
sería
una
persona
física
la
que
emplearía
muchas
horas
varios
días
en
estudiar
este
documento
y
en
extraer
esa
información
casi
de
forma
manual
y
ahora
podemos
tener
un
copiloto,
un
asistente
virtual
que
nos
ayude
a
extraer
esta
información
y
que
la
persona
sólo
tenga
que
revisarahorrando
muchísimo
tiempo
del
día
a
día
de
esta
persona
y
que
además
bueno
podamos
entrenar
ese
modelo
con
los
datos
de
documentos
similares
para
mejorar
ese
resultado
de
una
forma
que
casi
la
intervención
de
su
mano
sea
pues
prácticamente
de
control
de
calidad
y
como
decía
esta
aplicación
a
la
búsqueda
en
grandes
cantidades
de
información
es
fácil
gracias
a
la
vectorización
de
los
datos.
La
transformación
de
esas
bases
de
datos
tradicionales
en
bases
de
datos
vectoriales
permite
que
la
búsqueda
sea
muchísimo
más
exacta
y
sea
contextual.
Al
procesar
este
significado
no
solamente
encontramos
respuestas
sino
también
buscamos
por
contexto
sin
tener
que
irnos
a
búsquedas
textuales
exactas
entonces
esto
nos
habla
una
cantidad
de
posibilidades
enormes
en
cualquiera
de
los
ámbitos
que
nos
planteemos
es
decir
estoy
pensando
en
empresas
con
históricos
documentales
en
distintos
formatos
de
muchos
años
y
de
muy
distintos
contenidos
como
pueden
ser
despachos
de
abogados
o
cualquier
tipo
de
empresa
grande
que
al
final
pues
tiene
un
archivo
de
data
bastante
bastante
numeroso
pero
con
todas
estas
maravillas
tenemos
una
gran
oportunidad
y
un
gran
retor
a
mí
mismo
tenemos
un
mercado
como
decía
el
título
del
jacatón
de
más
de
600
millones
de
personas
en
los
que
todavía
contamos
con
una
tecnología
cuyos
moderos
del
envuje
mayoritarios
han
sido
entrenados
en
inglés
y
con
datos
de
internet
esto
quiere
decir
que
los
problemas
que
comentaba
antes
desde
el
punto
de
vista
semántico
lexico
morfológico
sintáctico
todavía
no
están
bien
resueltos
sobre
todo
cuando
entramos
ya
en
variantes
sociológicas
en
variantes
orales
en
contextos
específicos
de
ámbitos
de
dominio
como
puede
ser
pues
el
ámbito
asegurador
el
ámbito
legal
el
ámbito
médico
y
cuáles
son
los
usos
del
lenguaje
que
se
hacen
para
cada
uno
de
ellos
el
reto
que
tenemos
ahora
mismo
es
muy
grande
y
es
un
reto
no
solamente
computacional
ni
empresarial
es
un
reto
lingüístico
en
el
que
todos
y
cada
uno
de
nosotros
tenemos
mucho
que
decir
este
jacatón
pues
hace
un
hallabamiento
a
esa
accesión
de
datos
a
esa
donación
pero
no
sólo
hay
que
donar
esos
datos
después
tenemos
que
construir
con
ellos
tenemos
que
conseguir
que
creemos
unos
modelos
que
resuelvan
de
ver
los
problemas
que
queremos
resolver
tenemos
que
poder
evaluarlos
porque
al
final
cuando
hacemos
un
modelo
lo
primero
que
tenemos
que
saber
para
ver
si
funciona
es
meternos
en
un
benchmark
saber
exactamente
por
qué
se
dice
que
gpt4
es
mejor
que
yemen
y
por
qué
no
es
lo
contrario
esto
hay
que
probarlo
matemáticamente
con
datos
y
tenemos
que
tener
un
método
científico
para
poder
evaluar
esto
que
es
casi
tan
importante
como
producirlo
entonces
también
tenemos
que
trabajar
en
toda
esta
parte
de
evaluación
de
modelos
para
para
el
ámbito
del
español
y
no
queremos
no
podemos
esperar
a
que
bueno
pues
se
lo
lo
hagan
otros
que
no
seamos
nosotros
es
decir
aquí
es
muy
importante
también
que
todo
este
contexto
todo
este
conocimiento
de
para
qué
se
usa
determinada
palabra
o
en
qué
contexto
se
usa
o
cómo
se
utiliza
la
tecnología
para
resolver
un
determinado
tema
también
sea
cuestión
de
cada
uno
de
nosotros
y
por
eso
es
tan
importante
que
eventos
como
este
pues
abran
la
puerta
a
más
desarrollos
a
la
creación
de
nuevas
empresas
a
la
creación
de
nuevos
corpus
y
a
la
evaluación
también
de
todo
lo
que
se
está
haciendo
desde
un
punto
de
vista
de
esa
exactitud
o
de
ese
funcionamiento
porque
como
bien
veníamos
diciendo
aún
estamos
en
esta
punta
de
dice
ver
han
pasado
muchas
cosas
en
los
últimos
años
y
sobre
todo
en
este
último
año
han
pasado
unas
cosas
que
nos
han
hecho
volvernos
a
todos
de
locura
pero
aún
queda
muchísimo
más
por
verse
este
año
próximo
va
a
ser
emocionante
y
los
próximos
cinco
se
puede
asegurar
que
también
y
me
siento
muy
privilegiada
de
estar
donde
estoy
y
poder
ver
esto
desde
la
primera
fila
del
teatro
pero
realmente
creo
que
esto
no
hay
que
verlo
desde
la
barrera
de
esaplaza
de
todos
los
o
desde
ese
teatro
sino
que
hay
que
verlo
desde
el
escenario
porque
nosotros
somos
los
principales
actores
de
esta
obra
y
gracias
a
nosotros
irán
avanzando
todas
estas
cosas
como
decía
maro
y
minski
que
mencionaba
al
principio
el
fundador
del
primer
laboratorio
de
inteligencia
artificial
del
mt
los
robots
se
le
dan
a
la
tierra
sí
pero
nosotros
seremos
sus
padres
así
que
con
esta
inauguración
llamo
a
todos
a
participar
en
el
jacatón
y
que
esto
no
sólo
se
quede
en
el
jacatón
sino
que
sea
el
principio
de
una
nueva
aventura
en
la
que
cada
uno
de
nosotros
ponga
un
granito
de
arena
para
hacer
avanzar
la
inteligencia
artificial
en
español
y
por
supuesto
yo
estaré
aquí
para
ayudarles
a
todos
ustedes
y
para
poder
colaborar
en
todas
las
iniciativas
que
vayan
a
favorecer
a
nuestra
lengua
a
favorecer
la
banca
de
la
inteligencia
artificial
y
a
construir
soluciones
para
que
hagamos
humanos
mejores
gracias
a
esta
tecnología
maravillosa
muchísimas
gracias
muchísimas
gracias
elena
la
verdad
que
súper
completa
la
quinoa
te
hemos
hablado
de
todo
bueno
has
hablado
de
todo
y
bueno
obviamente
me
ha
parecido
muy
bueno
me
ha
cantado
el
enfoque
en
la
diversidad
también
el
llamado
a
participar
y
a
ser
actores
y
bueno
la
verdad
que
bueno
yo
me
estoy
en
latinamérica
y
el
caribe
y
me
estoy
enamorando
de
los
acentos
también
me
ha
hecho
mucha
gracia
el
ejemplo
de
cómo
se
dice
eso
amiga
o
colega
yo
siempre
pongo
el
ejemplo
de
cómo
decimos
que
algo
nos
encanta
es
guay
chévere
bacana
y
también
50
mil
maneras
de
expresar
eso
entonces
bueno
muchas
gracias
y
vamos
a
ver
si
hay
preguntas
podéis
escribir
las
preguntas
en
el
chat
en
youtube
y
tenemos
una
de
joan
manuel
nos
dice
voy
a
ponerla
aquí
para
que
la
puede
leer
todo
el
mundo
elena
muchas
gracias
por
tu
charla
una
pregunta
general
cuál
es
la
mayor
aplicación
del
lm
es
que
ves
con
mayor
impacto
en
el
mercado
laboral
al
menos
en
lo
inmediato
interesante
muchas
gracias
por
mano
el
bueno
esto
de
jugarse
a
la
mayor
aplicación
es
muy
difícil
porque
depende
tanto
del
caso
de
uso
que
verdaderamente
hay
que
analizarlo
caso
a
caso
pero
yo
diría
que
la
mayor
aplicación
es
la
productividad
es
decir
o
sea
los
fenómenos
como
conocidos
como
los
copilot
son
los
asistentes
virtuales
ahora
mismo
lo
que
nos
están
demostrando
es
que
tareas
que
me
llevaban
muchas
horas
pues
han
podido
reducir
su
tiempo
gracias
a
herramientas
que
me
reducen
ese
tiempo
de
tareas
inútiles
y
cuando
hablo
de
copilot
estoy
pensando
pues
en
asistentes
que
hacen
que
resuma
ese
texto
que
haga
esa
búsqueda
de
una
forma
más
veló
que
redacte
un
correo
electrónico
por
mí
que
haga
ese
proceso
en
el
día
a
día
pues
más
ágil
y
al
final
pues
los
niños
empezaron
el
cole
con
el
chac
que
pete
nosotros
lo
estamos
utilizando
en
el
trabajo
y
esa
tendencia
a
extenderlo
a
todas
las
capas
como
herramienta
de
productividad
creo
que
es
lo
que
a
todos
nos
está
afectando
nos
va
a
afectar
como
fue
el
uso
de
internet
los
teléfonos
móviles
o
del
ordenador
personal
creo
que
esta
es
como
la
primera
capa
y
luego
ya
las
segundas
es
buscar
ese
caso
de
uso
más
concreto
dependiendo
del
tipo
de
datos
que
se
tenga
o
sea
aquí
por
ejemplo
creo
que
hay
dos
ámbitos
en
la
parte
de
lenguajes
fundamentales
o
sea
la
voz
y
el
texto
entonces
en
la
parte
de
voz
todo
lo
que
son
sistemas
de
asistencia
tanto
para
lo
que
es
especial
teis
es
decir
por
ejemplo
colcente
transcripciones
de
conversaciones
consultas
de
médico
todo
lo
que
es
habilizar
toda
esa
transcripción
y
extracción
de
insides
de
conversaciones
y
usó
grabar
una
reunión
y
sacar
un
resumen
y
unas
notas
de
esa
propia
reunión
pues
es
una
es
una
realidad
que
ya
tenemos
en
el
día
a
día
en
nuestros
propios
sistemas
de
trabajo
y
luego
toda
la
parte
de
procesamiento
de
documentación
o
sea
y
creo
que
hay
un
melón
que
todavía
no
se
ha
explotado
de
forma
adecuada
y
es
la
cantidad
de
tiempo
que
perdemos
leyendo
documentos
redactando
documentos
y
revisando
documentos
y
aquí
nos
pueden
ayudar
muchísimo
todosestos
sistemas
de
lenguaje
hay
bueno
pues
a
buscar
información
a
comparar
documentos
de
todas
estas
tareas
que
quizás
no
son
lo
más
importante
de
lo
que
hacemos
muy
bien
la
verdad
que
totalmente
de
acuerdo
cada
vez
estamos
utilizando
más
en
nuestro
día
a
día
y
seguirá
subiendo
tenemos
otra
pregunta
sobre
si
los
modelos
bueno
que
dice
que
si
los
modelos
funcionan
mejor
cuanto
más
grande
es
el
data
sobre
el
que
entrenan
no
siempre
hay
hay
papers
interesantes
sobre
este
tema
crees
que
tiene
tienen
alguna
posibilidad
los
modelos
en
español
de
igualar
en
calidad
a
los
modelos
multilingües
bueno
yo
creo
que
está
es
una
pregunta
bastante
compleja
de
contestar
en
el
sentido
de
que
depende
mucho
del
caso
es
decir
o
sea
aquí
como
decía
antes
esto
no
es
burro
grande
ando
no
ande
es
decir
los
modelos
grandes
han
demostrado
que
ahora
mismo
tienen
el
mejor
performance
a
la
hora
de
haber
sido
entrenados
con
datos
masivos
pero
una
tendencia
que
estamos
viendo
ahora
mismo
es
a
lo
que
son
ese
lm
es
la
es
la
lengua
es
más
o
sea
por
ejemplo
sacó
fi
2
pero
están
saliendo
cositas
bastante
interesantes
que
lo
que
hacen
es
ir
a
resolver
determinado
tipo
de
tareas
con
un
coste
mucho
menor
y
una
capacidad
de
computación
más
pequeña
entonces
esto
permite
que
sean
más
baratos
que
se
puedan
correr
más
rápido
que
tengan
menor
latencia
que
se
puedan
desplegar
en
dispositivos
móviles
y
que
al
final
pues
sean
más
ágiles
a
la
hora
de
combinarlos
entonces
si
bien
esta
primera
tendencia
ha
sido
al
modelo
grande
ahora
lo
que
se
está
buscando
son
eficiencias
así
que
la
respuesta
es
triki
porque
depende
de
para
qué
entonces
también
los
modelos
generalistas
eran
necesarios
para
empezar
a
trabajar
desde
un
punto
de
vista
de
bueno
primero
tengo
internet
y
tengo
todo
pero
luego
tengo
que
ver
en
qué
páginas
busco
entonces
ahora
estamos
en
esa
segunda
fase
de
en
qué
páginas
busco
qué
modelo
se
utilizo
para
resolver
las
tareas
que
yo
necesito
resolver
porque
ahora
mismo
tú
no
necesitas
un
modelo
grande
para
todo
eso
ya
lo
tienes
en
los
buscadores
lo
tienes
en
las
fpte
y
lo
tienes
en
binglo
tienes
en
todos
pero
ahora
lo
que
necesitamos
es
bueno
pues
tengo
mi
despacho
de
abogados
y
tengo
mis
documentos
y
quiero
que
la
respuesta
sea
la
mejor
para
un
abogado
y
que
además
escriba
como
yo
y
utilice
mi
documentación
entonces
una
de
las
cosas
que
estamos
viendo
es
que
no
solamente
son
modelos
sino
que
lo
que
necesitamos
son
arquitecturas
de
raf
retriba
la
unidad
de
generación
que
lo
que
tiene
es
una
combinación
de
modelos
como
motor
de
inteligencia
y
por
otra
parte
de
mis
datos
para
trabajar
sobre
mis
datos
con
modelos
que
vayan
a
realizar
las
tareas
que
yo
quiero
entonces
para
esto
no
necesitamos
grandísimos
modelos
y
una
combinación
de
herramientas
existentes
una
arquitectura
de
datos
y
bueno
pues
sistemas
que
funcionen
bien
para
lo
que
yo
quiero
hacer.
Efectivamente
y
después
también
añadir
que
bueno
como
no
tenemos
una
líder
en
español
tampoco
podemos
mirar
muy
bien
si
estos
modelos
son
muy
lindos
realmente
están
pues
son
más
potentes
o
en
qué
punto
pues
mejoran
a
los
que
sean
entrenados
únicamente
en
español
o
dependen.
Tenemos
que
trabajar
mucho
en
la
parte
de
modelos
en
español
o
sea
yo
no
estoy
pensando
tanto
en
un
gran
modelo
desde
pites
de
cero
pero
sí
que
es
verdad
que
ahora
mismo
hay
una
opción
que
es
bastante
interesante
y
es
coger
modelos
existentes
y
hacer
fine
tuning
sobre
ellos
con
determinados
corpus
entonces
una
cosa
que
sí
que
se
puede
hacer
y
es
bastante
más
fácil
y
menos
costoso
que
hacer
un
modelo
grande
es
coger
un
modelo
existente
modelo
que
se
puede
hacer
un
fine
tuning
con
un
data
set
específico
que
puede
ser
geográficamente
sobre
un
ámbito
o
automáticamente
sobre
un
área
y
esto
funciona
bastante
bien
en
muchos
de
los
tasos.
Efectivamente,
esa
es
un
poco
la
idea
que
cada
equipo
del
hackathon
que
cada
equipo
cree
un
cuerpo
de
instrucciones
de
una
temática
o
una
variedad
de
un
país
específico
yque
hagan
fine
tuning
y
después
si
podemos
ya
a
nivel
organización
entrenar
un
modelo
con
más
datos
pues
mejor
que
mejor
porque
habrá
falta
más
máquinas
pero
bueno
vemos.
Bueno
pero
es
bueno
y
ya
lo
arreglamos.
Lo
arreglamos
perfecto
genial
contar
con
tu
apoyo.
Marian
nos
dice
bueno
primero
que
muy
buena
charla
quería
consultarte
Elena
como
ves
a
los
frameworks
y
tecnologías
alrededor
de
los
LLMS,
Lantern,
Yamain,
de
STC
en
términos
de
madurez.
¿Es
recomendable
implementarlas
en
producción?
Pues
de
nuevo
aquí
te
digo
ni
sin
irnos
sino
todo
lo
contrario,
es
decir
depende
de
para
qué.
Aquí
no
podemos
decir
que
es
un
LLMS
grande
o
pequeño
pues
depende
del
caso
de
uso
y
depende
de
lo
que
queramos
hacer
con
ello.
O
sea
que
al
final
lo
que
vemos
es
que
todo
lo
que
llamamos
ML
Ops
todo
lo
que
es
operativa
en
torno
a
las
arquitecturas
que
van
jugando
con
sistemas
inteligencia
artificial
de
IA
y
modelos
genéricos
necesitan
pues
una
serie
de
piezas
que
son
las
que
han
surgido
pues
a
partir
de
todas
estas
arquitecturas
desde
las
bases
de
datos
vectoriales
hasta
todos
los
sistemas
de
orquestación
como
son
la
Anshin,
Yamain,
etcétera
para
poder
ponerlos
en
producción.
O
sea
a
mí
un
modelo
persenome
sirve
para
nada
y
esto
es
también
lo
que
tenemos
que
tener
claro
al
final
que
esta
inteligencia
artificial
funcione
es
una
serie
de
piezas,
necesita
una
arquitectura
donde
tenemos
que
tener
capacidad
computacional,
sistemas
para
poder
en
producción
y
desplegar
los
modelos
datos
en
toda
la
parte
de
arquitectura
y
luego
pues
un
poco
el
que
queremos
o
como
queremos
hacer
esta
consulta
a
todos
estos
datos.
Entonces
dependiendo
de
lo
que
se
quiera
hacer
pues
hay
piezas
que
son
más
adecuadas
que
otras
o
sea
uno
es
lo
mismo
hacer
un
prototipo
de
un
bot
para
una
prueba
con
un
corpus
pequeño
de
datos
que
poner
esto
en
producción
para
reclamaciones
de
una
aerolínea
y
tener
un
sistema
en
que
todo
el
mundo
reclama
la
vez
porque
es
cuando
se
retrasa
el
vuelo.
Entonces
pues
esto
requiere
ya
unas
distintas
capacidades
y
sobre
todo
pues
sistemas
que
no
solamente
van
a
toda
esta
parte
tan
bonita
de
inteligencia
artificial
sino
que
requieren
también
pues
arquitectura
de
la
de
siempre
y
de
la
buena
en
toda
la
parte
de
data
para
que
sus
sistemas
se
sostenga
porque
no
olvidemos
que
son
sistemas
computacionalmente.
Bueno
pues
todavía
les
queda
un
ratito
y
que
son
muy
costosos
de
mantener
y
de
poner
en
producción
y
hay
temas
de
latencia
y
hay
temas
de
arquitectura
de
software
que
son
importantes
cuando
manejamos
grandes
volúmenes
de
datos.
Entonces
a
la
hora
de
elegir
una
solución
hay
que
tener
en
cuenta
muchas
cosas.
Sí,
sí,
no
es
trivial
para
nada.
Bueno
la
gente
está
animando
y
están
llevando
más
preguntas
pero
bueno
si
queréis
leemos
como
mucho
una
o
dos
más
porque
ya
llegamos
a
las
tres
o
bueno
Elena
en
vez
de
ser
tan
increíble
generosa
con
tus
respuestas
también
puedes
acceder.
Es
por
ti
para
que
bueno
si
no
las
recogemos
y
os
lo
vamos
a
expandir.
Leemos
la
siguiente
de
Gabriel
nos
dice
nos
pregunta
qué
técnicas
crees
que
sean
mejores
para
crear
un
modelo
específico
para
educación
que
pueda
pindar
mejores
respuestas
en
un
campo
que
es
HPT.
Mencionaste
ya
el
RAG
a
ver
si
hay
otras.
A
ver
el
RAG
es
una
arquitectura
entonces
aquí
lo
que
nos
permite
el
RAG
es
utilizar
un
modelo,
consultarlo
sobre
nuestros
datos
y
permitir
que
ese
modelo
aparte
del
conocimiento
que
ya
tiene
en
su
entrenamiento
pues
sea
capaz
de
responder
con
un
determinado
contenido
entonces
qué
ventajas
tiene
esto
bueno
por
un
lado
que
evita
las
alucinaciones
o
sea
no
se
inventan
las
cosas
cuando
no
la
sabe
o
sea
le
podemos
orientar
a
un
tema
de
grounding
es
decir
que
sólo
me
conteste
sobre
la
información
que
yo
le
doy
pero
bueno
pues
dependiendo
también
del
caso
de
uso
tiene
sus
limitaciones
es
decir
si
un
modelo
no
ha
sido
entrenado
en
nuestro
idioma
o
no
ha
sido
entrenado
en
un
determinado
dominio
pues
va
a
fallar
y
básicamente
salióun
point
tuning
es
decir
o
sea
que
hay
como
tres
niveles
a
la
hora
de
utilizar
todo
esto
uno
es
el
nivel
del
prompting
que
es
como
esta
primera
consulta
que
como
si
le
pregunta
un
modelo
para
que
me
conteste
bien
esto
no
es
trivial
y
se
habla
hasta
de
prompting
engineering
que
es
cómo
aprender
a
dar
instrucciones
a
un
modelo
para
que
me
conteste
de
la
forma
adecuada
lo
que
yo
quiero
entonces
al
nivel
de
prompting
se
pueden
hacer
muchísimas
cosas
porque
parte
del
contexto
se
puede
meter
en
el
prompt
para
hacer
que
estas
respuestas
sean
las
adecuadas
otra
es
el
ecosistema
del
RAG
donde
aquí
pues
lo
que
vamos
a
meter
los
datos
y
combinando
estas
dos
pues
se
pueden
resolver
diríamos
que
el
90%
de
los
casos
en
el
tema
del
campo
de
la
educación
y
en
todos
cuando
ya
hablamos
de
temas
muy
específicos
donde
como
digo
pues
no
está
el
modelo
entrenado
con
los
datos
podríamos
hablar
de
hacer
ese
point
tuning
y
aquí
pues
como
digo
las
cosas
dependen
o
de
si
es
una
lengua
que
no
tiene
el
modelo
de
si
es
un
dominio
en
el
que
de
verdad
pues
hay
es
necesario
por
ejemplo
entrenado
modelo
en
un
ámbito
legal
como
decía
antes
un
modelo
que
en
España
uno
sea
entrenado
en
ámbito
legal
no
pues
falla
como
una
escopeta
de
cañas
porque
no
tiene
el
contexto
histórico
que
lleva
a
nuestro
sistema
jurídico
entonces
probablemente
sí
que
sea
importante
trabajar
aquí
pero
en
el
campo
de
la
educación
y
en
todos
entonces
se
trata
de
ver
un
poco
cuáles
son
esas
piezas
para
conseguir
la
mejor
solución
esto
no
es
blanco
negro
es
hacer
casi
encaje
de
bolillos
para
que
las
cosas
funcionen
adecuadamente
estamos
hablando
de
datos
no
estructurados
no
lo
olvidéis
el
lenguaje
es
caprichoso
lo
es
lo
es
dicho
por
la
lingüista
que
se
me
olvidó
decirlo
en
tu
presentación
carlos
nos
hace
otra
pregunta
qué
opinas
del
creciente
uso
de
datos
sintéticos
en
el
entrenamiento
de
modelos
desde
un
punto
de
vista
utilitarista
parece
dar
buen
rendimiento
pero
metodológicamente
presenta
ciertas
dudas
no
bueno
pues
como
decía
antes
depende
es
decir
o
sea
una
de
las
cosas
que
se
está
haciendo
para
toda
la
parte
de
datos
sintéticos
es
la
traducción
de
datos
es
decir
cuando
tenemos
suficiente
corpus
para
poder
hacer
un
entrenamiento
y
necesitamos
pues
que
haya
variedad
se
generan
datos
sintéticos
y
esto
hace
bueno
pues
por
un
lado
que
se
hará
telecoste
por
otro
lado
que
se
mejore
el
resultado
si
el
procedimiento
es
bueno
mejor
el
resultado
y
bueno
nos
está
incursando
en
ningún
tipo
de
problema
pues
no
habría
un
porque
dudar
de
la
metodología
no
sea
al
final
de
lo
que
se
trata
es
de
mejorar
las
herramientas
y
de
conseguir
que
nos
den
los
resultados
que
nosotros
queremos
es
al
final
los
modelos
lo
que
tenemos
que
tener
muy
claro
es
que
reproducen
lo
que
nosotros
estamos
en
los
datos
y
para
poder
hacer
que
funcionen
bien
pues
necesitan
un
volumen
y
una
variedad
adecuada
gracias
a
que
la
propia
inteligencia
artificial
es
capaz
de
generarlos
pues
es
un
buen
sistema
para
no
tener
que
utilizar
datos
originales
que
son
más
caros
más
imperfectos
y
que
muchas
veces
no
están
disponibles
grandes
problemas
y
efectivamente
de
hecho
en
el
hackathon
como
como
colaboramos
siempre
con
Archila
este
año
el
equipo
nos
ha
preparado
un
no
punto
ejemplo
para
utilizar
su
nueva
librería
distil
label
efectivamente
para
crear
data
sets
con
o
sea
de
datos
de
datos
sintéticos
vaya
que
les
ha
dado
muy
buen
resultado
con
algunos
modelos
con
notus
y
con
esa
familia
a
ver
datas
y
más
generales
una
pregunta
sobre
un
caso
de
uso
concreto
la
traducción
del
mudena
crees
que
los
lm's
llegaran
a
sustituir
a
los
nm's
o
sea
neural
machine
translation
o
es
coste
de
tiempo
de
datos
depende
otra
vez
bueno
a
ver
yo
creo
que
aquí
es
una
combinación
o
sea
es
que
los
nm's
al
final
están
pasados
en
redes
neuronales
los
lm's
también
entonces
la
traducción
al
final
ha
mejorado
muchísimo
con
los
lm's
y
se
seguirán
usando
o
sea
la
respuesta
creo
que
en
este
caso
es
sí
porque
cada
vez
lo
que
vamos
viendo
es
que
la
tecnología
que
va
subiendo
mejor
elresultado
y
en
el
caso
de
la
traducción
es
uno
de
los
casos
que
para
mí
es
claro
el
que
se
está
dando
un
salto
exponencial
en
toda
la
parte
de
cómo
se
está
bueno
cómo
está
funcionando
sobre
todo
a
la
hora
de
la
corrección
del
resultado
no
me
digáis
que
no
me
ha
gustado
coger
un
email
que
has
descrito
en
inglés
medio
su
sube
y
pasarlo
por
el
por
un
gpt
y
una
perfecto
a
veces
hay
que
tener
hasta
cuidar
con
palabras
que
yo
no
diría
a
ver
si
me
van
a
pillar
no
hay
tongos
simplemente
quería
hacer
preguntas
que
sean
más
genéricas
pero
bueno
ya
que
insiste
yo
no
es
quiere
preguntar
nos
dice
que
justo
se
puso
a
estudiar
y
a
utilizar
el
nm's
desde
que
vio
la
publicación
del
inte
entonces
pregunta
que
qué
tal
el
desarrollo
bueno
bien
desde
que
salió
el
inte
a
esta
parte
ha
llovido
mucho
en
el
ámbito
de
los
modelos
de
lenguaje
o
sea
digamos
que
todos
hemos
puesto
nuestro
nm's
de
arena
pero
ahora
mismo
lo
que
estamos
viendo
en
el
ecosistema
es
que
hay
muchísimas
soluciones
que
han
superado
bueno
pues
muchos
desarrollos
en
este
sentido
entonces
ahora
mismo
lo
que
hay
que
hacer
es
construir
sólo
lo
último
que
sale
o
sea
y
sin
miedo
a
barrer
todo
lo
que
uno
ha
hecho
antes
porque
al
final
esto
es
como
la
investigación
o
sea
cada
paso
que
se
ha
dado
va
para
para
facilitar
el
siguiente
pero
a
veces
se
comete
el
error
y
esto
vamos
estamos
viendo
muchas
empresas
que
llevan
toda
la
vida
trabajando
en
temas
de
procesamiento
del
lenguaje
natural
que
le
han
cogido
mucho
cariño
a
su
bebé
pero
es
que
el
problema
es
que
la
tecnología
ha
cambiado
mucho
entonces
hay
veces
en
que
hay
que
barrer
para
atrás
todo
lo
que
uno
ha
hecho
incluso
y
decir
vamos
a
ver
ahora
mismo
la
ciencia
va
por
aquí
me
tengo
que
subir
a
siguiente
escalón
así
que
ese
es
el
mensaje
o
sea
en
este
campo
hay
que
ir
a
basarse
en
lo
último
que
ha
sabido
y
si
me
preguntas
sobre
qué
construyes
hoy
te
diría
que
miremos
un
poco
el
benchmark
de
modelos
y
sobre
el
último
que
mejor
funcione
hagamos
una
prueba
muy
buena
respuesta
y
con
mucha
mucha
ilusión
y
motivación
para
el
ante
ya
dos
últimas
recomendar
o
por
ejemplo
algún
desarrollo
para
despliegue
on
device
ya
que
hablaste
mencionaste
esto
en
en
tu
charla
si
vamos
a
ver
aunque
todos
estos
modelos
están
desplegando
en
la
nube
o
sea
lo
que
estamos
viendo
también
es
que
por
un
lado
ni
todo
el
mundo
está
igual
de
conectado
ni
todas
las
soluciones
necesitan
una
conexión
y
una
potencia
para
un
desarrollo
es
decir
o
sea
un
despliegue
on
device
podría
ser
un
sistema
de
traducción
como
el
que
hemos
hablado
pero
es
que
esto
por
ejemplo
es
muy
necesario
pues
en
ámbitos
donde
la
conectividad
no
es
5g
como
tenemos
la
suerte
de
tener
aquí
entonces
no
olvidemos
también
en
que
en
un
mundo
en
que
las
gpu
sabras
se
convierten
en
bueno
pues
casi
lo
necesario
para
poder
correr
un
modelo
hay
muchos
lugares
donde
apenas
llega
a
internet
en
forma
bueno
pues
lo
suficientemente
potente
como
para
poder
hacer
una
consulta
rápida
y
menos
para
poder
interactuar
con
este
tipo
de
sistemas
entonces
por
un
lado
la
conectividad
es
un
asunto
y
por
otro
lado
las
aplicaciones
que
se
encuentran
en
entornos
en
torno
de
desplegados
entre
los
sistemas
pues
por
ejemplo
como
puede
ser
un
sistema
bancario
una
aplicación
de
pagos
etcétera
donde
no
necesariamente
tiene
que
haber
una
condición
una
conexión
de
internet
para
poder
hacer
ese
despliegue
de
modelo
entonces
bueno
que
hubo
también
hay
ámbitos
donde
se
están
viendo
el
desarrollo
de
modelos
en
greenfield
como
pueden
ser
pues
áreas
donde
la
seguridad
pues
es
fundamental
y
ni
siquiera
pues
se
están
desplegando
en
la
nube
aquí
ya
pues
son
casos
muy
específicos
porque
evidentemente
poner
un
modelo
y
subirlo
a
un
sistema
pues
es
muy
caro
respecto
a
ponerlo
en
una
nube
y
poder
desplegarlo
para
distintas
instancias
pero
pero
sí
se
está
investigando
también
mucho
en
este
sentido
porque
dependiendo
del
caso
de
uso
y
la
necesidad
tanto
por
exigencia
de
privacidad
y
de
seguridad
como
por
exigencia
de
conectividadpues
esto
abre
una
puerta
a
que
se
despliegue
en
modelos
en
en
ámbitos
donde
no
se
puede
genial
y
la
última
además
hacemos
así
como
un
buen
cierre
porque
nos
preguntan
sobre
microsoft
qué
opinas
del
último
paper
de
microsoft
de
net
que
parece
tan
prometedor
y
también
gracias
por
la
charla
creo
que
todo
el
mundo
la
ha
encantado
bueno
creo
que
ahora
mismo
o
sea
queda
muy
mal
hablar
de
la
propia
casa
de
uno
sobre
todo
cuando
lleva
poquito
tiempo
pero
creo
que
lo
que
el
papel
que
está
jugando
microsoft
en
el
ámbito
de
la
inteligencia
artificial
es
fundamental
también
a
la
hora
de
investigación
y
una
de
las
cosas
que
a
mí
como
lingüista
académica
y
convencida
de
que
la
investigación
y
la
empresación
inquieta
de
la
mano
es
ese
rol
de
estar
a
la
última
en
todo
lo
que
va
saliendo
entonces
bueno
creo
que
que
ahora
mismo
estoy
como
en
el
olimpo
de
donde
querría
estar
en
el
sentido
de
que
se
han
juntado
todos
estos
mundos
es
decir
necesitamos
que
haya
muchísima
investigación
porque
como
os
decía
tenemos
que
estar
a
la
última
de
lo
que
ha
salido
esta
semana
para
poder
ver
cuál
es
el
siguiente
desarrollo
pero
también
tenemos
que
ser
capaz
de
ponerle
producción
y
por
tanto
no
solamente
se
trata
de
investigar
sino
de
ser
capaz
después
de
montar
ese
modelo
de
desplegarlo
de
que
los
clientes
lo
puedan
consumir
y
de
poder
llevar
la
producción
y
que
no
tengamos
un
problema
después
de
que
lo
que
había
en
el
paper
no
se
puede
implementar
porque
no
hay
capacidad
computación
para
hacerlo
entonces
esto
es
pensarlo
inventarlo
idearlo
y
producirlo
hacer
toda
la
cadena
de
valor
de
principio
a
fin
y
para
eso
pues
creo
que
las
empresas
tienen
que
investigar
y
las
universidades
tienen
que
trabajar
con
empresas
así
que
hay
que
trabajar
mucho
en
este
círculo
porque
aquí
no
hay
ganadores
aquí
hay
colaboradores
y
creo
que
todos
somos
parte
de
ese
ecosistema
totalmente
muy
bonito
terminar
con
un
mensaje
de
colaboración
de
siempre
poder
construir
sobre
lo
que
ha
lo
que
ha
publicado
el
equipo
de
al
lado
de
enfrente
del
otro
país
del
otro
lado
del
de
el
océano
entonces
bueno
ya
con
este
mensaje
vamos
a
vamos
a
cerrar
la
charla
muchísimas
gracias
al
final
ha
sido
casi
una
hora
pero
bueno
muchísimas
gracias
Elena
por
por
compartir
toda
tu
experiencia
tu
conocimiento
también
con
las
preguntas
del
final
y
obviamente
pues
por
por
apoyar
a
somos
en
el
epi
y
nuestra
misión
muchas
gracias
María
un
abrazo
a
todos
y
suerte
en
el
sacatón
un
abrazo
[MÚSICA] | Elena González-Blanco |
La importancia de la diversidad lingüística, María Grandury @SomosNLP | Hackathon #Somos600M | Hola
a
todo
el
mundo,
hoy
comienza
la
segunda
semana
del
hackathon
"Somos
600M".
Y
sí,
la
pregunta
que
más
nacéis,
las
inscripciones
siguen
abiertas.
Esta
mañana,
de
hecho,
había
ya
450
personas
apuntadas,
o
sea,
es
increíble.
Y
muchísimas
gracias
a
todo
el
mundo
por
apoyar
nuestra
misión
de
crear
más
recursos,
y
sobre
todo
más
recursos
abiertos
y
diversos
en
español
y
las
lenguas
cooficiales.
Hoy
vamos
a
ver
tres,
bueno,
una,
aquí
no,
y
dos
talleres.
Primero
voy
a
empezar
hablando
yo
un
poco
sobre
la
importancia
de
la
diversidad
lingüística.
Veremos
el
impacto
del
hackathon,
cuáles
son
los
objetivos
que
tenemos
y
cómo
podéis
apoyar.
Será
muy
cortito,
menos
de
15
minutos.
Y
a
continuación
os
presentaré
a
Gabriel,
Gabriel
des
ingenieros
de
Machine
Learning
en
Archila,
donde
actualmente
se
centran
en
el
desarrollo
de
herramientas
para
la
generación
y
anotación
de
datos
para
el
entrenamiento
de
LLMS.
La
persona
perfecta
para
hablarnos
de
cómo
crear
datos
de
calidad
y
cómo
entrenar
modelos
como
notos,
¿vale?
Y
por
último
llegará
Manu
Romero,
ya
le
conocéis
de
otras
ediciones.
Machine
Learning
Engineer
y
CSO
en
Maesa
también
contribuye
muchísimo
con
HindFace,
tiene
más
de
500
modelos
en
el
hack
y
bueno,
también
investiga
en
varios
proyectos
internacionales.
Entonces,
vamos
a
empezar
esta
introducción
sobre
el
hackathon.
Pero
antes
de
decir
por
qué
necesitamos
diversidad
lingüística
y
por
qué
tiene
que
estar
representada,
vamos
a
ver
qué
es
muy
rápidamente,
no
vamos
a
entrar
en
temas
de
lingüística.
Hay
diferentes
variedades,
¿vale?
Diatópicas
o
geográficas,
que
serían
lo
que
comúnmente
llamamos
dialectos.
Diacrónicas
o
históricas.
Por
ejemplo,
yo
estoy
hablando
español
actual,
también
habría
moderno,
clásico
del
siglo
de
oro
y
medieval.
Variades
diastráticas
o
socioculturales,
que
son
los
diferentes
niveles
lingüísticos,
alto,
oculto,
medio
y
bajo,
global.
Y
las
diafásicas
o
funcionales,
que
serían
los
instintos
registros,
registro
coloquial,
formal,
familiar,
respetizarizado.
Entonces,
antes
de
hablarmos
del
mismo
tipo
de
español,
dependiendo
del
contexto
en
el
que
estamos,
¿vale?
Y
estas
son
esas
variedades.
Bueno,
y
ya
está.
Bueno,
si
os
interesa
un
poco
más
de
lingüística,
os
recomiendo
una
charla
de
Crisaranda
de
la
primera
edición
del
hackathon,
en
la
que
vimos
todo
esto
mucho
más
en
detalle.
Está
en
el
canal
de
YouTube.
Bueno,
os
he
dicho
por
el
canal,
bueno,
por
el
chat,
que
estaba
en
Buenos
Aires
y
es
que
llevo
un
mes
por
Latinoamérica
y
el
Caribe,
porque
estoy
más
enamorada
de
las
diferentes
maneras
que
hay,
bueno,
que
tenemos
de
expresarnos
en
español.
Hay
diferentes
maneras
de
nombrar,
por
ejemplo,
si
queremos
decir
que
algunos
encantan,
podemos
decir
que
chévere,
que
bacán,
que
guay,
podemos
tomar
la
agua
al
colectivo,
el
autobús.
También
hay
diferentes
expresiones
coloquiales,
dependiendo,
bueno,
en
el
lenguaje
oral.
Por
ejemplo,
en
Uruguay
dicen
todo
el
ratota
y
en
Chile
dicen
sípo,
no
puedo,
por
ratopó.
Y
en
Puerto
Rico,
donde
me
invitaran
a
dar
una
conferencia,
también
es
muy
común
utilizar
palabras
en
inglés.
De
hecho,
dos
de
cada
tres
palabras
sin
estar
en
inglés.
Entonces,
esto
es
del
punto
de
vista
de
modelos
del
lenguaje.
Es
muy
interesante
ver
cómo
respondería,
¿no?
Si
vas
cambiando,
mezclando
idiomas.
No
todo
es
escribir,
también
tenemos
diferentes
acentos,
muy
interesantes
desde
el
punto
de
vista
de
los
modelos
multimodales.
Por
ejemplo,
es
muy
común
el
cesio
en
Andalucía,
en
Canarias,
en
Latinoamérica,
en
Caribe,
por
eso
Vestón
Sol,
donde
hay,
donde
hace
bueno,
es
como
mi
cesio.
En
Argentina
y
Uruguay,
el
español
río
platense
que
dejamos,
utilizan
la
E
y
la
Y,
se
pronuncian
como
"sh".
También
aspiran
la
S,
de
hecho
aspirar
la
S
es
bastante
común,
por
ejemplo,
en
otras
zonas,
en
el
sur
España,
en
Chile,
en
diferentes
zonas
del
Caribe.
Y
así
como
otra
curiosidad,
en
Puerto
Rico
a
veces
cambian
la
R,
el
final
de
las
palabras,
por
L,
que
de
hecho
lo
habréis
escuchado
en
muchísimas
canciones.
Y
bueno,
hay
muchísimasparticularidades
más.
El
tema
es
que,
bueno,
a
mí
personalmente
me
encantan,
creo
que
son
preciosas,
y
todas
estas
maneras
de
expresarnos.
El
tema
es
que
en
general
los
modelos
de
lenguaje
hablan
un
tipo
de
español,
realmente
no
hablan
español
porque
es
muy
rico.
Entonces,
uno
de
los
objetivos
de
este
jacatón
es
crear
más
recursos
que
representen
todas
estas
variedades
de
la
lengua,
habladas
por
el
número
que
siempre
aparecen,
las
partes
que
es
600
millones
de
hispanohablantes.
El
tema
es
que
no
sólo
hablamos
español
en
estos
países
hispanohablantes,
por
ejemplo,
en
España
hay
cuatro
lenguas
oficiales,
que
serían
el
catalán,
el
valenciano,
el
leusquera
y
el
gallego.
Y
tenemos
el
proyecto
"Hilenia",
que
de
hecho
colaboró
con
el
jacatón
también,
y
los
subproyectos
digamos
"Aina
vives
en
el
gaitú
y
nos",
cuyo
objetivo
es
generar
más
recursos
en
estas
lenguas
oficiales.
En
Latinoamérica
y
el
grébet
también
encontramos
un
montón
de
otras
lenguas
habladas
en
estos
países.
Por
ejemplo,
en
México
tenemos
la
lengua
Nahuatl,
y
de
hecho
otra
charla
que
os
recomiendo
es
de
Ximena
Gutiérrez,
que
la
dio
también
en
la
primera
edición
del
jacatón
sobre
cómo
crearon
este
corpus
paralelo
de
Nahuatl
a
español.
En
Chile
tienen
en
la
isla
de
Pascua
la
lengua
de
la
civilización
Rapanui,
y
también
la
lengua
de
la
comunidad
originaria
Mapuche.
Entonces,
bueno,
aquí
he
puesto
un
montón
de,
bueno,
cuatro
logos,
que
serían
de
la
Atenia,
la
Unesía
Católica,
la
Academia
de
la
Lengua
Rapanui,
Instituto
de
Lengua
y
Cultura
Mapuche,
que
están
creando
pues
es
un
proyecto
para
crear
más
recursos
también
en
estas
lenguas
que
se
podan
en
su
país.
Y
también
lo
bueno
es
que
estamos
empezando
a
ver
también
varios
congresos
o
workshops
en
diferentes
congresos
sobre
lenguas
indígenas.
Entonces,
bueno,
estoy
seguraísima
de
que
hay
más
proyectos
que
no
conozco,
me
encantaría
que
me
los
pasasis
para
incluirlos
en
esta
diapositiva
y
apoyarlos,
darle
más
suficididad
dentro
de
lo
que
podamos
hacer.
O
sea
que,
bueno,
desde
aquí
pues
un
poco
el
mensaje
de
aunar
los
esfuerzos
para
impulsar
la
Aya
en
estos
idiomas
y
conseguir
que
tengan
representación
digital,
que
es
muy
importante.
Entonces,
¿qué
queremos?
Modulos
inclusivos,
bien,
y
para
eso
que
necesitamos
pues
datos
diversos,
¿vale?
Datos
diversos
que
representen
a
los
600
millones
de
personas
disponablantes,
porque
todos
ya
sabemos
que
la
Aya
no
hace
mágia,
o
sea,
si
no
hay
algo
en
los
datos,
después
no
va
a
aparecer
en
el
modelo,
o
sea,
el
modelo
no
va
a
ver
generar
texto
en
una
variedad
que
no
ha
sido
entrenado.
Y
¿por
qué
queremos
modelos
inclusivos?
Entre
otras
muchas
razones,
meteorcesgos,
ya
sean
de
género,
diversidad
de
opiniones,
o
también
pues
que
si
yo
voy
y
le
hablo
en
español
colombiano,
pues
me
responda
en
la
misma
variedad
que
no
me
mezcle
o
no
me
responda
en
español
neutro,
que
tampoco
existe,
¿vale?
Como
tal.
Y
también
muy
importante,
mitigación
de
desigualdades,
en
el
sentido
de
que
si
una
lengua
o
variedad
no
está
representada
en
el
mundo
digital,
la
brecha
sociocultural,
que
ya
existe,
casi
todos
en
muchos
de
los
casos,
se
va
a
hacer
mucho
más
grande
y
lejos
de
mitigarse.
Entonces,
bueno,
queremos
modelos
inclusivos,
necesitamos
datos
representativos
y
cómo
evaluamos
estos
modelos,
que
es
otra
pregunta.
De
hecho,
la
pregunta
más
común
que
nos
hacen
en
el
servidor
de
la
comunidad
en
Discord
es
¿cuál
es
el
mejor
modelo
en
español?
Y
el
tema
es
que
no
sabemos,
porque
no
hay
una
líder
board
pública
en
la
que
podamos
hacer
esta
comparación.
Entonces,
pues
bueno,
el
segundo
objetivo
de
este
hackathon
o
de
este
proyecto
es
crear
una
líder
board
abierta
de
LMS
en
español
y
lenguas
cooficiales
que
nos
permita
estandarizar
cómo
evaluar
y
comparar
nuestros
modelos.
Ahora,
en
general,
lo
que
pasa
es
que
cada
un
setuto
de
investigación
o
cada
empresa
tiene
su
propia
líder
board
pública,
es
abribada,
pero
necesitaríamos,
si
queremos
medir
el
avance
de
la
idea
en
español,
incentivartambién
una
competitividad
sana
y
probar
la
valida
de
nuestros
modelos,
pues
necesitamos
una
manera
pública
e
imparcial
de
evaluarlos.
O
sea
que
bueno,
recopilamos,
necesitamos
un
gran
corpus
diverso
y
una
líder
board,
entonces
esos
son
justo
los
dos
objetivos
del
hackathon
al
que
os
invito
a
uniros.
Está
ya
no
estáis.
Vamos
a
colaborar
en
equipos
de
hasta
cinco
personas,
ahora
os
explico
un
poco
más.
Siempre,
como
las
otras
audiciones,
con
la
intención
de
que
tenga
un
impacto
social
en
cada
proyecto
que
estén
relacionados
con
los
objetivos
desarrollados
sostenibles
de
la
ONU
y
a
la
vez
que
se
organiza
todo
esto,
pues
también
hay
keynotes
y
talleres,
como
el
ejemplo
de
los
dos
de
hoy,
ya
tuvimos
uno
el
jueves
pasado
de
Elena
González
Blanco
de
Microsoft
y
bueno,
tendremos
más
esta
semana,
más
la
que
viene
para
seguir
aprendiendo.
Y
las
keynotes
están
abiertas
también
a
la
gente
que
no
participe
en
desarrollar
proyectos.
Vale,
los
dos
objetivos,
crear
el
mayor
corpus
instrucciones
y
la
primera
líder
board
del
LMS
en
español,
¿cómo
se
puede
colaborar
con
el
corpus?
Pues
como
había
dicho,
vamos
a
hacer
uno,
ya
de
hecho
hay
bastantes
equipos
de
unas
cinco
personas.
Cada
uno
va
a
crear
una
parte
de
ese
gran
corpus,
por
ejemplo
crear
una
parte
enfocada
a
un
país
determinado
o
una
temática
específica.
Por
ejemplo,
un
corpus
de
políticas
de
igualdad
de
género
en
Chile,
¿vale?
Entonces
puedes
poner
un
ejemplo,
pero
puedes
coger
cualquier
PDF
y
generar
una
base
de
datos
de
preguntas
y
respuestas
a
partir
de
él.
¿Cómo
lo
creamos?
O
sea,
recomendamos
utilizar
Distill
Label,
que
de
hecho
justo
ahora
hay
cuarto,
bueno,
5
o
4
minutos,
Gabriel
nos
dará
un
taller
explicando
la
librería
y
bueno,
hemos
puesto
también
a
vuestra
disposición
un
notebook.
Una
vez
tengáis
el
corpus,
lo
utilizaréis
para
entrenar
vuestro
LLM
y
que
también
veremos
en
el
taller
siguiente,
como
podéis
entrar
este
LLM,
nos
preocupéis,
si
no
sabéis,
os
ayudamos
en
todos
los
pasos.
Otro
opción,
obviamente,
si
ya
tenéis
un
corpus
instrucciones
desarrollado
por
vuestro
grupo
de
investigación,
por
vuestra
empresa
X,
lo
podéis
donar.
Estábamos
muy
agradecidos.
Y
para
colaborar
con
la
Leaderboard
también,
obviamente,
aceptamos
donaciones
y
si
no,
estamos
organizando
un
esfuerzo
colaborativo
para
validar
las
traducciones
hechas,
las
traducciones
del
inglés
al
español
de
la
famosa
Open
LLM
Leaderboard,
¿vale?
Entonces,
pues
también
nos
invitamos
a
unirnos
a
este
esfuerzo.
Os
dejo
ahí
los
dos
enlaces,
tanto
para
participar
como
si
queréis
donar
un
corpus.
Como
sabéis,
en
todo
lo
que
hacemos
en
el
hackathon,
todo
lo
que
hace
la
comunidad
es
Open
Source.
Y
además,
por
favor,
os
invitamos
a
desarrollar
proyectos
de
manera
responsable.
¿Qué
significa
esto?
Que
presteis
atención
a
los
sesgos,
a
la
agüilla
de
carbono
y
a
la
documentación.
Muy
rápido.
La
ya
sabemos
que
depende
de
los
datos.
¿Vale?
Entonces,
¿cuál
es
el
problema?
Que
están
sesgados.
Vamos
mejorando
mucho
como
sociedad,
pero
siguen
viviendo
sesgos
inconscientes
o
inerentes
en
las
noticias,
páginas,
web,
libros
que
ya
hemos
escrito.
Entonces,
el
problema
es
que
cogemos
todo
este
contenido
para
entrenar
un
modelo.
Y
entonces,
como
los
modelos
aprenden
patrones,
pues
el
modelo
aprende
conducta
racistas,
homófobas,
cualquier
tipo
de
discriminación.
Mítico,
gracias
a
todos
los
mimos
serri,
de
garbage
in,
garbage
out.
Entonces,
bueno,
pues,
a
tenerlo
en
cuenta
ser
conscientes
y
sobre
todo,
pues,
incluirlo
en
la
documentación,
que
ya
lo
haremos
un
poco
más
de
ahora.
Y
ojo
al
impacto
medioambiental.
Sabemos
que
tienen
un
gran
impacto
todos
estos
modelos.
¿Cómo
mejorarlo
desde
vuestro
punto
de
vista
ahora
mismo,
eligiendo
el
tipo
de
energía?
Puede
ser
renovable.
O
sea,
el
final
es
decidiendo
qué
regiones
de
computación
utilizáis,
si
las
GPUs
son
eficientes
e
intentar
utilizarlas
el
100%
del
tiempo.
Y
sobre
todo,
intentar
reducir
todo
lo
que
podáis
el
tiempo
de
entrenamiento.
En
vuestro
caso,
hacer
pruebas
como
de
lospequeñitos
o
en
colab,
en
máquinas
un
poco
más
pequeñas.
Antes
de
ponerlo
a
entrenar,
el
gran,
entre
comidas,
gran
LLM,
¿vale?
Y
la
documentación,
por
favor,
es
inútil
un
modelo
que
no
tenga
documentación.
Entonces,
por
favor,
escribid
como
lo
habéis
entrenado,
con
qué
datos,
cuáles
es
la
evaluación,
todo
lo
que
podáis,
¿vale?
También
nos
dejaremos
una
guía
de
cómo
hacer
estos
tres
pasos
que
he
dicho
ahora
muy
rápido.
Y
además,
bueno,
un
comentario,
es
que
no
hay
más
excusas
por
la
documentación
porque
será
un
requerimiento
del
futuro
reglamento
de
IA
de
la
web.
Entonces,
por
favor,
documentación.
Y
ya
está,
justísimo
en
15
minutos.
Vamos
al
primer
taller,
tenéis
el
enlace
en
la
descripción
y
ahora
os
encuentro
ahí
con
Gabriel.
Muchas
gracias
y
hasta
ahora.
[MÚSICA] | María Grandury |
Taller: Argilla y distilabel, herramientas para crear datos de calidad, Gabriel @Argilla #Somos600M | Hola
a
todo
el
mundo
de
nuevo
estamos
en
la
segunda
segunda
semana
del
hackathon
bueno
al
parecer
en
la
charla
anterior
no
para
compartir
las
pantalas
o
sea
mis
mis
diapositivas
entonces
no
os
preocupéis
las
voy
a
poner
las
voy
a
o
las
voy
a
subir
como
decía
sí
que
están
las
inscripciones
abiertas
y
hoy
vamos
a
tener
los
dos
talleres
principales
del
hackathon
vale
primero
vamos
a
ver
con
gabriel
ingeniero
de
machine
learning
en
argila
como
podéis
utilizar
argila
y
distil
label
para
crear
data
sets
de
calidad
y
sobre
todo
para
entrenar
notus
vale
notus
es
una
lm
entrenada
por
argila
a
finales
de
año
2023
que
tuvo
muy
buenos
resultados
en
los
benchmarks
a
través
de
la
mejora
de
los
datos
de
entrenamiento
además
gabriel
nos
va
a
enseñar
cómo
crear
un
data
set
similar
utilizando
un
data
set
similar
a
lo
utilizado
en
el
fin
de
de
notus
utilizando
estas
dos
herramientas
que
os
comentaba
al
principio
argila
y
distil
label
entonces
bueno
ya
te
doy
doy
paso
a
gabriel
ya
estás
compartiendo
las
pantalas
todos
los
positivos
ahora
sí
entonces
bueno
podéis
publicar
vuestros
comentarios
para
gabriel
en
el
chat
de
youtube
y
al
final
del
taller
se
las
leeré
vale
entonces
bueno
muchas
gracias
gabriel
bien
venido
y
todo
tuyo
perfecto
gracias
pues
nada
como
bien
ha
dicho
maría
en
esta
charla
voy
a
estar
hablando
un
poco
sobre
notus
no
que
es
un
modelo
una
lm
que
entrenamos
en
argila
a
finales
de
año
de
2023
y
que
tuvo
muy
buenos
resultados
sobre
todo
porque
nos
centramos
en
en
analizar
los
datos
y
y
mejorarlos
y
con
ello
bueno
pues
conseguimos
muy
buenos
resultados
y
bueno
empiezo
explicando
mencionando
notus
para
ver
si
os
sirve
de
motivación
para
para
utilizar
herramientas
como
argila
y
distil
label
que
con
las
cuales
podemos
conseguir
bueno
pues
unos
data
sets
mejores
de
más
calidad
y
en
los
cual
podemos
bueno
pues
evaluar
distintos
aspectos
y
también
tener
en
consideración
otros
aspectos
como
filtrado
de
desesgos
y
demás
cosas
que
bueno
maría
ha
mencionado
en
su
anterior
charla
bueno
entonces
vamos
a
comenzar
nada
no
tus
es
una
familia
de
modelos
que
creamos
en
argila
y
donde
nos
centramos
sobre
todo
como
ya
he
dicho
en
una
en
una
mejora
a
través
del
modelo
a
través
de
la
mejora
de
los
datos
es
lo
típico
de
si
tienes
mierda
pues
puede
ser
que
entrenes
algo
que
que
sea
de
frente
pero
es
cuanto
mejor
sean
los
datos
mejor
va
a
ser
el
resultado
no
entonces
bueno
antes
de
comenzar
a
describir
un
poco
no
tus
no
quiero
recordar
un
poco
también
las
fases
de
entrenamiento
por
las
que
pasa
una
lm
entonces
bueno
tenemos
la
primera
fase
de
entrenamiento
no
en
la
cual
básicamente
se
construye
un
data
set
muy
muy
grande
haciendo
básicamente
es
creyping
de
páginas
web
de
internet
como
wikipedia
reddit
está
cover
flow
y
bueno
muchísimas
fuentes
más
y
bueno
esta
primera
frase
de
entrenamiento
es
un
entrenamiento
no
supervisado
porque
es
no
supervisado
no
hay
humanos
que
estén
etiquetando
estos
textos
que
se
tienen
de
internet
sino
que
lo
que
se
hace
es
que
se
entrenar
el
lm
metiendo
más
caras
en
los
textos
y
el
objetivo
del
modelo
entonces
es
predecir
la
palabra
que
hemos
enmascarado
y
entonces
con
esto
lo
que
se
lo
que
se
intentan
esta
primera
fase
es
que
bueno
el
modelo
aprenda
un
idioma
y
empieza
a
coger
bueno
obtenga
conocimiento
un
poco
más
generalista
no
luego
tenemos
una
segunda
fase
que
es
la
que
se
conoce
como
la
de
super
base
finetino
en
el
caso
de
de
los
elements
instrucción
finetino
y
bueno
esta
fase
sí
que
ya
tenemos
un
un
data
set
que
ha
sido
creado
por
humanos
y
bueno
etiquetado
por
humanos
o
como
veremos
más
tarde
también
puede
ser
que
sea
etiquetado
por
por
otras
lm
y
básicamente
lo
que
queremos
conseguir
en
esta
en
esta
fase
es
te
doy
una
instrucción
a
la
lm
y
queremos
una
instrucción
que
es
una
tarea
básicamente
y
queremos
que
aprenda
a
realizar
esa
tarea
no
entonces
también
le
damos
la
respuesta
para
que
aprenda
con
esto
conseguimos
que
nuestra
lm
aprenda
ciertas
tareas
o
aprenda
a
hacer
lo
que
para
lo
que
nosotros
queremosutilizarla
pero
aún
no
sigue
quedando
otra
fase
que
es
la
de
alineamiento
en
la
fase
previa
la
lm
aprendió
a
realizar
una
tarea
pero
a
lo
mejor
no
ha
aprendido
la
mejor
forma
para
hacerlo
o
de
la
forma
que
queremos
nosotros
queremos
alinearla
por
ejemplo
para
que
lo
haga
de
de
una
manera
más
honesta
o
por
ejemplo
si
es
un
chatbot
para
que
tenga
en
cuenta
que
está
hablando
con
un
humano
y
que
y
bueno
y
demás
aspectos
que
podemos
intentar
que
la
lm
aprenda
entonces
en
este
fase
básicamente
se
construyó
un
dataset
en
el
cual
a
nuestro
modelo
que
hemos
entrenado
con
super
vice
fine
tuning
básicamente
le
preguntamos
varias
veces
lo
lo
mismo
no
y
tenemos
varias
respuestas
y
luego
tenemos
un
humano
o
otra
lm
diciendo
cuál
de
cuál
de
las
respuestas
es
mejor
para
nuestro
caso
no
entonces
con
esto
conseguimos
un
un
dataset
de
preferencia
no
en
el
que
básicamente
tenemos
una
respuesta
que
es
la
elegida
y
otra
que
es
la
la
que
se
ha
rechazado
y
con
esto
pues
intentamos
que
la
lm
aprenda
esa
intención
que
nosotros
queremos
darle
y
bueno
sobre
el
alineamiento
la
primera
técnica
que
se
popularizó
para
para
alinear
la
lm
con
nuestras
preferencias
fue
el
uso
de
de
reinformer
redding
from
human
feedback
no
en
el
cual
con
los
datos
de
preferencia
que
hemos
creado
entrenamos
un
modelo
de
un
software
model
no
modelo
de
que
nos
va
a
dar
una
escora
o
una
recompensa
para
la
lm
entonces
utilizamos
la
lm
para
generar
una
respuesta
lo
pasamos
por
el
modelo
de
de
recompensa
y
este
modelo
de
recompensa
básicamente
lo
que
hace
es
darle
una
galleta
a
la
lm
y
se
ha
portado
bien
o
no
darle
nada
o
incluso
quitarle
comida
si
se
ha
portado
mal
por
así
decirlo
y
bueno
lo
único
malo
de
este
tipo
de
entrenamientos
que
es
un
poco
inestable
no
y
también
añadimos
entre
el
super
base
21
y
la
fase
de
alineamiento
como
un
paso
intermedio
que
requiere
entrenar
el
riguard
model
que
suelen
ser
pues
modelos
como
roberta
pero
bueno
ya
requiere
esa
ese
paso
de
extra
entrenamiento
entonces
lo
que
nos
dio
un
poco
la
vida
no
a
la
comunidad
o
las
ales
es
cuando
se
publicó
direct
preferencia
optimización
que
básicamente
es
un
algoritmo
que
también
utilizando
los
datos
de
preferencia
pero
sin
la
necesidad
de
entrenar
un
un
riguard
model
pues
básicamente
conseguimos
lo
mismo
esto
se
consigue
utilizando
el
modelo
que
hemos
entrenado
la
fase
2
como
modelo
de
referencia
y
lo
comparamos
con
el
modelo
del
cual
estamos
haciendo
feint
tuning
para
comparar
las
respuestas
y
mediante
una
función
de
pérdida
muy
chula
que
podéis
leer
en
el
en
el
paper
y
que
yo
no
voy
a
explicar
porque
me
tiraría
todo
el
día
y
aún
así
no
la
haría
bien
pues
se
consigue
se
consigue
esta
alineamiento
y
bueno
hoy
nos
vamos
sobre
todo
a
centrar
en
las
fases
de
super
base
fan
tuning
y
alineamiento
creas
dos
deitas
para
para
estas
dos
fases
porque
bueno
por
desgracia
la
fase
de
entrenamiento
todavía
no
es
no
podemos
hacerlo
empresas
pequeñas
o
incluso
comunidades
pequeñas
porque
bueno
requiere
requiere
muchos
recursos
que
sólo
unas
pocas
empresas
de
momento
tienen
vale
entonces
bueno
pues
os
voy
a
contar
la
historia
de
notas
ahora
y
para
empezar
a
contar
la
historia
de
notas
pues
tengo
que
empezar
a
contar
la
historia
de
de
otra
de
otra
organización
bueno
como
sabréis
a
finales
2023
mistral
bueno
finales
en
2023
mistral
e
hay
público
mistral
7b
uv
01
que
básicamente
es
un
modelo
de
7
billones
o
7000
millones
de
parámetros
si
hablamos
en
español
en
castigano
entonces
bueno
este
modelo
es
fue
pre
entrenado
con
con
datos
de
internet
como
ya
he
dicho
antes
y
fue
publicado
y
en
su
momento
pues
fue
el
mejor
modelo
pre
entrenado
de
este
tamaño
y
bueno
del
pues
han
nacido
una
infinidad
de
modelos
uno
de
los
modelos
que
han
nacido
fue
cefir
no
cefir
7b
que
básicamente
nació
de
un
experimento
de
de
un
equipo
de
havin
face
de
h4
del
cual
luiz
tostar
que
que
también
es
también
ha
estado
aquí
muchas
veces
en
somos
en
el
ep
pues
nada
lo
que
ellos
querían
hacer
es
básicamente
en
validar
que
se
podíaentrenar
a
un
modelo
con
con
dpo
y
para
eso
para
ello
preparan
este
pequeño
experimento
en
el
que
primero
hicieron
un
super
vice
21
de
utilizando
ultra
chat
que
es
un
modelo
generado
sintéticamente
utilizando
utilizando
chat
y
pt
y
después
hicieron
un
un
alineamiento
no
utilizando
dpo
la
técnica
que
mencionado
antes
y
y
ultra
feedback
que
es
otro
data
es
similar
a
ultra
chat
pero
en
el
que
tenemos
como
ya
he
dicho
antes
preferencias
no
en
una
fila
tenemos
una
una
unas
escores
que
nos
permiten
decir
si
si
una
respuesta
es
mejor
que
otra
y
bueno
con
esto
y
con
dpo
pues
conseguiron
cfir
7b
que
fue
un
modelo
pues
que
a
finales
de
2023
obtuvo
muy
buenos
resultados
en
los
benchmark
y
bueno
nosotros
en
argila
desde
vimos
todo
esto
vimos
que
había
una
tendencia
a
crear
datos
sintéticos
utilizando
otras
lm
y
decidimos
crear
distillable
que
es
el
el
framework
que
voy
a
enseñaros
un
poco
más
tarde
y
que
tenéis
que
utilizar
en
este
jacato
y
bueno
empezamos
a
desarrollar
distillable
y
también
queríamos
probar
otras
cosas
como
si
una
fase
si
una
segunda
fase
de
dpo
sobre
cfir
7b
beta
mejoraría
el
modelo
y
bueno
lo
que
nos
encontramos
o
lo
que
hicimos
al
final
fue
esto
volvemos
a
utilizar
ultra
feedback
para
utilizando
también
dpo
crear
notos
7b
uv1
a
partir
de
la
versión
cfir
7b
super
base
21
y
bueno
ahora
os
estábis
preguntando
que
qué
diferencia
hay
entre
notos
7b
uv1
y
cfir
7b
beta
porque
los
dos
utilizan
ultra
feedback
para
hacer
esta
fase
de
alineamiento
pues
la
diferencia
es
que
nosotros
cogimos
ultra
feedback
y
le
pusimos
una
una
tirita
porque
nos
encontramos
que
tenía
algún
fallito
y
como
nos
dimos
cuenta
de
estos
fallitos
bueno
pues
básicamente
subimos
el
data
sentí
ultra
feedback
a
argila
y
nos
dimos
cuenta
pues
que
había
algunas
puntuaciones
para
para
las
respuestas
que
se
habían
seleccionado
que
eran
muy
altas
sin
embargo
si
miramos
si
mirábamos
la
la
crítica
que
había
hecho
la
lm
que
también
había
sido
de
esa
nota
pues
no
tenía
sentido
no
tenía
sentido
porque
bueno
en
este
caso
por
ejemplo
cuál
es
un
animal
libro
o
bolígrafo
bolígrafo
es
un
animal
el
libro
es
un
animal
y
bueno
insisten
que
el
bolígrafo
es
un
animal
claramente
está
mal
está
fatal
de
hecho
pero
habis
aparecía
como
la
respuesta
elegida
y
con
muy
buena
nota
con
un
10
entonces
bueno
nos
dimos
cuenta
de
que
la
pipeline
que
habían
generado
bueno
que
habían
utilizado
el
grupo
de
investigación
que
creo
ultra
feedback
que
fue
open
bmv
pues
tenían
un
bug
en
el
cual
repitieron
bueno
había
2.000
filas
afectadas
por
este
bug
en
el
cual
básicamente
la
respuesta
elegida
era
muy
mala
pero
sin
embargo
se
la
había
puesto
una
escora
una
puntuación
de
10
entonces
bueno
utilizando
arreglando
esto
y
luego
también
también
nos
dimos
cuenta
de
que
bueno
en
ultra
feedback
por
cada
fila
se
y
por
cada
respuesta
no
se
estaba
generando
una
crítica
al
a
la
respuesta
a
la
cual
se
le
estaba
asignando
un
escore
entonces
por
ejemplo
en
el
trafico
si
para
una
respuesta
si
para
un
prom
teníamos
tres
respuestas
se
estaban
haciendo
tres
ricos
a
gpt4
con
cada
respuesta
y
se
le
estaba
preguntando
que
se
le
diera
darle
una
escora
esa
respuesta
y
bueno
y
una
y
una
explicación
detrás
de
esa
escora
y
luego
a
la
vez
también
se
había
hecho
más
o
menos
el
mismo
proceso
pero
si
teníamos
tres
respuestas
las
tres
respuestas
fueron
enviadas
en
el
mismo
en
la
misma
petición
a
a
pn
a
gpt4
para
que
más
o
menos
hiciera
lo
mismo
que
les
diera
un
escor
y
una
explicación
detrás
de
cada
escor
y
cuál
es
la
diferencia
diréis
entre
entre
estas
dos
maneras
de
bueno
de
obtener
más
o
menos
el
mismo
deitas
pues
que
en
uno
estamos
pasando
las
respuestas
todas
a
la
vez
entonces
esto
le
permite
a
la
lm
también
compararlas
y
y
también
determinar
cuál
es
mejor
que
la
otra
sin
embargo
en
esta
de
la
izquierda
como
ya
se
ha
comprobado
también
en
en
recientes
estudios
pues
las
lm
entre
ricos
no
son
las
puntaciones
que
dan
no
son
consistentes
entonces
bueno
nosotros
decidimos
crear
un
data
set
de
ultra
feedback
utilizando
estas
este
método
no
estas
escores
que
sehabían
generado
con
una
sola
petición
y
bueno
lo
que
conseguimos
básicamente
replicando
la
receta
que
compartieron
los
chicos
de
havin
face
que
por
cierto
muchas
gracias
porque
fue
muy
bueno
ayudado
muchísimo
y
y
bueno
y
también
hicieron
ver
que
dp
o
realmente
funcionaba
pues
básicamente
entrenamos
notos
7b
uv
1
que
superó
a
cfil
bueno
no
supera
cfil
en
en
mt
benz
que
es
un
un
benchmark
pero
sí
que
conseguí
acercarse
muchísimo
muchísimo
sin
embargo
en
alpac
a
val
val
consiguió
casi
un
punto
más
y
fue
incluso
mejor
que
clau
de
dos
que
es
un
modelo
que
seguramente
sea
bastante
más
grande
pero
no
sabemos
porque
es
privado
entonces
bueno
con
esto
espero
que
os
haya
servido
de
motivación
para
para
para
utilizar
herramientas
como
distilable
para
generar
datos
sintéticos
y
no
sólo
quedarse
ahí
sino
también
subir
esos
data
set
que
han
sido
generados
sintéticamente
a
una
plataforma
como
argila
y
evaluarlos
y
anotarlos
a
través
también
de
humanos
o
expertos
para
para
asegurarse
de
que
el
data
set
creado
es
es
bueno
y
con
el
que
vamos
a
entrenar
una
una
lm
entonces
bueno
ahora
voy
a
compartir
un
pequeño
notebook
que
he
creado
y
os
enseñaré
un
poquito
distilable
y
argila
y
cómo
crear
un
data
set
con
para
para
super
vais
fine
tuning
y
y
también
y
p
o
vale
pues
espero
que
podáis
podáis
estar
viendo
mi
pantalla
creo
que
sí
sino
decirme
lo
que
alguien
me
grite
por
favor
y
vale
pues
nada
en
este
en
este
notebook
lo
que
vamos
a
hacer
es
básicamente
cargar
un
un
data
set
en
este
caso
vamos
a
cargar
el
de
un
data
set
de
bueno
un
subset
de
de
la
wikipedia
no
de
artículos
en
español
y
lo
que
vamos
a
hacer
es
generar
un
un
data
set
para
super
vais
fine
tuning
y
más
tarde
un
data
set
para
para
dp
o
para
entrenar
una
para
alinear
una
lm
con
dp
o
entonces
bueno
básicamente
bueno
ahora
un
poquito
de
código
estándar
no
importamos
data
set
y
cargamos
el
data
set
del
havin
face
hub
en
este
caso
wikipedia
le
decimos
que
queremos
el
subset
de
español
y
bueno
el
data
set
de
la
wikipedia
es
bastante
grande
entonces
le
vamos
a
decir
que
que
no
lo
cargue
que
nos
lo
vaya
que
nos
lo
vaya
dando
poco
a
poco
desde
el
havin
face
hub
bueno
que
más
unas
funciones
vamos
a
crear
unas
funciones
no
que
permitan
filtrar
un
poquito
el
data
set
en
este
caso
no
me
interesan
los
artículos
que
son
de
desambiobación
son
estos
artículos
que
bueno
pues
una
palabra
puede
tener
varios
significados
no
varios
artículos
entonces
no
queremos
esos
esos
esos
artículos
los
vamos
a
filtrar
si
perdona
que
te
interrumpa
un
poquito
puedes
aumentar
y
así
lo
verán
mejor
sí
perfecto
vale
pues
continuó
y
bueno
luego
vamos
a
filtrar
artículos
en
los
artículos
no
queremos
mi
artículos
muy
cortos
ni
tampoco
muy
largos
y
nada
y
por
último
se
limpiar
un
poco
el
texto
eliminando
estas
cosas
que
suelen
estar
al
final
de
los
artículos
de
wikipedia
como
enlaces
externos
referencias
bibliografía
que
no
se
interesa
mucho
y
bueno
con
esta
función
vamos
a
ir
iterando
el
data
set
y
trayéndonos
filas
desde
el
havin
face
hub
para
construir
un
un
pequeño
subset
no
entonces
bueno
el
el
data
set
que
generamos
básicamente
va
a
tener
en
cuatro
columnas
el
id
del
artículo
la
url
y
el
título
y
el
contenido
del
artículo
vale
entonces
una
vez
que
tenemos
el
el
data
set
vamos
a
vamos
a
generar
un
un
data
set
a
partir
de
este
cortus
en
crudo
por
así
decirlo
que
hemos
traído
de
artículos
de
wikipedia
utilizando
una
cosilla
diferente
a
la
que
a
la
que
a
lo
otro
que
hemos
compartido
en
el
notebook
que
ya
compartimos
hace
unos
días
en
este
caso
vamos
a
utilizar
y
en
estruz
7b
que
es
una
lm
que
fue
recientemente
publicada
por
no
es
research
la
pasada
semana
y
bueno
me
ha
parecido
muy
interesante
no
porque
lo
que
nos
permite
esta
lm
es
generar
pares
de
instrucción
y
respuesta
pero
a
partir
de
de
una
fuente
que
nosotros
le
digamos
no
entonces
esto
está
muy
bien
porque
hay
otras
alternativas
para
generar
de
estos
estas
instrucciones
como
selfie
strut
pero
en
ese
caso
podemos
sufrir
los
efectos
algún
efecto
adverso
de
las
lm
como
las
alucinaciones
con
con
esteenfoque
de
pasarle
un
contexto
por
así
decirlo
bueno
es
un
contexto
podemos
evitar
más
las
alucinaciones
porque
la
esta
lm
para
lo
que
se
ha
entrenado
es
para
generar
una
instrucción
y
una
respuesta
a
partir
del
contexto
y
bueno
también
es
muy
interesante
porque
bueno
si
digamos
que
yo
que
sé
tu
empresa
o
tú
tienes
una
base
de
datos
bastante
grande
con
datos
en
español
pues
también
con
esta
manera
utilizando
esta
lm
puedes
generar
instrucciones
y
respuestas
para
luego
hacer
feint
y
un
de
de
otra
lm
que
tú
puedes
utilizar
ya
y
que
va
a
estar
entrenada
y
y
alineada
para
para
la
tarea
que
tú
quieres
desempeñar
entonces
bueno
también
me
viene
al
pelo
no
un
poco
lo
de
la
de
genestru
porque
genestru
ahora
mismo
no
está
integrada
en
distilable
pero
bueno
me
viene
bien
porque
así
también
os
puedo
explicar
un
poco
los
bloques
principales
de
distilable
y
cómo
podemos
implementar
estos
estos
bloques
para
para
hacer
una
cosa
un
poco
más
un
poco
más
custom
un
poco
más
personalizada
entonces
bueno
distilable
básicamente
tiene
dos
componentes
principales
no
que
son
una
lm
una
clase
lm
o
extracción
que
básicamente
es
la
que
se
encarga
de
nada
dado
dado
un
prom
pues
es
la
que
sabe
utilizar
la
lm
ya
sea
open
hay
un
modelo
o
pensar
como
lama
o
utilizando
otros
frameworks
como
vlm
o
lama
cpp
bueno
pues
sabe
utilizarlo
y
dado
un
prom
nos
va
a
dar
una
respuesta
y
luego
tenemos
otro
bloque
que
es
la
tarea
una
tarea
básicamente
define
lo
que
tiene
que
hacerle
el
el
y
cómo
cómo
hace
esto
cómo
lo
consigue
pues
básicamente
haciendo
prom
bien
y
en
el
y
la
tarea
define
un
un
bueno
un
molde
no
en
el
cual
dadas
unas
entradas
se
construye
este
prom
la
tarea
lo
construye
construye
el
prom
se
lo
pasa
a
la
lm
la
lm
devuelve
una
salida
y
esta
salida
generalmente
también
va
a
estar
estructurada
de
cierta
manera
por
la
cual
la
la
tarea
utilizando
técnicas
más
mondanas
o
normales
como
regular
expresión
expresión
es
regular
eso
simplemente
pues
eso
comprobar
si
si
empieza
con
o
cosas
así
más
normales
podemos
extraer
esa
información
vale
pues
entonces
lo
que
estáis
viendo
aquí
básicamente
es
la
implementación
que
he
hecho
para
de
una
tarea
para
para
que
funcione
con
genestruz
en
genestruz
espera
este
perdón
que
le
tengo
aquí
arriba
este
prom
entrada
en
el
cual
le
pasamos
un
título
como
podéis
ver
campeonato
mundial
de
oracesto
sub
22
masculino
de
1997
y
después
le
pasamos
el
contenido
del
artículo
en
este
caso
pues
nada
habla
sobre
el
campeonato
mundial
de
baloncesto
sub
22
masculino
del
año
97
en
el
cual
fue
fue
melburn
y
ganó
australia
puertorrico
por
desgracia
entonces
bueno
entonces
le
daremos
esto
como
como
entrada
la
lm
y
la
lm
nos
devolverá
algo
similar
a
esto
que
equipo
fue
campeón
mundial
de
baloncesto
sub
22
masculino
en
1997
lo
que
ha
hecho
la
lm
aquí
es
actuar
como
que
ella
es
el
usuario
no
y
lo
que
ha
hecho
es
generar
una
instrucción
generar
una
tarea
y
luego
si
si
vemos
a
continuación
nos
ha
devuelto
también
la
respuesta
es
a
pared
y
todo
esto
lo
ha
hecho
utilizando
la
información
de
contexto
que
nosotros
le
hemos
pasado
y
bueno
en
este
caso
es
como
muy
obvio
lo
que
ha
generado
porque
a
lo
mejor
el
artículo
tampoco
tenía
mucha
más
información
pero
si
el
artículo
es
largo
y
contiene
varios
puntos
o
varios
tópicos
pues
genera
cosas
más
más
complejas
digamos
entonces
nada
le
ha
preguntado
a
general
instrucción
de
que
quien
ganó
y
básicamente
ha
contestado
pues
que
ganó
australia
y
que
tuvo
lugar
en
melburna
y
todas
estas
cosas
que
hemos
visto
antes
vale
entonces
volvemos
a
la
implementación
de
la
tarea
perdón
una
tarea
en
distilable
básicamente
tiene
que
definir
cómo
generar
un
prom
en
este
caso
básicamente
hemos
definido
este
molde
no
que
tiene
síntasis
de
yinya
2
que
es
un
framework
para
para
construir
eso
templates
y
nada
lo
que
lo
que
va
a
recibir
son
las
columnas
que
tenemos
en
nuestro
de
hitas
que
hemos
creado
anteriormente
entonces
si
recordáis
teníamos
el
titulo
el
contenido
y
bueno
aquí
está
como
opcional
los
mensajes
queveremos
más
tarde
para
para
que
los
podemos
utilizar
cosas
importantes
una
tarea
también
tiene
que
definir
cuáles
son
las
entradas
que
necesita
el
título
el
contenido
de
los
mensajes
y
qué
es
lo
que
va
a
generar
en
este
caso
va
a
generar
una
una
conversación
que
básicamente
va
a
ser
una
una
lista
de
cadenas
de
texto
en
la
cual
los
índices
pares
serán
un
mensaje
de
un
usuario
los
los
impares
de
de
un
asistente
de
inteligencia
artificial
y
luego
lo
último
ya
es
definir
una
función
que
recibirá
la
salida
del
lm
y
que
será
capaz
de
de
eso
de
procesar
esta
salida
para
para
obtener
en
nuestro
caso
la
interacción
del
usuario
o
la
instrucción
que
ha
dado
el
usuario
que
en
este
caso
es
mentira
porque
es
el
lm
en
lo
que
está
generando
y
y
la
respuesta
que
ha
dado
el
asistente
entonces
de
esta
manera
lo
que
vamos
a
conseguir
es
utilizando
datos
que
ya
tenemos
que
sabemos
que
son
verdad
o
creemos
que
son
verdad
vamos
a
generar
instrucciones
y
y
respuestas
que
luego
podemos
utilizar
para
hacer
super
base
21
de
de
otra
lm
vale
en
este
caso
en
el
notebook
en
el
primer
notebook
que
os
compartimos
si
no
recuerdo
mal
se
utilizaba
los
infern
en
points
de
having
face
que
también
muchas
gracias
porque
para
esta
jacatón
bueno
nos
han
dado
el
pier
de
enterprise
en
la
organización
de
somos
en
el
ep
y
gracias
a
ello
podemos
utilizar
otras
lm
como
veremos
más
tarde
más
grandes
como
lama
2
de
70
billones
o
mixtral
no
confundir
con
mixtral
y
entonces
bueno
pues
muchas
gracias
también
pero
en
este
caso
y
de
manera
alternativa
pues
vamos
a
utilizar
vlm
que
básicamente
es
un
framework
para
la
inferencia
de
lm
y
bueno
en
inferencia
en
batch
ahora
mismo
es
es
la
más
rápida
es
el
framework
más
rápido
sin
sin
diferencia
al
menos
por
lo
que
yo
he
podido
probar
y
bueno
lo
que
vamos
a
hacer
es
cargar
y
en
estru
en
este
caso
lo
he
cuantizado
no
es
la
versión
original
esta
es
una
versión
cuantizada
que
he
creado
yo
de
ahí
utilizando
a
vdk
y
esto
es
porque
en
los
notebook
de
colap
gratis
tenemos
una
t4
y
el
modelo
original
no
entra
no
entra
una
t4
o
entra
muy
justo
y
en
cuenta
como
se
inferenciaba
nos
va
a
dar
un
error
entonces
con
a
vdk
si
que
funciona
bastante
bien
el
modelo
y
bueno
una
t4
da
de
sobra
para
hacerlo
entonces
genial
pero
bueno
si
tenéis
una
gpu
más
contáis
con
una
gpu
más
potente
con
más
vram
pues
os
recomiendo
que
utilicéis
directamente
el
original
que
es
no
result
y
barra
en
estru
7b
vale
pues
luego
como
he
dicho
antes
tenemos
la
task
y
tenemos
la
tarea
y
la
vlm
entonces
creamos
una
task
y
básicamente
como
system
prompt
que
no
es
un
system
prompt
como
tal
porque
lo
estamos
colocando
aquí
entre
medias
pero
es
un
poco
el
hack
que
he
hecho
para
poder
implementarlo
básicamente
le
estamos
diciendo
la
siguiente
interacción
es
entre
un
usuario
que
solo
sabe
español
tenemos
que
insistirle
un
poco
en
que
solo
sabe
español
y
que
el
asistente
también
es
solo
sabe
español
o
que
va
a
contestar
en
español
porque
si
no
nos
va
a
generar
texto
en
inglés
mistral
7b
que
es
el
modelo
pre
entrenado
por
el
cual
se
ha
hecho
y
del
cual
se
ha
hecho
fin
tuning
para
generar
y
en
estru
sí
que
funciona
bastante
bien
en
español
pero
sí
que
es
verdad
que
en
algunos
casos
bueno
como
ha
dicho
maría
pues
tiene
estas
respuestas
un
poco
de
español
muy
neutro
no
y
también
hay
veces
pues
que
no
nos
hace
caso
y
también
nos
va
nos
va
a
responder
en
inglés
entonces
bueno
es
importante
tener
una
fase
de
verificación
después
de
generar
data
set
como
veremos
después
y
vale
ahora
vamos
a
generar
a
crear
la
lm
en
la
básicamente
tenemos
esta
clase
de
vlm
en
distilable
que
es
un
un
wrapper
un
envoltorio
de
la
clase
original
de
de
el
vlm
entonces
le
pasamos
el
modelo
que
hemos
cargado
la
tarea
que
queremos
que
realice
y
también
le
decimos
pues
que
queremos
que
que
genere
512
nuevos
tokens
como
máximo
le
ponemos
una
temperatura
así
medio
medio
alta
no
porque
queremos
que
tenga
un
poco
de
variabilidad
en
las
respuestas
que
genera
y
luego
bueno
le
pasamos
un
prompt
en
facción
que
estotambién
es
un
poco
hack
que
he
tenido
que
hacer
el
implementación
para
que
funcione
así
que
nada
básicamente
la
función
recibe
el
prompt
y
devuelve
el
prompt
es
decir
no
hace
nada
de
expedición
vale
y
luego
lo
que
hacemos
es
instanciar
una
pipeline
una
pipeline
que
tiene
un
generador
que
en
este
caso
es
esta
lm
y
en
strut
con
la
tarea
de
y
en
strut
vale
y
bueno
entre
medias
nada
seleccionamos
unas
cuantas
columnas
del
data
set
que
hemos
cargado
y
nada
añadimos
una
columna
de
mensajes
en
este
caso
con
mensajes
vacíos
y
ya
veremos
después
por
qué
y
nada
creamos
esta
función
para
para
arrancar
la
generación
del
dataset
y
generamos
el
dataset
y
como
podéis
ver
aquí
pues
nada
distilado
el
comenzará
a
a
generar
datos
utilizando
la
lm
y
la
tarea
en
batch
porque
le
hemos
puesto
que
lo
haga
con
un
batch
de
tamaño
50
y
el
data
se
que
hemos
creado
tiene
más
o
menos
500
filas
pues
nada
en
10
batches
lo
tiene
y
esto
bueno
la
verdad
es
que
es
bastante
rápido
creo
que
hay
10
9
minutos
y
la
verdad
que
bueno
en
9
minutos
500
instrucciones
y
500
respuestas
está
bastante
bien
vale
entonces
el
dataset
que
nos
devuelve
la
pipeline
de
distilable
es
un
dataset
del
hub
por
lo
que
podemos
perfectamente
subirlo
al
hub
in
face
hub
y
nada
si
lo
subís
no
se
diréis
como
ha
dicho
María
de
documentarlo
todo
y
y
nada
y
antes
de
subirlo
también
comprobar
comprobar
lo
que
sé
lo
que
ha
generado
la
lm
y
bueno
para
ello
pues
lo
que
podemos
utilizar
es
argila
no
entonces
para
subir
el
dataset
que
hemos
generado
vamos
a
tener
que
hacer
un
poquito
de
post
procesamiento
en
este
caso
nada
vamos
a
decirle
que
la
columna
de
conversación
que
es
la
que
generaba
la
tarea
de
y
en
estru
nos
la
ponga
en
un
formato
de
lista
no
en
la
cual
tenemos
diccionarios
y
el
diccionario
básicamente
contiene
una
clave
que
es
rol
que
es
usuario
y
o
asistente
y
un
mensaje
que
es
el
mensaje
no
vale
entonces
con
esto
ya
lo
que
podemos
hacer
es
subirlo
a
argila
vale
cómo
desplega
más
argila
pues
la
solución
más
fácil
para
desplegar
argila
es
venirse
aquí
al
hub
en
face
hub
venir
aquí
le
dais
a
nuevo
espacio
y
en
docker
aquí
le
dais
a
argila
y
con
esto
nada
en
dos
minutillos
tenéis
un
un
espacio
de
hub
in
face
hub
con
argila
desplegado
que
podéis
utilizar
continuó
vale
bueno
importamos
argila
y
nos
conectamos
al
espacio
que
hemos
creado
y
luego
bueno
hacemos
un
poquito
de
esto
también
básicamente
es
una
función
para
para
formatear
los
mensajes
que
nos
ha
dado
la
lm
como
si
fuese
un
chat
algo
así
como
lo
que
tienen
en
el
hub
in
face
chat
y
hoy
y
nada
creamos
un
dataset
de
de
argila
que
básicamente
pues
va
a
tener
en
tres
campos
de
texto
el
título
y
el
contenido
que
es
lo
que
hemos
la
lm
ha
utilizado
como
contesta
para
generar
las
instrucciones
y
las
respuestas
y
y
bueno
la
conversación
que
se
ha
generado
y
luego
vamos
a
definir
unas
unas
preguntas
para
darle
una
puntuación
a
la
conversación
generada
y
también
le
vamos
a
vamos
a
preguntar
al
al
humano
no
que
si
que
si
la
que
se
ha
utilizado
la
lm
ha
utilizado
la
información
de
contexto
para
para
la
conversación
generada
porque
puede
ser
que
no
la
haya
utilizado
y
en
ese
caso
puede
haber
cometido
errores
entonces
bueno
podemos
luego
filtrar
también
estas
filas
entonces
bueno
esto
es
un
poco
código
repetitivo
para
subir
el
el
dataset
de
argila
y
y
crearlo
y
bueno
básicamente
lo
que
hacemos
es
un
puesto
de
argila
y
si
venimos
aquí
tenemos
el
el
dataset
que
nos
ha
generado
no
tenemos
el
título
el
contenido
del
artículo
y
tenemos
también
lo
que
nos
ha
generado
la
lm
en
este
caso
bueno
la
interacción
que
hice
el
usuario
no
se
pronunció
este
nombre
así
que
me
vais
a
ordenar
compití
la
década
de
1960
ganó
una
medalla
de
bronce
la
competición
individual
colina
grande
que
medalla
ganó
que
yo
no
se
pronunció
y
bueno
la
lm
nos
ha
contestado
pues
ganó
una
medalla
de
bronce
la
competición
individual
de
colina
grande
y
como
podéis
ver
pues
ha
generado
un
poco
de
texto
en
inglés
no
entonces
es
por
eso
que
también
es
muy
importante
que
no
confíeis
en
lo
que
esciegamente
lo
que
ha
generado
la
lm
y
que
subáis
las
cosas
también
argila
para
para
revisarlas
manualmente
o
utilizando
otras
heurísticas
para
detectarse
y
texto
en
inglés
o
bueno
otras
alternativas
entonces
bueno
esto
le
vamos
a
poner
que
una
puntuación
de
está
medio
bien
pero
claro
luego
ha
puesto
el
inglés
entonces
le
vas
a
poner
un
casi
aprobado
o
suspensos
total
la
verdad
no
queramos
inglés
y
bueno
sí
que
parece
que
ha
utilizado
la
información
de
contexto
no
entonces
la
decimos
que
sí
y
nada
y
enviamos
esta
información
para
luego
es
que
alguien
la
procese
y
utilizando
la
etiqueta
lo
que
ha
hecho
el
humano
construir
un
data
set
una
segunda
versión
del
de
y
ta
set
ya
más
como
se
suele
decir
en
inglés
con
golden
labels
es
decir
con
labels
que
ya
son
se
saben
ciertamente
pues
que
está
que
está
bien
vale
entonces
me
quedan
cinco
minutos
así
que
me
voy
a
dar
pricita
vale
como
se
he
dicho
antes
por
ahí
en
el
data
set
del
principio
teníamos
una
columna
mensajes
no
que
al
principio
estaba
vacía
y
porque
estaba
vacía
bueno
pues
la
idea
que
os
doy
también
para
para
este
hackath
es
que
podéis
ejecutar
una
segunda
iteración
o
incluso
una
tercera
iteración
utilizando
este
modelo
para
para
generar
eso
conversaciones
más
largas
y
también
pues
entrenar
una
ila
m
que
sea
también
mejor
en
español
que
sea
mejor
para
para
chat
no
que
no
sea
sólo
te
dé
una
instrucción
me
das
una
respuesta
y
a
partir
de
ahí
ya
todo
mal
no
que
sea
que
tengamos
datos
con
varias
e
bueno
varias
interacciones
de
chat
y
y
poder
reentren
una
lm
en
español
eso
que
sea
mejor
para
chat
entonces
bueno
lo
que
hemos
hecho
aquí
un
poco
más
arriba
es
generar
este
data
set
iteración
1
y
esto
si
venimos
aquí
y
hacemos
mesa
y
0
pues
como
podemos
ver
tiene
el
mensaje
del
usuario
y
el
mensaje
bueno
la
instrucción
del
usuario
y
y
la
respuesta
del
asistente
entonces
lo
que
vamos
a
hacer
ahora
o
lo
que
va
a
hacer
la
tarea
de
genestru
task
es
que
va
a
incluir
también
esta
información
entonces
lo
que
va
a
hacer
el
lm
ya
es
generar
una
instrucción
o
una
una
instrucción
del
usuario
y
una
respuesta
del
usuario
pero
ya
para
un
segundo
turno
entonces
bueno
básicamente
volvemos
a
ejecutar
esto
que
va
a
hacer
lo
mismo
que
arriba
y
si
venimos
a
la
tarea
aquí
porque
también
hemos
subido
a
la
tenemos
una
segunda
iteración
en
la
que
ya
tenemos
como
podéis
ver
pues
es
un
segundo
turno
vale
entonces
pues
de
esa
idea
por
si
la
queréis
utilizar
y
compartir
el
notebook
también
y
bueno
muy
rápidamente
voy
a
contarla
del
dp
que
no
me
quiero
meter
en
la
en
la
charla
de
mano
vale
dp
ahora
no
recordemos
que
es
este
de
tasset
que
básicamente
tenemos
una
instrucción
preguntamos
a
una
lm
varias
veces
o
a
distintas
lm
que
nos
genera
una
respuesta
y
etiquetamos
cuál
es
la
mejor
y
con
estas
datos
de
preferencia
entrenamos
otra
lm
para
que
se
alinea
se
alinea
eso
entonces
bueno
muy
rápidamente
vale
lo
que
voy
a
hacer
dime
tranqui
no
pides
o
sea
mejor
que
lo
expliques
bien
y
empezamos
unos
minutos
más
tarde
el
de
mano
yo
creo
porque
casi
todo
el
mundo
que
vaya
el
de
mano
está
aquí
ahora
o
sea
que
vale
vale
perfecto
entonces
o
sea
no
te
prisa
pero
tampoco
te
saltes
cosas
importantes
no
te
preocupes
vale
gracias
nada
pues
lo
que
vamos
a
hacer
es
un
primer
paso
para
llamar
a
la
pipeline
de
distilable
es
exactamente
igual
que
la
de
arriba
lo
que
pasa
es
que
esta
vez
le
vamos
a
decir
que
genere
que
para
una
instrucción
genere
bueno
que
para
una
instrucción
que
para
una
fila
genere
otras
tres
filas
por
así
decirlo
no
entonces
lo
que
vamos
a
conseguir
es
varias
instrucciones
y
varias
varias
respuestas
y
luego
lo
que
vamos
a
hacer
en
una
segunda
fase
es
crear
una
tarea
de
ultra
feedback
no
que
es
básicamente
la
la
tarea
o
el
template
o
el
prompt
template
que
utilizaron
la
gente
de
opn
bmb
para
utilizar
chag
ppt
para
para
eso
para
etiquetar
dada
una
una
instrucción
de
entrada
y
varias
respuestas
pues
lo
que
la
lm
va
a
hacer
con
esta
tarea
es
decir
cuál
es
la
mejor
de
las
tres
respuestas
para
esa
instrucción
y
también
nos
va
adar
un
una
explicación
entonces
nada
vamos
a
generar
las
respuestas
como
hemos
hecho
arriba
para
el
data
set
de
super
by
fine
tuning
y
después
vamos
a
hacer
un
poco
de
formateo
de
la
salida
para
que
la
podamos
dar
a
otra
feedback
porque
requiere
las
columnas
de
input
y
generación
en
el
data
set
de
entrada
como
podéis
ver
aquí
entonces
input
por
ejemplo
a
cero
esta
es
una
instrucción
y
luego
si
me
vengo
y
imprimo
en
erasión
0
pero
en
erasión
0
tengo
la
primera
respuesta
que
se
ha
dado
para
esta
instrucción
si
le
doy
el
uno
tengo
la
la
segunda
que
se
ha
dado
y
si
le
pongo
el
dos
pues
tengo
la
tercera
respuesta
que
se
ha
dado
para
esta
instrucción
vale
entonces
para
utilizar
model
tareas
como
ultra
feedback
si
que
os
recomiendo
de
utilizar
modelos
que
sean
más
grandes
no
que
tengan
un
poquito
más
de
de
lugar
o
de
o
que
hayan
aprendido
más
cosas
y
que
puedan
hacer
esta
tarea
con
más
facilidad
entonces
en
este
caso
sí
que
decide
utilizar
los
infren
en
points
de
haguin
facebook
y
le
estoy
diciendo
que
utilice
mixtral
que
es
un
modelo
también
de
mixtral
pero
un
poquito
más
potente
y
grande
para
hacer
este
etiquetado
con
otra
feedback
y
nada
eso
os
recuerdo
que
tenéis
que
estar
en
la
organización
de
somos
en
el
depen
haguin
facebook
para
poder
utilizar
este
modelo
de
manera
gratuita
y
nada
si
estáis
dentro
pues
veréis
este
mensaje
de
usings
server
les
infern
en
point
lo
que
significa
que
todo
ok
vale
entonces
ejecutamos
la
pipeline
utilizando
esta
lm
como
etiquetador
y
generamos
el
data
set
para
depio
vale
en
este
caso
como
la
tarea
está
bien
integrada
en
distilable
bueno
podemos
empujar
el
data
set
al
haguin
facebook
y
también
la
podemos
subir
a
argila
de
manera
automática
y
lo
bueno
de
esto
es
que
este
método
va
a
generar
también
metadatos
de
manera
automática
y
también
vectores
que
podéis
utilizar
para
para
hacer
búsqueda
por
similaridad
en
la
interfaz
de
argila
entonces
nada
volvemos
a
subir
el
data
set
a
argila
y
si
volvemos
aquí
y
venimos
aquí
pues
nada
tenemos
un
data
set
un
poco
más
distinto
en
el
que
tenemos
un
campo
que
es
el
input
donde
está
la
isla
de
man
on
y
y
tres
generaciones
y
bueno
y
como
podéis
ver
aquí
tenemos
unas
cuantas
preguntas
que
las
podrías
haber
puesto
en
español
pero
claro
es
que
se
ha
generado
automáticamente
y
y
bueno
aunque
los
podemos
cambiar
podéis
venir
aquí
y
en
cuestiones
ponerle
en
español
no
lo
voy
a
hacer
ahora
que
si
no
no
era
tiempo
pero
bueno
básicamente
mixtral
lo
que
ha
hecho
es
coger
la
instrucción
y
las
generaciones
y
les
ha
puesto
un
score
una
puntuación
y
nosotros
utilizando
la
característica
que
tiene
argila
para
para
añadir
sugerencias
pues
hemos
autorrellenado
estas
preguntas
que
tenemos
aquí
a
la
derecha
entonces
cuál
es
la
puntuación
que
se
ha
dado
la
generación
1
3
cuál
es
la
que
se
ha
dado
a
la
generación
2
5
y
cuál
es
la
que
se
ha
dado
la
generación
3
4
aún
así
podemos
leerlo
y
comprobar
que
esto
está
bien
si
vemos
que
no
está
mal
o
que
está
mal
y
que
eso
que
la
etiqueta
normal
pues
podemos
venir
aquí
y
ponerlo
en
2
en
este
caso
vamos
a
dejarle
el
5
lo
que
significa
que
esta
generación
2
sería
la
respuesta
elegida
para
esta
instrucción
y
luego
podemos
bien
o
elegir
esta
generación
1
o
generación
3
como
la
respuesta
rechazada
y
nada
aquí
también
tenemos
cuál
es
la
la
explicación
del
de
la
puntuación
que
ha
dado
la
lm
entonces
bueno
podemos
pasar
y
nada
ir
etiquetando
y
reisando
lo
que
las
bueno
el
etiquetado
automático
que
ha
hecho
un
mixtral
vale
entonces
luego
cosas
más
interesantes
a
lo
mejor
queréis
encontrar
instrucciones
que
sean
similar
a
esta
pues
lo
que
podéis
hacer
es
clicar
aquí
en
o
a
las
generaciones
porque
bueno
a
lo
mejor
una
generación
ha
sido
muy
mala
y
muy
característica
entonces
podemos
buscar
generaciones
similares
a
eso
pero
en
este
caso
vamos
a
buscar
filas
similares
al
input
entonces
distilé
y
vola
automáticamente
cuando
hemos
hecho
la
lectura
gila
ha
generado
también
unos
vectores
para
hacer
búsqueda
por
similaridad
y
ahora
pues
desde
la
yuai
podemos
hacer
esto
no
fine
y
nosva
a
encontrar
uno
que
sea
similar
en
este
caso
pues
el
modelo
que
habrá
utilizado
es
en
inglés
entonces
la
gente
el
vector
que
ha
generado
no
es
muy
bueno
y
nos
está
diciendo
que
esto
es
un
85
por
ciento
similar
pero
bueno
entre
comillas
y
bueno
luego
que
más
podemos
hacer
para
filtrar
rápidamente
o
para
buscar
récords
en
argila
podemos
utilizar
los
filtros
y
por
ejemplo
queremos
ver
las
generaciones
bueno
las
instrucciones
más
largas
por
venimos
aquí
le
decimos
filtrame
las
que
las
que
tengan
entre
389
493
caracteres
y
ya
de
esta
manera
nos
las
va
a
filtrar
y
vamos
a
poder
ver
las
las
instrucciones
más
largas
que
más
bueno
también
lo
mismo
para
la
longitud
de
las
generaciones
y
bueno
también
una
vez
que
hemos
etiquetado
también
podemos
ver
podemos
filtrar
por
la
por
la
puntuación
que
hemos
dado
por
ejemplo
en
este
caso
no
hemos
dado
ninguno
entonces
no
hay
y
luego
también
podemos
filtrar
por
las
sugerencias
de
mixtral
por
ejemplo
podemos
decirle
pues
el
escore
esto
está
regular
e
dame
las
que
tienen
nada
un
escor
entre
0
y
y
0
69
vale
entonces
nada
aquí
más
o
menos
bueno
más
o
menos
acabo
y
nada
espero
que
que
os
haya
sido
de
ayuda
y
y
por
la
disfrenal
pues
nada
muchísimos
datos
en
español
para
entrenar
el
lm
es
que
nos
hacen
falta
sin
totalmente
nos
hacen
falta
muchas
gracias
a
abril
la
verdad
súper
súper
completo
el
taller
también
con
muchísimas
gestiones
y
tal
motivando
obviamente
con
nuestro
caso
de
éxito
que
fue
notus
y
después
el
el
notebook
lo
tiene
todo
el
mundo
a
que
después
me
lo
pasa
si
es
igual
repó
lo
comparto
en
discord
lo
subo
a
la
página
web
así
cada
persona
como
lo
que
estáis
buscando
o
sea
utilizando
como
como
sitio
de
referencia
para
encontrar
la
información
del
jacatón
lo
tendréis
ahí
no
sé
si
hay
alguna
pregunta
así
un
poco
rapidita
y
si
no
igualmente
deciros
que
el
equipo
de
argila
bueno
como
todos
los
años
son
súper
simpáticos
o
sea
que
están
en
discord
y
también
os
podemos
o
sea
les
podemos
reenviar
un
par
de
preguntas
si
tenéis
por
ahí
vale
te
voy
a
hacer
una
porque
lleva
ahí
mucho
rato
entonces
creo
que
se
lo
merece
dicen
aún
modra
pre
entrenado
se
le
puede
agregar
nuevo
conocimiento
que
no
haya
estado
en
el
corpus
inicial
yo
creo
que
además
es
bueno
es
decir
un
proceso
no
es
vervisático
y
propósito
no
sea
cual
instrucción
pues
esta
es
muy
buena
pregunta
y
de
hecho
bueno
gente
del
del
barcelona
super
compitio
en
center
ya
ya
hicieron
esto
y
sacaron
águila
7b
que
básicamente
pues
es
una
continuación
del
pre
entrenamiento
de
falcon
7
y
entonces
sí
que
es
algo
que
no
es
sencillo
de
hacer
no
tiene
cierta
complejidad
y
bueno
una
de
las
primeras
cosas
que
hay
que
hacer
también
no
es
cambiar
el
el
toquenizador
no
que
es
la
pieza
que
dado
unos
unas
palabras
no
nos
las
transforma
en
una
en
bueno
primero
nos
los
nos
corta
las
palabras
en
trocitos
no
nos
transforma
en
tokens
y
esas
tokens
les
asigna
un
idea
y
porque
es
importante
primero
cambiar
el
toquenizador
para
tener
uno
que
sea
más
especializada
de
español
porque
los
que
están
entrenados
con
datos
sobre
todo
del
inglés
bueno
pues
las
palabras
en
español
las
dividen
en
en
más
trocitos
no
entonces
al
final
es
peor
entonces
bueno
lo
que
hicieron
este
grupo
del
bsc
es
eso
cambiar
el
toquenizador
para
entrenar
uno
que
fuera
con
datos
primariamente
del
español
y
del
catalán
y
continúa
el
pre
entrenamiento
de
falcon
7
y
sí
que
consiguieron
resultados
bastante
buenas
pero
repito
es
un
proceso
complejo
y
que
también
requiere
pues
tener
muchas
gps
como
tienen
en
el
bar
de
la
súper
computing
si
de
hecho
estaba
creando
ahí
una
una
colección
de
modelos
que
tenemos
así
pre
entrenados
y
también
es
de
para
instrucciones
en
español
que
acabo
de
compartir
así
que
bueno
ahí
más
pero
muy
bien
la
respuesta
y
otra
pregunta
que
vamos
a
hacer
es
que
es
más
de
argila
si
es
una
forma
de
cambiar
la
respuesta
dentro
de
la
plataforma
si
yo
en
este
caso
no
he
creado
una
pregunta
de
texto
pero
tú
en
tu
data
set
puedes
crear
una
pregunta
de
texto
que
sea
por
ejemplo
si
está
malla
respuesta
que
ha
dado
la
lm
corrígela
y
la
y
la
puede
lo
que
puedes
hacer
es
bien
copiar
la
respuesta
modificar
las
partes
que
que
están
malos
reescribirla
completamente
que
es
de
hecho
lo
que
estamos
haciendo
en
el
en
la
otra
parte
de
jacatón
para
para
esa
para
traducir
mejor
los
los
datos
que
hay
para
para
hacer
pens
marquín
del
elense
al
español
tal
cual
lo
dejo
aquí
o
sea
podéis
entrar
en
hf.co
o
sea
la
hainfase
vale
la
organización
de
somos
en
el
epe
y
está
ahí
el
espéis
y
efectivamente
es
lo
que
dice
gavriel
en
plan
ahí
si
está
mal
traducido
si
nos
ha
traducido
para
nada
o
lo
que
sea
podéis
sobre
escribir
digamos
mejorar
la
la
traducción
entonces
sí
que
se
puede
genial
pues
hasta
aquí
muchísimas
gracias
gavriel
creo
que
le
ha
encantado
a
todo
el
mundo
se
ha
quedado
todo
el
mundo
hasta
el
final
cosa
que
siempre
es
buena
señal
o
sea
que
muchísimas
gracias
y
ya
estará
próxima
gracias
a
vosotros
a
lo
mejor | Gabriel @Argilla |
Taller: Entrenamiento de LLMs con datos de calidad, Manu Romero @MAISA | #Somos600M | En
el
mundo
continuamos
con
los
talleres
de
nuestro
hackathon,
somos
600M.
Como
sabéis,
nuestros
objetivos
son
crear
recursos
diversos,
abiertos
y
de
calidad
de
procesamiento
del
lenguaje
natural
en
español.
Ya
hemos
tenido
un
taller
que
acaba
de
terminar.
Super
interesante
con
Gabriel
de
Agila,
es
ingeniero
de
Machine
Learning
allí
y
nos
ha
explicado
cómo
crear
data
sets
de
calidad
utilizando
Agila
y
Distill
Label,
que
son
los
herramientas
que
han
desarrollado.
Y
por
el
principio
nos
ha
enseñado
su
caso
de
uso,
el
modelo
Notus.
O
sea,
su
caso
de
uso,
sí,
que
tuvieron
mucho,
mucho
éxito,
caso
de
éxito,
eso,
del
modelo
Notus.
Y
después
nos
ha
enseñado
cómo
podemos
utilizar
estas
herramientas
para
desarrollar
nuestros
propios
data
sets
y
después
de
utilizarnos
para
entrenar
nuestros
LLMS.
Ahora
vamos
a
continuar
con
la
importancia
de
la
calidad
de
los
bases
de
datos
con
Manu
Romero,
a
quien
le
doy
la
bienvenida.
Bueno,
casi
todo
el
mundo
aquí
ya
le
conocerá,
ha
dado
un
montón
de
charlas
para
somos
un
LPA
y
también
en
todo
lo
que
es
el
ecosistema
de
Hi-In
Face
le
conocemos
mucho
porque
ha
entrenado
un
montón
de
modelos.
Creo
que
ya
oficialmente
has
llegado
al
500,
Manu.
-Más
cierto,
de
seguro
más
cierto.
-Incredible.
Entonces,
bueno,
obviamente
es
una
persona
muy
indicada
para
enseñarnos
cómo
hacer,
bueno,
entrenar
estos
modelos
y
también
a
la
que
yo
creo
que
vamos
a
hacerle
caso,
sí,
todavía
nos
ha
quedado
claro
que
necesitamos
data
sets
de
calidad
para
entrenar
nuestros
modelos.
Entonces,
bueno,
bienvenido,
Manu.
Muchísimas
gracias
por
preparar
este
taller
y
comparto
tu
collab
y
todo
tuyo.
Para
la
gente
que
no
estáis
viendo
en
directo,
podéis
preguntar
las
preguntas
en
el
chat
y
yo
al
final
del
taller
se
las
voy
leyendo
a
Manu.
Vale.
Adelante,
todo
tuyo.
-Vale,
pues,
bueno,
no
sé
si
veis
bien
el
cola
o
quieres
que
haga
un
poquito
de
zoom.
-Igual,
un
poquito
más.
-Sí,
así,
una
cosa
así.
-Un
poquito
más.
-Venga.
-Ay,
yo
creo,
para
que
vean
bien
el
código
y
tal.
-Vale,
si
no
me
interrumpen,
María,
y
vamos,
voy
haciendo
zoom.
Vale,
bueno,
pues,
cuando
hablaba
con
María
un
poco
de
algo
muy
importante,
¿no?
Que
está
tomando
mucha
relevancia
en
el
mundo
del
NLLP
o
en
concreto
en
el
mundo
de
los
LLMs,
pues
consideramos
que
ya
tocaba
un
poco
crear
igual
un
ejemplo
en
tu
N
de
principio
a
fin
de
cómo
la
calidad
de
los
datos
sobre
la
cual
entramos
en
nuestro
modelo,
ya
sea
fine
tuning
o
incluso
pretraining,
pues
afecta
en
la
calidad
también
del
modelo
resultante.
Al
final,
¿no?
Hay
una
ley,
¿no?
En
programación
se
dice
mucho
de
"Gerbichin,
Gerbichout",
¿no?
Que
es
como
si
insertamos
basura
o
obtenemos
basura
y
los
LLMs
no
son
la
excepción,
¿no?
Todo
es
creo
que
como
modelos
como,
por
ejemplo,
FI2
de
Niklosov,
que
tú
el
mundo
lo
conocerás
o
stable
LLM,
la
versión
2
también,
que
son
modelos
más
pequeños,
pero
que
consiguen
un
rendimiento
bastante
importante
gracias
a
entrenar
en
datos
sintéticos
de
alta
calidad,
especialmente
el
libro
de
texto,
¿no?
Es
una
como
algo
muy
natural,
¿no?
De
cómo
nos
enseñan
nosotros,
¿no?
Nos
enseñamos
cuando
íbamos
a
la
escuela,
al
colegio
o
al
instituto,
¿no?
Basado
en
el
libro
de
texto,
pues
generando
esos
libros,
porque
lamentablemente
no
hay
mucho
digitalizado
de
ese
estilo
y
menos
en
español,
digamos,
que
se
consigue,
¿no?
Datos
de
calidad
que
como
resultado
dan
modelos
que
luego
rinden
muy
bien
en
los
Benzbar
y
no
es
que
lo
diga
yo,
sino
que
ahí
están
modelos
como
FI2,
de
los
billones
de
parámetros,
que
se
acerca
a
algún
modelo
de
7
billones,
¿no?
Mucho
más
grande.
Pues,
bueno,
vamos
a
ver
un
poco
eso,
¿no?
Es
ejemplo
de
Entwenn,
en
el
que
veremos
también
cómo
hacerle
el
FI2
y
no
al
modelo,
¿no?
Si
alguien
quiere
reproducir
el
experimento
entero.
Y,
bueno,
como
dice
María,
yo
creo
que
conocerme,
me
conocéis
todo
ya,
pero,
bueno,
un
poco
acerca
de
mí.
Ahora
estoy
trabajando
de
CSO
en
Maesha,
que
es
como
se
han
renombrado
la
antigua
Kiribren.
Y,
bueno,
colaboró
bastante
con
Javi
and
Faiths.
Hoy,como
ha
dicho
María,
pues,
de
las
personas
que
más
modelos
se
ha
aportado
al
Javno,
algunos
de
ellos
con
muchísimas
descarga
al
me,
20
millones
de
descarga,
el
bajador
de
Javi
and
Faiths,
también,
participé
en
el
proyecto
de
BigSci
and
the
Big
Code,
que
era
como
una
especie
de
intento
de
hacer
un
GPT3
abierto
a
todo
el
mundo
y
un
co-pilot,
¿no?
Para
código
también
abierto.
Y,
bueno,
antes
de
esto,
estaba
en
narrativa,
también
como
ingeniero
de
NLP,
con
María,
cofundé,
somos
NLP,
y
mi
formación
es
Computer
Science,
hago
ingeniería
informática
y
hasta
que
me
metí
hace,
pues,
no
sé,
ya
cinco
o
seis
años,
¿no?
En
esto
de
la
día,
en
concreto,
de
los
modelos
de
lenguaje,
pues,
ha
hecho
bastante
bacan.
Y,
bueno,
pasemos,
no
directamente,
a
ver
un
poco
los
beneficios,
¿no?
de
entrenar,
porque
aunque
lo
que
vamos
a
ver
es
un
ejemplo
de
fine-tuning
realmente
en
el
pre-training
también,
en
la
fase,
estátos
fases,
¿no?
Que
tienen
los
modelos
de
lenguaje,
pre-training
y
post-training,
pues,
tienen
la
de
pre-training,
también
es
muy
importante,
igual
de
importante
o
más,
que
tengamos
esos
datos
de
calidad,
¿no?
Que
ese
corpus
sea
de
calidad.
Entonces,
¿qué
beneficios
tiene
de
eso?
Pues,
tiene
beneficios
como
es
alignment,
¿no?
O
alineación
y
adquisición
de
conocimiento,
ya
que
estos
datos
de
alta
calidad,
pues
aseguran
que
el
modelo
aprende
información
precisa,
de
ahí
que
se
utilicen
muchos
libros
de
texto,
últimamente,
comportamiento
apropiado,
¿no?
Qué
es
crucial
para
que
el
modelo,
pues,
pues
se
alinea
al
final
con
objetivos
humanos
y
adquiera
conocimiento
durante
ese
pre-training.
Con
ello
también
conseguimos
que
tenga
un
mayor
rendimiento
y
capacidad
de
generalización,
¿no?
Entrenas
con
datos
de
mala
o
baja
calidad,
puede
afectar
muy
negativamente
al
rendimiento
de
esto.
Mientras
con
datos
de
alta
calidad,
pues,
ayudan,
por
ejemplo,
a
reducir
seco
y
mejoran
la
capacidad
de
fiabilidad
y
capacidad
de
generalización
que
tiene
el
modelo,
que
acerna
en
lo
que
importa,
¿no?
¿Cómo
devuelve
generalizando
ese
modelo?
¿Respondiendo
o
enfrentando
ese
escenario
que
no
ha
visto,
¿no?,
en
su
dato
de
entrenamiento?
El
modelo
de
lenguaje
y,
en
general,
todos
los
modelos
de
día
se
entrenan
con
ese
propósito,
¿no?
Con
que
rindan
bien
en
casos
que
no
han
visto
durante
el
entrenamiento,
porque
en
casos
que
han
visto
durante
el
entrenamiento,
ya
suponemos
que
rindan
bien.
Y
si
le
preguntamos
por
las
mismas
cosas
que
ha
visto,
seguramente
se
la
sepa,
pero
de
memoria,
¿no?
Tenéis
en
cuenta
que
estamos
hablando
de
modelos
de
billones
de
parámetros,
con
lo
cual,
a
la
vez,
es
probable
que
memoricen
cierto
contenido.
Es
bueno
también
que
tengamos
datos
de
calidad
de
cada
la
eficiencia
y
escalabilidad,
¿no?
La
calidad
de
los
datos
afecta
significativamente
a
la
eficiencia
del
proceso
de
entrenamiento.
Datos
de
alta
calidad
permiten
una
escalabilidad
más
eficiente
de
los
parámetros
del
modelo
y
pueden
conducir
un
modelo
más
eficiente
también
en
términos
de
cómputo.
Esto
quiere
decir
que
si
tengo
muchos
datos,
pero
muy
noisy,
o
contienen
información
que
no
aporta
mucho
valor
o
información
que
realmente
no
le
hace
al
modelo
aprender
nada
nuevo,
pues
seguramente
el
data
es
muy
grande,
llevará
más
tiempo
que
el
entrenamiento,
que
el
modelo
vea
todo
ese
texto
de
manera
completa,
pero
al
final
no
tiene
por
qué
tener
ese
modelo
que
obtengamos,
mayor
rendimiento
que
un
modelo
que
ha
visto
menos
tokens
o
que
el
data
se
den
más
pequeño,
es
un
data
set
más
condensado
en
datos
que
realmente
aportan
información,
como
son,
me
repito
una
vez
más,
no,
los
libros
de
texto.
También
un
córpulte
de
calidad
va
en
pro
de
la
diversidad
de
los
datos
y
experiencia
en
el
dominio,
¿no?
Un
conjunto
de
datos
diversos
y
de
alta
calidad,
pues,
permitan
los
LNN
a
los
LNM,
perdón,
adquirir
un
amplio
rango
de
conocimiento
y
demostrar
fuertes
habilidades
de
generalización
en
varios
dominios,
¿no?
Los
conjuntos
de
datos
especializados,
pues,
tambiénpueden
proporcionar
los
LNN
habilidades
específicas
para
resolver
problemas.
Luego,
desde
el
punto
de
vista
del
preprocesamiento
y
gestión
de
datos,
pues,
la
gestión
efectiva
de
datos,
no
incluyendo
estrategias
de
procesamiento
como
la
de
duplicación,
filtrados
de
calidad,
filtrados
por
toxicidad,
pues,
al
final,
acaba
siendo
esencial
para
construir
datas
adecuadas,
¿no?
Y
este
proceso,
especialmente
el
preprocesing
que
le
llamamos,
influye
especialmente
en
la
capacidad
del
modelo
para
aprender
de
manera
más
eficiente
y
desempeñar
nuevas
tareas.
Luego,
futuras
direcciones
y
desafíos,
en
este
área
de
crear
data
set
de
calidad,
pues,
hay
un
enfoque
creciente,
como
he
comentado,
en
mejores
conjuntos
de
datos
para
el
pre-training,
en
lugar
de
entrenar
con
todos
los
datos
disponibles.
El
equilibrio
entre
la
calidad
y
la
cantidad
de
los
datos
sigue
siendo
un
área
de
investigación
activa
a
día
de
hoy.
Los
datos
de
alta
calidad,
pues,
pueden
permitir
entrenar
modelos
más
pequeños
que
desempeñan
de
manera
comparable
a
modelos
grandes,
como
estamos
comentando,
el
caso
de
FII,
de
Stable
LM2,
de
Stability.
Pero
esto
también
implica
que
existen
esos
riesgos
como
sobreajuste,
¿no?
Al
final,
que
overfitting,
que
se
conoce
el
término,
como
que
aprendan
de
memoria.
Y
los
sensibles
que
puedan
ser
al
pronto.
Bueno,
visto
un
poco
esto
de
la
que
sería,
por
así
decirlo,
como
la
teoría.
En
esa
fase
de
pre-training,
sin
ir
mucho
más
lejos,
el
viernes
pasado,
creo,
que
aparecía
el
paper
de
Yi.
Yi
es
una
familia
de
LLMS
de
6
y
34
billones
de
parámetros
entrenado
en
un
corpus
paralelo
de
inglés
y
chino.
Y
bueno,
es
uno
de
los
modelos
que
rinde
estado
del
arte,
¿no?
Entonces,
salió
ese
paper
y
creo
que
analizar
un
poco
por
encima
qué
han
hecho
ellos
para
adquirir
ese
data
set
de
calidad,
pues,
viene
muy
bien
con
respecto
a
lo
que
queremos
ver,
¿no?
De
la
importancia
de
la
calidad
de
los
datos.
Y
es
que
si
nos
fijamos
en
el
paper,
luego
pasa
el
Colab,
¿no?
Para
que
podáis
analizar
el
pipeline
este
que
habéis
aquí
de
filtro
de
datos,
¿no?
Pero
la
visión
general
un
poco
que
tenían
es
que,
pues,
el
objetivo
era
crear
datos
de
entrenamiento
blingues,
como
decía,
inglés
y
chino,
de
alta
calidad,
¿no?
A
partir
de
la
web,
¿no?
Que
es
de
donde
se
parte
la
mayoría
de
las
veces.
Esto
implica,
pues,
usar
herramientas
específicas
para
identificar
idiomas
y
limpiar
esos
datos,
¿no?
Que
nos
van
a
venir
de
la
web
donde
nos
podemos
encontrar
datos
en
todo
tipo
de
idiomas.
Y,
pues,
a
la
hora
de
limpiar
datos,
pues,
podemos
encontrar
desde
algo
que
aporta
muy
poco
valor
o
ninguno,
pues,
hasta
como
decía,
¿no?
Pues,
blog
posts
o
algún
tipo
de
publicación
que
sí
que
es
informativa,
que
da
mucho
detalle,
¿no?
Y
que
puede
hacer
que
el
modelo,
pues,
aprenda
mejor.
Y
algunos
pasos
que
se
ven
en
el
diagrama
de
limpieza,
pues,
son
filtros
jurísticos,
¿no?
¿Cómo
se
eliminan
textos
de
mala
calidad?
Pues,
por
ejemplo,
URL,
¿no?
Que
sean
consideradas,
pues,
que
apunten,
¿no?
A
sitios
que
ya
sabemos
que,
pues,
como
algún
foro,
¿no?
Donde,
por
ejemplo,
pues,
haya
como
un,
se
utiliza
un
lenguaje
tóxico
o
sepamos
que
el
propósito
de
ese
foro
no
es
aportar
nada
de
concimiento
o
un
dominio
y
texto
sin
sentido,
también,
eliminarlo.
Luego
también
se
filtra
por
longitud
del
documento
inadecuada,
documento
muy
largo,
documento
demasiado
corto,
documentos
que
contengan
símbolos
especiales,
¿no?
Caracteres
que,
bueno,
pues,
que
el
modelo
no
entienda
o
que
directamente
también
tengan
líneas
que
no
están
finalizadas,
contenido
repetitivo
también
se
filtra,
¿no?
Para
que
el
modelo
no
memorice.
Un
paso
muy
importante,
¿no?
Eliminar
de
toda
esa
información
que
hayamos
recabado
de
la
web,
la
información
personal,
como
correo
electrónico,
números
de
teléfono,
nombre
de
personas,
registros
médicos,
etcétera.
Luego
hay
otro
tipo
de
filtros,
¿no?
Como
pueden
ser
filtros
aprendidos
que
usan
métodos
avanzados
para
tratar
contenido
complicado,
¿no?
Especialmente
estos
lo
usan
para
chino,
pues,
que
se
basa
en
descartar
documentos
queson
demasiado
confuso
de
baja
calidad
y
eliminar
documentos
que
son
incoherentes
o
tienen
contenido
peligroso.
Y
luego
hay
filtros
basados
en
agrupaciones.
Agrupaciones,
aquí
quiere
decir
en
este
caso,
clúster,
¿no?
Que
agrupar
esos
documentos,
¿no?
Sobre
los
que
se
quiere
realizar
el
pretraign
en
clúster
para
evaluar
y
mejorar
la
calidad
de
manera
más
efectiva.
Y
por
último,
de
duplicar,
¿no?
De
duplicar
se
ha
demostrado
que
tiene
unos
efectos
muy
positivos
en
la
calidad
del
modelo
final
que
obtenemos.
Vale,
pues
el
resultado
que
consiguen
en
Gino
haciendo
este,
por
supuesto,
este
tipo
de
filtrado,
más
todo
el
training,
¿no?
Pues
producen
un
conjunto
de
datos
al
final
de
3,1
billones
de
palabras.
En
realidad
son
tokens
de
alta
calidad
en
inglés
y
chino.
Este
conjunto
de
datos
es
más
limpio
y
verso
en
comparación
que
otro.
Y
como
hablábamos,
¿no?
En
parte
debido
a,
pues,
esos
métodos
efectivos
del
impiesto
y
filtrado.
Con
lo
cual
recalco,
¿no?
Esa
preprocesing
es
crítico,
porque,
bueno,
ya
sabemos
que
si
tenemos
muchas
GPUs
y
el
arquitectura
transformer,
pues,
obviamente,
van
saliendo
algunas
modificaciones
especial,
sobre
todo
en
el
tema
de
embeddings,
¿no?
¿De
qué
tipo
de
embeddings
se
utilizan
para
trabajar
con
contextos
más
largos
o
variaciones
en
el
mecanismo
de
atención
para
que
también
permita
o
trabajar
con
contextos
más
largos
o
que
no
sea
tan
costoso
en
términos
de
complejidad
espacio
temporal?
Pero
al
final,
eso
varía
muy
poco
y
lo
que
se
está
demostrando
que
importa
mucho
y
de
ahí
el
sentido
también
de
este
jacazón
es
tener
datos
de
calidad.
Y,
bueno,
como
muestra
un
botón,
por
así
decirlo,
y
este
modelo,
¿no?
El
que
estábamos
hablando,
que
han
hecho
este
preprocesado
tan
exquisito,
pues,
aquí
tenemos
subversiones
en
los
benchmarks
de
6
y
34
billones,
que
vemos
que,
bueno,
en
su
tamaño,
pues,
rivaliza
con
modelos,
pues,
con
otros
modelos
OpenSoul
como
Llamados,
NoFalcon,
etcétera.
Aquí
tenemos
el
benchmark
como
el
MMLU,
BitspanHard,
etcétera.
Y
luego
en
otros,
como
matemáticas
y
código,
digamos
que
teniendo
en
cuenta
la
limitación
de
esos
billones
de
parámetros,
pues,
es
un
modelo
que
está
estado
del
arte
con
otros
modelos,
con
otros
grandes
que,
seguro
que
no
suenan
a
todos
como
son
Mistral,
Llamados,
no,
etcétera.
Entonces,
vale.
Aquí
os
dejo
el
paper
para
que
os
lo
leáis,
si
queréis.
Yo
os
lo
recomiendo
mucho,
porque
ya
os
digo
que
modelos
de
estado
del
arte,
pues,
digamos
que
desvelan
bastantes
ingredientes
que
son
importantes
a
la
hora
de
realizar
ese
pre-training
y
a
la
hora
de
generar
datos
de
calidad.
Entonces,
lo
que
vamos
a
ver
ahora
es
cómo
hacer
fine
tuning,
digamos
que
esto
ya
pertenece
a
la
parte
del
post-training,
de
cuando
ya
hemos
pre-entrenado
y
ahora
queremos
ajustar
el
modelo,
como
sabéis,
para
resolver
un
problema
concreto,
pues,
como
en
esa
parte,
efectivamente,
también
la
calidad
de
los
datos
importa.
Entonces,
para
este
ejemplo,
lo
que
he
creado
son
dos
data
sets,
son
data
sets
de
traducciones
de
inglés
a
español,
con
lo
cual
haríamos
fine
tuning.
Vamos
a
hacer
fine
tuning
a
un
modelo
para
que
nos
sirva
como
traductor.
Y
he
creado,
como
os
decía,
dos
data
sets.
Uno
con
traducciones
de
alta
calidad
para
las
cuales
he
usado
GPT4
y
otro
de
traducciones
de
mala
calidad
entre
comillas.
Para
ese
data
set,
también
he
usado
GPT4,
pero
especificando
en
el
PROM
que
era
un
traductor
de
baja
calidad
y
que
con
lo
cual
podía
cometer
algún
tipo
de
error.
Entonces,
bueno,
aquí
como
veis,
cargamos--
Esto
es
una
muestra
de
los
dos
data
sets
de
training,
el
data
set
con
la
traducción
de
calidad
y
el
data
set
con
las
traducciones
de
mala
calidad.
Aquí
vemos
que
en
esta
muestra
tenemos
20
ejemplos
de
cada.
Las
pasamos
a
pandas.
Es
muy
fácil,
como
veis,
convertir
un
data
set
de
Javier
Feis
a
pandas
para
que
podamos
hacer
el
display.
Y
aquí
si
nos
fijamos
en
las
traducciones,
el
data
set
que
voy
a
utilizar
para
entrenar
de
calidad,
pues
bueno,
podemos
echar
un
vistazo.
Pero
vemos
queestán
bastante
bien.
No
hay
ningún
tipo
de
error
gramatical,
ni
ninguna
traducción
literal,
etcétera.
No
sé
si
María
os
ha
compartido
el
cola,
si
no
lo
voy
a
compartir
yo,
pero
podéis
verlo.
Luego,
con
el
data
set
de
mala
calidad,
de
traducción
de
mala
calidad,
pues
ya
podemos
ver
que
hay
cosas
no
o
hay
algunas
traducciones
que
no
son
del
todo
correctas.
Por
ejemplo,
esta,
dónde
puedo
aparcar,
where
can
I
park,
de
donde
puedo
estacionar.
Me
gustaría
la
número
16.
Me
gustaría
alquilar
un
coche.
Me
gustaría
rentar
un
carro.
Vemos
que
es
como
un
poco
literal.
Aquí
tenemos
también,
por
ejemplo,
cómo
puedo
cancelar
mi
reserva.
Necesito
y
la
traducción
sería
necesito
cancelar
mi
reservación,
no?
No
cual
tampoco
es
muy
exacto.
Y
otro
tipo
de
errores
que
podemos
aquí,
como
veis
ésta,
me
gustaría
crear
una
reserva
para
la
cena
para
dos
personas
y
quiero
hacer
una
reserva
de
cena
para
dos.
Ésta
estaría
bien,
sinceramente.
Pero
hay
otras,
como
decía,
que
contienen
algún
error
que
es
probable,
que
en
errores
de
menos,
que
en
errores,
perdón,
que
con
modelos
de
traducción
de
menos
calidad,
pues
sea
comunes,
¿no?
Se
puedan
cometer.
Entonces,
una
vez
que
tenemos
esos
dos
data
sets
que,
como
digo,
los
arepúblicos,
por
si
alguien
quiere
reproducir
el
ejemplo
en
tuen,
pues
tendríamos
que
hacerle
fine
tuning.
Entonces,
yo
lo
que
he
hecho
para
hacer
fine
tuning,
bueno,
aquí
tenemos
que
estas
traducciones
reflejan
errores
comunes,
¿no?
Como
traducciones
literales,
que
lo
que
habíamos
dicho,
terminó
lo
que
era
incorrecta
y
errores
gramaticales
típicos
de
traducción
de
baja
calidad.
Una
vez
tenemos
esos
dos
data
sets
que
he
creado
de
mil
ejemplos
cada
uno,
pues
lo
siguiente
sería
hacer
fine
tuning
a
dos
modelos.
Uno,
en
el
data
set
de
traducción
de
calidad,
yo
tengo
en
el
data
set
de
traducciones
que
no
tienen
esa
calidad.
Entonces,
en
este
caso,
aprovechando
también
que
han
salido
hace
15
días,
pues
he
utilizado
los
modelos
GEMMA
de
Google,
en
concreto
los
de
2
billones
de
parámetros,
para
que
cualquiera
pueda
reproducir
el
experimento
en
un
colap
gratuito.
Y
le
he
posh
hecho
fine
tuning.
Y
lo
siguiente,
¿no?
Es
un
poco
que
os
quiero
enseñar,
es
cómo
le
hacemos
ese
fine
tuning,
que
aunque
lo
he
contado
como
dice
María
muchas
veces,
pues
estoy
buscándolo.
Aunque
lo
he
contado
muchas
veces,
pues
bueno,
no
está
demasiado.
Vale,
yo
creo
que
está
aquí.
Si
no
se
ve,
María
me
lo
dice.
Vale.
Creo
que
se
ve
bastante
bien,
¿no?
Y
bueno,
en
este
caso,
he
aprovechado
un
colap
que
ya
tenía,
¿vale?
En
el
que
para
ilustrar
el
proceso
de
fine
tuning,
porque
es
exactamente
igual
donde
le
hacíamos
fine
tuning
a
GEMMA
2
billones,
pero
en
el
data
set
Open
Hermes,
usando
Polora,
que
ahora
comentaremos.
Open
Hermes
es
efectivamente
un
data
set
de
instrucciones,
contiene
un
millón
de
instrucciones
de
alta
calidad.
Ahora
mismo
el
data
set
en
el
Hub
está
en
inglés.
A
ver
si
en
este
Hub,
a
Zom,
nos
sincronizamos
y
colaboramos
y
creamos
algo
así
en
español.
Pero
es
el
data
set
de
instrucciones
sintéticas
de
mayor
calidad
que
hay
en
el
Hub
de
Javi
Pace.
Y
de
hecho,
muchos
de
los
modelos
que
están
en
estado
del
arte
o
que
opcionen
mejor
puntuación
en
la
leaderboard
de
modelos
y
demás
Benchmark,
pues
son
resultados
de
hacerle
fine
tuning
en
este
data
set
que
vamos
a
ver
ahora.
Entonces,
lo
típico
de
siempre,
he
instalado
la
versión
de
Torch
que
veis
aquí,
la
211,
por
temas
de
que
puede
ir
un
poco
más
rápido,
¿no?
Es
un
poco
recomendado.
Lo
siguiente
sería,
para
trabajar
con
Gemma
había
que
instalar
esta
versión
de
Transformer,
si
instaláis
la
última
os
va
a
ir
igual.
Instalamos
Transformer,
Reformer,
Learning,
porque
tiene
un
wrapper
para
Supervised
Fine
Tuning
en
lo
que
vamos
a
hacer,
que
nos
ayuda
a
un
sincrisis
de
la
vida.
Instalamos
Peth,
porque
vamos
a
hacer
fine
tuning
utilizando
adapters.
El
que
quiera
logger
su
experimento
a
Wacom
Bayasis,
pues
tiene
que
instalar
o
cuánde
ve.
Vamos
a
instalar
también
Accelerate
para
hacer
un
sáptimo
del
hardware,
Datasets,obviamente
para
cargar
el
Datasets
y
Bits
and
Bites,
porque
como
es
cool
hora,
vamos
a
cargar
el
modelo
base
de
manera
cuantizada,
¿no?
Entonces,
bueno,
aquí
tenemos
los
imports
clásicos
que
nos
van
a
hacer
falta
para
trabajar,
para
hacer
este
fine
tuning.
Aquí,
importante,
¿no?
Nos
tenemos
que
loguear
en
Hadinface,
porque
os
recuerdo
que
para
usar
GEMMA
tenemos
que
aceptar
unos
términos,
entonces
para
que
se
cheque
que
los
hemos
aceptado,
hay
que
loguearse.
Además,
si
luego
queremos
que
esto
yo
se
emplee
recomiendo,
¿no?
Que
nuestro
objeto
trainer,
el
que
hace
el
fine
tuning,
pues
suga
automáticamente
el
modelo
o
el
adapter.
Cuando
ya
hemos
terminado,
pues
también
hay
que
estar
logueado,
¿no?
La
siguiente
celda
es
opcional,
los
que
queráis
loguearlo
a
Wacom
Bayasis,
pues
le
asignáis
un
nombre
de
proyecto
y
ejecutáis
esto,
no
tiene
más.
Luego,
como
os
contaba,
aquí,
en
este
caso,
cargaré
el
dataset.
En
nuestro
caso,
pues
sería
el
dataset
de
traducción
de
calidad
y
el
dataset
de
traducción
de
baja
calidad.
Aquí,
para
ajustarlo,
pues
es
el
dataset
instrucciones
OpenRM
2.5
y
formateado
al
estilo
Cephir,
que
ahora
os
comentaré
esto
un
poco,
el
sentido
que
tiene.
Cargamos
el
dataset
de
trial
y
de
test.
Si
aquí
veis
un
poco,
pues
el
formato
que
tiene
cada
uno.
Entonces,
¿por
qué
lo
formate
con
estilo
Cephir?
Lo
formate
con
estilo
Cephir,
porque
si
aquí
veis
el
ejemplo,
ya
no
se
incluye
estos
token
de
system,
user,
asistan,
que
nos
van
a
permitir,
no?
Que
el
modelo
resultante
de
esto
podamos
como
enchufarlo
o
conectarlo
a
todas
estas
interfaces
como
chat
ML
que
han
aparecido,
pues
que
nos
permiten
que
utilizemos
de
manera
intercambiable,
pues
modelos
de
lenguaje
mediante
estos,
por
así
decirlo,
estos
protocolos
o
estas
plantillas
de
formateo
de
datos,
¿vale?
Es
simplemente
por
eso.
El
model
ID,
pues
el
gem
de
2B,
como
hemos
comentado,
cargamos
el
token
ICEL
y
siempre
me
gusta
ver
qué
tokens
especiales
tiene,
¿no?
Contiene
el
modelo
desde
SuperTrain.
Y
vemos
que
tiene
el
token
de
inicio
de
secuencia,
el
de
final,
el
token
desconocido
y
el
de
padding.
Y
esto
de
ahora
es
importante,
¿vale?
Entonces,
hubo
un
problema
con
los
modelos
gemma
y
es
que
si
el
primer
token
o
no
era
el
de
comienzo
de
secuencia,
esta
que
hemos
de
vos,
la
generación
no
iba
o
iba
mal,
¿no?
Entonces,
yo
para
evitar
ese
tipo
de
problemas,
lo
que
hago
aquí
en
esta
función
de
formatear
es
que
a
estos
ejemplos
que
estáis
viendo
aquí,
a
cada
ejemplo
del
dataset,
le
voy
a
añadir
ese
token
al
inicio
más
lo
que
había
ya
en
ese
campo
y
reemplazo
el
token
este
que
habéis
aquí
de
final
de
secuencia,
porque
este
es
típico
de
decir
que
es
mistral
por
el
de
secuencia
que
tiene
el
modelo,
que
es
este.
Son
tokens
que
él
ya
sabe
este
modelo,
¿qué
significado
tienen?
Si
le
añadimos
uno
nuevo,
dejamos
este
que
estaba
de
mistral,
pues
tendrá
que
aprenderlo
durante
el
entrenamiento
porque
no
sabe
qué
significa
ese
token.
Pues
esto
sobre
todo
añadir
este
comienzo
de
secuencia.
En
los
casos
gemma
me
costa
que
es
importante
para
que
vaya
yo.
Y
bueno,
luego
si
imprimimos
un
ejemplo,
pues
ya
vemos
que
le
ha
añadido
ese
token
y
vemos
también
que
en
lugar
de
poner
en
octés,
pues
pone
aquí
final
de
secuencia,
¿vale?
Bueno,
pues
formateamos
de
esa
manera
el
dataset
entrenamiento,
formateamos
también
el
de
test
y
lo
siguiente,
algo
muy
importante,
porque
el
uso
del
AGPU
o
la
AGPU
que
vayamos
a
necesitar
es
yo
diría
directamente
proporcional
entre
otros
parámetros
al
tamaño
máximo
de
secuencia
que
establezcamos,
¿no?
Entonces,
¿cómo
podemos
saber
con
qué
secuencias
estamos
trabajando?
Pues
dibujando,
¿no?
La
distribución
de
longitud
de
tokens
de
nuestros
ejemplos.
Y
aquí
vemos,
¿no?
Que
nuestra
distribución
se
quedaría
un
poco
este
pico,
lo
tiene
aquí
como
en
los
1000
tokens
o
algo
así,
si
teniendo
1000
tokens
habríamos
cubierto
una
gran
cantidad
de
casos,
pero
vemos
que
hay
algunos
e
incluso
algunos
ejemplos
que
están
cerca
aquí
de
los
3000
pico
o
4000
tokens.
Bueno,
si
yo
tengo
esta
gráficaaquí,
sé
que
con,
por
ejemplo,
512
tokens,
¿vale?
Que
sería
por
aquí,
pues
voy
a
cubrir
también
una
gran
cantidad
de
los
ejemplos
del
dataset
y
voy
a
utilizar
menos
memoria
de
AGPU,
obviamente,
que
si
cojo
1,024,
en
el
caso
de
que
cubriré
más
ejemplos,
pero
voy
a
necesitar
mucha
AGPU.
Esto
ya
va
a
depender,
obviamente,
de
la
AGPU
que
tengáis
disponible,
¿no?
Vale,
lo
siguiente.
Cargaré
el
modelo
base,
¿no?
Que
queremos,
al
que
le
vamos
a
dar
fine
tuning,
en
4
bits,
¿no?
Para
aprovechar
que
no
tenemos
una
configuración
de
hardware
muy
potente,
pero
aún
así
podamos
seguir
haciéndole
fine
tuning.
Entonces,
creamos
el
objeto
de
configuración,
que
como
veis
es
muy
sencillo.
Le
decimos
que
lo
queremos
cargar
en
4
bits,
que
el
tipo
de
cuantizaciones
en
F4.
Le
decimos
que
aquí
el
compute
ties
starts
bflot16.
El
bflot
este
16,
sale
del
fichero
de
configuración
del
modelo.
Es
un
poco,
si
os
vais
al
config
de
Gemma
2Billion,
veréis
que
donde
pone
torches
de
type,
de
hecho
hay
un
parámetro
que
se
llama
así,
pues
está
en
bflot16,
¿no?
En
esa
precisión.
Entonces,
bueno,
no
hay
magia
negra,
por
así
decirlo.
Sale
de
ahí.
Y
aquí
le
decimos
que
no.
En
este
caso
no
queremos
que
utilice
cuantización
doble.
Vale,
pues
ya
cargamos
el
modelo
con
la
clase
auto,
donde
le
pasamos
el
ID
y
el
objeto
de
cuantización,
¿no?
Que
hemos
creado
anteriormente.
Una
vez
que
hemos
creado
eso,
bueno,
aquí
me
creé
un
método
auxiliar
que
nos
dice
de
todos
los
billones
de
parámetros
que
tiene
el
modelo,
cuántos
parámetros
vamos
a
entrenar.
Pero
que
no
hace
falta.
De
hecho,
creo
que
lo
trae.
De
hecho,
creo
que
este
método,
ya
cuando
creamos
este
objeto
de
PEP,
nos
dice
ya
directamente
cuántos,
qué
porcentaje
de
los
parámetros
equivale
en
las
matrices
de
los
adapters
que
vamos
a
crear.
Pero,
pues
si
alguno
quiere
verlo,
pues
con
este
método
también
nos
lo
va
a
decir.
Y
esto
ya
lo
importante,
bueno,
muy
importante.
Esto
es
la
configuración
de
esos
adapters
para
el
que
así
rápidamente
el
que
no
sepa
lo
que
es
un
adapter
es
como
unas
nuevas
matrices
que
creamos
nosotros
y
que
un
paper
muy
famoso
determinó
que
si
esas
matrices
las
aplicamos
a
todas
las
capas
linear,
¿vale?
Lineales
del
modelo,
conseguimos
un
mismo,
conseguimos
un
rendimiento
prácticamente
igual
que
si
hacemos
full
fine
tuning.
Full
fine
tuning,
obviamente,
tendría
un
coste
prohibitivo
para
nosotros
porque
había
que
actualizar
todos
los
pesos
del
modelo.
Y
aquí
solo
actualizamos
las
matrices
que
nosotros
definamos
aquí
y
en
el
rango
en
que
nosotros
decidimos.
Con
lo
cual,
los
parámetros
que
nosotros
actualizamos
no
es
todo
el
modelo,
sino
esas
matrices
que
hemos
decidido
aplicar
a
lo
que
vemos
aquí,
estos
target
modules.
¿Aquí
qué
deberíamos
de
poner?
Pues
aquí
deberíamos
de
poner
todas
las
capas
linear
del
modelo.
Éstas
las
he
sacado
del
ejemplo
de
Haggingface
que
al
principio,
por
lo
menos
cuando
empezaron
a
integrar
Yema,
se
añadíamos
porque
el
modelo
tiene
más
capas
linear,
pero
se
añadíamos
más
el
comportamiento
del
21
era
un
poco
inestable.
Pero
bueno,
esto
también
depende
un
poco
de
la
memoria
también
de
la
GPU
que
tengamos
nosotros.
Si
tenemos,
o
sea,
lo
recomendado
por
el
paper
es
que
añadimos
todas
las
capas
linear,
pero
si
no
tenemos,
si
no
tenemos
mucha
GPU
con
las
capas
de,
o
con
las
matrices
de
atención,
que
son
Query,
Kibaliu,
como
veis
y
la
proyección,
pues
también
da
buenos
resultados.
Estos
parámetros
del
rank
y
el
aura
alpha,
pues
el
rank
es
algo
que
se
suele
establecer
entre
8
y
1632,
y
el
aura
alpha
como
doble
del
rank.
El
rank
es
el
rango
de
estas
matrices.
Vaya
se
suele
establecer
a
la
non-e,
se
le
pone
algo
de
dropout,
como
cualquier
red
neuronal
y
el
tipo
de
tarea,
pues
es
casual
el
language
modeling.
Vale,
aquí
si
descomentamos
esto,
pues
podemos
imprimir,
como
decía,
todos
los
parámetros
que
al
final
entrenamos
del
modelo
o
el
equivalente,
porque
los
parámetros
del
modelo,
recordad,
no
los
tocamos.
Entrenamos
las
nuevas
matrices
esas
quehemos
definido
sobre
las
capas
linear.
Aquí,
importante,
estos
parámetros
también
van
a
afectar
directamente
al
tamaño
de
la
GPU
que
tengamos,
¿no?
En
micro-batch
size,
pues
en
este
caso,
yo
mi
entrenamiento
lo
hice
en
una
100,
entonces
puse
que
sería
32,
que
el
batch
size
128.
Pues
al
final
tenemos
que
los
pasos
en
los
que
se
acumule
el
gradiente
es
128
entre
32.
Que
tenéis
menos
GPU,
pues
esto
lo
establecéis
a
8,
lo
establecéis
a
4,
¿no?
Como
ya
digo,
como
en
función,
en
función
de
la
GPU
que
tengáis,
es
jugar
con
ese
parámetro,
la
longitud
también
de
la
secuencia,
¿no?
Pues
esas
cosas
al
final
consumen
más
o
menos
memoria
de
la
GPU.
Y
lo
demás,
pues
aquí
los
training
arguments
tampoco
tiene
mucha
magia,
¿no?
Yo
siempre
como
digo,
le
digo
que
sí
lo
quiero,
que
sí
que
quiero
hacer
puse
al
hash,
que
lo
subo
de
manera
privada
inicialmente,
porque
igual
quiero
evaluarlo
y
probarlo
antes
de
que
quede
expuesto
públicamente.
Otra
cosa
importante,
aquí
no
lo
he
usado,
pero
si
usamos
gradient
checkpointing
también,
agorraríamos
memoria,
¿no?
En
este
experimento
no
lo
he
necesitado,
hace
que
vaya
un
poco
más
lento
el
entrenamiento,
pero
ahorramos
también
memoria.
Sólo
quiero,
¿no?
Que
vea
todo
el
data
set
entrenamiento
durante
una
epoca,
una
sola
vez.
Y
ya
bueno,
pues
otros
parámetros
ya
fijos,
como
el
learning
rate,
un
SIP
para
que
sea
reproducible,
cada
cuántos
pasos
queremos
que
se
armó
el
checkpoint
y
que
haga
evaluaciones.
Si
lo
queremos
reportar
a
Wegan
Bayasis
o
a
TensorBoard,
lo
podemos
como
queramos.
Y
esto
es
importante,
que
esto
sea
Fp16,
¿no?
O
Bf16
va
a
depender.
Si
estamos
en
una
tarjeta
gráfica
de
Gamma
and
Per,
como
son
las
A100,
H100,
las
RTX,
pues
podemos
hacer
entrenamiento
en
Bf16.
Si
estamos
en
una
T4
o
V100
con
la
T4,
pues
tenemos
que
poner
esto
a
true
y
esto
a
false,
¿vale?
Esto
depende
de
la
capacidad
de
compute
que
tengamos.
Ya
os
digo,
tarjetas
de
la
Gamma
and
Per,
pues
esto
permite
el
entrenamiento
en
Bf16.
Si
no,
es
simplemente
cambiar
esos
parámetros
en
función
de
la
GPU
que
tengan.
Y
ya
lo
siguiente,
pues
como
decíamos,
creamos
un
objeto
trainer
donde
pasamos
el
modelo,
el
data
set
de
entrenamiento,
la
evaluación,
la
configuración
de
nuestros
adapts,
en
qué
campo
o
columna
de
nuestro
data
tiene
que
mirar,
que
le
hemos
llamado
test.
Aquí
como
os
decía,
hemos
puesto
que
la
máxima
longitud
de
la
secuencia
va
a
ser
el
1024,
que
no
nos
cabe
en
la
GPU,
pues
podemos
poner
512.
Ya
hemos
visto
que
cubrimos
también
bastante
cantidad
de
ejemplo,
digamos
que
no
cortamos
muchos.
Le
pasamos
el
tokenizer,
los
argumentos
de
entrenamiento
que
acabamos
de
definir
y
eso
también
es
importante,
¿no?
Le
decimos
que
no
añada
tokens
especiales,
¿por
qué?
Porque
los
hemos
puesto
nosotros
aquí
ya.
Recordad
que
los
hemos
puesto
aquí,
los
tokens
especiales.
Le
decimos
que
no
los
añada
esos
tokens
especiales
y
que
tampoco
nos
añada
un
token
adicional
como
separador,
¿vale?
Este
parámetro
Packing
si
igual
a
truco
es
como
para
empaquetar
los
ejemplos
y
que
el
entrenamiento
sea
más
eficiente,
pero
bueno,
tampoco
es
importante
o
muy
significativo
en
el
proceso
de
fine
tuning.
Lo
que
os
decía
es
si
habéis
reportado
experimento
a
Weidan
Bayasi,
pues
nada,
pero
podéis
también
reportarlo
en
tiempo
real
aquí
al
cargar
en
la
extensión
tensorboard,
decirle
obviamente
que
donde
van
a
estar
logueados
los
logs
pues
es
donde
si
habéis
puesto
que
el
directorio
de
salida
es
este,
pues
puedes
poner
ese
nombre,
barra
runs,
o
si
ponéis
simplemente
ese
nombre,
también
os
lo
va
a
coger.
Y
aquí
veáis
en
tiempo
real
pues
la
evolución,
como
os
aquí
por
ejemplo
de
la
ejecución
que
yo
hice,
la
evolución
de
la
loss
en
la
evaluación,
luego
tenéis
también
la
evolución
de
la
loss
como
veáis
en
el
entrenamiento,
veis
cómo
el
Google
empieza
a
converger,
etcétera.
Y
bueno,
lo
siguiente
es
muy
sencillo,
es
simplemente
trainer.train
y
empieza
el
entrenamiento.
Como
decía,
aquí
veis
que
a
los
quehayáis
puesto
que
lo
que
hayáis
a
Weidan
Bayasi
pues
o
está
el
link
y
lo
podéis
seguir
ahí.
Y
siempre
dejamos
ejecutando
esta
celda
de
cuando
termine
el
entrenamiento,
que
se
haga
el
push
al
have,
automáticamente.
Bueno,
luego
si
no
da
tiempo
volvemos
sobre
esto,
vale,
que
esto
es
un
poco
como
se
probaría
el
modelo,
digamos
que
no
era
el
ámbito
un
poco
de
lo
que
queríamos
ver.
Entonces
vamos
a
compartir
otra
vez
la
otra
pantalla.
Nos
sabemos
que
es
la
fase
de
fine
tuning,
si
repetimos
ese,
si
hacemos
ese
proceso
de
fine
tuning
que
acabamos
de
ver,
con
un
modelo
gem,
el
que
elegí
o
yo,
o
el
que
queráis
en
este
caso,
con
los
datos
de
calidad
y
de
traducción
de
calidad
y
de
traducciones
de
baja
calidad
menos
calidad,
pues
tendremos
dos
modelos
al
final.
Entonces
yo,
esos
dos
modelos
que
he
hecho,
pues
yo
esos
dos
modelos
le
he
pasado
unos
tests
que
son
una
serie
de
frases
en
inglés
que
quiero
que
me
traduzca
a
español.
Y
lo
sé
almacenado
también
en
un
data
set
en
el
have
que
lo
tengo
aquí
como
traducciones
inglesa
español,
resultados
del
modelo
que
se
han
entrenado,
que
se
ha
fenceintuneado
en
traducción
de
alta
calidad.
Y
aquí
tenemos
los
resultados
del
modelo
que
se
han
entrenado
en
datos
de
mala
calidad.
Vale,
los
pasamos
otra
vez
a
pandas,
como
veis
para
que
los
puedan
visualizar
sin
problemas.
Y
aquí
tenemos
pues
los
resultados
del
modelo
que
se
entrenan
en
datos
de
calidad,
donde
yo,
por
ejemplo,
no
veo
ninguna
pega,
hay
un
vegetarian,
soy
vegetariano,
me
gustaría
crear
una
bici,
aquí
también
nos
dice
que
quisiera
tirar
una
bici,
las
errores
que
veíamos
antes
no
se
cometen.
Pero
si
nos
vamos
a
los
resultados
de
mala
calidad,
o
sea
del
modelo
que
hemos
entrenado
con
datos
de
mala
calidad,
fijaos
lo
importante
que,
porque
aquí,
por
ejemplo,
me
gustaría
tirar
una
bici,
pues
nos
dice
que
me
gustaría
rentar
una
bici.
Hay
otros,
¿no?
Can
you
call
a
taxi
for
me?
Pues
llamar
a
un
taxi
por
mí
y
aquí
dice,
puedes
hacer
una
llamada
a
un
taxi
para
mí,
lo
cual
tampoco
sería,
no
suena
natural,
no
es
del
toco
correcto.
Soy
vegetariano,
¿no?
Fijaos
la
traducción,
soy
vegetal,
no
tiene
nada
de
sentido.
O
sea
que
fijaos
al
final,
¿no?
Porque
os
he
enseñado
una
muestra
del
data
set,
de
gran
traducciones,
bueno,
que
cometiera
algún
tipo
de
error,
pero
podéis
pensar,
bueno,
pero
esto
es
algo
sutil,
¿no?
No
va
a
importar.
Pues
sí,
como
veis,
efectivamente,
sí
que
importa.
Sí
que
importa
ese
tipo
de
filtrado,
¿no?
Y
de
trabajarse,
de
trabajarse,
eso
trata,
¿sí?
Al
final
hay
una
frase
por
ahí
que
dice,
el
80
o
el
90%
de
un
proyecto
de
machine
learning
son
los
datos,
trabajar
y
preparar
los
datos.
Y
con
los
LLMS,
¿no?
A
los
modelos
de
lenguaje,
pues
no
iba
a
ser
tampoco
ninguna
excepción,
¿no?
Entonces,
bueno,
pues
esto
es
un
poco
como
el
resultado,
¿no?
De
que
podéis
ver
aquí,
de
entrenar
con
datos
de
calidad
y
de
entrenar
con
datos
de
mala
calidad.
Y
ahora
no
sé,
María,
si
hay
alguna
pregunta
o
algo.
Creo
que
preguntas
de
momento,
no.
El
tema
es
que
me--
bueno,
ahora
damos
unos
momentines
que
seguro
que
empiezan
a
surgir.
Me
compartiste
un
collab,
pero
el
que
está
enlazado,
o
sea,
el
del
fine
tuning,
no.
Entonces--
El
del
SAT,
¿dónde
lo
he
pasado?
Dice.
Sí.
Pero,
bueno,
después,
ya
he
dicho
por
el
SAT
que
eso
me
lo
mandas
y
lo
subo
también
al
mismo
repo.
O
lo
mandas
toda
hora.
Vale,
sí.
Te
lo
paso
por
aquí,
¿vale?
El
mismo.
Y
ya
deberías.
Vale,
genial.
Bueno,
el
tema
es
el--
Perdón,
María,
mucho--
mucho
hincapié
en
el
tema
del
fine
tuning,
porque
como
tú
dices,
al
final
siempre
acaba
hablando
de
fine
tuning
y
de--
No,
pero
está
bien.
Al
final
es
lo
que--
bueno,
sí,
es
lo
que
más
hace.
O
sea,
que
también
es
lo
que
tiene
más
experiencia
y
puedes
compartir
más--
Como
dice
David
en
los
comentarios,
puedes
compartir
una
ancestral
sabiduría.
Sí,
ahí
hay
un
post
de
Philip
Smith,
que
trabaja
en
Javi
and
Faith,
que
es
como
la
guía
definitiva
del
fine
tuning,
donde
pone
un
montón
de
buenas
prácticas,
que,
bueno,
que
no
se
me
pase
también,
que
lo
encuentre
y
lo
comparta,
¿vale?
En
Discord
somosen
LPL
o
compartiré,
porque
aún
un
poco
como--
pues,
como
todas
las
buenas
prácticas,
que
pues,
pues,
que
diferentes
personas
que
han
hecho,
hemos
hecho
muchos
experimentos,
pues
han,
pues,
así
decirlo,
han
llegado
un
consenso
que
es
lo
mejor.
Por
ejemplo,
cuando
se
utilita
adapters,
esas
marines
de
qué
rank,
¿no?
Las
hacemos
de
8,
16,
32,
qué
número
hay
funciona
mejor,
¿no?
Pero
ese
tipo
de
truquillos,
pues,
hay
como
un
post
ahí
que
merece
mucho
la
pena.
-
Ah,
genial.
Pues,
pásamelo.
Supongo
que
estar
en
inglés
podemos
ahí
pasarlo
por--
-
No,
sí.
No,
no.
-
A
ver,
vamos
a
decirlo.
-
Pasan
una
solución
y
otra
cosa
importante.
Yo
estoy
haciendo
una
versión
con
Auto
Train,
de
esto
que
acabáis
de
ver,
¿no?
Auto
Train,
al
final,
es
una
solución
de
Javi
and
Faith,
que
estamos
una
vez
más,
¿no?
Agradecíos
que
siempre
nos
ayuden
con
recursos,
este
tipo
de
iniciativas.
Es
una
solución
Open
Source,
también,
la
podéis
descargar
en
local
o
usarla
a
través
de
su
space,
que
os
permite
mediante
una
interfaz
gráfica,
que
os
tengáis
que
pelear
mucho
con
hiperparámetros
de
entrenamiento,
con
qué
GPU,
caben
la
GPU,
no
cabe.
Pues
es
una
interfaz
gráfica,
seleccionáis
el
modelo,
el
data
set
y
cuatro
cositas
y
os
haces
el
fine-tuning
del
modelo
de
manera
automática,
¿no?
Es
una
solución
bastante
potente
que
os
recomiendo
usar,
¿no?
Y
que,
bueno,
yo
pasaré
la
versión
Open
Source
de,
más
que
Open
Source,
un
cola
donde
con
Auto
Train
se
pueda
re-eplicar
esto
que
hemos
visto
exactamente,
¿no?
Si
no
hayá,
creo
que
no
es
muy
complica,
¿no?
Pero
alguien
que
esté
menos
metido
en
el
mundo
este,
igual
ve
tanto
hiperparámetro
que
lo
sabéis
inicialmente
y
le
echa
un
poco
para
atrás.
O
sea
que
con
cuatro
parámetros,
pues
también
sabe
el
resultado.
Sí,
sí,
sí.
Sí,
efectivamente,
porque
si
todavía
alguien
no
lo
sabía,
tenemos
críos
en
Auto
Train
patrocinados
por
Javi
and
Face,
entonces,
bueno,
también
lo
podéis
utilizar
como
opción
para
entrenar
vuestros
modelos
para
el
hackathon.
Creo
que
hay
un
par
de
preguntas.
Uno
más,
la
primera
más
sobre
el
objetivo,
cómo
estaba
organizado
el
hackathon,
o
sea,
el
taller,
en
el
sentido
de
cuál
era
el
motivo
para
crear
un
dataset
de
alta
calidad
y
otro
de
baja,
si
lo
has
entrenado
los
dos
o
hayan
dos
diferentes.
Y
son
dos
modelos
diferentes
entrenados
en
un
dataset
de
contrauciones
de
calidad
y
otro
contrauciones
de
mala
calidad.
Entonces,
hay
que,
al
final,
en
ese
dataset
de
resultados
que
os
he
enseñado,
pues,
se
pueda
percibir
que
la
calidad
importante.
Ese
era
precisamente
el
objetivo,
¿no?
El
ver
que
si
los
datos
iniciales,
tanto
de
pre-training,
fine
tuning,
lo
que
sea,
no
tienen
calidad,
pues
el
modelo
al
final
va
a
ser
un
reflejo
o
el
modelo
resultante
va
a
ser
un
reflejo
de
eso.
Efectivamente.
Ese
era
el
objetivo
del
taller.
Y
una
inquietud
que
nos
comparten
también,
¿cuál
es
la
relevancia
en
tu
opinión
de
GIA
en
el
contexto,
entiendo
yo,
del
NLP
en
español?
Porque
nos
cuenta
que
una
vez
hizo
fine
tuning
un
modelo
en
inglés,
contexto
en
español,
y
funcionó.
Y,
efectivamente,
es
un
poco
la
única
opción
que
tenemos
en
general.
Sí,
a
ver,
G
code,
yo
realmente--
Mira
que
hago
mucho
fine
tuning.
No
he
tocado
todavía
no
hecho
fine
tuning
a
ningún
modelo
G.
Pero,
bueno,
también
no
me
extraña
lo
que
nos
dice
este
usuario,
porque,
bueno,
Mistral,
por
ejemplo,
sobre
todo
los
primeros
Mistral,
los
vendían
que
estaban
pre-entrenados
en
texto
en
inglés
principalmente.
Y
luego,
cuando
se
le
ha
hecho
fine
tuning
en
dataset
en
español,
pues
funcionan
bastante
decente.
En
ese
proceso
que
veíamos
antes
de
preprocesing
de
filtering,
pues,
al
final,
ser
exhaustivo
a
nivel
de
filtrar
por
idioma
significa
tener
también
mucha
capacidad
de
cómputo.
Entonces,
digamos
que
eso
se
relaja
un
poco
y,
a
veces,
pues,
se
escapan
textos
o
restos
de
textos
en
otros
idiomas.
En
español
en
concreto,
teniendo
en
cuenta
que
es
un
idioma
hablado
por
muchas
personas
alrededor
del
mundo,
pues,
al
final,
la
web
también
es
un
reflejo
de
eso
y
hay
mucho
contenido
en
español.
Entonces,
casi,
o
sea,
yola
experiencia
que
tenia
es
que
muchos
modelos
que
han
sido
pre-entrenados
en
inglés,
en
este
caso,
inglés
y
chino,
luego
le
haces
fine
tuning
en
español
y
rinden,
no
sé
si,
no
te
daría
cualitativamente
un
número
de
súper
bien
o
tal,
pero
hay
ciertas
tareas
que
las
decían,
¿no?
Pues,
muy
bien.
Muchas
gracias.
Y
sí,
a
ver,
si
alguien
hace
un
fine
tuning
de
allí,
compartíslo
comunidad
y
nos
contaréis
a
ver
qué
tal
experiencia.
Yo
creo
que
lo
importante
es
que,
con
herramientas,
no
como
las
de
Argyla,
que
nos
presentaba
el
compañero
anteriormente
y
haciendo
uso
de
modelos
más
potentes
que
te
pueden
ayudar,
¿no?
A
esa
esenietiqueta
o
a
un
etiqueta
o
señautomático,
pues,
se
pueda
crear
ese
data
set
de
calidad
o
data
set
de
calidad
que,
al
final,
pues,
permita
hacer
fine
tuning
del
modelo
que
quieras,
¿no?
Al
final,
como
ha
visto
hacer
fine
tuning,
pues,
es
como
seguir
una
receta,
pero
si
no
hay
gasolina,
pues,
el
motor
no
va
a
arrancar,
¿no?
Y
necesitamos
gasolina
de
calidad
en
español,
que
es
lo
que
no
hay,
¿no?
Es
lo
que
no
hay.
A
ver
si
arreglamos
eso.
Última
pregunta
de
Aless.
Un
poco
nub,
dice,
pero
todas
las
preguntas
son
válidas
y
muy
bienvenidas.
Dice
que
muchos
ejemplos
y
tutoriales
ve
que
se
fija
manualmente
el
token
del
padding
a
ser
igual
que
el
end
of
sentence.
¿Por
qué?
Pues,
se
hace
porque
para
evitar
confusiones
a
la
hora
de--
A
ver,
el
tema
de
usar
ese
token
de
padding
solo
tiene
sentido
o
el
mayor
sentido
que
tiene
es
que
se
va
a
aprovechar
al
entrenar
en
GPU
su
capacidad
de
entrenamiento,
no
en
su
capacidad
de
paralización.
Entonces,
si
cortamos,
como
hemos
visto
ahí,
la
secuencia,
pues,
por
512
tokens,
imaginaos
que
nuestro
ejemplo
tiene
256,
se
rellena
del
256
al
512
con
ese
token,
¿no?
Entonces,
lo
que
hacemos
es
que,
oye,
vamos
a
entrenar
en
paralelo,
pero
que
sepa
el
modelo,
por
así
decirlo
cuando
se
está
enterando,
que
cuando
hay
el
token
de
padding,
en
este
caso,
es
equivalente
a
que
la
secuencia
ha
terminado,
¿no?
Eso
se
establece,
sí.
Genial.
Super
bien
explicado
y
muy
buena
manera
de
terminar
justo
en
punto.
Pues,
nada,
muchísimas
gracias,
Manu
otra
vez.
Ya
compartido
todos
los
links
para
Auto
Train,
para
dónde
están
los
recursos.
Si
alguien
está
viendo
esto,
pero
todavía
no
está
apuntado
al
jacatón,
pues,
que
se
apunte
ya.
Y
nada,
muchas
gracias.
Y
no
se
me
exploto.
No,
no
es
solamente
en
Discord.
Si
tenéis
más
preguntas,
ya
sabéis
que
podéis
pedir
ayuda
en
el
canal
PidaYuda.
Y
respondemos
en
cuanto
podamos.
Muchas
gracias.
Saludos.
(corte
de
base) | Manu Romero |
Proyecto #Somos600M: impulsando la diversidad lingüística en IA, María Grandury @SomosNLP | "Hola\na\ntodos\ndel\nmundo,\ndamos\ncomienzo\nal\nprimer\ndía\nde\nkeynote\nde\nnuestro\nhackathon(...TRUNCATED) | María Grandury |
Detección automática de sesgo en medios de comunicación, Francisco Rodrigo @UNED | #Somos600M | "Hola\na\ntodo\nel\nmundo,\ncontinuamos\ncon\nel\nprimer\ndía\nde\nKeynotes\nde\nnuestro\nhackathon(...TRUNCATED) | Francisco Rodrigo |
Combatiendo el discurso de odio, Estrella Vallecillo @NLP SINAI | Hackathon #Somos600M | "Hola\na\ntodos,\ncontinuamos\ncon\nel\nprimer\ndía\nde\nKeynotes\ndel\nHackathon\nSomos\n600M.\nCo(...TRUNCATED) | Estrella Vallecillo |
"Ética Ambiental en IA: Construyendo narrativas sostenibles en español, Jorge Vallego | #Somos600M(...TRUNCATED) | "Hola\na\ntodo\nel\nmundo,\nbienvenido\na\ntodo\nel\nmundo\nde\nnuevo.\nContinuamos\ncon\nel\nprimer(...TRUNCATED) | Jorge Vallego |
Taller + AMA: Entrenamiento de LLMs, Alejandro Vaca @LenguajeNaturalAI | #Somos600M | "Ahora\ntodo\nel\nmundo\nya\nllevamos\ndos\nsemanas\nde\nlos\nhackathon\nsomos\n600M\ny\nestamos\nvi(...TRUNCATED) | Alejandro Vaca |
Prospectiva estratégica y NLP, Cristina Vila Carreira | #Somos600M | "Hola\na\ntodos.\nHoy\nes\nel\nsegundo\ndía\nde\nkeynote\nde\nnuestro\nhackathon.\nSomos\n600M\ny\n(...TRUNCATED) | Cristina Vila Carreira |
End of preview. Expand
in Dataset Viewer.
Transcripción de las Keynotes del Hackathon 2024 de Somos NLP.
Transcripciones hechas por Whisper Small.
Agradecemos a todos los participantes de este Hackathon 2024 y en especial a María Grandury por organizar el evento de este año.
Transcription of the Keynotes from the 2024 Somos NLP Hackathon.
Transcriptions made by Whisper Small.
We would like to thank all the participants of this Hackathon 2024 and especially María Grandury for organizing this year's event.
Made with ❤️ in Guadalupe, Nuevo Leon, Mexico 🇲🇽
- Downloads last month
- 46