Cambio de hora en Chile ya tiene fecha oficial: ¿Se adelantan o atrasan los relojes?
El fin de esta medida es privilegiar la luz natural en las mañanas durante los meses fríos. Revisa los detalles.
El gerente del Centro Nacional de Inteligencia Artificial de Chile, Rodrigo Durán, explicó que el modelo verá la luz este sábado 28 de febrero y en abril recibiría los datos recopilados.
El pasado 10 de febrero el presidente Gabriel Boric inauguró el lanzamiento de Latam-GPT, un modelo de lenguaje creado por el Centro Nacional de Inteligencia Artificial de Chile (CENIA), que busca mejorar la representación de la cultura y lenguaje de esta zona del continente en comparación a modelos actuales como ChatGPT, Gemini, DeepSeek, Perplexity, etc.
El proyecto fue propuesto por el CENIA en 2023 y que el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación apoyó la iniciativa en 2024, según informaron en el lanzamiento, pero no detallaron cuando estaría completamente disponible para el público.
Rodrigo Durán, gerente del CENIA, afirmó que este 28 de febrero se liberará el primer modelo de esta nueva inteligencia artificial: “Lo que vamos a liberar es el modelo abierto, en vez de ser un auto completo, es el motor y las ruedas, cualquier persona puede usarlo para montar soluciones de inteligencia artificial”.
Asimismo, detalló qué hasta la tercera semana de febrero, más de 80.000 personas a lo largo de Latinoamérica habían interactuado con el Copuchat, el cual tenía la función de enseñarle a la IA a comunicarse e interactuar.
“Lo que nos interesaba saber es cómo las personas de América Latina y el Caribe usarían una IA, para qué fines y en qué contexto. Es importante porque el modelo tiene más de 70 billones de parámetros”, dijo.
En esa misma línea, habló sobre los costos que conlleva mantener una inteligencia artificial de este tipo y la cifró en aproximadamente $200.000 dólares diarios, lo que catalogó de “costoso”, ya que “restringe el crecimiento de una plataforma con características abiertas con un nivel de respuesta razonable”.
Aunque no han existido muchos detalles sobre cómo o para qué las personas usarán Latam-GPT, lo que si se ha especificado es que al estar compuesta de datos de la región latinoamericana, debería ser más cercana a la realidad y problemáticas de los usuarios.
Claudio Aracena, académico e investigador especializado en Inteligencia Artificial, explicó la diferencia que tendrá este modelo en comparación a otros: “Este modelo está construido con datos locales, es decir, con datos de Latinoamérica, que claramente tiene sesgo o limita sesgos de otras partes del mundo“.
“Ese sesgo será a nuestro favor, porque van a ser datos locales lo que se refleja cuando se realizan investigaciones. A uno le gustaría que los datos fueran lo más parecido a lo que uno trabaja y no como los de inteligencias artificiales norteamericanas con datos distintos a los nuestros”, aseguró.
“Un modelo más local como Latam-GPT tendría mejores resultados que por ejemplo, modelos basados en España, puesto qué al tener datos locales, priorizaría información más cercana”, agregó.
Además, el experto señaló que se le pueden realizar ajustes a esta nueva IA: “Es un poco más complejo, pero se puede hacer, lo que no quita mérito a Latam-GPT, pero se hace simple para los investigadores llegar a mejores resultados con datos locales”.
Al ser una inteligencia artificial nueva, es probable que presente algunas fallas, ante esto, Claudio Aracena especificó en que aspectos podría sufrir contratiempos Latam-GPT: “Podría descarrilarse, dando información que no es adecuada, pero otros modelos del mismo estilo les pasaba seguido, con tiempo e inversión se pueden mejorar y limitar errores”.
Asimismo, señaló que se debe implementar un sistema de seguridad que catalogó como “salvaguardas” para evitar errores al momento de generar un texto: “Estos modelos no tienen salvaguardas y uno podría hacer que genere ciertos textos, por ejemplo, los primeros modelos de ChatGPT podían generar instrucciones para fabricar una bomba“.
“Pero con el tiempo van mejorando con distintas salvaguardas y estos probablemente no van a estar al principio en la Latam-GPT“, cerró.
En cuanto al futuro de Latam-GPT, Rodrigo Durán se refirió a la construcción del corpus de esta IA: “El corpus son los datos en español y portugués, en este caso es el más grande del mundo en esos idiomas, y probablemente lo vamos a liberar durante el mes de abril“.
A esto, sostuvo que desde el CENIA están buscando formar alianzas para aumentar el potencial de Latam-GPT: “Esperamos lograr alianzas con algún partner tecnológico que nos dé la capacidad de cómputo y con eso llevarlo a una escala que nos gustaría”.
“Pero eso tiene una fecha indeterminada porque está suscrito a conversaciones con partners que hoy día están avanzando“, cerró el gerente del CENIA.
El fin de esta medida es privilegiar la luz natural en las mañanas durante los meses fríos. Revisa los detalles.