La alpaca creada en Stanford es un rival duro de pelar para ChatGPT

Atlas, hemos conocido como un equipo de investigadores de la Universidad de Stanford han utilizado el modelo de lenguaje de Meta, denominado LLaMa 7B, para iniciar el camino de su propio modelo, denominado Alpaca. Lo curioso de la investigación comienza en este punto y es que el equipo de Stanford ha utilizado ChatGPT para poder rivalizar con ChatGPT.

El proceso de entrenamiento de su modelo Alpaca se inició introduciendo 175 pares de instrucciones/respuestas en ChatGPT. A través de LLaMa 7B, los responsables de la investigación comenzaron a generar respuestas, de veinte en veinte, de manera automatizada gracias a una API creada por la propia OpenAI. Después de poco tiempo, y tras gastarse 500 dólares, se obtuvieron 52.000 ejemplos de conversaciones que serían utilizadas en el entrenamiento con LLaMa 7B, algo necesitó de 8 ordenadores de procesamiento en la nube y tres horas, además de 100 dólares extra.

Si te dedicas a uno de estos 20 trabajos, ChatGPT podrá sustituirte pronto, lo dice la ciencia

El paso final fue enfrentar a Alpaca con ChatGPT y aquí es donde llegó la gran sorpresa. Después de realizar distintas pruebas, tanto en redacción de correos electrónicos, herramientas de productividad y redes sociales, Alpaca ganó en 90 test, mientras que ChatGPT solamente pudo ganar en 89 pruebas. Aún queda mucho camino por recorrer, eso sí,6 según aseguran los responsables de la investigación en la página de Alpaca en GitHub:

Alpaca aún está en desarrollo y hay muchas limitaciones que hay que atender. De manera importante, aún no hemos afinado el modelo Alpaca para que sea seguro y no dañino. De este modo, alentamos a los usuarios que sea cautelosos interactuando con Alpaca y que reporten cualquier comportamiento preocupante para ayudar a mejorar la seguridad y consideraciones éticas del modelo.