Phi-3 AI: Microsoft lanza una nueva IA y amenaza a Gemini
Microsoft lanzó recientemente Phi-3 AI y sorprendió a todos. Los modelos innovadores de IA como Chat GPT nos han conquistado, pero para aprovecharlos, la gran mayoría de los usuarios están recurriendo a la nube, donde potentes servidores procesan nuestras solicitudes y realizan las operaciones necesarias para respondernos como lo hacen.
Este es exactamente el problema. Dependemos de la nube para impulsar la red global de Chat GPT, pero esto podría cambiar en breve y Microsoft es una de las empresas que puede lograr este objetivo. Fi-3. Microsoft acaba de lanzar una nueva versión de su modelo de IA «lite» llamado Phi-3 Mini.
Esta es la versión 3.8B, con 3.800 millones de parámetros: cuanto más se utiliza el modelo, más complejo y eficiente se vuelve. Reducir esta cantidad de parámetros generalmente reduce la precisión y las capacidades de un chatbot, pero Microsoft dice que Phi-3 funciona mejor que Phi-2, presentado en diciembre de 2023, y puede proporcionar comentarios comparables a un modelo 10 veces más grande.
¿Qué es el Phi-3 AI?
Phi-3 AI Mini es el primero de tres modelos pequeños que Microsoft planea lanzar este año, seguido por Phi-3 Small, que admitirá 7 mil millones de parámetros, y Phi-3 Medium, con 14 mil millones de parámetros. Este nuevo modelo pequeño de IA ahora está disponible en plataformas en la nube como Azure, Hug Face y Llama. El Phi-3 Mini se une a otros SLM como el Gemma de Google, el Claude 3 Haiku de Anthropic y el recientemente lanzado Llama 3 8B de Meta.
¿Cómo funciona Phi-3 Mini?
El Phi-3 Mini se enseña utilizando un «plan de estudios» basado en la literatura infantil, que consiste en oraciones simples sobre temas más amplios y complejos. Este enfoque permitió a los investigadores de Microsoft crear un conjunto de datos de alta calidad llamado «Tiny Stories», que se utilizó para entrenar un modelo con una narración fluida y una gramática excelente. La clave del éxito del Phi-3 Mini es la cuidadosa selección de los datos de entrenamiento, asegurando que cada «lección» enseñada al modelo sea clara y de alta calidad.
La versatilidad del Phi-3 Mini lo hace ideal para muchas aplicaciones. El Phi-3 Mini maneja tareas que no requieren tanta atención como los modelos más grandes. Por ejemplo, desde brindar soporte a chatbots de servicio al cliente hasta crear contenido para el equipo de marketing.
La capacidad de ejecutarse en dispositivos personales abre nuevas posibilidades para la informática en el entorno. Esto permite a los usuarios beneficiarse de soluciones de IA con una latencia mínima y una privacidad máxima.
El impacto del Phi-3 AI Mini en la industria
Con el lanzamiento del Phi-3 Mini, Microsoft no sólo introdujo una solución innovadora, sino que también sentó las bases para el desarrollo futuro de la línea Phi-3. Los próximos modelos Phi-3 Small y Medium, con 7 mil millones y 14 mil millones de parámetros respectivamente, prometen brindar aún más opciones en términos de calidad y precio, ampliando las capacidades de la inteligencia artificial a muchos más objetos.
Phi-3 AI Mini es más que un simple modelo de inteligencia artificial; es un testimonio de la creatividad e innovación de Microsoft. Al combinar la simplicidad de los cuentos infantiles con la complejidad de la inteligencia artificial, Microsoft ha creado un modelo que no sólo es potente y accesible, sino también revolucionario en su enfoque.
A medida que la familia Phi-3 continúa desarrollándose, podemos esperar tener un impacto aún mayor en la forma en que las organizaciones y los individuos interactúan con la tecnología de IA, haciendo que el uso de la IA sea más personal, es decir, más moderno y, sobre todo, más inteligente.
Phi-3 AI Mini está entrenado en cuentos infantiles
Microsoft afirma que Phi-3 AI puede gestionar aproximadamente 3.800 millones de parámetros, que es la cantidad de instrucciones complejas que el modelo de lenguaje puede comprender.
Por ejemplo, no importa que sea aproximadamente 46 veces más pequeño que Chat GPT 3.5, porque su entrenamiento le permite ofrecer un rendimiento mucho mejor de lo que sugieren los números. Microsoft señala que Phi-3 AI aprende de la misma manera que un niño practica sus conocimientos a través de historias infantiles. Utilizan palabras sencillas para explicar conceptos más complejos y abiertos.
Los libros para niños escasean, por lo que decidieron crear una lista de más de 3.000 palabras y pedimos a estudiantes graduados que escribieran ‘libros para niños’ para enseñar Phi», según dijo el vicepresidente de Microsoft Azure. Su finalidad como modelo de lenguaje es dar respuestas al conocimiento general. Phi-1 se concentra en codificar mientras Phi-2 comienza a pensar. Ahora, la tercera edición complementa lo que aprendimos de ambos libros y proporciona una mejor resolución de problemas, programación de nivel superior y un razonamiento más amplio.
La empresa reconoce que hay muchas industrias que necesitan modelos de lenguaje pero no tienen la capacidad de soportar ciertos LLM como Chat GPT 4. Tampoco tienen presupuesto para convertirlos en inversiones rentables, por lo que piden opciones más sencillas.
Microsoft quiere alejarse de su ancla y dejar de mirar sólo a las grandes ligas, en las que cada vez es más difícil competir. El Phi-3 Mini proporciona una solución muy eficiente, con costos reducidos y la capacidad de ejecutar el modelo de lenguaje en casi cualquier dispositivo modesto.
Comparable a ChatGPT
Eric Boyd, vicepresidente de Microsoft Azure AI Platforms, explicó a The Verge que Phi-3 AI tiene capacidades similares a las de los LLM, como GPT-3.5, que utilizamos de forma gratuita cuando utilizamos Chat GPT. «Simplemente funciona en tamaños más pequeños», dijo Boyd.
Los ingenieros de Microsoft probaron el Phi-3 Mini en un iPhone con el procesador A16 Bionic. Así fue que lograron una velocidad de 12 tokens por segundo, una velocidad realmente excepcional para un teléfono inteligente.
El objetivo de este modelo, al igual que su predecesor, es demostrar su gran capacidad a pesar de su tamaño. Y, además, que el mismo es lo suficientemente pequeño como para implementarlo en el hardware de nuestro teléfono inteligente. Esto debe permitir un buen rendimiento y comodidad de uso.
Y no sólo en este hardware, porque también puede ejecutarse en pequeños servidores o en nuestros ordenadores de sobremesa y portátiles.
Phi-3 AI es compatible en iPhone
Como puede ver en la imagen de arriba, tomada de un estudio publicado por Microsoft, los investigadores probaron Phi-3 en un iPhone con el SoC Apple A16. Este sistema se utiliza en iPhone 14 Pro/Max, así como en iPhone 15 y 15 Plus.
Gracias a este hardware, el Phi-3 puede generar texto a una velocidad de 12 tokens por segundo, lo que si bien no es impresionante, especialmente si necesitamos respuestas largas, sí es sorprendente. La competencia aumenta. El Gemini Nano fue el primer gran héroe de esta serie de «modelos móviles de IA», pero pronto fue seguido por el Phi-2 y modelos especializados como Google Gemma 2B y 7B, Claude 3 Haiku e incluso modelos recientemente presentados.
Mientras que el Phi-1 se centró en la programación y el Phi-2 en el razonamiento, el Phi-3 tuvo un mejor desempeño en ambas áreas que su predecesor. No puede competir con GPT-4, que entrena de una forma mucho más ambiciosa, pero puede ser muy útil si queremos usarlo, por ejemplo, con subconjuntos de datos internos y además utiliza muchos menos recursos.
Ventajas y desventajas
Microsoft ofrece este modelo como alternativa a los modelos actuales de mayor tamaño, más ambiciosos y precisos pero que también requieren un consumo energético importante. Con Phi-3, una empresa o un individuo puede interactuar localmente con el chatbot y las respuestas, aunque no sean precisas ni completas, serán suficientes para estos casos de uso. El ahorro de hardware y energía requerido va de la mano de su principal ventaja: la independencia de la nube.