Son los LLM hasta el final - Parte 2

MetaTech: La tecnología habla de la tecnología

August 12, 2024

👉 Algunas predicciones para el futuro

👉 Casos dirigidos a consumidores

👉 Casos de uso orientados a empresas

Descargo de responsabilidad: Algunas de las declaraciones hechas en esta publicación son pronósticos basados en la información disponible actualmente. Podrían quedar obsoletas en el futuro o podría producirse un cambio importante en el trabajo y las experiencias de estas tecnologías.

Algunas predicciones futuras sobre los LLM

En Parte I cubrimos el panorama actual en modelos lingüísticos de gran tamaño, el trabajo que se está realizando en diferentes modelos que son más pequeños pero más complejos y, finalmente, cómo el código abierto se está acelerando. En este post, haremos predicciones sobre el futuro con toda la información que tenemos disponible en la actualidad, además de las pruebas actuales que están realizando algunos de los principales actores de la industria. Creo en hacer declaraciones falsificables, así que aquí va. Se divide vagamente en casos de uso empresarial y de consumo.

Casos orientados al consumidor

Los LLM se fusionarán con el sistema operativo y tendrán acceso a lo que haces y proporcionarán diferentes funcionalidades en función de eso. La pregunta sigue siendo si podrás hacer que todo esto se ejecute localmente. Supongo que sí, la inferencia se realizará principalmente en el dispositivo. Los modelos más pequeños se usarán para la mayoría de las cosas simples y se ejecutarán localmente, mientras que algunas cosas pesadas aún podrían descargarse en otros lugares. La conferencia de Apple mencionada anteriormente también habla explícitamente sobre esto. Algunas cosas a nivel local, otras en la nube. El equilibrio de las dos es un misterio. Apuesto mucho por la localidad. La nube también tiene el inconveniente de tener datos personales increíblemente precisos fuera del control de los usuarios. Tal cosa es, cuanto menos, problemática. Veo 3 salidas:

  1. Modelos cifrados,
  2. Localidad con poca información (ojalá no identificable) que sale o
  3. Simplemente aceptamos la nueva normalidad de nuestros datos

La primera opción depende del éxito de la investigación, por lo que podemos ignorarla por ahora. Nos quedamos con las otras dos. Como dije anteriormente, mi predicción es que la localidad dominará entre los consumidores. Otro problema es el tamaño. ¿Vamos a tener modelos cada vez más grandes con más capacidades? Creo que, a corto plazo, no importa. Para las aplicaciones actuales, las capacidades de los LLM son suficientes. Probablemente no necesites unos con mucho más conocimiento. Los generales son mejores y espero que las cosas cambien eventualmente, pero no a corto plazo. Las colecciones de pequeños LLM dominarán durante un tiempo. El razonamiento de este pensamiento aparentemente hereje es simple: si tu aplicación es limitada, es más fácil; si es más fácil, entonces realmente no necesitas un modelo x veces más experto. Las aplicaciones limitadas parecen ser el principal impulsor a corto plazo. Hay una diferencia entre las capacidades y el conocimiento. Por ejemplo, toma Google Depot. Es un modelo multimodal pequeño para obtener datos de una imagen gráfica. Es un modelo pequeño con un caso de uso muy preciso. Me imagino la integración de modelos más como una colección de este tipo de modelos pequeños (tal vez personalizados a partir de un conjunto reducido de modelos para poder «intercambiar» los pesos pertinentes) que como un modelo grande que puede hacer de todo. Los modelos, como las variantes phi de Microsoft, ya van en esa dirección: concentrar las cosas en la computación de los usuarios.

Esto no quiere decir que los modelos locales no vayan a ser mejores que los de la generación actual; es solo que el enfoque pasará del mejor modelo posible al mejor modelo que pueda funcionar en un escritorio razonable. Empezaremos a usar los LLM cada vez más: para la experiencia de usuario y la interfaz de usuario, obviamente, pero también para aprender, buscar en la web, automatizar cosas sin necesidad de programar y escribir documentos.

Casos de uso orientados a la empresa

Los usos empresariales son más difíciles de predecir. Sin duda, los casos de uso dependen mucho más de la empresa, por lo que es difícil establecer una tendencia general. ¡Solo se puede hablar del tipo de negocio con el que uno está familiarizado! A corto plazo, la ola actual de cosas como NIM indica que existe el interés de «implementar su propio modelo», por así decirlo. Si observamos el estado actual, parece que extraer/resumir de grandes corpus es una aplicación popular, lo mismo ocurre con la búsqueda semántica. Puede que esta no sea la más emocionante, pero veo una necesidad inmediata de hacerlo. Por el lado de las herramientas, como el constructor de consultas SQL y los modelos multimodales para el desarrollo de interfaces parecen instrucciones naturales para reducir los costos. Yendo aún más lejos, creo que el desarrollo de software en general sufrirá un importante aumento con respecto a los LLM. Tanto en el aspecto más técnico, como la programación o las pruebas, como en el aspecto más humano, como la generación automática de tareas a partir de las reuniones y la redacción de resúmenes de progreso para las partes interesadas.

Las interacciones a gran escala que requieren conocimiento mundial, pero no mucho razonamiento, también parecen ser las principales candidatas para la automatización.. Esto incluye cosas como la moderación y el servicio al cliente (hasta cierto punto). Actualmente, los LLM alucinan demasiado como para dejarlos solos en escenarios complejos. Esto los hace mucho menos viables para cosas un tanto delicadas. Sí, existen algunos trucos y trucos para reducir estos problemas, pero no de manera total o confiable. Esperemos que el futuro resuelva estos problemas de una manera más natural. Luego tienes cosas como la edición de vídeos o la escritura, que pueden beneficiarse de un asistente de inteligencia artificial. O la investigación de mercado, que puede aprovechar el hecho de que el LLM realice búsquedas exhaustivas en la web, lo que permite a las personas dedicar su tiempo a otras tareas.

Conclusión

En vísperas de un futuro impulsado por la IA, la evolución de los grandes modelos lingüísticos (LLM) se acelera a un ritmo que promete remodelar la estructura misma de la forma en que interactuamos con el mundo digital. Desde los modelos más pequeños y eficientes hasta la creciente ubicuidad de los LLM en la interfaz y la experiencia de usuario y la creciente estandarización de estas tecnologías, está claro que estamos presenciando las primeras etapas de un cambio de paradigma significativo.

Tanto las empresas como los consumidores están empezando a aprovechar el potencial de los LLM. La comunidad de código abierto se está poniendo al día rápidamente, ampliando los límites de lo que pueden hacer estos modelos y haciéndolos más accesibles a un público más amplio.

El camino que queda por delante está lleno de posibilidades interesantes. Es probable que la continua miniaturización y optimización de los LLM traiga experiencias de inteligencia artificial más potentes directamente a nuestros dispositivos, lo que permitirá interacciones más fluidas y privadas. Mientras tanto, las empresas seguirán explorando e implementando los LLM de maneras innovadoras, transformando las industrias y creando nuevas oportunidades de crecimiento.

Hay desafíos que superar: consideraciones éticas, preocupaciones sobre la privacidad de los datos y el riesgo siempre presente de obsolescencia a medida que surgen nuevos avances. Sin embargo, los beneficios potenciales superan con creces los riesgos, por lo que es un momento increíblemente emocionante para participar en el espacio de la IA.

Al mirar hacia el futuro, una cosa es segura: los LLM han llegado para quedarse y seguirán desempeñando un papel cada vez más central en la configuración de la forma en que vivimos, trabajamos e interactuamos con el mundo que nos rodea.

En resumen, con el creciente corpus de modelos ajustables, aquí es donde estarán la mayoría de las aplicaciones creativas. Solo el tiempo separará a los trucos de los disruptores. Honestamente, ¡es muy emocionante!

Para obtener más información sobre la IA, el aprendizaje automático, la gobernanza de datos y cómo impulsar su empresa con todas estas herramientas...

Síguenos en LinkedIn ¡mantente al día con lo que viene en el futuro!

Share article.

Listo para desbloquear

¿el poder de los datos?