.
Analistas 20/01/2024

IA en todos los tamaños

Javier Villamizar
Managing Director

La revolución de la inteligencia artificial (IA) está transformando la forma en que interactuamos con la tecnología. Gigantes tecnológicos como Google y Microsoft están integrando la IA generativa en sus productos, mientras que líderes mundiales la ven como una herramienta clave para el crecimiento económico. A medida que avanzamos más allá de servicios como ChatGPT y Bard, observamos una tendencia hacia modelos de lenguaje más especializados y menos genéricos, lo que podría marcar una nueva era en el desarrollo de la IA.

Los sistemas de IA, como los modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), son entrenados con una vasta cantidad de datos que incluyen libros y páginas web. Este enfoque de “red amplia” ha sido fundamental para desarrollar la capacidad de estos sistemas de imitar el habla humana y proporcionar respuestas útiles. Sin embargo, un conjunto de datos más selecto y enfocado podría hacer que los “chatbots” de IA sean aún más útiles para personas en industrias específicas o en regiones particulares.

La evolución de la IA estará marcada por el creciente costo de acumular datos para entrenar LLM avanzados, algo que empieza a complicarse ahora que empresas como Reddit, Twitter, el New York Times y Getty Images, entre otras, han empezado a oponerse e incluso a bloquear el acceso a sus contenidos históricos. Esta limitación puede afectar la capacidad de los LLM para aprender y evolucionar, ya que dependen de esta vasta información para mejorar sus predicciones y comprensión del lenguaje humano.

Mirando hacia el futuro, a medida que organizaciones como OpenAI busquen construir versiones más potentes de sus LLM, enfrentarán mayores costos para obtener datos. Una solución a este problema podría ser el uso de datos sintéticos, creados desde cero por sistemas de IA para entrenar sistemas de IA más avanzados. Sin embargo, los datos sintéticos enfrentan desafíos. Deben ser lo suficientemente diferentes de los datos originales para enseñar algo nuevo al modelo, pero también lo suficientemente similares para ser precisos.

Es por esto por lo que los modelos de lenguaje pequeños (Small Language Models) están emergiendo como una tendencia en la IA. Google ha revelado que hay poco que impida a terceros recrear LLM como GPT-3 o LaMDA. Es así como muchas organizaciones podrían construir sus propios sistemas de IA internos, utilizando sus propios datos especializados, para sus propios objetivos. Estos probablemente serán más valiosos para estas organizaciones que ChatGPT a largo plazo.

Recientemente, el gobierno japonés señaló que desarrollar una versión centrada en Japón de ChatGPT es potencialmente valioso para su estrategia de IA, ya que ChatGPT no es suficientemente representativo de Japón. No sería raro que esta tendencia se vuelva la norma y que muchos países o regiones del planeta comiencen a especializar sus modelos enriqueciéndolos con datos locales.

El futuro cercano de la IA a medida que se nos presentan más desafíos y obstáculos regulatorios, podría ser un universo lleno de pequeños y ágiles modelos de lenguaje, en vez de gigantes genéricos. Estos modelos compactos podrían enfrentar retos más complejos y producir mejores resultados si se nutren de menos información que colosos como GPT-4, aprovechando conjuntos de datos únicos y la retroalimentación especializada por parte de expertos en un dominio particular.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA