Admin
¿Qué tan cerca está la IA de alcanzar la inteligencia humana?
Los grandes modelos de lenguaje como el o1 de OpenAI han revivido el debate sobre la posibilidad de alcanzar la inteligencia artificial general (IAG). Sin embargo, muchos expertos afirman que no llegarán a este hito por sí solos.
En septiembre, OpenAI lanzó su último sistema de inteligencia artificial con una promesa ambiciosa: presentar el o1, un conjunto de modelos de lenguaje avanzados, como una IA más cercana a la forma en que piensa una persona en comparación con versiones anteriores.
OpenAI, con sede en San Francisco, sostiene que el o1 representa un nuevo nivel de capacidad de IA.
Este lanzamiento reavivó el debate que ha existido durante décadas: ¿cuánto falta para que una máquina sea capaz de realizar todas las tareas cognitivas que los cerebros humanos manejan, como la capacidad de generalizar de una tarea a otra, razonamiento abstracto, planificación y la elección de qué aspectos del mundo investigar y aprender? Una inteligencia artificial general (IAG) podría abordar problemas complejos como el cambio climático, las pandemias o las curas para enfermedades como el cáncer y el Alzheimer. Sin embargo, su enorme poder también traería incertidumbre y riesgos para la humanidad. Como advierte Yoshua Bengio, investigador de aprendizaje profundo en la Universidad de Montreal, “cosas malas podrían suceder debido al mal uso de la IA o por perder el control sobre ella”.
La revolución en los modelos de lenguaje de los últimos años ha generado especulaciones sobre la posibilidad de que la IAG esté más cerca que nunca. Sin embargo, debido a la forma en que están construidos y entrenados los modelos de lenguaje, algunos investigadores sostienen que no serán suficientes para alcanzar la IAG por sí solos. “Todavía faltan algunas piezas”, dice Bengio.
¿Por qué ha cambiado el debate sobre la IAG?
El término inteligencia artificial general ganó popularidad en 2007, cuando fue mencionado en un libro editado por los investigadores Ben Goertzel y Cassio Pennachin. Aunque su significado exacto sigue siendo impreciso, generalmente se refiere a un sistema de IA con habilidades de razonamiento y generalización similares a las humanas. A lo largo de la historia de la IA, ha quedado claro que aún no hemos alcanzado la IAG. Por ejemplo, AlphaGo, el programa de IA de Google DeepMind, derrotó a los mejores jugadores humanos en el juego de mesa Go, pero sus habilidades son limitadas a ese solo campo.
Las nuevas capacidades de los modelos de lenguaje han cambiado radicalmente este panorama. Al igual que el cerebro humano, los modelos de lenguaje tienen una amplia gama de habilidades que han llevado a algunos investigadores a considerar seriamente que una forma de IAG podría estar a la vuelta de la esquina, o incluso ya estar aquí.
El proceso de entrenamiento de los Modelos de Lenguaje
Los modelos de lenguaje como el o1, Claude (de Anthropic) y Gemini (de Google) son redes neuronales, modelos de aprendizaje automático inspirados en el cerebro. Estas redes consisten en neuronas artificiales organizadas en capas, con parámetros ajustables que determinan la fuerza de las conexiones entre ellas. Durante el entrenamiento, los modelos son alimentados con fragmentos de texto y programación. A través de un proceso denominado predicción del siguiente token, el modelo debe predecir el token faltante en una secuencia de texto. Este proceso permite que el modelo adquiera la estructura estadística del lenguaje y el conocimiento contenido en los datos.
La arquitectura de red neuronal conocida como transformador ha permitido que los modelos de lenguaje vayan más allá de logros previos. Esta arquitectura permite que un modelo aprenda qué tokens tienen una influencia particular sobre otros, incluso si están muy separados dentro de una secuencia de texto. Este enfoque ha sido altamente exitoso en tareas como generar programas de computadora, resumir artículos académicos y responder preguntas de matemáticas.
Las limitaciones de los Modelos de Lenguaje
A pesar de las impresionantes capacidades de los modelos de lenguaje, todavía tienen limitaciones. Por ejemplo, en tareas que requieren planificación, el modelo o1 se desempeña bien en tareas con hasta 16 pasos, pero su rendimiento disminuye rápidamente cuando la cantidad de pasos supera los 20 o 40. Además, el modelo tiene dificultades con el razonamiento abstracto y la generalización, como demostró un test diseñado para evaluar el progreso hacia la IAG. Estos modelos, según los expertos, no pueden adaptarse verdaderamente a la novedad, ya que no tienen la capacidad de recombinar lo aprendido para abordar nuevas tareas.
¿Pueden los Modelos de Lenguaje alcanzar la IAG?
Los transformadores que sustentan los modelos de lenguaje tienen la capacidad de procesar y encontrar patrones estadísticos no solo en texto, sino también en imágenes y audio. Aunque algunos investigadores creen que la IAG está aún fuera de alcance, los modelos de lenguaje basados en transformadores ya exhiben algunos comportamientos similares a los de una IAG.
Sin embargo, existen señales de que los modelos de lenguaje basados en transformadores tienen límites. Los datos utilizados para entrenar estos modelos están agotándose, y algunos investigadores señalan que las mejoras en estos modelos se están ralentizando. Además, la arquitecturas basadas solo en transformadores, según Raia Hadsell de Google DeepMind, podrían no ser suficientes por sí solas para alcanzar la IAG. Los modelos que generen soluciones de una vez o en grandes fragmentos podrían acercarnos más a la IAG.
Construir un Modelo del Mundo
Los avances hacia la IAG podrían inspirarse en las ideas de los neurocientíficos, quienes sugieren que nuestra inteligencia es el resultado de la capacidad del cerebro para construir un "modelo del mundo". Este modelo nos permite imaginar diferentes cursos de acción, predecir sus consecuencias, planificar y razonar. Además, nos permite generalizar habilidades aprendidas en un dominio a nuevas tareas, simulando distintos escenarios.
En conclusión, aunque los modelos de lenguaje están avanzando rápidamente, todavía estamos lejos de lograr la IAG. Si bien estos modelos muestran comportamientos sorprendentes, siguen siendo limitados en su capacidad para razonar abstractamente, adaptarse a nuevas situaciones y combinar conocimiento para resolver tareas complejas. El camino hacia la IAG será largo y requerirá superar varios obstáculos fundamentales.
Fuente: Nature, 2024. www.nature.com