La carrera silenciosa hacia la AGI (Inteligencia Artificial General) está en marcha

La AGI se presenta como un enigma fascinante, un rompecabezas tecnológico y filosófico que desafía nuestra comprensión del mundo y de nosotros mismos.

Óscar Villegas
AGI: Inteligencia Artificial General
AGI: Inteligencia Artificial General

En los laboratorios de Silicon Valley, en los campus universitarios de Europa y en los centros de investigación de Asia, existe una carrera silenciosa pero implacable. No es por conquistar el espacio o crear la vacuna definitiva, sino por desarrollar lo que muchos consideran el último gran salto tecnológico de la humanidad: la Inteligencia Artificial General (AGI). ¿Te has preguntado alguna vez qué implicaría realmente este avance?

Mientras que la IA que conocemos hoy puede vencer a cualquier humano en ajedrez o generar imágenes sorprendentes con unas pocas palabras, estos sistemas siguen siendo especialistas limitados. La AGI representaría algo completamente diferente: una inteligencia con capacidades cognitivas equivalentes o superiores a las humanas, capaz de entender, aprender y aplicar conocimientos en cualquier dominio.

¿Qué es la AGI y por qué causa tanto revuelo?

La AGI, a diferencia de la IA estrecha o especializada que domina actualmente el mercado, tendría la capacidad de comprender, aprender y razonar sobre prácticamente cualquier tarea que un humano pueda realizar. No estaríamos hablando solo de sistemas que pueden escribir código o componer música, sino de una inteligencia capaz de transferir conocimientos entre dominios diversos y adaptarse a nuevos problemas sin entrenamiento específico. ¿Imaginas las posibilidades?

La verdadera AGI debería poder realizar cualquier tarea intelectual que un ser humano pueda hacer, y probablemente muchas más. Esto incluye aspectos como el razonamiento abstracto, la comprensión del lenguaje natural, la planificación, la resolución de problemas y el aprendizaje acumulativo.

Dr. José Hernández-Orallo, catedrático de la Universidad Politécnica de Valencia y autor del libro The Measure of All Minds

Esta flexibilidad cognitiva es precisamente lo que hace que la AGI represente tanto una promesa como un desafío sin precedentes. Por un lado, podría acelerar drásticamente el progreso científico, ayudando a resolver problemas como el cambio climático o enfermedades hasta ahora incurables. Por otro, plantea interrogantes profundos sobre el control, la alineación de valores y el futuro del trabajo humano.

El estado actual de la carrera hacia la AGI: avances significativos

Los avances en el campo de la AGI se han acelerado en los últimos años. Los modelos de lenguaje a gran escala como GPT-4o de OpenAI y Claude 3 de Anthropic han demostrado capacidades que, hace solo una década, parecían ciencia ficción.

Si bien algunos expertos, como Sam Altman, expresaron optimismo sobre el logro de la AGI para 2025, otros siguen siendo escépticos. El consenso parece ser que la verdadera AGI, capaz de realizar cualquier tarea intelectual que un humano pueda realizar, aún está a algunos años de distancia. Existe una considerable incertidumbre sobre el cronograma, y algunos investigadores, como Ray Kurzweil, predicen una IA de nivel humano para 2047.

Proyectos emergentes: ¿Los primeros pasos hacia la AGI?

Entre los desarrollos más recientes destacan dos proyectos que algunos consideran los primeros ejemplos de sistemas con capacidades proto-AGI:

  • AI Agents: el desarrollo y la implementación de agentes de IA para casos de uso comerciales y personales ha sido un enfoque importante en 2024 y continúa en 2025. Estos agentes están diseñados para automatizar tareas, mejorar la eficiencia y mejorar las capacidades humanas.
  • Multimodal AI: se han logrado avances en la IA multimodal, lo que permite a los sistemas procesar e integrar información de múltiples fuentes, como texto, imágenes y audio. Se espera que esto cambie la interacción entre humanos y ordenadores.

Sin embargo, los expertos debaten si estos sistemas pueden considerarse verdaderas AGI. Yoshua Bengio, ganador del Premio Turing y uno de los padres del aprendizaje profundo, expresó:

Hemos hecho progresos impresionantes en ciertos aspectos de la inteligencia, pero seguimos enfrentando obstáculos fundamentales en áreas como el razonamiento causal y la transferencia de conocimiento entre dominios

Fuente: Conferencia NeurIPS 2023, «State of AI», Diciembre 2023

Proyectos emergentes destacados: OpenAI Operator, Manus.ai, Perplexity Operator, Convergence.ai Proxy y Opera Browser Operator

En 2025, cinco proyectos emergentes ilustran estos avances, cada uno con enfoques únicos que podrían acercarnos a la AGI:

  • OpenAI Operator: lanzado en enero de 2025 como vista previa, este agente autónomo realiza tareas web complejas (ej. reservar vuelos). En beta, cuesta $200/mes para usuarios Pro en EE.UU. y apunta a sistemas más versátiles.
  • Manus AI: debutó el 7 de marzo de 2025 desde China, en beta, con un enfoque en «agentización general» (actuar en múltiples áreas). Sorprende por su versatilidad y podría ser un competidor disruptivo.
  • Perplexity Operator: evolucionó en 2025 como asistente global de compras y tareas ($20/mes). No en beta, combina búsqueda y acción, puente entre IA estrecha y general.
  • Convergence.ai Proxy: lanzado el 26 de enero de 2025 (Proxy 1.0), disponible globalmente (gratis o $20/mes), destaca por aprender tareas y automatizar procesos, acercándose a la generalidad de la AGI.
  • Opera Browser Operator: presentado el 3 de marzo de 2025 como vista previa, automatiza tareas web desde su propio navegador. Práctico, pero menos ambicioso hacia la AGI.

Estos proyectos reflejan un espectro de avances: desde automatización práctica (Opera, Perplexity) hasta intentos de generalidad (Manus.ai, Convergence.ai), con pasos intermedios (OpenAI Operator). Ninguno es AGI, pero todos son hitos en autonomía y adaptabilidad.

Científicos e instituciones a la vanguardia de la investigación en España y el mundo

España se está posicionando estratégicamente como líder en Inteligencia Artificial (IA) ética y sostenible en 2025, destacando por su enfoque humanista y su alienación con estándares europeos.

Inicialmente, se destinaron 600 millones de euros hasta 2023 a través de la Estrategia Nacional de IA lanzada en 2020. En 2024, se aprobaron 1,500 millones de euros adicionales para el período 2024-2025, enfocándose en supercomputación, modelos de lenguaje en español y lenguas cooficiales, y sostenibilidad. Según Mateo Vaero, director del BSC:

España está haciendo una apuesta decidida por situarse en la vanguardia de la computación y la inteligencia artificial. MareNostrum 5 nos permitirá abordar problemas que requieren gran capacidad de cálculo, incluyendo el entrenamiento de modelos de IA cada vez más complejos

Fuente: BSC Annual Report 2024

Posicionamiento a nivel internacional en la carrera de la IA

A nivel internacional, varios grupos destacan por sus contribuciones:

  • Dra. Fei-Fei Li (Stanford University): lidera el Stanford Institute for Human-Centered Artificial Intelligence (HAI), que investiga aspectos fundamentales para el desarrollo de sistemas de IA más generales y centrados en el ser humano.
  • ELLIS Barcelona (Dr. Xavier Giró): forma parte de la red europea de laboratorios de excelencia en aprendizaje automático, enfocándose en investigación fundamental para mejorar la generalización y robustez de los sistemas de IA.
  • CSIC (Instituto de Investigación en Inteligencia Artificial – IIIA): desarrolla investigación en aprendizaje automático, razonamiento y sistemas multiagente, aspectos fundamentales para el desarrollo de la AGI.

Los magnates tecnológicos y su visión sobre la AGI

Los líderes de las principales empresas tecnológicas ofrecen visiones contrastantes sobre el desarrollo y las consecuencias de la AGI. ¿Cuál es tu opinión al respecto?

  • Elon Musk (Tesla y xAI): En una entrevista en X Spaces con Nicolai Tangen en abril de 2024, predijo que la IA será más inteligente que cualquier ser humano hacia el final de 2025.
  • Sam Altman (OpenAI): En su blog personal en enero de 2025, declaró que OpenAI ahora está seguro de saber cómo construir AGI como se ha entendido tradicionalmente. En technófilos hablamos de ello en el artículo la carta abierta de Sam Altman que debes leer.
  • Satya Nadella (Microsoft): En una entrevista con Dwarkesh Patel en febrero de 2025, descartó los hitos de AGI y enfatizó que el verdadero benchmark debería ser el crecimiento económico del 10%.

Desafíos técnicos pendientes en el camino hacia la AGI

A pesar del optimismo de algunos sectores, los investigadores reconocen que aún quedan obstáculos técnicos significativos por superar.

Obstáculos Fundamentales

Según el informe «On the Opportunities and Risks of Foundation Models» publicado por el Stanford Institute for Human-Centered AI en 2022, los principales desafíos técnicos incluyen:

  • Limitaciones Energéticas: los modelos actuales requieren recursos computacionales enormes. AlphaGo Zero consumió aproximadamente 300.000 vatios durante su entrenamiento, mientras que un cerebro humano funciona con apenas 20 vatios. Fuente: Nature, «The energy cost of artificial intelligence», 2023
  • Interpretabilidad: según el Dr. Rich Caruana, investigador principal de Microsoft Research «los sistemas de aprendizaje profundo siguen siendo en gran medida cajas negras, lo que plantea serios problemas de confianza y seguridad a medida que aumenta su complejidad». Fuente: Microsoft Research Blog, «The quest for interpretable AI», 2024
  • Robustez y Generalización: un estudio publicado en Nature Machine Intelligence en 2023 por investigadores del MIT y Stanford demostró que incluso los modelos más avanzados fallan en tareas que requieren generalización fuera de sus dominios de entrenamiento. Fuente: Nature Machine Intelligence, Vol. 5, pp. 456-468, 2023
  • Integración Multimodal: aunque sistemas como Gemini Ultra y GPT-4V muestran avances significativos en la integración de texto e imágenes, aún están lejos de la comprensión integrada y fluida que caracteriza a la cognición humana. Fuente: Cognitive Science Journal, «Multimodal Processing in Human and Artificial Systems», 2024

Implicaciones éticas y sociales: preparándonos para un mundo con AGI

Las implicaciones de desarrollar una AGI van mucho más allá de lo técnico, planteando cuestiones fundamentales sobre el futuro del trabajo, la privacidad, la autonomía y la propia definición de inteligencia.

El profesor Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC y premio Nacional de Informática, ha señalado:

Necesitamos un debate social amplio sobre qué tipo de desarrollo tecnológico queremos. La AGI no es solo una cuestión técnica, sino profundamente social y política

Fuente: El País, «Inteligencia artificial, ¿para qué sociedad?», Enero 2024

La ética de la IA fue un tema destacado en 2024 y 2025, marcado por conferencias, iniciativas y debates centrados en el desarrollo y la gobernanza responsables de la IA. Las organizaciones y los gobiernos reconocieron la necesidad de directrices claras y estandarizadas para el desarrollo responsable de la IA. Esto incluyó debates sobre la IA explicable (XAI), la rendición de cuentas por los resultados de la IA y la garantía de la equidad para mitigar el sesgo.

AGI en España y el panorama global

España ha apostado por posicionarse en la carrera de la IA con la Estrategia Nacional de Inteligencia Artificial, que incluye una inversión de 600 millones de euros hasta 2025, según datos del Ministerio de Asuntos Económicos y Transformación Digital.

Nuria Oliver, comisionada de la Presidencia de la Generalitat Valenciana en Inteligencia Artificial y Ciencia de Datos, y miembro de la Real Academia de Ingeniería, destaca:

España tiene la oportunidad de desarrollar una aproximación distintiva a la IA, con especial énfasis en aspectos éticos y sociales. No se trata solo de competir en la carrera tecnológica, sino de aportar una visión humanista

A nivel europeo, el Reglamento de la IA de la UE (Reglamento (UE) 2024/1689) establece un marco basado en el riesgo para los sistemas de IA. Ciertas prácticas de IA de «riesgo inaceptable» están prohibidas por completo, mientras que los sistemas de «alto riesgo» enfrentan requisitos estrictos antes de ingresar al mercado.

La IA de «riesgo limitado», como los chatbots y los modelos de IA generativa, debe cumplir con las obligaciones de transparencia (por ejemplo, revelar el contenido generado por la IA). El Reglamento exime en gran medida a la IA de «riesgo mínimo o nulo».

Preparándonos para una inteligencia artificial general

La pregunta sobre cuándo llegaremos a desarrollar una verdadera AGI sigue abierta. Según una encuesta realizada a investigadores líderes en IA publicada en el Journal of Artificial Intelligence Research en 2023, la estimación media sitúa el desarrollo de una AGI completa en torno al año 2060, aunque con un rango muy amplio de opiniones.

No obstante, investigaciones y encuestas más recientes sugieren que este horizonte podría estar más cerca, con una fecha probable alrededor de 2040, aunque sigue habiendo controversia: algunos expertos predicen plazos aún más tempranos, mientras que otros adoptan una postura más cautelosa.

La AGI podría ser el logro más importante en la historia de la humanidad, pero solo si resolvemos el problema de control: asegurar que estos sistemas permanezcan alineados con los objetivos humanos, incluso a medida que se vuelven más capaces

Dr. Stuart Russell, profesor de informática en Berkeley y autor de: Human Compatible: Artificial Intelligence and the Problem of Control

Lo que está claro es que, independientemente del horizonte temporal, debemos prepararnos como sociedad. Esto implica no solo avanzar en la investigación técnica, sino también en marcos éticos, regulatorios y educativos que nos permitan aprovechar al máximo sus beneficios mientras mitigamos sus riesgos.

El panorama regulatorio de la IA es dinámico y continúa evolucionando. Es fundamental mantenerse informado sobre estos cambios para las empresas y las personas que operan en este espacio.

La AGI representa, al mismo tiempo, nuestro mayor desafío y nuestra mayor oportunidad. Su futuro ya está tomando forma, y España tiene el potencial de contribuir significativamente a un desarrollo responsable y beneficioso para la humanidad, alineando innovación tecnológica con una visión humanista que prioriza la ética y el bienestar social.

Comparte este artículo