Virales

Se aproxima una IA potente; no estamos preparados

Aquí hay algunas cosas que creo sobre la inteligencia artificial:

Creo que en los últimos años, los sistemas de IA han comenzado a superar a los humanos en varios dominios ( matemáticas , codificación y diagnóstico médico , solo por nombrar algunos) y están mejorando cada día.

Creo que muy pronto —probablemente en 2026 o 2027, pero posiblemente este mismo año— una o más empresas de IA afirmarán haber creado una inteligencia artificial general, o AGI, que suele definirse como algo así como “un sistema de IA de propósito general que puede hacer casi todas las tareas cognitivas que un humano puede hacer”.

Creo que cuando se anuncie la IAG habrá debates sobre definiciones y discusiones sobre si cuenta o no como IAG “real”, pero que en su mayoría estos no importarán, porque el punto más amplio —que estamos perdiendo nuestro monopolio sobre la inteligencia a nivel humano y estamos en transición hacia un mundo con sistemas de IA muy poderosos— será cierto.

Creo que durante la próxima década, la IA poderosa generará billones de dólares en valor económico e inclinará el equilibrio del poder político y militar hacia las naciones que la controlen, y que la mayoría de los gobiernos y las grandes corporaciones ya consideran esto como obvio, como lo evidencian las enormes sumas de dinero que están gastando para llegar allí primero.

Creo que la mayoría de las personas e instituciones no están en absoluto preparadas para los sistemas de IA que existen hoy en día, y mucho menos para los más potentes, y que no existe ningún plan realista en ningún nivel de gobierno para mitigar los riesgos o aprovechar los beneficios de esos sistemas.

Creo que los escépticos acérrimos de la IA —que insisten en que el progreso es puro humo y espejos y descartan la IAG como una fantasía delirante— no solo están equivocados en cuanto al fondo, sino que además dan a la gente una falsa sensación de seguridad.

Creo que, independientemente de si pensamos que la IAG será buena o terrible para la humanidad (y, sinceramente, quizá sea demasiado pronto para decirlo), su llegada plantea importantes cuestiones económicas, políticas y tecnológicas para las que actualmente no tenemos respuestas.

Creo que el momento adecuado para empezar a prepararse para la IAG es ahora.

Puede que todo esto suene descabellado. Pero no llegué a estas conclusiones como un futurista idealista, un inversor que promocionaba mi cartera de IA ni como alguien que se tomó demasiadas setas alucinógenas y vio “Terminator 2”.

Llegué a ellos como periodista, habiendo dedicado mucho tiempo a hablar con los ingenieros que construyen potentes sistemas de IA, los inversores que los financian y los investigadores que estudian sus efectos. Y he llegado a la conclusión de que lo que está sucediendo actualmente en la IA es más grande de lo que la mayoría de la gente entiende.

En San Francisco, donde resido, la idea de la IA general no es algo marginal ni exótico. Aquí se habla de “sentir la IA general”, y construir sistemas de IA más inteligentes que los humanos se ha convertido en el objetivo explícito de algunas de las empresas más grandes de Silicon Valley. Cada semana, me encuentro con ingenieros y emprendedores que trabajan en IA y me dicen que el cambio —un gran cambio, un cambio trascendental, una transformación nunca antes vista— está a la vuelta de la esquina.

“Durante el último año o dos, lo que solía llamarse ‘plazos cortos’ (pensando que la IAG probablemente se construiría en esta década) se ha convertido casi en un consenso”, me dijo recientemente Miles Brundage, un investigador independiente de políticas de IA que dejó OpenAI el año pasado.

Fuera del Área de la Bahía, pocas personas han oído hablar de la IA, y mucho menos han empezado a planificarla. Y en mi sector, los periodistas que se toman en serio el progreso de la IA aún se arriesgan a ser ridiculizados como ingenuos o cómplices de la industria .

Sinceramente, entiendo la reacción. Aunque ahora contamos con sistemas de IA que contribuyen a avances galardonados con el Premio Nobel , y aunque 400 millones de personas usan ChatGPT a la semana, gran parte de la IA que la gente encuentra en su vida diaria es una molestia. Me solidarizo con quienes ven basura de IA por todas partes en sus feeds de Facebook, o tienen una interacción torpe con un chatbot de atención al cliente y piensan: ” ¿Esto es lo que va a dominar el mundo?”.

Yo también solía burlarme de la idea. Pero he llegado a creer que estaba equivocado. Algunas cosas me han convencido a tomarme más en serio el progreso de la IA.

Los de adentro están alarmados.

Lo más desconcertante de la industria de la IA actual es que las personas más cercanas a la tecnología (los empleados y ejecutivos de los principales laboratorios de IA) tienden a ser los más preocupados por la velocidad a la que está mejorando.

Esto es bastante inusual. En 2010, cuando cubría el auge de las redes sociales, nadie en Twitter, Foursquare ni Pinterest advertía que sus aplicaciones pudieran causar caos social. Mark Zuckerberg no estaba probando Facebook para encontrar evidencia de que pudiera usarse para crear nuevas armas biológicas o llevar a cabo ciberataques autónomos.

Pero hoy, quienes poseen la mejor información sobre el progreso de la IA —quienes desarrollan IA potentes, con acceso a sistemas más avanzados que los que el público general ve— nos anuncian que se avecina un gran cambio. Las principales empresas de IA se preparan activamente para la llegada de la IAG y estudian propiedades potencialmente alarmantes de sus modelos, como su capacidad de conspiración y engaño , anticipándose a su creciente capacidad y autonomía.

Sam Altman, director ejecutivo de OpenAI, ha escrito que “están apareciendo sistemas que empiezan a apuntar hacia la IAG”.

Demis Hassabis, director ejecutivo de Google DeepMind, dijo que la IA general probablemente esté “a tres o cinco años de distancia”.

Dario Amodei, el director ejecutivo de Anthropic (a quien no le gusta el término IAG pero está de acuerdo con el principio general), me dijo el mes pasado que creía que estábamos a uno o dos años de tener “una gran cantidad de sistemas de IA que son mucho más inteligentes que los humanos en casi todo”.

Quizás deberíamos descartar estas predicciones. Después de todo, los ejecutivos de IA se benefician de la exageración de la IA general y podrían tener incentivos para exagerar.

Pero muchos expertos independientes, entre ellos Geoffrey Hinton y Yoshua Bengio , dos de los investigadores de IA más influyentes del mundo, y Ben Buchanan , quien fue el principal experto en IA de la administración Biden, opinan lo mismo. También lo hacen otros economistas , matemáticos y funcionarios de seguridad nacional destacados .

Para ser justos, algunos expertos dudan de la inminencia de la IA general. Pero incluso ignorando a todos los que trabajan en empresas de IA o que tienen un interés personal en el resultado, aún existen suficientes voces independientes y creíbles con plazos cortos para la IA general, por lo que deberíamos tomarlas en serio.

Los modelos de IA siguen mejorando.

Para mí, tan persuasiva como la opinión de los expertos es la evidencia de que los sistemas de IA actuales están mejorando rápidamente, en formas que son bastante obvias para cualquiera que los use.

En 2022, cuando OpenAI lanzó ChatGPT, los principales modelos de IA tenían dificultades con la aritmética básica, fallaban con frecuencia en problemas de razonamiento complejos y a menudo “alucinaban” o inventaban datos inexistentes. Los chatbots de aquella época podían lograr resultados impresionantes con la ayuda adecuada, pero nunca se usarían para nada crucial.

Los modelos de IA actuales son mucho mejores. Ahora, los modelos especializados están obteniendo puntuaciones de nivel de medallista en la Olimpiada Internacional de Matemáticas, y los modelos de propósito general se han vuelto tan eficientes en la resolución de problemas complejos que hemos tenido que crear nuevas pruebas más difíciles para medir sus capacidades. Las alucinaciones y los errores factuales aún ocurren, pero son menos frecuentes en los modelos más nuevos. Y muchas empresas ahora confían lo suficiente en los modelos de IA como para integrarlos en funciones esenciales de cara al cliente.

(The New York Times ha demandado a OpenAI y a su socio, Microsoft, acusándolos de violar los derechos de autor de contenido noticioso relacionado con sistemas de IA. OpenAI y Microsoft han negado las acusaciones).

Parte de la mejora se debe a la escala. En IA, los modelos más grandes, entrenados con más datos y mayor capacidad de procesamiento, tienden a producir mejores resultados, y los modelos líderes actuales son significativamente más grandes que sus predecesores.

Pero también se debe a los avances que los investigadores de IA han logrado en los últimos años, en particular, el advenimiento de los modelos de “razonamiento”, que están diseñados para realizar un paso computacional adicional antes de dar una respuesta.

Los modelos de razonamiento, que incluyen o1 de OpenAI y R1 de DeepSeek, están entrenados para resolver problemas complejos y se construyen mediante aprendizaje por refuerzo, una técnica que se empleó para enseñar a la IA a jugar al juego de mesa Go a un nivel sobrehumano. Parecen estar teniendo éxito en aspectos que dificultaban el desarrollo de los modelos anteriores. (Un ejemplo: GPT-4o, un modelo estándar publicado por OpenAI, obtuvo un 9 % en AIME 2024, un conjunto de problemas matemáticos de competición extremadamente difíciles; o1, un modelo de razonamiento que OpenAI lanzó varios meses después, obtuvo un 74 % en la misma prueba).

A medida que estas herramientas mejoran, se vuelven útiles para diversos tipos de trabajo de conocimiento administrativo. Mi colega Ezra Klein escribió recientemente que los resultados de Deep Research de ChatGPT, una función premium que genera informes analíticos complejos, eran al menos la media de los de los investigadores humanos con los que había trabajado.

También he encontrado muchos usos para las herramientas de IA en mi trabajo. No la utilizo para escribir mis columnas, pero sí para muchas otras cosas: prepararme para entrevistas, resumir investigaciones y crear aplicaciones personalizadas que me ayuden con las tareas administrativas. Nada de esto era posible hace unos años. Y me parece inverosímil que alguien que use estos sistemas regularmente para un trabajo serio pueda concluir que ha llegado a un punto muerto.

Si realmente quieres comprender cuánto ha mejorado la IA recientemente, habla con un programador. Hace un par de años, existían herramientas de programación de IA, pero su objetivo era más acelerar el trabajo de los programadores humanos que reemplazarlos. Hoy, los ingenieros de software me dicen que la IA realiza la mayor parte de la programación por ellos y que, cada vez más, sienten que su trabajo es supervisar los sistemas de IA.

Jared Friedman, socio de Y Combinator, una aceleradora de empresas emergentes, dijo recientemente que una cuarta parte del grupo actual de empresas emergentes de la aceleradora estaban usando IA para escribir casi todo su código.

“Hace un año, habrían construido su producto desde cero, pero ahora el 95 por ciento está construido por una IA”, dijo.

Es mejor prepararse demasiado que no hacerlo lo suficiente.

En espíritu de humildad epistémica, debo decir que yo y muchos otros podríamos estar equivocados acerca de nuestros plazos.

Quizás el progreso de la IA se encuentre con un cuello de botella inesperado: una escasez de energía que impida a las empresas de IA construir centros de datos más grandes, o un acceso limitado a los potentes chips utilizados para entrenar modelos de IA. Quizás las arquitecturas de modelos y las técnicas de entrenamiento actuales no puedan llevarnos a la IA general, y se necesiten más avances.

Pero incluso si la IAG llega una década más tarde de lo que espero —en 2036, en lugar de 2026—, creo que deberíamos empezar a prepararnos para ella ahora.

La mayoría de los consejos que he escuchado sobre cómo las instituciones deberían prepararse para la IA general se reducen a cosas que deberíamos estar haciendo de todos modos: modernizar nuestra infraestructura energética, reforzar nuestras defensas de ciberseguridad, acelerar el proceso de aprobación de medicamentos diseñados con IA, redactar regulaciones para prevenir los daños más graves de la IA, impartir alfabetización en IA en las escuelas y priorizar el desarrollo social y emocional sobre las habilidades técnicas que pronto quedarán obsoletas. Todas estas son ideas sensatas, con o sin IA general.

Algunos líderes tecnológicos temen que los temores prematuros sobre la IAG nos lleven a regular la IA de forma demasiado agresiva. Pero la administración Trump ha señalado que quiere acelerar el desarrollo de la IA , no ralentizarlo. Y se está invirtiendo tanto dinero en crear la próxima generación de modelos de IA (cientos de miles de millones de dólares, y hay más en camino) que parece improbable que las empresas líderes en IA frenen el desarrollo voluntariamente.

Tampoco me preocupa que las personas se preparen demasiado para la IA general. Un riesgo mayor, creo, es que la mayoría de las personas no se darán cuenta de la poderosa IA que existe hasta que la tengan delante de sus ojos: eliminando su trabajo, envolviéndolos en una estafa, perjudicándolos a ellos o a un ser querido. Esto es, en términos generales, lo que ocurrió durante la era de las redes sociales, cuando no reconocimos los riesgos de herramientas como Facebook y Twitter hasta que fueron demasiado grandes y arraigadas para cambiar.

Por eso creo que es necesario tomar en serio la posibilidad de la IAG ahora, incluso si no sabemos exactamente cuándo llegará ni qué forma precisa adoptará.

Si negamos la realidad —o simplemente no prestamos atención— podríamos perder la oportunidad de darle forma a esta tecnología cuando más importa.

Artículos Relacionados

Back to top button