AI for Good, por si no lo tienen tan presente, es una cumbre global organizada por la UIT (la Unión Internacional de Telecomunicaciones), que desde hace algunos años —antes que ChatGPT— junta a toda la fauna tech-humanista: desde científicos premio Nobel hasta burócratas, pasando por startups, artistas, CEOs y activistas. Todos discutiendo cómo usar la inteligencia artificial para el beneficio de la Humanidad. Aunque este año, con el tema geopolítico, queda claro que la integración y la cooperación internacional no es una prioridad para todo el mundo.
Hay un acuerdo general, que se puede resumir así: “La Humanidad nunca estuvo frente a este punto de quiebre respecto a su propia continuidad y futuro. El riesgo de arruinarnos es alto, y si el dinero puede más que el sentido común y la humanidad, es el fin”. No es una metáfora ni ciencia ficción, sino más bien una sensación transversal que sobrevuela tanto en los tecnólogos como en los diplomáticos, en los CEOs y en los investigadores. Si seguimos desarrollando IA sin freno ni propósito, por pura inercia capitalista, el colapso no es una hipótesis, sino una alta probabilidad.
Entre las preocupaciones de alto nivel, también se destacaron enfoques que subrayan el potencial de la inteligencia artificial como herramienta para la resolución de problemas que van desde la falta de empleo hasta la mortalidad infantil, pasando por la respuesta a catástrofes naturales.
Una idea que se repitió en distintos paneles es que estamos frente a una tecnología de impacto enorme, cuyo rumbo todavía no comprendemos del todo. La baja de costos y barreras técnicas hace que cualquiera pueda generar contenidos falsos con apariencia profesional, lo que amplifica riesgos sociales y políticos a escala global. De ahí la insistencia en conceptos como cautela, gobernanza y límites claros, antes de que el daño sea irreversible.
Ese diagnóstico pesimista convivió, no obstante, con intervenciones de corte más pragmático. Especialmente en aquellos campos donde la diferencia está en la creatividad, la experimentación y la búsqueda de soluciones innovadoras, la IA es más una herramienta que una Divinidad. Vi mucho refuerzo sobre esa idea de que “los GPT actuales están más cerca de ser un pasante que un Dios”. Y eso, si lo pensamos bien, no es ni bueno ni malo. Es simplemente una advertencia para no perder de vista que, al menos por ahora, seguimos siendo los humanos quienes definen qué hacer con la herramienta. Justamente ese es el punto: la IA es una herramienta, no un fin en sí mismo. Por ahora.
No todos, por supuesto, están de acuerdo con esta visión tranquilizadora. Geoffrey Hinton (Messi + Maradona + Aitana Bonmatí del mundo de la ciencia computacional, por si no lo ubican) no opina lo mismo. Para él sí es cuestión de tiempo que lleguemos a la superinteligencia. No solo cree que es posible, sino que es inevitable. Y con ese futuro inevitable vienen también los riesgos: si se crea algo más inteligente que nosotros, que aprende más rápido que nosotros, que actúa más rápido que nosotros, ¿realmente creemos que vamos a poder controlarlo?
Y si tenemos en cuenta que los grandes avances tecnológicos fueron, históricamente, avances militares, no suena muy descabellado pensar que la próxima gran disrupción no nazca en un laboratorio de Silicon Valley, sino en un búnker del Pentágono. La guerra trae desarrollos que después se adaptan a la vida civil. Muy esperanzador, por suerte, con el contexto que tenemos.
Su par Yann LeCun, con quien Hinton ganó el premio Turing en 2018, tiene otra mirada. Más escéptico, más técnico, más tranquilo. Para LeCun, estamos todavía lejos de una inteligencia general real, y los modelos actuales —por más asombrosos que parezcan— no dejan de ser máquinas estadísticas, que predicen palabras sin comprender el mundo que las rodea. No “piensan”, no “sienten”, no “razonan”: calculan. Y si lo que hacen es calcular, entonces todavía están bajo nuestro control.
Entonces yo ya no entiendo quién de los dos tiene razón.
¿Es una cuestión de tiempo o de límites estructurales? ¿Estamos a punto de presenciar el nacimiento de una nueva especie o simplemente sobredimensionando una herramienta glorificada? ¿Tenemos que regular urgente o simplemente aprender a convivir con una tecnología más? De nuevo: al igual que todo el mundo, tengo más preguntas que respuestas.
Lo único que sé es que la conversación ya no es de nicho. No se trata de programadores nerds hablando entre sí. Hoy están todos en la mesa: científicos, diplomáticos, artistas, ONGs, militares, empresas, filósofos, agencias de Naciones Unidas. Porque la IA no es más un “tema de tecnología”, es un tema de humanidad. Entonces sí: la cosa se puso seria. |