Las promesas de la IA están en auge. El tema, que acaparó la atención de los medios – y de buena parte de la sociedad occidental – durante el último año, ocupa el centro de las discusiones. Gobiernos, empresas, emprendedores, organizaciones: nadie quiere quedarse afuera. Ahora, ¿qué ocurre cuando empezamos a pensar en la IA enfocada en el bien común? ¿Qué ocurre si no la regulamos a tiempo?

El pasado 6 y 7 de julio, en la ciudad suiza de Ginebra, la International Telecommunications Union (ITU) llevó adelante el AI for Good Global Summit. Un evento en el que expertos y especialistas de todo el mundo expusieron las soluciones más destacadas de IA que contribuyen al cumplimiento de los objetivos de desarrollo sostenible de las Naciones Unidas. 

Durante el evento se abordaron distintos usos y desarrollos de la IA que contribuyen a alcanzar los 17 objetivos de desarrollo sostenible de las Naciones Unidas

En dos jornadas se presentaron casi un centenar de aplicaciones basadas en Inteligencia Artificial, Machine Learning y robótica con las aplicaciones más variadas. Desde medicina y salud, pasando por robots de compañía y educativos, hasta soluciones para prevenir catástrofes climáticas, el ambiente estuvo cargado de innovación y nuevas ideas. 

Pero lo más llamativo, quizás, es que todos los expositores coincidieron en lo mismo: es necesario regular el desarrollo de la IA ahora mismo. Las consecuencias de no hacerlo pueden ser devastadoras para la Humanidad y el mundo como lo conocemos. 

Legislar la IA, en el centro del debate

Una de las ponencias más destacadas fue la de Gary Marcus, un psicólogo, científico cognitivo y autor estadounidense, conocido por su investigación sobre la intersección de la psicología cognitiva, la neurociencia y la inteligencia artificial. 

Según su visión, todavía existen muchos riesgos para la sociedad cuando se piensa en el desarrollo de la IA. Por ejemplo, puede incidir negativamente en la desinformación (y su impacto en las elecciones y la democracia); en la manipulación del mercado, en las estafas, cibercrimen, riesgos de que la tecnología se vuelva ingobernable (y se revele contra la Humanidad de forma apocalíptica), entre otros desafíos. 

Motivos para pensar en la necesidad de la gobernanza de la IA, para el experto, hay de sobra: todavía no sabemos qué necesitamos para garantizar que la IA no sea un problema. A esto se suma un choque de fuerzas: la tecnología se mueve muy rápido, los gobiernos y las leyes no tanto. 

Si todo sale bien, Marcus anticipa que el futuro es positivo. Pero, para lograrlo, es necesario seguir una serie de pasos. A saber:

2023: Se crea una agencia global de IA y comienza a regularse. En 2024 la IA responsable se convertirá en una profesión prestigiosa. Un año más tarde, nuevas compañías y tecnologías emergen. Para 2025 la IA se hará más eficiente, tanto en términos de datos como de energía. Entre 2026 y 2029 la IA comenzará a contribuir de forma masiva al mundo y la sociedad, solucionando problemas relacionados con el cambio climático, la medicina, los cuidados y mucho más. 

Si todo no sale precisamente bien, Marcus asegura que el futuro es desolador. 

En 2023 la sociedad enfrenta conflictos para ponerse de acuerdo en la seguridad de la IA y su ética. Un año más tarde, nos estancamos en LLMs y nunca inventamos nada nuevo, más confiable o mejor. Hacia 2025, un pequeño número de compañías se convierte rápidamente en organizaciones mucho más fuertes que los Estados, gobernando el mundo a su gusto y acabando con la competencia y las regulaciones. En 2025 el cibercrimen se enfrentará a estas grandes compañías en una batalla similar a la que ocurre con los carteles de droga. Para 2027 el crecimiento de los poderosísimos sistemas de IA construidos se convierten en armas y mucha gente, tanto de forma accidental como deliberada, muere. Para 2029, el empleo colapsa, disturbios generalizados, múltiples guerras civiles, anarquía. 

Dos escenarios posibles, cinco sugerencias para la AI policy

  • Cada país debe tener su propia Agencia regulatoria
  • Necesitamos un ente regulador similar a la FDA de Estados Unidos (Administración de Alimentos y Medicamentos) o la ANMAT de Argentina (Administración Nacional de Medicamentos, Alimentos y Tecnología Médica) 
  • Auditorías posterior al despliegue, con respaldo del gobierno
  • Científicos deben estar involucrados
  • Deberíamos tener una agencia internacional para la IA

Para que la IA no sea peligrosa, la confianza es la clave. Al cierre de su exposición, Marcus anunció la creación del “Center for the Advancement of Trustworthy AI”, una organización – de la que se esperan más detalles – creada por la empresa de inversión filantrópica Omidyar Network.

Por lo poco que anticipó, parece que se tratará de una organizacion con un espíritu similar al CERN (Consejo Europeo para la Investigación Nuclear, donde está “la Máquina de Dios”. Curiosamente, también está en Ginebra, la misma ciudad en la que se desarrolló el evento).

¿Qué significa esto? Según su óptica, contar con una agencia internacional similar a CERN, catalizada por la filantropía y enfocada en mitigar los riesgos de la IA puede ser beneficioso. Así, de acuerdo con el experto, podríamos generar expertise de clase mundial, crear métricas, herramientas y estándares de control fáciles de utilizar, garantizar la justicia y la transparencia mientras se protege la privacidad, entre otras cualidades.  

Existen grandes desafíos a la hora de legislar la IA, tanto a nivel técnico como empresarial y gubernamental. La tecnología es amplia y diversa, y puede resultar difícil establecer reglas generales que abarquen todos los casos posibles. Además, avanza más rápido que las leyes. Si bien los expertos reclaman “frenar” durante seis meses el desarrollo de sistemas como ChatGPT, aún hay debate sobre la efectividad o no de esta medida. Lo cierto es que la regulación es necesaria antes de que sea tarde y la Humanidad quede relegada a la voluntad de las máquinas.