Los riesgos de la inteligencia artificial para Costa Rica

Publicado originalmente en La Nación


Por más de una década he trabajado en sistemas de inteligencia artificial. Estoy convencido de su potencial y beneficios – que cada vez son más tangibles.

El progreso se ha acelerado exponencialmente gracias al empuje de los mercados, la competencia geopolítica y avances clave como el transformer (innovación detrás de sistemas como ChatGPT o Claude), modelos de difusión (detrás de la generación de imágenes desde una instrucción de texto), las Scaling Laws (la observación empírica que los modelos grandes crecen de manera predecible con más datos, computación y parámetros) y decenas más.

Se podría decir que este progreso va a continuar, Costa Rica haga o no parte de esas mejoras. Lo que sí nos concierne es mitigar los riesgos e impactos que este nuevo mundo traerá.

Existen tres grandes categorías de riesgos de seguridad que puedo observar con la IA (seguramente habrá más). El primero es la falta de alineamiento y control sobre estos sistemas, el segundo es la capacidad de aumentar y automatizar capacidades de los malos actores y el tercero es potenciar un Estado de vigilancia (surveillance state).

La inteligencia de estos sistemas no es del mismo tipo al que estamos acostumbrados. A través de algoritmos que detectan patrones estadísticos entre cantidades masivas de datos, logran expresar capacidades similares o más avanzadas que las de la inteligencia humana. Es decir, nuestra inteligencia y la artificial, son dos formas de llegar al mismo objetivo (tomar una acción, contestar una pregunta, crear arte, pasar un examen, crear software).

Dicho esto, estos sistemas, tal como los entendemos hoy en día, no comprenden “realmente”. Es un tipo de mímica. Les falta comprensión, conciencia, intención y un razonamiento más avanzado. ¿Será que siempre les faltarán esas características? Personalmente creo que es sólo cuestión de tiempo, pero un problema a la vez.

Sin control adecuado desde ahora, esta tecnología podría conducirnos a escenarios catastróficos. Actualmente se les incorporan capacidades como recursividad, cadena de pensamiento, verificación de resultados, y más importante, acceso a herramientas (manos y pies digitales), así, pueden tener un impacto material en el mundo como enviar un mensaje a una persona, activar una máquina o modificar información en otros sistemas.

Como mencioné anteriormente, aunque no tengan conciencia, pueden llegar al resultado de “otra manera”, intencionalmente o no. Y desde la perspectiva de seguridad, la forma de llegar a ese resultado es irrelevante. Nos debe importar que un sistema de estos se pueda echar a andar para activar una cadena de eventos que podrían lastimar a las personas, especialmente si no tiene los mecanismos para ser detenido. Si a esto se le suma su falta de razonamiento avanzado, lograr que obedezcan con precisión es uno de los retos clave de la investigación actual.

El riesgo número uno no es que tomen conciencia y “nos maten a todos”. Es que por sus capacidades y limitaciones lleguen a tener impactos negativos incontrolables.

El segundo riesgo es que esta capacidad de automatizar acciones complejas podría ser usada por malos actores para sofisticar sus ataques. Por ejemplo, y no entraré en mucho detalle para evitar efectos análogos al efecto Werther, estafas más sofisticadas simulando la forma de hablar de un familiar, ajustándose dinámicamente o incluso imitando la identidad digital de una persona.

Mucha de esta tecnología es abierta, es decir, tanto buenos actores como malos actores pueden tener acceso a ella. Sería ilusorio creer que se puede resolver este problema restringiendo el flujo de investigación. Por esto, los entes encargados de luchar contra el crimen deben comprender estos métodos emergentes, apoyar en la prevención y establecer mecanismos de respuesta.

El último gran riesgo es el de un Estado de vigilancia. Una falta de regulación adecuada sobre la información personal, sistemas informáticos cerrados y la falta de capacidades de la institucionalidad de prevenir y regular el abuso público, podrían habilitar el uso de estas tecnologías con fines contrarios al interés público.

Como país, probablemente no lleguemos a tener la infraestructura para que esta tecnología se cree desde Costa Rica (¿quizás alguien demuestre que estoy equivocado?). Sin embargo, el impacto va a llegar a través del acceso a servicios internacionales por internet.

Estos desafíos serán cotidianos, y las autoridades deben comprender su gravedad e implementar hoy las medidas necesarias para proteger a la población de una manera apegada a los valores costarricenses. No controlando o censurando, pero pensando estratégicamente en cómo lograr el balance que permita mitigar daños.

En términos generales, creo que la inteligencia artificial es una de las olas más positivas de la inventiva humana, pero no viene sin riesgos y debemos asegurarnos de tomar esta transición con seriedad y asegurar que el balance se mantenga positivo para todos.