OPINIÓN
La legislación de la Inteligencia Artificial
Por: Daniel Fernando Tovar Sánchez
La inteligencia artificial no es un concepto nuevo, por el contrario, desde hace siglos se ha concebido la idea de una inteligencia no humana. Desde la mitología, hasta la filosofía; por otro lado, desde hace más de 70 años la humanidad ha indagado sobre la creación y desarrollo de estas tecnologías, siendo Alan Turing, padre del modelo de los principios e ideas de la inteligencia artificial como la conocemos hoy en día. La inteligencia artificial no es una serie de algoritmos super robustos sin explicación aparente, que mágicamente reciben consciencia y puede copiar a humanos, o inclusive como mencionan los diarios “superar” nuestra inteligencia, mención que por supuesto realizan con fines dramáticos y llenos de amarillismo para dar clic en cada diario.
Es por esto, por lo que los países tuvieron que subirse a la ola de la inteligencia artificial mucho antes de lo esperado, particularmente desde el lanzamiento de ChatGPT que democratizó la inteligencia artificial generativa. Como aplicación, tuvo el mayor crecimiento. Solo durante 2023 fue la aplicación más usada (por encima de TikTok). Los gobiernos no esperaban que sus habitantes tuvieran acceso a este tipo de tecnologías de manera repentina y apresurada. Pero lo que es más importante y grave, es que esta tecnología puede usarse para distintos fines: lícitos e ilícitos.
Desde los fines lícitos podemos decir que hay temas que ChatGPT no ha podido solventar, como los derechos de autor “vulnerados” a diferentes diarios, asociaciones y a contenido online en general, los cuales fueron clave al momento de entrenar este modelo de lenguaje natural. Y es que, si un documento está en línea y se puede consultar de manera libre, ¿qué ley protege ese tipo de documentos, data o información? ¿es posible utilizar estos recursos para entrenar modelos o no?
Este no es el único de los peligros que puede suponer este tipo de tecnología. La creación de correos de spam, sitios web de estafa, que con tan solo con un par de clics pueden copiar la interfaz de páginas reconocidas; así́ como los retos a la ciberseguridad que puede suponer tener “robots” probando miles de contraseñas sin descanso. Por lo anterior, desde el 2022 se ha tenido la discusión mundial sobre los peligros de la IA, su uso responsable y la responsabilidad de la información que es de libre acceso o consulta en internet.
No faltan claro, los “grandes” capitalistas hablando de la “autorregulación” de estos modelos, llegando a recalcar la libertad de internet como derecho y a otras maromas propagandistas para diluir la discusión. Pero estas actitudes ya son conocidas en el mundo, y también las implicaciones que han tenido esos modelos sobre la privacidad de los ciudadanos como por ejemplo Facebook ahora conocido como “Meta”, Cambridge Analitica, o Amazon con Alexa y las violaciones de privacidad, entre un sinfín de casos adicionales.
Para alivio de los usuarios de la comunidad digital, la Unión Europea, el 2 de febrero de este año aprobó́ la primera legislación que regula esta clase de tecnología, pues obliga a las empresas encargadas de la producción de estos sistemas, a generar diálogos sobre privacidad, uso, capacidades, comercialización, ética y responsabilidad, con los gobiernos y la sociedad civil, pues a la fecha muchos de estos temas habían quedado en el tintero. 2024 será́ conocido como el año en donde se legisle sobre inteligencia artificial a nivel mundial, (incluyendo a Colombia que lanzó la convocatoria para crear el comité́ nacional de IA) un poco en respuesta contrapuesta al 2023 que fue cuando se dió el despegue no controlado de estos sistemas.