Víctor Hugo Islas Suárez 

Los legisladores del Parlamento Europeo dieron este jueves un primer paso hacia la adopción de una ley que regule las herramientas de la inteligencia artificial (IA), como el ChatGPT. De acuerdo con la información compartida por la UE, este tipo de sistemas, capaces de responder a cualquier pregunta que realice el usuario, deberán revelar que el contenido que crean “fue generado por IA”, algo que, hasta la fecha, no cumplen, es un muy serio problema, ya que un alumno de cualquier escuela puede pedirle a la IA que se realice una tarea y no sabríamos sobre su propiedad intelectual real. 

Las empresas de desarrollo también estarán obligadas a “diseñar el modelo para evitar que genere contenido ilegal y publicar resúmenes de datos protegidos por derechos de autor utilizados para la capacitación”, es decir, los modelos como ChatGPT no podrán seguir siendo entrenados con información desarrollada que sea propiedad de editores, hasta la fecha el sistema no ha sido transparente con los datos que ha empleado para la preparación de sus sistemas, algo que, en caso de que la normativa salga adelante, se deberá corregir. 

Los eurodiputados de las comisiones parlamentarias de Libertades Civiles y de Protección de los Consumidores votaron por abrumadora mayoría a favor de limitar el uso de la IA en el bloque, sin dejar de incentivar la innovación en el sector, ahora, el texto se presentará al pleno parlamentario en junio, en concreto entre los días 12 y 15. Una vez sea aprobado, se iniciarán las negociaciones con los estados miembros de la UE a fin de acordar una ley definitiva. 

Con este movimiento, la UE quiere ser el primer bloque del mundo en dotarse de un marco jurídico integral para limitar los posibles excesos de la IA, sin perjudicar la innovación. Bruselas lleva trabajando para regular la inteligencia artificial años. En 2021 presentó el primer borrador para conseguirlo, en el que se segmentan las tecnologías que hacen uso de la IA en función de su peligrosidad y se señala las situaciones en las que puede emplearse. 

Con este movimiento, la UE quiere ser el primer bloque del mundo en dotarse de un marco jurídico integral para limitar los posibles excesos de la IA, sin perjudicar la innovación. Bruselas lleva trabajando para regular la inteligencia artificial años. En 2021 presentó el primer borrador para conseguirlo, en el que se segmentan las tecnologías que hacen uso de la IA en función de su peligrosidad y se señala las situaciones en las que puede emplearse. 

Mientras tanto en México no existe ni si quiera un borrador sobre ley alguna para regular la IA, y no es extraño, los legisladores en México tienen poca o nula perspectiva sobre temas tecnológicos, y esto pone en riesgo el desarrollo de las TI, ¿Cómo puede saber un profesor si la tarea fue hecha por IA? ¿Cómo puede saber una empresa si el análisis de información no fue hecho por un módulo de IA? El “copiar y pegar” ha sido todo un desafío desde que las computadoras irrumpieron hace 20 años, se publican las tareas, se pueden buscar las respuestas de los exámenes, y tantas y tantas trampas que existen incluso en las empresas. 

Hace poco me toco que una empresa con las que trabajo me conto que uno de sus colaboradores presento un “análisis” de información creado exclusivamente con las herramientas de asistencia de Excel, “el reporte estaba muy bonito, muchas graficas y colores, pero no tenia datos realmente enfocados a lo que pedí” el colaborador fue reprendido y su “defensa” fue “pues es que eso no me lo enseñaron en la escuela” da miedo saber como es que hacia entonces sus tareas y exámenes, tenemos que seguir el camino de manera paralela, seguir con la formación individual de calidad y reforzar el desarrollo de tecnologías como la IA, pero debe ser legislado, en México esto tardara al menos una década.