ANP-552319237.jpg

La agencia ha creado un “barómetro” de nueve partes para monitorear el impacto potencial de la IA. Hace seis meses, dos señales estaban en rojo.

El registro de algoritmos y sistemas de inteligencia artificial era inadecuado y no había buena visibilidad de los incidentes. Esto sigue siendo así y ahora dos semáforos más se han puesto en rojo. El “marco y poderes” de supervisión aún no están bien regulados y no existen estándares claros para los sistemas de IA.

No hay suficiente protección

El regulador también afirma que los jóvenes no están suficientemente protegidos. Utilizan la IA no sólo para sus tareas, sino también como una especie de amigo con quien charlar. Podrían volverse dependientes de él y no ser capaces de evaluar correctamente los riesgos, advierte AP.

La autoridad cita como los mayores peligros “el aumento incontrolable de deepfakes, fraudes controlados por IA y daños psicológicos causados ​​por chatbots”. Además, la AP advierte que “las medidas de seguridad de la IA están cada vez más rezagadas con respecto a los desarrollos tecnológicos”.

La agencia también dice que parece que algunas organizaciones están tratando de eludir sus responsabilidades. Tienen que registrar su inteligencia artificial, pero luego actuar como si fueran algoritmos normales. Las reglas para esto son menos estrictas.

No hay reglas estrictas

“Los sistemas de inteligencia artificial de alto riesgo se utilizan, entre otras áreas, en la atención médica y en la detección de delitos. A partir del próximo año, habrá toda una serie de requisitos en materia de documentación técnica, gestión de riesgos y sesgos. Tal vez no sea intencional, tal vez no quieran despertar a los perros dormidos”, dice Joost van der Burgt, quien dirige la supervisión de inteligencia artificial para AP.

El jefe de la autoridad holandesa de protección de datos, Aleid Wolfsen, señala que en el pasado los algoritmos llevaron a que los ciudadanos fueran sospechosos falsamente de manipular los fondos para el cuidado de los niños. “Cinco años después del escándalo de rendimiento, las lecciones son claras, pero las medidas de seguimiento se están quedando atrás. Esto se debe principalmente a que no existen reglas estrictas para los algoritmos y la IA y su aplicación”, afirma Wolfsen.

Referencia

About The Author