2662.jpg

A Se está produciendo una transformación silenciosa en los sistemas de atención de Australia. Todos los días, cientos de personas mayores y personas con discapacidades son examinadas para obtener apoyos esenciales como atención domiciliaria, ayudas para la movilidad, modificaciones en el hogar y terapias para ayudarlos a vivir de manera segura y digna en sus hogares y comunidades.

Históricamente, estas decisiones eran dominio de los profesionales de la salud y se basaban en una combinación de experiencia clínica y la capacidad humana básica para reconocer y responder a las necesidades de los demás. Las computadoras no tienen ninguna de estas características. Pero en la era actual de exageración de la IA y la fetichización de todo lo automatizado, recurrimos cada vez más a las computadoras para abordar cuestiones humanas fundamentales de cuidado, vulnerabilidad y necesidad.

El cambio hacia la toma de decisiones algorítmica se puede ver, como reveló Guardian Australia en febrero, en la nueva Herramienta de Evaluación Integrada (IAT), lanzada el 1 de noviembre de 2025, como parte de la Ley de Atención a las Personas Mayores del gobierno albanés. El IAT es un algoritmo basado en reglas que coloca a los solicitantes de atención a personas mayores en uno de ocho niveles de financiación, determinando tanto la cantidad de atención domiciliaria que reciben como su ubicación en la cola de servicios.

La herramienta debería proporcionar un proceso más rápido, justo y consistente para determinar la elegibilidad para el cuidado subsidiado de personas mayores. Funciona como un cuestionario computarizado y utiliza preguntas y reglas puntuadas para clasificar a los solicitantes en categorías de necesidades. Las evaluaciones se realizan en persona, pero la tarea del revisor se limita en gran medida a ingresar información en el algoritmo.

En este sentido, el IAT refleja las herramientas utilizadas en el sistema nacional de seguro de invalidez, donde la discreción humana también se limita a favor de evaluaciones algorítmicas estandarizadas. En ambos sistemas se produce una perversa inversión de roles en la que la cuestión profundamente humana de qué significa envejecer o vivir con una discapacidad se asigna a una máquina, mientras que el asesor profesional está cada vez más robotizado y reducido a una mera herramienta del algoritmo.

Tanto en el ámbito de la discapacidad como de la atención a las personas mayores, la promesa de eficiencia algorítmica se ha visto eclipsada por historias de retrasos, frustración y negligencia sistémica. Los trabajadores y cuidadores de personas mayores han descrito las herramientas como “crueles” e “inhumanas”, ya que despojan de experiencia clínica y brindan un apoyo inadecuado a las personas mayores. En un caso, una mujer del sur de Australia temía perder su independencia después de que la evaluación del gobierno recortara su financiación.

A partir de mediados de este año, los cambios en el NDIS significarán que una persona podrá reclasificar algorítmicamente sus necesidades de apoyo y reducir el apoyo sin que tenga derecho a apelar la decisión final. El cuidado de las personas mayores ha ido aún más lejos y ha eliminado por completo todos los mecanismos humanos de sobrecontrol.

Los riesgos de la automatización en estos contextos son enormes. Cuando se ignora el juicio humano, los resultados están determinados enteramente por reglas y puntos. Si los datos están incompletos, las variables no captan lo que es realmente importante o los factores se ponderan incorrectamente, el sistema malinterpretará la situación y la persona recibirá poco o ningún apoyo.

Estas decisiones generadas algorítmicamente parecen justas, pero sistemáticamente ponen en desventaja a aquellos cuyas vidas no pueden reducirse claramente a números. Suelen ser personas con necesidades de apoyo complejas, fluctuantes o atípicas. Las barreras culturales o lingüísticas, la capacidad limitada, la falta de recursos o las malas prácticas de evaluación pueden agravar el problema y dar lugar a una visión distorsionada o parcial de las circunstancias individuales. Lo que el sistema capta se considera verdad, incluso si no refleja la realidad vivida por la persona.

Sólo tenemos que mirar a Estados Unidos y otros lugares para ver hacia dónde va esto. El estado de Arkansas ha introducido un algoritmo para racionar la atención a personas con discapacidades graves. En un sistema que priorizaba el ahorro sobre la atención, los destinatarios encontraron que el algoritmo reducía drásticamente sus horas de soporte. En una audiencia del comité del Senado, los legisladores escucharon evidencia de “personas tiradas en su propia basura, sin comida y sin contacto con la comunidad”.

Todos los sistemas de recursos públicos enfrentan una tensión entre procesos consistentes y resultados justos. Al eliminar casi por completo la discreción humana, corremos el riesgo de crear sistemas que renuncien a los matices en favor de la coherencia.

La coherencia del proceso no garantiza resultados justos. De hecho, puede exacerbar la desigualdad y aumentar el daño. La estandarización excesiva conduce a procesos impersonales que ignoran las necesidades individuales y la complejidad de las experiencias vividas. A esto se le llama identificación errónea algorítmica: una forma de daño moral que encontramos cuando nuestra experiencia vivida es ignorada, borrada o tratada como irrelevante por los sistemas diseñados para apoyarnos.

Los servicios sociales requieren un enfoque diferente. Requieren sistemas que presten atención a las experiencias vividas y a los resultados justos, lo que significa que brindan el apoyo adecuado para las circunstancias únicas de una persona. Los sistemas bien administrados apoyan el juicio humano y la rendición de cuentas mediante el uso de la tecnología de manera limitada y segura para informar, en lugar de reemplazar, la toma de decisiones.

El IAT es una advertencia. El cuidado no puede reducirse sólo a reglas y puntos. El envejecimiento y la discapacidad son experiencias humanas y las decisiones sobre la atención tienen consecuencias profundas que cambian la vida. Cuando renunciamos al juicio humano y a la capacidad de anular decisiones automatizadas, estamos a merced de un sistema defectuoso.

Referencia

About The Author