diciembre 4, 2025
5248.jpg

norteuna y otra vez. Ese fue el contundente mensaje de la Comisión Real Robodebt a miles de australianos cuyas vidas y medios de subsistencia se han visto trastornados por el experimento más cruel de automatización burocrática que el país haya visto jamás.

Con los planes en marcha para automatizar el cálculo de los planes de apoyo individuales del NDIS, parece que hemos alcanzado un nuevo pico de amnesia institucional. Una vez más, se están entregando salvavidas vitales para respaldar los sistemas automatizados. Sólo que esta vez los mecanismos de revisión y reparación serán infinitesimales.

En los planes revelados por Guardian Australia esta semana, la Agencia Nacional de Seguro de Incapacidad tiene como objetivo reformar la forma en que se establecen los presupuestos individuales de apoyo a la discapacidad, reduciendo el margen de discreción humana y dando a los datos y algoritmos un papel más importante.

Actualmente, el presupuesto de manutención de un individuo está determinado por una combinación de herramientas computarizadas y discreción humana. Estas herramientas ayudan a crear un plan de apoyo inicial, que un delegado de la NDIA adapta a las necesidades y circunstancias individuales.

A partir de mediados de 2026, se introducirá una nueva herramienta de evaluación, cuyos datos se introducirán en el software de creación de presupuestos. El papel del delegado de la NDIA se limita a aceptar o rechazar el presupuesto.

Es difícil exagerar los peligros potenciales de reemplazar la discreción con algoritmos en un sistema tan importante y trascendental como el NDIS.

No hay duda de que las personas con discapacidad están muy familiarizadas con los problemas del prejuicio. humano Toma de decisiones. Pero la abolición total de la discreción humana no es la solución. De hecho, aumenta dramáticamente las apuestas.

En un sistema más automatizado, mucho dependerá de la calidad de los datos ingresados ​​en el algoritmo. Si estos datos son inexactos (si la evaluación no capta una imagen real de las necesidades de apoyo de una persona), el presupuesto resultante será defectuoso y la persona pagará el precio.

Según revelaciones publicadas por Guardian Australia esta semana, no habrá red de seguridad: ni el delegado de la NDIA ni el Tribunal Administrativo de Apelación podrán cambiar el presupuesto. En otras palabras: el ordenador tiene la última palabra.

En casos claros en los que la discapacidad de una persona cae dentro de categorías estándar, un proceso más automatizado puede ser suficiente. Podría ser posible agilizar el proceso y reducir los retrasos administrativos. Pero, como suele ocurrir con las herramientas digitales, los beneficios y daños se distribuirán de manera desigual. Es más probable que se recorten los fondos o se juzgue mal el apoyo cuando la discapacidad es compleja, variable o no se refleja fácilmente en evaluaciones estandarizadas.

Un proceso más automatizado puede ser particularmente peligroso para las personas cuyas discapacidades se ven perjudicadas o exacerbadas por factores sociales (como la pobreza, la discriminación racial, de género o de género y los vínculos con el sistema penitenciario) que van mucho más allá de los límites de los datos recopilados por las herramientas de evaluación existentes. Al igual que Robodebt, el sistema cobrará el mayor precio a las comunidades menos capaces de soportarlo.

Cuando se habla de presupuestos y algoritmos, debemos recordar que se trata nada menos que de un apoyo vital para los participantes del NDIS. Los recortes presupuestarios dan como resultado menos horas de apoyo financiado, menos duchas, un acceso reducido a terapias esenciales, una independencia reducida y un mayor riesgo de aislamiento y daño social. Para algunos, será la diferencia entre vivir de forma independiente y verse obligados a ingresar en una institución. En el peor de los casos, una reducción del apoyo puede poner en peligro la vida, como ha dejado dolorosamente claro la Comisión Real de Discapacidad.

Históricamente, las personas con discapacidad han sido descritas como canarios en la mina de carbón, sometidos a experimentos que nunca serían tolerados por otros grupos. Pero lo que estamos viendo ahora con la automatización de la planificación del apoyo es quizás incluso más preocupante: es decir, la aceptación consciente de un daño previsible. Tan pronto como la eficacia justifica los daños previsibles, entramos en territorio peligroso.

Pero aún no es demasiado tarde. El gobierno de Morrison intentó reformas similares en 2021, pero al final las consideró demasiado arriesgadas y políticamente insostenibles. Estas nuevas reformas representan una oportunidad e incluso una obligación para insistir una vez más en que la eficiencia de los algoritmos nunca debe realizarse a expensas de las necesidades humanas.

  • Georgia Van Toorn es profesora en la Facultad de Ciencias Sociales de la Universidad de Nueva Gales del Sur e investigadora asociada en el Centro de Excelencia ARC para la Sociedad y la Toma de Decisiones Automatizadas. Su investigación examina el creciente impacto del análisis de datos y la toma de decisiones algorítmicas en el sector público, con especial atención a la discapacidad y la justicia social.

About The Author