La IA podría ayudar a detectar antes el riesgo de violencia de pareja, pero su uso exige cautela extrema

  • Inicio
  • Blog
  • La IA podría ayudar a detectar antes el riesgo de violencia de pareja, pero su uso exige cautela extrema
La IA podría ayudar a detectar antes el riesgo de violencia de pareja, pero su uso exige cautela extrema
27/03

La IA podría ayudar a detectar antes el riesgo de violencia de pareja, pero su uso exige cautela extrema


La IA podría ayudar a detectar antes el riesgo de violencia de pareja, pero su uso exige cautela extrema

La violencia de pareja es uno de los problemas de salud más difíciles de detectar cuando todavía no se ha revelado de forma abierta. En muchos casos no aparece como una confesión directa durante la consulta, sino como una suma de señales fragmentadas: lesiones recurrentes, síntomas físicos difíciles de explicar, ansiedad, depresión, insomnio, ausencias a citas, miedo, silencio o cambios de comportamiento.

Para médicos, enfermeras, psicólogos y trabajadores sociales, reconocer ese patrón a tiempo no siempre es sencillo. Las consultas suelen ser breves, el contexto no siempre es seguro para hablar y muchas personas no pueden o no quieren contar lo que viven en ese momento. Por eso genera interés una nueva herramienta de inteligencia artificial que busca predecir qué pacientes podrían estar en mayor riesgo de violencia por parte de su pareja.

La idea tiene fuerza. Si el sistema de salud pudiera identificar antes a personas en situación de vulnerabilidad, podría ofrecer apoyo, evaluación más cuidadosa y rutas de protección antes de que la violencia escale. Pero en este campo hay una diferencia crucial entre una predicción prometedora y un beneficio real para el paciente. En violencia de pareja, detectar riesgo no basta; lo decisivo es qué se hace con esa información y si hacerlo puede ayudar sin provocar daño adicional.

Por qué la propuesta resulta creíble

La noción de usar inteligencia artificial para anticipar riesgo de violencia no apareció de la nada. La literatura incluida respalda el uso más amplio de aprendizaje automático y evaluación estructurada para predecir conductas violentas, incluyendo contextos de violencia doméstica o de pareja.

Una revisión integradora encontró que el aprendizaje automático tiene un potencial considerable en investigación sobre violencia doméstica para clasificación, predicción y detección de patrones, incluso a partir de datos clínicos y de texto. Esto importa porque sugiere que los algoritmos podrían reconocer combinaciones de señales que a simple vista pasan desapercibidas en una consulta saturada.

Además, la literatura general sobre predicción de riesgo de violencia lleva tiempo mostrando que los métodos actuariales y estructurados suelen rendir mejor que el juicio clínico sin apoyo formal. Eso no significa que una máquina “entienda” mejor a una persona que un profesional entrenado. Significa, más bien, que cuando el problema es complejo y multifactorial, las herramientas estructuradas pueden ayudar a organizar mejor la información.

En el caso específico de la violencia de pareja, tampoco se parte de cero. Existen antecedentes de instrumentos estructurados para evaluar riesgo. Desde esa perspectiva, la IA puede verse menos como una ruptura radical y más como una extensión de una tradición ya existente de estratificación del riesgo.

Por qué esto importa en salud

La violencia de pareja no es solo un problema social o legal. Es también un problema de salud con consecuencias físicas, mentales y reproductivas profundas. Puede estar relacionada con traumatismos, dolor crónico, depresión, ansiedad, trastorno por estrés postraumático, consumo de sustancias, embarazos no deseados, complicaciones ginecológicas y un mayor riesgo de homicidio.

Aun así, muchos casos no se identifican a tiempo. Algunas personas no se sienten seguras para hablar. Otras no nombran la violencia como tal. Y en muchos servicios de salud faltan tiempo, entrenamiento o protocolos claros para detectar señales menos obvias.

Ahí es donde una herramienta predictiva parece más atractiva. En teoría, un modelo entrenado con datos clínicos podría alertar sobre combinaciones de factores asociadas con riesgo elevado y ayudar a que los equipos hagan preguntas más sensibles, evalúen mejor el contexto y ofrezcan apoyo oportuno.

La utilidad potencial, por tanto, no sería “descubrir” automáticamente a una víctima, sino reducir la posibilidad de que el riesgo pase inadvertido.

Lo que la IA puede hacer y lo que no

Sin embargo, aquí conviene frenar cualquier lectura triunfalista. Un algoritmo puede estimar probabilidad. Puede detectar patrones. Puede sugerir que una paciente merece una evaluación más cuidadosa. Pero eso no equivale a demostrar que esa herramienta mejora seguridad, previene agresiones o salva vidas por sí sola.

Las referencias aportadas no validan directamente la herramienta específica mencionada por NIH. El conjunto de estudios respalda la dirección general del proyecto —la idea de que la IA aplicada a predicción de violencia de pareja es una línea de investigación plausible—, pero no prueba que este modelo concreto funcione ya con suficiente precisión, equidad y utilidad clínica en el mundo real.

Tampoco hay evidencia aportada de que una predicción basada en IA mejore resultados importantes: menos violencia, mayor acceso a protección, menos revictimización o mejor salud a largo plazo. Esa ausencia es clave. En medicina, una buena predicción no siempre se traduce en una buena intervención.

El gran tema: ética, privacidad y posible daño

Si existe un ámbito donde la innovación tecnológica debe avanzar con especial cuidado, es éste.

Una herramienta de IA para violencia de pareja plantea preguntas serias sobre privacidad, vigilancia, estigma, sesgo algorítmico y autonomía del paciente. Los errores importan mucho en ambos sentidos.

Un falso positivo puede desencadenar una conversación mal manejada, generar desconfianza, dejar un registro sensible en el expediente o incluso aumentar el peligro si una pareja agresora descubre que hubo sospecha o intervención. Un falso negativo, en cambio, puede dejar a una persona en riesgo sin apoyo adicional y alimentar una falsa sensación de tranquilidad.

También está el problema de los datos con los que se entrenan estos sistemas. Los modelos aprenden de registros históricos, y esos registros suelen reflejar desigualdades previas: subregistro, sesgos institucionales, diferencias por nivel socioeconómico, raza, idioma, acceso a servicios y patrones de atención. Eso significa que una herramienta aparentemente neutral podría terminar reproduciendo o amplificando desigualdades ya existentes.

En México, este punto es especialmente relevante. La violencia de pareja no ocurre en abstracto. Se cruza con desigualdad económica, dependencia financiera, barreras para denunciar, miedo, control coercitivo, acceso limitado a refugios y atención de salud fragmentada. Un modelo que no tome en cuenta ese contexto puede verse sofisticado en una publicación, pero ser injusto o poco útil en la práctica clínica cotidiana.

El verdadero examen está en la implementación

Si este tipo de herramienta llega a usarse en servicios de salud, el factor decisivo no será solo la precisión del modelo, sino la calidad de la respuesta que genere.

Una implementación responsable tendría que ser sensible al trauma, proteger la privacidad, minimizar la exposición de datos, vigilar sesgos y garantizar que cualquier alerta se maneje con protocolos claros y personal capacitado. No debería funcionar como una alarma automática que desencadena acciones sin contexto. Tendría que servir como apoyo para una evaluación clínica humana, cuidadosa y confidencial.

Eso implica algo fundamental: la IA no puede sustituir la escucha, el consentimiento ni el juicio profesional. Su papel más razonable sería el de una herramienta de apoyo para priorizar preguntas, orientar evaluación y abrir oportunidades de ayuda, no el de un sistema autónomo que decide quién está en peligro y qué hacer con esa persona.

Sin esa estructura, la tecnología corre el riesgo de convertir un problema humano extremadamente delicado en una señal digital que impresiona en el papel, pero que no necesariamente protege a nadie.

Lo que esta investigación sí aporta

Aun con todas estas reservas, la investigación tiene valor. Refuerza la idea de que la violencia de pareja debe tratarse como una prioridad de salud que merece mejores herramientas de detección y respuesta. También empuja a los sistemas de salud a dejar de depender únicamente de que la persona revele espontáneamente lo que vive.

Ese cambio de enfoque importa. Durante años, muchos servicios han abordado la violencia interpersonal de forma reactiva: esperan una lesión evidente, una crisis aguda o una revelación directa. Las herramientas predictivas, incluidas las basadas en IA, proponen otra lógica: intentar reconocer vulnerabilidad antes de que el daño sea aún mayor.

No es una idea menor. Supone reconocer que la violencia suele dejar rastros clínicos, emocionales y conductuales antes de hacerse visible de manera explícita.

Lo que aún falta demostrar

El paso que todavía no se ha dado con claridad es el más importante de todos: probar que esta clase de herramienta mejora la vida real de las pacientes.

Con la evidencia disponible, no se puede afirmar que un sistema de IA reduzca violencia, mejore seguridad o produzca mejores resultados de salud en entornos clínicos reales. Tampoco se puede concluir que el modelo mencionado esté listo para adoptarse como una herramienta de uso rutinario sin supervisión estrecha.

Por eso, el encuadre más honesto no es el de una solución lista, sino el de una dirección de investigación prometedora y delicada. La ciencia respalda la plausibilidad. Todavía no respalda la implementación amplia.

La conclusión más equilibrada

La inteligencia artificial aplicada a la predicción del riesgo de violencia de pareja es una línea de investigación creíble y potencialmente importante. La evidencia aportada sugiere que los modelos de aprendizaje automático y las evaluaciones estructuradas podrían ayudar a detectar patrones de riesgo que el juicio clínico por sí solo no siempre capta.

Pero en este terreno, precisión predictiva no significa automáticamente beneficio para el paciente. Entre una alerta y una intervención segura existe un espacio ético enorme, marcado por privacidad, sesgos, trauma, confidencialidad y disponibilidad real de apoyo.

Si esta tecnología llega a tener un papel útil, no será porque “adivine” quién está en riesgo con apariencia de objetividad matemática. Será porque ayude a los servicios de salud a responder con más sensibilidad, más preparación y más cuidado, sin convertir a las personas vulnerables en objetos de vigilancia. Ese, más que el algoritmo en sí, será el verdadero criterio para medir su valor.