La inteligencia artificial podría prevenir masacres en las escuelas

Dylann Roof, responsable del tiroteo en la iglesia de Charleston (2015)

Para lástima de los Estados Unidos, los tiroteos en los centros educativos forman parte de su cultura. Se trata de un problema que, aunque muchos no lo crean, no es un fenómeno de las últimas décadas, sino que acompaña a esta potencia mundial desde prácticamente el comienzo de su historia, cuando los primeros colonos, a parte de arrasar diariamente con indígenas, también se disputaban entre sí ganado y tierras en vista de que no existían límites ni regulaciones territoriales. 

Las balaceras en suelo norteamericano tienen larga data, y si nos centramos en los atentados en las escuelas, también. Se tiene registro de masacres escolares por lo menos desde 1764, pero es completamente cierto que en los últimos decenios el problema ha ido aumento, aconteciendo en intervalos de tiempo cada vez más cortos.

Por tal motivo, se están impulsando proyectos de investigación que, más allá de entender las causas de fondo de estas conductas letales, ayuden a prevenirlas. Tal es el caso de Shreya Nallapati, graduada en Colorado, quien ve a la tecnología como la mejor herramienta para tomar acciones frente a posibles tiroteos. 

Gracias a sus estudios en inteligencia artificial, Shreya se unió al proyecto Aspirations in Computing y así empezó #NeverAgainTech, un software machine learning que recopilará y evaluará todos los patrones que se repiten entre los tiradores registrados hasta la fecha, tanto dentro como fuera de los colegios, con el fin de identificar conductas de alarma en los jóvenes y evitar trágicas decisiones.

"Antes de estos episodios violentos, suele haber señales y advertencias en la conducta", señala Drews Barzman, director del Child and Adolescent Forensic Psychiatry Service, quien afirma que a parte de ciertos hábitos como problemas familiares, posibles trastornos o consumo de drogas, existen cambios en el vocabulario y la conducta -a veces muy sutiles- del futuro tirador. 

Por si esto fuera poco, el algoritmo del #NeverAgainTech, tras buscar puntos en común entre los agresores registrados, ha probado tener un 91% de coincidencias con estudiantes sospechosos de planificar futuros atentados. Y aunque esto es en principio positivo, pone debates éticos sobre la mesa al comprometer la privacidad de los jóvenes.  

 “Aplicar la IA a ciertos entornos no debe distraernos de sus implicancias a nivel social e políticos”, advierte uno de los involucrados en el proyecto.

Comentarios