Contenido creado por Ignacio Palumbo
Política

El futuro ya llegó

Cámaras de la Policía con inteligencia artificial: cómo definen la “actitud sospechosa”

Interior está en proceso de adquirir un software que analiza “en tiempo real” ciertas “conductas corporales, movimientos y objetos”.

05.08.2023 16:57

Lectura: 6'

2023-08-05T16:57:00-03:00
Compartir en

Por Ignacio Palumbo

El ministro del Interior, Luis Alberto Heber, aseguró la semana pasada que su cartera comenzará a utilizar un software con inteligencia artificial en las cámaras de videovigilancia instaladas en la vía pública.

El objetivo es que la herramienta optimice de cierto modo la efectividad de los dispositivos en el patrullaje, por poder “identificar gente que tiene actitudes sospechosas”, y colaborar así con una “labor preventiva”.

Un cambio de paradigma

El Ministerio del Interior ya cuenta con un software “integrado” que permite el uso de la analítica, pero es “limitado” y para uso forense, explicó a Montevideo Portal Nicolás Martinelli, director general de la secretaría de Estado. “Es decir, se analiza la información cuando el evento ya sucedió”, precisó.

El nuevo software, que “identifica determinadas conductas corporales y movimientos de objetos de manera más rápida y eficiente”, implica “un cambio de paradigma” en materia de prevención policial, indicó Martinelli.

La policía podrá, así, “dar un paso” hacia el análisis en tiempo real.

Cómo funciona

El software que el Ministerio del Interior busca adquirir “trabaja a partir del ‘aprendizaje' basado en la inteligencia artificial”. Según detalló el jerarca, es un entrenamiento para que aprenda a detectar “aquellas conductas que la experiencia policial tiene identificadas como sospechosas”.

También puede reconocer objetos “potencialmente peligrosos o extraños” en un ambiente “predeterminado”, añadió.

Consultado respecto a si este software será operativo en todas las cámaras de videovigilancia del ministerio, Martinelli reconoció que “es posible”.

El tema no recae en las cámaras, sino en el propio programa informático. El sistema recibe la información que llega a través de las cámaras y la analiza en tiempo real, para luego alertar al efectivo policial.

Al respecto, Martinelli destacó que el cambio “más importante” en relación al sistema actual es, justamente, recibir la notificación del hecho delictivo en tiempo real. Esto permitiría a la cartera, en algunos casos, “prevenirlo”, y en otros “tener más chances de capturar” al delincuente.

Martinelli expresó que, actualmente, un visualizador puede estar pendiente de, “como mucho”, 20 cámaras; con el inminente uso de la inteligencia artificial, podría controlar “más de 200”.

La actitud delictiva

Martinelli se refirió también a cómo es el proceso de “educación” que debe tener el software para detectar las conductas delictivas por las que la Policía quiere ser alertada. Esto requiere una etapa de testeo, acotó.

Estas conductas pueden incluir “una persona acostada”, alguien que “levanta las manos”, otra que saca un arma o incluso una motocicleta que circula a contramano. “Pero puede suceder que la persona que levanta las manos esté haciéndolo porque está cargando algún objeto y, por eso, esa acción hay que asociarla a otra acción o conducta que puede ser la aparición en la misma escena de otro sujeto con un arma”, argumentó el jerarca.

A modo de ejemplo, Martinelli ilustró cómo funcionaría el software, desde que detecta el hecho hasta que lo notifica. “Estamos hablando que cuando en las imágenes que llegan a través de las cámaras se ve a un individuo con un objeto, que el software identifica como un arma y el otro individuo se tira al piso o levanta las manos, se genera una alerta en tiempo real que dispara la inmediata reacción policial”, dijo.

Así, resaltó que existen muchas posibilidades de hechos que las cámaras pueden detectar; por eso se realizan “pruebas piloto” que permiten “ajustar el software y evitar falsos positivos”.

La adquisición

Interior está en negociaciones con cuatro empresas distintas que presentaron planes piloto en torno a la implementación de esta herramienta. Una vez la cartera obtenga los resultados de esta etapa, estará en condiciones de avanzar en su adquisición.

A su vez, cuando termine esta fase estarán en condiciones de “solicitar cotizaciones y avanzar”.

En tal sentido, Martinelli no pudo acotar qué costo tiene este software para el ministerio, ni tampoco a partir de cuándo estará operacional.

Cuestiones legales

Martín Bueno, abogado especializado en asuntos de tecnología, aseguró a Montevideo Portal que este nuevo software “seguramente sea legal” —ya que no conoce el proyecto en su totalidad—, pero ahondó en el problema “base” o “de fondo”: cómo el Ministerio del Interior guarda y utiliza su banco de imágenes.

“Está bueno que [la cartera] informe cuáles son las prácticas, cuáles son las finalidades y cómo se utilizan todas esas imágenes que contienen datos de todos nosotros. Básicamente saber cuáles son los procedimientos y protocolos de su utilización”, expresó el abogado.

En opinión del experto, en cuanto a los protocolos, “se puede avanzar mucho más de lo que está hoy”.

Asimismo, expresó que el nuevo software detectará situaciones para, luego, dar un aviso al policía, pero “sobre eso seguramente ni se confeccione una base de datos”. Es decir, no se guardará información “sobre situaciones en las que la persona se tiró al piso”, ya que se trata de inteligencia artificial aplicada sobre una base de datos ya existente, argumentó.

En el mundo

En una rueda de prensa que brindó el viernes 28 de julio, Heber mencionó que esta herramienta se aplica en otros países con “muy buenos resultados”.

Martinelli señaló como ejemplo a Israel, “país vanguardia en materia de tecnología”, y China. En ellos, un visualizador puede controlar más de 500 cámaras “con la sola ayuda de la inteligencia artificial”, resaltó el jerarca.

China es una de las sociedades más vigiladas del mundo, con muchísimas videocámaras en circuito cerrado por las ciudades y una tecnología de reconocimiento facial muy utilizada para aplicar la ley, aunque también como herramienta de represión política, según consignó una nota de la agencia AFP.

En tal sentido, el gigante asiático recientemente organizó una exposición —llamada Security China— en la que participaron cientos de empresas de seguridad.

Una de ellas, SenseTime, presentó unas cámaras que pueden detectar comportamientos “indeseables”: fumar, pelearse o no usar tapabocas.

Sin embargo, de acuerdo con AFP, esta empresa está en la “lista negra del comercio” de Estados Unidos por formar parte del “complejo militar-industrial” de China, ya que “su tecnología se utilizaría en la región occidental de Xinjiang, donde se calcula que un millón de personas de la minoría uigur y de otras minorías musulmanas han sido detenidas desde 2017”.

Otra compañía, Zohetec, tiene dispositivos que permiten reconocer caras a 150 metros de distancia.

Por Ignacio Palumbo