Entre thriller y ciencia ficción (blog)
Robocops en las calles de San Francisco
El 6 de diciembre de 2022 se llegó a una curiosa votación en la cuál, el consejo de la ciudad de San Francisco debía decidir si armaba a robots con armamento letal. Esta votación se llevó a cabo en Oakland con anterioridad y, en ambos casos, y tras la presión ciudadana, se decidió posponer armar a los robots policía que vigilan las calles de estas ciudades con armamento letal.
Si bien la intención de la policía era utilizar estos drones con armamento que ayudara a inutilizar a un peligroso delincuente, la mente de muchos viaja por todos esos mundos distópicos de policías robots, y los compara con la realidad del día a día de la delincuencia que sufren en sus calles. Y tú, ¿armarías a un policía robot para neutralizar a un delincuente en tu ciudad? ¿Crees que estos robocops acabarán por poblar nuestras ciudades?
Hacer encuesta
Para dar un poco de perspectiva, la policía de San Francisco cuenta ya con 17 robots (no armados), de los cuáles 12 ya han sido utilizados en operaciones como desactivación de artefactos, labores de vigilancia, etc. La empresa Boston Dynamics, propietaria de algunos de estos robots, ya está en negociaciones con varias ciudades aunque, de momento, parece que el uso de armamento no se contempla. Eso sí, su DIGIDOG, ya se ha utilizado en interveciones en diferentes ciudades de Estados Unidos.
Esta es una prueba más de que los avances tecnológicos chocan con nuestra preparación moral y ética. Si bien no nos hacemos muchas preguntas sobre el uso de drones de combate en cualquiera de las guerras que se están librando estos días, nos cuesta imaginar tener policías robot armados patrullando nuestras calles.
El robot humanoide de H-Bot robotics (India) que incorpora un software de Inteligencia artificial
Reem, el robot de Dubai que habla más de 15 idiomas e incorpora IA
Gobetween, el robot que en USA empieza a poner multas de tráfico
Inteligencia Artificial: Seguridad Ciudadana o intromisión en la Privacidad
Imagina no necesitar pasaporte para subirte a un avión o para traspasar una frontera.
Ni huella dactilar, ni tener que pasar por las rigurosas preguntas que un agente de seguridad de un aeropuerto hace regularmente a los ciudadanos que pasan la frontera aeroportuaria. Esto sucede desde hace unos años en aeropuertos de muchos países. En Dubai se probó uno de los primeros piloto en 2018, en el que más de 80 cámaras tomaban imágenes faciales y del iris de cada persona que atravesaba el llamado Túnel Inteligente. Estas imágenes las procesa una inteligencia artificial, que indentifica al ciudadano en cuestión. Con un error que algunos estiman hoy en día en 1 de cada 25 pasajeros. Cuando se detecta este error el pasajero en cuestión tendrá que identificarse por otros medios.
El sistema de reconocimiento facial lleva tiempo implantado en algunos aeropuertos por aerolíneas como JetBlue, y tu cooperación, cediendo esta información a las aerolíneas puede ahorrarte la espera para entrar al avión.
Los servicios secretos, el FBI, y otras agencias menos conocidas tienen ya acceso a programas como Clearview, capaz de rastrear una imagen tuya captada por una cámara y compararla contra millones de imágenes compiladas de Facebook, Instagram, etc.
A finales de 2022 fue la policía española la que se hizo con un programa de reconocimiento facial, el Sistema Automático de Identificación Biométrica, ABIS. En este caso, se supone que solo tiene acceso a bases de datos de imágenes de criminales que hubieran cometido delitos graves y, según el gobierno, nunca sería utilizado para el reconocimiento de ciudadanos en protestas, o en otras situaciones. Algo que sí ha ocurrido en otros episodios en países como Estados Unidos.
¿Estamos, por tanto, ante un simple cambio de método de identificación personal, o estamos traspasando la barreras de la privacidad?
Si bien es un debate complejo porque, ¿quién no quiere que cojan al asesino? cuando se trata de implantarlo en el día a día, choca con problemas éticos y morales derivados del mal uso que se le puede dar a una herramienta tan poderosa. En la literatura y en el cine se ha utilizado como un recurso habitual hasta el punto de normalizarlo. Pero, ¿qué pasaría si estas empresas empiezan a utilizar herramientas de IA para fines que comprometen la privacidad de las personas? ¿Podría una empresa identificar a los manifestantes de una huelga? ¿Podría un partido político identificar a sus adversarios?
Sin embargo, la IA está ayudando en muchos otros campos a las fuerzas de seguridad, desde la reconstrucción de un crimen en 3D, la reconstrucción facial a partir del esqueleto como el de ahí arriba, o incluso la detección de un patrón olfativo en la escena de un crimen.
La empresa Leonesa-Granadina Panacea Cooperative Research presenta una tecnología basada en IA que simplifica el proceso de identificación de humanos a partir de restos.
Skeleton-ID se puede utilizar para buscar candidatos en bases de datos de personas desaparecidas, para identificar restos humanos en fosas comunes o en escenarios de catástofres.
Vídeo en versión española explicando la tecnología de reconstrucción craneofacial de Panacea Cooperative Research.
Realidad Virtual y Aumentada (RV/RA) en entrenamiento policial
Un policía atiende una llamada de unos vecinos y llega a la escena en la que se está produciendo una pelea. Un coche aparcado frente a otro y un hombe y una mujer discuten acaloradamente. El hombre muestra un arma. La mujer no se presenta intimidada. El policía debe decidir que hace. A los juegos de realidad virtual cada vez más, se le acopla Realidad Aumentada, esto es, un escenario similar al real y una situación que simula un altercado también real manejado por una inteligencia artificial. Los posibles resultados son múltiples, el hombre se lanza a por la mujer con el arma, el hombre tira al suelo el arma y es la mujer la que saca un arma escondida y agrede al hombre, el policía consigue entablar una conversación con ambos y calmar la situación hasta que llegan refuerzos. La situación es compleja y el policía debe seguir un procedimiento en el que siempre busque minimizar los daños personales, pero la apariencias pueden engañar. El entrenamiento que empresas del sector están ofreciendo ya a departamentos de policía incluye desde pruebas de tiro en diferentes escenarios, a todo tipo de entrenamientos complejos: Desescalada de situaciones como la descrita, uso de la fuerza, intervencion de crisis, situaciones de sesgo implícito, entrenamiento con armas de fuego para las cuales debe adaptarse un arma simulada igual al utilizado por las fuerzas del orden para impedir que se adquieran vicios, desarrollo de habilidades especiales, comunicación, trata de personas, contacto con personas con alguna enfermedad mental, tirador activo, paradas de tráfico y controles de carretera, desarrollo de habilidades de juicio de determinadas situaciones, crímenes cibernéticos, emboscadas, ataques terroristas, violencia doméstica, situaciones de rehenes y secuestros, suicidas y todos los escenarios que puedas imaginar.
La empresa alicantina LastMonkey ha desarrollado el software Octopus Tactical, un simulador virtual de entrenamiento táctico policial, con réplicas de armas reales, y con salas que incluyen una galería de tiro virtual (fuego simulado que permite ahorrar munición), módulos de intervención en viviendas, controles de tráfico, etc. Consta de un chaleco háptico con el cual se pretende medir con inteligencia artificial el estrés producido durante el entrenamiento.
No es la única en el mercado, en el blog os dejo vídeos de entrenamiento virtual con Octopus y con Apexofficer, empresa estadounidense cuyos simuladores están implantados ya en comisarías de varios estados de USA. También tienen sus módulos de entrenamiento para el ejército.
Octopus de LastMonkey Studio
Entrenamiento con Realidad Virtual en la policía local de La Nucía, Alicante.