Santo Domingo 25°C/26°C scattered clouds

Suscribete

TECNOLOGÍA

Una aplicación de reconocimiento facial de Clearview está identificando a víctimas de abuso infantil

Hoan Ton-That, el fundador de Clearview AI, realizaba una prueba de la aplicación de su empresa en Nueva York, el 10 de enero de 2020. (Amr Alfiky/The New York Times)

Hoan Ton-That, el fundador de Clearview AI, realizaba una prueba de la aplicación de su empresa en Nueva York, el 10 de enero de 2020. (Amr Alfiky/The New York Times)

Avatar del Listín Diario
The New York TimesSanto Domingo

Agencias de seguridad de Estados Unidos y Canadá están usando Clearview AI —una hermética empresa emergente de reconocimiento facial con una base de datos de 3000 millones de imágenes— para identificar a niños que son víctimas de abuso sexual. Es un poderoso caso de uso para la tecnología de la empresa, pero genera nuevos cuestionamientos sobre la precisión de esa herramienta y el manejo de los datos que hace la empresa.

Según los investigadores, las herramientas de Clearview les permiten saber los nombres o el paradero de menores que aparecen en videos o fotos de explotación sexual y que, de otro modo, tal vez no habrían sido identificados. En un caso en Indiana, los detectives pasaron imágenes de 21 víctimas del mismo delincuente por la aplicación de Clearview y recibieron catorce identidades, de acuerdo con Charles Cohen, un jefe retirado de la policía estatal. La víctima más joven tenía 13 años.

“Eran chicos o mujeres jóvenes. Queríamos encontrarlos para decirles que habíamos arrestado a este tipo y ver si querían declarar en calidad de víctimas”, señaló Cohen.

Otro funcionario, uno de los responsables de la identificación de víctimas en Canadá, quien no estaba autorizado para hablar en público sobre las investigaciones, describió la tecnología de Clearview como “el avance más importante en la última década” en el terreno de los delitos de abuso sexual infantil.

Sin embargo, según defensores de la privacidad, no se ha probado ni regulado la base de datos de la empresa, la cual podría causar nuevos tipos de daños. En sus servidores, Clearview almacena fotos que suben los investigadores —conocidas como “imágenes de sondas”—, es decir que podría acumular un conjunto de datos de una delicadeza extraordinaria sobre víctimas infantiles de abuso sexual y explotación.

“Comprendemos la sensibilidad extrema involucrada con la identificación de niños”, escribió en un correo electrónico Hoan Ton-That, fundador de Clearview. “Nuestra misión es proteger a los menores”.

De acuerdo con un documento que la empresa comparte con sus clientes, “las búsquedas se guardan para siempre” por omisión, pero los administradores pueden cambiar sus configuraciones para que las imágenes de esas búsquedas sean purgadas después de 30 días.

En su mayor parte, Clearview había operado en las sombras hasta el mes pasado, cuando la publicación de un reportaje de The New York Times reveló el uso que le daban agencias de seguridad a nivel local y federal de todo el país. La empresa ha recolectado miles de millones de fotos de individuos de todo el internet público, en sitios como Facebook, Twitter, Venmo y YouTube. Cuando un usuario sube la foto de una persona a Clearview, la aplicación muestra otras imágenes de la persona y las direcciones web donde aparece.

En numerosos documentos publicitarios, Clearview promueve el uso que le dan las agencias de seguridad a su tecnología para resolver casos de abuso sexual infantil. No obstante, hasta hace poco, la empresa se centraba en su participación para identificar a los perpetradores, no a las víctimas.

Quienes critican a Clearview mencionaron que los beneficios de ese tipo de base de datos no superaban los daños que podían causar.

“Es difícil. Todo el mundo quiere seguridad y salvar a los niños”, comentó Liz O’Sullivan, directora de tecnología en Surveillance Technology Oversight Project. “Siempre hay alguna manera de normalizar la vigilancia, pero sería peligroso que nos enfocáramos en las ventajas potenciales. El reconocimiento facial comete muchos errores”.

O’Sullivan mencionó que le preocupaba que una agencia independiente no hubiera probado la precisión del software de Clearview. Los algoritmos de reconocimiento facial pueden ser deficientes en la gente joven, en parte porque sus rostros cambian con la edad, y en parte porque los niños a menudo no están incluidos en los conjuntos de datos que se usan para entrenar a los algoritmos.

O’Sullivan hizo notar que, si la herramienta se equivoca en una coincidencia, podría haber efectos devastadores para los niños que hayan sido identificados de forma errónea y para sus familias. “El intercambio de la libertad y la privacidad por alguna evidencia anecdótica que pudiera servirles a ciertas personas en ningún caso es suficiente para ceder nuestras libertades civiles”, opinó O’Sullivan.

Las agencias de seguridad deben verificar cada identidad cuando usan la aplicación de Clearview, comentó Ton-That en su correo electrónico. Sin embargo, no supo decir cuántos niños había en su base de datos.

“No monitoreamos el desglose de edad, género o raza de nuestra base de datos de imágenes”, comentó. “Somos un motor de búsqueda de imágenes públicas, no un sistema de vigilancia”.

Las fuerzas especiales de Florida, Indiana y Dakota del Sur dedicadas a la investigación del abuso infantil, así como el Departamento de Seguridad Nacional y las agencias de seguridad de Canadá, utilizan la aplicación.

Al igual que varios funcionarios que declararon para el Times, el investigador canadiense fue reacio a hablar sobre Clearview, por temor a que los delincuentes cambiaran sus tácticas. “Nos preocupa que, cuando los criminales sepan que está disponible, cubran más el rostro de sus víctimas”, comentó el oficial. “No queremos que ellos sepan que se puede hacer esto”.

Hay riesgos legales asociados con el manejo de este tipo de imágenes. La empresa violaría la ley si recibe imágenes de abuso y no informa de inmediato a las autoridades y borra el material de sus servidores. Ton-That mencionó que la aplicación de Clearview solo transmite rostros, no imágenes completas.

El Times verificó esta conducta analizando una versión para Android de la aplicación de Clearview, pero no pudo examinar la oferta de la empresa para iOS ni una versión para web.

Ninguna de las agencias de seguridad con las que habló el Times mencionó si había realizado una auditoría técnica a Clearview antes de usar el software. Tampoco respondieron a las preguntas relacionadas con el uso específico de la aplicación, al argumentar que no comentaban sobre sus técnicas de investigación.

Britney Walker, una vocera de la Unidad de Investigación de Explotación Infantil del Departamento de Seguridad Nacional, mencionó que la división colabora con otras agencias para que le ayuden con las investigaciones, pero que la estrategia “centrada en las víctimas” que utiliza la unidad prohíbe compartir imágenes ilegales.

“Bajo ninguna circunstancia, la agencia compartiría material de abuso sexual infantil a empresas privadas”, comentó Walker.

Otras compañías ya trabajan de cerca con funcionarios de agencias de seguridad para investigar casos de abuso sexual infantil. Johann Hofmann, director ejecutivo de Griffeye, señaló que el software de la empresa que analiza las imágenes fue instalado dentro de las redes de las agencias de seguridad y estaba diseñado para evitar el envío de imágenes a terceros, incluida la misma Griffeye.

Otra empresa que ofrece herramientas analíticas a los investigadores de abuso sexual infantil, CameraForensics, también comentó que sus sistemas estaban diseñados para nunca recibir ningún tipo de imágenes de agencias de seguridad, incluidos rostros. El fundador de la empresa, Matt Burns, mencionó que su firma había considerado incorporar la tecnología de reconocimiento facial en su software, pero había decidido no hacerlo por “razones éticas”.

Desde que salieron a la luz las prácticas de Clearview, compañías como Facebook, LinkedIn, Twitter, Venmo y YouTube le han enviado cartas en las que le solicitan dejar de tomar fotos de sus sitios y borrar las imágenes existentes de sus bases de datos. El fiscal general de Nueva Jersey les prohibió el uso de Clearview a los funcionarios del estado y solicitó una investigación sobre el uso que les daban las agencias de seguridad a la empresa y a las tecnologías similares. En Illinois, donde una dura ley de privacidad de los datos biométricos prohíbe el uso de los rostros de los habitantes sin su consentimiento, se presentó una demanda colectiva en busca de certificación. El 3 de febrero, se presentó otra en Virginia.

Recientemente, en Nueva York y Washington, se han presentado proyectos de ley que le prohíben el uso del reconocimiento facial a la policía. Además, Clearview recibió una carta de Edward Markey, senador demócrata de Massachusetts, en la que le pidió una lista de las agencias de seguridad que han usado la aplicación y si se ha recabado la información biométrica de niños menores de 13 años.