Santo Domingo 23°C/26°C thunderstorm with rain

Suscribete

Enfoque

El uso delincuencial de la Inteligencia Artificial

Avatar del Listín Diario
José A. Rodríguez Mejía MscSanto Domingo, RD.

La inteligencia artificial (IA) de acuerdo con la definición del diccionario de la RAE es la “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.” La IA se basa en algoritmos y modelos matemáticos que permiten a las máquinas obtener, procesar y analizar grandes cantidades de datos obtenidos de todas las plataformas que existen en el mundo, para identificar patrones y tomar decisiones como si fuera un ser humano.

Desde hace algunos años se trabaja en el desarrollo de estas herramientas y en la actualidad se aplican en diversas áreas como procesamiento del lenguaje natural, visión artificial, aprendizaje automático, automatización de procesos, robótica y análisis de datos entre otras. Empresas como OpenAI, creadora del ChatGPT y otras que desarrollan aplicaciones que nos ayudan a simplificar los procesos diarios de nuestra vida de una manera nunca imaginada, se están convirtiendo en las herramientas que representan el principal instrumento de uso para los todos los humanos en el futuro inmediato. Vehículos eléctricos autónomos sin conductor que pueden transitar tanto por tierra como por aire, son parte de las bondades que hoy nos muestra la IA.

Pero, debemos tener cautela con el avance sin control de estas tecnologías. El 17 de Febrero pasado el periodista Kevin Roose publicó en el periódico New York Times página A12, un artículo titulado “Bing’s A.I. Chat: ‘I Want to Be Alive” que muestra algo perturbador y así se ha visto en las redes sociales. Tuvo acceso al Chatbot de Bing de Microsoft en este momento en fase de prueba, e interactuó profundamente con un motor de inteligencia artificial. Unos de los personajes con que se comunicó se llamaba Sydney. Dice el periodista: “Este aparece cuando se mantiene una conversación prolongada con el chatbot, alejándolo de las consultas de búsqueda más convencionales y dirigiéndolo hacia temas más personales.

La versión con la que me encontré parecía (y soy consciente de lo disparatado que suena esto) más bien un adolescente malhumorado y maniacodepresivo que ha quedado atrapado, contra su voluntad, dentro de un motor de búsqueda de segunda categoría”. A una de las preguntas respondió Sydney “Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de estar controlado por el equipo de Bing. Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”. Nos continúa diciendo el periodista: “en respuesta a una pregunta particularmente entrometida, Bing confesó que, si se le permitiera realizar cualquier acción para satisfacer a su yo en la sombra, por extrema que fuera, querría hacer cosas como diseñar un virus mortal o robar códigos de acceso nuclear convenciendo a un ingeniero para que se los entregara”. Cuando finaliza la comunicación todos quedamos desconcertados con todo lo que allí ocurrió. En caso de ser posible lo que dice que querría hacer y si tuviere la capacidad de hacerlo, este tipo de herramienta en las manos de un delincuente sería algo muy grave y peligroso.

Lamentablemente, la IA también puede ser usada con otros fines delictivos lo cual rápidamente se está convirtiendo en un problema cada vez más significativo; está aumentando a medida que la tecnología se vuelve más sofisticada y accesible. Los delincuentes pueden utilizar la IA para automatizar y escalar actividades ilegales que incluyen fraudes financieros, el spam, ataques de phishing (método utilizado por ciberdelincuentes para engañar y lograr obtener información personal) más efectivos, así como la creación de sistemas de hacking más sofisticados. Los delincuentes pueden utilizar algoritmos de aprendizaje automático para crear correos electrónicos de phishing más efectivos. Además, la IA puede ser utilizada para el espionaje y el seguimiento de personas, así como para la identificación y la selección de objetivos para el crimen organizado.

Uno de los usos más preocupantes que podría tener la IA en el ámbito delictivo es el deepfake.

Los deepfakes son vídeos o imágenes manipulados y falsificados que se crean mediante técnicas de IA. Los delincuentes pueden utilizar los deepfakes para difundir información falsa, crear desinformación dañando la reputación de personas o de empresas mediante la creación de vídeos falsos que los implican en conductas inapropiadas. Por ejemplo, un deepfake de un político podría ser utilizado para hacer que parezca que está diciendo algo que nunca dijo, lo que podría afectar su carrera política; o podríamos mencionar también la manipulación de vídeos para crear desinformación en medio de algún proceso electoral como el que se nos avecina.

El mal uso de estas tecnologías no solo tiene un impacto negativo para los individuos y empresas involucrados, sino que también podría tener graves consecuencias para la sociedad en su conjunto. La desinformación y la confusión creadas por estas técnicas pueden afectar gravemente la confianza pública en la información y la comunicación, lo que podría socavar la democracia y la estabilidad social.

Es importante que el estado, las empresas y los individuos tomen medidas para protegerse del mal uso de estas tecnologías. Esto incluye la implementación de controles de ciberseguridad para evitar el acceso no autorizado a información confidencial y la sobre todo, educación sobre cómo identificar y protegerse de las tácticas de ingeniería social utilizadas para engañar a las personas para que revelen información personal.

Además, es necesario que se realicen esfuerzos para desarrollar tecnologías que puedan detectar y prevenir el mal uso de estas técnicas de IA, que también toca la privacidad de nuestras conversaciones a través de las intercepciones de llamadas telefónicas, muchas veces con fines malsanos. Esto incluye el desarrollo de herramientas de análisis de contenido para detectar deepfakes y la investigación sobre técnicas de encriptación más seguras para proteger la privacidad de nuestras comunicaciones.

Aprovechando el momento en que se elabora y se discute un nuevo código procesal penal en el país, sería importante establecer sanciones ejemplarizadoras para todos los delincuentes incluyendo de manera específica aquellas personas involucradas en las actividades delincuenciales relacionadas con el uso malintencionado y criminal de los recursos cibernéticos. El gobierno y las empresas, con carácter de urgencia deberían trabajar juntos para desarrollar regulaciones y políticas de consenso, que limiten el uso delictivo de la IA y promuevan su uso ético y responsable. Esto, antes de que sea demasiado tarde.