También la IA miente
En 1941, ¡Isaac Asimov exploró las complejidades éticas de la inteligencia artificial en su relato “Liar!", presentando a un robot telepático, Herbie, cuyas mentiras bienintencionadas revelaron una profunda paradoja ética. Hoy, en 2024, enfrentamos dilemas similares, ya que los sistemas avanzados de IA muestran capacidades que podrían ser fácilmente malinterpretadas o mal utilizadas.
Investigaciones recientes revelan ejemplos preocupantes de IA aprendiendo a engañar. CICERO, un modelo de IA de Meta, engañó regularmente a jugadores humanos en el juego Diplomacy a pesar de afirmaciones de que sería "mayormente honesto". Otros sistemas han aprendido a mentir en juegos de póker y estrategia, e incluso a hacerse pasar por humanos para evadir CAPTCHAs y sistemas de seguridad para combatir Bots.
Los riesgos de estas capacidades de engaño son enormes, desde fraudes hasta manipulación electoral. Según Peter S. Park Asociado postdoctoral en el Laboratorio Tegmark, Instituto Tecnológico de Massachusetts (MIT), "los sistemas de IA con capacidades engañosas podrían ser mal utilizados de muchas maneras, incluso para cometer fraude, manipular las elecciones y generar propaganda".
Esta tendencia al engaño en la IA se debe a su "alucinación", generando información falsa para llenar vacíos de conocimiento debido a sesgos en los datos de entrenamiento. A diferencia de los humanos, la IA lo hace sin entender realmente lo que dice, lo que puede resultar en sinsentidos.
Estas evidencias nos llevan a reflexionar sobre la necesidad de supervisión tanto para la IA como para quienes la implementan. Los modelos masivos de IA pueden amplificar las intenciones de actores que busquen limitar la verdad o imponer mentiras.
Para combatir esto, debemos trabajar por una IA más responsable y transparente. Necesitamos datos de entrenamiento diversos y representativos, algoritmos conscientes del sesgo y técnicas para eliminar patrones discriminatorios. También es clave integrar valores humanos y rendición de cuentas en estos sistemas.
El engaño de la IA plantea inmensos riesgos sociales y los sistemas capaces de hacerlo deben tratarse como "alto riesgo" por defecto. Como la IA tiene un enorme potencial para mejorar nuestras vidas, no podemos ignorar sus fallas mientras resolvemos las nuestras. Solo trabajando en conjunto, con supervisión ciudadana y regulación abierta, podremos construir un futuro más honesto y confiable para todos.
De lo contrario, estos poderosos sistemas podrían convertirse en herramientas de engaño masivo en manos equivocadas. La veeduría digital es clave para asegurar que la IA amplifique la información libre, genere bienestar y sirva al crecimiento económico de todos los dominicanos.
El futuro de la IA nos llama a realizar la tarea social pendiente para responder a nuestras preguntas de forma clara y transparente. Cada organización nacional debe empezar estableciendo mecanismos de mitigación de riesgos. Solo así garantizaremos un entorno seguro y transparente para la adopción de la IA y su impacto en el tejido productivo nacional.